PEMILIK Tesla, Elon Musk, pakar kecerdasan buatan (AI) dan eksekutif industri menyeru untuk berhenti seketika selama enam bulan dalam membangunkan sistem yang lebih berkuasa daripada GPT-4 OpenAI yang baru dilancarkan.

Seruan itu dinyatakan dalam satu surat terbuka yang memberi amaran mengenai potensi risiko kepada masyarakat.

Awal bulan ini, OpenAI yang disokong Microsoft melancarkan generasi keempat program AI GPT (Generative Pre-trained Transformer) yang telah memukau pengguna dengan melibatkan mereka dalam perbualan seperti manusia, mengarang lagu dan meringkaskan dokumen yang panjang.

Menurut satu surat dikeluarkan Future of Life Institute, sistem AI yang berkuasa harus dibangunkan hanya setelah pihaknya yakin bahawa kesan akan positif dan risikonya akan terurus.

Future of Life Institute merupakan organisasi bukan berasaskan keuntungan yang dibiayai kebanyakannya oleh Yayasan Musk, Founder Pledge dan Yayasan Komuniti Silicon Valley.

Awal bulan ini, Musk mengakui AI memberikan tekanan kepadanya.

Beliau kini berusaha menggesa pihak berkuasa memastikan pembangunan AI memenuhi kepentingan awam.


LEBIH BANYAK, LEBIH PANDAI, GANTI MANUSIA

OpenAI tidak serta-merta menjawab permintaan untuk mengulas mengenai surat terbuka itu.

Isi surat itu turut menggesa pengangguhan sementara pada pembangunan AI sehingga protokol keselamatan dibangunkan dan dikongsikan oleh pakar bebas dan menyeru peneraju AI untuk bekerjasama dengan pembuat dasar mengenai tadbir urus.

"Adakah kita patut membiarkan mesin membanjiri saluran maklumat kita dengan propaganda dan kepalsuan? Patutkah kita membangunkan minda bukan manusia yang akhirnya mungkin melebihi bilangan, lebih pandai dan menggantikan kita? kata surat itu.

Surat itu ditandatangani oleh lebih 1,000 individu termasuk Musk.

Bagaimanapun, Ketua Pegawai Eksekutif OpenAI, Sam Altman bukan diantara mereka yang menandatangani surat tersebut termasuk Ketua Pegawai Eksekutif Alphabet dan Microsoft, Sundar Pichai dan Satya Nadella.

Manakala individu yang menandatangani termasuk Ketua Pegawai Eksekutif Stability AI, Emad Mostaque; Penyelidik di DeepMind milik Alphabet; Individu berpengalaman luas dalam AI, Yoshua Russell dan perintis penyelidikan AI, Stuart Russell.

Kebimbangan hadir apabila ChatGPT menarik perhatian penggubal undang-undang Amerika Syarikat dengan persoalan tentang kesannya terhadap keselamatan dan pendidikan negara.

Pasukan polis Kesatuan Eropah  (Europol) memberi amaran tentang kemungkinan penyalahgunaan sistem dalam percubaan pancingan data, maklumat salah dan jenayah siber.

Sementara itu, kerajaan UK mendedahkan pelan untuk rangka kerja pengawalseliaan "boleh disesuaikan" di sekitar AI.


PERLUMBAAN AI

Seorang Profesor di Universiti New York yang menandatangani surat itu berkata, surat berkenaan tidak sempurna tetapi semangatnya betul kerana pembangunan AI perlu diperlahankan sehingga ia benar-benar difahami kesannya.

"Pemain industri besar menjadi semakin berahsia tentang apa yang mereka lakukan sekaligus menyukarkan masyarakat untuk mempertahankan diri daripada sebarang bahaya yang mungkin berlaku," jelasnya.

Sejak dikeluarkan tahun lepas, OpenAI's ChatGPT telah mendorong pesaing mereka untuk membangunkan model sama dengan syarikat seperti Alphabet berlumba-lumba meningkatkan kapasiti AI dalam produk mereka.

Pelabur pula dilihat berwaspada apabila ia bergantung kepada satu syarikat dan menggalakkan pesaingan untuk OpenAI.

Dalam pada itu, Profesor di Universiti Brown dan bekas Penolong Pengarah di Pejabat Sains dan Teknologi White House, Suresh Venkatasubramaniam berkata, kebanyakan kuasa untuk membangunkan sistem itu sentiasa berada di tangan beberapa syarikat yang mempunyai sumber untuk melakukannya.

"Begitulah juga model ini, ia sukar untuk dibina dan ia sukar untuk didemokrasikan," ujarnya.