Lebih dari 800 tokoh masyarakat termasuk Steve Wozniak dan Pangeran Harry, bersama dengan ilmuwan AI, mantan pemimpin militer dan CEO menandatangani perjanjian. penyataan menuntut pelarangan pekerjaan AI yang dapat mengarah pada superintelligence, Waktu Keuangan dilaporkan. “Kami menyerukan larangan terhadap pengembangan superintelligence, bukan dicabut sebelum ada konsensus ilmiah yang luas bahwa hal itu akan dilakukan dengan aman dan terkendali, dan dukungan publik yang kuat,” bunyi pernyataan tersebut.

Penandatangannya mencakup berbagai orang dari berbagai sektor dan spektrum politik, termasuk peneliti AI dan pemenang hadiah Nobel Geoffrey Hinton, mantan ajudan Trump Steve Bannon, pernah menjadi Ketua Kepala Staf Gabungan Mike Mullen dan rapper Will.i.am. Pernyataan tersebut datang dari Future of Life Institute yang menyatakan bahwa perkembangan AI terjadi lebih cepat dari yang dapat dipahami masyarakat.

“Kami, pada tingkat tertentu, telah dipilihkan jalur ini oleh perusahaan dan pendiri AI serta sistem ekonomi yang menggerakkan mereka, namun tidak ada yang benar-benar bertanya kepada orang lain, ‘Apakah ini yang kami inginkan?’” kata direktur eksekutif lembaga tersebut, Anthony Aguirre. Berita NBC.

Kecerdasan umum buatan (AGI) mengacu pada kemampuan mesin untuk berpikir dan melakukan tugas sebaik yang bisa dilakukan manusia, sedangkan kecerdasan super memungkinkan AI melakukan sesuatu lebih baik daripada manusia yang ahli sekalipun. Kemampuan potensial tersebut telah dikutip oleh para kritikus (dan budaya pada umumnya) sebagai risiko besar bagi kemanusiaan. Namun sejauh ini, AI telah membuktikan dirinya hanya berguna untuk tugas-tugas tertentu dan secara konsisten gagal menangani tugas-tugas kompleks seperti mengemudi sendiri.

Meskipun belum ada terobosan baru-baru ini, perusahaan seperti OpenAI mengucurkan miliaran dolar untuk model AI baru dan pusat data yang dibutuhkan untuk menjalankannya. CEO Meta Mark Zuckerberg baru-baru ini mengatakan bahwa superintelligence sudah “di depan mata”, sementara CEO X Elon Musk mengatakan superintelligence “terjadi dalam waktu nyata” (Musk juga terkenal memperingatkan tentang potensi bahaya AI). CEO OpenAI Sam Altman memperkirakan superintelligence akan terjadi paling lambat pada tahun 2030. Tak satu pun dari para pemimpin tersebut, atau siapa pun terkemuka di perusahaan mereka, menandatangani pernyataan tersebut.

Ini bukanlah satu-satunya seruan untuk memperlambat pengembangan AI. Bulan lalu, lebih dari 200 peneliti dan pejabat publik, termasuk 10 pemenang Hadiah Nobel dan beberapa pakar kecerdasan buatan, mengeluarkan seruan mendesak untuk “garis merah” terhadap risiko AI. Namun, surat tersebut tidak merujuk pada superintelligence, namun bahaya yang sudah mulai terwujud seperti pengangguran massal, perubahan iklim, dan pelanggaran hak asasi manusia. Kritikus lain menyuarakan kekhawatiran mengenai potensi gelembung AI yang pada akhirnya dapat meletus dan membawa dampak buruk bagi perekonomian.

Tautan Sumber