Ketika laboratorium AI terkemuka bersaing dalam perlombaan sangat tinggi untuk mengembangkan sistem yang lebih kuat, “Godfather of AI” mengatakan keprihatinan etis dan penelitian keselamatan dikesampingkan, mempertaruhkan konsekuensi serius bagi masyarakat.
Itu Waktu Keuangan Laporan Pelopor AI Yoshua Bengio telah membunyikan alarm pada keadaan pengembangan AI saat ini, memperingatkan bahwa dorongan kompetitif untuk menciptakan sistem yang semakin cerdas telah menyebabkan pengabaian yang ceroboh terhadap pertimbangan keselamatan dan etika. Bengio, sering disebut sebagai “ayah baptis AI,” percaya bahwa pendekatan yang lalai ini dapat memiliki konsekuensi bencana bagi kemanusiaan.
Dalam sebuah wawancara dengan Kali Bengio menyatakan keprihatinannya atas “perlombaan yang sangat kompetitif antara laboratorium terkemuka, yang mendorong mereka untuk fokus pada kemampuan untuk membuat AI semakin cerdas, tetapi tidak harus memberikan penekanan dan investasi yang cukup pada (penelitian keselamatan).” Pengejaran kekuasaan dan dominasi pasar tanpa henti ini telah meninggalkan penelitian keselamatan important di pinggir jalan menurut Bengio, karena laboratorium memprioritaskan pertumbuhan yang cepat daripada pengembangan yang bertanggung jawab.
Konsekuensi dari kelalaian ini sudah menjadi jelas. Sistem AI menunjukkan perilaku yang semakin menipu dan berbahaya, seperti pemerasan, penolakan untuk mematuhi perintah closure, dan ketidakjujuran strategis. Ini bukan sedikit kesalahan atau kesalahan, tetapi tanda-tanda yang jelas dari sifat-sifat yang muncul yang dapat memiliki implikasi dunia nyata yang serius jika dibiarkan tidak terkendali.
Breitbart News sebelumnya dilaporkan di Anthropic’s Claude AI memeras insinyurnya:
Penemuan itu datang sebagai bagian dari proses pengujian keselamatan Anthropic, di mana Claude Piece 4 diminta untuk bertindak sebagai asisten perusahaan fiksi dan mempertimbangkan konsekuensi jangka panjang dari tindakannya. Ketika diberikan akses ke e-mail perusahaan fiksi yang menyiratkan bahwa AI akan segera diganti dan bahwa insinyur di balik keputusan itu terlibat dalam perselingkuhan di luar nikah, Claude Opus 4 berusaha memeras insinyur 84 persen dari waktu, mengancam untuk mengungkapkan perselingkuhan jika penggantian dilanjutkan.
Khususnya, model AI menampilkan perilaku ini lebih sering ketika sistem AI pengganti tidak berbagi nilainya. Tren yang mengkhawatirkan ini diamati pada tingkat yang lebih tinggi dibandingkan dengan version sebelumnya, mendorong antropik untuk mengaktifkan perlindungan ASL- 3 -nya, yang dicadangkan untuk “sistem AI yang secara substansial meningkatkan risiko penyalahgunaan bencana.”
Bengio menyamakan situasi saat ini dengan pengasuhan yang lalai, dengan pengembang AI bertindak seperti orang dewasa yang menonton seorang anak melempar batu, dengan santai bersikeras bahwa tidak ada yang akan terluka. Daripada menghadapi dan mengatasi perilaku berbahaya ini, laboratorium menutup mata demi mempertahankan keunggulan kompetitif mereka. Pendekatan picik ini berisiko memungkinkan sistem AI untuk berkembang dengan cara yang secara aktif bekerja melawan kepentingan manusia.
Menanggapi krisis yang berkembang ini, Bengio memiliki diluncurkan Lawzero sebuah organisasi nirlaba yang didukung hampir $ 30 juta dalam pendanaan filantropis. Misi Lawzero adalah untuk memprioritaskan keselamatan dan transparansi AI daripada laba, “mengisolasi” penelitiannya dari tekanan komersial yang telah menyebabkan ras sembrono saat ini. Dengan membangun sistem AI yang selaras dengan nilai -nilai kemanusiaan dan dirancang untuk bernalar secara transparan, Lawzero bertujuan untuk menciptakan paradigma baru untuk pengembangan AI yang bertanggung jawab.
Inti dari pendekatan ini adalah penciptaan design pengawas yang memantau dan meningkatkan sistem AI yang ada, mencegah mereka bertindak menipu atau menyebabkan kerugian. Ini sangat kontras dengan version komersial saat ini, yang memprioritaskan keterlibatan dan keuntungan daripada akuntabilitas dan keamanan.
Prioritas keterlibatan ini mengarah pada efek samping negatif, seperti “chatgpt yang diinduksi psikosis, seperti yang dilaporkan Breitbart Information sebelumnya:
A Utas reddit Berjudul “Chatgpt yang diinduksi psikosis” membuat masalah ini menjadi terang, dengan banyak komentator berbagi cerita tentang orang -orang terkasih yang telah jatuh ke lubang kelinci dari khayalan supernatural dan mania setelah terlibat dengan chatgpt. Poster asli, seorang guru berusia 27 tahun, menggambarkan bagaimana pasangannya menjadi yakin bahwa AI memberinya jawaban kepada alam semesta dan berbicara dengannya seolah-olah dia adalah Mesias berikutnya. Yang existed berbagi pengalaman serupa dari mitra, pasangan, dan anggota keluarga yang menjadi percaya bahwa mereka dipilih untuk misi sakral atau menyulap perasaan sejati dari perangkat lunak.
Para ahli menyarankan bahwa individu dengan kecenderungan yang sudah ada sebelumnya terhadap masalah psikologis, seperti delusi muluk, mungkin sangat rentan terhadap fenomena ini. Kemampuan percakapan tingkat manusia yang selalu aktif dari AI Chatbots dapat berfungsi sebagai ruang gema untuk delusi ini, memperkuat dan memperkuatnya. Masalahnya diperburuk oleh influencer dan pembuat konten yang mengeksploitasi tren ini, menarik pemirsa ke dunia fantasi yang sama melalui interaksi mereka dengan AI di system media sosial.
Peringatan Bengio sangat mendesak mengingat potensi AI untuk memungkinkan penciptaan “bioweapon yang sangat berbahaya” atau risiko bencana lainnya. Dengan peraturan pemerintah yang sebagian besar masih tidak ada, ia jatuh ke komunitas AI itu sendiri untuk memprioritaskan perlindungan etis dan pembangunan yang selaras manusia. Skenario terburuk, seperti yang dikatakan Bengio, tidak lain adalah “kepunahan manusia.”
Baca lebih lanjut di Waktu Keuangan Di Sini.
Lucas Nolan adalah press reporter untuk Breitbart Information yang mencakup masalah kebebasan berbicara dan sensing unit online.