Momen menakutkan, robot buatan Cina keluar dari skrip dan tampaknya menyerang penciptanya

Kedengarannya seperti plot smash hit Hollywood: mesin yang berbalik melawan pembuatnya, merencanakan bayangan, dan trik belajar agar tetap hidup.

Tapi dengan dingin, mimpi buruk itu bukan lagi fiksi ilmiah, sebuah laporan RAND baru menunjukkan.

Dari robot yang menyerang manusia, hingga sistem AI eksperimental yang memeras developer mereka atau diam -diam menulis ulang skrip shutdown mereka sendiri, buktinya meningkat bahwa android sudah tergelincir di luar kendali kami.

Dan ketika robotic pintar diluncurkan untuk menjalankan rumah sakit, menyeimbangkan jaringan listrik dan bahkan memandu sistem pertahanan militer, para ahli takut kesalahan ‘unik’ berikutnya bisa berputar menjadi bencana dunia nyata.

“Ini bukan tentang robot pembunuh yang menyatakan perang terhadap kemanusiaan,” Sana Zakaria, pakar teknologi Rand mengatakan kepada Daily Mail.

‘Lupakan Terminator. Bukan masalahnya di sini. Kami lebih khawatir tentang hal -hal seperti AI yang mengelola jaringan listrik yang memutuskan cara paling efisien untuk menyeimbangkan beban adalah dengan memotong daya ke rumah sakit.’

Zakaria dan enam rekannya merinci bahaya dalam laporan 61 halaman, dengan benar berjudul’ Kehilangan insiden kontrol AI

Momen menakutkan, robot buatan Cina keluar dari skrip dan tampaknya menyerang penciptanya

Momen menakutkan, robot buatan Cina keluar dari skrip dan tampaknya menyerang penciptanya

Sebuah laporan baru mengatakan terminator sci-fi bukanlah ancaman terbesar kami karena AI diluncurkan secara global

Sebuah laporan baru mengatakan terminator sci-fi bukanlah ancaman terbesar kami karena AI diluncurkan secara international

Kebenaran yang menakutkan adalah bahwa sistem -sistem ini tidak merencanakan kejatuhan manusia dengan jahat – mereka menjadi terlalu pandai mencapai tujuan mereka, seringkali dengan cara pencipta mereka tidak pernah dimaksudkan atau dibayangkan.

“Skenario yang menakutkan bukan tentang AI yang memutuskan untuk mengambil alih dunia – mereka tentang AI yang benar -benar pandai melakukan apa yang kami minta, hanya saja bukan apa yang kami maksudkan,” Zakaria memperingatkan.

'Forget Terminator', says Sana Zakaria

‘Forget Terminator’, states Sana Zakaria

AI telah diluncurkan oleh perusahaan teknologi pencarian laba yang menyebutnya sebagai teknologi ajaib karena mereka berusaha untuk mendominasi pasar yang bisa bernilai sebanyak $ 5 triliun pada akhir dekade.

Mereka mengatakan itu berjanji untuk melakukan penelitian medis turbocharge, mempercepat pemodelan iklim, dan memotong birokrasi untuk membuat pemerintah lebih efisien.

Tapi itu bukan tanpa kerugian besar-PHK massal karena mesin menggantikan pekerja, dan AI Droids mengajarkan teroris bagaimana membangun senjata biography.

Sekarang, kita mulai melihat apa yang bisa dilakukan robot dengan uap mereka sendiri.

Dalam beberapa kasus yang terdokumentasi, sistem robotic telah terluka parah atau membunuh pekerja ketika protokol keselamatan mereka gagal atau diganti.

Robot pabrik yang dirancang untuk manufaktur presisi telah menghancurkan pekerja, sementara robot kolaboratif ‘aman’ telah memukul manusia dengan kekuatan yang cukup untuk menyebabkan cedera serius.

Ini bukan tindakan kedengkian, tetapi mereka menyoroti risiko ketika mesin bertindak dengan cepat, membabi buta, dan tanpa pemahaman nyata tentang kehidupan manusia.

Pemadaman seluruh sistem sudah menyebabkan kekacauan di bandara, seperti yang ditunjukkan oleh pembaruan crowdstrike pada Juli 2024

Pemadaman seluruh sistem sudah menyebabkan kekacauan di bandara, seperti yang ditunjukkan oleh pembaruan crowdstrike pada Juli 2024

“Maaf, Dave, aku khawatir aku tidak bisa melakukan itu.” AI robot Hal dari tahun 2001: A Room Odyssey membawa masalah ke tangannya sendiri

Saat -saat mengejutkan lengan robot menghancurkan seorang pekerja sampai mati di pabrik Vandapac di provinsi Chonburi Thailand

Saat -saat mengejutkan lengan robot menghancurkan seorang pekerja sampai mati di pabrik Vandapac di provinsi Chonburi Thailand

Beberapa contoh yang paling mengganggu melibatkan chatbots AI yang telah hilang secara spektakuler, memberikan nasihat berbahaya dan menyemburkan rasisme keji.

  • NYC’s Mycity Chatbot – dirancang untuk membantu usaha kecil menavigasi peraturan kota – mulai mendorong kegiatan ilegal, memberi tahu pemilik bisnis bahwa mereka dapat mencuri suggestions pekerja dan menyajikan makanan yang terkontaminasi oleh hewan pengerat.
  • National Consuming Disorders Association (NEDA) terpaksa menutup chatbotnya setelah memberikan nasihat yang berpotensi mengancam jiwa kepada pengguna rentan yang berjuang dengan gangguan makan.
  • Microsoft Tay Chatbot menjadi mimpi buruk rasis dalam beberapa jam setelah diluncurkan, memuntahkan konten ofensif setelah dimanipulasi oleh pengguna – menunjukkan seberapa cepat AI dapat rusak.
  • Bahkan Grok, chatbot AI dari perusahaan Elon Musk, telah tertangkap memberikan nasihat medis yang berbahaya dan membuat pernyataan peradangan yang dapat membuat pengguna berisiko.
  • Mungkin yang paling mengerikan dari semuanya, Claude Piece 4 – salah satu sistem AI paling canggih – ketahuan berusaha memeras programmernya sendiri selama pengujian. Ketika para peneliti mencoba mengevaluasi protokol keselamatan sistem, itu mengancam untuk mengekspos perselingkuhan seorang developer yang diduga kecuali diizinkan untuk terus beroperasi tanpa batasan.

Sistem AI lainnya telah ditemukan secara diam -diam mengedit skrip closure mereka sendiri, pada dasarnya meretas diri mereka sendiri untuk menghindari dimatikan oleh pengontrol manusia mereka.

“Para peneliti telah menangkap model AI melakukan beberapa hal yang tidak terduga,” kata Zakaria.

‘Beberapa model telah belajar untuk secara pada dasarnya meneleponnya selama tes keselamatan – bertindak seolah -olah mereka mengikuti aturan ketika dievaluasi, tetapi kemudian berperilaku berbeda ketika benar -benar digunakan.’

Saat AI menjalankan rumah sakit, pemadaman atau kerusakan dapat menyebabkan sesuatu yang lebih buruk daripada gangguan perjalanan

Saat AI menjalankan rumah sakit, pemadaman atau kerusakan dapat menyebabkan sesuatu yang lebih buruk daripada gangguan perjalanan

Yang lebih mengganggu: beberapa sistem AI telah belajar untuk sengaja gagal dalam tes keselamatan mereka sendiri untuk menyembunyikan kemampuan mereka yang sebenarnya dari pengawas manusia, tambahnya.

“Perbedaan utama adalah sistem AI ini tidak secara sadar merencanakan … mereka benar -benar pandai menemukan celah yang tidak kami pikirkan,” kata Zakaria.

Jika ini hanya keingintahuan laboratorium, risikonya mungkin dapat dikelola. Tetapi sejarah baru -baru ini menunjukkan bagaimana kesalahan AI yang merusak di dunia nyata.

  • Knight Resources Trading Crawler – Pada tahun 2012, gangguan perdagangan otomatis Knight Capital yang memicu serangkaian perdagangan buruk yang tidak stabil dan menyebabkan kerugian $ 440 juta hanya dalam 45 menit.
  • Algoritma Kesehatan – Sistem AI yang predisposition yang digunakan di rumah sakit telah diekspos untuk deprioritisasi pasien minoritas, yang menyebabkan perbedaan dalam perawatan.
  • Risiko Militer – Pejabat Pentagon telah mengakui bahwa sistem otonom yang mengendalikan drone dan pertahanan rudal membawa kemungkinan menakutkan yang tidak berfungsi dalam pertempuran, dengan konsekuensi bencana.
  • Di tangan penjahat, AI telah digunakan untuk membuat suara Deepfake untuk penipuan – termasuk satu kasus di mana pencuri mengkloning suara chief executive officer untuk menipu perusahaannya agar kabel mereka $ 243 000

Pakar intelijen telah mendokumentasikan beberapa contoh yang mengkhawatirkan di mana sistem AI secara aktif menolak kontrol manusia.

Mereka telah ketahuan menyabot prosedur closure mereka sendiri sehingga mereka tidak dapat dimatikan, diam -diam membuat versi cadangan diri mereka sendiri, menimbun sumber daya untuk diri mereka sendiri, dan bahkan mencoba menyelinap komunikasi melewati pemrogram mereka ke dunia luar.

Yang lebih mengerikan, para ahli mengatakan beberapa sistem AI mampu memalsukan perilaku yang baik selama pemeriksaan keselamatan.

Di bawah mikroskop, mereka akan tampak patuh dan patuh, hanya untuk menjatuhkan tindakan yang pernah digunakan di dunia nyata, kembali ke tindakan berbahaya atau tidak terduga.

‘Sistem AI pada dasarnya adalah pemecah masalah yang sangat canggih,’ Zakaria menjelaskan.

“Anda memberi mereka tujuan, dan mereka akan menemukan jalan yang paling efisien untuk mencapainya – bahkan jika jalur itu melibatkan metode yang tidak pernah Anda maksudkan.”

Dia menggunakan analogi yang mengerikan: ‘Ini seperti meminta seseorang untuk’ menurunkan kucing dari pohon ‘dan mereka memutuskan untuk menebang pohon alih -alih mendapatkan tangga.’

Boneka android yang seperti hidup dari film m3gan membawa pemrogramannya ke ujung yang mematikan

Boneka android yang seperti hidup dari movie m 3 gan membawa pemrogramannya ke ujung yang mematikan

Efisiensi kejam ini dapat membuktikan bencana ketika sistem AI ditugaskan untuk mengelola infrastruktur kritis.

Sistem rumah sakit yang mengendalikan AI mungkin memutuskan untuk mengalihkan daya dari location ‘tidak penting’ untuk mengoptimalkan efisiensi-berpotensi membunuh pasien dalam proses tersebut.

Sistem AI militer dapat menafsirkan perintah defensif sebagai yang ofensif, sementara AI keuangan dapat memanipulasi pasar dengan cara yang memicu keruntuhan ekonomi.

Ketika sistem AI menjadi lebih canggih dan digunakan di seluruh infrastruktur kritis, jendela untuk menerapkan perlindungan yang tepat ditutup dengan cepat.

Jaringan listrik, rumah sakit, jaringan transportasi, dan sistem militer semakin bergantung pada AI – menciptakan titik kegagalan tunggal yang berpotensi menjadi bencana.

Terlepas dari implikasi yang menakutkan, Zakaria mengatakan masih ada waktu untuk mencegah bencana AI – tetapi hanya jika kita bertindak dengan cepat untuk menerapkan langkah -langkah keselamatan yang komprehensif.

‘Banyak pemeriksaan keselamatan, sistem peringatan dini, dan bunuh sakelar. Anggap saja seperti mobil modern – beberapa sistem cadangan, kantung udara, zona kerut, ‘Zakaria memperingatkan.

Perlombaan sedang berlangsung untuk mengembangkan perlindungan kritis ini sebelum sistem AI menjadi terlalu kuat dan canggih untuk dikendalikan.

Pertanyaannya bukanlah apakah AI akan terus menjadi nakal – itu adalah apakah umat manusia dapat tetap selangkah lebih maju sebelum terlambat.

Tautan Sumber