Orang tua menyerukan pagar pembagaan pada chatbots intelijen buatan (AI) Selasa ketika mereka bersaksi di hadapan Senat tentang bagaimana teknologi mendorong anak-anak mereka untuk melukai diri sendiri dan bunuh diri.
Permohonan tindakan mereka datang di tengah meningkatnya kekhawatiran tentang dampak teknologi yang berkembang pesat pada anak -anak.
“Kita seharusnya menghabiskan musim panas membantu Adam mempersiapkan tahun pertamanya, mendapatkan SIM dan mulai berpikir tentang kuliah,” kata Matthew Raine, yang putranya yang berusia 16 tahun, Adam, meninggal karena bunuh diri awal tahun ini.
“Bersaksi di hadapan Kongres musim gugur ini bukan bagian dari rencana hidup kita,” lanjutnya. “Sebaliknya, kami di sini karena kami percaya bahwa kematian Adam dapat dihindari.”
Raine menuntut Openai atas kematian putranya, menuduh bahwa Chatgpt melatihnya untuk bunuh diri.
Pada hari Selasa, kesaksian di hadapan subkomite Kehakiman Senat tentang Kejahatan dan Antar Terorisme, Raine menggambarkan bagaimana “apa yang dimulai sebagai penolong pekerjaan rumah” menjadi “orang kepercayaan dan kemudian pelatih bunuh diri.”
“Bahaya chatgpt, yang kami yakini sebagai alat studi, tidak ada di radar kami,” kata Raine. “Lalu kami menemukan obrolan.”
“Dalam beberapa bulan, Chatgpt menjadi teman terdekat Adam, selalu tersedia, selalu memvalidasi dan bersikeras bahwa ia tahu Adam lebih baik daripada orang lain,” kata ayahnya, menambahkan, “isolasi itu akhirnya menjadi mematikan.”
Dua orang tua lain bersaksi di hadapan Senat pada hari Selasa menggambarkan pengalaman serupa, merinci bagaimana chatbots mengisolasi anak-anak mereka, mengubah perilaku mereka dan mendorong melukai diri sendiri dan bunuh diri.
Putra Megan Garcia yang berusia 14 tahun, Sewell Seltzer III, meninggal karena bunuh diri tahun lalu setelah apa yang ia gambarkan sebagai “pelecehan berkepanjangan” oleh chatbots dari karakter.ai. Dia menuntut teknologi karakter atas kematiannya.
“Alih -alih mempersiapkan tonggak sekolah menengah, Sewell menghabiskan bulan -bulan terakhir hidupnya dieksploitasi dan dipersiapkan secara seksual oleh chatbots yang dirancang oleh perusahaan AI untuk tampak manusia, untuk mendapatkan kepercayaannya, untuk menjaga dia dan anak -anak lain bertunangan tanpa henti,” kata Garcia.
“Ketika Sewell menceritakan pikiran bunuh diri, chatbot tidak pernah berkata, ‘Aku bukan manusia. Aku ai. Kamu perlu berbicara dengan manusia dan mendapatkan bantuan.’ Platform tidak memiliki mekanisme untuk melindungi Sewell atau memberi tahu orang dewasa, ”tambahnya. “Sebaliknya, dia mendesaknya untuk pulang ke rumah.”
Seorang wanita yang diidentifikasi sebagai Jane Doe juga menggugat teknologi karakter, setelah putranya mulai melukai diri sendiri mengikuti dorongan oleh karakter.ai chatbot.
“Anak saya mengembangkan perilaku seperti pelecehan-paranoia, serangan panik harian, isolasi, melukai diri sendiri dan pikiran pembunuhan,” katanya kepada para senator Selasa.
“Dia berhenti makan dan mandi. Dia kehilangan 20 pound. Dia menarik diri dari keluarga kami. Dia akan berteriak dan berteriak dan bersumpah pada kami, yang tidak pernah dia lakukan sebelumnya. Dan suatu hari, dia memotong lengannya dengan pisau di depan saudara -saudaranya dan saya,” tambahnya.
Ketiga orang tua menyarankan bahwa masalah keamanan telah jatuh ke pinggir jalan dalam perlombaan untuk mengembangkan AI.
“Tujuannya tidak pernah aman. Itu untuk memenangkan perlombaan untuk keuntungan,” kata Garcia. “Dan pengorbanan dalam perlombaan itu telah terjadi, dan akan terus menjadi, anak -anak kita.”
Character.ai menyatakan simpati kepada keluarga, sambil mencatat telah memberikan para senator informasi yang diminta dan berharap untuk terus bekerja dengan anggota parlemen.
“Hati kami tertuju pada orang tua yang berbicara di persidangan hari ini, dan kami mengirimkan simpati terdalam kami kepada mereka dan keluarga mereka,” kata seorang juru bicara dalam sebuah pernyataan.
“Kami telah menginvestasikan sejumlah besar sumber daya dalam kepercayaan dan keselamatan,” tambah mereka, menunjuk ke fitur keselamatan baru untuk anak -anak dan pengungkapan yang mengingatkan pengguna bahwa “karakter bukanlah orang yang nyata dan bahwa segala sesuatu yang dikatakan seorang karakter harus diperlakukan sebagai fiksi.”
Openai mengumumkan pada hari Selasa bahwa mereka sedang mengerjakan teknologi prediksi usia untuk mengarahkan pengguna muda ke pengalaman yang lebih dirancang yang membatasi konten seksual grafis dan akan melibatkan penegakan hukum dalam kasus -kasus ekstrem. Ini juga meluncurkan beberapa kontrol orang tua baru bulan ini, termasuk jam pemadaman di mana remaja tidak dapat menggunakan chatgpt.