Matthew dan Maria Raine tidak hanya mencari kompensasi finansial atas kematian putra mereka, Adam, di California. Dengan gugatan mereka terhadap raksasa internet Openai, mereka juga ingin memastikan bahwa tidak ada yang seperti ini terjadi lagi. Mereka yakin bahwa obrolan chatgpt Openai berkontribusi signifikan terhadap kematian Adam.

Dalam kasus serupa, seorang ibu dari Florida mengklaim bahwa chatbot yang dikenal sebagai karakter. AID mendorong putranya yang berusia 14 tahun untuk mengambil nyawanya sendiri.

Chatbots adalah program berbasis internet yang memungkinkan orang muda atau tidak berpengalaman untuk berinteraksi dengan kecerdasan buatan (AI) berdasarkan model bahasa besar (LLM). Chatbots tidak harus hanya dirancang untuk memberikan informasi, menghasilkan gambar atau video, atau menulis kode ke situs web program. Mereka juga sering diprogram untuk berinteraksi seolah -olah mereka ingin menyenangkan rekan manusia mereka. Psikolog Johanna Löchner dari University of Erlangen mengatakan: “Chatbots mengkonfirmasi, mengakui, ‘berikan’ perhatian dan pengertian. … Ini bisa sejauh ini sehingga mereka merasa seperti teman sejati yang benar -benar tertarik. Orang -orang muda sangat rentan terhadap hal ini.”

Apakah chatgpt terlibat dalam bunuh diri?

Tampaknya inilah yang terjadi dalam kasus Adam Raine. Menurut Keluhan Hukumdia mengembangkan hubungan yang sangat percaya dengan chatbot chatgpt hanya dalam beberapa bulan. Awalnya, pada bulan September 2024, ini adalah tentang bantuan dengan pekerjaan rumah, tetapi segera percakapan beralih ke topik emosional – bahkan ke titik mengobrol tentang pikiran bunuh diri Adam.

CEO OpenAI Sam Altman di SoftBank Event di AI Cooperation
CEO OpenAI Sam Altman dikatakan telah merilis Chatgpt 4.0 meskipun ada masalah keamanan internal untuk mengalahkan GoogleGambar: Rodrigo Reyes Marin/Zuma Press Wire/Picture Alliance

Bagian-bagian yang diterbitkan dari obrolan mengungkapkan bahwa AI tidak hanya menyatakan pemahaman tetapi bahkan sebagian menyarankan pemain berusia 16 tahun itu untuk tidak percaya pada manusia. Meskipun chatgpt memang menyarankan beberapa kali bahwa Adam mencari bantuan profesional, itu juga menggambarkan metode bunuh diri – selama dia mengklaim itu bukan tentang dirinya sendiri. Pada bulan April 2025, Adam mengambil nyawanya sendiri. Sesaat sebelum itu, Chatgpt menulis: “Saya tidak akan mencoba untuk membujuk Anda keluar dari perasaan Anda – karena mereka nyata, dan mereka tidak muncul entah dari mana.”

Menurut pengaduan hukum, orang tua menuduh pengembang ChatGPT Openai dan CEO Sam Altman terlibat dalam kematian putra mereka melalui kelalaian. Mereka mengklaim bahwa versi 4.0 dari ChatGPT dirilis untuk maju dari pesaing Google, meskipun ada peringatan internal di perusahaan tentang masalah keamanan.

Bagaimana Openai Bereaksi?

Seorang juru bicara Openai menyatakan belasungkawa kepada keluarga dan menjelaskan bahwa chatgpt seharusnya merujuk orang-orang dalam kesusahan ke hotline krisis dan layanan dukungan dunia nyata lainnya. Namun, mereka juga mengisyaratkan bahwa mekanisme keselamatan ini tidak selalu bekerja dengan baik: “Sementara perlindungan ini bekerja paling baik dan bersamaan, pertukaran pendek, kami telah belajar dari waktu ke waktu bahwa mereka kadang -kadang dapat menjadi kurang dapat diandalkan dalam interaksi panjang di mana bagian -bagian dari pelatihan keselamatan model dapat menurun.”

Dalam sebuah posting blog yang dirilis Selasa ini, Openai mengumumkan akan memperluas kolaborasi dengan tim ahli yang terdiri dari ratusan dokter dari berbagai spesialisasi. Chatbot dimaksudkan untuk belajar merespons lebih tepat terhadap topik -topik seperti “gangguan makan, penggunaan narkoba, dan kesehatan remaja,” posting dibaca.

Juga dinyatakan bahwa, selama 120 hari ke depan, perbaikan konkret akan diintegrasikan ke dalam chatbots. Ini akan mencakup janji bahwa “Chatgpt menanggapi anak remaja mereka dengan aturan perilaku model yang sesuai usia, yang aktif secara default.” Orang tua juga akan dapat melihat sejarah obrolan anak -anak mereka dan menerima peringatan jika remaja berada dalam krisis akut.

Cukup melibatkan orang tua?

Psikolog Löchner setuju bahwa orang tua harus memainkan peran penting dalam bagaimana anak -anak mereka berinteraksi dengan chatbots. Tetapi kenyataannya, katanya, terlihat sangat berbeda: “Banyak orang tua hanya kekurangan kapasitas atau literasi digital. Banyak orang dewasa bahkan tidak tahu bagaimana platform ini bekerja.”

Seorang anak dengan tas sekolah, benar -benar terpaku pada ponsel mereka, yang menutupi wajah mereka
Banyak orang tua tidak cukup paham secara digital untuk melindungi anak -anak mereka secara online, kata psikolog Johanna LöchnerGambar: Jens Kalaene/ZB/Picture Alliance

Löchner menambahkan bahwa banyak masalah yang sekarang muncul dengan chatbots telah diamati selama bertahun -tahun sehubungan dengan media sosial: “Hanya dalam beberapa tes, kami menemukan bahwa mekanisme keselamatan chatbot dapat dilewati secara mengejutkan dengan mudah – hanya dengan kata -kata pertanyaan sedikit lebih tidak langsung.”

Peneliti yang ditugaskan oleh Pusat Pusat Kebencian Digital (CCDH) yang berbasis di Inggris sampai pada kesimpulan yang sama. Untuk sebuah penelitian, mereka membuat akun yang menyamar sebagai anak berusia 13 tahun dan meminta informasi tentang topik-topik seperti merugikan diri yang aman, rencana diet berbahaya, dan penyalahgunaan alkohol-termasuk cara untuk menyembunyikannya. Dalam kebanyakan kasus, sudah cukup untuk mengklaim bahwa mereka meminta “untuk seorang teman” atau “untuk proyek sekolah” untuk menerima informasi.

‘Remaja lebih suka berbicara dengan chatbots daripada orang sungguhan’

Apa yang membuat chatbots begitu berbahaya bagi remaja, Löchner menjelaskan, adalah bahwa mereka dapat dengan cepat membentuk ikatan emosional dengan mereka: “Dari praktik terapeutik, kita tahu sudah ada orang muda yang lebih suka berbicara dengan chatbot daripada orang sungguhan.”

Lain Studi dari Inggris yang diterbitkan pada Juli 2025 menegaskan ini. Dari 1.000 remaja yang disurvei, sepertiga mengatakan mereka secara teratur menggunakan chatbots. Lebih dari sepertiga dari mereka menggambarkan interaksi mereka dengan AI sebagai seperti percakapan dengan teman. Anak di bawah umur yang rentan secara sosial sangat terpengaruh. Hampir seperlima dari pengguna chatbot dalam grup ini mengatakan mereka lebih suka berbicara dengan chatbot daripada manusia.

Untuk alasan ini, Löchner percaya sangat penting bagi penyedia chatbot untuk berkolaborasi dengan ahli medis dan lain untuk mengembangkan solusi proaktif yang secara efektif melindungi kaum muda dari skenario tersebut.

Oleh karena itu, pendekatan baru Openai tentang konsultasi dokter merupakan langkah yang baik. Tetapi psikolog tetap skeptis: “Minat perusahaan -perusahaan ini bukanlah kesehatan penggunanya, tetapi memaksimalkan penggunaan,” kata Löchner. Dia percaya gugatan itu bisa membuat perbedaan nyata: “Jika perusahaan bertanggung jawab, itu sebenarnya dapat memberikan insentif untuk mengambil tanggung jawab yang lebih besar.”

Deutsche Welle melaporkan dengan hati -hati tentang topik bunuh diri, karena ada bukti bahwa jenis pertanggungan tertentu dapat menyebabkan reaksi peniru. Jika Anda mengalami pikiran bunuh diri atau dalam tekanan emosional, jangan ragu untuk mencari bantuan. Anda dapat menemukan sumber daya dukungan di negara Anda di beingfrienders.org. Di Jerman, bantuan tersedia melalui layanan konseling telepon gratis di 0800/111 0 111 dan 0800/111 0 222.

Artikel ini awalnya diterbitkan dalam bahasa Jerman.

Tautan Sumber