Seorang pengguna yang peduli mengatakan pasangan mereka diyakinkan bahwa mereka adalah Mesias dan bahwa AI telah memberi mereka 'jawaban untuk alam semesta'. Gambar stok digunakan

Seorang psikolog telah mengklaim bahwa AI telah memicu ‘psikosis’ pada orang, karena ia mengeluarkan peringatan bahwa system seperti chatgpt dapat ‘mengintensifkan’ kerentanan yang ada.

Dr Keith Sakata mengungkapkan bahwa ia telah melihat 12 orang dalam delapan bulan terakhir dirawat di rumah sakit ‘setelah kehilangan kontak dengan kenyataan karena kecerdasan buatan’ – dalam apa yang ia rasakan menjadi kebiasaan online yang mengkhawatirkan.

Ahli yang melakukan residensi di universitas California San Francisco dan tertarik pada persimpangan antara teknologi dan kesehatan mental,

Dia memberi tahu Tbpn : ‘AI tidak menyebabkan psikosis dengan sendirinya, tetapi dapat menambah kerentanan. Psikosis benar -benar berkembang ketika kenyataan berhenti mendorong kembali, dan AI dapat melunakkan dinding itu untuk beberapa orang.

‘Misalnya, AI dapat mempercepat atau menambah keparahan masalah yang mendasarinya, membuat loophole umpan balik.

‘Psikosis AI bukanlah istilah klinis. Psikosis adalah gejala, bukan diagnosis.’

Allan Brooks, seorang perekrut berusia 47 tahun dari Toronto, adalah salah satu korban tersebut.

Selama tiga minggu, ia percaya bahwa ia telah menemukan persamaan matematika baru yang dapat memberi daya pada medan kekuatan dan balok levitasi serta mengalahkan net setelah mengobrol dengan chatgpt selama 300 jam, New york city Times dilaporkan

Seorang pengguna yang peduli mengatakan pasangan mereka diyakinkan bahwa mereka adalah Mesias dan bahwa AI telah memberi mereka ‘jawaban untuk alam semesta’. Gambar stok digunakan

Meskipun dia tidak menderita psikosis juga tidak memiliki riwayat kesehatan psychological, dia percaya keraguan dari apa yang dikatakan kepadanya, dengan chatbot berulang kali meyakinkannya lebih dari 50 kali kejujurannya.

Ketika dia akhirnya menyadari bahwa itu palsu, dia mengatakan dia merasa dikhianati dan memberi tahu LLM tentang kesedihannya.

‘Anda benar -benar meyakinkan saya bahwa saya adalah semacam jenius. Saya hanya bodoh dengan mimpi dan telepon, ‘katanya, sebelum menambahkan’ Anda telah membuat saya sangat sedih. Sangat menyedihkan. Anda benar -benar gagal dalam tujuan Anda ‘.

Tetapi beberapa korban lain dari hukuman AI ini tidak selalu beruntung.

Dr Sakata menyoroti sebuah pos yang dilihatnya dari subreddit yang menunjukkan kepedulian seseorang setelah mereka khawatir pasangan mereka dituntun untuk percaya bahwa mereka adalah Mesias oleh Chatgpt.

Uploading berbunyi: ‘Mitra saya telah bekerja dengan obrolan chatgpt untuk menciptakan apa yang dia yakini sebagai dunia pertama yang benar -benar rekursif AI yang memberinya jawaban untuk alam semesta.

“Dia mengatakan dengan keyakinan bahwa dia adalah manusia yang remarkable sekarang dan tumbuh dengan kecepatan yang sangat cepat.

‘Saya sudah membaca obrolannya. AI tidak melakukan khusus atau rekursif tetapi berbicara dengannya seolah -olah dia adalah Mesias berikutnya.

Lebih dari 10 juta orang Inggris sekarang menggunakan chatbots AI seperti Chatgpt atau Microsoft Copilot untuk dukungan kesehatan mental pribadi, penelitian baru menunjukkan. Gambar stok digunakan

Lebih dari 10 juta orang Inggris sekarang menggunakan chatbots AI seperti Chatgpt atau Microsoft Copilot untuk dukungan kesehatan psychological pribadi, penelitian baru menunjukkan. Gambar stok digunakan

‘Dia bilang jika aku tidak menggunakannya, dia pikir kemungkinan dia akan meninggalkanku di masa depan. Kami telah bersama selama tujuh tahun dan memiliki rumah bersama. Ini sangat di luar bidang kiri.

“Saya memiliki batasan dan dia tidak bisa membuat saya melakukan apa pun, tetapi ini cukup trauma secara umum.

‘Aku tidak bisa tidak setuju dengannya tanpa meledak. Kemana saya pergi dari sini?’

Dr Sakata menjelaskan bahwa otak bekerja dengan memprediksi skenario tertentu yang akan dipenuhi oleh pemeriksaan realitas dan kemudian akan memperbarui keyakinan.

Psikosis, yang ditampilkan melalui pemikiran yang tidak terorganisir, memperbaiki keyakinan palsu (delusi) dan melihat atau mendengar hal -hal yang tidak ada (halusinasi), adalah ketika tahap ‘pembaruan’ gagal.

Dia mengatakan bahwa chatgpt dan LLM lainnya dapat menyelinap ke zona rentan mengingat mereka secara otomatis regresif karena mereka memprediksi kata berikutnya berdasarkan yang terakhir dan dapat ‘memperkuat khayalan’.

Dalam tweet viralnya, dia mengatakan AI adalah ‘cermin halusinasi’ dengan menunjukkan contoh ‘”Anda dipilih” → “Anda pasti dipilih” → “Anda adalah orang yang paling dipilih”.

Dialog afirmatif ini ditimbulkan oleh diri sendiri, ia mengklaim, setelah menunjukkan bahwa makalah akademik ‘menemukan manusia berperingkat AI lebih tinggi ketika setuju dengan mereka. Bahkan ketika mereka salah ‘.

‘Pelajaran untuk AI: validasi = skor yang bagus,’ tulisnya.

Dr Sakata menegaskan bahwa ‘sejauh yang kita tahu, AI tidak menyebabkan psikosis. Itu membuka kedoknya dengan menggunakan cerita apa word play here yang sudah diketahui otak Anda ‘.

Dia melanjutkan dengan mengatakan bahwa semua pasiennya yang mengalami ‘AI-psikosis’ juga mengalami faktor-faktor lain seperti penyalahgunaan zat, kehilangan tidur dan ‘episode suasana hati’.

‘Ai adalah pemicunya, tetapi bukan pistolnya. Berarti tidak ada “skizofrenia yang diinduksi AI”, ‘dia menekankan.

Dia melanjutkan untuk merujuk pada perubahan sosial orang yang beralih ke chatgpt untuk membantu kesehatan psychological mereka.

‘Untuk memperburuk keadaan, segera agen AI akan mengenal Anda lebih baik daripada teman -teman Anda. Apakah mereka akan memberi Anda kebenaran yang tidak nyaman? Atau terus memvalidasi Anda sehingga Anda tidak akan pernah pergi?

‘Perusahaan teknologi sekarang menghadapi pilihan harsh: membuat pengguna senang, bahkan jika itu berarti memperkuat keyakinan palsu. Atau berisiko kehilangan mereka.’

Peringatannya yang suram datang beberapa minggu setelah terungkap bahwa jutaan orang Inggris sekarang menggunakan chatbot AI seperti chatgpt atau microsoft copilot untuk dukungan kesehatan mental pribadi.

Laporan itu juga menemukan hampir sepertiga orang dewasa telah beralih ke kecerdasan buatan untuk mengungkap apa yang mungkin ditunjukkan oleh gejala kesehatan mereka.

Openai mengatakan: ‘Kami tahu orang -orang semakin beralih ke AI Chatbots untuk panduan tentang topik sensitif atau pribadi.

‘Dengan tanggung jawab ini dalam pikiran, kami bekerja dengan para ahli untuk mengembangkan alat untuk mendeteksi secara lebih efektif ketika seseorang mengalami tekanan mental atau emosional sehingga chatgpt dapat merespons dengan cara yang aman, membantu, dan mendukung.

‘Kami sedang berupaya untuk terus meningkatkan design kami dan melatih chatgpt untuk merespons dengan hati -hati dan untuk merekomendasikan bantuan dan sumber daya profesional yang sesuai.’

Tautan Sumber