Openai memberi orang tua lebih banyak kendali atas bagaimana anak -anak mereka menggunakan chatgpt. Kontrol Orangtua Baru Datanglah pada saat yang kritis, karena banyak keluarga, sekolah, dan kelompok advokasi menyuarakan kekhawatiran mereka tentang peran yang berpotensi berbahaya AI Chatbots yang dapat dimainkan dalam pengembangan remaja dan anak -anak.
Orang tua harus menautkan akun chatgpt mereka sendiri dengan anak mereka untuk mengakses fitur baru. Namun, Kata Openai Bahwa fitur -fitur ini tidak memberi orang tua akses ke percakapan anak mereka dengan chatgpt dan bahwa, dalam kasus di mana perusahaan mengidentifikasi “risiko keselamatan yang serius,” orang tua akan diberitahu “hanya dengan informasi yang diperlukan untuk mendukung keselamatan anak remaja mereka.”
Ini adalah “sistem pemberitahuan keselamatan pertama dari jenisnya untuk mengingatkan orang tua jika remaja mereka mungkin berisiko melukai diri sendiri,” kata Lauren Haber Jonas, kepala kesejahteraan remaja Openai, dalam a LinkedIn Post.
Setelah akun ditautkan, orang tua dapat mengatur jam dan waktu yang tenang ketika anak -anak tidak dapat menggunakan chatgpt, serta mematikan kemampuan generasi gambar dan mode suara. Di sisi teknis, orang tua juga dapat memilih anak -anak mereka keluar dari pelatihan konten dan memilih untuk membuat chatgpt tidak menyimpan atau mengingat obrolan anak -anak mereka sebelumnya. Orang tua juga dapat memilih untuk mengurangi konten sensitif, yang memungkinkan pembatasan konten tambahan di sekitar hal -hal seperti konten grafis. Remaja dapat membuka tautan akun mereka dari orang tua, tetapi orang tua akan diberitahu jika itu terjadi.
Perusahaan induk ChatGPT mengumumkan bulan lalu bahwa mereka akan memperkenalkan lebih banyak kontrol orang tua setelah gugatan yang diajukan keluarga California. Keluarga menuduh chatbot AI bertanggung jawab atas mereka Bunuh diri putra berusia 16 tahun Awal tahun ini, memanggil Chatgpt “pelatih bunuh diri” -nya. Sejumlah besar pengguna AI membuat chatbot AI mereka mengambil peran sebagai terapis atau orang kepercayaan. Terapis dan pakar kesehatan mental telah menyatakan keprihatinan tentang hal ini, mengatakan AI seperti chatgpt tidak dilatih untuk menilai secara akurat, bendera dan campur tangan ketika bertemu bahasa dan perilaku bendera merah.
(Pengungkapan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap Openai, menuduhnya melanggar hak cipta Ziff Davis dalam pelatihan dan mengoperasikan sistem AI -nya.)
Jika Anda merasa seperti Anda atau seseorang yang Anda kenal dalam bahaya langsung, hubungi 911 (atau jalur darurat lokal negara Anda) atau pergi ke ruang gawat darurat untuk mendapatkan bantuan segera. Jelaskan bahwa ini adalah keadaan darurat kejiwaan dan meminta seseorang yang dilatih untuk situasi semacam ini. Jika Anda berjuang dengan pikiran negatif atau perasaan bunuh diri, sumber daya tersedia untuk membantu. Di AS, hubungi Lifeline Pencegahan Bunuh Diri Nasional di 988.