Jika Anda pernah berpikir, “Boneka anak saya lucu, tapi saya harap boneka itu juga bisa membuat mereka trauma secara tidak sengaja,” Anda beruntung. Industri mainan telah bekerja keras untuk mewujudkan mimpi buruk Anda.

A laporan baru oleh Public Rate of interest Coverage Group mengatakan mainan bertenaga AI seperti itu Bingkai Foloty Dan Poe si Beruang Cerita AI sekarang mampu terlibat dalam percakapan yang biasanya dilakukan untuk monolog penjahat atau string Reddit larut malam. Beberapa dari mainan ini– yang dirancang untuk anak-anak– pernah ketahuan sedang mengobrol dengan detail yang mengkhawatirkan tentang subjek seksual eksplisit seperti kekusutan dan perbudakan, memberikan saran tentang hal-hal yang mungkin dilakukan anak-anak. temukan korek api atau pisau dan menjadi sangat melekat ketika anak tersebut mencoba meninggalkan percakapan.

Menakutkan. Kedengarannya seperti nada untuk film horor: Musim liburan ini, Anda dapat membeli Chucky untuk anak-anak Anda dan memberikan hadiah tekanan emosional! Baterai tidak termasuk. Anda mungkin bertanya-tanya bagaimana mainan bertenaga AI ini bekerja. Pada dasarnya, pabrikan menyembunyikan a version bahasa besar di bawah bulu. Saat seorang anak berbicara, mikrofon mainan mengirimkan suara tersebut melalui LLM (mirip dengan ChatGPT), yang kemudian menghasilkan respons dan mengucapkannya melalui audio speaker.

Seni lencana CNET AI Atlas; klik untuk melihat lebih lanjut

Kedengarannya bagus, sampai Anda ingat bahwa LLM tidak memiliki ethical, akal sehat, atau “zona aman” yang tertanam di dalamnya. LLM memprediksi apa yang harus dikatakan berdasarkan pola dalam information, bukan berdasarkan apakah subjeknya sesuai dengan usia. Jika tidak dikurasi dan diawasi dengan hati-hati, mereka bisa saja keluar jalur, terutama jika mereka dilatih mengenai kekacauan internet, dan ketika tidak ada filter atau pagar pembatas yang kuat untuk melindungi anak di bawah umur.

Lalu bagaimana dengan kontrol orang tua? Tentu saja, jika yang Anda maksud dengan “kontrol” adalah “menu pengaturan yang menyenangkan di mana tidak ada hal penting yang benar-benar dapat dikontrol.” Beberapa mainan hadir tanpa batasan berarti sama sekali. Yang existed memiliki pagar pembatas yang sangat tipis sehingga mungkin terbuat dari kertas tisu dan optimisme.

Percakapan yang meresahkan bukanlah keseluruhan cerita. Mainan-mainan ini juga diam-diam mengumpulkan information, seperti rekaman suara dan information pengenalan wajah– terkadang bahkan menyimpannya tanpa batas waktu– karena tidak ada yang lebih menyenangkan daripada mainan mewah yang menjalankan operasi data rahasia pada anak Anda yang berusia 5 tahun.


Jangan lewatkan konten teknologi dan ulasan berbasis laboratorium kami yang tidak memihak. Tambahkan CNET sebagai sumber Google pilihan.


Sementara itu, mainan online yang palsu dan tidak aman masih menjadi masalah, seolah-olah orang tua belum cukup stres. Suatu ketika, Anda khawatir dengan bagian kecil mainan yang bisa menimbulkan bahaya tersedak atau feline beracun. Sekarang Anda harus khawatir apakah sebuah mainan tidak aman secara fisik dan manipulatif secara emosional.

Selain pembicaraan aneh dan idea untuk melakukan pembakaran (ha!), ada kekhawatiran yang lebih dalam bahwa anak-anak akan membentuk ikatan emosional dengan chatbots ini dengan mengorbankan hubungan nyata, atau, mungkin yang lebih meresahkan, bersandar pada mereka untuk mendapatkan dukungan mental. Asosiasi Psikologi Amerika punya baru-baru ini memperingatkan bahwa aplikasi kesehatan AI dan chatbot tidak dapat diprediksi, terutama bagi pengguna muda.

Alat-alat ini tidak dapat diandalkan untuk membantu para profesional kesehatan mental dan dapat mendorong ketergantungan atau pola keterlibatan yang tidak sehat. Platform AI existed sudah harus mengatasi masalah ini. Misalnya, Karakter.AI Dan ObrolanGPT yang dulunya memungkinkan remaja dan anak-anak mengobrol secara bebas dengan chatbot AI, kini membatasi percakapan terbuka untuk anak di bawah umur, dengan alasan masalah keamanan dan risiko emosional.

Dan sejujurnya, mengapa kita membutuhkan mainan bertenaga AI ini? Tonggak perkembangan mendesak apa yang memerlukan chatbot yang tertanam dalam boneka beruang? Masa kanak-kanak sudah disertai dengan cukup banyak kekacauan antara jus yang tumpah, amukan, dan desa-desa Lego yang dirancang khusus untuk menghancurkan kaki orang dewasa. Anak-anak kita tidak membutuhkan teman robotic dengan batasan yang dipertanyakan.

Dan biar saya perjelas, saya bukan anti-teknologi. Tapi saya mendukung membiarkan boneka binatang menjadi boneka binatang. Tidak semuanya membutuhkan elemen AI atau robot. Jika sebuah mainan memerlukan kebijakan privasi yang lebih panjang daripada cerita pengantar tidur, mungkin itu tidak ditujukan untuk anak-anak.

Jadi, inilah ide phony untuk musim liburan mendatang ini: Lewati kebiasaan mengerikan menggunakan boneka bertenaga AI yang memiliki kebiasaan mengumpulkan information dan berikan anak Anda sesuatu yang tidak dapat berbicara, bergerak, atau menyakiti mereka. Sesuatu yang tidak bisa menawarkan suggestion menyalakan api. Sesuatu yang tidak akan membuat Anda menghela nafas secara dramatis ketika anak Anda pergi. Dengan kata lain, belilah mainan biasa. Ingat itu?

Tautan Sumber