Di bawah hampir setiap posting kedua pada X hari ini datanglah pemeriksaan fakta berbasis kerumunan yang tak terhindarkan; “@Grok apakah ini benar?”
Hanya 30 persen orang Amerika mengatakan mereka “mempercayai berita,” turun dari 32 persen tahun lalu dan jauh di 55 persen Yang mengatakan mereka memiliki “banyak kepercayaan diri” dalam berita pada tahun 1997.
Jadi, jika massa sosial beralih ke AI untuk membantu memeriksa fakta, apakah itu akan mengembalikan kepercayaan pada berita?
Sam Altman memiliki keraguan.
“Orang -orang memiliki tingkat kepercayaan yang sangat tinggi pada chatgpt, yang menarik karena, seperti, AI berhalusinat,” kata Altman Selama podcast dengan teknolog Andrew Mayne. “Seharusnya teknologi yang tidak terlalu Anda percayai.”
Dia benar.
Studi terbaru oleh BBC ditemukan Bahwa 51 persen tanggapan AI terhadap pertanyaan terkait berita berisi masalah yang signifikan, ujung gunung es yang jauh lebih dalam yang memengaruhi cara perusahaan AI mengumpulkan dan memproses informasi. Sistem AI secara rutin menyajikan data keuangan palsu, membuat tren pasar dan dengan percaya diri menggambarkan peristiwa yang tidak pernah terjadi.
Misalnya, fitur ikhtisar AI Google yang baru -baru ini berhalusinasi Minnesota Solar Company, Wolf River Electric, ke dalam Gugatan aktif Dengan jaksa agung negara bagian bahwa mereka tidak memiliki bagian dalam, merusak reputasi perusahaan dan mengakibatkan gugatan yang mencari kerusakan lebih dari $ 100 juta.
Ini adalah satu hal untuk berhalusinasi di laboratorium penelitian, tetapi halusinasi AI berdampak pada persepsi konsumen dan hasil bisnis. Kita perlu berpikir jangka panjang tentang cara menyelesaikan masalah berita AI-sebelum orang Amerika tidak dapat lagi membedakan fakta dari fiksi.
Sebuah “halusinasi” AI terjadi ketika model bahasa besar secara tidak benar menghitung kata berikutnya yang paling mungkin dalam respons, sering kali mengalir ke dalam serangkaian kesalahan yang disajikan dengan kepercayaan yang sama dengan fakta yang diverifikasi. Terkadang, bahkan dilengkapi dengan sumber yang dipalsukan.
Masalahnya melampaui kesalahan faktual sederhana dan “Kecelakaan yang tidak berbahaya”Ketika Google mengklasifikasikan insiden Sungai Wolf. Sistem AI dapat menyuntikkan bias editorial ke dalam pelaporan yang seharusnya objektif, mengubah nada dan makna analisis pasar tanpa transparansi atau akuntabilitas.
Untuk surat pengantar yang dibantu AI atau laporan tahunan, ini adalah kesalahan sederhana yang dapat dipoles. Ketika itu adalah kesalahan faktual tentang berita yang melanggar, dibagikan secara online dan dilihat oleh jutaan orang, halusinasi AI dapat dengan cepat diterima sebagai fakta.
Urgensi menjadi jelas ketika Anda mempertimbangkan siapa yang mengkonsumsi informasi ini. Menurut Laporan Berita Digital 2025 Reuters Institute15 persen orang di bawah 25 menggunakan chatbots AI untuk News Weekly, dengan penggunaan keseluruhan 7 persen dan tumbuh dari hari ke hari. Demografis ini-eksekutif, investor, dan pembuat keputusan besok-sedang dibentuk oleh sistem informasi yang tidak memprioritaskan akurasi.
Respons industri teknologi kurang dari cukup. Perusahaan menggembar -gemborkan kemampuan AI mereka sambil mengubur penafian tentang akurasi dalam cetakan halus. Tetapi memecahkan halusinasi dalam generasi model bahasa besar saat ini hampir mustahil.
Solusinya bukan untuk meninggalkan AI sepenuhnya. Kita hanya perlu memikirkan kembali bagaimana sistem digunakan. Kita perlu meninggalkan model bisnis AI yang memprioritaskan menjaga pengguna terlibat dengan platform mereka daripada menyediakan informasi yang dapat diandalkan.
Rekayasa model untuk menanggapi pertanyaan berita dengan konten yang diverifikasi dan manusia akan menghilangkan halusinasi. Data itu tidak ada, bukan? Salah. Di antara ribuan jam laporan jaringan berita kabel, siaran berita lokal dan liputan bergulir adalah jawaban untuk hampir semua petunjuk berita yang dapat Anda kumpulkan.
Bagaimana cuaca di Dallas hari ini?
Apakah Trump curang di lapangan golf?
Tunjukkan home run Yankees dari sebulan terakhir.
Raksasa teknologi tidak akan menghentikan kemajuan untuk kerangka kerja regulasi yang diperlukan yang memperlakukan berita yang dihasilkan AI dengan pengawasan yang sama dengan jurnalisme keuangan tradisional. Namun, siaran berita lokal dan nasional berada dalam kepentingan terbaik mereka untuk menggunakan mekanisme pengecekan fakta yang kuat yang menyelesaikan masalah halusinasi AI. Dan ketika kita menikah dengan integritas jurnalistik Broadcast dengan kecepatan AI, kita dapat mulai membangun kembali kepercayaan pada berita, mengonversi skeptis dan bahkan menskalakan platform teknologi masuk (atau beberapa) yang dapat diandalkan oleh konsumen.
Mempertimbangkan bagaimana AI Chatbots menarik jawaban dari berbagai sumber Di luar publikasi lama, skenario terbaik adalah bahwa informasi ini mendapat editorial. Tetapi kenyataan yang lebih mungkin adalah bahwa informasi yang salah yang muncul oleh bot -bot ini terus memicu lanskap media kami yang sudah bergejolak.
Sementara algoritma akan terus meningkat, kepercayaan pada berita adalah sesuatu yang tidak dapat diproduksi. Kita perlu merancang model yang menanggapi pertanyaan berita dengan konten yang diverifikasi dan dibuat manusia-ini mungkin merupakan kesempatan terakhir kita untuk mengembalikan keyakinan pada industri yang sangat membutuhkannya.
Harga cam adalah co-founder dan CEO Leadstory, platform streaming berita yang dipersonalisasi.