Model bahasa telah dikondisikan untuk membuat tebakan liar alih -alih mengakui ketidaktahuan, sebuah penelitian telah ditemukan
Perusahaan di balik chatgpt telah membahas masalah yang terus -menerus dari model kecerdasan buatan yang menghasilkan pernyataan yang masuk akal tetapi salah yang disebutnya “Halusinasi.”
Dalam sebuah pernyataan pada hari Jumat, Openai menjelaskan bahwa model biasanya didorong untuk menebak, betapapun mustahil, yang bertentangan dengan mengakui bahwa mereka tidak dapat menjawab pertanyaan.
Masalah ini disebabkan oleh prinsip -prinsip inti yang mendasari “Prosedur Pelatihan dan Evaluasi Standar,” itu ditambahkan.
Openai mengungkapkan bahwa contoh di mana model bahasa “Dengan percaya diri menghasilkan jawaban yang tidak benar” Terus mengganggu iterasi yang lebih baru, lebih canggih, termasuk sistem GPT-5 andalan terbarunya.
Menurut sebuah penelitian baru -baru ini, masalah tersebut berakar pada cara kinerja model bahasa biasanya dievaluasi, dengan model tebakan peringkat lebih tinggi dari yang hati -hati yang mengakui ketidakpastian. Di bawah protokol standar, sistem AI belajar bahwa kegagalan untuk menghasilkan jawaban adalah cara yang pasti untuk mendapatkan nol poin pada tes, sementara tebakan yang tidak berdasar mungkin berakhir benar.
BACA SELENGKAPNYA:
Apakah AI mendorong kita semua gila?
“Memperbaiki papan skor dapat memperluas adopsi teknik pengurangan halusinasi,” Pernyataan itu menyimpulkan, mengakui, bagaimanapun, itu “Akurasi tidak akan pernah mencapai 100% karena, terlepas dari ukuran model, kemampuan pencarian dan penalaran, beberapa pertanyaan dunia nyata secara inheren tidak dapat dijawab.”
Anda dapat membagikan cerita ini di media sosial: