Seorang pengacara yang mewakili perusahaan AI Anthropic mengaku memasukkan kutipan yang tidak akurat yang dihasilkan oleh Claude Chatbot perusahaan dalam perselisihan hukum yang berkelanjutan dengan penerbit musik.

TechCrunch Laporan Bahwa dalam pengajuan yang dibuat di pengadilan California utara pada hari Kamis, antropik mengakui bahwa sistem AI -nya Claude “berhalusinasi” kutipan hukum yang digunakan oleh pengacara perusahaan. Kutipan imajiner termasuk “judul yang tidak akurat dan penulis yang tidak akurat,” menurut pengajuan.

Penerimaan itu datang sebagai bagian dari tanggapan Anthropic terhadap tuduhan yang diajukan awal pekan ini oleh pengacara yang mewakili Universal Music Group dan penerbit musik lainnya. Para penerbit menuduh saksi ahli Anthropic, karyawan perusahaan Olivia Chen, menggunakan Claude AI untuk mengutip artikel palsu dalam kesaksiannya dalam gugatan mereka yang sedang berlangsung terhadap perusahaan AI.

Mengikuti tuduhan ini, Hakim Federal Susan Van Keulen memerintahkan antropik untuk mengatasi klaim kutipan yang dibuat -buat. Dalam pengajuan Kamis mereka, pengacara Anthropic menjelaskan bahwa “pemeriksaan kutipan manual” mereka gagal menangkap kesalahan yang dihasilkan oleh halusinasi Claude. Mereka menawarkan permintaan maaf atas kesalahan tersebut, mengkarakterisasi sebagai “kesalahan kutipan yang jujur ​​dan bukan pembuatan otoritas.”

Perselisihan hukum antara antropik dan penerbit musik adalah salah satu dari beberapa kasus baru -baru ini di mana pemilik hak cipta telah menantang perusahaan teknologi atas dugaan penyalahgunaan kekayaan intelektual mereka untuk melatih sistem AI generatif. Ketika teknologi AI maju dengan cepat, implikasi hukum dan etika dari penggunaan data yang dilindungi hak cipta untuk mengembangkan alat -alat ini tetap merupakan masalah yang kompleks dan kontroversial.

Kejadian ini juga menyoroti tren pengacara yang berkembang yang beralih ke bantuan AI dalam pekerjaan mereka, kadang -kadang dengan hasil yang bermasalah. Baru minggu ini, seorang hakim California mengkritik dua firma hukum karena menyerahkan “penelitian yang dihasilkan oleh ai-aierated” di istananya. Pada bulan Januari, seorang pengacara Australia menghadapi pengawasan karena menggunakan chatgpt Openai untuk membantu menyiapkan dokumen pengadilan, hanya agar chatbot menghasilkan kutipan yang salah.

Breitbart News sebelumnya melaporkan firma hukum utama yang memperingatkan seluruh stafnya tentang bahaya informasi palsu yang dihasilkan oleh AI:

Menanggapi insiden itu, Ayala segera dikeluarkan dari kasus ini dan digantikan oleh atasannya, T. Michael Morgan, Esq. Morgan menyatakan “rasa malu yang luar biasa” atas kutipan palsu dan setuju untuk membayar semua biaya dan pengeluaran yang terkait dengan balasan Walmart untuk pengajuan pengadilan yang keliru. Dia menekankan bahwa kejadian ini harus berfungsi sebagai “kisah peringatan” untuk perusahaannya dan komunitas hukum secara keseluruhan.

Morgan menambahkan, “Risiko yang dapat diandalkan oleh pengadilan dan memasukkan kasus -kasus yang diciptakan ke dalam tubuh hukum umum kita adalah pemikiran yang sangat menakutkan.” Dia kemudian mengakui bahwa AI bisa “berbahaya saat digunakan dengan ceroboh.”

Penggunaan AI di bidang hukum telah menjadi semakin umum, dengan survei Reuters Juli 2024 mengungkapkan bahwa 63 persen pengacara telah menggunakan AI dan 12 persen menggunakannya secara teratur. Namun, insiden di Morgan & Morgan menyoroti pentingnya penggunaan AI yang bertanggung jawab dan kebutuhan pengacara untuk secara mandiri memverifikasi informasi yang dihasilkan oleh alat -alat ini.

Terlepas dari kesalahan profil tinggi ini, potensi AI untuk merampingkan dan meningkatkan pekerjaan hukum terus menarik investasi yang signifikan. Startup Harvey, yang mengembangkan model AI generatif yang dirancang khusus untuk membantu pengacara, dilaporkan berusaha mengumpulkan lebih dari $ 250 juta dengan penilaian $ 5 miliar.

Baca lebih lanjut di TechCrunch di sini.

Lucas Nolan adalah reporter untuk Breitbart News yang mencakup masalah kebebasan berbicara dan sensor online.

Tautan sumber