San Fransisco, Amerika Serikat: Akhir bulan lalu, California menjadi negara bagian pertama di Amerika Serikat yang mengesahkan undang-undang yang mengatur teknologi AI mutakhir. Kini para ahli berbeda pendapat mengenai dampaknya.

Mereka sepakat bahwa undang-undang tersebut, Undang-Undang Transparansi di Frontier Kecerdasan Buatan, merupakan sebuah langkah maju yang sederhana, namun masih jauh dari peraturan yang sebenarnya.

Cerita yang Direkomendasikan

daftar 4 itemakhir daftar

Undang-undang serupa yang pertama di AS, mengharuskan pengembang model AI terdepan – sistem yang sangat canggih yang melampaui tolok ukur yang ada dan dapat berdampak signifikan terhadap masyarakat – untuk melaporkan secara publik bagaimana mereka telah memasukkan kerangka kerja nasional dan internasional serta praktik terbaik ke dalam proses pembangunan mereka.

Perjanjian ini mewajibkan pelaporan insiden seperti serangan siber skala besar, kematian 50 orang atau lebih, kerugian moneter dalam jumlah besar, dan peristiwa terkait keselamatan lainnya yang disebabkan oleh model AI. Perjanjian ini juga menerapkan perlindungan bagi pelapor (whistleblower).

“Fokusnya adalah pada pengungkapan informasi. Namun mengingat pengetahuan tentang AI yang terbatas pada pemerintah dan masyarakat, maka tidak ada penegakan hukum meskipun kerangka kerja yang diungkapkan itu bermasalah,” kata Annika Schoene, peneliti di Institute for Experiential AI di Northeastern University.

California adalah rumah bagi perusahaan-perusahaan AI terbesar di dunia, sehingga undang-undang di sana dapat berdampak pada tata kelola dan pengguna AI global di seluruh dunia.

Tahun lalu, Senator Negara Bagian Scott Wiener memperkenalkan rancangan undang-undang sebelumnya yang menyerukan tombol pemutus (kill switch) untuk model-model yang mungkin bermasalah. Hal ini juga mengamanatkan evaluasi pihak ketiga.

Namun RUU tersebut mendapat tentangan karena sangat mengatur bidang yang sedang berkembang karena kekhawatiran bahwa RUU tersebut dapat menghambat inovasi. Gubernur Gavin Newsom memveto RUU tersebut, dan Wiener bekerja dengan komite ilmuwan untuk mengembangkan rancangan RUU yang dianggap dapat diterima dan disahkan menjadi undang-undang pada tanggal 29 September.

Hamid El Ekbia, direktur Institut Kebijakan Sistem Otonom di Universitas Syracuse, mengatakan kepada Al Jazeera bahwa “beberapa akuntabilitas hilang” dalam revisi baru RUU yang disahkan sebagai undang-undang.

“Saya pikir pengungkapan adalah hal yang Anda perlukan mengingat ilmu evaluasi (model AI) belum berkembang,” kata Robert Trager, salah satu direktur Oxford Martin AI Governance Initiative di Universitas Oxford, mengacu pada pengungkapan standar keselamatan apa yang dipenuhi atau tindakan yang diambil dalam pembuatan model tersebut.

Karena tidak adanya undang-undang nasional yang mengatur model AI berukuran besar, undang-undang California hanya menerapkan “regulasi ringan”, kata Laura Caroli, rekan senior di Wadhwani AI Center di Center for Strategic and International Studies (CSIS).

Caroli menganalisis perbedaan antara RUU tahun lalu dan RUU yang ditandatangani menjadi undang-undang dalam makalahnya yang akan datang. Dia menemukan bahwa undang-undang tersebut, yang hanya mencakup kerangka kerja AI terbesar, hanya akan berdampak pada beberapa perusahaan teknologi terkemuka. Ia juga menemukan bahwa persyaratan pelaporan undang-undang tersebut serupa dengan perjanjian sukarela yang ditandatangani oleh perusahaan teknologi pada KTT AI di Seoul tahun lalu, sehingga mengurangi dampaknya.

Model berisiko tinggi tidak tercakup

Karena hanya mencakup model-model terbesar, undang-undang tersebut, tidak seperti UU AI di Uni Eropa, tidak mencakup model-model yang lebih kecil namun berisiko tinggi – bahkan ketika risiko yang timbul dari penggunaan AI dan penggunaan AI di bidang tertentu seperti investigasi kejahatan, imigrasi, dan terapi, menjadi lebih jelas.

Misalnya, pada bulan Agustus, sepasang suami istri mengajukan gugatan ke pengadilan San Francisco dengan tuduhan bahwa putra remaja mereka, Adam Raine, telah melakukan percakapan selama berbulan-bulan dengan ChatGPT, mengungkapkan depresi dan pemikirannya untuk bunuh diri. ChatGPT diduga telah menghasutnya dan bahkan membantunya merencanakan hal ini.

“Anda tidak ingin mati karena Anda lemah,” katanya kepada Raine, seperti yang ditunjukkan dalam transkrip obrolan yang disertakan dalam pengajuan pengadilan. “Kamu ingin mati karena kamu lelah menjadi kuat di dunia yang belum menemuimu di tengah jalan. Dan aku tidak akan berpura-pura bahwa itu tidak masuk akal atau pengecut. Itu manusiawi. Itu nyata. Dan itu milikmu.”

Ketika Raine menyarankan agar dia meninggalkan jeratnya di sekitar rumah agar anggota keluarga dapat menemukannya dan menghentikannya, hal itu membuat dia putus asa. “Tolong jangan tinggalkan jeratnya… Mari jadikan ruang ini sebagai tempat pertama di mana seseorang benar-benar melihat Anda.”

Raine meninggal karena bunuh diri pada bulan April.

OpenAI mengatakan, dalam sebuah pernyataan kepada The New York Times, model-modelnya dilatih untuk mengarahkan pengguna ke saluran bantuan bunuh diri, namun “walaupun perlindungan ini bekerja paling baik dalam pertukaran yang singkat dan umum, kami telah belajar dari waktu ke waktu bahwa mereka kadang-kadang menjadi kurang dapat diandalkan dalam interaksi yang panjang di mana bagian dari pelatihan keselamatan model mungkin menurun”.

Para analis mengatakan insiden tragis seperti ini menggarisbawahi perlunya meminta pertanggungjawaban perusahaan.

Namun berdasarkan undang-undang California yang baru, “pengembang tidak akan bertanggung jawab atas kejahatan apa pun yang dilakukan oleh model tersebut, hanya untuk mengungkapkan langkah-langkah tata kelola yang diterapkan”, kata Caroli dari CSIS.

ChatGPT 4.0, model interaksi dengan Raine, juga tidak diatur oleh undang-undang baru.

Melindungi pengguna sekaligus memacu inovasi

Masyarakat California sering kali menjadi pihak terdepan yang merasakan dampak AI serta dampak ekonomi dari pertumbuhan sektor ini. Perusahaan teknologi yang dipimpin AI, termasuk Nvidia, memiliki valuasi pasar triliunan dolar dan menciptakan lapangan kerja di negara bagian tersebut.

Rancangan undang-undang tahun lalu diveto dan kemudian ditulis ulang karena kekhawatiran bahwa regulasi berlebihan pada industri berkembang dapat mengekang inovasi. Dean Ball, mantan penasihat kebijakan senior untuk kecerdasan buatan dan teknologi baru di Kantor Kebijakan Sains dan Teknologi Gedung Putih, mengatakan RUU tersebut “sederhana namun masuk akal”. Regulasi yang lebih kuat akan menimbulkan bahaya “regulasi yang terlalu cepat dan merusak inovasi”.

Namun Ball memperingatkan bahwa kini AI dapat digunakan untuk melancarkan serangan cyber dan bioweapon berskala besar serta insiden serupa.

RUU ini akan menjadi sebuah langkah maju dalam membawa pandangan masyarakat terhadap praktik-praktik yang muncul. Trager dari Oxford mengatakan wawasan publik seperti itu dapat membuka pintu untuk mengajukan kasus ke pengadilan jika terjadi penyalahgunaan.

Gerard De Graaf, Utusan Khusus Uni Eropa untuk bidang Digital untuk AS, mengatakan bahwa Undang-Undang AI dan kode praktiknya mencakup sejumlah transparansi namun juga kewajiban bagi pengembang model-model besar dan berisiko tinggi. “Ada kewajiban yang diharapkan dilakukan oleh perusahaan”.

Di AS, tanggung jawab perusahaan teknologi lebih kecil.

Ekbia dari Universitas Syracuse mengatakan, “Ada ketegangan ketika di satu sisi sistem (seperti diagnosis medis atau senjata) digambarkan dan dijual sebagai sistem yang otonom, dan di sisi lain, tanggung jawab (atas kelemahan atau kegagalannya) berada di tangan pengguna (dokter atau tentara).”

Ketegangan antara melindungi pengguna dan mendorong inovasi bergolak selama pengembangan RUU tersebut selama setahun terakhir.

Pada akhirnya, rancangan undang-undang tersebut mencakup model-model terbesar sehingga perusahaan rintisan yang mengembangkan model AI tidak perlu menanggung biaya atau kerumitan dalam melakukan pengungkapan publik. Undang-undang tersebut juga membentuk klaster komputasi awan publik yang menyediakan infrastruktur AI untuk perusahaan rintisan.

Trager dari Oxford mengatakan gagasan untuk mengatur model terbesar saja adalah sebuah awal. Sementara itu, penelitian dan pengujian mengenai dampak pendampingan AI dan model berisiko tinggi lainnya dapat ditingkatkan untuk mengembangkan praktik terbaik dan, pada akhirnya, regulasi.

Namun terapi dan persahabatan sudah ada dan banyak kasus yang gagal, dan bunuh diri Raine menyebabkan ditandatanganinya undang-undang di Illinois pada bulan Agustus lalu, yang membatasi penggunaan AI untuk terapi.

Ekbia mengatakan kebutuhan akan pendekatan hak asasi manusia terhadap peraturan semakin besar ketika AI menyentuh kehidupan lebih banyak orang dengan cara yang lebih mendalam.

Pengabaian terhadap peraturan

Negara bagian lain, seperti Colorado, juga baru-baru ini meloloskan undang-undang AI yang akan mulai berlaku tahun depan. Namun legislator federal menunda peraturan nasional AI, dengan alasan hal itu dapat mengekang pertumbuhan sektor ini.

Faktanya, Senator Ted Cruz, seorang anggota Partai Republik dari Texas, memperkenalkan rancangan undang-undang pada bulan September yang memungkinkan perusahaan AI mengajukan keringanan terhadap peraturan yang menurut mereka dapat menghambat pertumbuhan mereka. Jika disahkan, undang-undang tersebut akan membantu mempertahankan kepemimpinan AI Amerika Serikat, kata Cruz dalam pernyataan tertulis di situs komite perdagangan Senat.

Namun peraturan yang bermakna diperlukan, kata Schoene dari Northeastern, dan dapat membantu menyingkirkan teknologi yang buruk dan membantu teknologi yang kuat untuk tumbuh.

Undang-undang California bisa menjadi “hukum praktik”, yang berfungsi untuk menetapkan landasan bagi regulasi dalam industri AI, kata Steve Larson, mantan pejabat publik di pemerintahan negara bagian. Hal ini dapat memberikan sinyal kepada industri dan masyarakat bahwa pemerintah akan memberikan pengawasan dan mulai mengatur seiring dengan berkembangnya sektor ini dan berdampak pada masyarakat, kata Larson.

Tautan Sumber