Para pemimpin Silicon Valley termasuk Gedung Putih AI & Crypto Czar David Sacks dan OpenAI Chief Strategy Officer Jason Kwon menimbulkan kehebohan online minggu ini karena komentar mereka tentang kelompok yang mempromosikan keamanan AI. Dalam kasus terpisah, mereka menuduh bahwa pendukung keamanan AI tertentu tidak berbudi luhur seperti yang terlihat, dan bertindak demi kepentingan diri mereka sendiri atau dalang di belakang layar.

Kelompok keamanan AI yang berbicara dengan TechCrunch mengatakan tuduhan dari Sacks dan OpenAI adalah upaya terbaru Silicon Valley untuk mengintimidasi para pengkritiknya, tapi tentu saja bukan yang pertama. Pada tahun 2024, beberapa perusahaan modal ventura menyebarkan desas-desus bahwa undang-undang keselamatan AI California, SB 1047, akan mengirim para pendiri startup ke penjara. Brookings Institution menyebut rumor tersebut sebagai salah satu dari banyak rumor “penafsiran yang keliru” tentang RUU tersebut, namun Gubernur Gavin Newsom akhirnya memvetonya.

Terlepas dari apakah Sacks dan OpenAI bermaksud mengintimidasi para kritikus, tindakan mereka telah cukup membuat takut beberapa pendukung keamanan AI. Banyak pemimpin nirlaba yang dihubungi TechCrunch minggu lalu meminta untuk berbicara dengan syarat anonimitas agar kelompok mereka tidak melakukan pembalasan.

Kontroversi ini menggarisbawahi meningkatnya ketegangan di Silicon Valley antara membangun AI secara bertanggung jawab dan menjadikannya produk konsumen yang masif — sebuah tema yang saya uraikan oleh rekan saya Kirsten Korosec, Anthony Ha, dan saya pada minggu ini. Ekuitas siniar. Kami juga mempelajari undang-undang keselamatan AI baru yang disahkan di California untuk mengatur chatbot, dan pendekatan OpenAI terhadap erotika di ChatGPT.

Pada hari Selasa, Sacks menulis a posting di X menuduh Anthropic itu — yang memiliki mengangkat kekhawatiran Melebihi kemampuan AI dalam berkontribusi terhadap pengangguran, serangan siber, dan dampak buruk terhadap masyarakat — hanyalah ketakutan untuk mengesahkan undang-undang yang akan menguntungkan dirinya sendiri dan menenggelamkan startup kecil yang mengurus dokumen. Anthropic adalah satu-satunya laboratorium AI besar yang mendukung RUU Senat California 53 (SB 53), sebuah undang-undang yang menetapkan persyaratan pelaporan keselamatan untuk perusahaan AI besar, yang ditandatangani menjadi undang-undang bulan lalu.

Sacks merespons a esai viral dari salah satu pendiri Anthropic, Jack Clark, tentang ketakutannya terhadap AI. Clark menyampaikan esai tersebut saat berpidato di konferensi keselamatan Curve AI di Berkeley beberapa minggu sebelumnya. Duduk di antara penonton, tentu saja terasa seperti pernyataan asli dari keraguan seorang teknolog terhadap produknya, namun Sacks tidak melihatnya seperti itu.

Sacks mengatakan Anthropic menjalankan “strategi penangkapan regulasi yang canggih,” meskipun perlu dicatat bahwa strategi yang benar-benar canggih mungkin tidak akan melibatkan pemerintah federal sebagai musuh. Di sebuah tindak lanjut posting di X, Sacks mencatat bahwa Anthropic telah “secara konsisten memposisikan dirinya sebagai musuh pemerintahan Trump.”

acara Techcrunch

San Fransisco
|
27-29 Oktober 2025

Juga minggu ini, chief strategy officer OpenAI, Jason Kwon, menulis a posting di X menjelaskan alasan perusahaan mengirimkan panggilan pengadilan ke lembaga nonprofit keamanan AI, seperti Encode, lembaga nonprofit yang mengadvokasi kebijakan AI yang bertanggung jawab. (Panggilan pengadilan adalah perintah hukum yang meminta dokumen atau kesaksian.) Kwon mengatakan bahwa setelah Elon Musk menggugat OpenAI – karena kekhawatiran bahwa pembuat ChatGPT telah menyimpang dari misi nirlabanya – OpenAI merasa curiga bagaimana beberapa organisasi juga mengajukan penolakan terhadap restrukturisasinya. Encode mengajukan amicus brief untuk mendukung gugatan Musk, dan organisasi nirlaba lainnya secara terbuka menentang restrukturisasi OpenAI.

“Hal ini menimbulkan pertanyaan transparansi tentang siapa yang mendanainya dan apakah ada koordinasi,” kata Kwon.

NBC News melaporkan minggu ini bahwa OpenAI mengirimkan panggilan pengadilan yang luas ke Encode dan enam organisasi nirlaba lainnya yang mengkritik perusahaan tersebut, meminta komunikasi mereka terkait dengan dua lawan terbesar OpenAI, Musk dan CEO Meta Mark Zuckerberg. OpenAI juga meminta Encode untuk komunikasi terkait dukungannya terhadap SB 53.

Salah satu pemimpin keselamatan AI terkemuka mengatakan kepada TechCrunch bahwa ada perpecahan yang semakin besar antara tim urusan pemerintahan OpenAI dan organisasi penelitiannya. Meskipun peneliti keselamatan OpenAI sering menerbitkan laporan yang mengungkapkan risiko sistem AI, unit kebijakan OpenAI melobi menentang SB 53, dengan mengatakan bahwa mereka lebih suka memiliki peraturan yang seragam di tingkat federal.

Kepala penyelarasan misi OpenAI, Joshua Achiam, berbicara tentang perusahaannya yang mengirimkan panggilan pengadilan ke organisasi nirlaba di a posting di X minggu ini.

“Dengan risiko yang mungkin terjadi pada seluruh karier saya, saya akan mengatakan: ini sepertinya tidak bagus,” kata Achiam.

Brendan Steinhauser, CEO dari organisasi nirlaba keamanan AI Alliance for Secure AI (yang belum dipanggil oleh OpenAI), mengatakan kepada TechCrunch bahwa OpenAI tampaknya yakin para pengkritiknya adalah bagian dari konspirasi yang dipimpin Musk. Namun, menurutnya hal tersebut tidak terjadi, dan sebagian besar komunitas keselamatan AI cukup kritis terhadap praktik keselamatan xAI, atau ketiadaan praktik tersebut.

“Di pihak OpenAI, hal ini dimaksudkan untuk membungkam kritik, mengintimidasi mereka, dan menghalangi organisasi nirlaba lain melakukan hal yang sama,” kata Steinhauser. “Bagi Sacks, saya pikir dia khawatir bahwa gerakan (keamanan AI) sedang berkembang dan orang-orang ingin meminta pertanggungjawaban perusahaan-perusahaan ini.”

Sriram Krishnan, penasihat kebijakan senior Gedung Putih untuk AI dan mantan mitra umum a16z, ikut serta dalam percakapan minggu ini dengan a postingan media sosial sendiri, menyebut para pendukung keselamatan AI sudah tidak bisa dihubungi lagi. Dia mendesak organisasi-organisasi keamanan AI untuk berbicara dengan “orang-orang di dunia nyata yang menggunakan, menjual, mengadopsi AI di rumah dan organisasi mereka.”

Sebuah studi Pew baru-baru ini menemukan bahwa sekitar setengah orang Amerika mengalami hal tersebut lebih khawatir daripada bersemangat tentang AI, tapi tidak jelas apa sebenarnya yang membuat mereka khawatir. Studi lain baru-baru ini membahas lebih detail dan menemukan bahwa pemilih Amerika lebih peduli kehilangan pekerjaan dan deepfake daripada risiko bencana yang disebabkan oleh AI, yang menjadi fokus utama gerakan keselamatan AI.

Mengatasi permasalahan keamanan ini dapat mengorbankan pertumbuhan pesat industri AI – sebuah trade-off yang mengkhawatirkan banyak orang di Silicon Valley. Dengan investasi AI yang menopang sebagian besar perekonomian Amerika, ketakutan akan peraturan yang berlebihan dapat dimengerti.

Namun setelah bertahun-tahun kemajuan AI yang tidak diatur, gerakan keselamatan AI tampaknya mendapatkan momentum nyata menjelang tahun 2026. Upaya Silicon Valley untuk melawan kelompok yang berfokus pada keselamatan mungkin merupakan tanda bahwa gerakan tersebut berhasil.



Tautan Sumber