Chris Lehane adalah salah satu orang terbaik dalam bisnis ini dalam menghilangkan berita buruk. Sekretaris pers Al Gore pada masa pemerintahan Clinton, kepala manajer krisis Airbnb melalui setiap mimpi buruk peraturan mulai dari sini hingga Brussels– Lehane tahu cara berputar. Saat ini, ia telah menjalani dua tahun pekerjaannya yang mungkin merupakan hal yang paling mustahil: sebagai VP kebijakan global OpenAI, tugasnya adalah meyakinkan dunia bahwa OpenAI benar-benar peduli terhadap demokratisasi kecerdasan buatan, sementara perusahaan tersebut semakin berperilaku seperti raksasa teknologi lainnya yang pernah diklaim berbeda.
Saya punya waktu 20 menit bersamanya di atas panggung di Mengangkat konferensi di Toronto awal pekan ini– 20 menit untuk membahas poin-poin pembicaraan dan kontradiksi nyata yang menggerogoti citra OpenAI yang dibangun dengan cermat. Itu tidak mudah dan tidak sepenuhnya berhasil. Lehane benar-benar bagus dalam pekerjaannya. Dia menyenangkan. Dia terdengar masuk akal. Dia mengakui ketidakpastian. Dia bahkan berbicara tentang bangun jam 3 pagi dan khawatir apakah semua ini benar-benar bermanfaat bagi umat manusia.
Namun niat baik tidak berarti banyak ketika perusahaan Anda memanggil para kritikus, menguras air dan listrik di kota-kota yang mengalami depresi ekonomi, dan menghidupkan kembali selebritas yang sudah mati untuk menegaskan dominasi pasar Anda.
Masalah perusahaan Sora sebenarnya adalah akar dari segalanya. Alat pembuat video clip ini diluncurkan minggu lalu dengan materi berhak cipta yang tampaknya dimasukkan langsung ke dalamnya. Ini adalah langkah berani bagi sebuah perusahaan yang telah digugat oleh New york city Times, Toronto Celebrity, dan separuh industri penerbitan. Dari sudut pandang bisnis dan pemasaran, ini juga brilian. Aplikasi khusus undangan melonjak ke puncak App Shop seiring orang-orang membuat versi electronic diri mereka sendiri, CHIEF EXECUTIVE OFFICER OpenAI Sam Altman; karakter seperti Pikachu, Mario, dan Cartman dari “South Park”; dan selebritas yang sudah mati seperti Tupac Shakur.
Ketika ditanya apa yang mendorong keputusan OpenAI untuk meluncurkan versi terbaru Sora dengan karakter-karakter ini, Lehane memberi saya jawaban standar: Sora adalah “teknologi tujuan umum” seperti listrik atau mesin cetak, yang mendemokratisasi kreativitas bagi orang-orang yang tidak memiliki bakat atau sumber daya. Bahkan dia– yang mengaku sebagai orang yang tidak kreatif– sekarang bisa membuat video, katanya di atas panggung.
Apa yang dia lakukan adalah bahwa OpenAI pada awalnya “membiarkan” pemegang hak memilih untuk tidak menggunakan karya mereka untuk melatih Sora, yang biasanya bukan merupakan cara kerja penggunaan hak cipta. Kemudian, setelah OpenAI menyadari bahwa orang-orang sangat suka menggunakan gambar berhak cipta (tentu saja mereka menyukainya), OpenAI “berevolusi” menuju version keikutsertaan. Itu tidak benar-benar mengulangi. Itu menguji seberapa banyak Anda bisa lolos. (Dan omong-omong, meskipun Asosiasi Movie Bergerak membuat keributan minggu lalu tentang ancaman hukum, OpenAI tampaknya telah berhasil lolos.)
Tentu saja, situasi ini mengingatkan kita pada kejengkelan penerbit yang menuduh OpenAI melakukan pelatihan pada pekerjaan mereka tanpa berbagi keuntungan finansial. Ketika saya mendesak Lehane tentang penerbit yang tidak diikutsertakan dalam bidang ekonomi, dia menggunakan penggunaan wajar, yaitu doktrin hukum Amerika yang seharusnya menyeimbangkan hak pencipta dan akses publik terhadap pengetahuan. Dia menyebutnya sebagai senjata rahasia dominasi teknologi AS.
acara Techcrunch
San Fransisco | 27 – 29 Oktober 2025
Mungkin. Namun saya baru-baru ini mewawancarai Al Gore– bos lama Lehane– dan menyadari bahwa siapa pun bisa bertanya kepada ChatGPT tentang hal itu alih-alih membaca tulisan saya di TechCrunch. “Ini ‘berulang’,” kataku, “tetapi ini juga merupakan pengganti.”
Untuk pertama kalinya, Lehane mengutarakan omongannya. “Kita semua perlu memikirkan hal ini,” katanya. “Sangat fasih dan mudah untuk duduk di sini di atas panggung dan mengatakan kita perlu memikirkan version pendapatan ekonomi yang baru. Tapi saya pikir kita akan melakukannya.” (Singkatnya, kami mengada-ada.)
Lalu ada pertanyaan infrastruktur yang tidak ingin dijawab dengan jujur oleh siapa pun. OpenAI telah mengoperasikan kampus pusat data di Abilene, Texas, dan baru-baru ini membangun pusat data besar-besaran di Lordstown, Ohio, dalam kemitraan dengan Oracle dan SoftBank. Lehane menyamakan aksesibilitas AI dengan munculnya listrik– dengan mengatakan bahwa mereka yang terakhir mengaksesnya masih mengejar ketertinggalan– namun proyek Stargate OpenAI tampaknya menargetkan beberapa tempat yang mengalami kesulitan ekonomi sebagai tempat untuk mendirikan fasilitas dengan kebutuhan air dan listrik yang sangat besar.
Saat ditanya apakah komunitas-komunitas ini akan mendapat manfaat atau hanya menanggung biayanya, Lehane menjawab tentang gigawatt dan geopolitik. OpenAI membutuhkan sekitar satu gigawatt energi per minggu, katanya. Tiongkok mendatangkan 450 gigawatt tahun lalu ditambah 33 fasilitas nuklir. Jika negara-negara demokrasi menginginkan AI yang demokratis, mereka harus bersaing. “Saya yang optimis mengatakan hal ini akan memodernisasi sistem energi kita,” katanya, menggambarkan gambaran Amerika yang mengalami re-industrialisasi dengan jaringan listrik yang berubah.
Itu sangat menginspirasi. Namun hal ini bukanlah jawaban mengenai apakah masyarakat di Lordstown dan Abilene akan menyaksikan tagihan listrik mereka melonjak sementara OpenAI menghasilkan video John F. Kennedy dan The Notorious BIG (Pembuatan video clip adalah AI yang paling boros energi di luar sana.)
Yang membawa saya pada contoh saya yang paling tidak nyaman. Zelda Williams menghabiskan sehari sebelum wawancara kami memohon kepada orang asing di Instagram untuk berhenti mengirimkan video mendiang ayahnya, Robin Williams yang dibuat oleh AI. “Anda tidak membuat karya seni,” tulisnya. “Anda membuat hotdog yang menjijikkan dan diproses secara berlebihan sehingga merugikan kehidupan manusia.”
Ketika saya bertanya tentang bagaimana perusahaan menyelaraskan dampak buruk ini dengan misinya, Lehane menjawab dengan membahas proses, termasuk desain yang bertanggung jawab, kerangka pengujian, dan kemitraan dengan pemerintah. “Tidak ada pedoman untuk hal ini, kan?”
Lehane menunjukkan kerentanan dalam beberapa momen, mengatakan bahwa dia bangun jam 3 pagi setiap malam, khawatir tentang demokratisasi, geopolitik, dan infrastruktur. “Ada tanggung jawab besar yang menyertai hal ini.”
Apakah momen itu dirancang untuk penonton atau tidak, saya percaya padanya. Memang benar, saya meninggalkan Toronto karena berpikir saya telah menonton kelas master dalam pesan politik– Lehane melakukan hal yang mustahil sambil menghindari pertanyaan tentang keputusan perusahaan yang, sejauh yang saya tahu, dia bahkan tidak setuju. Kemudian hari Jumat terjadi.
Nathan Calvin, seorang pengacara yang bekerja pada kebijakan AI di organisasi advokasi nirlaba, Encode AI, mengungkapkan bahwa pada saat yang sama saya berbicara dengan Lehane di Toronto, OpenAI telah mengirimkan wakil constable ke rumahnya di Washington, DC, saat makan malam untuk memberinya panggilan pengadilan. Mereka menginginkan pesan pribadinya dengan lawmaker The golden state, mahasiswa, dan mantan karyawan OpenAI.
Calvin menuduh OpenAI melakukan taktik intimidasi seputar peraturan AI baru, SB 53 California. Dia mengatakan perusahaan tersebut mempersenjatai pertarungan hukumnya dengan Elon Musk sebagai dalih untuk menargetkan kritik, yang menyiratkan bahwa Encode diam-diam didanai oleh Musk. Faktanya, Calvin mengatakan bahwa dia melawan penentangan OpenAI terhadap SB 53 The golden state, sebuah undang-undang keselamatan AI, dan ketika dia melihat perusahaan tersebut mengklaim bahwa itu “berhasil untuk memperbaiki undang-undang tersebut,” dia “benar-benar tertawa terbahak-bahak.” Di media sosial, dia kemudian menyebut Lehane secara spesifik sebagai “ahli ilmu hitam politik.”
Di Washington, hal itu mungkin merupakan sebuah pujian. Di perusahaan seperti OpenAI yang misinya adalah “membangun AI yang bermanfaat bagi seluruh umat manusia”, hal ini terdengar seperti sebuah dakwaan.
Yang lebih penting adalah bahkan orang-orang OpenAI sendiri pun mengalami konflik mengenai apa yang akan mereka lakukan.
Seperti yang dilaporkan rekan saya Max minggu lalu, sejumlah karyawan saat ini dan mantan karyawan menggunakan media sosial setelah Sora 2 dirilis, mengungkapkan keraguan mereka, termasuk Boaz Barak, seorang peneliti OpenAI dan profesor Harvard, yang menulis tentang Sora 2 bahwa hal ini “secara teknis luar biasa, namun terlalu dini untuk memberi selamat kepada diri kita sendiri karena berhasil menghindari jebakan aplikasi media sosial lain dan deepfake.”
Pada hari Jumat, Josh Achiam– kepala penyelarasan misi OpenAI– men-tweet sesuatu yang lebih luar biasa tentang tuduhan Calvin. Mengawali komentarnya dengan mengatakan bahwa hal tersebut “mungkin merupakan risiko bagi seluruh karier saya,” Achiam melanjutkan dengan menulis tentang OpenAI: “Kita tidak bisa melakukan hal-hal yang membuat kita menjadi kekuatan yang menakutkan dan bukan kekuatan yang baik. Kita memiliki tugas dan misi untuk seluruh umat manusia. Batasan untuk melaksanakan tugas tersebut sangat tinggi.”
Itu … sesuatu. Seorang eksekutif OpenAI secara terbuka mempertanyakan apakah perusahaannya menjadi “kekuatan yang menakutkan dan bukannya kekuatan yang baik,” tidak setara dengan pesaing yang mengambil gambar atau press reporter yang mengajukan pertanyaan. Ini adalah seseorang yang memilih untuk bekerja di OpenAI, yang percaya pada misinya, dan yang kini mengakui adanya krisis hati nurani meskipun ada risiko profesional.
Ini adalah momen yang mengkristal. Anda bisa menjadi agen politik terbaik di bidang teknologi, ahli dalam menghadapi situasi yang mustahil, dan tetap bekerja untuk perusahaan yang tindakannya semakin bertentangan dengan nilai-nilai yang dinyatakan– kontradiksi yang mungkin semakin meningkat ketika OpenAI berlomba menuju kecerdasan umum buatan.
Saya berpikir bahwa pertanyaan sebenarnya bukanlah apakah Chris Lehane dapat menjual misi OpenAI. Masalahnya adalah apakah orang lain– termasuk, yang terpenting, orang-orang yang bekerja di sana– masih mempercayainya.