Aplikasi teks-ke-video baru OpenAI, Sora, seharusnya menjadi taman bermain AI sosial, yang memungkinkan pengguna membuat video AI imajinatif tentang diri mereka sendiri, teman, dan selebritas sambil membangun ide-ide orang lain.

Struktur sosial aplikasi, yang memungkinkan pengguna untuk menyesuaikan ketersediaan kemiripan mereka di video orang lain, tampaknya menjawab pertanyaan paling mendesak mengenai persetujuan seputar video yang dihasilkan AI ketika diluncurkan minggu lalu.

Tapi sebagai Sora duduk di atas Toko Aplikasi iOS dengan berakhir 1 juta unduhanpara ahli khawatir tentang potensinya membanjiri internet dengan informasi yang salah tentang sejarah dan kesalahan mendalam dari tokoh sejarah yang telah meninggal yang tidak dapat menyetujui atau memilih untuk tidak menggunakan model AI Sora.

Dalam waktu kurang dari satu menit, aplikasi ini dapat menghasilkan video pendek selebriti yang telah meninggal dalam situasi yang belum pernah mereka alami: Aretha Franklin membuat lilin kedelai, Carrie Fisher yang mencoba menyeimbangkan diri di slackline, seluncur es Nat King Cole di Havana, dan Marilyn Monroe yang mengajar bahasa Vietnam kepada anak-anak sekolah, misalnya.

Itu adalah mimpi buruk bagi orang-orang seperti Adam Streisand, seorang pengacara yang telah mewakili beberapa selebriti, termasuk Monroe pada satu titik.

“Tantangan AI bukanlah hukum,” kata Streisand melalui email, merujuk pada pengadilan California telah lama melindungi selebriti “dari reproduksi gambar atau suara mereka yang mirip AI.”

“Pertanyaannya adalah apakah proses peradilan non-AI yang bergantung pada manusia akan mampu memainkan permainan whack-a-mole yang hampir berdimensi 5.”

Video di Sora berkisar dari yang tidak masuk akal, menyenangkan, hingga membingungkan. Selain selebriti, banyak video di Sora yang menunjukkan deepfake yang meyakinkan tentang momen bersejarah yang dimanipulasi.

Misalnya, NBC News mampu menghasilkan video realistis yang memperlihatkan pengakuan Presiden Dwight Eisenhower menerima suap jutaan dolar, Perdana Menteri Inggris Margaret Thatcher berargumen bahwa “pendaratan D-Day” itu berlebihan, dan Presiden John F. Kennedy mengumumkan bahwa pendaratan di bulan “bukanlah kemenangan ilmu pengetahuan melainkan rekayasa.”

Kemampuan untuk menghasilkan deepfake (kepalsuan mendalam) terhadap individu meninggal yang tidak memberikan persetujuan telah menimbulkan keluhan dari anggota keluarga.

Dalam sebuah cerita Instagram diposting pada hari Senin tentang video Sora yang menampilkan Robin Williams, yang meninggal pada tahun 2014, putri Williams, Zelda, menulis: “Jika Anda punya kesopanan, berhentilah melakukan ini padanya dan kepada saya, bahkan kepada semua orang, titik. Itu bodoh, hanya membuang-buang waktu dan energi, dan percayalah, BUKAN itu yang dia inginkan.”

Bernice King, putri Martin Luther King Jr., menulis pada X: “Saya setuju mengenai ayah saya. Tolong hentikan.” Pidato King yang terkenal “Saya punya mimpi” terus-menerus dimanipulasi dan di-remix di aplikasi.

Putri George Carlin berkata dalam a postingan BlueSky bahwa keluarganya “melakukan yang terbaik untuk memerangi” deepfake mendiang komedian tersebut.

Video buatan Sora yang menggambarkan “kekerasan yang mengerikan” yang melibatkan fisikawan ternama Stephen Hawking juga melonjak popularitasnya minggu ini, dengan banyak contoh beredar di X.

Seorang juru bicara OpenAI mengatakan kepada NBC News: “Meskipun ada kepentingan kebebasan berpendapat yang kuat dalam menggambarkan tokoh-tokoh sejarah, kami percaya bahwa tokoh masyarakat dan keluarga mereka pada akhirnya harus memiliki kendali atas bagaimana kemiripan mereka digunakan. Untuk tokoh masyarakat yang baru saja meninggal, perwakilan resmi atau pemilik tanah milik mereka dapat meminta agar kemiripan mereka tidak digunakan dalam akting cemerlang Sora.”

Di sebuah posting blog dari Jumat laluCEO OpenAI Sam Altman menulis bahwa perusahaan akan segera “memberi pemegang hak kontrol yang lebih terperinci atas pembuatan karakter,” mengacu pada jenis konten yang lebih luas. “Kami mendengar banyak pemegang hak cipta yang sangat antusias dengan ‘fiksi penggemar interaktif’ jenis baru ini dan berpikir bahwa keterlibatan jenis baru ini akan memberikan banyak nilai bagi mereka, namun menginginkan kemampuan untuk menentukan bagaimana karakter mereka dapat digunakan (termasuk tidak sama sekali).”

milik Openai kebijakan yang berkembang dengan cepat karena Sora telah mengarahkan beberapa komentator untuk memperdebatkan pendapat perusahaan bergerak cepat dan menghancurkan sesuatu pendekatan itu mempunyai tujuan, menunjukkan pengguna dan pemegang kekayaan intelektual kekuatan dan jangkauan aplikasi.

Liam Mayes, dosen studi media di Rice University, berpendapat bahwa deepfake yang semakin realistis dapat menimbulkan dua dampak sosial utama. Pertama, katanya, “kita akan menemukan orang-orang yang mudah percaya menjadi korban segala jenis penipuan, perusahaan-perusahaan besar dan berkuasa yang melakukan tekanan koersif, dan aktor-aktor jahat yang merusak proses demokrasi,” kata Mayes.

Pada saat yang sama, ketidakmampuan membedakan deepfake dari video asli dapat mengurangi kepercayaan terhadap media asli. “Kita mungkin melihat kepercayaan terhadap berbagai lembaga dan lembaga media terkikis,” kata Mayes.

Sebagai pendiri dan ketua CMG Worldwide, Mark Roesler telah mengelola kekayaan intelektual dan hak lisensi untuk lebih dari 3.000 tokoh hiburan, olahraga, sejarah, dan musik yang telah meninggal seperti James Dean, Neil Armstrong, dan Albert Einstein. Roesler mengatakan bahwa Sora hanyalah teknologi terbaru yang meningkatkan kekhawatiran tentang perlindungan warisan tokoh.

“Ada dan akan terjadi pelecehan seperti yang selalu terjadi pada selebriti dan kekayaan intelektual mereka yang berharga,” tulisnya melalui email. “Ketika kami mulai mewakili tokoh-tokoh yang telah meninggal pada tahun 1981, internet bahkan belum ada.”

“Teknologi dan inovasi baru membantu menjaga warisan dari banyak tokoh bersejarah dan ikonik tetap hidup, yang membentuk dan memengaruhi sejarah kita,” tambah Roesler, seraya mengatakan bahwa CMG akan terus mewakili kepentingan kliennya dalam aplikasi AI seperti Sora.

Untuk membedakan antara video asli dan video buatan Sora, OpenAI menerapkan beberapa alat untuk membantu pengguna dan platform digital mengidentifikasi konten buatan Sora.

Setiap video menyertakan sinyal yang tidak terlihat, tanda air yang terlihat, dan metadata — informasi teknis di balik layar yang menjelaskan bahwa konten tersebut dihasilkan oleh AI.

Namun beberapa lapisan ini mudah dilepas, kata Sid Srinivasan, ilmuwan komputer di Universitas Harvard. “Tanda air dan metadata yang terlihat akan mencegah penyalahgunaan melalui beberapa gesekan, namun cukup mudah untuk dihapus dan tidak akan menghentikan pelaku yang lebih gigih.”

Srinivasan mengatakan tanda air yang tidak terlihat dan alat deteksi terkait kemungkinan akan menjadi pendekatan yang paling dapat diandalkan. “Pada akhirnya, platform hosting video kemungkinan akan memerlukan akses ke alat pendeteksi seperti ini, dan tidak ada batas waktu yang jelas untuk akses yang lebih luas ke alat internal tersebut.”

Wenting Zheng, asisten profesor ilmu komputer di Universitas Carnegie Mellon, menganut pandangan serupa, dengan mengatakan: “Untuk secara otomatis mendeteksi materi yang dihasilkan AI di postingan media sosial, akan bermanfaat bagi OpenAI untuk membagikan alat mereka untuk melacak gambar, audio, dan video dengan platform untuk membantu orang dalam mengidentifikasi konten yang dihasilkan AI.”

Ketika ditanya secara spesifik apakah OpenAI telah membagikan alat pendeteksi ini dengan platform lain seperti Meta atau X, juru bicara OpenAI merujuk NBC News ke a laporan teknis umum. Laporan tersebut tidak memberikan informasi rinci seperti itu.

Untuk mengidentifikasi rekaman asli dengan lebih baik, beberapa perusahaan menggunakan AI untuk mendeteksi keluaran AI, menurut Ben Colman, CEO dan salah satu pendiri Reality Defender, sebuah startup pendeteksi deepfake.

“Manusia – bahkan mereka yang terlatih dalam masalah ini, seperti halnya beberapa pesaing kita – adalah manusia yang salah dan salah, kehilangan hal-hal yang tidak dapat dilihat atau didengar,” kata Colman.

Di Reality Defender, “AI digunakan untuk mendeteksi AI,” kata Colman kepada NBC News. “Video mungkin menjadi lebih realistis bagi Anda dan saya, namun AI dapat melihat dan mendengar hal-hal yang tidak dapat kita lihat.”

Demikian pula, perangkat lunak Scam Detector McAfee “mendengarkan audio video untuk sidik jari AI dan menganalisisnya untuk menentukan apakah konten tersebut asli atau dihasilkan oleh AI,” menurut Steve Grobman, chief technology officer di McAfee.

Namun, Grobman menambahkan, “alat-alat baru membuat video dan audio palsu terlihat lebih nyata setiap saat, dan 1 dari 5 orang mengatakan kepada kami bahwa mereka atau seseorang yang mereka kenal telah menjadi korban penipuan deepfake.”

Kualitas deepfake juga berbeda antarbahasa, seperti halnya alat AI yang ada saat ini dalam bahasa yang umum digunakan seperti Inggris, Spanyol, atau Mandarin jauh lebih mampu daripada alat dalam bahasa yang kurang umum digunakan.

“Kami terus mengembangkan teknologi seiring dengan diperkenalkannya alat AI baru, dan berkembang melampaui bahasa Inggris sehingga lebih banyak bahasa dan konteks yang tercakup,” kata Grobman.

Kekhawatiran tentang deepfake telah menjadi berita utama sebelumnya. Kurang dari setahun yang lalu, prediksi banyak pengamat bahwa pemilu 2024 akan dibanjiri dengan deepfake. Ini sebagian besar ternyata tidak benar.

Namun hingga tahun ini, media yang dihasilkan AI, seperti gambar, audio, dan video, sebagian besar masih dapat dibedakan dari konten sebenarnya. Banyak komentator telah menemukan bahwa model-model yang dirilis pada tahun 2025 sangat mirip dengan aslinya, sehingga mengancam kemampuan masyarakat untuk membedakan informasi nyata yang dibuat oleh manusia dari konten yang dihasilkan oleh AI.

Model pembuatan video Veo 3 Google, yang dirilis pada bulan Mei, disebut “sangat akurat” Dan “sangat mirip manusia hidup” pada saat itu, menginspirasi salah satu pengulas untuk bertanya, “Apakah kita ditakdirkan?



Tautan Sumber