Ingat ketika “palsu” di internet berarti gambar yang dipotret dengan buruk? Ah, waktu yang lebih sederhana. Sekarang, kita semua berenang di lautan Video yang dihasilkan AI dan deepfake, mulai dari video selebriti palsu hingga siaran bencana palsu, dan hampir mustahil untuk mengetahui apa yang nyata.
Dan ini akan menjadi lebih buruk. Sora, alat video AI dari OpenAI, sudah memperkeruh keadaan. Namun kini “aplikasi media sosial” barunya yang viral, Sora 2, menjadi yang terpopuler di internet. Inilah yang menarik: ini adalah feed bergaya TikTok khusus undangan yang semuanya 100% palsu.
Penulis sudah menyebutnya sebagai “mimpi demam deepfake,” dan itulah kenyataannya. Ini adalah platform yang semakin hari semakin baik dalam membuat fiksi terlihat seperti fakta, dan risikonya sangat besar. Jika Anda kesulitan memisahkan yang nyata dari AI, Anda tidak sendirian.
Berikut adalah beberapa tips berguna yang akan membantu Anda mengatasi kebisingan untuk mendapatkan kebenaran dari setiap situasi yang terinspirasi AI.
Jangan lewatkan konten teknologi dan ulasan berbasis laboratorium kami yang tidak memihak. Tambahkan CNET sebagai sumber Google pilihan.
Dari sudut pandang teknis, video Sora sangat mengesankan dibandingkan pesaing seperti V1 tengah perjalanan Dan Google, saya melihat 3. Mereka memiliki resolusi tinggi, audio tersinkronisasi, dan kreativitas yang mengejutkan. Fitur Sora yang paling populer, dijuluki “cameo”, memungkinkan Anda menggunakan kemiripan orang lain dan memasukkannya ke dalam hampir semua adegan yang dihasilkan AI. Ini adalah alat yang mengesankan, menghasilkan video yang sangat realistis.
Itu sebabnya banyak ahli yang mengkhawatirkan Sora. Aplikasi ini memudahkan siapa pun untuk membuat deepfake yang berbahaya, menyebarkan informasi yang salah, dan mengaburkan batas antara yang nyata dan yang tidak. Tokoh masyarakat dan selebritas sangat rentan terhadap deepfake ini, dan serikat pekerja sejenisnya SAG-AFTRA telah mendorong OpenAI untuk memperkuat pagar pembatasnya.
Mengidentifikasi konten AI merupakan tantangan berkelanjutan bagi perusahaan teknologi, platform media sosial, dan semua orang. Namun hal tersebut bukan berarti tidak ada harapan sama sekali. Berikut beberapa hal yang harus diperhatikan untuk menentukan apakah suatu video dibuat menggunakan Sora.
Cari tanda air Sora
Setiap video yang dibuat di aplikasi Sora iOS menyertakan tanda air saat Anda mengunduhnya. Itu adalah logo Sora berwarna putih — ikon awan — yang memantul di sekitar tepi video. Ini mirip dengan cara video TikTok diberi watermark.
Memberi tanda air pada konten adalah salah satu cara terbesar perusahaan AI dapat membantu kami secara visual mengenali konten yang dibuat oleh AI. Model “nano banana” Google Gemini, misalnya, secara otomatis memberi tanda air pada gambarnya. Tanda air sangat bagus karena berfungsi sebagai tanda yang jelas bahwa konten tersebut dibuat dengan bantuan AI.
Namun tanda air tidaklah sempurna. Pertama, jika tanda air bersifat statis (tidak bergerak), tanda air tersebut dapat dengan mudah dipotong. Bahkan untuk memindahkan tanda air seperti milik Sora, ada aplikasi yang dirancang khusus untuk menghapusnya, sehingga tanda air saja tidak dapat dipercaya sepenuhnya. Ketika CEO OpenAI Sam Altman ditanya tentang hal ini, dia dikatakan masyarakat harus beradaptasi dengan dunia di mana siapa pun dapat membuat video palsu tentang siapa pun. Tentu saja, sebelum Sora OpenAI, tidak ada cara yang populer, mudah diakses, dan tidak memerlukan keahlian untuk membuat video tersebut. Namun argumennya memunculkan poin yang valid tentang perlunya mengandalkan metode lain untuk memverifikasi keaslian.
Periksa metadatanya
Saya tahu, Anda mungkin berpikir bahwa tidak mungkin Anda memeriksa metadata video untuk menentukan apakah itu nyata. Saya mengerti dari mana Anda berasal; ini adalah langkah ekstra, dan Anda mungkin tidak tahu harus mulai dari mana. Namun ini cara yang bagus untuk menentukan apakah suatu video dibuat dengan Sora, dan ini lebih mudah dilakukan daripada yang Anda kira.
Metadata adalah kumpulan informasi yang secara otomatis dilampirkan ke suatu konten saat dibuat. Ini memberi Anda lebih banyak wawasan tentang bagaimana gambar atau video dibuat. Ini dapat mencakup jenis kamera yang digunakan untuk mengambil foto, lokasi, tanggal dan waktu pengambilan video, serta nama file. Setiap foto dan video memiliki metadata, tidak peduli apakah itu buatan manusia atau AI. Dan banyak konten yang dibuat oleh AI juga memiliki kredensial konten yang menunjukkan asal AI-nya.
OpenAI adalah bagian dari Koalisi untuk Asal dan Keaslian Konten, yang bagi Anda berarti video Sora termasuk Metadata C2PA. Anda dapat menggunakan Alat verifikasi Inisiatif Keaslian Konten untuk memeriksa metadata video, gambar, atau dokumen. Begini caranya. (Inisiatif Keaslian Konten adalah bagian dari C2PA.)
Cara memeriksa metadata foto, video, atau dokumen:
1. Arahkan ke URL ini: https://verify.contentauthenticity.org/
2. Unggah file yang ingin Anda periksa.
3. Klik Buka.
4. Periksa informasi di panel sisi kanan. Jika konten tersebut dihasilkan oleh AI, konten tersebut harus disertakan di bagian ringkasan konten.
Saat Anda menjalankan video Sora melalui alat ini, akan dikatakan bahwa video tersebut “dikeluarkan oleh OpenAI”, dan akan menyertakan fakta bahwa video tersebut dihasilkan oleh AI. Semua video Sora harus berisi kredensial ini yang memungkinkan Anda mengonfirmasi bahwa video tersebut dibuat dengan Sora.
Alat ini, seperti semua detektor AI, tidaklah sempurna. Ada banyak cara video AI dapat menghindari deteksi. Jika Anda memiliki video non-Sora lainnya, video tersebut mungkin tidak berisi sinyal yang diperlukan dalam metadata agar alat dapat menentukan apakah video tersebut dibuat oleh AI atau tidak. Video AI yang dibuat dengan Midjourney, misalnya, tidak ditandai, seperti yang saya konfirmasikan dalam pengujian saya. Meskipun video tersebut dibuat oleh Sora, tetapi kemudian dijalankan melalui aplikasi pihak ketiga (seperti aplikasi penghapus tanda air) dan diunduh ulang, kecil kemungkinannya alat tersebut akan menandainya sebagai AI.
Alat verifikasi Content Authenticity Initiative dengan tepat menandai bahwa video yang saya buat dengan Sora dibuat oleh AI, beserta tanggal dan waktu saya membuatnya.
Cari label AI lain dan sertakan label Anda sendiri
Jika Anda menggunakan salah satu platform media sosial Meta, seperti Instagram atau Facebook, Anda mungkin mendapat sedikit bantuan untuk menentukan apakah sesuatu itu AI. Meta punya sistem internal yang ada untuk membantu menandai konten AI dan memberi label seperti itu. Sistem ini tidak sempurna, namun Anda dapat dengan jelas melihat label postingan yang telah ditandai. TikTok Dan YouTube memiliki kebijakan serupa untuk memberi label pada konten AI.
Satu-satunya cara yang benar-benar dapat diandalkan untuk mengetahui apakah sesuatu dihasilkan oleh AI adalah jika pembuatnya mengungkapkannya. Banyak platform media sosial kini menawarkan pengaturan yang memungkinkan pengguna memberi label pada postingan mereka sebagai buatan AI. Bahkan penghargaan atau pengungkapan sederhana dalam teks Anda dapat membantu semua orang memahami bagaimana sesuatu dibuat.
Anda tahu saat Anda menelusuri Sora bahwa tidak ada yang nyata. Namun begitu Anda keluar dari aplikasi dan membagikan video yang dihasilkan AI, tanggung jawab kita bersama adalah mengungkapkan cara video tersebut dibuat. Ketika model AI seperti Sora terus mengaburkan batas antara realitas dan AI, kita semua harus memperjelas apakah sesuatu itu nyata atau AI.
Yang terpenting, tetap waspada
Tidak ada metode yang mudah untuk mengetahui secara akurat apakah suatu video itu asli atau AI hanya dengan sekali pandang. Hal terbaik yang dapat Anda lakukan untuk mencegah diri Anda ditipu adalah dengan tidak secara otomatis mempercayai semua yang Anda lihat online. Ikuti naluri Anda — jika ada sesuatu yang terasa tidak nyata, mungkin memang demikian. Di masa yang penuh dengan AI dan belum pernah terjadi sebelumnya ini, pertahanan terbaik Anda adalah dengan memeriksa video yang Anda tonton dengan lebih cermat. Jangan hanya sekilas melirik dan menggulir tanpa berpikir. Periksa teks yang rusak, objek yang hilang, dan gerakan yang melanggar fisika. Dan jangan menyalahkan diri sendiri jika Anda kadang-kadang tertipu; bahkan para ahli pun salah.
(Pengungkapan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap OpenAI, menuduhnya melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)











