Jika Anda hanya sedikit online, kemungkinan besar Anda pernah melihat gambar atau video tersebut dihasilkan oleh AI. Saya tahu saya pernah dibodohi sebelumnya, seperti halnya saya video viral kelinci di trampolin. Namun Sora membawa video AI ke tingkat yang benar-benar baru, menjadikannya semakin penting untuk mengetahui cara mengenali AI.
Sora adalah aplikasi saudara dari ChatGPT, dibuat oleh perusahaan induk yang sama, OpenAI. Namanya diambil dari generator video AI-nya, yang diluncurkan pada tahun 2024. Namun baru-baru ini mendapat perombakan besar-besaran dengan model Sora 2 baru, bersama dengan a aplikasi media sosial baru dengan nama yang sama. Aplikasi mirip TikTok menjadi viraldengan tekad para penggemar AI untuk melakukannya memburu kode undangan. Tapi ini tidak seperti platform media sosial lainnya. Segala sesuatu yang Anda lihat di Sora adalah palsu; semua video dihasilkan oleh AI. Menggunakan Sora adalah sebuah Mimpi demam deepfake AI: sekilas tidak berbahaya, dengan risiko berbahaya yang mengintai di bawah permukaan.
Jangan lewatkan konten teknologi dan ulasan berbasis laboratorium kami yang tidak memihak. Tambahkan CNET sebagai sumber Google pilihan.
Dari sudut pandang teknis, video Sora sangat mengesankan dibandingkan pesaing seperti V1 tengah perjalanan Dan Google, saya melihat 3. Video Sora memiliki resolusi tinggi, audio tersinkronisasi, dan kreativitas yang mengejutkan. Fitur Sora yang paling populer, dijuluki “cameo”, memungkinkan Anda menggunakan kemiripan orang lain dan memasukkannya ke dalam hampir semua adegan yang dihasilkan AI. Ini adalah alat yang mengesankan, menghasilkan video yang sangat realistis.
Itu sebabnya banyak ahli mengkhawatirkan Sora, karena hal ini dapat mempermudah siapa pun untuk membuat deepfake, menyebarkan informasi yang salah, dan mengaburkan batas antara apa yang nyata dan apa yang tidak. Tokoh masyarakat dan selebritas sangat rentan terhadap deepfake yang berpotensi berbahaya ini, itulah sebabnya serikat pekerja sangat menyukainya SAG-AFTRA mendorong OpenAI untuk memperkuat pagar pembatasnya.
Mengidentifikasi konten AI merupakan tantangan berkelanjutan bagi perusahaan teknologi, platform media sosial, dan kita semua yang menggunakannya. Namun hal tersebut bukan berarti tidak ada harapan sama sekali. Berikut beberapa hal yang perlu diperhatikan untuk mengidentifikasi apakah suatu video dibuat menggunakan Sora.
Cari tanda air Sora
Setiap video yang dibuat di aplikasi Sora iOS menyertakan tanda air saat Anda mengunduhnya. Itu adalah logo Sora berwarna putih — ikon awan — yang memantul di sekitar tepi video. Ini mirip dengan cara video TikTok diberi watermark.
Memberi tanda air pada konten adalah salah satu cara terbesar perusahaan AI dapat membantu kami secara visual mengenali konten yang dibuat oleh AI. Model “nano banana” Google Gemini, misalnya, secara otomatis memberi tanda air pada gambarnya. Tanda air sangat bagus karena berfungsi sebagai tanda yang jelas bahwa konten tersebut dibuat dengan bantuan AI.
Namun tanda air tidaklah sempurna. Pertama, jika tanda air bersifat statis (tidak bergerak), tanda air tersebut dapat dengan mudah dipotong. Bahkan untuk memindahkan tanda air seperti milik Sora, ada aplikasi yang dirancang khusus untuk menghapusnya, sehingga tanda air saja tidak dapat dipercaya sepenuhnya. Ketika CEO OpenAI Sam Altman ditanya tentang hal ini, dia dikatakan masyarakat harus beradaptasi dengan dunia di mana siapa pun dapat membuat video palsu tentang siapa pun. Tentu saja, sebelum Sora OpenAI, tidak ada cara yang populer, mudah diakses, dan tidak memerlukan keahlian untuk membuat video tersebut. Namun argumennya memunculkan poin yang valid tentang perlunya mengandalkan metode lain untuk memverifikasi keaslian.
Periksa metadatanya
Saya tahu, Anda mungkin berpikir bahwa tidak mungkin Anda memeriksa metadata video untuk menentukan apakah itu nyata. Saya mengerti dari mana Anda berasal; ini adalah langkah ekstra, dan Anda mungkin tidak tahu harus mulai dari mana. Namun ini cara yang bagus untuk menentukan apakah suatu video dibuat dengan Sora, dan ini lebih mudah dilakukan daripada yang Anda kira.
Metadata adalah kumpulan informasi yang secara otomatis dilampirkan ke suatu konten saat dibuat. Ini memberi Anda lebih banyak wawasan tentang bagaimana gambar atau video dibuat. Ini dapat mencakup jenis kamera yang digunakan untuk mengambil foto, lokasi, tanggal dan waktu pengambilan video, serta nama file. Setiap foto dan video memiliki metadata, tidak peduli apakah itu buatan manusia atau AI. Dan banyak konten yang dibuat oleh AI juga memiliki kredensial konten yang menunjukkan asal AI-nya.
OpenAI adalah bagian dari Koalisi untuk Asal dan Keaslian Konten, yang bagi Anda berarti video Sora termasuk Metadata C2PA. Anda dapat menggunakan Alat verifikasi Inisiatif Keaslian Konten untuk memeriksa metadata video, gambar, atau dokumen. Begini caranya. (Inisiatif Keaslian Konten adalah bagian dari C2PA.)
Cara memeriksa metadata foto, video, atau dokumen:
1. Arahkan ke URL ini: https://verify.contentauthenticity.org/
2. Unggah file yang ingin Anda periksa.
3. Klik Buka.
4. Periksa informasi di panel sisi kanan. Jika konten tersebut dihasilkan oleh AI, konten tersebut harus disertakan di bagian ringkasan konten.
Saat Anda menjalankan video Sora melalui alat ini, akan dikatakan bahwa video tersebut “dikeluarkan oleh OpenAI”, dan akan menyertakan fakta bahwa video tersebut dihasilkan oleh AI. Semua video Sora harus berisi kredensial ini yang memungkinkan Anda mengonfirmasi bahwa video tersebut dibuat dengan Sora.
Alat ini, seperti semua detektor AI, tidaklah sempurna. Ada banyak cara video AI dapat menghindari deteksi. Jika Anda memiliki video non-Sora lainnya, video tersebut mungkin tidak berisi sinyal yang diperlukan dalam metadata agar alat dapat menentukan apakah video tersebut dibuat oleh AI atau tidak. Video AI yang dibuat dengan Midjourney, misalnya, tidak ditandai, seperti yang saya konfirmasikan dalam pengujian saya. Meskipun video tersebut dibuat oleh Sora, tetapi kemudian dijalankan melalui aplikasi pihak ketiga (seperti aplikasi penghapus tanda air) dan diunduh ulang, kecil kemungkinannya alat tersebut akan menandainya sebagai AI.
Alat verifikasi Content Authenticity Initiative dengan tepat menandai bahwa video yang saya buat dengan Sora dibuat oleh AI, beserta tanggal dan waktu saya membuatnya.
Cari label AI lain dan sertakan label Anda sendiri
Jika Anda menggunakan salah satu platform media sosial Meta, seperti Instagram atau Facebook, Anda mungkin mendapat sedikit bantuan untuk menentukan apakah sesuatu itu AI. Meta punya sistem internal yang ada untuk membantu menandai konten AI dan memberi label seperti itu. Sistem ini tidak sempurna, namun Anda dapat dengan jelas melihat label postingan yang telah ditandai. TikTok Dan YouTube memiliki kebijakan serupa untuk memberi label pada konten AI.
Satu-satunya cara yang benar-benar dapat diandalkan untuk mengetahui apakah sesuatu dihasilkan oleh AI adalah jika pembuatnya mengungkapkannya. Banyak platform media sosial kini menawarkan pengaturan yang memungkinkan pengguna memberi label pada postingan mereka sebagai buatan AI. Bahkan penghargaan atau pengungkapan sederhana dalam teks Anda dapat membantu semua orang memahami bagaimana sesuatu dibuat.
Anda tahu saat Anda menelusuri Sora bahwa tidak ada yang nyata. Namun begitu Anda keluar dari aplikasi dan membagikan video yang dihasilkan AI, tanggung jawab kita bersama adalah mengungkapkan cara video tersebut dibuat. Ketika model AI seperti Sora terus mengaburkan batas antara realitas dan AI, kita semua harus memperjelas apakah sesuatu itu nyata atau AI.
Yang terpenting, tetap waspada
Tidak ada metode yang mudah untuk mengetahui secara akurat apakah suatu video itu asli atau AI hanya dengan sekali pandang. Hal terbaik yang dapat Anda lakukan untuk mencegah diri Anda ditipu adalah dengan tidak secara otomatis mempercayai semua yang Anda lihat online. Ikuti naluri Anda — jika ada sesuatu yang terasa tidak nyata, mungkin memang demikian. Di masa yang penuh dengan AI dan belum pernah terjadi sebelumnya ini, pertahanan terbaik Anda adalah dengan memeriksa video yang Anda tonton dengan lebih cermat. Jangan hanya sekilas melirik dan menggulir tanpa berpikir. Periksa teks yang rusak, objek yang hilang, dan gerakan yang melanggar fisika. Dan jangan menyalahkan diri sendiri jika Anda kadang-kadang tertipu; bahkan para ahli pun salah.
(Pengungkapan: Ziff Davis, perusahaan induk CNET, pada bulan April mengajukan gugatan terhadap OpenAI, menuduhnya melanggar hak cipta Ziff Davis dalam pelatihan dan pengoperasian sistem AI-nya.)