X Aplikasi

Ketika Elon Musk mengambil alih Twitter pada tahun 2022, dia mengatakan bahwa mengatasi masalah materi pelecehan seksual anak di platform adalah “prioritas utama. ” Tiga tahun kemudian, masalahnya tampaknya meningkat, sebagai tagar banjir X akun yang anonim dan anonim dengan ratusan pos per jam yang mengiklankan penjualan bahan ilegal.

Pada saat yang sama, Thorn, organisasi nirlaba yang berbasis di California yang bekerja dengan perusahaan teknologi untuk menyediakan teknologi yang dapat mendeteksi dan mengatasi konten pelecehan seksual anak, mengatakan kepada NBC News bahwa mereka telah mengakhiri kontraknya dengan X.

Thorn mengatakan bahwa X berhenti membayar faktur baru -baru ini untuk pekerjaannya, meskipun mereka menolak untuk memberikan rincian tentang kesepakatannya dengan perusahaan yang mengutip sensitivitas hukum. X mengatakan pada hari Rabu bahwa mereka bergerak ke arah menggunakan teknologinya sendiri untuk mengatasi penyebaran materi pelecehan anak.

Beberapa alat Thorn dirancang untuk mengatasi masalah yang tampaknya tumbuh di platform.

“Kami baru -baru ini mengakhiri kontrak kami dengan X karena nonpaya,” Cassie Coccaro, Kepala Komunikasi di Thorn, mengatakan kepada NBC News. “Dan itu setelah berbulan -bulan penjangkauan, fleksibilitas, berusaha membuatnya bekerja. Dan pada akhirnya kami harus menghentikan kontrak.”

Aplikasi X di telepon.Jaap Arriens / Nurphoto via Getty Images File

Banyak aspek dari masalah iklan eksploitasi anak, yang pertama kali dilaporkan NBC News pada Januari 2023, tetap sama di platform. Penjual materi pelecehan seksual anak (CSAM) terus menggunakan tagar berdasarkan kata kunci seksual untuk beriklan kepada orang yang ingin membeli CSAM. Posting mereka mengarahkan calon pembeli ke platform lain di mana pengguna diminta uang dengan imbalan materi pelecehan anak.

Aspek -aspek lain baru: beberapa akun sekarang tampaknya otomatis (juga dikenal sebagai bot), sementara yang lain telah memanfaatkan “komunitas,” fitur yang relatif baru diluncurkan pada tahun 2021 yang mendorong pengguna X untuk berkumpul dalam kelompok “lebih dekat dengan diskusi yang paling mereka pedulikan.” Menggunakan komunitas, pengiklan CSAM telah dapat memposting ke dalam kelompok puluhan ribu orang yang ditujukan untuk topik -topik seperti inses, tampaknya tanpa banyak pengawasan.

Pusat Perlindungan Anak Kanada (C3P), kelompok pengawas CSAM online independen, meninjau beberapa akun X dan tagar yang ditandai oleh NBC News yang mempromosikan penjualan CSAM, dan mengikuti tautan yang dipromosikan oleh beberapa akun. Organisasi itu mengatakan bahwa, dalam hitungan menit, mereka dapat mengidentifikasi akun yang memposting gambar korban CSAM yang sebelumnya diidentifikasi yang berusia 7 tahun. Ini juga menemukan gambar CSAM yang jelas dalam pratinjau thumbnail yang dihuni pada X dan di tautan ke saluran telegram di mana video CSAM diposting. Salah satu saluran tersebut menunjukkan video seorang anak laki -laki yang diperkirakan semuda 4 mengalami pelecehan seksual. NBC News tidak melihat atau memiliki materi pelecehan.

Lloyd Richardson, Direktur Teknologi Informasi di C3P, mengatakan perilaku yang dipamerkan oleh pengguna X adalah “sedikit topi tua” pada saat ini, dan bahwa respons X “sangat tidak mencukupi.” “Tampaknya sedikit permainan WHAC-A-Mole yang berlangsung,” katanya. “Tampaknya tidak ada dorongan khusus untuk benar -benar mencapai akar penyebab masalah ini.” X mengatakan itu memiliki a Kebijakan Toleransi Nol “Menuju materi apa pun yang menampilkan atau mempromosikan eksploitasi seksual anak.”

Seorang juru bicara untuk X yang disutradarai NBC News Posting dari akun @safety -nya Merinci apa yang dikatakan perusahaan adalah upaya baru untuk menemukan dan menghapus materi pelecehan anak.

“Di X, kami tidak memiliki toleransi untuk eksploitasi seksual anak dalam bentuk apa pun. Sampai baru -baru ini, kami memanfaatkan kemitraan yang membantu kami di sepanjang jalan,” kata perusahaan itu di pos. “Kami bangga memberikan pembaruan penting tentang pekerjaan kami yang berkelanjutan yang mendeteksi konten materi pelecehan seksual anak (CSAM), mengumumkan hari ini bahwa kami telah meluncurkan upaya pencocokan CSAM hash tambahan.”

“Sistem ini memungkinkan X untuk hash dan mencocokkan konten media dengan cepat dan aman, menjaga platform lebih aman tanpa mengorbankan privasi pengguna,” lanjut pos itu. “Ini dimungkinkan oleh karya luar biasa dari tim teknik keselamatan kami, yang telah membangun sistem canggih untuk lebih memperkuat kemampuan penegakan hukum kami.”

Perusahaan mengatakan bahwa sistem akan memungkinkan perusahaan untuk secara otomatis mendeteksi CSAM yang diketahui dan menghapusnya, meskipun tidak jelas bagaimana hal itu berbeda dari Teknologi Hashing yang ada.

Juru bicara itu tidak menanggapi pertanyaan tentang tuduhan Thorn tentang pembayaran.

Tinjauan banyak tagar dengan istilah yang diketahui terkait dengan CSAM menunjukkan bahwa masalahnya, jika ada, lebih buruk daripada ketika Musk awalnya mengambil alih. Apa yang sebelumnya merupakan tetesan posting kurang dari selusin per jam sekarang menjadi torrent yang didorong oleh akun yang tampaknya otomatis – beberapa posting beberapa kali per menit.

Terlepas dari banjir pos dan larangan sporadis dari akun individu, tagar yang diamati oleh NBC News selama beberapa minggu tetap terbuka dan dapat dilihat pada hari Rabu. Dan beberapa tagar yang diidentifikasi pada tahun 2023 oleh NBC News sebagai hosting iklan eksploitasi anak masih digunakan untuk tujuan yang sama saat ini.

Secara historis, Twitter dan kemudian X telah berusaha untuk memblokir tagar tertentu yang terkait dengan eksploitasi anak. Ketika NBC News pertama kali melaporkan penggunaan X untuk memasarkan CSAM, Kepala Kepercayaan dan Keselamatan X mengatakan perusahaan tahu bahwa itu harus dilakukan dan akan membuat perubahan, termasuk pengembangan sistem otomatis untuk mendeteksi dan memblokir tagar.

Pada bulan Januari 2024, CEO X Linda Yaccarino bersaksi kepada Komite Kehakiman Senat bahwa perusahaan telah memperkuat penegakannya “dengan lebih banyak alat dan teknologi untuk mencegah aktor buruk mendistribusikan, mencari, atau terlibat dengan konten (eksploitasi seksual anak) di semua bentuk media.”

Linda Yaccarino berbicara saat duduk
X CEO Linda Yaccarino, kanan, bersaksi selama Sidang Komite Kehakiman Senat di Capitol Hill pada tahun 2024.File Manuel Balce Ceneta / AP

Pada Mei 2024, X mengatakan itu membantu Thorn menguji alat untuk “secara proaktif mendeteksi eksploitasi seksual anak berbasis teks.” “Solusi yang diselenggarakan sendiri dikerahkan dengan mulus ke dalam mekanisme deteksi kami, memungkinkan kami untuk mengasah akun berisiko tinggi dan memperluas cakupan deteksi teks eksploitasi seksual anak, x dikatakan

Pailes Halai, manajer senior akun dan kemitraan Thorn, yang mengawasi kontrak X, mengatakan bahwa beberapa perangkat lunak Thorn dirancang untuk mengatasi masalah seperti yang diajukan oleh tagar tagar CSAM, tetapi tidak jelas jika mereka pernah sepenuhnya mengimplementasikannya.

“Mereka mengambil bagian dalam beta dengan kami tahun lalu,” katanya. “Jadi mereka membantu kami menguji dan memperbaiki, dll, dan pada dasarnya menjadi pengadopsi awal produk. Mereka kemudian memang beralih menjadi pelanggan penuh produk, tetapi tidak terlalu jelas bagi kami pada titik ini bagaimana dan jika mereka menggunakannya.”

Tanpa duri, tidak sepenuhnya jelas apa mekanisme keselamatan anak yang saat ini dipekerjakan X. “Teknologi kami dirancang dengan mempertimbangkan keamanan,” kata Halai. “Terserah platform untuk menegakkan dan menggunakan teknologi dengan tepat … apa yang kita ketahui di pihak kita adalah itu dirancang untuk menangkap bahaya yang Anda bicarakan.”

Halai mengatakan Thorn tidak mengambil penghentian kontraknya dengan X ringan.

“Itu adalah keputusan resor terakhir yang harus kami buat,” katanya. “Kami memberikan layanan kepada mereka. Kami melakukannya selama kami mungkin, kehabisan semua jalan yang mungkin dan harus mengakhiri, pada akhirnya, karena, sebagai organisasi nirlaba, kami tidak persis dalam bisnis membantu mempertahankan sesuatu untuk perusahaan seperti X, di mana kami benar -benar mengeluarkan biaya besar.”

Saat ini, beberapa tagar, seperti #Childporn, diblokir saat menggunakan fungsi pencarian X, tetapi tagar lain terbuka untuk menelusuri dan dipenuhi dengan posting yang mengiklankan CSAM untuk dijual. NBC News menemukan posting yang muncul untuk menjajakan CSAM di 23 tagar yang seringkali digunakan bersama dalam posting. NBC News hanya mengidentifikasi dua tagar yang diblokir oleh X. Tagar yang tersedia untuk diposting dan dilihat selama tinjauan NBC News tentang platform berkisar dari referensi ke inses dan remaja hingga sedikit lebih banyak kode, seperti kombinasi kata -kata dengan nama anak -kata yang tidak ada. Beberapa tagar berisi surat -surat yang campur aduk dan hanya berisi posting yang mengiklankan CSAM, menunjukkan bahwa mereka dibuat dengan tujuan eksklusif perumahan iklan.

Beberapa nama pengguna akun yang memposting iklan hanyalah sedikit kata -kata yang terkait dengan konten CSAM di platform, mencampur nama -nama platform media sosial dengan kata kunci lainnya.

Banyak pengguna yang terhubung langsung ke saluran telegram di posting mereka atau bios akun mereka dan memasukkan referensi eksplisit ke CSAM. Beberapa posting yang ditautkan ke saluran perselisihan atau meminta pesan langsung untuk mengamankan tautan perselisihan.

Telegram dan Perselisihan memiliki posisi berbeda dalam ekosistem eksploitasi anak internet, menawarkan tempat semiprivat dan pribadi untuk orang yang ingin menjual atau membeli bahan eksploitasi anak. NBC News sebelumnya melaporkan 35 kasus di mana orang dewasa dituntut atas tuduhan penculikan, perawatan atau kekerasan seksual yang diduga melibatkan komunikasi pada perselisihan.

Screengrab dari server perselisihan untuk "orang antara usia 13-17; Kami menukar telanjang, kami melakukan acara."
Tangkapan layar dari situs web pihak ketiga yang mempromosikan server perselisihan.Perselisihan

Perwakilan perselisihan mengatakan, “” Perselisihan tidak memiliki toleransi terhadap materi pelecehan seksual anak, dan kami segera mengambil tindakan ketika kami menyadarinya, termasuk menghapus konten, melarang pengguna, dan melaporkan ke Pusat Nasional untuk Anak -anak yang Hilang dan Dieksploitasi (NCMEC). ” Perusahaan mengatakan sebagai tanggapan terhadap penjangkauan NBC News bahwa mereka menghapus banyak server “karena pelanggaran kebijakan yang tidak terkait dengan penjualan CSAM.”

Perwakilan untuk Telegram mengatakan “CSAM secara eksplisit dilarang oleh ketentuan layanan Telegram dan konten tersebut dihapus setiap kali ditemukan.” Perwakilan menunjuk pada kemitraan perusahaan dengan Internet Watch Foundation yang berbasis di Inggris, yang memelihara basis data CSAM yang diketahui dan menyediakan alat untuk mendeteksi dan menghapusnya.

Sementara beberapa akun X diposting secara publik, yang lain meminta dan menawarkan CSAM melalui fitur komunitas X, di mana pengguna membuat grup berdasarkan topik tertentu. NBC News mengamati kelompok -kelompok dengan puluhan ribu anggota di mana CSAM diminta atau ditawari untuk dijual.

Dalam grup dengan lebih dari 70.000 anggota yang dikhususkan untuk “pengakuan inses,” banyak pengguna yang memposting berkali -kali menautkan ke saluran telegram, secara eksplisit merujuk CSAM. “Saya menjual folder 6CP hanya dengan $ 90,” tulis seorang pengguna, menautkan ke akun telegram. CP adalah singkatan online yang umum untuk “pornografi anak.”

CSAM telah menjadi masalah abadi di internet dan media sosial, dengan banyak perusahaan menggunakan tim khusus dan membangun sistem otomatis untuk mengidentifikasi dan menghapus konten penyalahgunaan dan mereka yang menyebarkannya.

Tetapi Musk juga melembagakan pemotongan drastis ke tim kepercayaan dan keselamatan perusahaan, dan membubarkan Dewan Kepercayaan dan Keselamatan Perusahaan. Pada tahun 2023, perusahaan mengatakan bahwa pihaknya mendeteksi lebih banyak CSAM daripada tahun -tahun sebelumnya dan telah meningkatkan staf yang dikhususkan untuk masalah ini meskipun ada kepercayaan yang lebih besar dan keselamatan.

Elon Musk berjalan sambil memegang wastafel di dalam kantor
Sebuah video ambil yang diambil dari video yang diposting di akun X Elon Musk pada tahun 2022.Elon Musk via AFP – File Getty Images

Richardson, Direktur Teknologi Informasi C3P, mengatakan bahwa sementara X kadang -kadang akan menghapus akun yang ditandai untuk melanggar aturan di sekitar CSAM, “sebuah akun baru muncul dalam dua detik, jadi tidak ada banyak perbaikan mendalam untuk masalah ini. Itu hanya minimum telanjang yang kita lihat di sini.”

Dia mengatakan peningkatan ketergantungan pada sistem kecerdasan buatan untuk moderasi, jika X menggunakannya, sebagian bisa disalahkan atas pengawasan tersebut. Menurut Richardson, sistem AI pandai menyortir melalui dataset besar dan menandai masalah potensial, tetapi saat ini, sistem pasti akan terlalu rendah atau kurang sedang tanpa penilaian manusia pada akhirnya.

“Seharusnya ada tanggapan insiden yang sebenarnya ketika seseorang menjual materi pelecehan seksual anak di layanan Anda, kan? Kami benar -benar peka terhadap hal itu. Kami berurusan dengan penjualan anak -anak yang diperkosa,” kata Richardson. “Anda tidak dapat mengotomatiskan jalan keluar dari masalah ini.”

Tautan sumber