Uni Eropa mendapati bahwa Meta dan TikTok gagal melindungi anak-anak dengan baik, termasuk mempersulit pelaporan keberadaan materi pelecehan seksual terhadap anak (CSAM) di aplikasi mereka.

Secara terpisah, Meta menghadapi kemunduran dalam pembelaannya atas tuntutan hukum yang diajukan oleh beberapa negara bagian AS, menuduh perusahaan tersebut sengaja membuat aplikasinya membuat ketagihan meskipun mengetahui bahwa aplikasi tersebut berbahaya bagi remaja …

Baik Meta maupun TikTok bersalah karena melanggar peraturan perlindungan anak yang terdapat dalam Undang-Undang Layanan Digital (DSA), menurut apa yang digambarkan UE sebagai temuan awal.

Secara khusus, kedua perusahaan tersebut diketahui secara tidak sah telah memberikan hambatan bagi para peneliti dalam mencari data mengenai apakah anak-anak terpapar pada konten ilegal atau berbahaya.

Saat ini, Komisi Eropa pada awalnya memutuskan bahwa TikTok dan Meta melanggar kewajiban mereka untuk memberikan akses yang memadai kepada peneliti ke data publik berdasarkan Digital Services Act (DSA) (…)

Temuan awal Komisi menunjukkan bahwa Facebook, Instagram, dan TikTok mungkin telah menerapkan prosedur dan alat yang memberatkan bagi peneliti untuk meminta akses ke data publik. Hal ini sering kali membuat mereka memiliki data yang tidak lengkap atau tidak dapat diandalkan, sehingga berdampak pada kemampuan mereka untuk melakukan penelitian, seperti apakah pengguna, termasuk anak di bawah umur, terpapar konten ilegal atau berbahaya.

Meta juga ditemukan mempersulit pengguna untuk melaporkan konten ilegal, seperti CSAM.

Baik Facebook maupun Instagram tampaknya tidak menyediakan mekanisme ‘Pemberitahuan dan Tindakan’ yang ramah pengguna dan mudah diakses bagi pengguna untuk menandai konten ilegal, seperti materi pelecehan seksual terhadap anak-anak dan konten teroris.

Lebih buruk lagi, Meta dituduh menggunakan apa yang disebut pola gelap untuk dengan sengaja membuat pengajuan laporan semacam itu menjadi rumit dan membingungkan.

Facebook dan Instagram tampaknya menggunakan apa yang disebut ‘pola gelap’, atau desain antarmuka yang menipu, terkait mekanisme ‘Pemberitahuan dan Tindakan’.

Kedua perusahaan sekarang memiliki kesempatan untuk memeriksa laporan tersebut dan mengajukan tanggapan. Jika tanggapan tersebut dianggap tidak dapat diterima, perusahaan tersebut dapat didenda hingga 6% dari total omzet tahunan mereka di seluruh dunia.

Pada tahun 2021, Meta dituduh menyembunyikan penelitian internal yang menunjukkan bahwa Instagram beracun bagi remaja putri. Ketika laporan dipublikasikan setelah a Jurnal Wall Street penyelidikan, perusahaan mengklaim bahwa temuan tersebut diambil di luar konteks.

Beberapa negara bagian AS mengajukan tuntutan hukum terhadap perusahaan tersebut, dengan tuduhan bahwa perusahaan tersebut sengaja membuat aplikasinya membuat ketagihan meskipun mengetahui bahwa aplikasi tersebut berbahaya bagi remaja.

Dikatakan bahwa pengacara perusahaan menyarankan Meta untuk merahasiakan temuannya, dan jejaring sosial tersebut mencoba berargumentasi bahwa nasihat ini tidak dapat didengarkan di pengadilan karena merupakan hak istimewa pengacara-klien.

Hukum Bloomberg (melalui Engadget) melaporkan bahwa hakim telah menolak argumen ini.

Hakim Yvonne Williams memutuskan bahwa Meta tidak dapat menggunakan hak istimewa klien pengacara untuk memblokir jaksa agung DC menggunakan dokumen internal Meta dalam gugatan Distrik atas gangguan kesehatan mental remaja.

Williams, yang memutuskan Pengadilan Tinggi Distrik Columbia, menemukan bahwa komunikasi dalam dokumen tersebut termasuk dalam pengecualian kejahatan-penipuan untuk hak istimewa klien pengacara karena Meta mencari nasihat hukum untuk mengaburkan potensi tanggung jawab atau terlibat dalam penipuan.

“Pengadilan mencatat bahwa penasihat Meta secara eksplisit menyarankan peneliti Meta untuk ‘menghapus’, ‘memblokir’, ‘menghentikan’, ‘membatasi’, dan ‘memperbarui’ penelitian mereka,” kata Williams. “Penasihat Meta menawarkan nasihat hukum untuk secara khusus membatasi potensi tanggung jawab Meta.”

Tuntutan hukum pertama akan disidangkan tahun depan.

Aksesori yang disorot

Foto oleh Christopher Ryan pada Hapus percikan

Tambahkan 9to5Mac sebagai sumber pilihan di Google
Tambahkan 9to5Mac sebagai sumber pilihan di Google

FTC: Kami menggunakan tautan afiliasi otomatis yang menghasilkan pendapatan. Lagi.

Tautan Sumber