Antropik membuat beberapa perubahan besar pada bagaimana menangani data pengguna, mengharuskan semua pengguna Claude untuk memutuskan pada 28 September apakah mereka ingin percakapan mereka digunakan untuk melatih version AI. Sementara perusahaan mengarahkan kami ke tempat itu Posting Blog site Pada perubahan kebijakan ketika ditanya tentang apa yang mendorong langkah itu, kami telah membentuk beberapa teori kami sendiri.
Tapi pertama -tama, apa yang berubah: Sebelumnya, antropik tidak menggunakan data obrolan konsumen untuk pelatihan design. Sekarang, perusahaan ingin melatih sistem AI -nya pada percakapan pengguna dan sesi pengkodean, dan dikatakan memperluas retensi data menjadi lima tahun bagi mereka yang tidak memilih keluar.
Itu adalah pembaruan besar. Sebelumnya, pengguna produk konsumen Anthropic diberitahu bahwa petunjuk dan result percakapan mereka akan dihapus secara otomatis dari akhir antropik dalam waktu 30 hari “kecuali secara hukum atau kebijakan – diperlukan untuk menjaga mereka lebih lama” atau input mereka ditandai karena melanggar kebijakannya, dalam hal ini input dan result pengguna mungkin dipertahankan hingga dua tahun.
Dengan konsumen, yang kami maksud adalah kebijakan baru berlaku untuk pengguna CLAUDE FREE, PRO, dan MAX, termasuk mereka yang menggunakan kode Claude. Pelanggan bisnis yang menggunakan Claude Gov, Claude for Job, Claude for Education, atau API Access tidak akan terpengaruh, yaitu bagaimana OpenAI juga melindungi pelanggan perusahaan dari kebijakan pelatihan information.
Jadi mengapa ini terjadi? Dalam posting itu tentang pembaruan, antropik membingkai perubahan di sekitar pilihan pengguna, mengatakan bahwa dengan tidak memilih, pengguna akan “membantu kami meningkatkan keamanan model, membuat sistem kami untuk mendeteksi konten berbahaya lebih akurat dan lebih kecil kemungkinannya untuk menandai percakapan yang tidak berbahaya.” Pengguna akan “juga membantu version Claude di masa depan meningkat pada keterampilan seperti pengkodean, analisis, dan penalaran, yang pada akhirnya mengarah ke model yang lebih baik untuk semua pengguna.”
Singkatnya, bantu kami membantu Anda. Tapi kebenaran penuh mungkin sedikit kurang mementingkan diri sendiri.
Seperti setiap perusahaan version bahasa besar lainnya, antropik membutuhkan data lebih dari yang dibutuhkan orang untuk memiliki perasaan kabur tentang mereknya. Pelatihan design AI membutuhkan sejumlah besar information percakapan berkualitas tinggi, dan mengakses jutaan interaksi Claude harus memberikan jenis konten dunia nyata yang dapat meningkatkan posisi kompetitif antropik terhadap saingan seperti Openai dan Google.
Acara TechCrunch
San Francisco | 27 – 29 Oktober 2025
Di luar tekanan kompetitif pengembangan AI, perubahan tersebut juga tampaknya akan mencerminkan perubahan industri yang lebih luas dalam kebijakan information, karena perusahaan seperti antropik dan openai menghadapi peningkatan pengawasan atas praktik retensi data mereka. Openai, misalnya, saat ini memerangi perintah pengadilan yang memaksa perusahaan untuk mempertahankan semua percakapan chatgpt konsumen tanpa batas waktu, termasuk obrolan yang dihapus, karena gugatan yang diajukan oleh New york city Times dan penerbit lainnya.
Pada bulan Juni, Openai COO Brad Lightcap menyebut ini “a permintaan menyapu dan tidak perlu “Bahwa” secara fundamental bertentangan dengan komitmen privasi yang telah kami buat kepada pengguna kami.” Perintah pengadilan mempengaruhi chatgpt gratis, plus, pro, dan pengguna tim, meskipun pelanggan perusahaan dan mereka yang memiliki perjanjian retensi information nol masih dilindungi.
Yang mengkhawatirkan adalah seberapa banyak kebingungan yang diciptakan oleh semua kebijakan penggunaan yang berubah ini untuk pengguna, banyak dari mereka tetap tidak menyadari mereka.
Dalam keadilan, semuanya bergerak dengan cepat sekarang, sehingga teknologi berubah, kebijakan privasi pasti akan berubah. Tetapi banyak dari perubahan ini cukup luas dan hanya disebutkan dengan cepat di tengah berita perusahaan lainnya. (Anda tidak akan berpikir perubahan kebijakan hari Selasa untuk pengguna antropik adalah berita yang sangat besar berdasarkan di mana perusahaan menempatkan pembaruan ini di halaman persnya.)

Tetapi banyak pengguna tidak menyadari pedoman yang mereka setujui telah berubah karena desainnya secara praktis menjaminnya. Sebagian besar pengguna chatgpt terus mengklik koggle “hapus” yang tidak secara teknis menghapus apa word play here. Sementara itu, implementasi Anthropic dari kebijakan barunya mengikuti pola yang akrab.
Bagaimana bisa? Pengguna baru akan memilih preferensi mereka selama pendaftaran, tetapi pengguna yang ada menghadapi pop-up dengan “pembaruan untuk istilah dan kebijakan konsumen” dalam teks besar dan tombol hitam “terima” hitam yang menonjol dengan sakelar sakelar yang jauh lebih kecil untuk izin pelatihan di bawah ini dalam cetakan yang lebih kecil-dan secara otomatis diatur ke “aktif.”
Seperti yang diamati lebih awal Hari ini oleh Verge, desain menimbulkan kekhawatiran bahwa pengguna mungkin dengan cepat mengklik “menerima” tanpa memperhatikan mereka menyetujui berbagi information.
Sementara itu, taruhan untuk kesadaran pengguna tidak bisa lebih tinggi. Pakar privasi telah lama memperingatkan bahwa kompleksitas di sekitar AI membuat persetujuan pengguna yang bermakna hampir tidak dapat dicapai. Di bawah pemerintahan Biden, Komisi Perdagangan Federal bahkan masuk, peringatan bahwa perusahaan AI mengambil risiko tindakan penegakan jika mereka terlibat dalam “secara diam -diam mengubah ketentuan layanan atau kebijakan privasi, atau mengubur pengungkapan di balik hyperlink, dalam legalese, atau dalam cetakan yang bagus.”
Apakah komisi – sekarang beroperasi dengan adil tiga Dari lima komisarisnya – masih memperhatikan praktik -praktik ini saat ini adalah pertanyaan terbuka, yang kami berikan langsung ke FTC.