- Alat AI lebih populer dari sebelumnya – tetapi begitu juga risiko keamanan
- Alat teratas sedang dimanfaatkan oleh penjahat cyber dengan niat jahat
- Grok dan Mixtral keduanya ditemukan digunakan oleh krimianl
Penelitian baru telah memperingatkan alat -alat AI teratas adalah varian ‘cacing’, alat Genai berbahaya yang menghasilkan kode jahat, serangan rekayasa sosial, dan bahkan menyediakan tutorial peretasan.
Dengan Design Bahasa Besar (LLM) yang sekarang banyak digunakan bersama alat -alat seperti Mixtral Mixtral Mistral AI dan Xai’s Grok, para ahli dari Cato Ctrl menemukan ini tidak selalu dalam cara mereka dimaksudkan untuk digunakan.
Munculnya cacing memacu pengembangan dan promosi LLM tanpa sensing unit lainnya, yang menunjukkan pasar yang berkembang untuk alat -alat seperti itu dalam kejahatan dunia maya. Fraudgpt (juga dikenal sebagai Fraudbot) dengan cepat naik sebagai alternatif yang menonjol dan diiklankan dengan beragam kemampuan jahat, “para peneliti, para peneliti dan diiklankan dengan lebih luas dari kemampuan jahat,” para peneliti, para peneliti dan diiklankan dengan lebih luas, “para peneliti,” para peneliti dan diiklankan dengan lebih luas, “para peneliti,” para peneliti dan diiklankan yang lebih luas, “para peneliti dan diiklankan lebih luas,” para peneliti,” dicatat.
Wormgpt
Wormgpt adalah nama yang lebih luas untuk LLM yang ‘tidak disensor’ yang dimanfaatkan oleh para aktor ancaman, dan para peneliti mengidentifikasi berbagai jenis dengan kemampuan dan tujuan yang berbeda.
Misalnya, Keanu-Wormgpt, seorang asisten yang tidak disensor dapat membuat e-mail phishing saat diminta. Ketika para peneliti menggali lebih jauh, LLM mengungkapkan itu ditenagai oleh Grok, tetapi fitur keamanan platform telah dikelilingi.
Setelah ini terungkap, pencipta kemudian menambahkan pagar pembatas berbasis punctual untuk memastikan informasi ini tidak diungkapkan kepada pengguna, tetapi varian cacing lainnya ditemukan didasarkan pada AI mixtral, sehingga LLM yang sah jelas sedang di-jailbroken dan dimanfaatkan oleh peretas.
“Di luar LLM yang berbahaya, tren aktor ancaman yang berusaha melakukan jailbreak LLM yang sah seperti ChatGPT dan Google Poet/ Gemini untuk menghindari langkah -langkah keselamatan mereka juga mendapatkan daya tarik,” kata para peneliti.
“Selain itu, ada indikasi bahwa aktor ancaman secara aktif merekrut para ahli AI untuk mengembangkan LLMS tanpa sensing unit khusus mereka sendiri yang disesuaikan dengan kebutuhan spesifik dan vektor serangan.”
Sebagian besar di bidang cybersecurity akan terbiasa dengan gagasan bahwa AI ‘menurunkan hambatan masuk’ untuk penjahat cyber, yang tentu saja dapat dilihat di sini.
Jika yang diperlukan hanyalah mengajukan beberapa pertanyaan yang sudah ada sebelumnya, maka cukup aman untuk berasumsi bahwa kejahatan dunia maya mungkin menjadi jauh lebih umum dalam beberapa bulan dan tahun mendatang.