Google telah mengumumkan SignGemma, model kecerdasan buatan baru (AI) yang dapat menerjemahkan bahasa isyarat ke dalam teks lisan. Version, yang akan menjadi bagian dari serangkaian version Gemma, saat ini sedang diuji oleh raksasa teknologi yang berbasis di Mountain Sight dan diharapkan akan diluncurkan akhir tahun ini. Mirip dengan semua version Gemma lainnya, SignGemma juga akan menjadi version AI open-source, tersedia untuk individu dan bisnis. Ini pertama kali dipamerkan selama keynote Google I/O 2025, dan dirancang untuk membantu orang -orang dengan cacat bicara dan pendengaran berkomunikasi secara efektif dengan mereka yang tidak memahami bahasa isyarat.
Signgemma dapat melacak gerakan tangan dan ekspresi wajah
Di sebuah pos Di X (sebelumnya dikenal sebagai Twitter), pegangan resmi Google Deepmind berbagi trial model AI dan beberapa detail tentang tanggal rilisnya. Namun, ini bukan pertama kalinya kami melihat Signgemma. Itu juga dipamerkan secara singkat di acara Google I/O oleh Gus Martin, Gemma Product Supervisor di DeepMind.
Kami senang mengumumkan SignGemma, version kami yang paling cakap untuk menerjemahkan bahasa isyarat ke dalam teks lisan.
Design terbuka ini akan datang ke keluarga design Gemma akhir tahun ini, membuka kemungkinan baru untuk teknologi inklusif.
Bagikan umpan balik dan minat Anda pada awal … pic.twitter.com/nhl 9 g 5 y 8 ta
– Google DeepMind (@goooglePmind) 27 Mei 2025
Selama showcase, Martins menyoroti bahwa design AI mampu memberikan terjemahan teks dari bahasa isyarat secara real-time, membuat komunikasi tatap muka mulus. Design ini juga dilatih pada dataset berbagai gaya bahasa isyarat, namun, ia melakukan yang terbaik dengan bahasa isyarat Amerika (ASL) ketika menerjemahkannya ke dalam bahasa Inggris.
Menurut Untuk multibahasa, karena ini adalah model open-source, SignGemma dapat berfungsi tanpa perlu terhubung ke net. Ini membuatnya cocok untuk digunakan di area dengan konektivitas terbatas. Dikatakan dibangun di atas kerangka kerja Gemini Nano dan menggunakan transformator visi untuk melacak dan menganalisis gerakan tangan, bentuk, dan ekspresi wajah. Selain membuatnya tersedia untuk pengembang, Google dapat mengintegrasikan version ke dalam alat AI yang ada, seperti Gemini Live.
Menyebutnya “version kami yang paling cakap untuk menerjemahkan bahasa isyarat ke dalam teks lisan,” DeepMind menyoroti bahwa itu akan dirilis akhir tahun ini. Model bahasa besar yang berfokus pada aksesibilitas saat ini sedang dalam fase pengujian awal, dan raksasa teknologi telah menerbitkan an Formulir Bunga untuk mengundang individu untuk mencobanya dan memberikan umpan balik.