Hari ini, Apple yang diterbitkan di blog site Research study Machine Learning, Select Recording dari ITS 2024 Lokakarya tentang Pembelajaran Mesin yang Berpusat pada Manusia (HCML), menyoroti pekerjaannya tentang pengembangan AI yang bertanggung jawab.
Hampir 3 jam konten tersedia
Itu peristiwa awalnya diadakan pada bulan Agustus 2024, menyatukan para peneliti Apple serta pakar akademik, dan mengeksplorasi segala sesuatu mulai dari interpretabilitas model hingga aksesibilitas, dan strategi untuk memprediksi dan mencegah hasil negatif skala besar karena evolusi AI.
Inilah daftar lengkapnya video clip Tersedia:
- “Rekayasa lebih baik melalui kolaborasi dengan model Yayasan Screen-Ware,” oleh Kevin Moran (University of Central Florida)
- “UI Pemahaman,” oleh Jeff Nichols (Apple)
- “Antarmuka AI-Resilient,” oleh Elena Glassman (Universitas Harvard)
- “Tiny However kuat: Penelitian yang berpusat pada manusia untuk mendukung ML di perangkat yang efisien,” oleh Mary Beth Kery (Apple)
- “Teknologi Pidato untuk Penyandang Cacat Pidato,” oleh Colin Lea dan Dianna Yee (Apple)
- “AI-bertenaga AI Aksesibilitas,” oleh John Froehlich (University of Washington)
- “Kustomisasi Gerakan Tangan Berbasis Visi dari satu demonstrasi,” oleh Cori Park (Apple)
- “Menciptakan Superhearing: Menambah Persepsi Auditori Manusia dengan AI,” oleh Shyam Gollakota (College of Washington)
Apple menggandakan pengembangan AI yang bertanggung jawab
Meskipun peristiwa itu terjadi hampir satu tahun yang lalu, pembicaraan masih sangat berwawasan, karena mereka sebagian besar fokus pada aspek manusia dan bertanggung jawab dari pengembangan pembelajaran mesin, daripada pada teknologi perbatasan itu sendiri.
Dalam publishing blog, Apple juga menyoroti fokusnya pada pengembangan AI yang bertanggung jawab, yang mencakup a established prinsip Itu memandu pengembangan alat AI -nya:
- Memberdayakan Pengguna dengan Alat Cerdas: Kami mengidentifikasi area di mana AI dapat digunakan secara bertanggung jawab untuk membuat alat untuk memenuhi kebutuhan pengguna tertentu. Kami menghormati bagaimana pengguna kami memilih untuk menggunakan alat ini untuk mencapai tujuan mereka.
- Mewakili pengguna kami: Kami membangun produk yang sangat pribadi dengan tujuan mewakili pengguna di seluruh dunia secara otentik. Kami bekerja terus menerus untuk menghindari melanggengkan stereotip dan predisposition sistemik di seluruh alat dan design AI kami.
- Desain dengan hati -hati: Kami mengambil tindakan pencegahan pada setiap tahap proses kami, termasuk desain, pelatihan model, pengembangan fitur, dan evaluasi kualitas untuk mengidentifikasi bagaimana alat AI kami dapat disalahgunakan atau menyebabkan potensi bahaya. Kami akan terus dan secara proaktif meningkatkan alat AI kami dengan bantuan umpan balik pengguna.
- Lindungi Privasi: Kami melindungi privasi pengguna kami dengan pemrosesan di perangkat yang kuat dan infrastruktur inovatif seperti komputasi cloud pribadi. Kami tidak menggunakan data pribadi atau interaksi pribadi pengguna kami saat melatih version yayasan kami.
Apakah Anda bekerja dengan pengembangan pembelajaran mesin? Seberapa sering pengembangan yang bertanggung jawab menjadi bagian utama dari percakapan? Beri tahu kami di komentar.