TeknoLogiz AI – Google meluncurkan versi lengkap Gemma 3n, model open-source terbaru dalam keluarga model kecerdasan buatan (AI) Gemma 3, pada Kamis lalu. Diumumkan pertama kali pada Mei, model ini dirancang dan dioptimalkan untuk penggunaan di perangkat dan memiliki beberapa peningkatan arsitektur baru. Yang menarik, model bahasa besar (LLM) ini dapat dijalankan secara lokal hanya dengan RAM 2GB. Artinya, model ini dapat dikerahkan dan dioperasikan bahkan di smartphone, asalkan memiliki kemampuan pemrosesan yang mendukung AI.
Gemma 3n merupakan model AI multimodal. Dalam sebuah postingan blog, raksasa teknologi berbasis Mountain View ini mengumumkan rilis versi lengkap Gemma 3n. Model ini mengikuti peluncuran model Gemma 3 dan GemmaSign dan bergabung dengan Gemmaverse. Karena merupakan model open-source, Google telah menyediakan bobot model serta panduan penggunaannya kepada komunitas. Model itu sendiri tersedia untuk digunakan di bawah lisensi Gemma yang permisif, yang memungkinkan penggunaan akademis dan komersial.

Gemma 3n mendukung input gambar, audio, video, dan teks secara native. Namun, ia hanya dapat menghasilkan output teks. Model ini juga multibahasa dan mendukung 140 bahasa untuk teks, dan 35 bahasa ketika inputnya multimodal.
Google mengatakan bahwa Gemma 3n memiliki arsitektur "mobile-first", yang dibangun di atas arsitektur Matryoshka Transformer atau MatFormer. Ini adalah transformer bersarang, dinamai sesuai dengan boneka bersarang Rusia, di mana satu boneka berada di dalam boneka lainnya. Arsitektur ini menawarkan cara unik untuk melatih model AI dengan berbagai ukuran parameter.
Gemma 3n hadir dalam dua ukuran – E2B dan E4B – singkatan dari parameter efektif. Ini berarti, meskipun berukuran lima miliar dan delapan miliar parameter, parameter aktifnya hanya dua dan empat miliar. Hal ini dicapai menggunakan teknik yang disebut Per-Layer Embeddings (PLE), di mana hanya parameter yang paling penting yang perlu dimuat ke dalam memori cepat (VRAM). Sisanya tetap berada di lapisan embedding tambahan dan dapat ditangani oleh CPU.
Dengan sistem MatFormer, varian E4B menampung model E2B, dan ketika model yang lebih besar dilatih, model yang lebih kecil juga dilatih secara bersamaan. Ini memberi pengguna kemudahan untuk menggunakan E4B untuk operasi yang lebih canggih atau E2B untuk output yang lebih cepat tanpa perbedaan kualitas pemrosesan atau output yang signifikan.
Google juga memungkinkan pengguna untuk membuat model dengan ukuran khusus dengan menyesuaikan beberapa bagian internal. Untuk ini, perusahaan merilis alat MatFormer Lab yang memungkinkan pengembang menguji berbagai kombinasi untuk membantu mereka menemukan ukuran model khusus.
Saat ini, Gemma 3n tersedia untuk diunduh melalui daftar Google di Hugging Face dan Kaggle. Pengguna juga dapat mengunjungi Google AI Studio untuk mencoba Gemma 3n. Model Gemma juga dapat dikerahkan langsung ke Cloud Run dari AI Studio.