Model Bahasa Kecil: Solusi Cerdas Untuk Ai Yang Lebih Efisien

Apr 13, 2025 02:10 PM - 2 bulan yang lalu 73833

Bayangkan jika setiap kali Anda bertanya pada asisten virtual, daya yang digunakan setara dengan 10 kali pencarian Google. Fakta mengejutkan ini bukan sekadar teori—menurut Electric Power Research Institute, itulah realita di kembali jasa chatbot canggih seperti ChatGPT. Di era di mana kepintaran buatan (AI) semakin mendominasi, pertanyaan krusial muncul: bisakah kita menciptakan sistem yang lebih efisien tanpa mengorbankan kecanggihan?

Selama beberapa tahun terakhir, raksasa teknologi seperti OpenAI, Meta, dan DeepSeek bersaing mengembangkan model bahasa besar (large language models/LLMs) dengan ratusan miliar parameter—komponen yang menentukan hubungan antardata dan disesuaikan selama pelatihan. Skala besar ini memang menghasilkan AI yang lebih akurat, tetapi dengan biaya yang tidak main-main: training model Gemini 1.0 Ultra Google, misalnya, menghabiskan biaya $191 juta. Tidak hanya mahal, LLMs juga dikenal sebagai “monster energi” yang royal sumber daya.

Namun, gelombang baru sedang muncul. IBM, Google, Microsoft, dan OpenAI sekarang mulai melirik model bahasa mini (small language models/SLMs) dengan hanya beberapa miliar parameter—jauh lebih efisien dibandingkan pendahulunya. Lalu, apa sebenarnya kelebihan model mini ini, dan gimana mereka bisa bersaing dengan raksasa AI yang sudah mapan?

Ketika Kecil Justru Lebih Unggul

Meski tidak dirancang sebagai perangkat serba bisa seperti LLMs, SLMs unggul dalam tugas-tugas spesifik. “Untuk banyak pekerjaan, model 8 miliar parameter sebenarnya cukup baik,” kata Zico Kolter, intelektual komputer di Carnegie Mellon University. Contohnya? Mulai dari merangkum percakapan, menjawab pertanyaan pasien sebagai chatbot kesehatan, hingga mengumpulkan informasi di perangkat pintar. Bahkan, SLMs bisa dijalankan di laptop alias ponsel—tanpa perlu mengandalkan pusat informasi besar.

Definisi “kecil” sendiri tetap fleksibel, tetapi model-model terbaru umumnya tidak melampaui 10 miliar parameter. Kunci efisiensi mereka terletak pada pendekatan training yang cerdik. Alih-alih mengumpulkan informasi mentah dari internet—yang seringkali berantakan—para peneliti menggunakan teknik berjulukan knowledge distillation. Di sini, model besar yang sudah terlatih menghasilkan dataset berbobot tinggi untuk melatih model kecil, mirip pembimbing yang membagikan ilmunya pada murid.

Memangkas yang Tidak Perlu: Seni Merampingkan AI

Selain knowledge distillation, peneliti juga mengembangkan metode pemangkasan (pruning)—proses menghilangkan bagian jaringan saraf yang tidak efisien. Inspirasinya datang dari otak manusia, yang menjadi lebih efisien seiring usia dengan memutus hubungan sinaptik yang tidak perlu.

Konsep ini pertama kali diperkenalkan Yann LeCun (kini di Meta) pada 1989. Dalam makalahnya, dia menunjukkan bahwa 90% parameter dalam jaringan saraf terlatih bisa dihapus tanpa mengurangi performa. Metode yang dia sebut “optimal brain damage” ini sekarang menjadi fondasi untuk menyesuaikan SLMs pada tugas alias lingkungan tertentu.

Laboratorium Mini untuk Inovasi AI

Bagi peneliti, SLMs menawarkan arena penelitian yang lebih terjangkau. “Jika mau membikin model baru, Anda perlu mencoba beragam hal,” jelas Leshem Choshen dari MIT-IBM Watson AI Lab. “Model mini memungkinkan penelitian dengan akibat lebih rendah.” Selain itu, dengan parameter yang lebih sedikit, proses pengambilan keputusan SLMs condong lebih transparan—aspek krusial dalam mengembangkan AI yang bertanggung jawab.

Meski demikian, LLMs tetap memegang peran krusial untuk aplikasi seperti chatbot umum, kreator gambar, alias penemuan obat. Namun bagi banyak pengguna, SLMs yang terfokus seringkali sama efektifnya—dengan kelebihan efisiensi biaya, waktu, dan komputasi. Seperti kata Choshen, “Model-model efisien ini bisa menghemat uang, waktu, dan sumber daya komputasi.”

Di tengah hiruk-pikuk perlombaan AI skala besar, mungkin sudah saatnya kita memberi perhatian pada solusi-solusi mini yang justru membawa angin segar efisiensi. Bagaimanapun, dalam bumi teknologi, besar tidak selalu berfaedah lebih baik.

Selengkapnya