Dulu sempat dikabarkan bahwa ChatGPT (Platform chatbot dari OpenAI) terlalu haus daya dimana menurut statistik yang sering dikutip, ChatGPT memerlukan sekitar 3 watt-jam daya untuk menjawab satu pertanyaan, alias 10 kali lebih banyak dari penelusuran Google.
Namun tampaknya kebutuhannya sangat berjuntai pada gimana ChatGPT digunakan dan model AI yang menjawab pertanyaan, dimana menurut Epoch AI yang merupakan lembaga penelitian AI nirlaba, mereka berupaya menghitung berapa banyak daya yang dikonsumsi kueri ChatGPT pada umumnya dan mereka percaya bahwa perkiraan yang ada sebelumnya sangat berlebihan.
Hasil Pengujian Epoch AI
Dengan menggunakan model bawaan terbaru OpenAI untuk ChatGPT, GPT-4o sebagai referensi, Epoch menemukan rata-rata kueri ChatGPT mengonsumsi sekitar 0,3 watt-jam — lebih sedikit daripada banyak peralatan rumah tangga.
"Penggunaan daya sebenarnya tidak terlalu berfaedah jika dibandingkan dengan penggunaan peralatan biasa, pemanas, pendingin ruangan, alias mengendarai mobil," kata Joshua You, analis informasi di Epoch yang melakukan kajian tersebut, dilansir dari TechCrunch.Nah penggunaan daya AI telah menjadi pokok perdebatan yang cukup kontroversial lantaran perusahaan AI berupaya memperluas jejas prasarana mereka dengan cepat. Bahkan menurut info dari Tech Crunch, Minggu lalu, sekelompok lebih dari 100 organisasi menerbitkan surat terbuka yang menyerukan kepada industri AI dan regulator untuk memastikan bahwa pusat informasi AI yang baru tidak menghabiskan sumber daya alam dan memaksa perusahaan utilitas untuk berjuntai pada sumber daya yang tidak terbarukan.

Pemakaian Energi Akan Makin Tinggi
Meskipun menurut laporan Epoch AI saat ini pemakaian daya dari AI tidak sebesar apa yang digembor gemborkan, namun AI bakal semakin maju dimana training AI mungkin bakal memerlukan lebih banyak daya dimasa depan.
Selain itu meskipun memang telah ada terobosan dalam efisiensi AI dalam beberapa bulan terakhir, skala penerapan AI diperkirakan bakal mendorong ekspansi prasarana yang sangat besar dan royal daya. Dalam dua tahun ke depan, pusat informasi AI mungkin memerlukan nyaris seluruh kapabilitas daya California tahun 2022 (68 GW) berasas laporan dari Rand.
Pada tahun 2030, training model perintis / frontier model dapat menuntut keluaran daya yang setara dengan delapan reaktor nuklir (8 GW), prediksi laporan tersebut.
Kemudian ChatGPT sendiri menjangkau jumlah orang yang sangat banyak — dan terus bertambah —, sehingga permintaan servernya pun semakin besar. Oleh lantaran itu OpenAI, berbareng dengan beberapa mitra investasi, berencana untuk
menghabiskan miliaran dolar untuk proyek pusat informasi AI baru selama beberapa tahun ke depan.
Nah menarik bukan? untuk menjalankan AI yang sangat bagus dan modern dan sigap tentunya memerlukan daya / daya yang tidak mini juga, kebayang deh, berapa banyak biaya yang kudu OpenAI family hanya untuk tagihan listriknya.
Bagaimana menurutmu? coba komen dibawah guys.
Via : Tech Crunch
Written by
Gylang Satria
Penulis, Pengguna Windows 11, Elementary OS, dan Iphone SE 2020. Tag @gylang_satria di Disqus jika ada pertanyaan.
Post navigation
Previous Post
