Dahaga AI terhadap Listrik yang Tak Pernah Terpuaskan, Mengungkap Borosnya Konsumsi Energi Kecerdasan Buatan dan Solusinya
Selasa, 15 April 2025 oleh aisyiyah
Dahaga AI terhadap Listrik yang Tak Pernah Terpuaskan
Bayangkan dunia di ujung jari Anda, informasi apa pun tersedia dalam sekejap berkat kecerdasan buatan (AI). Mulai dari obrolan ringan dengan asisten virtual hingga diagnosis medis yang rumit, AI telah merambah hampir setiap aspek kehidupan modern. Namun, di balik kemudahan dan kecanggihan ini, tersimpan sebuah rahasia kelam: konsumsi energi AI yang begitu rakus. Seperti api yang membutuhkan kayu bakar, AI membutuhkan listrik, dan 'kayu bakar' ini semakin hari semakin banyak terbakar.
Pertanyaannya, seberapa besar dampak konsumsi energi AI ini terhadap masa depan kita? Akankah inovasi ini menjadi bumerang yang justru memperparah krisis energi dan lingkungan?
Saya iseng bertanya pada Grok, AI besutan Elon Musk, tentang konsumsi listrik untuk setiap pertanyaan yang saya ajukan. Jawabannya cukup menarik: "Sulit memberikan angka pasti karena banyak faktor yang mempengaruhi, seperti perangkat yang digunakan, efisiensi server, dan kompleksitas pertanyaan. Kira-kira, satu pertanyaan sederhana mungkin menghabiskan beberapa watt-hour (Wh) di sisi server, mungkin sekitar 0,01-0,1 Wh. Tapi ini sangat bervariasi."
Sekilas, angka ini tampak kecil. Namun, bayangkan miliaran pertanyaan yang diajukan setiap harinya oleh pengguna di seluruh dunia. Jika dikalikan, jumlahnya menjadi sangat fantastis. Lalu, bagaimana dengan masa depan? Bagaimana kita akan memenuhi kebutuhan listrik AI yang terus meningkat?
Seberapa Lapar AI Terhadap Listrik?
Model bahasa besar (LLM) seperti GPT-4, Gemini, dan Claude, yang menjadi otak di balik banyak aplikasi AI, membutuhkan daya komputasi yang luar biasa besar, baik untuk pelatihan awal maupun untuk setiap interaksinya (inferensi). Proses pelatihan ini ibarat mengisi otak AI dengan seluruh isi perpustakaan dunia, tentu saja membutuhkan energi yang sangat besar.
Beberapa laporan memproyeksikan lonjakan permintaan listrik pusat data global hingga lebih dari dua kali lipat pada tahun 2030, mencapai 945 TWh, melebihi total konsumsi listrik Jepang saat ini. McKinsey & Company juga memprediksi peningkatan permintaan daya pusat data AS hingga 606 TWh pada 2030, naik drastis dari 147 TWh pada 2023. AI diproyeksikan menjadi konsumen listrik dominan yang akan mengubah lanskap energi global.
Sebagai gambaran, pelatihan GPT-3 membutuhkan 1.300 MWh, setara dengan konsumsi listrik 120 rumah di AS selama setahun. Model yang lebih canggih seperti GPT-4 dan Gemini tentu membutuhkan energi yang jauh lebih besar lagi.
Meskipun setiap interaksi dengan AI mungkin hanya membutuhkan daya yang kecil, akumulasinya sangat signifikan. Perbedaan perkiraan konsumsi energi antar studi, misalnya antara 3 Wh dan 0,3 Wh per kueri, menunjukkan kompleksitas perhitungan dan pentingnya mempertimbangkan berbagai faktor seperti panjang kueri, model AI yang digunakan, dan infrastruktur perangkat keras.
Jika setiap pencarian Google menggunakan LLM, daya yang dibutuhkan bisa setara dengan kebutuhan listrik Irlandia, yaitu 29,3 TWh per tahun. Ini menunjukkan betapa besarnya potensi dampak AI terhadap konsumsi energi global.
Dampak Lingkungan yang Ditimbulkan AI
Konsumsi energi yang tinggi berbanding lurus dengan emisi karbon. Pusat data, sebagai tulang punggung infrastruktur AI, menyumbang 1 hingga 1,3 persen listrik dunia pada tahun 2022. Angka ini diperkirakan akan terus meningkat seiring dengan adopsi AI yang semakin luas.
Jejak karbon AI sangat bergantung pada sumber energi yang digunakan. Transisi ke energi terbarukan menjadi krusial untuk mengurangi dampak negatifnya. Pelatihan satu model AI dapat menghasilkan emisi CO2 yang setara dengan lima kali lipat total emisi mobil biasa seumur hidup. Selain itu, penggunaan air yang besar untuk pendinginan pusat data juga menjadi masalah serius, terutama di daerah yang kekurangan air.
Limbah elektronik dari perangkat keras AI yang berumur pendek, seperti GPU, juga menjadi tantangan tersendiri. Siklus hidup teknologi AI, dari produksi hingga pembuangan, berkontribusi terhadap degradasi lingkungan.
Bisakah AI Bertahan Tanpa Membebani Listrik?
Ketergantungan AI pada listrik memunculkan kekhawatiran tentang keamanan dan keberlanjutan energi. Para ahli menekankan perlunya investasi dalam energi terbarukan, peningkatan efisiensi pusat data, dan dialog antar pemangku kepentingan.
Pengembangan model AI yang lebih hemat energi, seperti small language models dan teknik kompresi, menjadi solusi yang menjanjikan. Optimasi algoritma, penggunaan komputasi kuantum, dan cip khusus juga sedang dieksplorasi.
Sebagai pengguna, kita dapat berkontribusi dengan membatasi penggunaan AI yang tidak perlu dan memilih penyedia AI yang berkomitmen pada energi terbarukan.
Bagaimana cara mengurangi dampak lingkungan dari penggunaan AI, Pak Budi?
(Dijawab oleh Prof. Dr. Bambang Riyanto, pakar Teknologi Informasi ITB) Mengurangi dampak lingkungan AI membutuhkan pendekatan multi-faceted. Dari sisi pengguna, kita bisa lebih bijak dalam menggunakan AI, misalnya dengan memprioritaskan tugas-tugas yang memang membutuhkan kemampuan AI. Dari sisi pengembang, optimasi algoritma dan penggunaan perangkat keras yang lebih efisien menjadi kunci. Pemerintah juga berperan penting dalam mendorong transisi ke energi terbarukan untuk pusat data.