SURABAYA ( LENTERA ) - Kecerdasan buatan (AI) kerap terlihat “tak berbobot” karena hadir dalam bentuk teks, gambar, atau video di layar. Namun di balik respons yang tampak instan itu, terdapat pusat data berskala besar yang beroperasi dengan konsumsi listrik yang tidak sedikit.
Penelitian mengungkap fakta bahwa satu video yang dihasilkan AI dapat menyedot listrik lebih dari 100 kali dibandingkan satu gambar. Ini berarti jenis perintah (prompt) yang dimasukkan pengguna sangat berpengaruh terhadap jejak energi yang ditimbulkan.
Temuan tersebut dipaparkan para insinyur dari University of Michigan (U-M), yang mengembangkan sistem pengukuran terbuka untuk membandingkan konsumsi energi, kecepatan, dan kualitas berbagai model AI dalam tugas yang sama.
Lewat platform ML.ENERGY Leaderboard, tim U-M menampilkan perbandingan konsumsi energi di samping metrik kecepatan dan kualitas untuk model dan tugas yang identik. Hasilnya memperlihatkan bahwa perbedaan penggunaan energi tidak semata-mata dipengaruhi ukuran model, melainkan juga jenis prompt pengguna, konfigurasi sistem, serta cara model dijalankan pada perangkat kerasnya. Dalam riset tersebut, para peneliti menguji 46 model dengan tujuh jenis tugas berbeda, menghasilkan total 1.858 kombinasi perangkat keras dan perangkat lunak.
Pengukuran difokuskan pada tahap inference, yakni fase ketika model yang telah dilatih memproses dan menjawab permintaan pengguna. Tahap ini ternyata menjadi penyumbang konsumsi daya terbesar. Berdasarkan estimasi ML.ENERGY Benchmark, inference menyerap sekitar 80-90 persen dari total kebutuhan komputasi dalam ekosistem AI.
Dari sisi skala global, International Energy Agency (IEA) memproyeksikan konsumsi listrik pusat data di Amerika Serikat mencapai 183 terawatt-jam pada 2024 dan melonjak hingga 426 terawatt-jam pada 2030. Proyeksi ini menegaskan pentingnya efisiensi energi dalam pengembangan teknologi AI.
Pada model bahasa seperti chatbot, besarnya energi yang digunakan sangat bergantung pada cara jawaban dihasilkan. Dalam pengujian, mode penalaran (reasoning) dapat menghabiskan hingga 25 kali lebih banyak listrik per respons dibanding percakapan biasa. Hal ini berkaitan dengan token, yakni unit kecil teks yang diproduksi model. Setiap token memicu proses komputasi matematis dan perpindahan data di dalam server.
Ketika berada dalam mode reasoning, model cenderung menghasilkan sekitar 10 kali lebih banyak token. Akibatnya, konsumsi listrik meningkat dan kapasitas pemrosesan simultan pun menurun. Dengan kata lain, semakin panjang respons yang dihasilkan AI, semakin besar pula energi yang dibutuhkan.
Penelitian ini juga menemukan bahwa teknik pengelompokan banyak permintaan sekaligus (batching) mampu menekan penggunaan energi per token hingga tiga sampai lima kali lipat. Dalam batch besar, chip bekerja lebih optimal dan efisien. Namun, pendekatan ini memiliki konsekuensi berupa peningkatan jeda respons (latency). Untuk layanan yang menuntut kecepatan instan, operator sering kali memilih batch kecil yang lebih boros listrik demi menjaga pengalaman pengguna.
Sementara itu, pada generator gambar dan video, besarnya konsumsi energi lebih dipengaruhi oleh jenis konten yang dibuat ketimbang jumlah parameter model. Pembuatan video AI tergolong sangat boros karena prosesnya kompleks dan berulang. Banyak sistem memanfaatkan diffusion model, yakni metode yang secara bertahap mengurangi “noise” visual melalui serangkaian langkah komputasi. Setiap peningkatan resolusi, penambahan jumlah frame, maupun perpanjangan langkah difusi akan menambah beban komputasi dan perpindahan memori, sehingga kebutuhan listrik meningkat signifikan. Menurunkan resolusi atau jumlah frame memang dapat menghemat energi secara drastis, tetapi kualitas visual dan kelancaran gerakan pun ikut terdampak. (Inna – mahasiswa UINSA berkontribusi dalam tulisan ini)





.jpg)
