Jawaban singkat
AI mengkonsumsi listrik karena model modern membutuhkan komputasi dalam jumlah besar. GPU, server, penyimpanan, jaringan, jaringan, pendinginan, dan infrastruktur pusat data semuanya berkontribusi terhadap total permintaan energi.
AI dirancang dengan komputasi intensif
Sistem kecerdasan buatan bergantung pada operasi matematika yang dilakukan pada skala yang sangat besar. Melatih dan menjalankan jaringan saraf membutuhkan perangkat keras khusus yang mampu memproses sejumlah besar perhitungan secara paralel. Inilah sebabnya mengapa GPU dan akselerator lainnya menjadi pusat infrastruktur AI modern.
Melatih model besar membutuhkan komputasi yang terkonsentrasi
Melatih model AI yang besar dapat melibatkan pemrosesan set data yang sangat besar dalam banyak iterasi. Selama pelatihan, ribuan akselerator dapat berjalan dalam waktu yang lama, mengonsumsi listrik secara terus menerus. Meskipun pelatihan bukan satu-satunya sumber penggunaan energi AI, ini adalah salah satu fase yang paling terlihat dan paling banyak menggunakan sumber daya.
Inferensi tumbuh dengan penggunaan sehari-hari
Inferensi adalah proses menggunakan model terlatih untuk menjawab pertanyaan, menghasilkan teks, membuat gambar, meringkas dokumen, atau melakukan tugas-tugas lainnya. Seiring dengan diadopsinya perangkat AI oleh jutaan pengguna, inferensi dapat menjadi sumber utama kebutuhan listrik karena terjadi secara terus menerus dan dalam skala global.
Pusat data menambah permintaan energi pendukung
Beban kerja AI berjalan di dalam pusat data. Selain prosesor itu sendiri, listrik juga digunakan untuk server, memori, penyimpanan, peralatan jaringan, pengiriman daya, dan pendinginan. Infrastruktur pendukung ini berarti total jejak listrik lebih besar daripada konsumsi perangkat keras mentah saja.
Efisiensi membaik, tetapi permintaan masih bisa tumbuh
Efisiensi perangkat keras, perangkat lunak, dan pusat data terus meningkat. Namun, peningkatan efisiensi dapat diimbangi dengan meningkatnya permintaan, model yang lebih besar, lebih banyak pengguna, dan lebih banyak fitur AI yang disematkan ke dalam produk sehari-hari. Pertanyaan utamanya bukan hanya apakah AI menjadi lebih efisien, tetapi apakah total penggunaan tumbuh lebih cepat daripada peningkatan efisiensi.
