短い答え
AIが電力を消費するのは、最新のモデルが大量の計算を必要とするからだ。GPU、サーバー、ストレージ、ネットワーク、冷却、データセンターのインフラはすべて、総エネルギー需要に貢献している。
AIは設計上、計算集約的である
人工知能システムは、非常に大規模に実行される数学的演算に依存している。ニューラルネットワークのトレーニングと実行には、膨大な数の計算を並列処理できる特殊なハードウェアが必要だ。GPUやその他のアクセラレーターが現代のAIインフラストラクチャの中心となっているのはこのためだ。
大規模モデルのトレーニングには、集中的な計算が必要
大規模なAIモデルをトレーニングするには、膨大なデータセットを何度も繰り返し処理する必要がある。トレーニング中、何千ものアクセラレーターが長時間稼働し、電力を消費し続けることもある。トレーニングだけがAIのエネルギー使用源ではないが、最も目に見えやすく、リソースを大量に消費する段階のひとつである。
日常的な使用で推理力は高まる
推論とは、訓練されたモデルを使用して、プロンプトに答えたり、テキストを生成したり、画像を作成したり、文書を要約したり、その他のタスクを実行したりするプロセスである。AIツールが何百万人ものユーザーに採用されるにつれ、推論は継続的かつ世界規模で行われるため、電力需要の主な原因となる可能性がある。
エネルギー需要を支えるデータセンター
AIワークロードはデータセンター内で実行される。プロセッサーそのものだけでなく、サーバー、メモリー、ストレージ、ネットワーク機器、電力供給、冷却にも電力が使用される。このようなサポートインフラは、総電力フットプリントが生のハードウェア消費量だけよりも大きいことを意味する。
効率は向上したが、需要はまだ伸びる可能性がある
ハードウェア、ソフトウェア、データセンターの効率は改善し続けている。しかし、効率の向上は、需要の増加、モデルの大型化、ユーザーの増加、日常製品に組み込まれるAI機能の増加によって相殺される可能性がある。中心的な問題は、AIがより効率的になるかどうかだけでなく、総使用量が効率性の向上よりも速く成長するかどうかである。
