Krótka odpowiedź
Sztuczna inteligencja zużywa energię elektryczną, ponieważ nowoczesne modele wymagają dużych ilości obliczeń. Układy GPU, serwery, pamięć masowa, sieci, chłodzenie i infrastruktura centrum danych przyczyniają się do całkowitego zapotrzebowania na energię.
Sztuczna inteligencja z założenia wymaga dużej mocy obliczeniowej
Systemy sztucznej inteligencji opierają się na operacjach matematycznych wykonywanych na bardzo dużą skalę. Trenowanie i uruchamianie sieci neuronowych wymaga specjalistycznego sprzętu zdolnego do równoległego przetwarzania ogromnej liczby obliczeń. Właśnie dlatego układy GPU i inne akceleratory stały się kluczowym elementem nowoczesnej infrastruktury sztucznej inteligencji.
Trenowanie dużych modeli wymaga skoncentrowanych obliczeń
Trenowanie dużego modelu sztucznej inteligencji może obejmować przetwarzanie ogromnych zbiorów danych w wielu iteracjach. Podczas treningu tysiące akceleratorów może działać przez długi czas, stale zużywając energię elektryczną. Chociaż trening nie jest jedynym źródłem zużycia energii przez sztuczną inteligencję, jest to jedna z najbardziej widocznych i zasobochłonnych faz.
Wnioskowanie rośnie wraz z codziennym użytkowaniem
Wnioskowanie to proces wykorzystywania wyszkolonego modelu do odpowiadania na pytania, generowania tekstu, tworzenia obrazów, podsumowywania dokumentów lub wykonywania innych zadań. Ponieważ narzędzia sztucznej inteligencji są wykorzystywane przez miliony użytkowników, wnioskowanie może stać się głównym źródłem zapotrzebowania na energię elektryczną, ponieważ odbywa się w sposób ciągły i na skalę globalną.
Centra danych zwiększają zapotrzebowanie na energię
Obciążenia AI działają w centrach danych. Oprócz samych procesorów, energia elektryczna jest również wykorzystywana do serwerów, pamięci, pamięci masowej, sprzętu sieciowego, dostarczania energii i chłodzenia. Ta infrastruktura pomocnicza oznacza, że całkowity ślad energetyczny jest większy niż zużycie samego sprzętu.
Wydajność poprawia się, ale popyt może nadal rosnąć
Wydajność sprzętu, oprogramowania i centrów danych stale rośnie. Jednak wzrost wydajności może zostać zniwelowany przez rosnący popyt, większe modele, większą liczbę użytkowników i więcej funkcji AI wbudowanych w produkty codziennego użytku. Głównym pytaniem jest nie tylko to, czy sztuczna inteligencja staje się bardziej wydajna, ale czy całkowite wykorzystanie rośnie szybciej niż poprawia się wydajność.
