Krótka odpowiedź
ChatGPT zużywa energię elektryczną za każdym razem, gdy przetwarza monity i generuje odpowiedzi. Dokładna ilość nie jest ujawniana publicznie w czasie rzeczywistym, więc wszelkie publiczne szacunki powinny być traktowane jako przybliżenie, a nie skontrolowany pomiar.
Większość zastosowań ChatGPT to wnioskowanie
Gdy użytkownik wysyła monit, model przeprowadza wnioskowanie: przetwarza dane wejściowe, przewiduje prawdopodobne tokeny wyjściowe i zwraca odpowiedź. Każda interakcja wymaga obliczeń, które są wykonywane na serwerach wyposażonych w wyspecjalizowane akceleratory AI.
Zużycie energii elektrycznej rośnie wraz z codzienną aktywnością
Pojedyncze żądanie może być niewielkie w porównaniu z przemysłowym zużyciem energii, ale ChatGPT działa w skali globalnej. Miliony użytkowników dziennie, powtarzające się monity, dłuższe konwersacje i funkcje multimodalne mogą przekształcić niewielkie koszty energii na żądanie w znaczące zapotrzebowanie na infrastrukturę.
Centra danych zwiększają koszty ogólne
Zużycie energii elektrycznej nie ogranicza się do samego układu SI. Serwery pomocnicze, pamięć, sieci, pamięć masowa, systemy zasilania i chłodzenia również zużywają energię. Dlatego też wydajność centrum danych ma znaczenie przy szacowaniu zużycia energii elektrycznej przez usługi AI.
Dlaczego szacunki się różnią
Różne szacunki zależą od założeń dotyczących architektury modelu, typu sprzętu, dozowania, długości odpowiedzi, wykorzystania, wydajności centrum danych i pozyskiwania energii elektrycznej. TheAIMeters przedstawia kierunkowe szacunki i łączy je z przejrzystą metodologią, zamiast domagać się dokładnych pomiarów w czasie rzeczywistym. Zobacz Metodologia.
