Kort svar
ChatGPT bruger elektricitet, når den behandler forespørgsler og genererer svar. Det nøjagtige beløb offentliggøres ikke i realtid, så ethvert offentligt skøn skal behandles som en tilnærmelse snarere end en revideret måling.
Det meste ChatGPT-brug er inferens
Når en bruger sender en forespørgsel, udfører modellen inferens: Den behandler inputtet, forudsiger sandsynlige output-tokens og returnerer et svar. Hver interaktion kræver beregning, og den beregning kører på servere, der er udstyret med specialiserede AI-acceleratorer.
Elforbruget vokser med den daglige aktivitet
En enkelt anmodning kan være lille sammenlignet med industriens energiforbrug, men ChatGPT fungerer på globalt plan. Millioner af daglige brugere, gentagne forespørgsler, længere samtaler og multimodale funktioner kan gøre små energiomkostninger pr. forespørgsel til en meningsfuld efterspørgsel efter infrastruktur.
Datacentre giver ekstra omkostninger
Det elektriske fodaftryk er ikke begrænset til selve AI-chippen. Understøttende servere, hukommelse, netværk, opbevaring, strømforsyning og kølesystemer bruger også energi. Derfor er datacentrenes effektivitet vigtig, når man skal vurdere AI-tjenesternes elforbrug.
Hvorfor estimater varierer
Forskellige estimater afhænger af antagelser om modelarkitektur, hardwaretype, batching, svarlængde, udnyttelse, datacentereffektivitet og elektricitetsindkøb. TheAIMeters præsenterer retningsbestemte estimater og knytter dem til en gennemsigtig metode i stedet for at hævde nøjagtig måling i realtid. Se også Metodologi.
