Kort svar
KI bruker strøm fordi moderne modeller krever store mengder beregninger. GPU-er, servere, lagring, nettverk, kjøling og datasenterinfrastruktur bidrar alle til det totale energibehovet.
AI er beregningsintensiv av natur
Systemer for kunstig intelligens er avhengige av matematiske operasjoner som utføres i svært stor skala. Opplæring og kjøring av nevrale nettverk krever spesialisert maskinvare som kan behandle et stort antall beregninger parallelt. Dette er grunnen til at GPU-er og andre akseleratorer har blitt sentrale i moderne AI-infrastruktur.
Trening av store modeller krever konsentrert databehandling
Opplæring av en stor AI-modell kan innebære behandling av enorme datasett over mange iterasjoner. Under opplæringen kan tusenvis av akseleratorer kjøre i lange perioder og bruke strøm kontinuerlig. Selv om opplæring ikke er den eneste kilden til AI-energiforbruk, er det en av de mest synlige og ressurskrevende fasene.
Inferens vokser med daglig bruk
Inferens er prosessen der en opplært modell brukes til å svare på spørsmål, generere tekst, lage bilder, oppsummere dokumenter eller utføre andre oppgaver. Etter hvert som AI-verktøy tas i bruk av millioner av brukere, kan inferens bli en viktig kilde til strømforbruk fordi det skjer kontinuerlig og i global skala.
Datasentre øker etterspørselen etter støtteenergi
AI-arbeidsbelastninger kjøres i datasentre. I tillegg til selve prosessorene brukes det også strøm til servere, minne, lagring, nettverksutstyr, strømforsyning og kjøling. Denne støtteinfrastrukturen betyr at det totale strømforbruket er større enn det rene maskinvareforbruket alene.
Effektiviteten forbedres, men etterspørselen kan fortsatt øke
Maskinvare, programvare og datasentre blir stadig mer effektive. Effektivitetsgevinsten kan imidlertid oppveies av økende etterspørsel, større modeller, flere brukere og flere AI-funksjoner innebygd i hverdagsprodukter. Det sentrale spørsmålet er ikke bare om AI blir mer effektivt, men om den totale bruken vokser raskere enn effektiviteten forbedres.
