Hvor meget strøm bruger AI og ChatGPT?

AI-modeller, især store sprogmodeller som ChatGPT, kræver betydelige mængder elektricitet. Forbruget opdeles i to faser: den ekstremt energikrævende træning af modellen og den løbende brug (inference), hvor milliarder af brugerforespørgsler tilsammen udgør et stort, vedvarende energiforbrug med både økonomiske og miljømæssige konsekvenser.

Hvad driver AI’s strømforbrug?

Det primære strømforbrug i kunstig intelligens stammer fra den massive computerkraft, der er nødvendig for at behandle data. Dette gælder især for deep learning-modeller, som udgør kernen i systemer som ChatGPT. Forbruget kan groft inddeles i to hovedkategorier: træning og inference.

Træningsfasen er, hvor modellen lærer ved at analysere enorme datasæt. Denne proces er ekstremt beregningstung og kan tage uger eller måneder på tusindvis af specialiserede processorer (GPU’er), der kører uafbrudt. Det er i denne fase, at det absolut største enkeltstående energiforbrug finder sted for en given model.

Inference-fasen er den løbende brug af den færdigtrænede model. Hver gang en bruger stiller et spørgsmål til ChatGPT, aktiveres modellen for at generere et svar. Selvom en enkelt forespørgsel bruger langt mindre strøm end selve træningen, løber det samlede forbrug hurtigt op, når millioner af brugere interagerer med tjenesten hver dag.

Både træning og inference foregår i store datacentre, som i sig selv er massive strømforbrugere. Ud over selve computerkraften går en betydelig mængde energi til køling af serverne for at forhindre overophedning.

Træning af store sprogmodeller: En energikrævende proces

Træningen af en stor sprogmodel som OpenAI’s GPT-serie er en af de mest energikrævende processer i den digitale verden. Det kræver, at modellen fodres med billioner af ord fra internettet og bøger, mens den justerer milliarder af interne parametre for at lære mønstre, sprog og logik.

Præcise tal er sjældent offentlige, men forskere har lavet estimater. Træningen af GPT-3, forgængeren til den model, der driver mange versioner af ChatGPT, anslås at have krævet omkring 1.287 megawatt-timer (MWh). Det svarer til det årlige elforbrug for mere end 120 gennemsnitlige danske husstande.

Nyere og mere avancerede modeller som GPT-4 kræver endnu mere energi, da de er større og trænet på mere data. Energiforbruget er direkte proportionalt med modellens kompleksitet og mængden af data, den behandles. Denne proces genererer også et betydeligt CO2-aftryk, afhængigt af energikilderne til de anvendte datacentre.

Strømforbruget ved brug af ChatGPT (Inference)

Når en model som ChatGPT er trænet, overgår den til inference-fasen, hvor den besvarer brugerhenvendelser. Hver eneste interaktion, fra et simpelt “hej” til en kompleks kodegenerering, kræver computerkraft og dermed strøm.

Estimatet for en enkelt forespørgsel varierer, men analyser peger på, at en interaktion med ChatGPT kan bruge omkring 0,3 til 1 watt-time (Wh). Det lyder måske ikke af meget, men med over 100 millioner ugentlige brugere, der stiller milliarder af spørgsmål, bliver det samlede forbrug enormt.

Ifølge nogle beregninger kan ChatGPT’s daglige drift bruge over 500.000 kilowatt-timer (kWh) om dagen. Det er mere end 17.000 gange det daglige elforbrug for en gennemsnitlig dansk husstand. Dette løbende forbrug understreger, at AI’s miljøpåvirkning ikke kun er begrænset til den indledende træning.

Sammenligning: AI-søgning vs. traditionel Google-søgning

En traditionel søgning på Google er en højt optimeret proces, der er blevet forfinet gennem årtier. En enkelt Google-søgning anslås at bruge omkring 0,3 watt-timer (Wh). Det er en meget lille mængde energi, hvilket er muligt på grund af effektive indekseringssystemer, der hurtigt kan finde og rangordne relevante resultater.

En AI-drevet søgning, som dem der ses i Googles AI-søgefunktion eller ved at stille et spørgsmål til ChatGPT, er en fundamentalt anderledes og mere energikrævende proces. I stedet for blot at hente eksisterende information, genererer sprogmodellen et nyt, unikt svar fra bunden.

Denne generative proces kræver langt mere computerkraft. Estimater tyder på, at en AI-forespørgsel kan bruge mellem 10 og 30 gange mere strøm end en traditionel søgning. Hvis AI-søgninger bliver den nye standard, vil det medføre en markant stigning i det samlede energiforbrug fra internettets infrastruktur.

Datacentrenes rolle og deres placering

Al den computerkraft, som AI kræver, leveres af datacentre. Disse faciliteter huser tusindvis af servere, der kører døgnet rundt. Placeringen af disse datacentre og deres energikilder er afgørende for AI-modellernes reelle klimaaftryk.

Et datacenter, der drives af strøm fra kulfyrede kraftværker, vil have et langt højere CO2-aftryk end et, der drives af vedvarende energi som vind, sol eller vandkraft. Flere store tech-virksomheder placerer derfor nye datacentre i regioner med rigelig adgang til grøn energi, herunder Norden.

Danmark er blevet en populær lokation for datacentre på grund af et stabilt elnet med en høj andel af vindenergi. Valget af en cloud-udbyder, der driver sine datacentre med vedvarende energi, kan derfor have en direkte indflydelse på en virksomheds digitale CO2-aftryk.

Fremtidens AI: Mod mere energieffektive modeller

Industrien og forskningsverdenen er opmærksomme på AI’s voksende energiforbrug. Der arbejdes intensivt på at udvikle mere bæredygtige løsninger. Denne indsats fokuserer på flere områder, fra software til hardware.

En central strategi er at optimere selve AI-modellerne. I stedet for at bygge stadigt større modeller, forskes der i at skabe mindre, mere specialiserede modeller, der er lige så effektive til specifikke opgaver, men bruger en brøkdel af energien. Andre teknikker omfatter:

  • Modeldestillation: En proces, hvor viden fra en stor, kompleks model overføres til en meget mindre og mere effektiv model.
  • Quantization: Reducerer præcisionen af tallene i modellen, hvilket mindsker hukommelses- og beregningskrav uden markant tab af ydeevne.
  • Hardware-innovation: Udvikling af nye chips og processorer, der er specifikt designet til AI-beregninger og er langt mere energieffektive end de nuværende GPU’er.

Disse fremskridt er afgørende for at sikre, at den fortsatte udvikling af AI kan ske på en mere bæredygtig måde.

Regulering og gennemsigtighed i EU

Med AI’s stigende indflydelse er der kommet et øget politisk fokus på teknologiens samfundsmæssige konsekvenser, herunder dens miljøpåvirkning. I EU er dette et centralt element i den nye forordning om kunstig intelligens, kendt som AI Act.

Forordningen sigter mod at skabe gennemsigtighed og ansvarlighed. For visse AI-systemer, især de store og komplekse “general-purpose” modeller, vil der blive indført krav om dokumentation af ressourceforbrug. Det betyder, at udviklere i fremtiden kan blive forpligtet til at oplyse om, hvor meget energi og vand der er brugt til at træne deres modeller.

Disse krav skal give virksomheder og forbrugere et bedre grundlag for at vurdere og sammenligne forskellige AI-løsninger ud fra deres miljømæssige fodaftryk. Det er et skridt mod at gøre energi- og ressourceeffektivitet til et konkurrenceparameter på AI-markedet.

Hvad betyder det for danske virksomheder?

For danske virksomheder, der integrerer AI i deres drift, er energiforbruget en faktor med både økonomiske og etiske dimensioner. At anvende AI-løsninger er ikke gratis; ud over licensomkostninger er der de skjulte omkostninger til den strøm, der driver beregningerne, hvilket typisk afregnes gennem cloud-udbyderen.

Det er vores erfaring, at mange virksomheder endnu ikke har fuldt overblik over energiomkostningerne forbundet med deres AI-brug. For små virksomheder kan det være en god idé at starte med mindre, mere afgrænsede AI-værktøjer frem for store, altomfattende modeller for at holde omkostningerne nede.

Valget af AI-model og leverandør har betydning. Nogle modeller er mere energieffektive end andre. Ligeledes kan valget af en cloud-udbyder, der prioriterer grøn strøm til sine datacentre, hjælpe med at nedbringe virksomhedens samlede CO2-aftryk. Komplekse systemer som en AI-agent, der udfører opgaver autonomt, vil også have et energiforbrug, der skal medregnes i det samlede billede.