Digitale ­kattevideoer varmer kloden op

Udviklingen af kunstig intelligens, AI, lover fantastiske løsninger – bl.a. inden for klima. Men ­paradoksalt nok er samme teknologi en af ­verdens hurtigst voksende bidragydere til den globale opvarmning.

Teknologi
Klima­aftrykket fra informations­teknologi bidrager med omkring 3% af den samlede klima­belast­ning – eller omtrent det samme som verdens flytrafik. Illustration: Thomas Thorhauge. Illustration: Thomas Thorhauge
Af Michael Rachlin

Det går så stærkt, at det næsten er uvirkeligt. Det er halvandet år, siden medierne første gang skrev om ChatGPT. For et år siden havde hver femte dansker prøvet at bruge ChatGPT eller andre sprog­modeller.

I dag er hverdagen fyldt med historier om kunstig intelligens, AI, der kan generere alt fra eksamensopgaver for studerende, interessante illustrationer, vellignende fotos, overraskende vel­lydende musik og selvfølgelig videoer med kattekillinger, som mere end noget andet er blevet symbolet på uproduktivt tids­fordriv på nettet.

Men der er også en bagside til den udvikling. AI er en kæmpe strømsluger og bidrager dermed til den globale opvarmning.

Raghavendra Selvan, der er adjunkt på Datalogisk Institut på Københavns Universitet, har forsket i, hvor meget strøm og vand til afkøling af datacentrene, ChatGPT bruger. Hvis man koger forbruget for den populære sprogmodel ned til en enkelt prompt, så koster det i gennemsnit 0,19 kWh, hver gang man stiller ChatGPT et spørgsmål. Eller omtrent det samme som at oplade sin mobil­telefon 40 gange.

Med flere og flere brugere af ChatGPT, men også andre sprogmodeller, billed-, musik- og talegeneratorer, er udviklingen eksplosiv. Blandt de forskellige former for AI er det særligt generativ AI – altså programmer, der er designet til at generere nye data – der vokser eksplosivt både i udbredelse og strømforbrug.

Det fortæller Raghavendra Selvan.

”Modeller som ChatGPT har et virkelig stort klima­aftryk. Det skyldes først og fremmest de intensive beregninger, der udføres, når man træner modellerne. Det vil sige, når modellen analyserer store mængder af data og finder de mønstre, der bliver brugt til at generere nyt indhold. Det medfører både et stort strømforbrug og enorme mængder af vand til nedkøling af  datacentrene,” fortæller ­Raghavendra Selvan, der offentliggjorde studiet for ChatGPT sidste år, bl.a. fordi selskabet bag, OpenAI, ikke selv har offentliggjort sine klima-tal.

Energistyrelsen ­forventer i 2030 et årligt elforbrug fra data­centre i Danmark på ca. 7 TWh. Det udgør ca. 17% af det forventede, samlede elforbrug i 2030.

Illustration: Thomas Thorhauge. Illustration: Thomas Thorhauge

Vokser eksplosivt

Alt i alt anslår man, at klimaaftrykket fra informations­teknologi bidrager med omkring tre procent af den samlede klimabelastning – eller omtrent det samme som verdens flytrafik. Der er selvfølgelig tale om alle former for informationsteknologi, f.eks. er klima­aftrykket fra kryptovalutaer som Bitcoin også et ­stigende problem. Men selvom der er andre klima­problemer, der fylder meget, skaber AI opmærksomhed, fordi det vokser eksplosivt.

”Dette er kun begyndelsen. Dels vokser antallet af tjenester og brugere, men samtidig producerer AI selv store mængder af data, som man igen skal bruge computerkraft på at analysere. En selvforstærkende effekt,” siger Raghavendra Selvan.

Moores lov på steroider

OpenAI har selv anslået, at den regnekraft, der skal bruges til at træne AI, bliver fordoblet på lidt over tre måneder. En vild eksponentiel stigning sammen­lignet med IT-branchens traditionelle “Moores Lov”, der anslog, at computeres beregningskraft ville blive fordoblet hvert andet år. I samme periode vil regnekraften til AI altså blive syvdoblet.

Men selvom der er al mulig grund til at være kritisk over for udviklingen indenfor AI – og det handler også om meget andet end bare klimaaftryk – mener Selvan ikke, at man skal undlade at bruge ChatGPT som privatperson.

“Jeg mener, at det er et problem, der ligger ud over, hvad du kan gøre som enkeltperson eller enkelt virksomhed. Jeg synes, at tjenesterne selv bør gøre opmærksom på det, og så har vi brug for regulering,” siger Raghavendra Selvan, der har forsket i AI på Københavns Universitet i otte år.

“Jeg er på ingen måde modstander af de her teknologier. Det vil helt sikkert bidrage til løsninger inden for klimaområdet. Men hvis ingen gør opmærksom på de her omkostninger, kommer vi til at gøre meget mere skade end højst nødvendigt,” siger Raghavendra Selvan.

AI for klimaet eller kattevideoer

En af de virksomheder, der har praktiske erfaringer med at bruge AI til at gøre Danmarks klimaaftryk mindre, er aarhusianske Neurospace. Virksomheden bruger maskinlæring til at gøre industrielle processer smartere, mere effektive og ganske ofte mere klima­venlige.

Neurospace har bl.a. hjulpet fjern­varmeselskaber med at gøre deres klimaaftryk mindre ved at skabe modeller, der bedre kan forudse, hvor høj fremløbs­temperaturen skal være i fjernvarmesystemet – bl.a. baseret på historiske data, vejret og forbrug. For Nordic Sugar har man kunnet optimere en af de mest energi­krævende dele af sukkerproduktionen – krystalliseringsprocessen – med op til 43%. Ved hjælp af maskinlæring kunne man identificere et uudnyttet potentiale i produktionen og dermed reducere strømforbruget og CO2-belastningen markant.

Maria Hvid fra Neurospace er ingeniør inden for maskinlæring og Ingeniørforeningens ekspert inden for AI. I marts skrev hun et debat­indlæg i Information under overskriften: “Vi smadrer klimaet med kunstige kattevideoer”. Overskriften er en henvisning til OpenAIs kommende AI-model, der er i stand til at skabe realistiske videoer ud fra tekstbeskrivelser – ligesom man allerede har  DALL-E, der kan generere stillbilleder.

DALL-E er OpenAIs tekst-­til-billede-model, der er udviklet ved hjælp af deep ­lear­ning-metoder til at generere ­digitale billeder ud fra sprogbeskrivelser (prompts). Nyeste version er DALL-E 3, som blev ­frigivet i oktober.

Og ja, her er billeder af kæledyr, særligt katte i sjove situationer, utroligt populære og har været det siden internettets barndom.

For Maria Hvid var det vigtigt at gøre opmærksom på forskellen på de store sprogmodeller og den form for maskinlæring, hun selv arbejder med.

“Jeg skrev indlægget, fordi der er en skjult omkostning ved de store sprogmodeller. En omkostning, som vi ikke tænker over i hverdagen. Der bliver talt meget om, hvor fede de her modeller er, og jeg kan da også blive fascineret af dem som alle andre. Men der er rigtig mange problemer med de her sprogmodeller, der er kommet på markedet – ud over klimaet,” mener Maria Hvid, der forklarer, at der er en sammenhæng mellem fråseriet med energi og med data.

Et simpelt spørgsmål til ChatGPT om en kageopskrift, en sjov anekdote eller et forslag til en gave til en onkel er trænet på store mængder af data, som der er brugt enorme ressourcer på at organisere. Det er en radikalt anden tilgang til AI, end når Neurospace f.eks. laver løsninger inden for maskinlæring.

“Vi bruger rigtig meget tid på at sikre, at de data, vi træner vores modeller på, er af høj kvalitet. Det betyder, at man kan få meget høj nøjagtighed med meget lidt data,” forklarer Maria Hvid.

Hun uddyber, at de store maskinlæringsmodeller antager, at hvis man har tilstrækkeligt mange data, så vil man nå det rigtige resultat. Alene fordi der er flere artikler, der antager, at jorden er rund, end at den er flad. Og det giver oftest det rigtige svar, men det giver også nogle problemer.

Illustration: Thomas Thorhauge. Illustration: Thomas Thorhauge

Danske modeller kan være løsning

Der er mange omkostninger – ud over klima­omkostningen – ved de store sprogmodeller.

Der er ophavsretsmæssige problemer, problemer med persondata og problemer med at ­validere kvaliteten af modellen på alle dens brugsscenarier.

“Inden for medicin kan du f.eks. risikere, at den anbefaler ting, som slet ikke lever op til euro­pæiske standarder eller er lovlige, fordi den er trænet på data fra andre steder i verden. Det taler for, at man laver danske modeller, trænet på dansk data,” forklarer Maria Hvid.

Hun understreger, at man sagtens kan bruge sprogmodellerne til inspiration og forklare ord og begreber – altså netop som sprogmodeller.

”Men så snart du kommer ind på noget, som handler om din konkrete faglighed, er der al mulig grund til at være skeptisk,” siger Maria Hvid.

Lige nu er der mange virksomheder, der er opsatte på, at de skal have AI. De vil have værktøjet, men de er ikke præcise på, hvad man skal bruge det til. Hvis man har den indstilling, er der desværre rigtig meget, der kan gå galt, slutter hun.

AI øger vores vandforbrug

Det kommer måske ikke som en overraskelse, at datacentrene – og dermed AI – bruger meget strøm. Men det er nok de færreste, der tænker over, at de også bruger store mængder vand til afkøling.

I sin seneste miljørapport afslørede ­Microsoft, at deres globale vandforbrug steg med 34% fra 2021 til 2022 (til næsten 6,4 milliarder liter, eller mere end 2.500 olympiske svømme­bassiner). En markant stigning sammenlignet med tidligere år, som eksterne forskere ­tilskriver deres AI-forskning.

“Det er rimeligt at antage, at største­delen af væksten skyldes Microsofts store investeringer i generativ AI og partnerskab med OpenAI," siger Shaolei Ren, en forsker ved University of California, Riverside, til mediet The Markup.

Oversat til en enkelt prompt svarer det til, at ChatGPT konsumerer en halv liter vand for hver femte spørgsmål. Men det skal understreges, at ­forbruget varierer meget efter årstider, og hvor i ­verden datacentrene står.

Udfordringen med afkøling får i øvrigt tech-giganterne til at bygge datacentre længere og længere mod nord. F.eks. har Facebook bygget et datacenter i svenske Luleå, der er det største af sin art i Europa. Luleå ligger i det nordligste Sverige – cirka på samme breddegrad som Nuuk i Grønland.

[ Dansk Erhverv, OpenAI, Neurospace, Københavns Universitet ]