– Ett spørsmål til ChatGPT krever like mye energi som å lade telefonen 40 ganger

1 month ago 18



Kunstig intelligens krever store mengder strøm og vann. Men akkurat hvor mye strøm som går med, er ekspertene uenige om. Vi spurte ChatGPT selv.

Mark Zuckerberg, toppsjef i Meta, er en av dem som river seg i håret som følge av den store energiutfordringen med kunstig intelligens. Foto: David Zalubowski / AP / NTB

Publisert: 09.09.2024 18:58

Kortversjonen

Hva skal jeg gi til søsteren min i bursdagsgave? Hvor bør jeg reise neste sommer? Hver gang du stiller et spørsmål til språkmodellen ChatCPT, utløser det like mye strømforbruk som om du fullader telefonen.

Ikke bare én, men 40 ganger.

Det mener i hvert fall Raghavendra Selvan, som er forsker i maskinlæring og datavitenskap ved Københavns Universitet.

Til den danske avisen Berlingske sier forskeren at en enkel instruks (på engelsk prompt) som i gjennom’snitt genererer et svar på 230 ord, bruker 0,19 kilowattimer. Det tilsvarer altså å lade telefonen 40 ganger.

ChatGPT har nå over 200 millioner aktive brukere hver uke, dobbelt så mange som de hadde i november i fjor. OpenAI, firmaet bak ChatGPT, offentliggjør ikke data. Derfor er Selvans utregning basert på målinger av et gjennomsnittlig energiforbruk i hundre prompts i en lignende språkmodell.

Sprikende tall

– Jeg kan ikke utelukke at konklusjonen i min analyse er et worst case scenario, sier Selvan til Berlingske.

Det kan altså være at man ikke bør trekke for mange konklusjoner fra studien. Det mener også Luís Cruz-Filipe, forsker ved Syddansk Universitet:

– De lovende resultatene gjør at vi i det minste bør undersøke dette som et alternativ. Men min følelse er at det er en noe begrenset studie. De fokuserer på ett spesifikt område av kunstig intelligens, sier han, ifølge Forskning.no.

En annen forsker som er skeptisk til tallene, er Jonas Kristiansen Nøland.

Han er førsteamanuensis ved Institutt for elektrisk energi på NTNU og har forsket på strømbruken til datasentrene som driver kunstig intelligens som ChatGPT.

– I en artikkel jeg har skrevet, fant vi at en gjennomsnittlig forespørsel til ChatGPT bruker i snitt 2,89 wattimer, sier han til Aftenposten.

Det er 0,00289 kilowattimer. Selvan ved Københavns Universitet sitt anslag er altså over 65 ganger så stort.

– Jeg synes det høres urealistisk ut, sier Nøland. Han understreker samtidig at han foreløpig ikke har kjennskap til hvordan Selvan har regnet ut sine anslag.

Tørste maskiner

At kunstig intelligens (KI) er energislukende, er det likevel lite tvil om.

Dette er hovedforklaringen, ifølge forskeren på Københavns Universitet:

– Språkmodellene, som generativ kunstig intelligens er bygget på, skal utføre ekstremt komplekse ting. For eksempel å oversette eller skape bilder ut fra tekstforespørsler. Det betyr virkelig mye data, fordi de må mates med milliarder av eksempler.

I tillegg kreves det vann for å kjøle ned datasentrene. Forbes skrev tidligere i år at en enkelt ChatGPT-samtale bruker vann tilsvarende en vanlig plastflaske.

Mange stiller seg spørsmålet om verdens energiproduksjon er klar for kunstig intelligens. Meta-toppsjef Mark Zuckerberg har sagt i en podkast at hvis Meta fikk tilgang til mer energi, ville man bygget vesentlig større datasentre enn i dag.

Et hjemlig eksempel er Green Mountains anlegg på Hamar, som blant annet bygges for å huse Tiktok. Ved fullt uttak vil anlegget forbruke rundt én prosent av Norges samlede produksjon av elektrisk kraft.

Jobber med å finne løsninger

Men danske forskere er blant dem som ser på en løsning for klimasynderen KI, skriver Forskning.no. I en ny studie fra universitetet i Danmarks hovedstad mener forskerne å ha funnet en måte å gjøre KI-modeller mer energieffektive.

I studien viser forskerne at det er mulig å redusere CO₂-avtrykket til trening av kunstig intelligens med 70 til 80 prosent, stort sett uten å gå på kompromiss med yteevnen.

Read Entire Article