Inga Strümke mener folk bruker kunstig intelligens feil

4 hours ago 8


Over hele landet snur nordmenn seg til språkmodeller som ChatGPT for å få hjelp til å løse dagligdagse utfordringer.

Jobbsøknad? Hjemmeeksamen? Skoleoppgaver? Teksten er kun noen tastetrykk unna.

Dessverre går det av og til galt, som når Tromsø kommune foreslår å legge ned skoler, og bruker KI-generert forskning som ikke finnes som begrunnelse.

Utfordringen ligger ikke i kunstig intelligens, men i menneskelig latskap, mener forsker og forfatter Inga Strümke ved NTNU.

Hun er en av Norges fremste eksperter på kunstig intelligens.

– Hvis du har fått i oppgave å skrive en rapport, så skal du skrive den selv. Det spiller ingen rolle om det er en venn eller kunstig intelligens som har skrevet den for deg. Man skal ikke utgi seg for å skrive noe man ikke har skrevet selv.

Evolusjon

Forskeren har full forståelse for at det frister å bruke språkmodeller, siden det er så enkelt å få store mengder velskreven tekst.

Likevel bekymrer det henne at de stadig brukes feil.

– Språkmodeller er lagd for å skrive gode setninger, ikke for å undersøke virkeligheten.

Det er nesten uforståelig for henne at folk fortsatt ikke har fått med seg at språkmodeller alltid vil kunne dikte opp usannheter.

en person som smiler foran en tavle

Inga Strümke underviser i kunstig intelligens ved NTNU: Norges teknisk-naturvitenskapelige universitet

Foto: Marius Arnesen / NRK

Samtidig mener hun at saker som KI-skandalen i Tromsø fint kunne vært unngått selv uten kompetanse på kunstig intelligens.

– Du må jo alltid kvalitetssikre, uavhengig av om du har brukt kunstig intelligens eller en brevdue, sier Strümke.

Forskeren tror vi kommer til å se flere saker som den i Tromsø, fordi mennesker ofte velger den enkleste løsningen.

Det er ved å finne måter å gjøre ting på som bruker minst mulig energi mennesker har overlevd som art, sier Strümke.

– Spørsmålet er jo hva som skal til for at folk ikke skal falle for fristelsen å gjøre noe som er galt, selv om det er komfortabelt.

Vil stramme inn

En som tenker innstramming er løsningen er Rødt-politiker Tobias Drevland Lund.

Han er medlem av kommunal- og forvaltningskomiteen på Stortinget, og vil stramme inn på bruk av KI i offentlig sektor.

Politikeren er bekymret for at Tromsø-skandalen bare er toppen av isberget.

– Vi kan ikke drive og behandle skolestruktur med ChatGPT. Det må behandles av mennesker, og ikke datamaskiner som ikke nødvendigvis bruker fakta.

En mann i blå jakke

Rødt-politiker Tobias Drevland Lund frykter det finnes mange tilsvarende saker som KI-skandalen i Tromsø.

Foto: Sindre Thoresen Lønnes / NRK

Drevland Lund mener alle steiner må snus for å unngå en ny, tilsvarende skandale.

– Vi må få mer kontroll på bruken av kunstig intelligens i hele offentlig sektor, fra topp til bunn.

Lund sier det offentlige må være mer kritisk til hvordan KI brukes.

– Det kan ikke være opp til den enkelte ansatte i kommunen om man skal bruke kunstig intelligens i saksbehandling.

Vil ikke stramme inn

Digitaliseringsminister Karianne Tung (Ap) er ikke enig med stortingsrepresentanten fra Rødt om at KI-bruken går for raskt.

Tung og regjeringen har som mål at 80 prosent av offentlig sektor skal ta i bruk kunstig intelligens.

Karianne Tung

Digitaliseringsminister Karianne Tung (Ap)

Foto: William Jobling / NRK

– Vi jobber i hurtigspor med å innføre en ny KI-lov i Norge.

Tung sier at loven skal sørge for trygg og sikker bruk av kunstig intelligens.

– Kunstig intelligens fritar ikke oss fra ansvar. De vanlige lovene og reglene vi har, gjelder også når du tar i bruk kunstig intelligens.

Som å forby bilkjøring

Heller ikke KI-forsker Inga Strümke tror det er nødvendig med noe forbud

Hun mener det blir som å foreslå et forbud mot å kjøre bil fordi noen krasjer.

Likevel mener hun at det er et stort problem at folk tror at å bruke kunstig intelligens er det samme som å bruke språkmodeller som ChatGPT.

– Veldig mange hører at de skal bruke kunstig intelligens, og tenker at det betyr at de skal skaffe seg en ChatGPT-konto. Språkmodeller er en knøttliten del av kunstig intelligens.

Hun mener man først må starte med å finne ut av hvilket problem man skal løse.

– Det problemet kan ikke være at de ikke har brukt kunstig intelligens i dag.

Språkmodeller mener hun at burde brukes til så få ting som mulig.

– Du kan bruke de for å få noe omformulert, oppsummert, eller forklart på en annen måte.

Det gir oss merarbeid at vi må kvalitetssikre all teksten, sier hun.

KI-skandalen i Tromsø

Det var i mars det som kalles Norges første KI-skandale i offentlig sektor skjedde.

Arbeidet med ny skolestruktur i Tromsø er satt på vent etter at det kom fram at kommunen brukte kilder som ikke fantes, og feiltolket forskning på grunn av bruk av KI.

I rapporten var flere skoler foreslått nedlagt, og foreldre og elever var opprørte over forslagene.

Forskere ved lærerutdanningen til UiT Norges arktiske universitet avdekket skandalen.

Årsaken til at de gikk gjennom utredningen var at de stusset på konklusjonene, og at de ville sjekke om kommunen hadde tolket kildene riktig.

Publisert 05.05.2025, kl. 06.07

Read Entire Article