– Jeg vet selvfølgelig ikke hvordan de har jobbet internt i Tromsø kommune, men når man bruker kunstig intelligens, sånn som ChatGPT, så har den en tendens til å finne på kilder, sier professor i kunstig intelligens ved universitet i Agder, Morten Goodwin.
– Vi kaller det for hallusinering.
Goodwin forklarer at når en KI-språkmodell ikke finner en kilde som passer så finner den opp kilder som angivelig kan være riktig.
– Det er et vanlig problem med ChatGPT og flere andre KI-språkmodeller, sier han.
I mars publiserte Tromsø kommune et dokument på 120 sider som vurderer konsekvensene av å slå sammen flere skoler og barnehager.
Torsdag ble det oppdaget at mange av kildene i dokumentet ikke finnes.
Av 18 oppførte kilder i dokumentet, kan bare syv av dem spores opp.
– Dette er pinlig, sier kommunedirektør i Tromsø kommune, Stig Tore Johnsen.
Han presiserer at det er mennesker som har skrevet kunnskapsgrunnlaget, men at det er brukt kunstig intelligens som hjelpemiddel.
– Vi kommer til å granske dette, sier kommunedirektøren.
Kommunedirektør i Tromsø kommune, Stig Tore Johnsen, beklager at dette har skjedd. Nå stanses høringsprosessen om ny skolestruktur.
Foto: Christian Kråkenes / NRKGoodwin mener feilene i rapporten fra kommunen er et tydelig tegn på at KI er brukt.
– Ikke bare som en sparringpartner, eller som en språkvask, men til det faktiske innholdet i dokumentet, sier han.
– Det ville for eksempel vært juks på en masteroppgave.
Men feilene kunne i stor grad vært unngått, mener KI-professoren.
– Trenger ikke veldig mye erfaring,
Goodwin trekker frem at «hallusinerings-problemet» har blitt mindre i de nyere utgavene av språkmodellene.
– Det betyr antakeligvis at Tromsø kommune ikke har brukt den nyeste språkmodellen, men kanskje en litt eldre en, sier han.
Likevel mener han at dersom man har litt erfaring og kunnskap med hvordan man bruker de litt eldre språkmodellene, kan man redusere antall feil.
– Man kan aldri være helt sikker på at de ikke finner falske kilder. Men viss man har litt erfaring med hvordan man skriver instrukser til ChatGPT, så lærer man seg hvordan man i stor grad kan unngå disse falske kildene.
Goodwin kommer med eksempel på hva Tromsø kommune kunne – eller burde sagt – til KI-verktøyer de brukte.
– Nå skal vi skrive en veldig viktig rapport skolestruktur, og det er helt essensielt at alle kilder stemmer. Hvis man sier det så blir den litt mer seriøs, og da kommer det litt mer sannferdige kilder sier han.
– Så man trenger ikke veldig mye erfaring, men litt erfaring må man ha for å få kildene riktig.
Fylkesleder i Elevorganisasjon i Troms, Christoffer Molaug Winkler, sier elevene i Tromsø reagerer kraftig på avsløringene.
Foto: Simen Wingstad/NRK– Skammelig og flaut
Fylkesleder i Elevorganisasjon i Troms, Christoffer Molaug Winkler, sier elevene i Tromsø reagerer kraftig på feilene som har blitt avdekket i rapporten
– Jeg synes det er skammelig og flaut av Tromsø kommune å gjøre dette, sier han.
– Det er snakk om oss elever sin framtid. Da kan man ikke tulle med fakta og ta en vurdering som er basert på ikke-eksisterende fakta. Det blir for dumt.
Han trekker frem at enkelte elever blir møtt med forbud mot KI og at flere er redde for at elever jukser.
– Kunstig intelligens bør få en større plass i skolen slik at vi lærer å bruke det på et kritisk vis – noe de kanskje ikke gjør i Tromsø kommune, sier Winkler.
Anbefaler kurs for kommunen
Førsteamanuensis ved Institutt for informatikk ved Universitetet i Oslo, Henrik Skaug Sætra, er ikke overrasket over avsløringen i Tromsø.
– Vi ser det relativt ofte nå, både i undervisningssammenheng, akademisk samarbeid, men også andre steder som her.
– Folk bruker store språkmodeller til å gjøre en del arbeid som går på å samle og sammenstille kilder eller finne referanser til ting de har skrevet – men de vet ikke helt hva modellene kan og ikke kan gjøre, sier han.
– Hva er din oppfordring til kommunen?
– Kjør noen kurs om hva generativ KI og store språkmodeller kan og ikke kan gjøre, og ha veldig klare retningslinjer for hva man kan og ikke kan bruke det til, sier han.
Førsteamanuensis ved Institutt for informatikk ved Universitetet i Oslo, Henrik Skaug Sætra, anbefaler kommunen å kjøre KI-kurs.
Foto: ISMAIL BURAK AKKAN / NRKSkaug Sætra påker at det er enkelte ting man ikke bør bruke KI-modeller til, uten at man kjenner verktøyene godt.
– Det gjelder for eksempel informasjonsinnhenting, analyse av data, skriving av rapporter, og forberedelse av saksgrunnlag, sier han.
– Du føler du er litt misbrukt
En av referansene i dokumentet fra Tromsø kommune er en bok med tittelen «Kvalitet i skolen: Læring, trivsel og relasjoner».
Professor i pedagogikk ved Universitetet i Innlandet, Thomas Nordahl, er blant dem som har «skrevet» boken. En bok som ikke eksisterer.
– Det er ganske merkelig å bli sitert fra ei bok jeg ikke har skrevet. Det har jeg aldri opplevd før, sier han, før han fortsetter:
– Du føler du er litt misbrukt, for du blir tillagt oppfatninger og forskningsbasert kunnskap som du ikke kan stå inne for.
Professor i pedagogikk ved Universitetet i Innlandet, Thomas Nordahl, sier han føler seg litt misbrukt.
Foto: Anders Fehn / NRKNordahl mener det er veldig problematisk, og synes det er utfordrende og vanskelig at kunnskapsgrunnlag for en politisk beslutning blir utviklet på et grunnlag som faktisk ikke finnes.
– Det skaper ikke akkurat tillit til demokratiet vårt, sier han.
I 2022 skrev Nordahl rapporten «Skolestørrelse og sammenhenger med elevenes trivsel og læring». En rapport som ikke er blitt brukt av kommunen i deres kunnskapsgrunnlag.
– Det er litt merkelig at de ikke anvender det jeg har gjort, men anvender noe helt annet, sier Nordahl.
Dersom kommunen ønsker det, sier Nordahl at han mer enn gjerne tar en samtale med dem om skolestørrelse og skolestruktur.
Publisert 27.03.2025, kl. 20.00