At samfunnet så raskt har omfavnet KI er urovekkende

4 hours ago 2



GJESTEKOMMENTAR: Kunstig intelligens bør holdes unna alt som dreier seg om sannhet og fakta.

Randabergskolen har utviklet sitt eget KI-system. Foto: Magnus Kolstad
  • Jørg Arne Jørgensen

    Jørg Arne Jørgensen

    Skribent og religionshistoriker

Publisert: Publisert:

For mindre enn 10 minutter siden

iconKommentar

Dette er en kommentar. Kommentarer skrives av Aftenbladets kommentatorer, redaktører og gjestekommentatorer, og gir uttrykk for deres egne meninger og analyser.

Jeg var en av de mange som fikk hakeslepp da Chat GPT ble introdusert på tampen av 2022. At en chatbot kunne forstå vanlig språk – norsk! – og gi så fornuftig respons at den i praksis besto Turingtesten, var et enormt gjennombrudd.

Språket er noe genuint menneskelig, hadde vi trodd, men nå måtte vi innse at ved å slippe løs enorm datakraft på språket, hadde man gjennomskuet kompleksiteten og nyansene og klart å
oversette det til nuller og enere. At disse generative språkmodellene er dypt imponerende, står jeg fremdeles for.

Men likevel er KI på mange måter en stor hype. For det som man litt beskjemmet måtte innrømme fra dag én, at den «hallusinerer», finner opp fakta, er i realiteten et kjempeproblem.

Lar seg ikke fikse

La meg ta et par eksempler. For å slippe å finlese hele gjeldende læreplan for grunnskolen, ba jeg kunstig intelligens finne de setningene der kristendom ble omtalt.

Jeg tenkte at et såpass enkelt og konkret spørsmål må jo være perfekt oppgave for KI. Jeg fikk umiddelbart svar: I samfunnsfag for 7. klasse skulle elevene «forstå kristendommens betydning for norsk historie».

Men nei. En rask sjekk viste at denne setningen ikke finnes, det står ikke et kvekk om kristendommen i læreplanen for samfunnsfag. Til og med på helt enkle, konkrete oppgaver gjør den altså grove feil.

Randabergskolen har utviklet sitt eget KI-system. Jeg testet det blant annet ved å spørre om meg selv (som man jo gjør). Da fikk jeg vite at jeg er en velrenommert astronom (!). Riktignok står det over chatboten at den kan gjøre feil, men det er nettopp det som gjør den i praksis ubrukelig.

Likevel slippes dette «verktøyet» løs på skolebarn. I en tid der regjeringen tar opp kampen mot desinformasjon. Ja, dette er anekdoter, men jeg har mange flere. Det er åpenbart at feil er svært vanlig, noe stadig flere advarer mot.

Prompt my ass

«Det handler bare om å gi det rette promptet», sier forsvarerne. Poenget er at man kan jo ikke vite når promptet er godt nok. KI svarer like bramfritt uansett, det er innebygd i måten den fungerer på.

It’s a feature, not a bug. Det den gjør, er ikke «stort sett korrekt med innslag av hallusinering». Det er i realiteten bare hallusinering, den kan nemlig ikke noe annet, slik forskningsjournalist Adam Becker skriver i sin nye bok «More Everything Forever».

Den spinner bare videre på språklige mønstre hentet fra den digitale verden. Men det ligner såpass på fakta at vi godtar det.

Det minner mest av alt om en middelmådig elev oppe til muntlig, som prøver seg friskt med et sammensurium av de assosiasjonene man har, framført med stor selvtillit i et forsøksvis overbevisende språk. Men blir man avslørt i feil, kryper man som en hund.

Ja, jeg skjønner jo som regel når den tar feil (selv om jeg var på nippet til å godta svaret om kristendom i læreplanen). Men hva med skolebarn og unge med mindre erfaring og bakgrunnskunnskap?

Det er åpenbart at svært mange stoler på KI. Etter at Google nylig begynte med automatisk KI-genererte svar, har klikkene på Googles lenker gått drastisk ned. En ny studie viser at nettsteder risikerer å miste opptil 80 prosent av trafikken fra søkemotorer fordi folk godtar KI-oppsummeringene.

Solide nettsteder blir altså allerede utkonkurrert av KI.

Forskning og utdanning

At samfunnet så raskt har omfavnet KI, er urovekkende, særlig etter at man knapt har maktet å ta noen grep for å stagge de siste tiårs digitale omveltninger som vi knapt aner rekkevidden av.

Kanskje aller mest urovekkende er bruken i skole og utdanning. De eventuelle små fordelene veies på ingen måte opp av de store ulempene som alle som jobber i feltet er blitt akutt klar over.

KI er ikke et «verktøy» som en hammer, det er som å ha en egen (upålitelig) tømrer for hånden. En outsourcing av tenkning og skriving.

En ting er at dette lett misbrukes av skoleelever og studenter. Verre er det hvis forskningen står i fare. At mange forskningsartikler skrives ved hjelp av KI, er åpenbart. Og Khrono skriver den 6. august om forskere som er avslørt i å legge inn skjulte prompts i forskningsartiklene sine, for å få KI til å gi gode fagfellevurderinger.

Frykten for perrongen

Ja, jeg innser at KI basert på maskinlæring er et verdensendrende teknologisk gjennombrudd. Det er åpenbart at det har viktige bruksområder. Og en del av meg er oppriktig imponert og følger den akselererende utviklingen med en slags skrekkblandet fryd.

Men at den så kjapt er rullet ut i allmennheten at vi har en digitaliseringsminister som fremstiller KI som et tog vi må hoppe på før vi blir stående igjen på perrongen, og vil at 80 prosent av offentlig sektor skal ha tatt i bruk KI i løpet av inneværende år, er urovekkende.

Vi husker at Tromsø kommune brukte KI til å utarbeide en rapport med forslag til ny skolestruktur, der en rekke kilder bare ble funnet opp. Akkurat dette tilfellet ble avslørt, men hvor mye er gått under radaren? Hva blir konsekvensene av hallusinering innen politi, rettsvesen, helsevesen, forskning – og journalistikk for den saks skyld?

Vi bør være svært varsomme med å bruke KI på det som har med offentlig forvaltning, skole og utdanning å gjøre – alt som krever nøyaktighet og pinlig omgang med fakta.

Som Lena Lindgren skriver i et essay i Morgenbladet: I stedet for å kaste oss på et (ekstremt kraft- og ressursslukende) løpsk tog, er det kanskje tryggere på perrongen en stund til.

For den hurtige og hodeløse utrullingen av KI kan fort vise seg å ligne en togkollisjon i sakte fart.

Publisert:

Publisert: 9. august 2025 09:42

Read Entire Article