Når søkegiganten kaller ukrainere for russere og feilaktig viser til Store norske leksikon som kilde, er det grunn til alvorlig bekymring.
Publisert: 20.11.2025 05:44
I mai lanserte Google kunstig intelligens-sammendrag (KI-sammendrag), som vises over søkeresultatene. Tekstene er skrevet av en språkmodell og inneholder ofte feil. Googles KI-sammendrag har enorm innvirkning på hvordan vi både finner og forstår kunnskap.
I Store norske leksikon (SNL) bruker fagfolk mye tid på å vurdere formuleringer og nyanser. I vår nåværende artikkel om forfatteren Nikolaj Gogol beskrives han som en «russiskspråklig forfatter av ukrainsk opphav».
Også i Googles søkeresultater er tekstene nå generert av KI, og her forenkles av og til beskrivelsen til «russisk forfatter». Det er ulike meninger om hans nasjonalitet, men at Google forvrenger slike detaljer, er alvorlig, særlig i lys av krigen i Ukraina.
Store norske leksikon er landets største nettsted for forskningsbasert kunnskapsformidling. Våre artikler er skrevet av mennesker, og vi tillater ikke tekst generert av KI. Vi blir oppriktig bekymret for norsk kunnskapsberedskap når Google finner opp tekst, oppgir oss som kilde og dermed utnytter vår kredibilitet.
Språkmodeller, ikke kunnskapsmodeller
Et menneske som tvinges til å svare på noe det ikke vet, tyr til gjetning eller løgn. Generativ KI, som den som finnes i språkmodellene til ChatGPT, Copilot eller Google AI, fungerer litt på samme måte. Forskjellen er at den ikke selv vet når den lyver.
Dette gjelder selv når datagrunnlaget for KI-modellene er godt. En stor gjennomgang av språkmodeller viste for eksempel at 45 prosent av KI-svarene i undersøkelsen inneholdt minst én betydelig feil.
Forskere ved OpenAI, som står bak ChatGPT, ga også nylig ut en rapport som viste at selv med svært godt datagrunnlag vil språkmodeller alltid kunne dikte opp resultater. Teknologien som ligger bak KI-tjenestene, gjør at de aldri vil kunne bli helt sannferdige. De er blitt bedre, men vil alltid ha et litt omtrentlig forhold til fakta. Vi må derfor lese kilder selv.
Falske nettsider og kildekritikk
Men også dette er blitt mer krevende. Er man for eksempel plaget av gallestein, foreslo Google i vårt tilfelle en artikkel på Helseforskning.no. Nettstedet ser troverdig ut, men forfatterens bilde er KI-generert, og «Om oss»-siden er et virvar av engelske floskler.
Falske helsesider og «forskningsnettsteder» masseproduseres ved hjelp av KI – ofte for å tjene annonsepenger eller spre propaganda. Heldigvis finnes redaktørstyrte nettsider som tilrettelegger for kildekritikk. Wikipedia skrives anonymt, men har kildehenvisninger. Lesere kan selv vurdere disse.
All tekst i SNL er gjennomgått av navngitte fagfolk og redaktører. Vi tillater ingen anonyme bidragsytere, og alle kan se endringene som er gjort, av hvem og når.
Tillit til kunnskap?
KI er et godt redskap om det brukes rett. KI-søk er effektivt for å finne kilder, men da må disse faktisk brukes. Vi i SNL bruker gjerne KI for å evaluere språk og disposisjoner, eller for å idémyldre. Men får man servert en ferdig tekst, er det lett å overse feil.
Beslutningstagere, samfunnsledere og redaktørstyrte medier må sette seg bedre inn i hvordan teknologien faktisk fungerer, og ikke se seg blind på lovord om effektivisering. Flere kunnskapskilder bør erklære at de er fri for KI-generert tekst.
Skal vi bevare tilliten til kunnskap, må vi vite hvem som står bak den. Det er ikke bare en teknologisk utfordring – det er et demokratisk ansvar.

2 hours ago
1












English (US)