Hvem kontrollerer sannheten i en AI-verden?

2 hours ago 2


Gründer og påvirker Yrja Oftedahl. Foto: Øyvind Ganesh Eknes

Fra redaktørmakt til datamerking – hvem definerer virkeligheten nå?

  • Yrja Oftedahl

    Yrja Oftedahl

    Grunder og påvirker

Publisert: Publisert:

For mindre enn 10 minutter siden

Dette er en kronikk

Kronikken gir uttrykk for skribentens holdning.

Før var det redaktørene som satt med nøkkelen til offentligheten. De avgjorde hvilke historier som ble publisert, hvilke stemmer som slapp til og indirekte: Hva som ble oppfattet som sant.

Så kom sosiale medier og pulveriserte det hele. Plutselig kunne alle publisere.

Nå står vi overfor et enda større maktskifte:

Fremover er det ikke lenger mennesker som definerer virkeligheten – det er kunstig intelligens.

Og grensene for hva AI oppfatter som sant, formes ikke av fakta alene, men av hvordan dataene den trenes på er merket.

Alexandr Wang, CEO i Scale AI. Foto: Gonzalo Fuentes / Reuters / NTB

AI lærer ikke av seg selv. Den trenes på enorme mengder tekst, bilde og lyd. Men før algoritmen i det hele tatt kan begynne å "forstå", må noen, som oftest mennesker, fortelle den hva den ser, hva som skjer, og hva det betyr. Det kalles datamerking.

«If reality is data, whoever controls the data labeling systems controls the truth», sier Alexandr Wang, gründer av Scale AI.

Wangs selskap, Scale AI, er blant de viktigste leverandørene av datamerkede treningssett til aktører som OpenAI og Meta. I sommer inngikk de en avtale med Meta verdt 14,3 milliarder dollar for å lede og levere datagrunnlaget til deres AI-satsing.

Datasett er vår tids redaksjonelle linje, men uten presseetikk, ansvar eller rett til tilsvar.

Datamerkingen utføres ofte av lavtlønnede arbeidere i India, Kenya og Ukraina. De følger retningslinjer de ikke selv har vært med på å forme, og uten at offentligheten har innsyn i hva som merkes som relevant, akseptabelt eller sant.

Og det vi kaller «sant», avgjør hvordan AI gir råd om helse, juice og politikk. Likevel finnes det ingen regler for hvordan data skal merkes – hverken i Norge eller internasjonalt. Det meste styres av private selskaper som Scale AI, Sama og andre.

For få år siden snakket «alle» om skjevhet (bias) i AI. Så kom språkmodellene og samtalen stilnet. Fokus skiftet fra hvordan systemene lærer – til hva de produserer. Men AI trenes fortsatt.

I stedet for å diskutere de dypere mekanismene, snakker politikere og medier nå om output:

  • Vi må bekjempe desinformasjon
  • Vi må merke AI-generert innhold

Det er viktig. Men hva med inputen?

Hvordan lærte AI-en å komme frem til dette utfallet?

Hvem bestemte hva som var «for ekstremt» til å bli med i datasettet? Hvilke ytringer ble filtrert bort? Hvilke verdier og kulturelle faktorer ble kodet inn som standard?

Ta den kinesiske språkmodellen DeepSeek: Den nekter å svare på spørsmål om menneskerettigheter, president Xi, Taiwan, Tibet og Tiananmen. Ikke fordi den mangler informasjon, men fordi den er trent til å unngå det.

AI kan trenes til å forstå verden, eller til å skjule den.

En annen trussel er poisoned data: Målrettet manipulering av datamerking. AI brukes allerede i forsvarssektoren til å identifisere trusler i sanntid. Om treningsdataene blir forgiftet til å feiltolke visse farger, klær eller kroppsspråk som «farlig», kan det få livstruende konsekvenser.

Dette handler ikke bare om teknikk. Det handler om informasjonsmakt. Om virkelighetsarkitektur. Om fremtidens demokrati. Og i ytterste konsekvens: informasjonskrig pakket inn i maskinlæring.

Så hva gjør vi?

I pressen har vi Vær varsom-plakaten. I forskningen: fagfellevurdering. I retten: beviskrav. Men i AI-trening? Ingen standarder.

Kanskje er det på tide å diskutere:

  • Etiske retningslinjer for datamerking?
  • Datasuverenitet som samfunnsoppdrag?
    Utvikle og sikre kontroll over egne datasett, på samme måte som vi beskytter strøm og vann.
  • Offentlige treningsbibliotek?
    Et slags Wikipedia for AI – åpent, gjennomsiktig og demokratisk.
  • Verifisering via blokkjede?
    For å signere innhold og styrke medienes troverdighet.
  • Tydelig flagging av syntetiske data?
    AI bør oppgi når den er trent på tidligere AI-generert materiale.

Vi trenger ikke bare mer data. Vi trenger bedre data. Gjennomsiktig, rettferdig og riktig merket. For det er ikke først når AI svarer, men når den læres opp, at sannheten formes.

Og når grunnlaget først er satt er det for sent å rette opp i skjevheter. Man kan ikke klikke «rediger» på en ferdigtrent AI. Uten kontroll over dataene som former virkeligheten vår, står ikke demokratiet på egne bein, men på andres servere.

«In the age of AI, ground truth is not discovered – it’s designed», sier Alexandr Wang.

Read Entire Article