Da LinkedIn nylig varslet at de, fra og med 3. november, vil bruke brukernes data til å trene sine egne KI-modeller, svarte nok mange med å reservere seg.
Jeg antar også at mange vurderer å slette kontoen sin i protest. Det var slike reaksjoner vi så da Meta gjorde det samme for en tid tilbake. Inga Strümke gikk blant annet hardt ut mot avgjørelsen, og sa hun ville forlate Facebook. Mange fulgte etter. Jeg forstår dem. Men jeg mener samtidig at vi trenger å løfte blikket. For spørsmålet er ikke bare hva de gjør med våre data – men også hva som skjer hvis vi velger å ikke bidra.
Jeg vil påstå at vi faktisk bør vurdere å dele. Ikke ukritisk og blindt. Men med en forståelse for at kunstig intelligens, på godt og vondt, formes av det den får servert. Og i dag står den i fare for å bli matet på en diett som kan bli farlig skjev.
Det er relativt lett å se feilinformasjonen når det gjelder markedsføring og salg. Jeg har jobbet med salg og markedsføring i hele mitt aktive yrkesliv, og undervist i markedsføring i flere år. Når jeg ber en språkmodell skrive en god markedsføringstekst, uten gjennomarbeidet prompt, får jeg nesten alltid en kort og konkret salgspitch tilbake. Nettopp fordi språkmodellene beregner det sannsynlig at en markedsføringstekst er det samme som en salgstekst. Men markedsføring er ikke salg. Det er tillitsbygging. Det er historiefortelling. Det er det som skjer før salget. Gjerne over flere uker, måneder eller år. Likevel serverer KI meg salgsretorikk.
Svaret blir feil fordi datagrunnlaget er basert på feil mengde informasjon. Fordi flertallet der ute – på blogger, forum og i dårlige slides – har blandet sammen begrepene i årevis. Og når det blir stort nok, blir det en slags sannhet. I hvert fall for maskinene.
Og det er her vi begynner å bevege oss inn i farlig farvann. For språkmodeller lærer ikke bare av data innen markedsføring. De lærer også om politikk, religion, verdier og menneskesyn. Og hva skjer hvis det er de høylytte ekstremistene som står igjen som eneste datakilde? Hva skjer hvis de kloke, nyanserte, tause majoritetene har valgt å reservere seg, trekke seg tilbake – eller forsvinne helt?
Vi mennesker har alltid lært av hverandre. Av samtaler, erfaringer og eksempler. Nå står vi i en overgang hvor maskinene også skal lære av oss. Da må vi våge å være til stede. Ikke fordi vi heier på overvåkning eller ønsker å gi bort alt vi har, men fordi vi vil sikre at de neste generasjonene av digitale rådgivere, lærere og hjelpetjenester faktisk bygger på noe som minner om virkeligheten. Ikke bare et volum av støy.
De beste språkmodellene kan i dag skrive bedre enn oss. Men spørsmålet fremover blir ikke hvordan de formulerer seg. Det blir hva de velger å si, og det bunner i hvem de har lært det fra.
Så kanskje vi ikke bare skal rope på personvern og slette oss ut av systemet. Kanskje vi heller skal velge hva vi vil gi, og gi det med vilje. For å sikre at KI ikke bare lærer fra dem som snakker høyest, men også fra dem som faktisk har noe klokt å melde.