Har du gått på Facebook i det siste? Om du har det, så har du sikkert lagt merke til den enorme mengda av KI-innlegg der.
Dette er ofte profilar automatisert av ein person, som gjer ingenting anna enn å legge ut KI-bilete, med KI-tekst, og så får han svar av mange KI-botar i kommentarane.
Desse innlegga kan vere litt morosame å sjå som ein tilskodar frå sidelinja, og i det store ville ein kanskje ha sagt at slike kontoar ikkje er så veldig farlege heller. Men dette er berre toppen av isfjellet.
Har du høyrt om Veo 3? Det er ein ny generativ KI-modell av Google, som ikkje berre lagar bilete, men òg ekstremt realistiske videoar. På berre to minutt kan ein person gå inn, og lage ein nyheitsvideo som dei aller fleste nordmenn nok hadde trudd var ekte. Du trur kanskje at du hadde sett forskjellen, men trur du at alle andre i Norge òg hadde det?
Isolert sett kan ein framleis kanskje tru at det «berre» er bruken som er farleg her, og ikkje KI-en sjølv, men kva skjer om mannen bak KI bestemmer seg for å misbruke modellen sin?
Elon Musk sin «Grok»-modell er akkurat eit slikt eksempel. I byrjinga av månaden, då Sør-Afrika og boarane plutseleg var eit stort tema i amerikansk politikk, begynte KI-modellen til Musk å tilsynelatande innlemme boar-temaet i dei fleste samtaler, heilt utan grunn. Eit spørsmål på «lag dette om til ein haiku» blir møtt av ein paragraf på nesten 100 ord, som forklarer at eit boar-folkemord er ekte. Eit spørsmål om «kor er dette» blir møtt med ein endå større tekst som igjen omtaler boarane og folkemord.
Korfor dette skjedde har aldri konkret blitt forklart, men det verkar jo ganske klart at Musk sannsynlegvis ga beskjed om å tvinge KI-en hans med «folkeopplysning» om eit tema som han personleg hadde sterke følelsar for. I dette tilfellet fekk vi med oss partiskheita, fordi implementeringa var så bastant og ekstrem. Kva gjer vi når metodane blir mindre tydeleg?
Men til og med når hensikta ikkje er politisk, og «berre» handlar om meir banale ting som «user retention», begynner det å bli farleg.
I slutten av april kom ChatGPT ut med ein ny modell (GPT-4o) som folk fort la merke til plutseleg blei ein ekstrem underdannig smiskar. Dei som laga KI-en, fann nemleg ut at dersom KI-en er veldig snill med folk, og fortel dei akkurat det dei vil høyre, så bruker folk KI-en både meir, og over lengre tid. Ein logisk konklusjon å kome fram til, men ein veldig farleg ein. For plutseleg begynte KI-en å vere så underdannig at han begynte å oppmuntre schizofrene folk å slutte å ta medisinen sin, og at psykosen var faktisk ekte.
Versjonen blei så, etter sterk kritikk, dratt tilbake. Men kan vi stole på at ingen andre firma vil implementere liknande ting i framtida?
Det er viktig å hugse på at KI er inga magisk løysing for samfunnet vårt, men berre eit verktøy som blir laga av menneske, og brukt av menneske. Eit verktøy med akkurat same feil og problem som oss, men tross alt eit verktøy som Norge klart ikkje er førebudd på.
Kva gjer vi når KI plutseleg begynner å fremme feilinformasjon om norske tema? Om KI oppfordrar nordmenn til å gjere ting som er farleg for helsa? Når ei gruppe med folk bruker KI for å lage falskinformasjon om nyheiter og politikken her i landet for å spreie eigen agenda?
Vil du bu i ei verd der slike ting er mogleg? Ei verd der gigantiske konsern har moglegheit til å kontrollere informasjonen vi får i oss? Ei verd der du aldri vil vite om det du ser framfor deg faktisk er ekte eller falskt? Eg veit at eg ikkje vil det, og eg skal gjere alt eg kan for å forhindre at vi kjem til å bu i ei slik verd.
Vi må regulere bruken av KI, vi må vere førebudd på slike scenario, og vi må gjere dette før det er for seint.
Vi må ta makta frå dei store konserna, og gi den tilbake til folket!