Når alle eier KI, er det ingen som tar ansvar

1 day ago 3



Norsk næringsliv innfører KI raskt. Men uten tydelig ledelse, klare grenser og et felles språk for ansvar, er det vanskelig å skape verdi og lett å miste kontroll.

Mange virksomheter snakker om ansvarlig KI, men få har blitt enige om hva ansvar faktisk innebærer i praksis, skriver Åsne Holtklimpen. Foto: Crayon Group

Et av de største problemene jeg ser ved innføring av KI i virksomheter, er ikke teknologien. Det er fraværet av en felles forståelse av ansvar og eierskap.

Dette blir stadig tydeligere nå som KI beveger seg fra å være noe virksomheter tester i pilot, til å bli en del av helt vanlige arbeidsprosesser. Når teknologien ikke lenger er et eksperiment, men et hverdagsverktøy, blir uklart ansvar ikke bare upraktisk, det blir risikabelt.

KI blir ofte «alles prosjekt».

IT gjør jobben sin og setter opp teknologien. Ledelsen oppfordrer til innovasjon. Ansatte tester litt på egen hånd for å jobbe mer  effektivt. Juridisk kobles på først når noe allerede har gått galt. Resultatet er uklare forventninger, uforutsigbar praksis og det som ofte omtales som Shadow AI.

Når ansatte ikke vet hva som er lov, trygt eller ønsket, gjør de det samme som i andre uklare situasjoner: De prøver seg frem. I stillhet – ofte uten å vite når de trår feil.

Når alle eier KI, er det ingen som tar ansvar.

Dette er et mønster som går igjen på tvers av bransjer og organisasjoner. Nye KI-verktøy rulles ut med gode intensjoner, men uten tydelige rammer. Ingenting er eksplisitt forbudt, men heller ikke avklart. Etter hvert oppdager man at KI er brukt på informasjon som burde vært håndtert annerledes. Reaksjonen er ofte panikk. Nye regler innføres, tilgang strammes inn, og samtalen stopper. Bruken forsvinner ikke. Den blir bare mindre synlig.

KI har ikke gjort noe galt. Den har gjort akkurat det virksomheten har lagt til rette for. KI skaper ikke nye problemer, men gjør eksisterende svakheter tydeligere.

Har organisasjonen rot i informasjonen, får den rot i svarene. Har den uklare roller, pulveriseres ansvar. Mangler det eierskap til data, blir det uklart hvem som faktisk har kontroll. Når dette blir synlig gjennom KI, omtales det ofte som et teknologisk problem. I realiteten er det et organisatorisk og ledelsesmessig problem.

Derfor er det også feil å plassere ansvaret hos brukerne. Shadow AI er sjelden et uttrykk for uansvarlige ansatte. Det er et resultat av utydelig ledelse. Forbud uten forklaring skaper ikke trygg bruk. De skaper stillhet. Og stillhet er en dårlig strategi når ny teknologi tas i bruk i stor skala.

Mange virksomheter snakker om ansvarlig KI, men få har blitt enige om hva ansvar faktisk innebærer i praksis. IT snakker om sikkerhet. Juridisk snakker om risiko. Ledelsen snakker om verdiskaping. Ansatte snakker om effektivitet i arbeidshverdagen. Alle perspektivene er relevante. Problemet oppstår når de ikke samordnes.

Uten et felles språk for hva som er sensitiv informasjon, hva KI kan brukes til og ikke brukes til, og hvem som tar beslutninger når noe er uklart, blir KI et vakuumprosjekt. Og vakuum fylles alltid, men sjelden på en måte man er komfortabel med i ettertid.

Alt dette peker mot det samme grunnproblemet: mangel på tydelig eierskap og ledelse. Det handler ikke først og fremst om flere dokumenter eller strengere kontrollmekanismer, men om tydelig eierskap, klare forventninger og ledere som tar ansvar før teknologien tas i bruk, ikke etter at konsekvensene har materialisert seg.

KI krever modenhet. Ikke fordi teknologien i seg selv er farlig, men fordi konsekvensene av manglende struktur og ansvar blir større enn før.

Når ansvar faktisk plasseres, skjer det noe. Bruken blir tryggere. Samtalene blir mer åpne. Læringen blir felles. Da kan KI bli det de fleste håper på: et verktøy som forsterker god praksis, i stedet for å avsløre mangelen på den.

Når alle eier KI, er det ingen som tar ansvar. Men når ansvar faktisk plasseres, blir KI håndterbart, nyttig og verdiskapende.

KI trenger ikke mer fart. Den trenger retning. Og den retningen starter med ansvar.

Forfatteren har over 20 års erfaring som IT-konsulent og jobber med sikker og ansvarlig bruk av KI og samhandlingsløsninger i Microsoft 365. Holtklimpen er en MCT (Microsoft Certified Trainer) og ble i 2022 kåret til en av Norges 50 fremste tech-kvinner av Abelia og ODA-nettverket.

Read Entire Article