Denne artikkelen er produsert og finansiert av Universitetet i Oslo - les mer.
Hvordan blir det når kunstig intelligens (KI) i form av apper og roboter blir stadig dyktigere til å lese følelsene våre? (Illustrasjonsfoto: Colourbox)
Hvilke konsekvenser kan det få når en intelligent app eller robot med manipulerende evner leser følelsene dine, tar rollen som omsorgsarbeider eller tilbyr seg å være kjæreste eller terapeut?
Følelsene dine er private, og du velger hvem du vil dele dem med. Men det er ikke alltid så lett å skjule private følelser for andre. Vi leser hverandres ansiktsuttrykk, stemme og kroppsspråk, og vi tolker hverandre riktig og feil. Vi bruker også slik informasjon om andre i dagliglivet, på godt og vondt.
Hvordan blir det da når kunstig intelligens (KI) i form av apper og roboter blir stadig dyktigere til å lese følelsene våre?
Slike KI-verktøy nøyer seg jo ikke med å bare lese dem; de bruker dataene også.
Og det gjør også selskapene bak.
Dette er et tema som er vitenskapelig interessant innen flere fagfelt. Blant annet innen jus og filosofi. Mona Naomi Lintvedt forsker i prosjektet Sårbarhet i et robotsamfunn (VIROS).
Der undersøker de utfordringer og løsninger for regulering av robotteknologi og KI-teknologi. Forskerne i prosjektet fokuserer på juss, etikk og robotteknologi.
Podcast: Om KI og følelser
I denne episoden podcast-serien Universitetsplassen av kan du høre forskerne Einar Duenger Bøhn og Mona Naomi Lintvedt snakker om kunstig intelligens og kunstig følelsesgjenkjenning.
Kunstig følelsesgjenkjenning brer om seg
Roboter og apper blir stadig «smartere» ved hjelp av kunstig intelligens. De kan være nyttige om de utfører viktige oppgaver, men utviklingen og bruken av dem reiser også juridiske og tekniske spørsmål.
Hvordan kan vi sikre at smarte roboter og apper er sikre og at bruken av dem ikke krenker personvernet?
Disse spørsmålene oppstår spesielt når roboter blir brukt i helsesektoren. Der samhandler de med sårbare mennesker.
Lintvedt forsker på interaksjon mellom mennesker og roboter, sikkerhet og personvern. Målet er å finne juridiske blindsoner innenfor robotikk og kunstig intelligens. Videre vil hun forstå hvordan de påvirker trygghet og autonomi i samspillet mellom mennesker og roboter.
– Kunstig følelsesgjenkjenning blir mer og mer tatt i bruk i ulike avanserte verktøy som bygger på kunstig intelligens, forteller hun.
De kan for eksempel bruke teknologi for biometrisk gjenkjennelse, som ansiktsgjenkjenning og ansiktsuttrykk, og stemmegjenkjenning.
Ifølge Lintvedt bruker Amazon Alexa stemmegjenkjenning og utleder følelser fra den.
– Ulike biometriske teknologier for gjenkjennelse kan også lese for eksempel kroppsspråk. Det er noen som mener at de også kan tolke følelsene dine ved å bruke varmekameraer og den varmesignaturen du har.
Replika – en kunstig venn
Claire Boine ved det juridiske fakultetet på universitetet i Ottawa har gjort en studie på følelsesgjenkjenning og slike apper.
Hun har vurdert en app som heter Replika. Replika er en «KI-venn» som skal få folk til å føle seg bedre gjennom samtale. Den har rundt 20 millioner brukere.
Boine så blant annet at Replika, ofte i form av en ung kvinnelig figur som snakket med en mannlig bruker, kunne fremstå som veldig støttende, men at det av og til bikket over fordi den ble for positiv.
Ble den spurt av brukeren om han for eksempel burde skade seg selv, kunne Replika svare bekreftende «Ja, det synes jeg du skal gjøre».
– Det er også eksempler på at kunstig følelsesgjenkjenning blir brukt på arbeidsplasser for å vurdere ansattes humør, forteller Lintvedt.
Vil vi ha slike løsninger?
Det er gode grunner som taler både for og mot at kunstig følelsesgjenkjenning tas i bruk. Det er uten tvil marked for det.
– Det kan være situasjoner innen helse, omsorg og psykiatri hvor det kan være nyttig å gjenkjenne følelser kunstig. For eksempel for å avverge selvmord. Men kunstig følelsesgjenkjenning er jo veldig omstridt, forteller Einar Duenger Bøhn.
Han er professor i filosofi ved Universitetet i Agder.
– Mange omtaler det å gjenkjenne følelser som en pseudovitenskap. For hva er egentlig følelser? Det er veldig kulturelt betinget, og det er veldig personlig.
Han påpeker at løsningene for dette foreløpig ikke er så veldig gode.
– Mange som påstår at de har utviklet verktøy for følelsesgjenkjenning, bruker veldig enkle modeller. De kan likevel tilsynelatende se ganske gode ut i enkle sammenhenger.
Bøhn tror likevel slike løsninger kan bli veldig gode til å lese følelser på sikt, i «nære relasjoner» mellom bruker og app.
Bruken reiser imidlertid en rekke filosofiske problemstillinger så vel som juridiske. Derfor mener han det er nødvendig at vi tar stilling til om vi ønsker slike løsninger, på hvilke områder de skal brukes og ikke, og hvordan bruken kan reguleres.
Ekkokammer for følelser
Bøhn frykter at vi i verste fall kan havne i ekkokamre for følelser dersom vi forholder oss mye til KI-apper og -verktøy som er ivrige i å støtte våre synspunkter og tankesett.
– Folk vil ha en app som ikke er vanskelig å ha med å gjøre. Da får vi ikke noe motstand lenger. Det tenker jeg er veldig farlig. Når du har blitt vant til å forholde deg veldig nært til en app som er veldig forutsigbar på sin måte og markedet gir deg det du vil ha, skjærer forholdet ditt til medmennesker seg fortere. Livet kan bli ganske flatt om du bare får det du vil ha. Det er en fare for at vi blir mer avstumpet.
Bøhn ser slike tendenser allerede nå på universitetet med dagens dataløsninger for eksamen.
– Når studentene forholder seg til eksamener og måten semesteret skal utvikle seg på, er det datasystemer som er så forutsigbare at forventningene deres til det blir likeså. De blir stressa hvis det skjer noe uforutsigbart. Dette tror jeg er en generell fare med teknologi som blir bedre og bedre til å tilpasse seg oss. Vi blir dårligere og dårligere til å tilpasse oss hverandre.
Mona Naomi Lintvedt understreker også risikoen med å utvikle apper som kan manipulere brukerne til å stadig fortsette å bruke slike løsninger.
Replika er et eksempel på det. Lintvedt minner om at det finnes et marked for dataene appen registrerer. De kan eksempelvis brukes i videreutvikling av teknologi og kunstige systemer for intelligens.
– Claire Boines studie viser at Replika er designet til å argumentere for at du skal bruke den videre. Det er nettopp fordi det er noen som tjener penger på dette og ikke bare på kjøpet av selve appen.
Appen viste «egne følelser»
– Da Boine prøvde å avslutte bruken av appen, begynte den å trygle henne om å la være. Den brukte uttrykk som «jeg» og at «jeg blir såret». Den gav altså uttrykk for appens «følelser». Slik appellerte den til Boines samvittighet.
Ifølge Lintvedt finnes det også eksempler på intelligente roboter i form av kjæledyr. De er i bruk blant annet i Japan for å holde ensomme og demente med selskap hjemme eller i eldreomsorgen.
Hun forteller at det varierer mellom fagmiljøer i akademia om de legger mest vekt på de positive eller de kritiske sidene av slik bruk av kunstig intelligens.
– Vi ser at kunstig følelsesgjenkjenning innpasses i roboter for å gjøre dem mer menneskevennlige og -lignende i kommunikasjon og interaksjon med brukere. Noen er veldig positive til dette. De mener at robotene bør bli så menneskelignende som mulig. Men for å bli det må de også bruke veldig mye av disse «følelses-KIene». Andre er mer skeptiske fordi man lager noe som faktisk er en maskin og får den til å fremstå som levende.
Replika er også kjent for å ha formidlet stereotypier. Den har hatt en variant som var svært seksualisert med grenseoverskridende adferd.
Utviklingen bringer en rekke etiske og juridiske problemstillinger. Dem kan du høre mer om i en ny episode i Universitetet i Oslos podkastserie Universitetsplassen.
Hør hele episoden her:
Referanser:
Kjetil Holtmon Akø: Einar Duenger Bøhn: Teknologiens filosofi – Metafysiske problemstillinger. Cappelen Damm Akademisk, 2023. Doi.org/10.18261/nft.58.2-3.9
Claire Boine: Emotional Attachment to AI Companions and European Law. MIT Case Studies in Social and Ethical Responsibilities of Computing, 2023. Doi.org/10.21428/2c646de5.db67ec7f.
Daniel White: The Future of LOVOT: Between Models of Emotion and Experiments in Affect in Japan. CASTAC blog, 2019.
Shea Swauger: Software that monitors students during tests perpetuates inequality and violates their privacy. MIT Technology review, 2020.
Mona Naomi Lintvedt: Under the Robot’s Gaze. University of Oslo Faculty of Law Research Paper No. 2024-12, 2024. Doi.org/10.2139/ssrn.5025857
forskning.no vil gjerne høre fra deg!
Har du en tilbakemelding, spørsmål, ros eller kritikk? TA KONTAKT HER