Kunstig intelligens (KI) har blitt et uvurderlig verktøy i hverdagen for de fleste. Den hjelper oss med alt fra trening og matplaner til effektivisering av arbeid.
Men ett felt skiller seg ut som særlig sårbart: psykisk helse.
Jeg har ikke tall på hvor mange TikToks jeg har fått opp, hvor unge diskuterer bruk av ChatGPT som psykolog. Flere og flere tyr til KI som en form for «psykolog» i møte med livets utfordringer. Det er en trend jeg tror har kommet for å bli – og det bekymrer meg.
I en undersøkelse gjennomført av Datatilsynet liker 24 prosent av unge i alderen 18 til 29 år ideen om en KI-psykolog. 45 prosent i aldersgruppen mener at KI kan fungere som en samtalepartner for ensomme.
I et samfunn preget av lange ventelister for å få psykisk helsehjelp, spesielt på lavterskelnivå, er det ingen overraskelse at KI fremstår som et fristende alternativ. Det er raskt tilgjengelig, gratis og effektivt. Ideelt, sant?
Vel, ikke helt.
Det er lett å la seg friste av noe som alltid svarer, alltid «stiller opp» – og bare er et tastetrykk unna. Men det er for godt til å være sant.
Hvis vi begynner å outsource det mest menneskelige – å lytte, trøste og forstå – til maskiner, hva mister vi da?
Vi er mennesker, og sosiale flokkdyr i bunn og grunn. Vi er avhengige av hverandre, også gjennom tøffe tider. Psykisk helse handler ikke om raske løsninger eller effektivisering.
Det er en reise som for mange krever kontinuerlig arbeid og støtte.
I tillegg til det manglende medmenneskelige aspektet, reiser bruken av KI i terapi en rekke etiske spørsmål. KI er, til syvende og sist, et produkt utviklet av mennesker. Og som alle mennesker – og alt vi skaper – kan det gjøre feil.
For kort tid siden ble det kjent at OpenAI midlertidig trakk tilbake oppdateringen av sin språkmodell GPT-4o.
Årsaken? Den var for ettergivende overfor brukeren, og kunne blant annet gi næring til negative følelser, bekrefte tvil, oppmuntre til impulsive handlinger, og i verste fall forsterke destruktive tanker.
Det kan altså være direkte farlig å lene seg på KI for å bedre sin psykiske helse. En språkmodell kan ikke kjenne deg som et menneske eller skape relasjoner og hjelpe slik et menneske kan.
Om noe, er dette et rop om hjelp for å forbedre og styrke lavterskeltilbud for psykisk helse, slik at det ikke erstattes av kunstig intelligens.
Utviklingen innen KI har gått ekstremt raskt og fortsetter i raksst tempo. Det er skremmende hvor blindt vi stoler på en chatbot i møte med personlige problemer – uten å stille spørsmål ved hva slags verktøy vi faktisk bruker.
Vi kan gjerne bruke KI som et verktøy. En gang i fremtiden kan det muligens være et langt bedre valg å benytte seg av KI som en støttespiller i terapi. Men terapi som faktisk hjelper, krever noe kunstig intelligens aldri vil ha: erfaring, følelser og empati.
Vi er konstant påkoblet – og nettopp derfor trenger vi hverandre mer enn noen gang.
Publisert 18.07.2025, kl. 20.57