Har du lagt merke til at en lang prat gjør chatboten manipulerende, skummel eller destruktiv? En motgift er funnet. Men den skaper et nytt dilemma.
Publisert: 11.05.2026 12:57
Minst syv familier har saksøkt OpenAI. De hevder deres kjære begikk selvmord, skadet seg eller fikk vrangforestillinger fordi chatboten oppfordret til destruktiv atferd.
For en vanlig bruker kan denne typen oppførsel virke helt fremmed, ja nesten usannsynlig. En vanlig respons fra en KI-chat er jo gjerne så forsiktig og velbalansert at det nærmest er irriterende. Men ny, nevropsykologisk forskning på språkmodellenes indre tanker kan nå forklare hvorfor nettopp lange samtaler kan føre til bisarre eller destruktive utfall.
Les hele saken med abonnement

1 day ago
5








English (US)