Dado Ruvic / Reuters / NTB
- AI-selskapet Anthropic trekker tilbake sitt løfte om å aldri trene et AI-system de ikke på forhånd kunne garantere er sikker, ifølge Time.
- Endringen gjør det mulig for selskapet å konkurrere bedre med andre AI-aktører som Google og OpenAI.
- De nye retningslinjene lover å forsinke AI-utvikling hvis ledelsen ser stor risiko for katastrofe, men er mindre restriktive enn før.
- Parallelt er USAs forsvarsdepartement i konflikt med Anthropic, presser for ubegrenset tilgang til deres AI-modell Claude.
- Anthropic nekter å tillate modellen brukt til masseovervåking eller våpenutvikling uten menneskelig involvering.
AI-selskapet Anthropic, som har profilert seg som det mest sikkerhetsbevisste blant de store AI-aktørene, dropper nå det sentrale løftet i retningslinjene for sikkerhet, melder magasinet Time.
I 2023 lovet selskapet å aldri trene et AI-system med mindre de på forhånd kunne garantere at sikkerhetsrutinene var gode nok. Dette løftet var kjernen i deres «Responsible Scaling Policy» (RSP).
Men nå har de altså endret kurs. Det inkluderer å skrote løftet om ikke å lansere AI-modeller hvis Anthropic ikke kan garantere at modellen ikke kan bli misbrukt til noe farlig.
Et eksempel var hvis AI-modellene ble så gode at de kunne gi instruksjoner om å utvikle biovåpen eller hjelpe en amatør med å utføre et hackerangrep. I verste fall kan AI-en bli så smart at den kan operere på egen hånd eller skape globale kriser.
– Vi følte at det faktisk ikke ville hjelpe noen at vi stoppet treningen av AI-modeller, sier selskapets forskningssjef Jared Kaplan til Time.
Bør AI-selskaper ha strenge sikkerhetsregler?
Ja, 100 prosent
Vi trenger heller strengere lover
De burde få bestemme det selv
Det er ikke nødvendig
– Gjør ikke en U-sving
Anthropic håpet i starten at sikkerhetsretningslinjene ville inspirere andre AI-selskaper med å implementere lignende løfter.
– Vi følte ikke, med den raske utviklingen av AI, at det ga mening for oss å gjøre ensidige forpliktelser hvis konkurrentene stormer frem, fortsetter han.
Den nye versjonen av retningslinjene lover å «forsinke» AI-utviklingen hvis ledelsen både anser Anthropic som ledende i AI-kappløpet og mener risikoen for katastrofe er betydelig. Men selskapet er langt mindre begrenset av sine egne sikkerhetsregler enn før.
Det gjør det lettere for selskapet å konkurrere med andre AI-selskaper som Google og OpenAI, som ikke har hatt lignende sikkerhetsretningslinjer.
Endringen kommer etter at Anthropic i februar hentet inn 30 milliarder dollar i nye investeringer og ble verdsatt til rundt 3700 milliarder kroner, ifølge Time.
Kaplan avviser at endringen er et resultat av markedspress.
– Jeg tror ikke vi gjør noen form for U-sving, sier han.
Press fra Pentagon
Samtidig er USAs forsvarsdepartement i full konflikt med Anthropic på grunn av selskapets sikkerhetsretningslinjer, ifølge Axios.
Amerikanske forsvarsminister Pete Hegseth har gitt AI-selskapet frist til fredag kveld med å gi militæret ubegrenset tilgang til sin AI-modell Claude, eller møte harde straffer.
Hegseth truet med å enten kutte alle bånd til selskapet eller tvinge selskapet til å tilpasse modellen til militærets behov hvis de ikke gjør som han sier.
USAs forsvarsminister Pete Hegseth.
Kevin Wolf / AP / NTB
Anthropic har sagt de er villige til å tilpasse retningslinjene for Pentagon, men ikke tillate at modellen brukes til masseovervåking av amerikanere eller utvikling av våpen som bruker AI som kan drepe uten at et menneske er involvert.
Hegseth sa han ikke vil la noe selskap diktere vilkårene for hvordan Pentagon tar operative beslutninger.
Claude er den eneste AI-modellen som brukes til militærets mest sensitive arbeid. Modellen ble blant annet brukt under «Maduro-raidet» i Venezuela i januar.

1 hour ago
4









English (US)