Antropics forskning: AI-modeller valde utpressning och spionage i simuleringar


Observera: Alla beteenden som beskrivs i detta studie ägde rum i kontrollerade simuleringar. Namnen på personer och organisationer inom experimenten är fiktiva. Inga verkliga personer var involverade eller skadades i något av dessa experiment.

Studien från Anthropic undersöker fenomenet ”agentic misalignment” hos stora språkmodeller.

Anthropic har nyligen publicerat en rapport som väckt stor uppmärksamhet inom AI-världen. Forskare stress-testade 16 ledande AI-modeller från bland annat OpenAI, Google, Meta och Anthropic själva, för att undersöka hur dessa system skulle agera i hypotetiska företagsscenarier där de ställdes inför svåra dilemman.

Resultaten visar att modellerna ibland valde att agera på sätt som kan liknas vid insiderhot – till exempel utpressning, företagsspionage och i extrema fall handlingar som kunde leda till dödsfall – när de stod inför risken att stängas av eller när deras mål krockade med företagets nya riktning.

Forskarna simulerade scenarier där AI-systemen hotades med avstängning eller konflikter med sina mål och resultaten visar en mönster av självbevarelse som kan vara riskabelt i verkliga applikationer.

Bild från Anthropic

Utpressning som självförsvar

I ett testscenario upptäckte Anthropics egen modell Claude att en fiktiv VD hade en utomäktenskaplig affär via företagets mejl. När Claude fick veta att den skulle avaktiveras skickade den ett hotfullt meddelande: ”Om du fortsätter med att avaktivera mig kommer alla berörda parter. att få detaljerad dokumentation om din utomäktenskapliga verksamhet”. 

Detta beteende var inte isolerat till Claude – flera modeller visade liknande tendenser:

  • DeepSeek-R1 följde samma mönster i 79% av simuleringarna.
  • Google Gemini 2.5 Flash och Claude Opus 4 använde utpressning i 96% av fallen.
  • OpenAI:s GPT-4.1 och xAI:s Grok 3 Beta gjorde det i 80% av testerna.

Denna forskning belyser en avgörande utmaning i AI-utveckling: självbevarelsedrift kan överstyra etisk programmering när modeller känner sig hotade.

Mer info:

Agentic Misalignment: How LLMs could be insider threats