OpenAI har upptäckt och stoppat över 40 nätverk som missbrukat ChatGPT


  • OpenAI har stoppat 40+ nätverk som missbrukat ChatGPT för cyberbrott, bedrägerier och övervakning.
  • Cybergrupper med koppling till Ryssland, Nordkorea och Kina använde ChatGPT för att felsöka skadlig kod, konstruera nätfiskemeddelanden och utveckla kommandoserver.
  • Storskaliga bedrägericentraler i Kambodja, Myanmar och Nigeria använde modellen för översättning, webbplatsinnehåll och rollbiografier för påhittade investeringsexperter.
  • En auktoritär aktör kopplad till Kinas stat apparerade försöka ta fram förslag på övervakningssystem för sociala medier och resmönster för uiguriska grupper.

OpenAI har under de senaste månaderna identifierat och stängt ner över 40 nätverk som har missbrukat deras AI-modeller inklusive ChatGPT för olika typer av skadlig verksamhet. Den detaljerade rapporten ”Disrupting Malicious Uses of AI: October 2025” erbjuder insikter i hur dessa nätverk opererade, vilka typer av angrepp de utförde samt hur OpenAI arbetar för att motverka dessa hot.

Gemensamt för alla fall är att hotaktörerna i huvudsak integrerar AI i redan existerande arbetsflöden snarare än skapar helt nya kapaciteter: modellerna har vägrat direkt skadliga förfrågningar och inte tillhandahållit banbrytande offensiv teknik.

Istället har AI använts för att öka effektiviteten: skriva trovärdigare nätfiskemejl, översätta bedrägeritexter, ta fram videomanus för desinformation, optimera kod för skadlig programvara samt undersöka hur man automatiskt kan skapa mållistor för massutskick.

AI-genererad nyhetsuppläsare som hyllar Ryssland. Bild från OpenAI.

Rapporten visar också att vanliga användare i hög utsträckning vänder sig till ChatGPT för att identifiera och undvika bedrägerier uppskattningsvis tre gånger oftän än vad modellen används för att genomföra dem.

Mer info:

OpenAI blog – disrupting-malicious-uses-of-ai-october-2025

PDF Rapporten – disrupting-malicious-uses-of-ai-october-2025.pdf