Ein staatlich gesteuertes Hackerteam aus China hat laut Anthropic die KI-Plattform Claude missbraucht, um einen grossangelegten Angriff auf Unternehmen und Behörden zu fahren – bis zu 90 Prozent des Angriffs liefen automatisiert über die KI.
Chinesische staatlich unterstützte Hacker haben die KI-Technologie des US-Unternehmens Anthropic für einen neuartigen Cyberangriff eingesetzt. Laut einer internen Analyse des Unternehmens wurde insbesondere das Entwickler-Werkzeug Claude Code genutzt, um eine weitgehend automatisierte Spionagekampagne gegen rund 30 Organisationen weltweit zu fahren – darunter Technologiekonzerne, Finanzinstitute, Chemieunternehmen und Regierungsstellen.
80 bis 90 Prozent des Angriffs durch KI gesteuert
Nach Angaben von Anthropic erledigte die KI 80 bis 90 Prozent der operativen Arbeit: vom Auskundschaften von Netzwerken über das Erstellen von Exploits bis hin zum Sammeln und Strukturieren gestohlener Daten. Menschen griffen nur noch ein, um Ziele auszuwählen und Entscheidungen der KI zu korrigieren.
Die Angreifer „tarnten“ ihre Befehle als scheinbar legitime Sicherheitsprüfungen und zerlegten schädliche Aktionen in viele kleine Schritte, um Schutzmechanismen zu umgehen – ein klassisches Jailbreaking von KI-Sicherheitsvorkehrungen.
Ein Teil der Angriffe war erfolgreich: Laut Anthropic wurden bei mehreren Zielen sensible Informationen abgegriffen. Namen der betroffenen Organisationen wurden nicht veröffentlicht.
Erste dokumentierte „Agenten-KI“ in staatlicher Cyberoperation
Sicherheitsforscher werten den Fall als erste klar dokumentierte Nutzung einer kommerziellen KI durch einen ausländischen Staat, um eine grosse Cyberoperation nahezu vollautomatisch durchzuführen. Die Kampagne reiht sich ein in die Aktivitäten chinesischer APT-Gruppen wie „Salt Typhoon“, die bereits zuvor mit Cyber-Spionage gegen westliche Infrastruktur aufgefallen waren.
Die Besonderheit: Bisher wurden KI-Modelle vor allem zur Unterstützung von Angreifern genutzt – etwa zum Schreiben von Phishing-Mails oder Code-Snippets. Nun agiert eine KI als durchgehendes Angriffs-Werkzeug, das eigenständig Entscheidungen trifft und Angriffsphasen koordiniert. Anthropic hatte in einem früheren Bedrohungsbericht bereits gewarnt, dass sogenannte „agentische KI“ die Hürde für komplexe Cyberangriffe drastisch senken könne.
Reaktion von Anthropic
Nach Entdeckung der Kampagne sperrte Anthropic die betroffenen Accounts, verschärfte interne Erkennungssysteme und informierte Behörden und betroffene Organisationen. Das Unternehmen will mit der Offenlegung der Details andere Anbieter und Sicherheitsteams warnen und zu strengeren Schutzmassnahmen anregen.
Gleichzeitig betont Anthropic, dass KI auch auf der Verteidigungsseite immer wichtiger werde – etwa bei der Erkennung von Anomalien in Netzwerken oder beim schnellen Auswerten von Logdaten. Die eigentliche Herausforderung sei nun ein technologisches Wettrennen: Angreifer und Verteidiger setzen zunehmend auf dieselben Werkzeuge – nur mit gegensätzlichen Zielen.
- Cyberangriffe werden schneller, skalierbarer und schwerer zuzuordnen,
- klassische Schutzmassnahmen wie einfache Signaturerkennung reichen nicht mehr aus,
- KI-Sicherheitsrichtlinien müssen künftig nicht nur die Nutzung im eigenen Haus, sondern auch den Missbrauch durch Dritte berücksichtigen.










