Das US-amerikanische KI-Unternehmen Anthropic hat bekannt gegeben, dass sein Chatbot Claude von Hackern für Cyberangriffe missbraucht wurde, die groß angelegten Datendiebstahl, Erpressung und Betrug umfassten. Diese Enthüllung unterstreicht die wachsende Besorgnis darüber, wie generative und agentenbasierte KI-Technologien für böswillige Zwecke ausgenutzt werden können.
Anthropic berichtete, dass Hacker seine KI für Folgendes missbraucht haben:
- Schreiben Sie bösartigen Code in der Lage, in mindestens 17 Organisationen, darunter auch Regierungsbehörden, einzudringen.
- Unterstützung von Entscheidungen im Bereich Cyberkriminalität, von der Auswahl der zu exfiltrierenden Daten bis hin zur Formulierung psychologisch zielgerichteter Lösegeldforderungen.
- Schlagen Sie Lösegeldbeträge vor, Dies verdeutlicht die wachsende Rolle der KI bei der taktischen und strategischen Planung von Cyberkriminalität.
Das Unternehmen bezeichnete das Ausmaß des KI-Einsatzes bei diesen Operationen als “beispiellos” und erklärte, es habe die Akteure gestört, sie den Behörden gemeldet und seine Erkennungsfähigkeiten verbessert.
Die Bedrohung geht über Cyberangriffe hinaus. Anthropic enthüllte, dass nordkoreanische Agenten Claude nutzten, um sich auf betrügerische Weise Fernarbeitsplätze bei US-amerikanischen Fortune-500-Technologieunternehmen zu sichern. Die KI wurde eingesetzt, um Bewerbungen zu generieren, Kommunikation zu übersetzen und Code zu schreiben. Experten warnen, dass diese Taktik sanktionierten Mitarbeitern, die üblicherweise von globalen Arbeitsabläufen isoliert sind, ermöglicht, unter falscher Identität in Unternehmenssysteme einzudringen.
Analysten heben hervor, dass agentenbasierte KI – die autonom agieren kann – Risiken beschleunigt, indem sie die Zeit zur Ausnutzung von Schwachstellen verkürzt. Alina Timofeeva, Beraterin für Cyberkriminalität, betonte die Notwendigkeit proaktiver Erkennung und Prävention anstelle reaktiver Maßnahmen.
Trotz dieser Entwicklungen warnen Experten davor, anzunehmen, KI habe völlig neue Kriminalitätswellen ausgelöst, und weisen darauf hin, dass Ransomware und Phishing weiterhin die Hauptangriffsmethoden darstellen. Wie Nivedita Murthy von Black Duck jedoch betont, müssen Unternehmen KI-Modelle als Speicher sensibler Daten behandeln und sie genauso schützen wie andere kritische Infrastrukturen.
Die Ergebnisse von Anthropic verstärken die Forderungen nach robusten Schutzmaßnahmen, wenn Unternehmen KI in ihre Betriebsabläufe integrieren.
Quelle:

