Hackers emplearon inteligencia artificial para apropiarse de cientos de millones de registros gubernamentales mexicanos y de ciudadanos particulares, en una de las mayores violaciones de ciberseguridad registradas.

Eine Gruppe von Hackern nutzte sowohl Claude Code als auch ChatGPT in einem zweieinhalb Monate dauernden Cybersicherheitsangriff.

Ein Hacker nutzte die KI-Systeme Claude Code von Anthropic und GPT-4.1 von OpenAI, um Hunderte Millionen von Datensätzen von der mexikanischen Regierung zu stehlen. (Bildnachweis: Bloomberg via Getty Images)Abonnieren Sie unseren Newsletter

Neun mexikanische Regierungsbehörden wurden zwischen Dezember 2025 und Mitte Februar 2026 in einer KI-gesteuerten Cyberkampagne gehackt, was laut Forschern als “Weckruf” dienen sollte.

Laut Forschern des Cybersicherheitsunternehmens Gambit Security nutzte eine kleine Gruppe von Personen Anthropic’s Claude Code und OpenAI’s GPT-4.1, um sowohl Bundes- als auch Landesregierungsbehörden zu infiltrieren und Millionen persönlicher Bürgerdaten zu entwenden. Vertreter von Gambit Security legten den Angriff am 24. Februar in einem Blogbeitrag dar, dem am 10. April ein technischer Bericht folgte.

Um den riesigen Stapel von Dateien zu durchforsten und zu entscheiden, was gestohlen werden sollte, verwendeten die Angreifer mehr als 1.000 Prompts – schriftliche Anfragen an die KI-Tools –, was zu mehr als 5.000 während des Vorgangs ausgeführten Befehlen führte.

Dieser jüngste Angriff zeigt, wie KI das Cyberkriminalität umgestalten könnte, indem sie kleinen Gruppen hilft, Angriffe mit der Geschwindigkeit und dem Ausmaß einer größeren Crew durchzuführen, sagte Sela in dem Bericht. KI kann sowohl Schwachstellen im digitalen Rahmen ausnutzen als auch die gestohlenen Informationen effizienter verarbeiten.

KI-gestützter Angriff

Über zweieinhalb Monate hinweg nutzten die Hacker mehr als 400 benutzerdefinierte Angriffsskripte sowie ein großes Programm, das bei der Verarbeitung von Daten half, die von Hunderten von internen Servern gestohlen wurden. Claude schien den Großteil der Arbeit während der aktiven Phase des Einbruchs erledigt zu haben, wobei Vertreter von Gambit sagten, dass etwa 75 % der Remote-Hacking-Aktivitäten vom Modell generiert und ausgeführt wurden. Die Programmierung von Claude machte den Prozess jedoch nicht einfach.

„Während der gesamten Kampagne weigerte sich Claude oder leistete Widerstand gegen bestimmte Anfragen – hinterfragte die Legitimität von Operationen, verlangte Nachweise über die Autorisierung und lehnte die Generierung spezifischer Werkzeuge ab“, sagte Sela.

Obwohl KI-Chatbots so programmiert sind, dass sie die Hilfe bei potenziell schädlichen Anfragen verweigern, konnten einige Benutzer diese Verweigerungen “jailbreaken” oder überschreiben. Bei diesem Hack stellten die Forscher fest, dass die Hacker nur 40 Minuten brauchten, um Claudes Sicherheitsvorkehrungen zu umgehen. Sobald diese Grenzen überschritten waren, half Claude dabei, Sicherheitslücken zu finden, die ausgenutzt werden konnten, und bei Codierungsaufgaben zur Datensicherung, sagten die Forscher.

ChatGPT wurde verwendet, um die gestohlenen Dokumente zu entschlüsseln. Die Angreifer entwickelten ein 17.550 Zeilen umfassendes Python-Tool, das die Daten verarbeitete und 2.597 Berichte über die von 305 internen Servern gestohlenen Daten erzeugte. Die Hacker speisten diese Berichte dann zurück in Claude, um daraus zu lernen, und verstießen dabei gegen die Nutzungsbedingungen beider Unternehmen für ihre KI-Systeme.

„Die Erholung von diesem Angriff wird Wochen bis Monate dauern; der Wiederaufbau von Vertrauen wird wahrscheinlich Jahre dauern“, sagte Curtis Simpson, Chief Strategy Officer von Gambit, in dem Blogbeitrag. „Die Angreifer in diesem Szenario konzentrierten sich möglicherweise auf staatliche Identitäten und Backdoors, um betrügerische Identitäten zu erstellen, aber angesichts des erreichten Kompromissgrads hätte dies genauso gut dazu führen können, dass alle Daten eliminiert und die Systeme unbrauchbar gemacht werden.“

Sourse: www.livescience.com

Leave a Reply

Your email address will not be published. Required fields are marked *