Erst der Angriff auf LiteLLM, und dann ging es in der letzten März-Woche Schlag auf Schlag. Die EU verliert 350 GByte Daten, der Identitätsdienstleister IDMerit sogar 1 TByte, Kash Patels E-Mail wird vom Iran gehackt, Axios (mit 750 Tsd Dependencies!) erleidet eine katastrophale Supply-Chain-Attack, und Anthropic stellt versehentlich den gesamten Source-Code seines CLI-Tools online. Gleichzeitig fordert die Politik weltweit Alterskontrollen im Netz. Das soll durch eine eID ermöglicht werden, mithin, für jeden Bürger soll es eine digitale Identität geben. Ist man sich eigentlich darüber im Klaren, dass laufend bewiesen wird, dass man unfähig ist, diese Daten zu schützen? Und was es bedeuten würde, wenn eine solche Datenbank öffentlich wäre?
KI spielt eine große Rolle bei diesem sich zunehmend entfaltenden Sicherheitsdesaster. Ghost ist ein super-populäres Open-Source-CMS (Headless Blogging/Website-Builder) mit über 50.000 GitHub-Stars. Das Projekt läuft seit ca. 20 Jahren (erste Version 2013, aber Wurzeln noch früher) und hatte noch nie eine kritische Sicherheitslücke (kein einziger CVE mit hohem/critical Impact in der gesamten Geschichte). Dann lässt der Anthropic-Researcher N. Carlini bei einer Live-Konferenz, ebenfalls in der Woche des Grauens Ende März, das Projekt von einer neuen Claude Code-Version analysieren, und ruckzuck wurde ein extrem kritischer SQL-Injection-Fehler gefunden, der ein Ghost-System komplett, mit allen Admin-Rechten, übernehmen kann.
KI trägt also zu diesen Sicherheitslücken bei, erstens, weil man sie damit viel leichter finden kann, zweitens, weil Anwender und Entwickler nachlässig werden und sich blind auf die KI verlassen. Andererseits sind es aber gerade KI-gestützte Tools, die enorm hilfreich sind bei der Aufdeckung solcher Vorfälle. Sowohl der Supply-Chain-Angriff auf LiteLLM als auch der auf Axios wurden sehr schnell von KI-Überwachungstools entdeckt.
Ich denke, menschliche Spezialisten werden auf lange Zeit unverzichtbar bleiben. Ohne KI-Unterstützung sind zwar auch diese längst chancenlos, doch Erfahrung und sektorübergreifender Blick sind und bleiben eine notwendige Ergänzung zum enormen Wissen der KI. Das weit grundlegendere Problem ist aber meiner Meinung, man sollte nicht zu rennen versuchen, bevor man gehen kann. Die enormen Möglichkeiten der IT lassen uns leicht vergessen, dass damit auch riesige Gefahren verbunden sind. Und wenn diese Risiken ignoriert werden, könnte das die gesamte informationstechnische Revolution zum Stillstand bringen – nicht zu wissen ist weniger gefährlich als falsch zu glauben.














