Das neue Sprachmodell von Anthropic findet jahrzehntealte Lücken in Sekunden. Experten nicht nur vom BSI warnen vor einer neuen Ära der Cyberkriminalität durch automatisierte Angriffe.
Der KI-Pionier Anthropic sorgt für erhebliche Unruhe in der Tech-Welt und bei Sicherheitsbehörden. Mit der Vorstellung von Claude Mythos Preview hat das US-Unternehmen ein Modell präsentiert, das die Spielregeln der Cybersicherheit fundamental verändern könnte. Die neue KI ist nicht nur in der Lage, tief im Code verborgene Sicherheitslücken aufzuspüren. Sie kann diese laut den Entwicklern auch autonom validieren und ausnutzen. Betroffen sind offenbar fast alle gängigen Betriebssysteme und Web-Browser. Da das Modell ein erhebliches Risiko für die öffentliche Infrastruktur darstellt, hält Anthropic die Technologie vorerst unter Verschluss und informiert nur ausgewählte Partner.
Überraschend ist der Ursprung dieser Fähigkeiten. Claude Mythos Preview wurde nicht explizit als Werkzeug für Hacker konzipiert, sondern ist ein klassisches Allzweckmodell. Die Fähigkeit zum Finden von Exploit-Ketten ergab sich als Nebeneffekt der allgemeinen Leistungssteigerung. „Frontier-Modelle spielen bereits heute eine Rolle bei Cyberangriffen und deren Abwehr“, erklärt Thorsten Holz vom Max-Planck-Institut für Sicherheit und Privatsphäre gegenüber dem Science Media Center (SMC). Die Bedenken von Anthropic seien daher grundsätzlich plausibel. Das Problem ist weniger die Entdeckung völlig neuer Angriffsarten, sondern die deutliche Skalierung: „Der Punkt ist, dass sie bestehende Fähigkeiten beschleunigen und sie teilweise auch weniger erfahrenen Akteuren zugänglich machen.“
Was die Fachwelt aufhorchen lässt, ist die Qualität der Funde. Anthropic demonstrierte das Potenzial anhand einer 27 Jahre alten Schwachstelle im hochsicheren Betriebssystem OpenBSD sowie einer 16 Jahre alten Lücke im Multimedia-Framework FFmpeg. Dass ein Sprachmodell Fehler findet, die menschliche Experten über Jahrzehnte übersahen, deutet auf einen echten Sprung hin. Jörn Müller-Quade vom Karlsruher Institut für Technologie (KIT) sieht darin eine Zeitenwende: „Bisher benötigte es sehr fähige Hacker, um solche Schwachstellen zu finden. Nun erlaubt es ein KI-Modell jedem Laien, Angriffe durchzuführen. Eine Welle von Angriffen mit KI ist zu erwarten.“
Project Glasswing: Allianz der Giganten
Um das drohende Chaos abzuwenden, hat Anthropic das „Project Glasswing“ ins Leben gerufen. Dabei wird das Modell Branchengrößen wie Apple, Google, Microsoft, Crowdstrike und Nvidia zur Verfügung gestellt, damit diese ihre Software härten können, bevor die Details der Schwachstellen an die Öffentlichkeit gelangen. Auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) steht bereits im Austausch mit dem Hersteller. BSI-Präsidentin Claudia Plattner erwartet „Umwälzungen in der Schwachstellenlandschaft“. Mittelfristig könnten klassische Softwarefehler durch solche KI-Werkzeuge fast vollständig verschwinden, was jedoch zu einer Verschiebung der Angriffsvektoren führen dürfte.
Konrad Rieck von der TU Berlin gibt zu bedenken, dass die Leistungsfähigkeit von KI oft überschätzt werde. Das Finden von Fehlern sei zwar beeindruckend. Doch es gelte nicht zu vergessen, dass eine „perfekte Erkennung beweisbar unmöglich“ bleibe. Dennoch räumt der Wissenschaftler ein: „Insbesondere bei der Ausnutzung von Schwachstellen scheint es einen großen Sprung gegeben zu haben. Das ist tatsächlich keine gute Neuigkeit für die IT-Sicherheit.“
Politisches Versäumnis beim Schwachstellen-Management?
Die Nachricht trifft Deutschland in einer Phase politischer Uneinigkeit. Die einstige Ampel-Koalition konnte sich bis zuletzt nicht auf ein effektives, zentrales Schwachstellen-Management einigen. Von Schwarz-Rot ist auf diesem Feld noch weniger zu erwarten. Kritiker sehen darin ein wachsendes Risiko: Wenn KI-Modelle wie Mythos die Entdeckung von Zero-Day-Lücken automatisieren, wird die staatliche Zurückhaltung von Informationen – etwa für Ermittlungszwecke der Geheimdienste – brandgefährlich. Die Vergangenheit zeigte mit dem Fall „WannaCry“, wie verheerend staatlich gehortete, aber dann durchgesickerte Lücken wirken können.
Angesichts der neuen KI-Gefahr fordern Akademiker wie Müller-Quade einen Kurswechsel: „Eine Softwareentwicklung, die Fehler in Kauf nimmt und nach und nach schließt, können wir uns in Zukunft nicht mehr leisten. Wir müssen wegkommen von einer Entwicklung, die Sicherheitslücken hinterher schließt, hin zu einer, die Qualität von Anfang an sicherstellt.“ Ein Entwicklungsstopp für KI sei hingegen unrealistisch, da solche Modelle ohnehin weltweit entständen. Es bleibe nur der Weg der risikobasierten Regulierung und einer verantwortungsvollen Offenlegung – ein schmaler Grat zwischen Transparenz und dem Schutz vor digitalem Kahlschlag.
Stefan Krempl
Keine Kommentare:
Kommentar veröffentlichen