Nach der Tötung von Ajatollah Chamenei offenbart die „Operation Epic Fury“ das Ausmaß der KI-Kriegsführung: 900 US-Angriffe in 12 Stunden setzen neue Maßstäbe.
Die Geschwindigkeit moderner Kriegsführung hat eine Dimension erreicht, die Experten als das Zeitalter von Angriffen „schneller als der Gedanke“ beschreiben. Während militärische Planungen für komplexe Operationen früher Tage oder gar Wochen in Anspruch nahmen, bricht der massive Einsatz Künstlicher Intelligenz (KI) diese Zeitspanne auf wenige Minuten oder gar Sekunden herunter. Die jüngsten Ereignisse im Iran verdeutlichen, dass wir uns längst nicht mehr in der Phase der theoretischen Erprobung befinden. Die KI ist zum zentralen Zahnrad der Vernichtungsmaschinerie geworden. Durch die Integration von Modellen wie Claude in Systeme des Rüstungsgiganten Palantir wurde die sogenannte „Kill Chain“ – der Prozess von der Zielerfassung über die rechtliche Prüfung bis hin zum finalen Befehl – radikal verkürzt.
In der ersten Phase der als „Operation Epic Fury“ bekannt gewordenen Eskalation führten die USA und Israel innerhalb von nur zwölf Stunden fast 900 Schläge gegen iranische Ziele aus. Diese beispiellose Frequenz ermöglichte unter anderem die gezielte Tötung des obersten Führers Ajatollah Ali Chamenei in dessen Teheraner Residenz. Experten wie Craig Jones von der Newcastle University warnen laut dem Guardian davor, dass diese Verdichtung von Entscheidungsprozessen menschliche Akteure zunehmend an den Rand drängt. Wenn eine Maschine Empfehlungen in einer Geschwindigkeit ausspricht, die das menschliche Reflexionsvermögen übersteigt, verkommen militärische und juristische Prüfer oft zu Statisten, die automatisierte Pläne nur noch im Sekundentakt absegnen. Das System generiert Optionen in einer Taktik, die gleichzeitig regimekritische Ziele ausschaltet und die Fähigkeit zur militärischen Reaktion im Keim erstickt.
Technisch leisten diese Systeme eine Arbeit, die für menschliche Analysten unmöglich wäre. Sie durchforsten in Echtzeit gigantische Datenmengen aus Drohnenaufnahmen, abgefangener Telekommunikation und menschlichen Geheimdienstquellen. Das für das Pentagon entwickelte System nutzt maschinelles Lernen, um Ziele nicht nur zu identifizieren, sondern sie auch nach Priorität zu ordnen. Dabei werden sogar Lagerbestände der eigenen Munition und die Erfolgswahrscheinlichkeit gegen ähnliche Ziele in der Vergangenheit berücksichtigt. Brisant ist der Einsatz von automatisierter Logik zur Bewertung der rechtlichen Grundlage eines Angriffs. Dabei wird versucht, das Völkerrecht in Algorithmen zu gießen, um die Legitimierung eines Schlages künstlich zu beschleunigen.
Doch diese Effizienzsteigerung hat ihren Preis. David Leslie, Professor für Ethik an der Queen Mary University, warnt vor dem Phänomen des „Cognitive Off-loading“. Wenn die mühsame Denkarbeit und die Abwägung von Risiken an eine Maschine ausgelagert werden, verlieren die verantwortlichen Menschen zunehmend den Bezug zu den Konsequenzen ihres Handelns. Die moralische Last einer Entscheidung scheint sich zu verflüchtigen, wenn sie auf mathematischen Wahrscheinlichkeiten einer Software basiert. Die tragischen Folgen dieser Entmenschlichung zeigten sich beim Einschlag einer Rakete in einer Schule im Südiran, bei dem laut Berichten 165 Menschen, darunter viele Kinder, getötet wurden. Während die UN von einer schweren Verletzung des humanitären Völkerrechts spricht, untersucht das US-Militär den Vorfall noch – ein Musterbeispiel für die Grauzonen, die entstehen, wenn Algorithmen die Zielwahl dominieren.
Trotz der ethischen Bedenken und der jüngsten politischen Spannungen zwischen dem Weißen Haus und dem KI-Entwickler Anthropic bleibt die Technologie vorerst im Einsatz. US-Präsident Trump hat Anthropic wegen Sicherheitsbedenken und „ideologischer Differenzen“ bereits auf eine Verbotsliste gesetzt. Doch die KI so tief in die militärischen Netzwerke eingebettet, dass ein sofortiger Verzicht operativ kaum möglich scheint. Die Konkurrenz schläft ohnehin nicht: OpenAI hat bereits Verträge mit dem Verteidigungsministerium unterzeichnet, um die Lücke zu füllen. Der Rüstungswettlauf der Algorithmen verändert nicht nur die Logistik, sondern die fundamentale Natur des Krieges selbst. Die Produktivität des Tötens wurde massiv gesteigert, doch die Zeit für Zweifel und menschliches Ermessen scheint in diesem neuen Zeitalter nicht mehr vorgesehen zu sein.
Keine Kommentare:
Kommentar veröffentlichen