Sonntag, 12. April 2026

Abschreckung durch Algorithmen: Regierung forciert KI-Aufrüstung der Streitkräfte

Ethische Standards und militärische Notwendigkeit: Die Bundeswehr setzt auf KI-gestützte Waffensysteme, fordert international aber ein Verbot von Killer-Robotern.


Die Zeiten, in denen bewaffnete Drohnen in Deutschland jahrelang Gegenstand hitziger ethischer Debatten waren, scheinen vorbei zu seinInzwischen ist die Künstliche Intelligenz im Verteidigungsressort nicht mehr nur ein abstraktes Zukunftsszenario, sondern ein zentraler Pfeiler der nationalen SicherheitsstrategieWie aus einer aktuellen Antwort der Bundesregierung auf eine Anfrage der AfD-Fraktion hervorgeht, betrachtet Berlin moderne Technologien wie KI-unterstützte Kamikaze-Drohnen alias Loitering Munition inzwischen als essenziell für eine glaubhafte Abschreckung innerhalb der NATOOhne den Einsatz intelligenter Algorithmen, so der Tenor, lasse sich die Verteidigungsfähigkeit im digitalen Zeitalter kaum noch sicherstellen.


Dabei bewegt sich die Bundesrepublik auf einem schmalen Grat zwischen technologischer Notwendigkeit und moralischem AnspruchDas Bundesministerium der Verteidigung (BMVg) hat die Weichen für eine umfassende Operationalisierung von KI gestelltHerzstück dieser Bemühungen ist laut der Auskunft die neu geschaffene Stelle eines Chief AI Officers im Geschäftsbereich des RessortsDiese Personalie soll das vorhandene Know-how bündeln und die Skalierung von KI-Anwendungen für die Truppe vorantreibenFlankiert wird dies durch eine 46-seitige Konzeption „Künstliche Intelligenz“, die als strategische Roadmap fungiert und den Rahmen für eine rechtskonforme und verantwortungsvolle Nutzung absteckt.

In der Antwort wird deutlich, dass die Regierung zwischen verschiedenen Automatisierungsgraden unterscheidetWährend Systeme mit automatisierten oder autonomen Funktionen unter menschlicher Aufsicht gefördert werden, zieht Berlin bei vollautonomen Waffensystemen eine rote LinieSolche Killer-Roboter, die der menschlichen Verfügungsgewalt vollständig entzogen sind, lehnt die Bundesregierung konsequent ab und setzt sich international für deren Verbot einDas Dogma der „signifikanten menschlichen Kontrolle“ bleibt so das offizielle Leitmotiv. Kritiker bezweifeln angesichts der geforderten algorithmischen Geschwindigkeit aber schon seit Langem, ob ein Mensch in der Entscheidungskette etwa bei umfangreichen Drohnenschwärmen überhaupt noch rechtzeitig intervenieren kann.

Die Exekutive sieht hier indes keine unmittelbare Gefahr für die Effizienz der SystemeSie betont, dass der Einsatz von KI stets im Einklang mit nationalen und internationalen Gesetzen sowie geltenden Einsatzregeln erfolgen müsseUm die technologische Souveränität zu wahren und Sicherheitsrisiken wie „Backdoors“ oder Datenabfluss zu minimieren, setze die Bundeswehr bei der Zusammenarbeit mit Rüstungskonzernen auf spezifische vertragliche Vorsorgemaßnahmen. Wichtiger Punkt dabei: Trainingsdaten für die Algorithmen sollen grundsätzlich auf Servern innerhalb Deutschlands oder der EU gespeichert werden.

International bleibt die Lage kompliziert. Während Deutschland in Genf im Rahmen der UN-Waffenkonvention über Verbote verhandelt, werden auf NATO-Ebene bereits technische Standards für die Interoperabilität von KI-Systemen zementiertDas Data and AI Review Board (DARB) der Allianz soll sicherstellen, dass Drohnenschwärme und intelligente Munition verschiedener Mitgliedstaaten reibungslos miteinander kommunizieren könnenGleichzeitig befindet sich das Wassenaar-Arrangement, das den Export von Dual-Use-Gütern regelt, in einer Krise, da technologische Sprünge wie Agentic AI das bisherige Kontrollregime unter Druck setzen.

Die Antwort der Bundesregierung unterstreicht, dass die Bundeswehr den technologischen Anschluss an Akteure wie China oder Russland unter keinen Umständen verlieren möchteDie Beschaffung von Loitering Munition verteidigt die Exekutive als notwendigen Schritt zur Zukunftsfähigkeit der StreitkräfteDer Bundestag soll dabei über den konstitutiven Parlamentsvorbehalt und spezifische Mandate weiterhin die Kontrolle über die ethischen Einsatzregeln behalten. Ob dieser parlamentarische Anker in der Ära der algorithmischen Kriegsführung ausreicht?

Stefan Krempl

Keine Kommentare:

Kommentar veröffentlichen