Eine Forsa-Umfrage im Auftrag des TÜV-Verbands zeigt eine breite Zustimmung für KI-Investitionen der Bundeswehr, mahnt aber strikte ethische Leitplanken an.
Die Zeitenwende in der deutschen Verteidigungspolitik spiegelt sich nun auch in der technologischen Akzeptanz der Bevölkerung wider. Während das Bundesministerium der Verteidigung die Beschaffungsprozesse massiv beschleunigt, scheint ein Großteil der Bürgerinnen und Bürger bereit zu sein, den Weg in Richtung einer digitalisierten Armee mitzugehen. Künstliche Intelligenz wird dabei nicht mehr nur als abstraktes Zukunftsszenario, sondern als notwendiger Bestandteil moderner Streitkräfte wahrgenommen. Laut einer repräsentativen Forsa-Umfrage im Auftrag des TÜV-Verbands halten es 81 Prozent der Deutschen für sinnvoll, dass die Bundeswehr verstärkt in KI-Technologien wie Drohnen, Roboter oder autonome Fahrzeuge investiert.
Dieser deutliche Rückhalt in der Bevölkerung unterstreicht das Bewusstsein für eine veränderte globale Sicherheitslage. Die Investitionen in Kampf- und Aufklärungsdrohnen, die durch KI-Unterstützung weitgehend autonom agieren können, werden als Antwort auf moderne Bedrohungen gesehen. Joachim Bühler, Geschäftsführer des TÜV-Verbands, betont in diesem Zusammenhang, dass moderne Streitkräfte an KI-basierten Verteidigungssystemen schlicht nicht mehr vorbeikommen. Es herrscht die Einsicht vor, dass technologische Unterlegenheit im Ernstfall ein Sicherheitsrisiko darstellt. Doch die Zustimmung ist kein Blankoscheck: Sie ist fest an die Bedingung geknüpft, dass die Politik klare Regeln für den Einsatz dieser Systeme definiert.
Angst vor Kontrollverlust
Trotz der grundsätzlichen Bejahung technischer Aufrüstung ist die Skepsis gegenüber der Verlässlichkeit dieser Systeme groß. Zwei Drittel der Befragten treibt die Sorge um, dass autonome Systeme fatale Fehlentscheidungen treffen könnten, etwa durch eine fehlerhafte Zielerkennung im Feld. Die Angst, dass der Mensch die Kontrolle über die Algorithmen verliert, ist mit 64 Prozent fast ebenso stark ausgeprägt. Über die technische Ebene hinaus blicken viele Deutsche mit Sorge auf die geopolitischen Folgen: Ein internationales Wettrüsten mit KI-Technologien sowie die Gefahr einer ungewollten Eskalation von Konflikten werden als realistische Bedrohungen wahrgenommen. Die Bevölkerung sieht in der KI somit ein zweischneidiges Schwert, das zwar die Effizienz steigert, aber gleichzeitig das Risiko unkontrollierbarer Kettenreaktionen birgt.
Besonders deutlich wird die Haltung der Bürger bei der Frage nach der Entscheidungsgewalt über Waffengewalt. Die Vorstellung von vollautonomen „Killer-Robotern“, die ohne menschliches Zutun über Leben und Tod entscheiden, stößt auf fast vollständige Ablehnung. Lediglich ein Prozent der Befragten kann sich mit einem solchen Szenario anfreunden. Stattdessen bildet sich ein Konsens um das Modell der „Human-in-the-loop“-Systeme. Während 40 Prozent eine lückenlose menschliche Überprüfung jeder einzelnen Entscheidung fordern, plädieren 41 Prozent für teilautonome Systeme, bei denen der Mensch zwar nicht jeden Schritt aktiv einleitet, aber jederzeit korrigierend eingreifen kann. Insgesamt verlangen damit über 80 Prozent der Menschen eine klare menschliche Letztverantwortung.
Regulierung zwischen AI Act und UN-Konvention
Die rechtliche Einordnung dieser Technologien bleibt unterdessen eine Herausforderung. Während der europäische AI Act primär zivile Anwendungen regelt und rein militärische Systeme ausklammert, verschwimmen die Grenzen in der Praxis. Viele KI-Entwicklungen sind Dual-Use-fähig, also sowohl zivil als auch militärisch nutzbar, was sie wiederum in den Geltungsbereich ziviler Sicherheitsstandards rückt. International gestalten sich verbindliche Regeln schwierig; innerhalb der UN-Waffenkonvention konnten sich die Mitgliedstaaten bisher nicht auf ein Verbot oder einheitliche Leitlinien für autonome Waffen einigen. Für den TÜV-Verband ist klar, dass Qualitätssicherung, Transparenz und menschliche Aufsicht die Grundpfeiler sein müssen, um die technologische Souveränität zu wahren, ohne ethische Prinzipien zu opfern. Wahre Verteidigungsfähigkeit, so das Fazit, dürfe niemals bedeuten, die Verantwortung an Maschinen zu delegieren.
Keine Kommentare:
Kommentar veröffentlichen