Mittwoch, 15. April 2026

KI-Offensive und Drohnen-Deal: Berlin und Kiew schmieden Kampf-Allianz

Mit einer neuen strategischen Partnerschaft rücken Deutschland und die Ukraine militärtechnisch eng zusammen und setzen auf digitale Gefechtsdaten für neue Waffen.

Im Rahmen der jüngsten Regierungskonsultationen in Berlin am Dienstag haben Bundeskanzler Friedrich Merz (CDU) und der ukrainische Präsident Wolodymyr Selenskyj die Weichen für eine neue Ära der militärischen Zusammenarbeit gestelltDeutschland festigt damit seine Position als wichtiger bilateraler Partner der Ukraine und hebt die Beziehungen auf die Ebene einer strategischen Kooperation, die weit über kurzfristige Nothilfe hinausgehtIm Zentrum stehen nicht nur klassische Rüstungsgüter, sondern vor allem die Digitalisierung des Schlachtfeldes und die gemeinsame Entwicklung hochmoderner autonomer Waffensysteme.

Ein Kernstück der Vereinbarungen ist der Ausbau der Drohnenproduktion. Deutschland und die Ukraine haben eine Durchführungsvereinbarung zur gemeinsamen Fertigung von Langstreckenkampfdrohnen des Typs Anubis sowie Mittelstreckenkampfdrohnen vom Typ Seth-X unterzeichnetDie Zusammenarbeit zielt darauf ab, die technologische Überlegenheit gegenüber der russischen Aggression zu sichern und die europäische Verteidigungsindustrie unabhängiger zu machen. Bemerkenswert ist die geplante Einbeziehung von Drittstaaten: Eine weitere Vereinbarung regelt die Bereitstellung dieser Drohnentechnologie an Partner im Ausland, was die strategische Reichweite der deutsch-ukrainischen Rüstungsschmiede unterstreicht.

Neben der Hardware spielt die Software eine entscheidende Rolle für die künftige Verteidigungsstrategie. Die Verteidigungsminister beider Länder unterzeichneten ein Abkommen über den Austausch digitaler Gefechtsdaten. In der Ukraine gewonnene Erkenntnisse aus dem direkten Einsatz deutscher Waffensysteme wie der Panzerhaubitze 2000 oder dem Flugabwehrsystem IRIS-T fließen künftig unmittelbar in die deutsche Rüstungsplanung ein. Kiew teilt dabei auch Expertise aus eigenen digitalen Systemen, darunter das KI-gestützte Erkennungssystem Avenger und das Gefechtsführungssystem Delta. Dieser Datentransfer soll die Basis sein für die Entwicklung völlig neuer Waffensysteme, die auf den extrem harten Bedingungen eines modernen Abnutzungskrieges basieren.

Merz betonte in diesem Zusammenhang die beispiellose Innovationskraft der ukrainischen Verteidigungsindustrie, die in den vergangenen Jahren eine technische Leistungsfähigkeit erreicht habe, die in Europa bisher unerreicht war. Die Kooperation sei daher kein einseitiger Akt der Unterstützung, sondern ein wesentlicher Beitrag zur deutschen und europäischen Sicherheit. Durch die Bündelung der deutschen industriellen Basis mit der ukrainischen Kampferfahrung sollen ferner Fortschritte bei der Abwehr ballistischer Flugkörper beschleunigt werden.

Die Partnerschaft erstreckt sich auch auf das Feld der Künstlichen Intelligenz im öffentlichen Sektor. Beide Regierungen vereinbarten eine Zusammenarbeit zur Förderung "souveräner KI"Geplant ist die Entwicklung europäischer KI-Modelle und Produkte, die unter anderem im Bereich der Daseinsvorsorge und im öffentlichen Dienst eingesetzt werden sollenEin Fokus liegt dabei auf sprachspezifischer KI jenseits des Englischen sowie dem Aufbau einer robusten Dateninfrastruktur.

Begleitet werden diese technologischen Projekte von umfangreichen Finanzzusagen. Deutschland stellt neue Mittel im Umfang von bis zu 233 Millionen Euro für die Entwicklungszusammenarbeit bereit, wobei ein Schwerpunkt auf der industriellen Kooperation und der Energieresilienz liegtZudem sind Investitionen von mehr als 110 Millionen Euro bis 2029 für den Wiederaufbau und die Reform des ukrainischen Wissenschafts- und Hochschulwesens vorgesehen, um die Ukraine enger in den Europäischen Forschungsraum einzubindenMit der Eröffnung einer Niederlassung der Ukrainischen Verteidigungsindustrie (UDI) in Berlin wird die Zusammenarbeit auch physisch in der deutschen Hauptstadt verankert. 

Stefan Krempl

Cloud-Gatekeeper gesucht: Warum die EU-Regulierung bei Hyperscalern noch scheitert

Eine Studie der Konrad-Adenauer-Stiftung analysiert, warum der Digital Markets Act im Cloud-Sektor bislang nicht greift. Dazu kommt der Ruf nach „Cloud-Neutralität“ für Europas digitale Souveränität.

Cloud-Computing ist das unsichtbare Rückgrat der europäischen WirtschaftOb Datenspeicherung oder die Entwicklung Künstlicher Intelligenz – nahezu jeder Sektor ist auf diese Infrastruktur angewiesenDoch während die EU mit dem Digital Markets Act (DMA) eigentlich faire Spielregeln für digitale Giganten schaffen wollte, klafft im Cloud-Markt eine empfindliche LückeObwohl Cloud-Dienste in der Verordnung ausdrücklich als zentrale Plattformdienste gelistet sind, hat die EU-Kommission bislang keinen einzigen der großen US-Hyperscaler wie Amazon Web Services (AWS), Google Cloud oder Microsoft Azure als „Gatekeeper“ eingestuftEine jetzt veröffentlichte Studie von Antonio Manganelli im Auftrag der Konrad-Adenauer-Stiftung zeigt auf, warum die bisherige Regulierung an der Realität der Cloud-Märkte vorbeigeht und wie eine Reform aussehen müsste.

Das Kernproblem liegt laut der Untersuchung in einem grundlegenden Missverständnis der MarktarchitekturDer DMA wurde ursprünglich für zweiseitige Plattformen konzipiert, die als Vermittler zwischen Unternehmen und Endkunden fungieren. Klassische Beispiele sind App-Stores oder SuchmaschinenDie Cloud folgt jedoch einer vertikalen „Pipeline-Logik“Hier ist die Infrastruktur kein Marktplatz im herkömmlichen Sinne, sondern ein Vorprodukt, auf dem andere Unternehmen ihre eigenen Dienste aufbauenDa viele dieser Geschäftskunden ihre Dienste wiederum an Dritte weitergeben, ohne dass der Endnutzer jemals direkt mit dem Cloud-Betreiber in Kontakt tritt, laufen die quantitativen Schwellenwerte des DMA ins LeereDie geforderten 45 Millionen aktiven Endnutzer werden formal oft nicht erreicht, obwohl die tatsächliche Marktmacht der Hyperscaler groß ist.

Diese Marktdominanz manifestiert sich in Europa in einer besorgniserregenden Konzentration: Die drei größten Anbieter kontrollieren rund 70 Prozent des MarktesDer Forscher warnt, dass strukturelle Hürden wie mangelnde Interoperabilität, hohe Gebühren für den Datentransfer beim Anbieterwechsel und die Kopplung von Software-Lizenzen an die eigene Cloud den Wettbewerb erstickenEuropäische Anbieter – insbesondere kleine und mittlere Unternehmen – haben unter diesen Bedingungen kaum eine Chance, sich gegen die finanzstarke Konkurrenz aus Übersee zu behaupten.

Um diesen Stillstand zu überwinden, schlägt Manganelli neue Wege für die Einstufung als Gatekeeper vorEin Ansatzpunkt sind die Cloud-Marktplätze der HyperscalerDort treten sie eben doch als Vermittler auf, da sie Software von Drittanbietern an ihre Kunden vertreibenZudem führt die Studie das Konzept der „indirekten Ökosystem-Erfassung“ einNutzer, die beispielsweise Microsoft 365 verwenden, werden faktisch in das Azure-Ökosystem gezogen, auch wenn sie keinen direkten Vertrag über Infrastrukturdienste abgeschlossen habenWürden diese indirekten Nutzer mitgezählt, wäre die Einstufung als Türsteher rechtlich einfacher möglich.

Ist die Hürde der Einstufung erst einmal genommen, plädiert der Forscher für eine radikale Neuerung: die „Cloud-Neutralität“In Anlehnung an die Netzneutralität im Internet sollen Cloud-Betreiber verpflichtet werden, alle Anwendungen auf ihrer Infrastruktur gleich zu behandelnEigenen Diensten dürften keine technischen oder preislichen Vorteile gegenüber Wettbewerbern eingeräumt werdenDies würde verhindern, dass Hyperscaler ihre Kontrolle über die Basistechnologie nutzen, um Konkurrenten auf höheren Ebenen der Wertschöpfungskette – etwa bei KI-Anwendungen – systematisch zu benachteiligen.

Die EU-Kommission hat im November 2025 bereits Untersuchungen gegen AWS und Microsoft eingeleitet, um deren Status zu prüfenDie Ergebnisse der Untersuchung liefern hierfür eine wissenschaftliche Basis und mahnen zur EileOhne einen fairen und wettbewerbsfähigen Cloud-Sektor, so das Fazit der Konrad-Adenauer-Stiftung, bleibe die angestrebte digitale Souveränität Europas ein Lippenbekenntnis.

Stefan Krempl

Schnittstellen-Frust: Warum die Verwaltung an der Software-Wiederaufnahme scheitert

97 Prozent der vom Netzwerk NExT befragten Experten fordern technische Standards für Ämter. In der Praxis bremsen fehlende Interoperabilität und monolithische Fachverfahren die Nachnutzung bislang aus.

Die Digitalisierung der deutschen Verwaltung leidet unter einem Problem: Während der Bedarf an digitalen Lösungen riesig ist, wird bereits existierende Software viel zu selten ein zweites Mal eingesetzt. Das Prinzip der Nachnutzung, also das Übernehmen und Anpassen bewährter IT-Lösungen, gilt zwar als Königsweg aus dem Modernisierungsstau. Doch die Realität in den Rechenzentren der Länder und Kommunen sieht oft anders aus. Eine Studie des Netzwerks NExT zeigt nun auf, warum der Wissenstransfer zwischen den Behörden technisch und strukturell ins Stocken gerät. Obwohl die Relevanz des Themas mit über 90 Prozent Zustimmung fast unumstritten ist, blicken rund 40 Prozent der Befragten mit sehr gemischten Gefühlen auf ihre bisherige Praxis zurück.

Ein Grund für das Scheitern liegt in der Kluft zwischen Wunsch und technischer Wirklichkeit. Fast alle Befragten, nämlich 97 Prozent, identifizieren technische Interoperabilität und standardisierte Schnittstellen als die kritischsten Faktoren für den Erfolg. Demgegenüber steht die ernüchternde Einschätzung, dass nur acht Prozent diese Standards in ihrem Arbeitsalltag als ausreichend umgesetzt ansehen. Oft scheitert die Übernahme einer Software schlicht daran, dass die Lösungen nicht modular oder „Ende-zu-Ende“ gedacht sind. Stattdessen treffen IT-Verantwortliche auf monolithische Fachverfahren, die sich nur unter extremem manuellem Aufwand an andere Systeme anbinden lassen. Diese technische Starrheit führt dazu, dass es oft einfacher erscheint, eine Lösung komplett neu zu programmieren, anstatt den fremden Code mühsam in die eigene Infrastruktur zu integrieren.

Dazu kommt eine große Abhängigkeit von IT-Dienstleistern und den Rechenzentren der Länder. Über 70 Prozent der Teilnehmenden empfinden diese Strukturen eher als Hindernis denn als Unterstützung für eine schnelle Nachnutzung. Die Untersuchung macht deutlich, dass die technologische Souveränität der Verwaltung darunter leidet, wenn proprietäre Schnittstellen oder exklusive Verträge den Austausch von Softwarekomponenten über Gebietskörperschaften hinweg erschweren. Da eine verbindliche nationale Gesamtstrategie fehlt, bleibt die Nachnutzung oft ein Flickenteppich aus isolierten Einzelinitiativen, die zudem unter einer chronisch unsicheren Finanzierung für den langfristigen Betrieb leiden.

Auch die Informationsarchitektur erweist sich als Hürde. Wer nach bestehenden Lösungen sucht, muss sich durch eine fragmentierte Landschaft aus über 50 verschiedenen Plattformen und Marktplätzen kämpfen. Diese Zersplitterung führt dazu, dass selbst zentrale Angebote wie der Marktplatz für Leistungen nach dem Onlinezugangsgesetz (OZG) vielen erfahrenen IT-Kräften unbekannt bleiben. In der Folge wird der Austausch von Know-how oft zur Glückssache und hängt stark von persönlichen Netzwerken oder dem Engagement in einzelnen Fach-Communities ab.

NExT-Geschäftsführerin Ann Cathrin Riedel fordert angesichts dieser Befunde eine Abkehr von der bisherigen Projektlogik. Notwendig sei eine „Single Source of Truth“ – ein zentraler, technischer Einstiegspunkt, der nicht nur fertige Anwendungen listet, sondern auch deren Integrationsfähigkeit dokumentiert. Nur wenn technische Standards für Schnittstellen und Datenformate verbindlich festgeschrieben werden, kann die Vision einer modularen Verwaltungs-IT Wirklichkeit werden.

Stefan Krempl

Gläserne Patienten: Niedersachsens Vorstoß gegen die ärztliche Schweigepflicht

Ein niedersächsischer Gesetzentwurf sieht vor, dass sensible Krankheitsdaten von Psychiatrie-Patienten direkt an die Polizei fließen. Kritiker warnen vorm Überwachungsstaat.

In Hannover bahnt sich eine rechtspolitische Zäsur an, die das Vertrauensverhältnis zwischen Arzt und Patient in seinen Grundfesten erschüttern könnte. Die rot-grüne Landesregierung in Niedersachsen plant eine Neufassung des Gesetzes über Hilfen und Schutzmaßnahmen für psychisch Kranke (PsychKHG). Die Reform soll schon in Kürze im Landtag verabschiedet werden. Vordergründig verkauft die Exekutive die Initiative als Maßnahme zur öffentlichen Sicherheit. Kritikern zufolge steht dahinter aber ein tiefgreifender Eingriff in die Grundrechte einer besonders vulnerablen Personengruppe: Der Entwurf markiere faktisch das Ende der ärztlichen Schweigepflicht für Menschen mit psychiatrischen Diagnosen und stelle diese unter einen pauschalen Generalverdacht.

Kern des Anstoßes ist Paragraph 38 des Entwurfs. Er sieht ein dreistufiges Verfahren vor, nach dem Gesundheitseinrichtungen und sozialpsychiatrische Dienste verpflichtet werden können, sensible Informationen an Polizeibehörden zu übermitteln. Dabei geht es nicht nur um einfache Stammdaten. Die Übermittlung umfasst den kompletten Gesundheitszustand, konkrete Krankheitsbilder, den Behandlungsverlauf und sogar hochvertrauliche Behandlungsinhalte. Als Voraussetzung für diesen Datentransfer reichen bereits vage Anhaltspunkte aus, wonach eine Person zu einer erheblichen Gefahr für andere werden könnte. In der Praxis bedeutet dies, dass medizinisches Personal zu Hilfssheriffs umfunktioniert wird, die Prognosen über zukünftiges Verhalten abgeben sollen.

Der niedersächsische Vorstoß steht nicht isoliert da, sondern ist Teil einer bundesweiten sicherheitspolitischen Strategie. Er greift Forderungen auf, die bereits von der CDU-Spitze nach einem Register für „psychisch kranke Gefährder“ laut wurden. Zwar vermeiden Politiker nach massiver öffentlicher Kritik inzwischen den stigmatisierenden Begriff des Registers, doch die nun geplante Meldepflicht bewirkt im Kern genau das: Eine zentrale Erfassung von Menschen in psychischen Ausnahmesituationen durch Sicherheitsbehörden. Es findet eine gefährliche Vorverlagerung polizeilicher Befugnisse statt, bei der nicht mehr die Tat im Zentrum steht, sondern die bloße Vermutung einer potenziellen Bedrohung.

Die zu erwartenden gesellschaftlichen Folgen dieser Gesetzgebung sind alarmierend. Anstatt Menschen in Krisen Schutz und Heilung zu bieten, werden sie als unberechenbare Sicherheitsrisiken markiert. Dabei zeigen Statistiken, dass Menschen mit psychiatrischen Diagnosen deutlich häufiger Opfer von Gewalt werden, als dass sie selbst Taten begehen. Das Vorhaben befeuert uralte Vorurteile und nutzt die Stigmatisierung psychisch Kranker aus, um Überwachungsbefugnisse auszuweiten. Wer befürchten muss, dass seine intimsten Gedanken aus dem Therapiegespräch direkt in der Polizeiakte landen, wird professionelle Hilfe künftig eher meiden. Das untergräbt nicht nur den Heilerfolg, sondern könnte die öffentliche Sicherheit am Ende sogar gefährden, wenn notwendige Behandlungen aus Angst vor staatlicher Repression abgebrochen werden.

Besonders schwer wiegt die technische Komponente dieser Vernetzung. Die geplante Datenweitergabe erfolgt in einer Zeit, in der Polizeibehörden verstärkt auf automatisierte Datenanalysesysteme wie die Software von Palantir setzen. Wenn Gesundheitsdaten mit polizeilichen Datenbanken verschmolzen werden, entstehen gläserne Patientenprofile, die eine lückenlose Überwachung ermöglichen. 

Bürgerrechtsorganisationen und andere Gegner wie die Humanistische Union und die Neue Richter:innenvereinigung warnen in diesem Zusammenhang eindringlich vor den historischen Parallelen. Der Verweis auf die missbräuchliche Nutzung von Patientenakten während des Nationalsozialismus dient ihnen als mahnendes Beispiel dafür, was passiert, wenn medizinische Vertraulichkeit dem staatlichen Kontrollwahn geopfert wird.

Parallel treibt Niedersachsen über den Bundesrat eine bundesweite Initiative zur Aufweichung des Datenschutzes im Gesundheitswesen voran. Derweil klafft die Schere zwischen Kontrolle und Hilfe immer weiter auseinander. Ressourcen fließen massiv in Überwachungsinfrastrukturen, während im sozialen und gesundheitlichen Bereich schmerzhafte Kürzungen vorgenommen werden.

Stefan Krempl

Dienstag, 14. April 2026

Energiewende zum Selberbauen: Prototype Fund sucht Open-Source-Hardware

Mit bis zu 10.000 Euro Förderung soll das Projekt OpenEnergy des Prototype Fund Hardware die Stromerzeugung in Bürgerhand bringen und technische Hürden für Laien abbauen.

Die Vision der dezentralen Energiewende klingt in der Theorie simpel: Jedes Dach nutzt die Sonne, jeder Garten den Wind, und lokale Gemeinschaften versorgen sich selbst mit sauberem Strom. Doch wer diesen Traum in die Realität umsetzen will, landet oft unsanft auf dem Boden der Tatsachen. Wer heute eine Photovoltaikanlage oder einen Speicher installiert, kauft meist eine „Blackbox“. Diese proprietären Systeme sind oft hermetisch abgeriegelt, lassen sich kaum an individuelle Bedürfnisse anpassen und machen eine Reparatur in Eigenregie nahezu unmöglich. Dazu kommen oft intransparente Cloud-Anbindungen, die datenschutzrechtliche Fragen aufwerfen und die Unabhängigkeit der Nutzer konterkarieren.

Dabei gibt es längst eine engagierte Community, die beweist, dass es anders geht. Seit Jahren tüfteln Entwickler weltweit an offenen Alternativen, von selbstgebauten Kleinwindanlagen bis hin zu frei programmierbaren Ladereglern. Das Problem dabei ist die Zugänglichkeit. Viele dieser Open-Source-Hardware-Projekte verharren in einem prototypischen Stadium oder sind nur so dokumentiert, dass nur ausgewiesene Technik-Experten mit dem Lötkolben in der Hand etwas damit anfangen können. Um diese Lücke zwischen technischer Machbarkeit und breiter gesellschaftlicher Anwendung zu schließen, geht der Prototype Fund Hardware nun in die dritte Runde.

Im Rahmen des Projektes OpenEnergy soll eine umfassende, offene Bürgerenergieanlage entstehen, die weit über das bloße Bastelprojekt hinausgeht. Erklärtes Ziel ist es, ein modulares System zu schaffen, das alle Komponenten für die lokale Stromproduktion aus Solar- und Windkraft bereitstellt. Dafür werden nun mindestens drei Teams oder Einzelpersonen gesucht, die bereit sind, ihre Expertise in den Dienst der Allgemeinheit zu stellen. Gefragt sind Köpfe, die entweder bereits erprobte Hardware-Projekte entscheidend verbessern oder dafür sorgen, dass die Dokumentation so aufbereitet wird, dass auch technische Laien die Systeme sicher aufbauen und bedienen können.

Das Spektrum der gesuchten Komponenten ist breit gefächert und bildet das Herzstück jeder Energieanlage ab. Es geht um Wechselrichter, die den erzeugten Gleichstrom in nutzbaren Wechselstrom wandeln, um Batteriemanagementsysteme (BMS) für sichere Speicherlösungen, MPPT-Tracker zur Optimierung der Energieausbeute sowie die mechanischen Komponenten von Kleinwindanlagen und Solarpanels. Auch Steuerungs- und Überwachungssysteme, die für Transparenz beim Energiefluss sorgen, stehen im Fokus. Entscheidend ist dabei der Open-Source-Gedanke: Jede Einreichung muss zwingend als Open-Source-Hardware veröffentlicht werden. Das bedeutet, dass am Ende des sechsmonatigen Förderzeitraums eine frei lizenzierte Dokumentation stehen muss, die Quellcodes, Design-Files, Materiallisten und detaillierte Zusammenbauanleitungen umfasst.

Finanziell unterstützt wird diese Arbeit mit bis zu 10.000 Euro pro Projekt, finanziert durch die Deutsche Stiftung für Engagement und Ehrenamt. Es geht aber um mehr als eine Finanzspritze. Die ausgewählten Teams werden Teil eines Netzwerks, in dem Austausch und gegenseitiges Lernen im Vordergrund stehen. Während der Umsetzungsphase bieten verschiedene Formate die Möglichkeit, technische Hürden gemeinsam zu überwinden und die Idee einer resilienten, quelloffenen Energieversorgung voranzutreiben. Am Ende steht die öffentliche Vorstellung der Ergebnisse, die hoffentlich den Grundstein für eine Energiewende legt, die ihren Namen wirklich verdient.

Stefan Krempl

Kampf ohne Soldaten: Ukraine meldet Eroberung durch Roboter-Einheiten

Premiere an der Front: Unbemannte Bodenplattformen und Drohnen nehmen nach ukrainischen Angaben russische Stellung ohne Einsatz von Infanterie ein – und machen sogar Gefangene.

Die Art der modernen Kriegsführung erlebt derzeit in der Ukraine eine Zäsur, die bisher eher Stoff für Science-Fiction-Romane war. In einer gewagten Operation ist es den ukrainischen Streitkräften nach Angaben von Präsident Wolodymyr Selenskyj erstmals gelungen, eine feindliche Stellung ausschließlich durch den kombinierten Einsatz von unbemannten Systemen zu erobern. Was bisher als Unterstützung für die Infanterie galt, rückt nun zunehmend ins Zentrum der taktischen Planung: Der autonome oder ferngesteuerte Kampfpanzer im Miniaturformat und die fliegende Drohne als entscheidendes Duo auf dem Schlachtfeld.

Selenskyj betonte am Montag die historische Dimension dieses Ereignisses. Zum ersten Mal in der Geschichte dieses Krieges sei eine russische Position vollständig ohne den physischen Einsatz von Soldaten vor Ort eingenommen worden. Dabei spielten unbemannte Bodenplattformen im Zusammenspiel mit Drohnen die Hauptrolle. Das Ergebnis der Operation war laut Kiew nicht nur die Vertreibung der Besatzer, sondern auch deren Kapitulation. Der Präsident unterstrich, die gesamte Mission habe ohne eigene Verluste abgeschlossen werden können, da schlicht kein menschlicher Soldat der direkten Gefahr in der vordersten Linie ausgesetzt gewesen sei.

Diese Entwicklung ist kein Zufall, sondern das Resultat einer massiven technologischen Aufrüstung und Skalierung der ukrainischen Roboter-Programme. Während Drohnen in der Luft bereits seit langem den Alltag an der Front bestimmen, gewinnen Bodenroboter an Bedeutung. Solche Systeme werden aktuell meist noch von Menschen aus sicherer Distanz gesteuert, übernehmen aber immer gefährlichere Aufgaben. Sie führen Angriffsoperationen durch, legen Minen oder bergen verwundete Soldaten aus der sogenannten Todeszone. In Bereichen, in denen herkömmliche Rettungsteams durch feindliche Kamikaze-Drohnen sofort vernichtet würden, fungieren die Maschinen als Lebensretter.

Ein Beispiel für den Ausbau dieser Technik lieferte bereits zu Beginn des Jahres das ukrainische Rüstungsunternehmen Devdroid. Deren Roboter-Modell Droid TW-7.62 ist mit Künstlicher Intelligenz ausgestattet, die es der Maschine ermöglichen soll, Ziele autonom zu erkennen, zu erfassen und zu verfolgen. Bei einem Einsatz im Januar gelang es diesem System nach Herstellerangaben sogar, drei russische Soldaten gefangen zu nehmen. Dass eine Maschine zur Kapitulation auffordert und Gefangene macht, verdeutlicht den psychologischen und physischen Wandel an der Frontlinie im Jahr 2026.

Allein in den ersten drei Monaten des laufenden Jahres haben unbemannte Bodensysteme laut offiziellen Angaben mehr als 22.000 Missionen absolviert. Für die ukrainische Führung ist das eine Erfolgsrechnung, die über rein militärische Gewinne hinausgeht. Jede dieser Missionen stehe für eine Situation, in der ein Roboter anstelle eines Kriegers in ein hochgefährliches Gebiet geschickt wurde. Selenskyj bezeichnete diese Strategie als den Einsatz von Hochtechnologie zum Schutz des höchsten Gutes: des menschlichen Lebens.

Für Tech-Analysten und Militärstrategen weltweit markiert die Entwicklung einen Wendepunkt. Während die ethische Debatte über autonome Waffensysteme und Killer-Roboter auf internationaler Ebene weitergeht, schafft die Ukraine auf dem Schlachtfeld Fakten. Die Integration von KI-Elementen zur Zielerfassung und die nahtlose Koordination zwischen Luft- und Bodeneinheiten zeigen, dass die Zeit umfangreicher Infanterie-Angriffe durch spezialisierte Roboter-Schwärme abgelöst werden könnte. Die Ukraine wandelt sich damit immer mehr zum globalen Testlabor für eine Kriegsführung, in der Silizium und Software die Rolle von Blut und Eisen übernehmen.

Stefan Krempl

Grüner Hebel: Wie spezialisierte KI Deutschlands Wirtschaft retten könnte

Ein Expertengremium rät der Bundesregierung zu einer Neuausrichtung: Weg von gigantischen Sprachmodellen, hin zu effizienten, industriellen Spezial-Lösungen.

Die Debatte über Künstliche Intelligenz (KI) ist derzeit von Superlativen geprägt: immer größere Modelle, gewaltigere Rechenzentren und ein rasant steigender Energiehunger. Doch für den Industriestandort Deutschland liegt der Schlüssel zum Erfolg nicht im blinden Wettrüsten mit Tech-Giganten aus Übersee, sondern in einer Rückbesinnung auf alte Stärken – gepaart mit moderner Nachhaltigkeit. Das ist die Kernbotschaft des Positionspapiers „Towards a Sustainable and Competitive AI Economy“, das am Montag in Berlin an Bundesumweltminister Carsten Schneider (SPD) übergeben wurdeDie fünf internationalen Wissenschaftler des Beratungsgremiums „KI und Nachhaltigkeit“ zeichnen darin einen Weg vor, wie ökologische Verantwortung und wirtschaftliche Wettbewerbsfähigkeit Hand in Hand gehen können.

Im Zentrum der Empfehlungen steht die Abkehr vom Fokus auf riesige, generative Allzweck-KI. Modelle wie ChatGPT 
verschlingen enorme Ressourcen. Doch in der deutschen Industrie sind es vor allem spezialisierte, auf konkrete Aufgaben zugeschnittene Systeme, die den größten Mehrwert versprechen. Ob vorausschauende Wartung, Qualitätskontrolle oder Prozessoptimierung in der Fertigung – diese Anwendungen benötigen oft keine Milliarden von Parametern. Sie sind von Natur aus effizienter, verbrauchen weniger Strom und lassen sich zudem leichter auf lokaler Infrastruktur betreiben, was die digitale Souveränität von mittelständischen Unternehmen stärkt. Das Gremium plädiert daher für eine gezielte Förderung solcher spezialisierten KI-Ansätze und alternativer Paradigmen, die über das aktuelle Prinzip der generativen Modelle hinausgehen.

Ein wichtiger Punkt der Analyse ist der wachsende ökologische Fußabdruck der zugrunde liegenden digitalen Infrastruktur. In Frankfurt am Main, Europas wichtigstem Cloud-Knotenpunkt, beanspruchten Rechenzentren bereits 2022 fast 30 Prozent des gesamten städtischen Stromverbrauchs. Um diesen Trend nachhaltig zu gestalten, fordern die Experten strengere Transparenzregeln. Betreiber sollten verpflichtet werden, nicht nur Schätzwerte, sondern reale Verbrauchsdaten über einen vollen Jahreszyklus offenzulegenZudem wird eine Beteiligungspflicht am Ausbau erneuerbarer Energien sowie die konsequente Nutzung von Abwärme vorgeschlagenCO2-Preise müssten als marktgesteuertes Instrument wirken, um Anreize für effizientere Hardware und Softwarearchitekturen zu setzen.

Innovativ ist der Vorstoß zur Stärkung der Verbraucherrechte. In einer digitalen Welt, in der KI-Funktionen zunehmend ungefragt in Suchmaschinen und Alltagsprogramme integriert werden, soll ein „Recht auf das grüne KI-Modell“ Abhilfe schaffen. Nutzer müssten demnach die Möglichkeit erhalten, sich aktiv für die jeweils energieeffizienteste Variante eines Dienstes zu entscheidenStandardmäßig sollten zudem rechenintensive Zusatzfunktionen, die für viele einfache Aufgaben gar nicht nötig sind, deaktiviert bleiben. Damit könnte die Nachfrage der Konsumenten zu einem Marktfaktor für grüne Technologie werden.

Schneider unterstrich bei der Entgegennahme der Empfehlungen, dass KI ein umkämpfter Zukunftsmarkt sei, den man mit den richtigen Rahmenbedingungen zum Vorteil von Umwelt und Verbrauchern gestalten müsse. Das Gremium, bestehend aus Fachleuten wie Lynn Kaack und Philipp Hacker, macht deutlich: Wenn Deutschland jetzt proaktiv handelt, kann es eine globale Führungsrolle in einer nachhaltigen KI-Ökonomie einnehmenEs geht nicht darum, technologischen Fortschritt zu bremsen, sondern ihn so zu lenken, dass Innovation die planetaren Grenzen respektiertDie Analyse liefert dafür das notwendige Instrumentarium – von der Forschungsförderung bis hin zu neuen Transparenzpflichten im AI Act der 
EU.

Stefan Krempl