Donnerstag, 14. Mai 2026

Funkstille im Heimatschutz: Warum die Reserve-App der Bundeswehr nicht zündet

Verteidigungsminister Pistorius plant die digitale Zeitenwende für 200.000 Reservisten. Doch die neue App „Meine Reserve“ scheitert bisher an Technik und Bürokratie.

Die sicherheitspolitische Weltlage hat sich gewandelt, und mit ihr der Blick auf die deutsche Verteidigungsfähigkeit. In den Fluren des Verteidigungsministeriums herrscht seit der proklamierten Zeitenwende ein neuer Takt: Es soll digitalisiert, optimiert und vor allem beschleunigt werden. Im Fokus steht dabei eine Gruppe, die über drei Jahrzehnte lang fast vergessen schien: die Reserve. Ohne die Frauen und Männer im Hintergrund, so der politische Konsens, ließe sich Deutschland im Ernstfall kaum dauerhaft verteidigen. Verteidigungsminister Boris Pistorius (SPD) betont daher regelmäßig die Relevanz dieser Kräfte für die Sicherung der Infrastruktur im Inland oder die Verstärkung von Sanitäts- und Kampftruppen. Sein ehrgeiziges Ziel: Bis 2035 soll die Bundeswehr auf über 200.000 einsatzfähige Reservisten zugreifen können.

Um diese gewaltige Personalreserve im Krisenfall effizient zu erreichen, setzt die Bundeswehr auf eine digitale Lösung. Der sperrige Postweg, der bisher die Kommunikation dominierte, soll durch die App „Meine Reserve“ abgelöst werden. Der bundeseigene IT-Dienstleister BWI entwickelte das Tool, das im Oktober 2026 mit großen Erwartungen präsentiert wurde. Die Anwendung verspricht eine unbürokratische Kommunikation, eine Push-Alarmierungsfunktion für den Notfall und die Möglichkeit für Reservisten, ihre Verfügbarkeiten und Interessen direkt digital zu hinterlegen. Es klingt nach dem modernen Standard, den man von einer Armee im 21. Jahrhundert erwartet.

Doch die Realität der digitalen Truppenführung sieht derzeit ernüchternd aus, schreibt die Frankfurter Allgemeine Sonntagszeitung (FAS). Aktuelle Zahlen des Personalamts der Bundeswehr belegten eine eklatante Nutzungslücke. Bis Ende April 2026 haben sich demnach gerade einmal 7300 Reservisten erfolgreich authentifiziert. Bei einer Basis von über 60.000 bereits beorderten Kräften bedeutet das, dass nicht einmal jeder achte potenzielle Nutzer die App tatsächlich im vollen Umfang verwendet. Besonders auffällig ist dem Bericht zufolge die Diskrepanz zwischen Neugier und tatsächlicher Nutzung: Die Zahl der Downloads liegt fast doppelt so hoch wie die der aktiven Nutzerkonten. Viele scheinen das Programm also zu laden, dann aber im Anmeldeprozess hängen zu bleiben oder frustriert aufzugeben.

Der Grund für das digitale Scheitern liegt offenbar im System verborgen. Ein Blick in die App-Stores offenbart einen Sturm der Entrüstung. Mit einer Bewertung von lediglich 1,5 Sternen im Google Play Store wird die Anwendung von der Community abgestraft. Nutzer klagen über massive technische Fehler und einen Authentifizierungsprozess, der eher an das Preußen des 19. Jahrhunderts als an eine moderne IT-Infrastruktur erinnert. Um sicherzustellen, dass nur echte Soldaten Zugriff erhalten, setzt die Bundeswehr auf Identitätsprüfungen vor Ort oder den Versand von Freischaltcodes per Post. Was auf dem Papier sicher klingt, dauert in der Praxis oft Wochen oder gar Monate.

Die Bundeswehr räumte gegenüber der Zeitung zwar ein, dass bei neuen Anwendungen Fehler auftreten könnten. Sie verweist aber auf kommende Updates und bestehende Anlaufstellen für Fehlermeldungen. Angesichts der geplanten Investitionen wirkt diese defensive Haltung fast schon mutig: Für den Betrieb und die Weiterentwicklung sind über die nächsten 20 Jahre Haushaltsmittel in mittlerer zweistelliger Millionenhöhe vorgesehen. Es stellt sich die Frage, ob hier erneut ein kostspieliges IT-Projekt am Bedarf der Nutzer vorbeientwickelt wurde.

Neben den technischen Hürden gibt es auch politisches Störfeuer. Das Verhältnis zwischen dem Ministerium und der Reserve gilt ohnehin als belastet. Die überarbeitete Strategie für die „Neue Reserve“ ließ viele Fragen offen und wurde Berichten zufolge ohne vorherige Abstimmung mit dem einflussreichen Reservistenverband verfasst. Wenn die größte Interessenvertretung mit über 100.000 Mitgliedern sich übergangen fühlt, schwindet die Akzeptanz für digitale Experimente.

Ein klares Ziel für die Nutzerzahlen bis zum Jahresende will die Bundeswehr derweil nicht formulieren. Die Streitkräfte flüchten sich in das Argument der Freiwilligkeit: Wer die App nicht nutze, könne weiterhin über die klassischen Kanäle erreicht werden. Das mag formal korrekt sein, konterkariert jedoch den Anspruch der Zeitenwende. Wenn die Truppe der Zukunft auf Geschwindigkeit setzt, ist ein System, bei dem der Postbote schneller ist als die Push-Nachricht, ein Sicherheitsrisiko. Die App „Meine Reserve“ steht so symbolisch für die mühsame Transformation einer analogen Armee in ein digitales Zeitalter, in dem gute Ideen oft an der Umsetzung scheitern.

Stefan Krempl

Filmgeschichte vernetzt: Neue Film-Rechercheplattform AVefi geht online

Mit einheitlichen Identifikatoren und einer offenen Datenbank will das DFG-geförderte Portal AVefi das audiovisuelle Erbe über Archivgrenzen hinweg erstmals zentral auffindbar machen.

In den Kellern und Archiven deutscher Museen, Bibliotheken und Sammlungen schlummert ein gewaltiger Schatz: die audiovisuelle Geschichte des 20. und 21. Jahrhunderts. Doch wer bisher nach einer ganz bestimmten 35-mm-Kopie eines Klassikers wie „Die Mörder sind unter uns“ suchte oder das verstreute Werk von Pionierinnen wie Helma Sanders-Brahms wissenschaftlich aufarbeiten wollte, stand vor einer Herkulesaufgabe. Datensätze sind oft fragmentiert, Erschließungsstandards variieren von Haus zu Haus, und viele Schätze der Filmkultur bleiben schlicht unsichtbar, weil sie in isolierten Insel-Datenbanken gelagert sind.

Damit soll nun Schluss sein. Mit AVefi ist eine ambitionierte Rechercheplattform online gegangen, die den Anspruch erhebt, das Filmerbe institutionsübergreifend zu vernetzen und digital zugänglich zu machen.

Hinter dem sperrigen Namen verbirgt sich das „Automatisierte Verbundsystem für audiovisuelle Bestände über einheitliche Filmidentifikatoren“. Was technisch klingt, ist in der Praxis ein digitaler Befreiungsschlag für die Filmwissenschaft, die Archivarbeit und die historisch interessierte Öffentlichkeit. Die Plattform fungiert als zentrale, offene Datenbank, die weit über ein rein werkorientiertes Nachweissystem hinausgeht. Anstatt lediglich Titel aufzulisten, verknüpft AVefi unterschiedlichste audiovisuelle Formate – vom klassischen Spielfilm und Dokumentationen bis hin zu selteneren Amateur- und Gebrauchsfilmen – und bündelt deren Produktionsdaten sowie Material- und Formatangaben an einem Ort.

Herzstück dieser Infrastruktur sind die sogenannten einheitlichen Filmidentifikatoren (efi). Um die chronischen Probleme der Redundanz und Inkonsistenz in Archivdaten zu lösen, erhält jedes Filmwerk, jede spezifische Fassung und sogar jedes einzelne physische Exemplar eine klare, dauerhafte Kennung. Diese persistenten Identifikatoren sorgen dafür, dass Datensätze aus unterschiedlichen Quellen stabil referenzierbar bleiben. Wenn ein Forscher künftig wissen möchte, welche Einrichtungen Kopien der Werke von Hermann Schlenker besitzen oder wo dokumentarische Produktionen zu Themen wie Arbeit oder Reisen lagern, liefert AVefi die Antwort sowie die direkten Verlinkungen zu den jeweiligen Archiven.

Bemerkenswert ist der integrative Ansatz der Plattform. Während große Filmarchive oft gut ausgestattet sind, fehlen kleineren Sammlungen häufig die Mittel für eine breite Sichtbarkeit. AVefi ist als offenes System konzipiert, das gerade diesen wenig erschlossenen Beständen – etwa aus dem Bereich des Unterrichts- und Wissenschaftsfilms oder privater Amateurproduktionen – eine Bühne bietet. Dabei behalten die teilnehmenden Institutionen die volle Kontrolle: Jede Einrichtung entscheidet selbst, welche Daten sie in das Netzwerk einspeist. In der aktuellen zweiten Projektphase geht die Plattform bereits einen Schritt weiter und integriert auch filmbegleitende Materialien wie Fotografien, Drehbücher und Produktionsunterlagen, was die Tiefe der Recherche massiv erhöht.

Das Projekt, das seit 2023 von der Deutschen Forschungsgemeinschaft (DFG) gefördert wird, ist das Ergebnis einer Kooperation namhafter Partner. Die Stiftung Deutsche Kinemathek arbeitet eng mit der Bibliothek des Leibniz-Informationszentrums Technik und Naturwissenschaften (TIB), der Gesellschaft für wissenschaftliche Datenverarbeitung (GWDG) in Göttingen, dem Filmmuseum Düsseldorf und dem Marburg Center for Digital Culture and Infrastructure zusammen. Die Beteiligten betonen, dass AVefi kein statisches Produkt, sondern eine dynamische Infrastruktur ist. Sven Bingert von der GWDG unterstreicht, dass die Plattform vom Mitmachen lebt. Ziel sei es, das Netzwerk langfristig auch international zu erweitern und so eine globale Landkarte des audiovisuellen Gedächtnisses zu zeichnen.

Für die Nutzer bedeutet der Public Release von AVefi vor allem eine Zeitersparnis und neue Möglichkeiten der wissenschaftlichen Präzision. Dass Filme nun über Archivgrenzen hinweg nach Themen, Orten und beteiligten Personen durchsucht werden können, macht die Plattform zu einem unverzichtbaren Werkzeug für die moderne Medienforschung. Weitere Datenquellen und Kooperationspartner sind laut den Projektverantwortlichen ausdrücklich eingeladen, Teil dieses wachsenden Verbundsystems zu werden und ihre Bestände für die digitale Ära sichtbar zu machen.

Stefan Krempl

US-Software dominiert im Bund: Digitale Souveränität bleibt Mammutaufgabe

Fast jeder zweite Euro für Software fließt an US-Anbieter, während europäische Lösungen stagnieren. Die Lizenzkosten für die Bundesverwaltung bleiben insgesamt hoch.

Die Digitalisierung der deutschen Bundesverwaltung ist ein prestigeträchtiges, vor allem aber ein teures Unterfangen. Zwischen den Jahren 2020 und 2025 hat der Bund insgesamt etwa 3,126 Milliarden Euro für Softwareprodukte ausgegeben. Doch wer genau wissen möchte, welche Programme in den Ministerien und Behörden über die Bildschirme flimmern, stößt auf eine Mauer des Schweigens. In ihrer jetzt veröffentlichen Antwort auf eine parlamentarische Anfrage macht die Bundesregierung deutlich, dass Transparenz in diesem Fall ein zu hohes Sicherheitsrisiko darstelleEine detaillierte Auflistung der eingesetzten Produkte würde laut Regierungsangaben eine Zusammenstellung von Angriffsvektoren liefern, die von Cyberkriminellen oder fremden Nachrichtendiensten gezielt ausgenutzt werden könnten.

Trotz der Geheimhaltung bei konkreten Produktnamen gewährt die Antwort einen Einblick in die statistische Verteilung und die Kostenstruktur der Bundes-IT. Die jährlichen Ausgaben sind dabei deutlichen Schwankungen unterworfen. Während im Jahr 2020 noch rund 350,5 Millionen Euro ausgegeben wurden, kletterten die Kosten im Spitzenjahr 2023 auf rund 680 Millionen EuroFür das Jahr 2025 werden die Ausgaben mit etwa 602,5 Millionen Euro beziffertAuffällig ist dabei die Verschiebung der Kostenstellen: Die Ausgaben für jährliche Lizenzen sind von 65 Millionen Euro im Jahr 2020 auf prognostizierte 247,5 Millionen Euro im Jahr 2025 angestiegen.

Beim Blick auf die Herkunft der Software zeigt sich die enorme Abhängigkeit von außereuropäischen Anbietern, die der viel beschworenen digitalen Souveränität oft entgegensteht. Aktuell stammen durchschnittlich 46 Prozent der eingesetzten Softwareprodukte von Herstellern mit Sitz in den USADemgegenüber stehen 41 Prozent der Produkte von Unternehmen aus der EU. Programme aus Staaten, die weder der NATO noch der EU angehören, spielt mit einem Anteil von lediglich 4 Prozent eine untergeordnete RolleDiese Verteilung verdeutlicht die Herausforderung für die Bundesregierung, die digitale Souveränität als strategisches Leitprinzip verfolgtUm diese zu stärken, setzt Berlin verstärkt auf Open-Source-Software, deren Anteil am Gesamtbestand derzeit jedoch erst bei durchschnittlich 13 Prozent liegt.

Die digitale Souveränität soll in den kommenden fünf Jahren durch eine Reihe strategischer Ziele untermauert werdenDie Bundesregierung plant, die Abhängigkeit von einzelnen, vor allem außereuropäischen Anbietern durch einen strategischeren Einkauf bei europäischen Firmen und den verstärkten Einsatz von Open Source zu verringernDabei soll der Staat verstärkt als „Ankerkunde“ für Start-ups sowie kleine und mittelständische Unternehmen auftreten, um lokale Innovationen zu fördern und die industrielle Basis in Deutschland zu stärken.

Ein zentraler Baustein ist zudem die Vermeidung von sogenannten Vendor Lock-ins durch die Förderung offener Standards und Schnittstellen, um einen Anbieterwechsel technisch überhaupt erst zu ermöglichenOb diese Ziele angesichts der aktuell dominierenden US-Marktmacht und der steigenden Lizenzkosten erreicht werden können?

Stefan Krempl

Mittwoch, 13. Mai 2026

Europäisches Glasfaser-Beben: In Deutschland drohen Notverkäufe

Die Ära „Wachstum um jeden Preis“ ist im europäischen Glasfasermarkt vorbei. Eine Studie eines Beratungshauses prognostiziert eine starke Konsolidierungswelle und warnt vor Finanzierungslücken.

Der europäische Glasfasermarkt steht vor einer Zäsur, die vor allem den deutschen Markt mit voller Härte trifft. Nachdem jahrelang die Devise galt, Marktanteile und Ausbauzahlen ohne Rücksicht auf kurzfristige Profitabilität zu steigern, prallen die ehrgeizigen Businesspläne der Netzbetreiber nun ungebremst auf die wirtschaftliche Realität. Laut der „Europäischen Glasfaserstudie 2026“ der Unternehmensberatung AlixPartners hat sich die Stimmung bei Investoren und Kreditgebern fundamental gewandelt. Im Fokus stehen heute nicht mehr bloße Ausbauversprechen, sondern die nackten finanziellen Fundamentaldaten und die dringende Frage, wie sich die Milliardeninvestitionen der letzten Jahre endlich in nachhaltige Umsätze verwandeln lassen.

Für die Studie wurden rund 200 Marktexperten aus Deutschland, Großbritannien, Italien und Frankreich befragt. Das Ergebnis für die Bundesrepublik ist besonders ernüchternd, da Deutschland bei fast allen wichtigen Marktkennzahlen das Schlusslicht im Vergleich der untersuchten Länder bildet. Während im EU-Durchschnitt bereits 70 Prozent der Haushalte über einen potenziellen Glasfaseranschluss verfügen, liegt dieser Wert in Deutschland bei gerade einmal knapp über 40 Prozent. Noch dramatischer stellt sich die Situation bei der tatsächlichen Nutzung dar. In Frankreich etwa nutzen bereits rund 75 Prozent der Haushalte die Glasfaser aktiv nutzen. Hierzulande liegt die Aktivierungsquote bei lediglich 10 bis 15 Prozent.

Diese Diskrepanz zwischen verlegten Leitungen und zahlenden Kunden bringt viele Telekommunikationsfirmen in existenzielle Bedrängnis. Die Monetarisierung der Netze hinkt den ursprünglichen Plänen weit hinterher, was angesichts des steigenden Refinanzierungsbedarfs gefährliche Folgen hat. In den kommenden ein bis zwei Jahren benötigen mehr als 60 Prozent der deutschen Glasfaserunternehmen frisches Kapital. Ein Drittel der Befragten rechnet sogar fest damit, bestehende Kreditverträge aufgrund verfehlter Ziele zu verletzen. Da Kreditgeber ihre Kriterien massiv verschärft haben und die Verfügbarkeit von Fremdkapital deutlich gesunken ist, droht vielen Akteuren schlicht das Geld auszugehen.

Um die Liquidität zu sichern, hat in der gesamten Branche ein radikaler Sparkurs eingesetzt. Die Kostenoptimierung ist mittlerweile für fast jeden dritten Betreiber das primäre Ziel, während dieser Aspekt im Vorjahr noch eine untergeordnete Rolle spielte. Der Fokus verschiebt sich weg vom reinen Netzausbau hin zu operativer Effizienz und der schnellen Aktivierung bereits bestehender Anschlüsse. In Deutschland setzen viele Betreiber zudem verstärkt auf den Wholesale-Markt und hoffen darauf, ihre Netze durch die Vermietung an Drittanbieter wie große Internet Service Provider besser auszulasten.

Die logische Konsequenz aus dieser wirtschaftlichen Schieflage ist eine massive Marktbereinigung. In Deutschland erwarten mittlerweile über 70 Prozent der Experten ein hohes Niveau an Fusions- und Übernahmeaktivitäten. Dies entspricht fast einer Verdopplung im Vergleich zum Vorjahr. Besonders brisant ist die Einschätzung der Experten zu den Hintergründen dieser Deals. Während in Großbritannien vor allem strategische Synergieeffekte die Konsolidierung treiben, werden für den deutschen Markt sogenannte Notverkäufe als Haupttreiber identifiziert. Rund 41 Prozent der Befragten gehen davon aus, dass Unternehmen unter Zeit- und Preisdruck veräußert werden müssen, weil sie allein nicht mehr überlebensfähig sind.

Klaus Hölbling, Leiter der TMT-Practice bei AlixPartners, warnt in diesem Zusammenhang vor einem extrem herausfordernden Geschäftsjahr. Er betont, dass die Zeit des ungebremsten Wachstums endgültig vorbei ist. Kreditgeber und Investoren schauen heute so genau wie nie zuvor darauf, wie die einzelnen Player ihre Investitionen in Cashflow ummünzen. Entscheidend für das Überleben wird sein, die Kosten massiv zu senken, Kunden zügig an die Netze anzuschließen und die knappen zur Verfügung stehenden Mittel hocheffizient zu nutzen. Der Markt wandelt sich von einer Goldgräberstimmung hin zu einem Verdrängungswettbewerb, bei dem nur die finanzstärksten Akteure bestehen werden. Experten prognostizieren, dass die Zahl der Unternehmen in der Branche bis 2027 um bis zu ein Viertel schrumpfen könnte. Was am Ende bleibt, ist ein konsolidierter Markt mit weniger, aber dafür hoffentlich wirtschaftlich stabileren Anbietern.

Stefan Krempl

Überwachung „Made in EU“: Menschenrechtler werfen Kommission Blindheit bei Exporten vor

Human Rights Watch kritisiert drastische Lücken in der EU-Dual-Use-Verordnung. Ein Bericht zeigt, wie Überwachungstechnik wie Spyware trotz Kontrollen an autoritäre Regime gelangt.


Eigentlich sollte die im Jahr 2021 verabschiedete Neufassung der Dual-Use-Verordnung der EU ein Meilenstein sein. Ihr Ziel: Zu verhindern, dass europäische Überwachungstechnologie in die Hände von Regierungen gelangt, die damit Journalisten, Aktivisten und Oppositionelle unterdrückenDoch ein am Dienstag veröffentlichter 54-seitiger Bericht von Human Rights Watch (HRW) mit dem Titel „Looking the Other Way“ zeichnet ein ernüchterndes Bild: Das Regelwerk versage in der Praxis fast vollständig, da die EU-Kommission die Transparenzvorgaben zugunsten von Unternehmensinteressen systematisch ausgehöhlt habe.

Die EU gilt als globaler Hotspot für die Entwicklung von Spionagesoftware und Abhörsystemen. Fast alle EU-Mitgliedstaaten beherbergen mindestens ein Unternehmen aus diesem SektorWährend die nationalen Behörden über die Exportlizenzen entscheiden, ist die Kommission verpflichtet, jährliche Berichte über diese Ausfuhren zu veröffentlichenHRW wirft der Brüsseler Regierungsinstitution aber vor, durch im Januar 2024 veröffentlichte Leitlinien die Transparenzregeln so umgedeutet zu haben, dass eine öffentliche Kontrolle kaum noch möglich sei.

Anstatt detaillierte Daten darüber zu liefern, welcher Staat welche Technologie wohin verkauft, werden Informationen in den offiziellen Berichten oft aggregiert oder unter dem Vorwand des „Geschäftsgeheimnisses“ ganz verschwiegenDie Kommission begründet dies damit, dass bei der geringen Anzahl an Exporteuren die Identität der Firmen preisgegeben werden könnteFür die Menschenrechtler ist das ein vorgeschobenes Argument, das Profite über den Schutz grundlegender Rechte stellt.

Wie brisant die Lage ist, zeigen Recherchen von HRW, die auf hunderten Informationsfreiheitsanfragen in allen 27 EU-Staaten basierenDie Daten offenbaren brisante Exportgenehmigungen: So lieferte Bulgarien 2022 trotz bekannter Repressionen Überwachungstechnik nach AserbaidschanPolen genehmigte 2023 den Export von Abhörsystemen nach Ruanda, ein Land, das bereits in der Vergangenheit mit dem Einsatz der Pegasus-Spyware gegen Kritiker in Verbindung gebracht wurde.

Besonders problematisch ist laut HRW die „Catch-all“-Klausel der Verordnung. Diese verpflichtet Unternehmen eigentlich dazu, auch für nicht explizit gelistete Güter eine Genehmigung einzuholen, wenn sie von menschenrechtsrelevanten Risiken wissenDa dies jedoch eine umfassende Due-Diligence-Prüfung durch die Firmen selbst voraussetzt, die kaum staatlich kontrolliert wird, bleibt die Bestimmung in der Praxis oft wirkungslos.

HRW fordert die Kommission auf, die für Ende 2026 geplante Evaluierung der Verordnung vorzuziehen und die Daumenschrauben deutlich anzuziehenNotwendig seien verbindliche Sorgfaltspflichten für Unternehmen, die Pflicht zur Ablehnung von Exporten bei „roten Flaggen“ und eine uneingeschränkte Transparenz über die Endverbleibsempfänger der gefährlichen SoftwareOhne diese Reformen, so die Warnung, bleibe die EU mitschuldig an der Erosion demokratischer Räume weltweit.

Stefan Krempl

Dienstag, 12. Mai 2026

Rote Linien für Big Tech: Greenpeace fordert Ethik-Kodex für Cloud-Riesen

Angesichts des massiven Ausbaus von Rechenzentren verlangt Greenpeace von AWS, Microsoft und Google eine Selbstverpflichtung gegen Umweltzerstörung und Überwachung.

Die digitale Infrastruktur ist das Nervensystem der modernen Welt, doch hinter den glänzenden Fassaden der Cloud-Giganten verbergen sich oft düstere Allianzen. Während Konzerne wie Amazon Web Services (AWS), Microsoft und Google ihre Marktposition zementieren, dienen ihre Serverkapazitäten nicht selten als technologisches Rückgrat für Branchen, die den Planeten an seine Belastungsgrenzen führen.

Mit einer neuen "Ethik-Richtlinie für Anbieter kritischer digitaler Infrastruktur" erhöht Greenpeace nun den Druck auf die BrancheDie Umweltschutzorganisation fordert, dass die "Wegbereiter der modernen Welt" endlich Verantwortung für ihre gesellschaftliche Rolle übernehmen und klare rote Linien ziehen.

Kernproblem ist die vermeintliche Neutralität der Technik. Cloud-Anbieter stellen Rechenpower und Speicherplatz bereit. Doch wer diese Ressourcen wofür nutzt, bleibt bislang weitgehend dem Markt überlassen. Greenpeace-Expertin Linda Klapdor findet dafür deutliche Worte: Big Tech mache sich mit fossiler Expansion, der Abholzung von Regenwäldern und Massenüberwachung die Taschen voll. Wer die digitale Zukunft bauen wolle, müsse die Zerstörung der Gegenwart konsequent von seinen Servern verbannen. Die Richtlinie ist dabei als direkt unterschriftsreife Selbstverpflichtung konzipiert, die abstrakte moralische Werte in eine operative Realität übersetzen soll.

Greenpeace zieht eine strukturelle Parallele zum Finanzsektor. So wie Banken über Kredite entscheiden, welche Projekte realisiert werden, entscheiden Cloud-Anbieter über die Effizienz und Skalierbarkeit von GeschäftsmodellenIm Finanzwesen sind ökologische und soziale Ausschlusskriterien, etwa in den UN Principles for Responsible Investment, längst etabliert. Viele Institute finanzieren keine Streumunition oder Regenwaldabholzung mehr. Genau diese "bewährten Prinzipien" sollen nun auf die Anbieter von Cloud-Services übertragen werden. Es geht darum, Unternehmen den digitalen Saft abzudrehen, wenn deren Handeln das Gemeinwohl gefährdet.

Die Verbotsliste: Von Öl bis Deepfakes

Die Richtlinie definiert präzise Ausschlusskriterien für die Nutzung der Infrastruktur. Ein prominenter Punkt ist der Bereich fossile Brennstoffe. Cloud-Dienste sollen für Kohleförderer mit Expansionsplänen sowie für Öl- und Gasunternehmen, die neue Reserven erschließen oder Fracking betreiben, tabu seinAuch die Rüstungsindustrie gerät ins Visier: Die Entwicklung und der Einsatz von Letalen Autonomen Waffensystemen (LAWS) alias Killer-Robotern, die ohne menschliche Kontrolle Ziele auswählen, sowie die operative Planung kinetischer Angriffe über die Cloud werden strikt abgelehnt.

Besonders aktuell sind die Forderungen im Bereich der Künstlichen Intelligenz (KI) und Überwachung. Die Richtlinie orientiert sich hier am AI Act und untersagt Anwendungen mit "unannehmbarem Risiko"Dazu zählen etwa biometrisches Scraping zur Gesichtserkennung, Predictive Policing oder manipulative Techniken, die menschliches Verhalten schädlich beeinflussenAuch der Schutz der Demokratie spielt eine Rolle: Wer Deepfakes erstellt, um Wahlen zu manipulieren, oder die freiheitlich-demokratische Grundordnung zersetzen will, soll keinen Zugang mehr zu kritischer IT-Infrastruktur erhalten.

Ökologische Sorgfaltspflicht und faire Ketten

Neben der Kundenauswahl nimmt die Richtlinie die eigene Betriebsweise der Tech-Konzerne in die Pflicht. Angesichts des enormen Ressourcenverbrauchs verlangt Greenpeace, dass neue Rechenkapazitäten ausschließlich mit echtem Strom aus erneuerbaren Energien betrieben werden – wobei bloße Zertifikate für Grünstrom nicht ausreichenZudem sollen Anbieter verpflichtet werden, mindestens 25 Prozent ihrer Abwärme weiterzuverwerten und auf den Einsatz von Trinkwasser zur Kühlung in wasserarmen Regionen zu verzichten.

Die Verantwortung endet aber nicht an der Tür des Rechenzentrums. Die Hardware-Lieferketten vom Bergbau bis zur Fertigung müssen transparent gemacht und auf Menschenrechtsverstöße geprüft werdenAuch für die oft unsichtbaren "Clickworker", die Daten für KI-Systeme aufbereiten, fordert die Selbstverpflichtung faire Löhne und den Schutz vor moderner Sklaverei.

Relevanz für den Standort Deutschland

Die Veröffentlichung kommt zu einem kritischen Zeitpunkt. Die Bundesregierung unter Bundeskanzler Friedrich Merz verfolgt ambitionierte Ziele für den digitalen Standort Deutschland. Erst im März beschloss die Exekutive, die Kapazitäten für Rechenzentren bis 2030 zu verdoppeln. Cie Anschlussleistung für Cloud-Computing und KI soll sich sogar vervierfachen. Parallel dazu fließen Milliarden: Allein AWS plant Investitionen von 7,8 Milliarden Euro in Deutschland. Auch Google und Microsoft bauen ihre Standorte massiv aus.

In diesem Kontext warnen Kritiker davor, dass der technologische Fortschritt ohne ethische Leitplanken zu Lasten der Umwelt und sozialer Standards gehen könnte. Die Forderung nach digitaler Souveränität, die Merz gemeinsam mit dem französischen Präsidenten Emmanuel Macron als europäisches Ziel ausgegeben hat, muss laut Greenpeace zwingend mit ethischen Mindeststandards verknüpft werden. Nur so könne technologischer Fortschritt langfristig zum echten Wettbewerbsvorteil werden, der dem Gemeinwohl dient.

Um die Einhaltung der ambitionierten Regeln sicherzustellen, schlägt Greenpeace die Einberufung eines unabhängigen, externen Ethik-Rats vorDieser soll Empfehlungen zur Beendigung der Zusammenarbeit mit kritischen Kunden veröffentlichenZudem sollen Ingenieure das vertraglich zugesicherte Recht erhalten, die Arbeit an Projekten zu verweigern, die gegen den Kodex verstoßen – ohne berufliche Nachteile fürchten zu müssenEs ist ein weitreichender Entwurf, der Big-Tech-Unternehmen vor die Wahl stellt: Bleiben sie "Technologie-Vermieter" oder werden sie zu verantwortungsvollen Akteuren einer demokratischen Zukunft?

Stefan Krempl

Patientenwohl vor Tempo: Bundesregierung setzt bei Gesundheits-KI auf Kontrolle

Strenge Auflagen für Evidenz und Transparenz sollen laut der Bundesregierung die Sicherheit im digitalen Gesundheitswesen garantieren und neue Datenräume Innovationen fördern.


Die Idee einer digitalisierten Medizin, in der Künstliche Intelligenz (KI) Diagnosen unterstützt, Patientenströme effizient lenkt und telemedizinische Plattformen die Versorgung im ländlichen Raum sichern, ist oft zu hören. Doch wer in Deutschland auf einen schnellen Durchmarsch kommerzieller Plattformmodelle nach internationalem Vorbild gehofft hat, wird durch eine jetzt veröffentlichte Antwort der Bundesregierung auf eine parlamentarische Anfrage auf den Boden der regulatorischen Tatsachen zurückgeholt. Die Exekutive erkennt zwar das immense Potenzial von KI-Assistenzsystemen an, zieht aber gleichzeitig eine rote Linie: Innovation dürfe nie zulasten der Patientensicherheit oder der Qualität medizinischer Leistungen gehen.

In der Auskunft macht die Bundesregierung deutlich, dass sie digital integrierte Versorgungsplattformen, die Telemedizin, KI und physische Strukturen bündeln, zwar fortlaufend beobachtet. Diese stellten aber keinen originären Bestandteil der Regelversorgung in der gesetzlichen Krankenversicherung darWer solche Dienste privat anbieten will, muss sich demnach einem engmaschigen Geflecht aus Qualitätsanforderungen, Datenschutzvorgaben und regulatorischen Rahmenbedingungen beugen.

Besonders deutlich wird dies bei der Bewertung von KI-gestützten Funktionen in der Patientensteuerung, wie etwa digitalen Symptom-Checkern oder Triage-Assistenten. Hier fordert die Regierung unter Federführung des Bundesministeriums für Gesundheit (BMG) unter Ministerin Nina Warken (CDU) strikte Evidenz und volle TransparenzHersteller und Nutzer sind gleichermaßen in der Pflicht, die nationalen und europarechtlichen Standards einzuhalten.

Ein zentraler Baustein für die Zukunft der datengestützten Medizin in Deutschland ist der Aufbau sicherer Infrastrukturen. Das seit Jahren rechtlich umkämpfte Forschungsdatenzentrum Gesundheit und der kommende Europäische Gesundheitsdatenraum (EHDS) sollen den datenschutzkonformen Zugriff auf sensible Informationen ermöglichenAb Ende 2026 ist geplant, dass auch Daten aus der elektronischen Patientenakte (ePA) für Forschungszwecke freigegeben werden könnenDas soll nicht nur Innovationen fördern, sondern durch eine breite Datengrundlage auch das Risiko von Verzerrungen (Biases) in KI-Modellen minimierenDie Regierung setzt dabei auf ein vernetztes Gesundheitsdatenökosystem, das Qualität und Sicherheit vereint.

Trotz dieser Ambitionen zeigt die Regierungsantwort auch Lücken auf. Eine systematische Bewertung der Wirksamkeit telemedizinischer Angebote findet derzeit nicht statt, eine Übersicht zu beauftragten Studien zur Digitalisierung liegt ebenfalls nicht vorAuch bei der Infrastruktur bleiben Fragen offen: Während es für Krankenhäuser detaillierte Daten zur Breitbandversorgung gibt, herrscht bei anderen Akteuren wie Arztpraxen oder dem Rettungsdienst InformationsmangelUm die Resilienz gegen Cyberangriffe zu stärken, konzeptioniert das BMG jedoch ein "Sofortprogramm Cybersicherheit" mit einem Volumen von 1,83 Milliarden Euro.

In Haftungsfragen verweist das Ressort auf das bestehende Recht für Medizinprodukte sowie die europäische KI-VerordnungHochrisiko-KI-Systeme unterliegen demnach besonders strengen SorgfaltspflichtenDamit Software künftig unabhängig von ihrer Bereitstellung umfassend in die Produkthaftung einbezogen wird, befindet sich zudem ein entsprechendes Modernisierungsgesetz im parlamentarischen Verfahren.

Um den Transfer digitaler Anwendungen in die Praxis zu beschleunigen, plant die Regierung die Einrichtung von KI-ReallaborenHier sollen Entwickler Unterstützung bei der Bewältigung regulatorischer Hürden finden. Ziel bleibt ein vernetztes System ohne proprietäre Abhängigkeiten, wobei Interoperabilität als Grundvoraussetzung für ein modernes Gesundheitswesen definiert wirdLock-in-Effekte durch geschlossene Systeme will die Exekutive durch verbindliche Standards und offene Schnittstellen verhindern. Deutschland wählt so einen Weg, der technologischen Fortschritt eng an staatliche Kontrolle und Patientenschutz bindet.

Stefan Krempl