Montag, 27. April 2026

Versteckte Potenzialanalyse: Wie Erneuerbare die Gemeindekassen füllen könnten

Eine Studie im Auftrag des Wirtschaftsministeriums zeigt enorme Gewinnchancen für Kommunen durch Ökostrom – doch Ministerin Reiche lässt die Ergebnisse in der Schublade.

Die Zahlen, die das Institut für ökologische Wirtschaftsforschung (IÖW), das Berlin-Institut für Bevölkerung und Entwicklung sowie das Institut der deutschen Wirtschaft Köln Consult zusammengetragen haben, sind beachtlich. Erreicht Deutschland seine Ausbauziele für erneuerbare Energien, könnten die direkten Einnahmen für Städte und Landkreise von derzeit 5,5 Milliarden Euro auf rund 12,4 Milliarden Euro jährlich ansteigen. Besonders ländliche Regionen, die oft unter strukturellen Defiziten leiden, dürften durch Steuereinnahmen, Pachtzahlungen und neue Arbeitsplätze massiv profitieren. Laut den Modellrechnungen für alle rund 400 deutschen Landkreise würde die Zahl der Vollzeitarbeitsplätze in diesem Sektor bundesweit auf über 100.000 steigen.

Dass diese positiven Aussichten nicht offensiv vom Bundeswirtschaftsministerium kommuniziert werden, sorgt in Fachkreisen für Irritationen. Die Studie war bereits Anfang des Jahres fertiggestellt und ist auf den 27. Februar 2026 datiert. Erst Mitte April tauchte sie fast unbemerkt auf einer Unterseite des Ministeriums sowie nun auch beim IÖW auf, ohne begleitende Pressemitteilung oder öffentliche Vorstellung durch die Ministerin Katherina Reiche (CDU).

Beobachter vermuten hinter dieser Zurückhaltung politisches Kalkül. Die Ministerin betont in ihrer Amtsführung regelmäßig die Notwendigkeit von Kosteneffizienz und verweist auf die Belastungen durch den schleppenden Netzausbau. Ein Bericht, der die wirtschaftlichen Segnungen der Wind- und Solarkraft so deutlich hervorhebt, passt offenbar nicht in das aktuelle Narrativ ihres Ressorts. Dieses fiel unter der Führung Reiches zuletzt eher durch Gesetzesvorhaben auf, die den Ausbau der Erneuerbaren erschweren würden.

Dabei liefert die Untersuchung wertvolle Hinweise darauf, wie die Akzeptanz für die Energiewende vor Ort gesteigert werden kann. Ein zentraler Punkt ist die Verteilung der Gewinne. Bisher fließt fast die Hälfte der Wertschöpfung aus den Regionen ab, weil viele Anlagen großen, überregionalen Investoren gehören. Die Studienautoren betonen, dass das volle Potenzial nur dann ausgeschöpft wird, wenn die Kommunen und ihre Bürger finanziell am Betrieb der Anlagen beteiligt sind.

Bürgerenergiegesellschaften, kommunale Eigeninvestitionen und lokale Stromtarife sind hier die entscheidenden Hebel. In Pionierregionen wie Wunsiedel in Bayern oder Lichtenau in Nordrhein-Westfalen lässt sich bereits beobachten, wie die Energiewende zum Wirtschaftsmotor wird. In solchen Vorreiter-Kommunen sind bis zu zehn Prozent des lokalen Wirtschaftswachstums der letzten Dekade direkt auf die grüne Infrastruktur zurückzuführen.

Die Mehreinnahmen in den Gemeindekassen sind dabei kein Selbstzweck. Die Analyse zeigt einen direkten Zusammenhang zwischen den Erträgen aus erneuerbaren Energien und der Verbesserung der sozialen Infrastruktur. Kommunen mit hohen Einnahmen aus Wind- und Solarparks investieren vermehrt in die Breitbandversorgung oder höhere Kita-Quoten. Damit wird der Ausbau der Energieinfrastruktur zu einem Instrument der regionalen Strukturpolitik.

Um diese Effekte bundesweit zu verstetigen, empfehlen die Experten jedoch deutliche Nachbesserungen an den gesetzlichen Rahmenbedingungen. So müssten finanzschwache Kommunen bessere Möglichkeiten zur Kreditaufnahme für Energieprojekte erhalten, und die Gründung von Genossenschaften sollte bürokratisch vereinfacht werden.

Die Tatsache, dass das Wirtschaftsministerium diese Handlungsempfehlungen bisher weitgehend ignoriert und die Studie erst nach öffentlichem Druck der Institute überhaupt auffindbar machte, wirft Fragen nach der strategischen Ausrichtung der deutschen Energiepolitik unter der aktuellen Regierung auf. Während die wissenschaftlichen Daten eine klare Sprache für eine beschleunigte, regional verankerte Energiewende sprechen, scheint das Ministerium den Fokus eher auf die Probleme und Kosten der Transformation zu legen.

Für die Kommunen bleibt die Erkenntnis, dass das Wissen um ihren möglichen Wohlstand zwar vorhanden ist, im politischen Berlin aber derzeit wenig Gehör findet. Die Information, dass die Institute mutmaßlich erst nach einer Publikation vergütet werden, verleiht der späten Veröffentlichung zudem einen faden Beigeschmack – es wirkt, als sei die Transparenz hier eher eine buchhalterische Notwendigkeit als ein politisches Anliegen gewesen.

Stefan Krempl

Sonntag, 26. April 2026

Algorithmen unter Aufsicht: Wie KI und Plattformen die Meinungsvielfalt bedrohen

Künstliche Intelligenz und mächtige Intermediäre verändern die öffentliche Debatte. Gutachter fordern im Auftrag der Medienanstalten eine Reform des Rechtsrahmens und klare KI-Kennzeichnungen.

Die Art und Weise, wie wir uns heute eine Meinung bilden, hat sich fundamental gewandelt. Wo früher redaktionelle Auswahlprozesse dominierten, entscheiden heute komplexe Algorithmen globaler Plattformen darüber, welche Informationen uns erreichen. Diese digitalen Vermittler (Intermediäre) sind längst keine neutralen Durchreichtüten mehr, sondern aktive Gestalter der öffentlichen Kommunikation. Ein Gutachten der Professoren Christoph Busch und Jan Oster im Auftrag der Gremienvorsitzendenkonferenz (GVK) der Medienanstalten legt nun den Finger in die Wunde: Der aktuelle Rechtsrahmen, ein Geflecht aus europäischem und nationalem Recht, weist demnach kritische Lücken auf Diese werden insbesondere durch den rasanten Aufstieg der Künstlichen Intelligenz (KI) immer sichtbarer.

Im Zentrum der Analyse steht das regulatorische Mehrebenensystem. Mit dem Digital Services Act (DSA) und dem European Media Freedom Act (EMFA) hat die EU laut der Untersuchung zwar mächtige Instrumente geschaffen. Doch die Verzahnung mit nationalen Gesetzen wie dem Medienstaatsvertrag ist noch nicht vollständig geglückt. Die Gutachter machen deutlich, dass wir es mit einem Flickenteppich an Zuständigkeiten zu tun haben, der besonders bei grenzüberschreitenden Sachverhalten die Durchsetzung von Mindeststandards erschwert. Wenn eine Plattform ihren Sitz im EU-Ausland hat, stoßen nationale Aufseher oft an ihre Grenzen, was gerade beim Schutz von Kindern und Jugendlichen fatale Folgen haben kann.

Ein besonderes Risiko für die Meinungsvielfalt sehen die Experten in der Verschmelzung von Suchmaschinen, sozialen Netzwerken und generativer KI. Systeme wie ChatGPT oder moderne Such-Bots verändern die Rollenverteilung im Netz. Während der DSA klassische Vermittler privilegiert, agieren KI-Systeme oft als Produzenten von Inhalten. Die Sachverständigen fordern daher, dass der Medienstaatsvertrag um spezifische Kategorien für KI-generierte Inhalte erweitert wird. Es müsse für Nutzer jederzeit transparent sein, ob sie mit einem Menschen oder einer Maschine interagieren. Kennzeichnungspflichten für Social Bots und automatisierte Accounts müssten drastisch verschärft werden, um die gezielte Manipulation des öffentlichen Diskurses zu verhindern.

Auch die Frage der Verantwortung stellt sich laut der Analyse neu. Bisher profitieren viele Plattformen von weitreichenden Haftungsprivilegien, solange sie keine Kenntnis von rechtswidrigen Inhalten haben. Angesichts der schieren Masse an Desinformation und Hassrede regen Busch und Oster an, diese Privilegien zu überdenken. Eine stärkere Zurechnung von Verantwortung sei notwendig, um die Plattformbetreiber zu einer proaktiveren Sicherung der Meinungsvielfalt zu bewegen. Dazu gehöre auch, dass journalistisch-redaktionelle Angebote durch Transparenzanforderungen und privilegierte Auffindbarkeit gestärkt werden, um ein Gegengewicht zu rein algorithmisch gesteuerten Trends zu bilden.

Der GVK-Vorsitzende Albrecht Bähr unterstreicht die Dringlichkeit dieser Anpassungen. Das Gutachten liefere die wissenschaftliche Basis für zwei zentrale Handlungsachsen der künftigen Medienpolitik. Zum einen müsse der Jugendmedienschutz so weiterentwickelt werden, dass er auch gegenüber Plattformen ohne deutschen Sitz effektiv durchgreifen könne. Ferner brauche es eine Reform der Vielfaltssicherung, die der wachsenden Bedeutung der Intermediäre für die Auffindbarkeit von Inhalten Rechnung trägt. Ohne klare Regeln für Transparenz und Aufsicht drohe die Gefahr, dass die demokratische Willensbildung zum Spielball kommerzieller Algorithmen wird. Das Ziel ist klar: Ein kohärentes Schutzsystem, das die Medienfreiheit im digitalen Zeitalter nicht nur verwaltet, sondern aktiv verteidigt.

Stefan Krempl

Freitag, 24. April 2026

„Tech-Faschismus“ vs. Staatsraison: Länder gespalten über Palantir-Manifest

Hessen und Bayern halten trotz radikaler Forderungen des US-Konzerns Palantir an der Software fest. Andere Bundesländer verschärfen ihre Ablehnung und Kritik.

Der Aufstieg von Palantir liest sich wie ein Drehbuch für einen Silicon-Valley-Thriller. Innerhalb weniger Jahre hat sich das von Peter Thiel mitbegründete Unternehmen zu einem der einflussreichsten Akteure der globalen Sicherheitsarchitektur entwickelt. Das US-Militär und die dortigen Einwanderungsbehörden setzen längst auf die Analyse-Tools. Palantir-Software ist auch in deutschen Polizeibehörden schon einige Jahre Realität. Bayern, Hessen und Nordrhein-Westfalen nutzen die Plattform bereits intensiv, um riesige Datenmengen zu verknüpfen und Ermittlungserfolge zu beschleunigen. Doch nun sorgt ein neues politisches Manifest der Firmenleitung für Erschrecken. Es befeuert Vorwürfe eines drohenden „Tech-Faschismus“.

In dem Pamphlet, das auf dem Buch „The Technological Republic“ von CEO Alexander Karp und Mitgründer Nicholas Zamiska basiert, entwirft Palantir eine radikale Vision für die westliche Welt. Das Manifest umfasst 22 Punkte und liest sich wie eine Kampfansage an liberale Gesellschaftsmodelle. Die Autoren fordern eine kompromisslose Allianz zwischen Tech-Giganten und dem Staat, die Entwicklung autonomer KI-Waffen und die Wiedereinführung der Wehrpflicht.

Brisant sind die ideologischen Ausfälle gegen gesellschaftliche Werte wie Pluralismus und Inklusivität. Karp & Co. sprechen sich offen gegen eine „hohle“ Vielfalt aus. Sie beklagen, dass Werturteile über Kulturen tabuisiert würden. Dabei unterscheiden sie explizit zwischen fortschrittlichen und „rückständigen oder schädlichen“ Kulturen – eine Rhetorik, die in internationalen Medien scharfe Kritik auslöst.

Auch Deutschland rückt direkt in das Visier der Palantir-Ideologen. Die Autoren fordern, die „Kastration“ der Bundesrepublik nach dem Zweiten Weltkrieg rückgängig zu machen. Deutschland die „Zähne zu ziehen“, wird als historische Überkorrektur bezeichnet, für die Europa heute einen hohen Preis zahle. Es ist der Ruf nach einer umfassenden Remilitarisierung, die Hand in Hand mit der algorithmischen Aufrüstung gehen soll.

Trotz dieser offen politisch-reaktionären Agenda reagieren viele deutsche Innenministerien auffallend pragmatisch bis ausweichend. Hessens Innenminister Roman Poseck (CDU) betont etwa gegenüber ZDF heute, dass die persönlichen Ansichten der Firmenleitung nichts an der Notwendigkeit der Software änderten. Man könne es sich schlicht nicht leisten, auf die Technologie zu verzichten, ohne erhebliche Sicherheitslücken zu riskieren.

Ähnlich klingt es aus Bayern, wo führende Politiker auf das bestehende Vertragsverhältnis verweist, das durch Manifeste nicht berührt werde. Die bayerische Polizei schätze die Fähigkeit der Software, Informationen aus verschiedenen Datenbanken in einer einheitlichen Umgebung zu vernetzen. Was früher Stunden oder Tage dauerte, gelinge nun in Sekunden. Diese Effizienzsteigerung bei der Gefahrenabwehr wiege für viele Entscheidungsträger schwerer als die moralischen Bedenken gegenüber den Hintermännern der Technik. Auch Baden-Württemberg sieht in Palantir eine unverzichtbare Lösung, da eine händische Auswertung der Datenmengen angesichts der aktuellen Sicherheitslage nicht mehr zeitgemäß sei.

Umso stärker ist die Ablehnung in anderen Teilen Deutschlands spürbar. Niedersachsen lehnt den Einsatz der Software strikt ab und sieht sich durch die jüngsten Äußerungen des Unternehmens in dieser Haltung bestätigt. Bundesländer wie Rheinland-Pfalz setzen konsequent auf europäische Alternativen und führen produktoffene Marktsichtungen durch. Auch auf der Ebene der Innenministerkonferenz wurde bereits das Ziel formuliert, die digitale Souveränität Europas zu stärken und Abhängigkeiten von US-Konzernen zu verringern. Bremen betont, dass dies die langfristige Strategie sein müsse, um nicht dauerhaft am Tropf von Unternehmen zu hängen, deren Wertekompass so fundamental von europäischen Standards abweicht.

Das Dilemma der deutschen Sicherheitsbehörden bleibt die zeitliche Komponente. Während Nordrhein-Westfalen zwar eine „digital souveräne Lösung“ als perspektivisches Ziel ausgibt, laufen aktuelle Ausschreibungen oft wieder auf die etablierten Anbieter hinaus. Die Entwicklung vergleichbarer europäischer Anwendungen steckt vielerorts noch in den Kinderschuhen. Bayern gibt sich zwar zuversichtlich, dass heimische Unternehmen bald aufschließen könnten. Zugleich warnt der Freistaat aber davor, jahrelang auf moderne Werkzeuge zu verzichten, bis diese fertiggestellt sind. So bleibt Palantir vorerst ein höchst umstrittener Anbieter im Maschinenraum der deutschen inneren Sicherheit. Das Unternehmen rüttelt gleichzeitig an den ideologischen Grundfesten eben jener Demokratie, die es zu schützen vorgibt.

Stefan Krempl

Digitale Souveränität: Der Bund kommt bei Open Desk kaum vom Fleck

Trotz vollmundiger Versprechen bleibt die Bundesverwaltung fest in US-Hand. Eine echte Open-Source-Alternative soll erst 2028 fertig sein, doch es hagelt Kritik.

Die ambitionierte Vision eines unabhängigen, staatlichen Arbeitsplatzes kollidiert schmerzhaft mit der harten Realität der Berliner Ministerien. Trotz der vollmundigen Ankündigung, sich aus der Umklammerung proprietärer Anbieter zu lösen, verdeutlichen aktuelle Daten aus zwei Antworten der Bundesregierung auf Anfragen der Linksfraktion ein deutliches Übergewicht US-amerikanischer Technologie. Rund acht Milliarden Euro umfasst das Gesamtvolumen der Verträge, die der Bund mit Softwarehäusern aus Übersee geschlossen hat, wie SZ-Dossier vorab etwa hier berichtet. Allen voran dominiert Microsoft das Feld mit einem Volumen von über vier Milliarden Euro, gefolgt von Schwergewichten wie Oracle und Cisco.

In der Praxis bedeutet dies eine fast absolute Abhängigkeit: Nahezu 475.000 Microsoft-Arbeitsplätzen stehen gerade einmal rund 8500 produktive Lizenzen der Open-Source-Alternative Open Desk gegenüber – ein Marktanteil von weniger als zwei Prozent.

Besonders ernüchternd ist der Blick auf die Zeitpläne der digitalen Transformation. Open Desk, das vom Zentrum für digitale Souveränität (Zendis) entwickelt wird, fungiert derzeit noch nicht als echter Ersatz. Die freie Office-Suite wird lediglich in Teststellungen erprobt. Eine erste belastbare Version des Systems wird erst für das Frühjahr 2027 erwartet, während das Ziel eines vollständig souveränen Arbeitsplatzes sogar bis Ende 2028 in noch weiterer Ferne liegt.

Diese schleppende Umsetzung provoziert scharfe Kritik von Oppositionspolitikern, die der Bundesregierung „Souveränitäts-Washing“ vorwerfen: Die Regierung beschwöre zwar ständig digitale Unabhängigkeit. Doch das Geld fließe weiterhin in Rahmenverträge mit Hyperscalern. Dies schwäche die heimische Softwareindustrie und zementiere die strukturelle Bindung an US-Infrastrukturen.

Die personellen und organisatorischen Hürden innerhalb der Verwaltung erweisen sich als starke Beharrungskräfte. Das Verteidigungsministerium setzt fast ausschließlich auf Microsoft. Doch auch bei zentralen Projekten wie der Entwickler-Plattform Open Code fehlt es laut den Auskünften an langfristiger Planung und gesicherter Finanzierung. Im vergangenen Jahr entfiel lediglich ein Bruchteil der staatlichen Software-Entwicklungsaufträge auf Open-Source-Projekte. Solange kein verbindlicher Fahrplan für einen flächendeckenden Rollout existiert und die Bundesländer bei der Kooperation zögern, bleibt die digitale Souveränität Deutschlands ein teures Versprechen auf dem Papier. Dabei wird die technologische Abhängigkeit in Zeiten geopolitischer Spannungen zunehmend zum Sicherheitsrisiko.

Stefan Krempl

Montag, 20. April 2026

KI unter eigener Kontrolle: Mozilla-Tochter MZLA stellt Thunderbolt vor

Mit Thunderbolt und der Integration in das Haystack-Framework bietet MZLA Unternehmen eine Open-Source-Alternative zu KI in der Cloud, die vollständig auf eigener Infrastruktur läuft.

Die Goldgräberstimmung im Bereich der Künstlichen Intelligenz hat eine Kehrseite, die viele Unternehmen zunehmend nervös macht: Die Abhängigkeit von den Infrastrukturen und Datenschutzbestimmungen großer Cloud-Anbieter. Wer heute modernste Sprachmodelle nutzen will, muss seine sensiblen Daten meist auf die Server von Drittanbietern schieben. Dass dies für Behörden, die Luftfahrtindustrie oder das Gesundheitswesen oft keine Option ist, hat nun MZLA Technologies erkannt. Die Tochtergesellschaft der Mozilla Foundation, die vor allem für die Entwicklung des E-Mail-Clients Thunderbird bekannt ist, greift mit Thunderbolt nun in den Markt für Enterprise-KI ein.

Ein Arbeitsplatz unter eigener Flagge

Thunderbolt versteht sich nicht als bloßes Chat-Fenster, sondern als souveräner KI-Workspace. Ziel ist es, Organisationen die Autonomie zurückzugeben, die im Zeitalter von „Software as a Service“ oft verloren gegangen ist. Der Client ist quelloffen, selbst hostbar und modular aufgebaut. Das bedeutet: Unternehmen entscheiden selbst, welches Gehirn hinter der Oberfläche arbeitet. Ob kommerzielle Schnittstellen führender Anbieter oder lokal betriebene Open-Source-Modelle zum Einsatz kommen, bleibt der IT-Abteilung überlassen.

Dabei geht der Funktionsumfang über einfaches Prompting hinaus. Thunderbolt ist darauf ausgelegt, tief in die Arbeitsabläufe einzutauchen. Nutzer können über den Client nicht nur chatten oder recherchieren, sondern auch komplexe Automatisierungen erstellen. So lassen sich tägliche Briefings generieren, spezifische Themenfelder überwachen oder Berichte auf Basis interner Datenquellen erstellen. Da native Applikationen für Windows, macOS, Linux sowie iOS und Android bereitstehen, soll die KI-gestützte Arbeit nahtlos über alle Endgeräte hinweg funktionieren, ohne dass die Sicherheitskette unterbrochen wird.

Die Tiefe des Stacks: Allianz mit Deepset

Technische Schlagkraft erhält Thunderbolt durch die Kooperation mit dem Berliner Unternehmen Deepset. Durch die Integration von Haystack, einem der führenden Open-Source-Frameworks für die Orchestrierung von KI-Agenten und Retrieval Augmented Generation (RAG), wird die Brücke zwischen der Benutzeroberfläche und der IT-Infrastruktur geschlagen. Thunderbolt das Gesicht der KI dar, sorgt Haystack im Hintergrund dafür, dass die Modelle effizient auf die tatsächlichen Daten des Unternehmens zugreifen können.

Diese Kombination adressiert ein Kernproblem aktueller KI-Implementierungen: die Fragmentierung. Oft nutzen Abteilungen isolierte Tools, die nicht miteinander kommunizieren und deren Datenfluss kaum kontrollierbar ist. Der integrierte Ansatz von MZLA und Deepset ermöglicht dagegen einen „Sovereign AI Stack“. Dabei ist der gesamte Prozess – von der Datenabfrage über die Verarbeitung durch Agenten bis hin zur Ausgabe im Client – innerhalb einer kontrollierten, oft vollständig lokalen Umgebung gekapselt. Für besonders sicherheitskritische Bereiche bietet MZLA zudem eine Ende-zu-Ende-Verschlüsselung und Zugriffskontrollen auf Geräteebene an.

Strategische Trennung und Verfügbarkeit

Interessant ist die organisatorische Aufstellung hinter dem Projekt. Thunderbolt wird zwar von der Mozilla-Tochter MZLA gesteuert, aber von einem spezialisierten Team entwickelt, das strikt von der spendenfinanzierten Thunderbird-Entwicklung getrennt ist. Die Finanzierung erfolgt durch eine dedizierte Investition von Mozilla, was unterstreicht, dass man hier ein ernsthaftes kommerzielles Standbein im Enterprise-Sektor aufbauen möchte.

Der Quellcode von Thunderbolt ist bereits auf GitHub einsehbar, was dem Transparenzanspruch von Mozilla entspricht. Wer das System produktiv nutzen will, kann sich derzeit auf eine Warteliste setzen lassen. Für Unternehmen wird ein Preismodell angeboten, das sich nach dem Grad des Supports und der Komplexität der Bereitstellung richtet. Hier kommen auch Integrationspartner ins Spiel, die Thunderbolt zusammen mit souveränen Speicherlösungen und spezialisiertem Engineering-Support als Komplettpaket ausliefern können.

Trotz der vielversprechenden technischen Basis bleibt ein Wermutstropfen beim Marketing hängen: Die Namenswahl. In einer Tech-Welt, in der „Thunderbolt“ seit Jahren fest als Begriff für eine Hardware-Schnittstelle von Intel und Apple besetzt ist, könnte die Bezeichnung des KI-Clients für Verwirrung sorgen. Doch wenn das Versprechen von digitaler Souveränität und technologischer Unabhängigkeit eingelöst wird, dürfte der Name für die IT-Entscheider zweitrangig sein. MZLA positioniert sich jedenfalls rechtzeitig als Speerspitze für all jene, die KI nutzen wollen, ohne die Kontrolle über ihre digitale DNA abzugeben.

Stefan Krempl

Samstag, 18. April 2026

Massive Cloud-Abhängigkeit: US-Kill-Switch bedroht Europas Verteidigung

Eine Studie des Future of Technology Institute warnt vor der gefährlichen Abhängigkeit europäischer Armeen von US-Tech-Giganten und fordert dringend digitale Souveränität für den Kontinent.

Die europäische Verteidigungsarchitektur weist eine Schwachstelle auf, die bisher weitgehend im Verborgenen blieb: die Abhängigkeit von US-amerikanischen Cloud-AnbieternEine Untersuchung der Denkfabrik FOTI (Future of Technology Institute) zeigt erstmals das volle Ausmaß dieser digitalen Flanke aufDemnach verlassen sich mehr als drei Viertel der untersuchten europäischen Staaten bei kritischen nationalen Sicherheitsfunktionen auf US-TechnologieIn 23 von 28 analysierten Ländern basieren die Verteidigungssysteme direkt oder über europäische Zwischenhändler auf der Infrastruktur von Konzernen wie Microsoft, Google oder Oracle.

Gefährlich ist laut der Analyse das Risiko eines „Kill-Switch“Damit ist die Möglichkeit gemeint, dass der Zugang zu lebenswichtigen Systemen für Logistik, Personalmanagement oder gar Waffensysteme durch US-Sanktionen oder politische Entscheidungen von heute auf morgen gekappt werden könnte. der Untersuchung zufolge sind 16 europäische Länder, darunter Deutschland, Polen und Großbritannien, einem hohen Risiko ausgesetztSie nutzen entweder direkt US-Cloud-Dienste oder verwenden Systeme, bei denen unklar ist, ob sie tatsächlich technologisch von der globalen US-Infrastruktur entkoppelt sind.

Die politische Dimension dieser Abhängigkeit hat sich durch die aggressive Tech-Politik der US-Regierung verschärftDie Autoren verweisen auf drastische Beispiele aus der jüngeren Vergangenheit: So wurde im Rahmen von Verhandlungen über Rohstoffabkommen damit gedroht, der Ukraine den Zugang zum Satellitendienst Starlink zu entziehenAuch die Sanktionierung von Richtern des Internationalen Strafgerichtshofs (IStGH) führte dazu, dass digitale Dienste wie E-Mail-Konten bei US-Anbietern kurzzeitig gesperrt wurdenSolche Vorfälle verdeutlichen, dass technologische Dominanz längst als geostrategische Waffe eingesetzt wird.

Viele Länder wiegen sich offenbar in einer trügerischen SicherheitOft werden Lösungen als „souverän“ vermarktet, basieren aber im Hintergrund weiter auf US-TechnikIn Deutschland etwa setzt die Bundeswehr auf eine Multi-Cloud-Strategie, die unter anderem Google-Lösungen verwendetSelbst sogenannte „Air-Gapped“-Systeme, die physisch vom Internet getrennt sein sollen, benötigen für Wartung und Updates oft den Zugriff der US-HerstellerWerden diese Leistungen durch Sanktionen unterbunden, ist die langfristige Betriebssicherheit gefährdet.

Nur ein einziges Land in Europa gilt derzeit als Vorreiter in Sachen digitaler Eigenständigkeit: ÖsterreichDie Alpenrepublik hat konsequent auf Open-Source-Lösungen wie Nextcloud und LibreOffice umgestellt und betreibt eine weitgehend souveräne Militär-CloudAuch in den Niederlanden gibt es Bestrebungen, diesem Beispiel zu folgen, wenngleich dort aktuell noch Abhängigkeiten von Microsoft und Amazon bestehen.

Die Sorge vor dieser Übermacht der US-Hyperscaler wird auch von der Bevölkerung geteilt. Eine begleitende Umfrage in großen EU-Staaten ergab, dass rund zwei Drittel der Befragten in Ländern wie Deutschland, Frankreich und Italien die Speicherung staatlicher Daten bei US-Konzernen als Bedrohung für die europäische Sicherheit betrachten.

Experten vom FOTI fordern daher ein UmsteuernStatt Milliarden an Steuergeldern in Form von Lizenzgebühren an US-Unternehmen abzuführen, sollte dieses Kapital in den Aufbau einer eigenen, europäischen Cloud-Industrie fließenDigitale Resilienz müsse zum Kernbestandteil der europäischen Verteidigungsstrategie werdenEin „Weiter so“ könne sich Europa angesichts der unberechenbaren geopolitischen Lage nicht mehr leisten.

Stefan Krempl

Brüsseler Cookie-Pläne: EU-Ratspräsidentschaft bremst Datenschutz-Reform

Der "Digitale Omnibus" soll Ordnung in das europäische Digitalrecht bringen. Doch beim Thema Cookie-Banner flammt neuer Streit zwischen den Mitgliedstaaten und der EU-Kommission auf.

In Brüssel brodelt es beim Thema digitale Selbstbestimmung. Während die EU-Kommission mit dem „Digital Omnibus“-Paket die europäische Gesetzgebungslandschaft radikal vereinfachen und bürokratische Lasten abbauen will, regt sich im Ministerrat Widerstand gegen die geplanten Änderungen an den DatenschutzregelnEin aktueller Kompromissvorschlag der zyprischen Ratspräsidentschaft, den Table.Media veröffentlicht hat, offenbart Risse in der Strategie, wie Nutzer künftig über ihre Daten im Netz entscheiden sollen.

Im Zentrum des Streits steht die Verwaltung von Cookies. Die Kommission strebt an, die Einwilligung in das Speichern und Auslesen von Informationen auf Endgeräten – sofern es sich um personenbezogene Daten handelt – künftig direkt unter das Regime der Datenschutz-Grundverordnung (DSGVO) zu stellenDamit würde ein wesentlicher Teil der bisherigen E-Privacy-Richtlinie in die DSGVO überführt. Die Vorgaben zum Datenschutz in der elektronischen Kommunikation sollen nach den Plänen der Brüsseler Regierungsinstitution nur noch dann greifen, wenn keine personenbezogenen Daten im Spiel sind.

Genau hier warnen Länder wie Frankreich, Polen und Rumänien vor einem juristischen Chaos. Die Befürchtung: Es entstehen zwei parallele Regelwerke für technisch identische Vorgänge, was die Rechtsunsicherheit für Unternehmen und Webseitenbetreiber erhöhen könnte. Die Mitgliedstaaten lehnen diesen Ansatz einer zweigeteilten Zuständigkeit ab und fordern stattdessen mehr Klarheit statt neuer bürokratischer Hürden durch einander überschneidende Verordnungen.

Trotz der Ablehnung der strukturellen Reform zeigen sich die EU-Länder in einem Punkt indes überraschend offen für Neuerungen, die das Surfen im Alltag erleichtern könnten. Diskutiert wird die Einführung einer zentralen Cookie-Einwilligung. In der Praxis würde dies bedeuten, dass Nutzer ihre Vorlieben einmalig festlegen können – etwa über Browser-Einstellungen oder spezielle Schnittstellen –, anstatt bei jedem einzelnen Website-Besuch erneut von Pop-ups zur Zustimmung oder Ablehnung gedrängt zu werden.

Diese zentralisierten Entscheidungen sollen zudem eine längere Haltbarkeit bekommen. Der Vorschlag sieht vor, dass eine einmal getroffene Ablehnung für einen Zeitraum von mindestens sechs Monaten respektiert werden mussWebseitenbetreiber dürften Nutzer in dieser Zeit nicht erneut mit Einwilligungsanfragen belästigenDies soll die Zustimmungsmüdigkeit bekämpfen, die viele Nutzer dazu verleitet, wahllos auf „Akzeptieren“ zu klicken, um störende Banner loszuwerden.

Für die technische Umsetzung dieser Lösung sollen Anbieter von Web-Browsern und Online-Schnittstellen in die Pflicht genommen werden. Sie müssten die notwendigen Werkzeuge bereitstellen, damit Nutzer ihre Wahl automatisiert und maschinenlesbar an Webseiten übermitteln könnenDavon ausgenommen wären lediglich kleine und mittlere Unternehmen, um diese nicht durch zu komplexe IT-Anforderungen zu überlasten.

Der Entwurf der zyprischen Präsidentschaft versucht zudem, an anderer Stelle für Entlastung zu sorgen. So sollen Meldepflichten bei Sicherheitsvorfällen über eine zentrale nationale Anlaufstelle („Single Entry Point“) gebündelt werden, um zu verhindern, dass Unternehmen denselben Vorfall bei mehreren Behörden nach unterschiedlichen Standards melden müssenAuch für die Forschung und die Entwicklung von Künstlicher Intelligenz sieht das Papier Erleichterungen vor, sofern angemessene Schutzmaßnahmen für die Betroffenen gewahrt bleiben.

Ob sich die Mitgliedstaaten und das EU-Parlament auf Basis dieses Papiers einigen können, ist zweifelhaft. Der „Digital Omnibus“ zeigt, dass der Wunsch nach Vereinfachung in der komplexen Welt des Datenschutzes oft auf technische und juristische Realitäten trifft, die sich nicht so leicht in ein einziges Gesetzeswerk pressen lassen. Nutzer dürfen immerhin darauf hoffen, dass das Zeitalter der ewigen Cookie-Banner zumindest ein Stück weit seinem Ende entgegengeht.

Stefan Krempl