Dienstag, 28. April 2026

Abschied von Kohle, Öl und Gas: Städte werden zu Motoren der Energiewende

Metropolen weltweit zeigen auf einer wegweisenden Konferenz in Kolumbien, wie der Ausstieg aus fossilen Brennstoffen die wirtschaftliche Resilienz und Sicherheit stärkt.

Während sich in Santa Marta, Kolumbien, derzeit Regierungsvertreter aus über 60 Nationen zur ersten internationalen Konferenz über den Ausstieg aus fossilen Brennstoffen versammeln, wird eine Botschaft immer deutlicher: Die Abkehr von Kohle, Öl und Gas ist längst keine reine ökologische Notwendigkeit mehr, sondern der effektivste Hebel für globale Energiesicherheit und wirtschaftliche Stabilität. Die gemeinsame Initiative Kolumbiens und der Niederlande markiert einen Wendepunkt in der internationalen Klimadiplomatik, indem sie den Fokus von abstrakten Zusagen auf die konkrete, lokale Umsetzung lenkt. In einer Welt, die von volatilen Energiemärkten und geopolitischen Spannungen geprägt ist, erweisen sich fossile Abhängigkeiten zunehmend als Risiko für nationale Haushalte und die soziale Stabilität.

Urbane Zentren als strategische Vorreiter

Städte stehen im Epizentrum dieser Transformation. Da urbane Räume für rund 75 Prozent der energiebedingten globalen Emissionen verantwortlich sind, entscheidet sich der Erfolg der globalen Energiewende in den Straßen von Metropolen wie Bogota, London oder Warschau. Die aktuelle Datenlage stützt diesen Kurs: Neue Solar- und Windkraftanlagen produzieren Strom mittlerweile um mindestens 50 Prozent günstiger als fossile Kraftwerke. Angesichts der Tatsache, dass 92 Prozent aller Länder über ein Potenzial an erneuerbaren Energien verfügen, das ihren Bedarf um das Zehnfache übersteigt, wird der Ausstieg zunehmend zu einer Frage der ökonomischen Vernunft.

Innerhalb des C40-Netzwerks, einem Zusammenschluss führender Weltstädte, sinken die Pro-Kopf-Emissionen bereits seit vier Jahren kontinuierlich. Diese Entwicklung zeigt, dass nachhaltiges Wachstum und die Entkopplung von fossilen Importen machbar sind. In Melbourne etwa versorgt eine gemeinsame Beschaffungsstrategie für Ökostrom bereits sämtliche kommunalen Aktivitäten zu 100 Prozent aus regenerativen Quellen. Solche Modelle senken nicht nur die CO2-Bilanz, sondern schützen öffentliche Haushalte vor den Preisschocks der globalen Märkte.

Soziale Gerechtigkeit und neue Arbeitsmärkte

Ein zentraler Aspekt der Konferenz in Santa Marta ist der "gerechte Übergang". Der Ausstieg darf keine Elitenveranstaltung sein, sondern muss die Lebensqualität breiter Bevölkerungsschichten verbessern. In Warschau werden gezielt einkommensschwache Haushalte beim Umstieg auf saubere Heizungen unterstützt, um Energiearmut zu bekämpfen. In Curitiba, Brasilien, senkt die Nutzung von Solarenergie die Kosten für öffentliche Gebäude um fast ein Drittel, während gleichzeitig grüne Arbeitsplätze entstehen.

Die wirtschaftliche Dimension ist groß: Schätzungen zufolge könnten bis 2040 vier von zehn Arbeitsplätzen in den C40-Städten dem grünen Sektor angehören. Allein durch den Rückgang der Luftverschmutzung und die damit verbundene Verbesserung der öffentlichen Gesundheit ließen sich bis 2050 weltweit über 776.000 vorzeitige Todesfälle verhindern. Diese gesundheitlichen Vorteile übersetzen sich direkt in eingesparte Gesundheitskosten in Billionenhöhe.

Deutschlands Rolle und der globale Fahrplan

Auch die deutsche Bundesregierung und insbesondere das Umweltministerium wollen das Forum in Kolumbien nutzen, um ihre Erfahrungen mit dem Kohleausstieg und der Transformation der Industrie zu teilen. Mit dem Ziel, die erneuerbaren Energien bis 2030 auf 80 Prozent des Bruttostromverbrauchs auszubauen, setzt Deutschland auf eine massive Elektrifizierung von Wärme und Verkehr. Das aktuelle Klimaschutzprogramm sieht vor, allein bis 2030 Milliardenmengen an Erdgas und Benzin einzusparen.

International unterstützt Deutschland Projekte wie die Agri-Photovoltaik in Kolumbien, die Landwirtschaft und Stromerzeugung kombiniert, oder Strukturwandel-Projekte in Südafrika. Diese Partnerschaften verdeutlichen, dass der Verzicht auf fossile Brennstoffe vor allem im globalen Süden neue wirtschaftliche Perspektiven abseits der Krisenanfälligkeit schafft.

Die Ergebnisse der Beratungen in Santa Marta sollen in einen internationalen Fahrplan einfließen, den die brasilianische COP30-Präsidentschaft koordiniert. Dieser "Fahrplan der Macher" soll bis zur Weltklimakonferenz in Antalya später in diesem Jahr fertiggestellt werden und den globalen Konsens zur Verdreifachung der erneuerbaren Kapazitäten zementieren. Es geht nicht mehr um das "Ob", sondern um das "Wie" der Umsetzung – und die Städte der Welt haben bereits damit begonnen, die Antwort zu liefern.

Stefan Krempl

Digitaler Euro: EZB bläst zum Angriff auf die Dominanz von Visa und Mastercard

Mit offenen europäischen Standards schafft die EZB die Basis für eine Bezahl-Alternative mit dem digitalen Euro, die Verbrauchern mehr Auswahl und Sicherheit bieten soll.

Die Einführung des digitalen Euros nimmt eine weitere wichtige technische Hürde. Um das geplante digitale Zentralbankgeld für die breite Masse praktikabel und für den Handel attraktiv zu machen, verzichtet die Europäische Zentralbank (EZB) auf die Entwicklung völlig neuer, isolierter Insellösungen. Stattdessen hat die Notenbank nun formelle Vereinbarungen mit drei maßgeblichen europäischen Standardisierungsorganisationen getroffen. Die European Card Payment Cooperation (ECPC), Nexo Standards und die Berlin Group sollen sicherstellen, dass der digitale Euro auf einem Fundament steht, das in der europäischen Finanzwelt bereits fest verankert ist.

Anstatt das Rad neu zu erfunden, setzt die EZB so auf Interoperabilität. Ziel ist es, die Kosten für die Markteinführung so gering wie möglich zu halten und gleichzeitig die Abhängigkeit von außereuropäischen, oft proprietären Systemen der großen internationalen Kartenanbieter und Tech-Giganten zu verringern. In einer Zeit, in der das europäische Zahlungswesen stark von US-amerikanischen Infrastrukturen dominiert wird, markiert diese Kooperation den Versuch, eine souveräne, offene Alternative zu etablieren, die für alle Marktteilnehmer frei zugänglich ist.

Konkret geht es um drei technologische Verfahren, die unterschiedliche Aspekte des Bezahlvorgangs abdecken. Die ECPC steuert den sogenannten CPACE-Standard bei. Dieser bildet die Basis für das kontaktlose Bezahlen via NFC (Near Field Communication), also das klassische „Tap-to-Pay“, das Käufer heute bereits von Kreditkarten oder Smartphones kennen. Durch die Nutzung dieses Standards wird sichergestellt, dass digitale Euro-Zahlungen an physischen Terminals im Laden ohne massive Hardware-Aufrüstungen funktionieren könnten.

Die zweite Säule bildet die Expertise von Nexo. Hier liegt der Fokus auf der Kommunikation zwischen den Kassensystemen der Händler und den Backend-Systemen der Zahlungsdienstleister. Diese Spezifikationen sind entscheidend, damit eine Transaktion nicht nur am Terminal ausgelöst, sondern auch im Hintergrund korrekt verbucht und abgewickelt wird. Die Berlin Group wiederum bringt ihre Erfahrung im Bereich der Kontenschnittstellen und des Mobile Bankings ein. Ihre Standards ermöglichen es, Zahlungen über Pseudonyme wie Mobilfunknummern zu initiieren und Kontostände in Echtzeit abzugleichen – eine Grundvoraussetzung für die Nutzerfreundlichkeit einer digitalen Währung im Alltag.

Piero Cipollone, Mitglied des EZB-Direktoriums, unterstreicht die Bedeutung dieser Partnerschaft als Bekenntnis zum privaten Sektor. Die offenen Standards sollen es ihm zufolge insbesondere neuen europäischen Anbietern erleichtern, in den Markt einzutreten. Sie seien so nicht gezwungen, teure Lizenzen für geschlossene Systeme zu erwerben. Das fördere den Wettbewerb und verhindere, dass der digitale Euro zu einem bürokratischen Monolith werde, den sich nur Branchenriesen leisten könnten.

Allerdings hängen die tatsächliche Skalierung und die Investitionssicherheit der Unternehmen noch an der politischen Entscheidungsebene. Erst wenn die europäischen Gesetzgeber die entsprechende Verordnung für den digitalen Euro verabschieden, herrscht endgültige Klarheit über dessen Status als gesetzliches Zahlungsmittel. Für die EZB und ihre Partner ist der jetzige Schritt aber ein Signal an den Markt, dass die technischen Weichen gestellt sind.

Die Vision hinter dieser Standardisierung geht über den digitalen Euro hinaus. Durch die Verwendung einheitlicher „technischer Sprachen“ dürften nationale Bezahlsysteme, die bisher oft an den Landesgrenzen enden, künftig leichter europaweit agieren. Ein nationales Kartensystem könnte so theoretisch an Terminals im gesamten Euroraum akzeptiert werden, ohne dass jedes Mal komplexe technische Anpassungen nötig wären. So würde der digitale Euro indirekt zum Katalysator für ein wirklich integriertes europaisches Zahlungssystem, das sich gegen die globale Konkurrenz behaupten könnte.

Stefan Krempl

Montag, 27. April 2026

Versteckte Potenzialanalyse: Wie Erneuerbare die Gemeindekassen füllen könnten

Eine Studie im Auftrag des Wirtschaftsministeriums zeigt enorme Gewinnchancen für Kommunen durch Ökostrom – doch Ministerin Reiche lässt die Ergebnisse in der Schublade.

Die Zahlen, die das Institut für ökologische Wirtschaftsforschung (IÖW), das Berlin-Institut für Bevölkerung und Entwicklung sowie das Institut der deutschen Wirtschaft Köln Consult zusammengetragen haben, sind beachtlich. Erreicht Deutschland seine Ausbauziele für erneuerbare Energien, könnten die direkten Einnahmen für Städte und Landkreise von derzeit 5,5 Milliarden Euro auf rund 12,4 Milliarden Euro jährlich ansteigen. Besonders ländliche Regionen, die oft unter strukturellen Defiziten leiden, dürften durch Steuereinnahmen, Pachtzahlungen und neue Arbeitsplätze massiv profitieren. Laut den Modellrechnungen für alle rund 400 deutschen Landkreise würde die Zahl der Vollzeitarbeitsplätze in diesem Sektor bundesweit auf über 100.000 steigen.

Dass diese positiven Aussichten nicht offensiv vom Bundeswirtschaftsministerium kommuniziert werden, sorgt in Fachkreisen für Irritationen. Die Studie war bereits Anfang des Jahres fertiggestellt und ist auf den 27. Februar 2026 datiert. Erst Mitte April tauchte sie fast unbemerkt auf einer Unterseite des Ministeriums sowie nun auch beim IÖW auf, ohne begleitende Pressemitteilung oder öffentliche Vorstellung durch die Ministerin Katherina Reiche (CDU).

Beobachter vermuten hinter dieser Zurückhaltung politisches Kalkül. Die Ministerin betont in ihrer Amtsführung regelmäßig die Notwendigkeit von Kosteneffizienz und verweist auf die Belastungen durch den schleppenden Netzausbau. Ein Bericht, der die wirtschaftlichen Segnungen der Wind- und Solarkraft so deutlich hervorhebt, passt offenbar nicht in das aktuelle Narrativ ihres Ressorts. Dieses fiel unter der Führung Reiches zuletzt eher durch Gesetzesvorhaben auf, die den Ausbau der Erneuerbaren erschweren würden.

Dabei liefert die Untersuchung wertvolle Hinweise darauf, wie die Akzeptanz für die Energiewende vor Ort gesteigert werden kann. Ein zentraler Punkt ist die Verteilung der Gewinne. Bisher fließt fast die Hälfte der Wertschöpfung aus den Regionen ab, weil viele Anlagen großen, überregionalen Investoren gehören. Die Studienautoren betonen, dass das volle Potenzial nur dann ausgeschöpft wird, wenn die Kommunen und ihre Bürger finanziell am Betrieb der Anlagen beteiligt sind.

Bürgerenergiegesellschaften, kommunale Eigeninvestitionen und lokale Stromtarife sind hier die entscheidenden Hebel. In Pionierregionen wie Wunsiedel in Bayern oder Lichtenau in Nordrhein-Westfalen lässt sich bereits beobachten, wie die Energiewende zum Wirtschaftsmotor wird. In solchen Vorreiter-Kommunen sind bis zu zehn Prozent des lokalen Wirtschaftswachstums der letzten Dekade direkt auf die grüne Infrastruktur zurückzuführen.

Die Mehreinnahmen in den Gemeindekassen sind dabei kein Selbstzweck. Die Analyse zeigt einen direkten Zusammenhang zwischen den Erträgen aus erneuerbaren Energien und der Verbesserung der sozialen Infrastruktur. Kommunen mit hohen Einnahmen aus Wind- und Solarparks investieren vermehrt in die Breitbandversorgung oder höhere Kita-Quoten. Damit wird der Ausbau der Energieinfrastruktur zu einem Instrument der regionalen Strukturpolitik.

Um diese Effekte bundesweit zu verstetigen, empfehlen die Experten jedoch deutliche Nachbesserungen an den gesetzlichen Rahmenbedingungen. So müssten finanzschwache Kommunen bessere Möglichkeiten zur Kreditaufnahme für Energieprojekte erhalten, und die Gründung von Genossenschaften sollte bürokratisch vereinfacht werden.

Die Tatsache, dass das Wirtschaftsministerium diese Handlungsempfehlungen bisher weitgehend ignoriert und die Studie erst nach öffentlichem Druck der Institute überhaupt auffindbar machte, wirft Fragen nach der strategischen Ausrichtung der deutschen Energiepolitik unter der aktuellen Regierung auf. Während die wissenschaftlichen Daten eine klare Sprache für eine beschleunigte, regional verankerte Energiewende sprechen, scheint das Ministerium den Fokus eher auf die Probleme und Kosten der Transformation zu legen.

Für die Kommunen bleibt die Erkenntnis, dass das Wissen um ihren möglichen Wohlstand zwar vorhanden ist, im politischen Berlin aber derzeit wenig Gehör findet. Die Information, dass die Institute mutmaßlich erst nach einer Publikation vergütet werden, verleiht der späten Veröffentlichung zudem einen faden Beigeschmack – es wirkt, als sei die Transparenz hier eher eine buchhalterische Notwendigkeit als ein politisches Anliegen gewesen.

Stefan Krempl

Sonntag, 26. April 2026

Algorithmen unter Aufsicht: Wie KI und Plattformen die Meinungsvielfalt bedrohen

Künstliche Intelligenz und mächtige Intermediäre verändern die öffentliche Debatte. Gutachter fordern im Auftrag der Medienanstalten eine Reform des Rechtsrahmens und klare KI-Kennzeichnungen.

Die Art und Weise, wie wir uns heute eine Meinung bilden, hat sich fundamental gewandelt. Wo früher redaktionelle Auswahlprozesse dominierten, entscheiden heute komplexe Algorithmen globaler Plattformen darüber, welche Informationen uns erreichen. Diese digitalen Vermittler (Intermediäre) sind längst keine neutralen Durchreichtüten mehr, sondern aktive Gestalter der öffentlichen Kommunikation. Ein Gutachten der Professoren Christoph Busch und Jan Oster im Auftrag der Gremienvorsitzendenkonferenz (GVK) der Medienanstalten legt nun den Finger in die Wunde: Der aktuelle Rechtsrahmen, ein Geflecht aus europäischem und nationalem Recht, weist demnach kritische Lücken auf Diese werden insbesondere durch den rasanten Aufstieg der Künstlichen Intelligenz (KI) immer sichtbarer.

Im Zentrum der Analyse steht das regulatorische Mehrebenensystem. Mit dem Digital Services Act (DSA) und dem European Media Freedom Act (EMFA) hat die EU laut der Untersuchung zwar mächtige Instrumente geschaffen. Doch die Verzahnung mit nationalen Gesetzen wie dem Medienstaatsvertrag ist noch nicht vollständig geglückt. Die Gutachter machen deutlich, dass wir es mit einem Flickenteppich an Zuständigkeiten zu tun haben, der besonders bei grenzüberschreitenden Sachverhalten die Durchsetzung von Mindeststandards erschwert. Wenn eine Plattform ihren Sitz im EU-Ausland hat, stoßen nationale Aufseher oft an ihre Grenzen, was gerade beim Schutz von Kindern und Jugendlichen fatale Folgen haben kann.

Ein besonderes Risiko für die Meinungsvielfalt sehen die Experten in der Verschmelzung von Suchmaschinen, sozialen Netzwerken und generativer KI. Systeme wie ChatGPT oder moderne Such-Bots verändern die Rollenverteilung im Netz. Während der DSA klassische Vermittler privilegiert, agieren KI-Systeme oft als Produzenten von Inhalten. Die Sachverständigen fordern daher, dass der Medienstaatsvertrag um spezifische Kategorien für KI-generierte Inhalte erweitert wird. Es müsse für Nutzer jederzeit transparent sein, ob sie mit einem Menschen oder einer Maschine interagieren. Kennzeichnungspflichten für Social Bots und automatisierte Accounts müssten drastisch verschärft werden, um die gezielte Manipulation des öffentlichen Diskurses zu verhindern.

Auch die Frage der Verantwortung stellt sich laut der Analyse neu. Bisher profitieren viele Plattformen von weitreichenden Haftungsprivilegien, solange sie keine Kenntnis von rechtswidrigen Inhalten haben. Angesichts der schieren Masse an Desinformation und Hassrede regen Busch und Oster an, diese Privilegien zu überdenken. Eine stärkere Zurechnung von Verantwortung sei notwendig, um die Plattformbetreiber zu einer proaktiveren Sicherung der Meinungsvielfalt zu bewegen. Dazu gehöre auch, dass journalistisch-redaktionelle Angebote durch Transparenzanforderungen und privilegierte Auffindbarkeit gestärkt werden, um ein Gegengewicht zu rein algorithmisch gesteuerten Trends zu bilden.

Der GVK-Vorsitzende Albrecht Bähr unterstreicht die Dringlichkeit dieser Anpassungen. Das Gutachten liefere die wissenschaftliche Basis für zwei zentrale Handlungsachsen der künftigen Medienpolitik. Zum einen müsse der Jugendmedienschutz so weiterentwickelt werden, dass er auch gegenüber Plattformen ohne deutschen Sitz effektiv durchgreifen könne. Ferner brauche es eine Reform der Vielfaltssicherung, die der wachsenden Bedeutung der Intermediäre für die Auffindbarkeit von Inhalten Rechnung trägt. Ohne klare Regeln für Transparenz und Aufsicht drohe die Gefahr, dass die demokratische Willensbildung zum Spielball kommerzieller Algorithmen wird. Das Ziel ist klar: Ein kohärentes Schutzsystem, das die Medienfreiheit im digitalen Zeitalter nicht nur verwaltet, sondern aktiv verteidigt.

Stefan Krempl

Freitag, 24. April 2026

„Tech-Faschismus“ vs. Staatsraison: Länder gespalten über Palantir-Manifest

Hessen und Bayern halten trotz radikaler Forderungen des US-Konzerns Palantir an der Software fest. Andere Bundesländer verschärfen ihre Ablehnung und Kritik.

Der Aufstieg von Palantir liest sich wie ein Drehbuch für einen Silicon-Valley-Thriller. Innerhalb weniger Jahre hat sich das von Peter Thiel mitbegründete Unternehmen zu einem der einflussreichsten Akteure der globalen Sicherheitsarchitektur entwickelt. Das US-Militär und die dortigen Einwanderungsbehörden setzen längst auf die Analyse-Tools. Palantir-Software ist auch in deutschen Polizeibehörden schon einige Jahre Realität. Bayern, Hessen und Nordrhein-Westfalen nutzen die Plattform bereits intensiv, um riesige Datenmengen zu verknüpfen und Ermittlungserfolge zu beschleunigen. Doch nun sorgt ein neues politisches Manifest der Firmenleitung für Erschrecken. Es befeuert Vorwürfe eines drohenden „Tech-Faschismus“.

In dem Pamphlet, das auf dem Buch „The Technological Republic“ von CEO Alexander Karp und Mitgründer Nicholas Zamiska basiert, entwirft Palantir eine radikale Vision für die westliche Welt. Das Manifest umfasst 22 Punkte und liest sich wie eine Kampfansage an liberale Gesellschaftsmodelle. Die Autoren fordern eine kompromisslose Allianz zwischen Tech-Giganten und dem Staat, die Entwicklung autonomer KI-Waffen und die Wiedereinführung der Wehrpflicht.

Brisant sind die ideologischen Ausfälle gegen gesellschaftliche Werte wie Pluralismus und Inklusivität. Karp & Co. sprechen sich offen gegen eine „hohle“ Vielfalt aus. Sie beklagen, dass Werturteile über Kulturen tabuisiert würden. Dabei unterscheiden sie explizit zwischen fortschrittlichen und „rückständigen oder schädlichen“ Kulturen – eine Rhetorik, die in internationalen Medien scharfe Kritik auslöst.

Auch Deutschland rückt direkt in das Visier der Palantir-Ideologen. Die Autoren fordern, die „Kastration“ der Bundesrepublik nach dem Zweiten Weltkrieg rückgängig zu machen. Deutschland die „Zähne zu ziehen“, wird als historische Überkorrektur bezeichnet, für die Europa heute einen hohen Preis zahle. Es ist der Ruf nach einer umfassenden Remilitarisierung, die Hand in Hand mit der algorithmischen Aufrüstung gehen soll.

Trotz dieser offen politisch-reaktionären Agenda reagieren viele deutsche Innenministerien auffallend pragmatisch bis ausweichend. Hessens Innenminister Roman Poseck (CDU) betont etwa gegenüber ZDF heute, dass die persönlichen Ansichten der Firmenleitung nichts an der Notwendigkeit der Software änderten. Man könne es sich schlicht nicht leisten, auf die Technologie zu verzichten, ohne erhebliche Sicherheitslücken zu riskieren.

Ähnlich klingt es aus Bayern, wo führende Politiker auf das bestehende Vertragsverhältnis verweist, das durch Manifeste nicht berührt werde. Die bayerische Polizei schätze die Fähigkeit der Software, Informationen aus verschiedenen Datenbanken in einer einheitlichen Umgebung zu vernetzen. Was früher Stunden oder Tage dauerte, gelinge nun in Sekunden. Diese Effizienzsteigerung bei der Gefahrenabwehr wiege für viele Entscheidungsträger schwerer als die moralischen Bedenken gegenüber den Hintermännern der Technik. Auch Baden-Württemberg sieht in Palantir eine unverzichtbare Lösung, da eine händische Auswertung der Datenmengen angesichts der aktuellen Sicherheitslage nicht mehr zeitgemäß sei.

Umso stärker ist die Ablehnung in anderen Teilen Deutschlands spürbar. Niedersachsen lehnt den Einsatz der Software strikt ab und sieht sich durch die jüngsten Äußerungen des Unternehmens in dieser Haltung bestätigt. Bundesländer wie Rheinland-Pfalz setzen konsequent auf europäische Alternativen und führen produktoffene Marktsichtungen durch. Auch auf der Ebene der Innenministerkonferenz wurde bereits das Ziel formuliert, die digitale Souveränität Europas zu stärken und Abhängigkeiten von US-Konzernen zu verringern. Bremen betont, dass dies die langfristige Strategie sein müsse, um nicht dauerhaft am Tropf von Unternehmen zu hängen, deren Wertekompass so fundamental von europäischen Standards abweicht.

Das Dilemma der deutschen Sicherheitsbehörden bleibt die zeitliche Komponente. Während Nordrhein-Westfalen zwar eine „digital souveräne Lösung“ als perspektivisches Ziel ausgibt, laufen aktuelle Ausschreibungen oft wieder auf die etablierten Anbieter hinaus. Die Entwicklung vergleichbarer europäischer Anwendungen steckt vielerorts noch in den Kinderschuhen. Bayern gibt sich zwar zuversichtlich, dass heimische Unternehmen bald aufschließen könnten. Zugleich warnt der Freistaat aber davor, jahrelang auf moderne Werkzeuge zu verzichten, bis diese fertiggestellt sind. So bleibt Palantir vorerst ein höchst umstrittener Anbieter im Maschinenraum der deutschen inneren Sicherheit. Das Unternehmen rüttelt gleichzeitig an den ideologischen Grundfesten eben jener Demokratie, die es zu schützen vorgibt.

Stefan Krempl

Digitale Souveränität: Der Bund kommt bei Open Desk kaum vom Fleck

Trotz vollmundiger Versprechen bleibt die Bundesverwaltung fest in US-Hand. Eine echte Open-Source-Alternative soll erst 2028 fertig sein, doch es hagelt Kritik.

Die ambitionierte Vision eines unabhängigen, staatlichen Arbeitsplatzes kollidiert schmerzhaft mit der harten Realität der Berliner Ministerien. Trotz der vollmundigen Ankündigung, sich aus der Umklammerung proprietärer Anbieter zu lösen, verdeutlichen aktuelle Daten aus zwei Antworten der Bundesregierung auf Anfragen der Linksfraktion ein deutliches Übergewicht US-amerikanischer Technologie. Rund acht Milliarden Euro umfasst das Gesamtvolumen der Verträge, die der Bund mit Softwarehäusern aus Übersee geschlossen hat, wie SZ-Dossier vorab etwa hier berichtet. Allen voran dominiert Microsoft das Feld mit einem Volumen von über vier Milliarden Euro, gefolgt von Schwergewichten wie Oracle und Cisco.

In der Praxis bedeutet dies eine fast absolute Abhängigkeit: Nahezu 475.000 Microsoft-Arbeitsplätzen stehen gerade einmal rund 8500 produktive Lizenzen der Open-Source-Alternative Open Desk gegenüber – ein Marktanteil von weniger als zwei Prozent.

Besonders ernüchternd ist der Blick auf die Zeitpläne der digitalen Transformation. Open Desk, das vom Zentrum für digitale Souveränität (Zendis) entwickelt wird, fungiert derzeit noch nicht als echter Ersatz. Die freie Office-Suite wird lediglich in Teststellungen erprobt. Eine erste belastbare Version des Systems wird erst für das Frühjahr 2027 erwartet, während das Ziel eines vollständig souveränen Arbeitsplatzes sogar bis Ende 2028 in noch weiterer Ferne liegt.

Diese schleppende Umsetzung provoziert scharfe Kritik von Oppositionspolitikern, die der Bundesregierung „Souveränitäts-Washing“ vorwerfen: Die Regierung beschwöre zwar ständig digitale Unabhängigkeit. Doch das Geld fließe weiterhin in Rahmenverträge mit Hyperscalern. Dies schwäche die heimische Softwareindustrie und zementiere die strukturelle Bindung an US-Infrastrukturen.

Die personellen und organisatorischen Hürden innerhalb der Verwaltung erweisen sich als starke Beharrungskräfte. Das Verteidigungsministerium setzt fast ausschließlich auf Microsoft. Doch auch bei zentralen Projekten wie der Entwickler-Plattform Open Code fehlt es laut den Auskünften an langfristiger Planung und gesicherter Finanzierung. Im vergangenen Jahr entfiel lediglich ein Bruchteil der staatlichen Software-Entwicklungsaufträge auf Open-Source-Projekte. Solange kein verbindlicher Fahrplan für einen flächendeckenden Rollout existiert und die Bundesländer bei der Kooperation zögern, bleibt die digitale Souveränität Deutschlands ein teures Versprechen auf dem Papier. Dabei wird die technologische Abhängigkeit in Zeiten geopolitischer Spannungen zunehmend zum Sicherheitsrisiko.

Stefan Krempl

Montag, 20. April 2026

KI unter eigener Kontrolle: Mozilla-Tochter MZLA stellt Thunderbolt vor

Mit Thunderbolt und der Integration in das Haystack-Framework bietet MZLA Unternehmen eine Open-Source-Alternative zu KI in der Cloud, die vollständig auf eigener Infrastruktur läuft.

Die Goldgräberstimmung im Bereich der Künstlichen Intelligenz hat eine Kehrseite, die viele Unternehmen zunehmend nervös macht: Die Abhängigkeit von den Infrastrukturen und Datenschutzbestimmungen großer Cloud-Anbieter. Wer heute modernste Sprachmodelle nutzen will, muss seine sensiblen Daten meist auf die Server von Drittanbietern schieben. Dass dies für Behörden, die Luftfahrtindustrie oder das Gesundheitswesen oft keine Option ist, hat nun MZLA Technologies erkannt. Die Tochtergesellschaft der Mozilla Foundation, die vor allem für die Entwicklung des E-Mail-Clients Thunderbird bekannt ist, greift mit Thunderbolt nun in den Markt für Enterprise-KI ein.

Ein Arbeitsplatz unter eigener Flagge

Thunderbolt versteht sich nicht als bloßes Chat-Fenster, sondern als souveräner KI-Workspace. Ziel ist es, Organisationen die Autonomie zurückzugeben, die im Zeitalter von „Software as a Service“ oft verloren gegangen ist. Der Client ist quelloffen, selbst hostbar und modular aufgebaut. Das bedeutet: Unternehmen entscheiden selbst, welches Gehirn hinter der Oberfläche arbeitet. Ob kommerzielle Schnittstellen führender Anbieter oder lokal betriebene Open-Source-Modelle zum Einsatz kommen, bleibt der IT-Abteilung überlassen.

Dabei geht der Funktionsumfang über einfaches Prompting hinaus. Thunderbolt ist darauf ausgelegt, tief in die Arbeitsabläufe einzutauchen. Nutzer können über den Client nicht nur chatten oder recherchieren, sondern auch komplexe Automatisierungen erstellen. So lassen sich tägliche Briefings generieren, spezifische Themenfelder überwachen oder Berichte auf Basis interner Datenquellen erstellen. Da native Applikationen für Windows, macOS, Linux sowie iOS und Android bereitstehen, soll die KI-gestützte Arbeit nahtlos über alle Endgeräte hinweg funktionieren, ohne dass die Sicherheitskette unterbrochen wird.

Die Tiefe des Stacks: Allianz mit Deepset

Technische Schlagkraft erhält Thunderbolt durch die Kooperation mit dem Berliner Unternehmen Deepset. Durch die Integration von Haystack, einem der führenden Open-Source-Frameworks für die Orchestrierung von KI-Agenten und Retrieval Augmented Generation (RAG), wird die Brücke zwischen der Benutzeroberfläche und der IT-Infrastruktur geschlagen. Thunderbolt das Gesicht der KI dar, sorgt Haystack im Hintergrund dafür, dass die Modelle effizient auf die tatsächlichen Daten des Unternehmens zugreifen können.

Diese Kombination adressiert ein Kernproblem aktueller KI-Implementierungen: die Fragmentierung. Oft nutzen Abteilungen isolierte Tools, die nicht miteinander kommunizieren und deren Datenfluss kaum kontrollierbar ist. Der integrierte Ansatz von MZLA und Deepset ermöglicht dagegen einen „Sovereign AI Stack“. Dabei ist der gesamte Prozess – von der Datenabfrage über die Verarbeitung durch Agenten bis hin zur Ausgabe im Client – innerhalb einer kontrollierten, oft vollständig lokalen Umgebung gekapselt. Für besonders sicherheitskritische Bereiche bietet MZLA zudem eine Ende-zu-Ende-Verschlüsselung und Zugriffskontrollen auf Geräteebene an.

Strategische Trennung und Verfügbarkeit

Interessant ist die organisatorische Aufstellung hinter dem Projekt. Thunderbolt wird zwar von der Mozilla-Tochter MZLA gesteuert, aber von einem spezialisierten Team entwickelt, das strikt von der spendenfinanzierten Thunderbird-Entwicklung getrennt ist. Die Finanzierung erfolgt durch eine dedizierte Investition von Mozilla, was unterstreicht, dass man hier ein ernsthaftes kommerzielles Standbein im Enterprise-Sektor aufbauen möchte.

Der Quellcode von Thunderbolt ist bereits auf GitHub einsehbar, was dem Transparenzanspruch von Mozilla entspricht. Wer das System produktiv nutzen will, kann sich derzeit auf eine Warteliste setzen lassen. Für Unternehmen wird ein Preismodell angeboten, das sich nach dem Grad des Supports und der Komplexität der Bereitstellung richtet. Hier kommen auch Integrationspartner ins Spiel, die Thunderbolt zusammen mit souveränen Speicherlösungen und spezialisiertem Engineering-Support als Komplettpaket ausliefern können.

Trotz der vielversprechenden technischen Basis bleibt ein Wermutstropfen beim Marketing hängen: Die Namenswahl. In einer Tech-Welt, in der „Thunderbolt“ seit Jahren fest als Begriff für eine Hardware-Schnittstelle von Intel und Apple besetzt ist, könnte die Bezeichnung des KI-Clients für Verwirrung sorgen. Doch wenn das Versprechen von digitaler Souveränität und technologischer Unabhängigkeit eingelöst wird, dürfte der Name für die IT-Entscheider zweitrangig sein. MZLA positioniert sich jedenfalls rechtzeitig als Speerspitze für all jene, die KI nutzen wollen, ohne die Kontrolle über ihre digitale DNA abzugeben.

Stefan Krempl