Donnerstag, 30. April 2026

Digital Markets Act: Brüssel zieht positive Bilanz – Lob und Tadel von Verbraucherschützern

Die EU-Kommission feiert den DMA als Erfolg für die Nutzerwahl. Verbraucherschützer mahnen aber eine striktere Durchsetzung gegen Umgehungsversuche an.

Zwei Jahre nach dem Inkrafttreten des Digital Markets Act (DMA) zieht die EU-Kommission eine erste offizielle Bilanz und stellt dem neuen Regelwerk für Tech-Giganten ein positives Zeugnis aus. In einem am Dienstag veröffentlichten ersten Überprüfungsbericht kommt die Brüsseler Regierungsinstitution zu dem Schluss, dass die Verordnung "fit für die Zukunft" sei und bereits spürbare Verbesserungen für den digitalen Binnenmarkt sowie mehr Kontrolle für die Nutzer gebracht habe.

Unterstützung erhält diese Einschätzung vom europäischen Verbraucherschutzverband Beuc, der den DMA als wegweisendes Gesetz für faire Märkte bezeichnet. Beuc-Generaldirektor Agustín Reyna hebt hervor, dass Verbraucher bereits heute konkret profitieren, etwa durch die freie Wahl des Standard-Browsers auf iOS oder die Möglichkeit, Nachrichten aus alternativen Diensten an WhatsApp-Nutzer zu senden. Dennoch warnt der Verband, dass Big-Tech-Unternehmen die Regeln zu oft umgehen, was verhindere, dass die Verbraucher die vollen Vorteile der neuen Freiheiten ausschöpfen können.

Die zentrale Botschaft der Kommission deckt sich mit diesen Beobachtungen: Der DMA wirkt. Nutzer können nun einfacher ihre Daten beim Wechsel von Diensten mitnehmen und explizit widersprechen, wenn Plattform-Betreiber persönliche Profile über verschiedene Dienste hinweg ohne Zustimmung verknüpfen wollen. Besonders für kleine und mittlere Unternehmen (KMU) sieht die Kommission neue Chancen. Durch Interoperabilitätsverpflichtungen können Hersteller von Smartwatches besser mit den Betriebssystemen der Gatekeeper kommunizieren, während alternative App-Stores den bisherigen Monopolen Konkurrenz machen.

Teresa Ribera, Exekutiv-Vizepräsidentin der Kommission, unterstreicht, der DMA sei so konzipiert worden, dass er sich an neue Herausforderungen anpassen könne. Dies betrifft insbesondere Cloud-Computing und Künstliche Intelligenz. Die Kommission hat bereits Marktuntersuchungen eingeleitet, um zu prüfen, ob Cloud-Dienste von Microsoft und Amazon als Gatekeeper einzustufen sind. Auch bei der KI schaut sie genau hin: In Verfahren gegen Alphabet wird untersucht, wie Suchdaten geteilt werden und ob KI-Dienste fairen Zugang zu Betriebssystemen erhalten.

Kritik übt Beuc an der Entscheidung der Kommission, die Interoperabilitätsregeln nicht auf soziale Netzwerke auszuweiten. Es sei bedauerlich, dass Nutzer verschiedener Plattformen ihre Aktivitäten weiterhin nicht gegenseitig einsehen können. Die Kommission begründet dies in ihrem Bericht damit, dass eine Studie derzeit noch keine eindeutige Nachfrage für eine solche horizontale Vernetzung zeige und die technische Komplexität hoch sei.

Während die offizielle Seite und Verbraucherschützer vor allem eine stärkere Durchsetzung ("beef up enforcement") fordern, gibt es auch kritische Stimmen von anderer Seite. Experten des International Center for Law & Economics (ICLE) bemängeln, dass die Kommission ihr eigenes Werk bewertet, ohne negative Folgen ausreichend zu berücksichtigen. Sie verweisen auf sinkende Klickzahlen für europäische Hotels in der Google-Suche und verzögerte Produkteinführungen von KI-Diensten in Europa aufgrund der regulatorischen Hürden.

Fest steht: Die Kommission sieht derzeit keinen Bedarf, den DMA an sich zu ändern. Ihr Fokus liegt nun darauf, eine "Kultur der Compliance" zu schaffen und die Regeln konsequent anzuwenden, damit Europas digitale Märkte langfristig fairer und wettbewerbsfähiger werden.

Stefan Krempl

Mittwoch, 29. April 2026

Elektro schlägt Verbrenner: Warum der neue Tankrabatt am Preisvorteil scheitert

Trotz der geplanten Steuersenkung auf Diesel und Benzin bleiben E-Autos im Unterhalt deutlich günstiger – besonders für Besitzer von Solaranlagen.

Die Diskussion über die Kosten der Mobilität erreicht in diesen Tagen einen neuen Höhepunkt. Die Bundesregierung versucht mit einer Senkung der Energiesteuer auf Kraftstoffe, die Belastung für Autofahrer ab dem 1. Mai zu lindern. Doch aktuelle Berechnungen des Hamburger Energiedienstleisters 1Komma5° zeigen, dass dieser politische Eingriff das grundlegende Preisgefüge zwischen fossilen und elektrischen Antrieben kaum verschiebt. Selbst wenn die Preise an den Tankstellen für zwei Monate um 17 Cent pro Liter fallen, bleibt das Laden eines Elektroautos in fast jedem Nutzungsszenario die wirtschaftlich attraktivere Wahl.

Der Blick auf die Zahlen verdeutlicht die Diskrepanz zwischen den Antriebsarten. Ein herkömmlicher Benziner schlägt derzeit mit durchschnittlich 15,56 Euro pro 100 Kilometer zu Buche. Werden die versprochenen Entlastungen der Bundesregierung wirksam, sinkt dieser Wert lediglich auf 14,25 Euro.

Im direkten Vergleich dazu wirkt der Betrieb eines Elektroautos fast wie ein Schnäppchen: Wer sein Fahrzeug zu Hause an der heimischen Wallbox mit dem deutschen Durchschnittsstrompreis von 37 Cent pro Kilowattstunde lädt, zahlt für dieselbe Strecke lediglich 7,34 Euro. Damit bewegen sich die Fahrtkosten für Stromer bei knapp der Hälfte dessen, was für einen Verbrenner fällig wird – Tankrabatt hin oder her. Auch Diesel-Fahrer profitieren von der Steuersenkung nicht in einem Maße, das den Abstand zur Elektromobilität gefährlich schrumpfen ließe; ihre Kosten liegen mit eingerechnetem Rabatt immer noch bei rund 13,93 Euro.

Oft wird in der Debatte angeführt, dass Mieter ohne eigene Lademöglichkeit oder Langstreckenfahrer durch hohe Preise an öffentlichen Ladesäulen benachteiligt seien. Doch selbst dieses Szenario hält einer genaueren Überprüfung nicht stand. Geht man von einem Preis von 60 Cent pro Kilowattstunde an einer öffentlichen Station aus, ergeben sich Kosten von etwa 11,90 Euro pro 100 Kilometer. Das sind immer noch 16 Prozent weniger als die Kosten für Benzin unter Berücksichtigung des kommenden Steuervorteils. Das E-Auto behält also auch ohne den „Heimvorteil“ der eigenen Steckdose die Nase vorn.

Jannik Schall, Mitgründer von 1Komma5°, betont in diesem Zusammenhang, dass sich der Kostenvorteil durch die Krise der fossilen Energien deutlich vergrößert hat und eine kurzfristige politische Maßnahme wie der Tankrabatt an dieser strukturellen Überlegenheit nichts ändert.

Die wahre Revolution der Mobilitätskosten findet jedoch hinter der Haustür statt. Das maximale Sparpotenzial erschließt sich jenen, die Mobilität und Eigenheim energetisch verknüpfen. Durch die Kombination einer Photovoltaikanlage mit einem Batteriespeicher und einer intelligenten Steuerung lassen sich die Kosten pro 100 Kilometer auf einen Bruchteil reduzieren. Werden dynamische Stromtarife genutzt, lädt das System das Fahrzeug bevorzugt dann, wenn das Angebot am Markt hoch und der Preis niedrig ist – etwa in den windstarken Nachtstunden oder bei strahlendem Sonnenschein. Ein durchschnittlicher Preis von 12 Cent pro Kilowattstunde ist in einem solchen vernetzten Ökosystem absolut realistisch.

In der Praxis bedeutet das, dass die Kosten für 100 Kilometer Fahrt auf nur noch 2,38 Euro sinken können. Im Vergleich zum Benziner entspricht dies einer Ersparnis von rund 85 Prozent. Der entscheidende Hebel ist die Nutzung des selbst erzeugten Solarstroms, da in diesem Fall keine Steuern, Abgaben oder Umlagen anfallen. Intelligente Softwaresysteme übernehmen dabei heute die komplexe Aufgabe, zwischen dem Eigenstrom vom Dach und dem günstigen Börsenstrom abzuwägen, ohne dass der Nutzer selbst Zeitfenster oder Preisentwicklungen überwachen muss.

Stefan Krempl

Dienstag, 28. April 2026

KI made in Germany: Experten fordern 300-Milliarden-Fonds

Die Kommission „Wettbewerb und KI“ hat ihren Abschlussbericht vorgelegt: Weniger Bürokratie, massive Investitionen und ein Fast-Track-Verfahren für Talente sollen die Souveränität sichern.


Deutschland steht am Scheideweg der digitalen Transformation. Während globale Tech-Giganten den Markt für generative Sprachmodelle und Cloud-Infrastrukturen dominieren, sucht Europa händeringend nach einer eigenen Rolle in der nächsten industriellen Revolution. Die vom Bundesministerium für Wirtschaft und Energie eingesetzte Expertenkommission „Wettbewerb und Künstliche Intelligenz“ hat nun ihren Masterplan vorgelegt. In ihrem am Dienstag vorgestellten Abschlussbericht zeichnen die Fachleute aus Wissenschaft und Wirtschaft ein klares Bild: Deutschland hat das Potenzial zum Taktgeber, doch dafür muss die Politik den Modus Operandi radikal ändern. Weg von der Überregulierung, hin zu einer entschlossenen Investitions- und Infrastrukturpolitik.

Ein Staatsfonds für die digitale Zukunft

Das wohl spektakulärste Element der 20 Handlungsempfehlungen ist der Ruf nach einem finanziellen Befreiungsschlag. Die Kommission schlägt vor, den bestehenden Deutschlandfonds zu einem langfristigen Staatsfonds namens „Deutsches Zukunftskapital“ weiterzuentwickeln. Mit einem Zielvolumen von rund 300 Milliarden Euro für den Zeitraum von 2026 bis 2035 soll dieser Fördertopf nach dem Vorbild norwegischer oder singapurischer Staatsfonds agieren. Er wird der Skizze nach nicht nur staatliche Mittel bündeln, sondern auch privates Kapital von Versicherungen und Pensionsfonds mobilisieren, um in strategische Zukunftsfelder zu investieren. So will das Gremium das chronische Problem des fehlenden Wagniskapitals in der Skalierungsphase lösen. Parallel dazu verlangt es, die Verteidigungsausgaben innovationsorientierter zu nutzen: Mindestens zehn Prozent des Rüstungsbudgets sollen direkt in KI und disruptive Technologien fließen.

Abschied vom Regulierungsweltmeister

Ein roter Faden des Berichts ist die Warnung vor einer bürokratischen Selbstfesselung. Die Vorsitzenden der Kommission, Professor Rupprecht Podszun und Rolf Schumann, heben hervor, dass Europa zwar Weltmeister im Regulieren sei. Die Marktplätze würden aber von anderen besetzt. Sie rufen daher nach einer „regulatorischen Atempause“. Bestehende Gesetze wie die DSGVO und der AI Act müssten vereinfacht und auf ihre Praxistauglichkeit geprüft werden, bevor neue Regeln das Innovationsklima weiter abkühlen. Besonders im B2B-Bereich dürfe es keine zusätzliche Regulierung ohne klare Evidenz für Marktversagen geben. Gleichzeitig müsse der Staat aber dort hart durchgreifen, wo Monopole den Wettbewerb ersticken. Die konsequente Durchsetzung des Digital Markets Act (DMA) gegen die großen Gatekeeper bleibe so essenziell, um faire Bedingungen für den Mittelstand und Startups zu sichern.

Souveränität durch Infrastruktur und Daten

Um technologisch unabhängig zu werden, sieht die Kommission den Aufbau einer eigenen, wettbewerbsfähigen KI-Infrastruktur als zwingend an. Hier geht es nicht nur um physische Rechenzentren, sondern vor allem um eine leistungsfähigen Software- und Service-Schicht, die auch kleineren Unternehmen den Zugang zu Rechenleistung ermöglicht. Der Staat soll als „Ankerkunde“ fungieren und durch garantierte Abnahmen europäischer Lösungen den Markthochlauf absichern.

Ein entscheidender Hebel ist auch der Zugang zu Daten. Die Sachverständigen plädieren für den Aufbau hochwertiger offener Datenräume, in denen das spezifische industrielle Domänenwissen der deutschen Wirtschaft gebündelt wird. Besonders im Gesundheitswesen und in den Life Sciences sieht die Kommission enorme Chancen für „KI made in Germany“. Damit dies gelingt, müsse der Datenschutz zentralisiert und vereinfacht werden – weg von der föderalen Zersplitterung hin zu einer einheitlichen Aufsicht. Neu ist dieser Appell freilich nicht.

Der Faktor Mensch: Tempo beim Transfer

Technologie allein reicht nicht aus; es mangelt an Köpfen. Mit einem „Fast Track for Talent“ will die Kommission bürokratische Hürden bei der Fachkräfteeinwanderung abräumen. Eine 48-Stunden-Garantie für Visa für Tech-Experten und Englisch als ergänzende Verwaltungssprache sollen Deutschland attraktiver machen. Auch im Bildungssystem fordern die Autoren einen Wandel: KI-Kompetenzen sollen bundesweit verbindlich in die Lehrpläne aller Schulformen integriert werden. Damit Innovationen aus der Forschung schneller in der Wirtschaft ankommen, sieht die Blaupause zudem eine Beschleunigung von Hochschulausgründungen vor. Standardisierte Prozesse und feste Zeitvorgaben von maximal sechs Monaten für den gesamten Ausgründungsprozess sollen sicherstellen, dass exzellente Wissenschaft nicht in der Verwaltung versandet. Für die Bundesregierung ist der Bericht ein klarer Auftrag: Deutschland muss vom Beobachter zum Gestalter werden, bevor die nächste technologische Welle ohne Europa bricht.

Stefan Krempl

Milliarden für Cyberabwehr: Bund plant neues Programm für IT-Sicherheit

Die Bundesregierung will die IT-Sicherheitsforschung bis 2032 mit rund 900 Millionen Euro fördern und setzt dabei auf KI, Quanten-Tech und Desinformationsschutz.

Die fortschreitende Digitalisierung ist Fluch und Segen zugleich. Während sie Effizienz und neue Chancen verspricht, wachsen die wirtschaftlichen Schäden durch Datendiebstahl und Industriespionage in astronomische Höhen. Allein 2024 belief sich der Schaden in Deutschland laut Schätzungen auf rund 267 Milliarden Euro. Vor diesem Hintergrund hat die Bundesregierung nun Details zu ihren Plänen für die kommenden Jahre vorgelegt. In seiner Antwort auf eine Anfrage der Grünen-Fraktion zeichnet das Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) den Weg für die IT-Sicherheit der Zukunft vor.

Das derzeitige Forschungsrahmenprogramm „Digital. Sicher. Souverän.“ nähert sich seinem Ende und wird dieses Jahr auslaufen. Damit die Forschung an elementaren Sicherheitstechnologien nicht ins Stocken gerät, bereitet die Regierung ein Nachfolgeprogramm vor. Es soll eine Laufzeit von 2027 bis 2032 habenFinanziell plant der Bund dabei zweigleisig: Rund 700 Millionen Euro sollen aus dem regulären Haushalt des BMFTR fließen, während weitere 200 Millionen Euro aus dem Sondervermögen Investitionen und Klimaschutz beigesteuert werdenDiese Summen stehen jedoch unter dem Vorbehalt, dass die bestehende Finanzplanung wie vorgesehen fortgeschrieben werden kann.

Kritiker hatten im Vorfeld befürchtet, dass zwischen dem Ende des alten und dem Start des neuen Programms eine Förderlücke entstehen könnte. Die Exekutive beschwichtigt jedoch und betont, dass ein nahtloser Übergang gewährleistet seiZwar ist die offizielle Kabinettbefassung erst für das erste Quartal 2027 vorgesehen. Doch bereits seit Ende 2022 ergänze die „Agenda Cybersicherheitsforschung“ die bestehenden MaßnahmenErste Förderprojekte des neuen Programms sollen zudem schon im Laufe des Jahres 2027 starten.

Inhaltlich will der Bund die Schwerpunkte neu ausrichten. Ein zentrales Feld ist dabei die Cybersicherheit im QuantenzeitalterBesonders die Entwicklung abhörsicherer Quantenkommunikation sieht das BMFTR als essenziell an, um technologisch nicht hinter die globale Entwicklung von Angriffsmethoden zurückzufallenAuch die hochdynamische Entwicklung von KI betrachtet das Ressort als zweischneidiges Schwert. Es biete zwar neue Sicherheitslösungen, schaffe aber auch neue AngriffsvektorenEin weiterer Fokus des künftigen Programms liegt auf der Abwehr hybrider Bedrohungen. Dabei geht es vor allem um den Schutz der staatlichen Handlungsfähigkeit und des demokratischen Vertrauens vor gezielter Desinformation und Sabotage.

Ein wunder Punkt bleibt für viele Forscher die rechtliche Lage. Die Hackerparagrafen stehen seit Jahren in der Kritik, da sie IT-Sicherheitsexperten bei ihrer Arbeit kriminalisieren könnenDie Regierung verweist hier nur auf den Koalitionsvertrag, in dem eine Schaffung von Rechtssicherheit für die Forschung vereinbart wurdeDas Bundesjustizministerium prüfe derzeit die Umsetzung, wobei insbesondere Missbrauchsmöglichkeiten verhindert werden sollen.

Damit die Ergebnisse nicht in den Laboren verstauben, soll der Transfer in die Praxis gestärkt werdenBesonders kleine und mittlere Unternehmen (KMU) stehen dabei im Blickpunkt, um deren Resilienz gegenüber Ransomware und Spionage zu erhöhenDass solche Förderungen funktionieren können, zeigen Beispiele wie der „Consenter“, ein Dienst fürs Cookie-Einwilligungsmanagement, oder erste kommerzielle Lösungen im Bereich Confidential Computing, die aus staatlich geförderter Spitzenforschung hervorgegangen sindUm den Forschungsstandort Deutschland langfristig als Nukleus für Innovationen zu etablieren, setzt der Bund ferner auf Programme wie „1000-Köpfe-Plus“, um internationale Toptalente zu gewinnen und dem Fachkräftemangel entgegenzuwirken.

Stefan Krempl

Abschied von Kohle, Öl und Gas: Städte werden zu Motoren der Energiewende

Metropolen weltweit zeigen auf einer wegweisenden Konferenz in Kolumbien, wie der Ausstieg aus fossilen Brennstoffen die wirtschaftliche Resilienz und Sicherheit stärkt.

Während sich in Santa Marta, Kolumbien, derzeit Regierungsvertreter aus über 60 Nationen zur ersten internationalen Konferenz über den Ausstieg aus fossilen Brennstoffen versammeln, wird eine Botschaft immer deutlicher: Die Abkehr von Kohle, Öl und Gas ist längst keine reine ökologische Notwendigkeit mehr, sondern der effektivste Hebel für globale Energiesicherheit und wirtschaftliche Stabilität. Die gemeinsame Initiative Kolumbiens und der Niederlande markiert einen Wendepunkt in der internationalen Klimadiplomatik, indem sie den Fokus von abstrakten Zusagen auf die konkrete, lokale Umsetzung lenkt. In einer Welt, die von volatilen Energiemärkten und geopolitischen Spannungen geprägt ist, erweisen sich fossile Abhängigkeiten zunehmend als Risiko für nationale Haushalte und die soziale Stabilität.

Urbane Zentren als strategische Vorreiter

Städte stehen im Epizentrum dieser Transformation. Da urbane Räume für rund 75 Prozent der energiebedingten globalen Emissionen verantwortlich sind, entscheidet sich der Erfolg der globalen Energiewende in den Straßen von Metropolen wie Bogota, London oder Warschau. Die aktuelle Datenlage stützt diesen Kurs: Neue Solar- und Windkraftanlagen produzieren Strom mittlerweile um mindestens 50 Prozent günstiger als fossile Kraftwerke. Angesichts der Tatsache, dass 92 Prozent aller Länder über ein Potenzial an erneuerbaren Energien verfügen, das ihren Bedarf um das Zehnfache übersteigt, wird der Ausstieg zunehmend zu einer Frage der ökonomischen Vernunft.

Innerhalb des C40-Netzwerks, einem Zusammenschluss führender Weltstädte, sinken die Pro-Kopf-Emissionen bereits seit vier Jahren kontinuierlich. Diese Entwicklung zeigt, dass nachhaltiges Wachstum und die Entkopplung von fossilen Importen machbar sind. In Melbourne etwa versorgt eine gemeinsame Beschaffungsstrategie für Ökostrom bereits sämtliche kommunalen Aktivitäten zu 100 Prozent aus regenerativen Quellen. Solche Modelle senken nicht nur die CO2-Bilanz, sondern schützen öffentliche Haushalte vor den Preisschocks der globalen Märkte.

Soziale Gerechtigkeit und neue Arbeitsmärkte

Ein zentraler Aspekt der Konferenz in Santa Marta ist der "gerechte Übergang". Der Ausstieg darf keine Elitenveranstaltung sein, sondern muss die Lebensqualität breiter Bevölkerungsschichten verbessern. In Warschau werden gezielt einkommensschwache Haushalte beim Umstieg auf saubere Heizungen unterstützt, um Energiearmut zu bekämpfen. In Curitiba, Brasilien, senkt die Nutzung von Solarenergie die Kosten für öffentliche Gebäude um fast ein Drittel, während gleichzeitig grüne Arbeitsplätze entstehen.

Die wirtschaftliche Dimension ist groß: Schätzungen zufolge könnten bis 2040 vier von zehn Arbeitsplätzen in den C40-Städten dem grünen Sektor angehören. Allein durch den Rückgang der Luftverschmutzung und die damit verbundene Verbesserung der öffentlichen Gesundheit ließen sich bis 2050 weltweit über 776.000 vorzeitige Todesfälle verhindern. Diese gesundheitlichen Vorteile übersetzen sich direkt in eingesparte Gesundheitskosten in Billionenhöhe.

Deutschlands Rolle und der globale Fahrplan

Auch die deutsche Bundesregierung und insbesondere das Umweltministerium wollen das Forum in Kolumbien nutzen, um ihre Erfahrungen mit dem Kohleausstieg und der Transformation der Industrie zu teilen. Mit dem Ziel, die erneuerbaren Energien bis 2030 auf 80 Prozent des Bruttostromverbrauchs auszubauen, setzt Deutschland auf eine massive Elektrifizierung von Wärme und Verkehr. Das aktuelle Klimaschutzprogramm sieht vor, allein bis 2030 Milliardenmengen an Erdgas und Benzin einzusparen.

International unterstützt Deutschland Projekte wie die Agri-Photovoltaik in Kolumbien, die Landwirtschaft und Stromerzeugung kombiniert, oder Strukturwandel-Projekte in Südafrika. Diese Partnerschaften verdeutlichen, dass der Verzicht auf fossile Brennstoffe vor allem im globalen Süden neue wirtschaftliche Perspektiven abseits der Krisenanfälligkeit schafft.

Die Ergebnisse der Beratungen in Santa Marta sollen in einen internationalen Fahrplan einfließen, den die brasilianische COP30-Präsidentschaft koordiniert. Dieser "Fahrplan der Macher" soll bis zur Weltklimakonferenz in Antalya später in diesem Jahr fertiggestellt werden und den globalen Konsens zur Verdreifachung der erneuerbaren Kapazitäten zementieren. Es geht nicht mehr um das "Ob", sondern um das "Wie" der Umsetzung – und die Städte der Welt haben bereits damit begonnen, die Antwort zu liefern.

Stefan Krempl

Digitaler Euro: EZB bläst zum Angriff auf die Dominanz von Visa und Mastercard

Mit offenen europäischen Standards schafft die EZB die Basis für eine Bezahl-Alternative mit dem digitalen Euro, die Verbrauchern mehr Auswahl und Sicherheit bieten soll.

Die Einführung des digitalen Euros nimmt eine weitere wichtige technische Hürde. Um das geplante digitale Zentralbankgeld für die breite Masse praktikabel und für den Handel attraktiv zu machen, verzichtet die Europäische Zentralbank (EZB) auf die Entwicklung völlig neuer, isolierter Insellösungen. Stattdessen hat die Notenbank nun formelle Vereinbarungen mit drei maßgeblichen europäischen Standardisierungsorganisationen getroffen. Die European Card Payment Cooperation (ECPC), Nexo Standards und die Berlin Group sollen sicherstellen, dass der digitale Euro auf einem Fundament steht, das in der europäischen Finanzwelt bereits fest verankert ist.

Anstatt das Rad neu zu erfunden, setzt die EZB so auf Interoperabilität. Ziel ist es, die Kosten für die Markteinführung so gering wie möglich zu halten und gleichzeitig die Abhängigkeit von außereuropäischen, oft proprietären Systemen der großen internationalen Kartenanbieter und Tech-Giganten zu verringern. In einer Zeit, in der das europäische Zahlungswesen stark von US-amerikanischen Infrastrukturen dominiert wird, markiert diese Kooperation den Versuch, eine souveräne, offene Alternative zu etablieren, die für alle Marktteilnehmer frei zugänglich ist.

Konkret geht es um drei technologische Verfahren, die unterschiedliche Aspekte des Bezahlvorgangs abdecken. Die ECPC steuert den sogenannten CPACE-Standard bei. Dieser bildet die Basis für das kontaktlose Bezahlen via NFC (Near Field Communication), also das klassische „Tap-to-Pay“, das Käufer heute bereits von Kreditkarten oder Smartphones kennen. Durch die Nutzung dieses Standards wird sichergestellt, dass digitale Euro-Zahlungen an physischen Terminals im Laden ohne massive Hardware-Aufrüstungen funktionieren könnten.

Die zweite Säule bildet die Expertise von Nexo. Hier liegt der Fokus auf der Kommunikation zwischen den Kassensystemen der Händler und den Backend-Systemen der Zahlungsdienstleister. Diese Spezifikationen sind entscheidend, damit eine Transaktion nicht nur am Terminal ausgelöst, sondern auch im Hintergrund korrekt verbucht und abgewickelt wird. Die Berlin Group wiederum bringt ihre Erfahrung im Bereich der Kontenschnittstellen und des Mobile Bankings ein. Ihre Standards ermöglichen es, Zahlungen über Pseudonyme wie Mobilfunknummern zu initiieren und Kontostände in Echtzeit abzugleichen – eine Grundvoraussetzung für die Nutzerfreundlichkeit einer digitalen Währung im Alltag.

Piero Cipollone, Mitglied des EZB-Direktoriums, unterstreicht die Bedeutung dieser Partnerschaft als Bekenntnis zum privaten Sektor. Die offenen Standards sollen es ihm zufolge insbesondere neuen europäischen Anbietern erleichtern, in den Markt einzutreten. Sie seien so nicht gezwungen, teure Lizenzen für geschlossene Systeme zu erwerben. Das fördere den Wettbewerb und verhindere, dass der digitale Euro zu einem bürokratischen Monolith werde, den sich nur Branchenriesen leisten könnten.

Allerdings hängen die tatsächliche Skalierung und die Investitionssicherheit der Unternehmen noch an der politischen Entscheidungsebene. Erst wenn die europäischen Gesetzgeber die entsprechende Verordnung für den digitalen Euro verabschieden, herrscht endgültige Klarheit über dessen Status als gesetzliches Zahlungsmittel. Für die EZB und ihre Partner ist der jetzige Schritt aber ein Signal an den Markt, dass die technischen Weichen gestellt sind.

Die Vision hinter dieser Standardisierung geht über den digitalen Euro hinaus. Durch die Verwendung einheitlicher „technischer Sprachen“ dürften nationale Bezahlsysteme, die bisher oft an den Landesgrenzen enden, künftig leichter europaweit agieren. Ein nationales Kartensystem könnte so theoretisch an Terminals im gesamten Euroraum akzeptiert werden, ohne dass jedes Mal komplexe technische Anpassungen nötig wären. So würde der digitale Euro indirekt zum Katalysator für ein wirklich integriertes europaisches Zahlungssystem, das sich gegen die globale Konkurrenz behaupten könnte.

Stefan Krempl

Montag, 27. April 2026

Versteckte Potenzialanalyse: Wie Erneuerbare die Gemeindekassen füllen könnten

Eine Studie im Auftrag des Wirtschaftsministeriums zeigt enorme Gewinnchancen für Kommunen durch Ökostrom – doch Ministerin Reiche lässt die Ergebnisse in der Schublade.

Die Zahlen, die das Institut für ökologische Wirtschaftsforschung (IÖW), das Berlin-Institut für Bevölkerung und Entwicklung sowie das Institut der deutschen Wirtschaft Köln Consult zusammengetragen haben, sind beachtlich. Erreicht Deutschland seine Ausbauziele für erneuerbare Energien, könnten die direkten Einnahmen für Städte und Landkreise von derzeit 5,5 Milliarden Euro auf rund 12,4 Milliarden Euro jährlich ansteigen. Besonders ländliche Regionen, die oft unter strukturellen Defiziten leiden, dürften durch Steuereinnahmen, Pachtzahlungen und neue Arbeitsplätze massiv profitieren. Laut den Modellrechnungen für alle rund 400 deutschen Landkreise würde die Zahl der Vollzeitarbeitsplätze in diesem Sektor bundesweit auf über 100.000 steigen.

Dass diese positiven Aussichten nicht offensiv vom Bundeswirtschaftsministerium kommuniziert werden, sorgt in Fachkreisen für Irritationen. Die Studie war bereits Anfang des Jahres fertiggestellt und ist auf den 27. Februar 2026 datiert. Erst Mitte April tauchte sie fast unbemerkt auf einer Unterseite des Ministeriums sowie nun auch beim IÖW auf, ohne begleitende Pressemitteilung oder öffentliche Vorstellung durch die Ministerin Katherina Reiche (CDU).

Beobachter vermuten hinter dieser Zurückhaltung politisches Kalkül. Die Ministerin betont in ihrer Amtsführung regelmäßig die Notwendigkeit von Kosteneffizienz und verweist auf die Belastungen durch den schleppenden Netzausbau. Ein Bericht, der die wirtschaftlichen Segnungen der Wind- und Solarkraft so deutlich hervorhebt, passt offenbar nicht in das aktuelle Narrativ ihres Ressorts. Dieses fiel unter der Führung Reiches zuletzt eher durch Gesetzesvorhaben auf, die den Ausbau der Erneuerbaren erschweren würden.

Dabei liefert die Untersuchung wertvolle Hinweise darauf, wie die Akzeptanz für die Energiewende vor Ort gesteigert werden kann. Ein zentraler Punkt ist die Verteilung der Gewinne. Bisher fließt fast die Hälfte der Wertschöpfung aus den Regionen ab, weil viele Anlagen großen, überregionalen Investoren gehören. Die Studienautoren betonen, dass das volle Potenzial nur dann ausgeschöpft wird, wenn die Kommunen und ihre Bürger finanziell am Betrieb der Anlagen beteiligt sind.

Bürgerenergiegesellschaften, kommunale Eigeninvestitionen und lokale Stromtarife sind hier die entscheidenden Hebel. In Pionierregionen wie Wunsiedel in Bayern oder Lichtenau in Nordrhein-Westfalen lässt sich bereits beobachten, wie die Energiewende zum Wirtschaftsmotor wird. In solchen Vorreiter-Kommunen sind bis zu zehn Prozent des lokalen Wirtschaftswachstums der letzten Dekade direkt auf die grüne Infrastruktur zurückzuführen.

Die Mehreinnahmen in den Gemeindekassen sind dabei kein Selbstzweck. Die Analyse zeigt einen direkten Zusammenhang zwischen den Erträgen aus erneuerbaren Energien und der Verbesserung der sozialen Infrastruktur. Kommunen mit hohen Einnahmen aus Wind- und Solarparks investieren vermehrt in die Breitbandversorgung oder höhere Kita-Quoten. Damit wird der Ausbau der Energieinfrastruktur zu einem Instrument der regionalen Strukturpolitik.

Um diese Effekte bundesweit zu verstetigen, empfehlen die Experten jedoch deutliche Nachbesserungen an den gesetzlichen Rahmenbedingungen. So müssten finanzschwache Kommunen bessere Möglichkeiten zur Kreditaufnahme für Energieprojekte erhalten, und die Gründung von Genossenschaften sollte bürokratisch vereinfacht werden.

Die Tatsache, dass das Wirtschaftsministerium diese Handlungsempfehlungen bisher weitgehend ignoriert und die Studie erst nach öffentlichem Druck der Institute überhaupt auffindbar machte, wirft Fragen nach der strategischen Ausrichtung der deutschen Energiepolitik unter der aktuellen Regierung auf. Während die wissenschaftlichen Daten eine klare Sprache für eine beschleunigte, regional verankerte Energiewende sprechen, scheint das Ministerium den Fokus eher auf die Probleme und Kosten der Transformation zu legen.

Für die Kommunen bleibt die Erkenntnis, dass das Wissen um ihren möglichen Wohlstand zwar vorhanden ist, im politischen Berlin aber derzeit wenig Gehör findet. Die Information, dass die Institute mutmaßlich erst nach einer Publikation vergütet werden, verleiht der späten Veröffentlichung zudem einen faden Beigeschmack – es wirkt, als sei die Transparenz hier eher eine buchhalterische Notwendigkeit als ein politisches Anliegen gewesen.

Stefan Krempl

Sonntag, 26. April 2026

Algorithmen unter Aufsicht: Wie KI und Plattformen die Meinungsvielfalt bedrohen

Künstliche Intelligenz und mächtige Intermediäre verändern die öffentliche Debatte. Gutachter fordern im Auftrag der Medienanstalten eine Reform des Rechtsrahmens und klare KI-Kennzeichnungen.

Die Art und Weise, wie wir uns heute eine Meinung bilden, hat sich fundamental gewandelt. Wo früher redaktionelle Auswahlprozesse dominierten, entscheiden heute komplexe Algorithmen globaler Plattformen darüber, welche Informationen uns erreichen. Diese digitalen Vermittler (Intermediäre) sind längst keine neutralen Durchreichtüten mehr, sondern aktive Gestalter der öffentlichen Kommunikation. Ein Gutachten der Professoren Christoph Busch und Jan Oster im Auftrag der Gremienvorsitzendenkonferenz (GVK) der Medienanstalten legt nun den Finger in die Wunde: Der aktuelle Rechtsrahmen, ein Geflecht aus europäischem und nationalem Recht, weist demnach kritische Lücken auf Diese werden insbesondere durch den rasanten Aufstieg der Künstlichen Intelligenz (KI) immer sichtbarer.

Im Zentrum der Analyse steht das regulatorische Mehrebenensystem. Mit dem Digital Services Act (DSA) und dem European Media Freedom Act (EMFA) hat die EU laut der Untersuchung zwar mächtige Instrumente geschaffen. Doch die Verzahnung mit nationalen Gesetzen wie dem Medienstaatsvertrag ist noch nicht vollständig geglückt. Die Gutachter machen deutlich, dass wir es mit einem Flickenteppich an Zuständigkeiten zu tun haben, der besonders bei grenzüberschreitenden Sachverhalten die Durchsetzung von Mindeststandards erschwert. Wenn eine Plattform ihren Sitz im EU-Ausland hat, stoßen nationale Aufseher oft an ihre Grenzen, was gerade beim Schutz von Kindern und Jugendlichen fatale Folgen haben kann.

Ein besonderes Risiko für die Meinungsvielfalt sehen die Experten in der Verschmelzung von Suchmaschinen, sozialen Netzwerken und generativer KI. Systeme wie ChatGPT oder moderne Such-Bots verändern die Rollenverteilung im Netz. Während der DSA klassische Vermittler privilegiert, agieren KI-Systeme oft als Produzenten von Inhalten. Die Sachverständigen fordern daher, dass der Medienstaatsvertrag um spezifische Kategorien für KI-generierte Inhalte erweitert wird. Es müsse für Nutzer jederzeit transparent sein, ob sie mit einem Menschen oder einer Maschine interagieren. Kennzeichnungspflichten für Social Bots und automatisierte Accounts müssten drastisch verschärft werden, um die gezielte Manipulation des öffentlichen Diskurses zu verhindern.

Auch die Frage der Verantwortung stellt sich laut der Analyse neu. Bisher profitieren viele Plattformen von weitreichenden Haftungsprivilegien, solange sie keine Kenntnis von rechtswidrigen Inhalten haben. Angesichts der schieren Masse an Desinformation und Hassrede regen Busch und Oster an, diese Privilegien zu überdenken. Eine stärkere Zurechnung von Verantwortung sei notwendig, um die Plattformbetreiber zu einer proaktiveren Sicherung der Meinungsvielfalt zu bewegen. Dazu gehöre auch, dass journalistisch-redaktionelle Angebote durch Transparenzanforderungen und privilegierte Auffindbarkeit gestärkt werden, um ein Gegengewicht zu rein algorithmisch gesteuerten Trends zu bilden.

Der GVK-Vorsitzende Albrecht Bähr unterstreicht die Dringlichkeit dieser Anpassungen. Das Gutachten liefere die wissenschaftliche Basis für zwei zentrale Handlungsachsen der künftigen Medienpolitik. Zum einen müsse der Jugendmedienschutz so weiterentwickelt werden, dass er auch gegenüber Plattformen ohne deutschen Sitz effektiv durchgreifen könne. Ferner brauche es eine Reform der Vielfaltssicherung, die der wachsenden Bedeutung der Intermediäre für die Auffindbarkeit von Inhalten Rechnung trägt. Ohne klare Regeln für Transparenz und Aufsicht drohe die Gefahr, dass die demokratische Willensbildung zum Spielball kommerzieller Algorithmen wird. Das Ziel ist klar: Ein kohärentes Schutzsystem, das die Medienfreiheit im digitalen Zeitalter nicht nur verwaltet, sondern aktiv verteidigt.

Stefan Krempl

Freitag, 24. April 2026

„Tech-Faschismus“ vs. Staatsraison: Länder gespalten über Palantir-Manifest

Hessen und Bayern halten trotz radikaler Forderungen des US-Konzerns Palantir an der Software fest. Andere Bundesländer verschärfen ihre Ablehnung und Kritik.

Der Aufstieg von Palantir liest sich wie ein Drehbuch für einen Silicon-Valley-Thriller. Innerhalb weniger Jahre hat sich das von Peter Thiel mitbegründete Unternehmen zu einem der einflussreichsten Akteure der globalen Sicherheitsarchitektur entwickelt. Das US-Militär und die dortigen Einwanderungsbehörden setzen längst auf die Analyse-Tools. Palantir-Software ist auch in deutschen Polizeibehörden schon einige Jahre Realität. Bayern, Hessen und Nordrhein-Westfalen nutzen die Plattform bereits intensiv, um riesige Datenmengen zu verknüpfen und Ermittlungserfolge zu beschleunigen. Doch nun sorgt ein neues politisches Manifest der Firmenleitung für Erschrecken. Es befeuert Vorwürfe eines drohenden „Tech-Faschismus“.

In dem Pamphlet, das auf dem Buch „The Technological Republic“ von CEO Alexander Karp und Mitgründer Nicholas Zamiska basiert, entwirft Palantir eine radikale Vision für die westliche Welt. Das Manifest umfasst 22 Punkte und liest sich wie eine Kampfansage an liberale Gesellschaftsmodelle. Die Autoren fordern eine kompromisslose Allianz zwischen Tech-Giganten und dem Staat, die Entwicklung autonomer KI-Waffen und die Wiedereinführung der Wehrpflicht.

Brisant sind die ideologischen Ausfälle gegen gesellschaftliche Werte wie Pluralismus und Inklusivität. Karp & Co. sprechen sich offen gegen eine „hohle“ Vielfalt aus. Sie beklagen, dass Werturteile über Kulturen tabuisiert würden. Dabei unterscheiden sie explizit zwischen fortschrittlichen und „rückständigen oder schädlichen“ Kulturen – eine Rhetorik, die in internationalen Medien scharfe Kritik auslöst.

Auch Deutschland rückt direkt in das Visier der Palantir-Ideologen. Die Autoren fordern, die „Kastration“ der Bundesrepublik nach dem Zweiten Weltkrieg rückgängig zu machen. Deutschland die „Zähne zu ziehen“, wird als historische Überkorrektur bezeichnet, für die Europa heute einen hohen Preis zahle. Es ist der Ruf nach einer umfassenden Remilitarisierung, die Hand in Hand mit der algorithmischen Aufrüstung gehen soll.

Trotz dieser offen politisch-reaktionären Agenda reagieren viele deutsche Innenministerien auffallend pragmatisch bis ausweichend. Hessens Innenminister Roman Poseck (CDU) betont etwa gegenüber ZDF heute, dass die persönlichen Ansichten der Firmenleitung nichts an der Notwendigkeit der Software änderten. Man könne es sich schlicht nicht leisten, auf die Technologie zu verzichten, ohne erhebliche Sicherheitslücken zu riskieren.

Ähnlich klingt es aus Bayern, wo führende Politiker auf das bestehende Vertragsverhältnis verweist, das durch Manifeste nicht berührt werde. Die bayerische Polizei schätze die Fähigkeit der Software, Informationen aus verschiedenen Datenbanken in einer einheitlichen Umgebung zu vernetzen. Was früher Stunden oder Tage dauerte, gelinge nun in Sekunden. Diese Effizienzsteigerung bei der Gefahrenabwehr wiege für viele Entscheidungsträger schwerer als die moralischen Bedenken gegenüber den Hintermännern der Technik. Auch Baden-Württemberg sieht in Palantir eine unverzichtbare Lösung, da eine händische Auswertung der Datenmengen angesichts der aktuellen Sicherheitslage nicht mehr zeitgemäß sei.

Umso stärker ist die Ablehnung in anderen Teilen Deutschlands spürbar. Niedersachsen lehnt den Einsatz der Software strikt ab und sieht sich durch die jüngsten Äußerungen des Unternehmens in dieser Haltung bestätigt. Bundesländer wie Rheinland-Pfalz setzen konsequent auf europäische Alternativen und führen produktoffene Marktsichtungen durch. Auch auf der Ebene der Innenministerkonferenz wurde bereits das Ziel formuliert, die digitale Souveränität Europas zu stärken und Abhängigkeiten von US-Konzernen zu verringern. Bremen betont, dass dies die langfristige Strategie sein müsse, um nicht dauerhaft am Tropf von Unternehmen zu hängen, deren Wertekompass so fundamental von europäischen Standards abweicht.

Das Dilemma der deutschen Sicherheitsbehörden bleibt die zeitliche Komponente. Während Nordrhein-Westfalen zwar eine „digital souveräne Lösung“ als perspektivisches Ziel ausgibt, laufen aktuelle Ausschreibungen oft wieder auf die etablierten Anbieter hinaus. Die Entwicklung vergleichbarer europäischer Anwendungen steckt vielerorts noch in den Kinderschuhen. Bayern gibt sich zwar zuversichtlich, dass heimische Unternehmen bald aufschließen könnten. Zugleich warnt der Freistaat aber davor, jahrelang auf moderne Werkzeuge zu verzichten, bis diese fertiggestellt sind. So bleibt Palantir vorerst ein höchst umstrittener Anbieter im Maschinenraum der deutschen inneren Sicherheit. Das Unternehmen rüttelt gleichzeitig an den ideologischen Grundfesten eben jener Demokratie, die es zu schützen vorgibt.

Stefan Krempl

Digitale Souveränität: Der Bund kommt bei Open Desk kaum vom Fleck

Trotz vollmundiger Versprechen bleibt die Bundesverwaltung fest in US-Hand. Eine echte Open-Source-Alternative soll erst 2028 fertig sein, doch es hagelt Kritik.

Die ambitionierte Vision eines unabhängigen, staatlichen Arbeitsplatzes kollidiert schmerzhaft mit der harten Realität der Berliner Ministerien. Trotz der vollmundigen Ankündigung, sich aus der Umklammerung proprietärer Anbieter zu lösen, verdeutlichen aktuelle Daten aus zwei Antworten der Bundesregierung auf Anfragen der Linksfraktion ein deutliches Übergewicht US-amerikanischer Technologie. Rund acht Milliarden Euro umfasst das Gesamtvolumen der Verträge, die der Bund mit Softwarehäusern aus Übersee geschlossen hat, wie SZ-Dossier vorab etwa hier berichtet. Allen voran dominiert Microsoft das Feld mit einem Volumen von über vier Milliarden Euro, gefolgt von Schwergewichten wie Oracle und Cisco.

In der Praxis bedeutet dies eine fast absolute Abhängigkeit: Nahezu 475.000 Microsoft-Arbeitsplätzen stehen gerade einmal rund 8500 produktive Lizenzen der Open-Source-Alternative Open Desk gegenüber – ein Marktanteil von weniger als zwei Prozent.

Besonders ernüchternd ist der Blick auf die Zeitpläne der digitalen Transformation. Open Desk, das vom Zentrum für digitale Souveränität (Zendis) entwickelt wird, fungiert derzeit noch nicht als echter Ersatz. Die freie Office-Suite wird lediglich in Teststellungen erprobt. Eine erste belastbare Version des Systems wird erst für das Frühjahr 2027 erwartet, während das Ziel eines vollständig souveränen Arbeitsplatzes sogar bis Ende 2028 in noch weiterer Ferne liegt.

Diese schleppende Umsetzung provoziert scharfe Kritik von Oppositionspolitikern, die der Bundesregierung „Souveränitäts-Washing“ vorwerfen: Die Regierung beschwöre zwar ständig digitale Unabhängigkeit. Doch das Geld fließe weiterhin in Rahmenverträge mit Hyperscalern. Dies schwäche die heimische Softwareindustrie und zementiere die strukturelle Bindung an US-Infrastrukturen.

Die personellen und organisatorischen Hürden innerhalb der Verwaltung erweisen sich als starke Beharrungskräfte. Das Verteidigungsministerium setzt fast ausschließlich auf Microsoft. Doch auch bei zentralen Projekten wie der Entwickler-Plattform Open Code fehlt es laut den Auskünften an langfristiger Planung und gesicherter Finanzierung. Im vergangenen Jahr entfiel lediglich ein Bruchteil der staatlichen Software-Entwicklungsaufträge auf Open-Source-Projekte. Solange kein verbindlicher Fahrplan für einen flächendeckenden Rollout existiert und die Bundesländer bei der Kooperation zögern, bleibt die digitale Souveränität Deutschlands ein teures Versprechen auf dem Papier. Dabei wird die technologische Abhängigkeit in Zeiten geopolitischer Spannungen zunehmend zum Sicherheitsrisiko.

Stefan Krempl

Montag, 20. April 2026

KI unter eigener Kontrolle: Mozilla-Tochter MZLA stellt Thunderbolt vor

Mit Thunderbolt und der Integration in das Haystack-Framework bietet MZLA Unternehmen eine Open-Source-Alternative zu KI in der Cloud, die vollständig auf eigener Infrastruktur läuft.

Die Goldgräberstimmung im Bereich der Künstlichen Intelligenz hat eine Kehrseite, die viele Unternehmen zunehmend nervös macht: Die Abhängigkeit von den Infrastrukturen und Datenschutzbestimmungen großer Cloud-Anbieter. Wer heute modernste Sprachmodelle nutzen will, muss seine sensiblen Daten meist auf die Server von Drittanbietern schieben. Dass dies für Behörden, die Luftfahrtindustrie oder das Gesundheitswesen oft keine Option ist, hat nun MZLA Technologies erkannt. Die Tochtergesellschaft der Mozilla Foundation, die vor allem für die Entwicklung des E-Mail-Clients Thunderbird bekannt ist, greift mit Thunderbolt nun in den Markt für Enterprise-KI ein.

Ein Arbeitsplatz unter eigener Flagge

Thunderbolt versteht sich nicht als bloßes Chat-Fenster, sondern als souveräner KI-Workspace. Ziel ist es, Organisationen die Autonomie zurückzugeben, die im Zeitalter von „Software as a Service“ oft verloren gegangen ist. Der Client ist quelloffen, selbst hostbar und modular aufgebaut. Das bedeutet: Unternehmen entscheiden selbst, welches Gehirn hinter der Oberfläche arbeitet. Ob kommerzielle Schnittstellen führender Anbieter oder lokal betriebene Open-Source-Modelle zum Einsatz kommen, bleibt der IT-Abteilung überlassen.

Dabei geht der Funktionsumfang über einfaches Prompting hinaus. Thunderbolt ist darauf ausgelegt, tief in die Arbeitsabläufe einzutauchen. Nutzer können über den Client nicht nur chatten oder recherchieren, sondern auch komplexe Automatisierungen erstellen. So lassen sich tägliche Briefings generieren, spezifische Themenfelder überwachen oder Berichte auf Basis interner Datenquellen erstellen. Da native Applikationen für Windows, macOS, Linux sowie iOS und Android bereitstehen, soll die KI-gestützte Arbeit nahtlos über alle Endgeräte hinweg funktionieren, ohne dass die Sicherheitskette unterbrochen wird.

Die Tiefe des Stacks: Allianz mit Deepset

Technische Schlagkraft erhält Thunderbolt durch die Kooperation mit dem Berliner Unternehmen Deepset. Durch die Integration von Haystack, einem der führenden Open-Source-Frameworks für die Orchestrierung von KI-Agenten und Retrieval Augmented Generation (RAG), wird die Brücke zwischen der Benutzeroberfläche und der IT-Infrastruktur geschlagen. Thunderbolt das Gesicht der KI dar, sorgt Haystack im Hintergrund dafür, dass die Modelle effizient auf die tatsächlichen Daten des Unternehmens zugreifen können.

Diese Kombination adressiert ein Kernproblem aktueller KI-Implementierungen: die Fragmentierung. Oft nutzen Abteilungen isolierte Tools, die nicht miteinander kommunizieren und deren Datenfluss kaum kontrollierbar ist. Der integrierte Ansatz von MZLA und Deepset ermöglicht dagegen einen „Sovereign AI Stack“. Dabei ist der gesamte Prozess – von der Datenabfrage über die Verarbeitung durch Agenten bis hin zur Ausgabe im Client – innerhalb einer kontrollierten, oft vollständig lokalen Umgebung gekapselt. Für besonders sicherheitskritische Bereiche bietet MZLA zudem eine Ende-zu-Ende-Verschlüsselung und Zugriffskontrollen auf Geräteebene an.

Strategische Trennung und Verfügbarkeit

Interessant ist die organisatorische Aufstellung hinter dem Projekt. Thunderbolt wird zwar von der Mozilla-Tochter MZLA gesteuert, aber von einem spezialisierten Team entwickelt, das strikt von der spendenfinanzierten Thunderbird-Entwicklung getrennt ist. Die Finanzierung erfolgt durch eine dedizierte Investition von Mozilla, was unterstreicht, dass man hier ein ernsthaftes kommerzielles Standbein im Enterprise-Sektor aufbauen möchte.

Der Quellcode von Thunderbolt ist bereits auf GitHub einsehbar, was dem Transparenzanspruch von Mozilla entspricht. Wer das System produktiv nutzen will, kann sich derzeit auf eine Warteliste setzen lassen. Für Unternehmen wird ein Preismodell angeboten, das sich nach dem Grad des Supports und der Komplexität der Bereitstellung richtet. Hier kommen auch Integrationspartner ins Spiel, die Thunderbolt zusammen mit souveränen Speicherlösungen und spezialisiertem Engineering-Support als Komplettpaket ausliefern können.

Trotz der vielversprechenden technischen Basis bleibt ein Wermutstropfen beim Marketing hängen: Die Namenswahl. In einer Tech-Welt, in der „Thunderbolt“ seit Jahren fest als Begriff für eine Hardware-Schnittstelle von Intel und Apple besetzt ist, könnte die Bezeichnung des KI-Clients für Verwirrung sorgen. Doch wenn das Versprechen von digitaler Souveränität und technologischer Unabhängigkeit eingelöst wird, dürfte der Name für die IT-Entscheider zweitrangig sein. MZLA positioniert sich jedenfalls rechtzeitig als Speerspitze für all jene, die KI nutzen wollen, ohne die Kontrolle über ihre digitale DNA abzugeben.

Stefan Krempl

Samstag, 18. April 2026

Massive Cloud-Abhängigkeit: US-Kill-Switch bedroht Europas Verteidigung

Eine Studie des Future of Technology Institute warnt vor der gefährlichen Abhängigkeit europäischer Armeen von US-Tech-Giganten und fordert dringend digitale Souveränität für den Kontinent.

Die europäische Verteidigungsarchitektur weist eine Schwachstelle auf, die bisher weitgehend im Verborgenen blieb: die Abhängigkeit von US-amerikanischen Cloud-AnbieternEine Untersuchung der Denkfabrik FOTI (Future of Technology Institute) zeigt erstmals das volle Ausmaß dieser digitalen Flanke aufDemnach verlassen sich mehr als drei Viertel der untersuchten europäischen Staaten bei kritischen nationalen Sicherheitsfunktionen auf US-TechnologieIn 23 von 28 analysierten Ländern basieren die Verteidigungssysteme direkt oder über europäische Zwischenhändler auf der Infrastruktur von Konzernen wie Microsoft, Google oder Oracle.

Gefährlich ist laut der Analyse das Risiko eines „Kill-Switch“Damit ist die Möglichkeit gemeint, dass der Zugang zu lebenswichtigen Systemen für Logistik, Personalmanagement oder gar Waffensysteme durch US-Sanktionen oder politische Entscheidungen von heute auf morgen gekappt werden könnte. der Untersuchung zufolge sind 16 europäische Länder, darunter Deutschland, Polen und Großbritannien, einem hohen Risiko ausgesetztSie nutzen entweder direkt US-Cloud-Dienste oder verwenden Systeme, bei denen unklar ist, ob sie tatsächlich technologisch von der globalen US-Infrastruktur entkoppelt sind.

Die politische Dimension dieser Abhängigkeit hat sich durch die aggressive Tech-Politik der US-Regierung verschärftDie Autoren verweisen auf drastische Beispiele aus der jüngeren Vergangenheit: So wurde im Rahmen von Verhandlungen über Rohstoffabkommen damit gedroht, der Ukraine den Zugang zum Satellitendienst Starlink zu entziehenAuch die Sanktionierung von Richtern des Internationalen Strafgerichtshofs (IStGH) führte dazu, dass digitale Dienste wie E-Mail-Konten bei US-Anbietern kurzzeitig gesperrt wurdenSolche Vorfälle verdeutlichen, dass technologische Dominanz längst als geostrategische Waffe eingesetzt wird.

Viele Länder wiegen sich offenbar in einer trügerischen SicherheitOft werden Lösungen als „souverän“ vermarktet, basieren aber im Hintergrund weiter auf US-TechnikIn Deutschland etwa setzt die Bundeswehr auf eine Multi-Cloud-Strategie, die unter anderem Google-Lösungen verwendetSelbst sogenannte „Air-Gapped“-Systeme, die physisch vom Internet getrennt sein sollen, benötigen für Wartung und Updates oft den Zugriff der US-HerstellerWerden diese Leistungen durch Sanktionen unterbunden, ist die langfristige Betriebssicherheit gefährdet.

Nur ein einziges Land in Europa gilt derzeit als Vorreiter in Sachen digitaler Eigenständigkeit: ÖsterreichDie Alpenrepublik hat konsequent auf Open-Source-Lösungen wie Nextcloud und LibreOffice umgestellt und betreibt eine weitgehend souveräne Militär-CloudAuch in den Niederlanden gibt es Bestrebungen, diesem Beispiel zu folgen, wenngleich dort aktuell noch Abhängigkeiten von Microsoft und Amazon bestehen.

Die Sorge vor dieser Übermacht der US-Hyperscaler wird auch von der Bevölkerung geteilt. Eine begleitende Umfrage in großen EU-Staaten ergab, dass rund zwei Drittel der Befragten in Ländern wie Deutschland, Frankreich und Italien die Speicherung staatlicher Daten bei US-Konzernen als Bedrohung für die europäische Sicherheit betrachten.

Experten vom FOTI fordern daher ein UmsteuernStatt Milliarden an Steuergeldern in Form von Lizenzgebühren an US-Unternehmen abzuführen, sollte dieses Kapital in den Aufbau einer eigenen, europäischen Cloud-Industrie fließenDigitale Resilienz müsse zum Kernbestandteil der europäischen Verteidigungsstrategie werdenEin „Weiter so“ könne sich Europa angesichts der unberechenbaren geopolitischen Lage nicht mehr leisten.

Stefan Krempl

Brüsseler Cookie-Pläne: EU-Ratspräsidentschaft bremst Datenschutz-Reform

Der "Digitale Omnibus" soll Ordnung in das europäische Digitalrecht bringen. Doch beim Thema Cookie-Banner flammt neuer Streit zwischen den Mitgliedstaaten und der EU-Kommission auf.

In Brüssel brodelt es beim Thema digitale Selbstbestimmung. Während die EU-Kommission mit dem „Digital Omnibus“-Paket die europäische Gesetzgebungslandschaft radikal vereinfachen und bürokratische Lasten abbauen will, regt sich im Ministerrat Widerstand gegen die geplanten Änderungen an den DatenschutzregelnEin aktueller Kompromissvorschlag der zyprischen Ratspräsidentschaft, den Table.Media veröffentlicht hat, offenbart Risse in der Strategie, wie Nutzer künftig über ihre Daten im Netz entscheiden sollen.

Im Zentrum des Streits steht die Verwaltung von Cookies. Die Kommission strebt an, die Einwilligung in das Speichern und Auslesen von Informationen auf Endgeräten – sofern es sich um personenbezogene Daten handelt – künftig direkt unter das Regime der Datenschutz-Grundverordnung (DSGVO) zu stellenDamit würde ein wesentlicher Teil der bisherigen E-Privacy-Richtlinie in die DSGVO überführt. Die Vorgaben zum Datenschutz in der elektronischen Kommunikation sollen nach den Plänen der Brüsseler Regierungsinstitution nur noch dann greifen, wenn keine personenbezogenen Daten im Spiel sind.

Genau hier warnen Länder wie Frankreich, Polen und Rumänien vor einem juristischen Chaos. Die Befürchtung: Es entstehen zwei parallele Regelwerke für technisch identische Vorgänge, was die Rechtsunsicherheit für Unternehmen und Webseitenbetreiber erhöhen könnte. Die Mitgliedstaaten lehnen diesen Ansatz einer zweigeteilten Zuständigkeit ab und fordern stattdessen mehr Klarheit statt neuer bürokratischer Hürden durch einander überschneidende Verordnungen.

Trotz der Ablehnung der strukturellen Reform zeigen sich die EU-Länder in einem Punkt indes überraschend offen für Neuerungen, die das Surfen im Alltag erleichtern könnten. Diskutiert wird die Einführung einer zentralen Cookie-Einwilligung. In der Praxis würde dies bedeuten, dass Nutzer ihre Vorlieben einmalig festlegen können – etwa über Browser-Einstellungen oder spezielle Schnittstellen –, anstatt bei jedem einzelnen Website-Besuch erneut von Pop-ups zur Zustimmung oder Ablehnung gedrängt zu werden.

Diese zentralisierten Entscheidungen sollen zudem eine längere Haltbarkeit bekommen. Der Vorschlag sieht vor, dass eine einmal getroffene Ablehnung für einen Zeitraum von mindestens sechs Monaten respektiert werden mussWebseitenbetreiber dürften Nutzer in dieser Zeit nicht erneut mit Einwilligungsanfragen belästigenDies soll die Zustimmungsmüdigkeit bekämpfen, die viele Nutzer dazu verleitet, wahllos auf „Akzeptieren“ zu klicken, um störende Banner loszuwerden.

Für die technische Umsetzung dieser Lösung sollen Anbieter von Web-Browsern und Online-Schnittstellen in die Pflicht genommen werden. Sie müssten die notwendigen Werkzeuge bereitstellen, damit Nutzer ihre Wahl automatisiert und maschinenlesbar an Webseiten übermitteln könnenDavon ausgenommen wären lediglich kleine und mittlere Unternehmen, um diese nicht durch zu komplexe IT-Anforderungen zu überlasten.

Der Entwurf der zyprischen Präsidentschaft versucht zudem, an anderer Stelle für Entlastung zu sorgen. So sollen Meldepflichten bei Sicherheitsvorfällen über eine zentrale nationale Anlaufstelle („Single Entry Point“) gebündelt werden, um zu verhindern, dass Unternehmen denselben Vorfall bei mehreren Behörden nach unterschiedlichen Standards melden müssenAuch für die Forschung und die Entwicklung von Künstlicher Intelligenz sieht das Papier Erleichterungen vor, sofern angemessene Schutzmaßnahmen für die Betroffenen gewahrt bleiben.

Ob sich die Mitgliedstaaten und das EU-Parlament auf Basis dieses Papiers einigen können, ist zweifelhaft. Der „Digital Omnibus“ zeigt, dass der Wunsch nach Vereinfachung in der komplexen Welt des Datenschutzes oft auf technische und juristische Realitäten trifft, die sich nicht so leicht in ein einziges Gesetzeswerk pressen lassen. Nutzer dürfen immerhin darauf hoffen, dass das Zeitalter der ewigen Cookie-Banner zumindest ein Stück weit seinem Ende entgegengeht.

Stefan Krempl