Montag, 4. Mai 2026

E-Auto-Laden: Neue Super-Chips sollen Schluss machen mit klobiger Technik

Ein EU-Projekt unter Leitung des Fraunhofer IZM schrumpft das Ladegerät im Auto auf ein Drittel der Größe – für mehr Platz, weniger Gewicht und günstigere Preise.

Die Verkehrswende in der EU steht vor einer gewaltigen Herausforderung. Da der Sektor für rund 28 Prozent der Treibhausgasemissionen verantwortlich ist und der Löwenanteil davon auf die Straße entfällt, führt an der Elektromobilität kein Weg vorbei. Doch damit E-Autos massentauglich werden, müssen sie nicht nur klimafreundlich, sondern auch leistungsstark und vor allem bezahlbar sein. Ein oft unterschätzter Flaschenhals in dieser Gleichung ist der Onboard-Charger (OBC).

Dieses im Fahrzeug fest verbaute Ladegerät ist dafür zuständig, den Wechselstrom aus der Steckdose oder der Wallbox in die Energie umzuwandeln, die die Batterie speichern kann. Aktuelle Modelle stoßen hierbei jedoch an physikalische und ökonomische Grenzen. Das EU-geförderte Projekt HiPower 5.0 schickt sich nun an, diese Barrieren zu durchbrechen, wobei das Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration (IZM) eine Schlüsselrolle bei der Systementwicklung übernimmt.

Bisherige Ladegeräte basieren meist auf klassischen Silizium-Chips. Diese Technologie ist zwar bewährt, lässt sich aber kaum noch weiter optimieren. Bei steigenden Ladeleistungen – etwa den im Projekt anvisierten 22 Kilowatt – führen diese Komponenten zu Effizienzproblemen. Energieverluste schlagen sich unmittelbar in Wärme nieder, die wiederum aufwendig weggekühlt werden muss. Das Resultat sind klobige, schwere Gehäuse, die wertvollen Platz im Motorraum beanspruchen. Aktuelle 22-kW-Ladesysteme nehmen oft ein Volumen von etwa zwölf Litern ein. In kleineren Fahrzeugklassen ist ein solcher Platzbedarf kaum zu rechtfertigen, weshalb schnelles Laden zu Hause dort oft ein teures Extra bleibt oder gar nicht erst angeboten wird.

Hier setzt die Arbeit des HiPower 5.0-Konsortiums an. Das Ziel ist nichts Geringeres als eine radikale Verkleinerung bei gleichzeitiger Leistungssteigerung. Die Forscher streben ein Volumen von lediglich vier Litern für die 22-kW-Klasse an. Das entspricht einer Reduktion auf ein Drittel des aktuellen Standards. Ermöglicht wird dieser Sprung durch den Einsatz neuartiger Gallium-Nitrid-Halbleiter (GaN), die vom Projektpartner Infineon stammen. Diese modernen Materialien können Strom deutlich schneller und verlustärmer schalten als herkömmliches Silizium. Das erlaubt die Verwendung viel kleinerer Bauteile im Inneren des Geräts.

Der technologische Clou liegt in der Kombination von Funktionen. Die im Projekt verwendeten Chips sind so konstruiert, dass ein einziges Bauteil die Arbeit von früher zwei getrennten Schaltern übernimmt. Das reduziert nicht nur die Anzahl der benötigten Teile, was die Kosten senkt und die Zuverlässigkeit erhöht, sondern eröffnet völlig neue Möglichkeiten beim Design der Elektronik. Ingenieure können nun Bauformen realisieren, die zuvor aufgrund technischer Einschränkungen unmöglich waren.

Doch ein neuer Wunder-Chip allein macht noch kein kompaktes Ladegerät. Die Expertise des IZM liegt darin, diese Komponenten in ein funktionierendes Gesamtsystem zu überführen. Ein wichtiges Verfahren dabei ist das sogenannte "Embedding". Anstatt Bauteile wie früher einfach nur auf eine Platine zu löten, werden elektronische Komponenten direkt in die Schichten der Leiterplatte integriert. Das verkürzt die Wege, die der Strom zurücklegen muss, reduziert Verluste und spart massiv Platz. Das System wird nicht mehr als Ansammlung einzelner Teile betrachtet, sondern von Beginn an als eine extrem kompakt verbaute Einheit geplant.

Das Potenzial dieser Ansätze hat das Fraunhofer IZM bereits mit einem Prototyp auf der Fachmesse PCIM Europe 2024 untermauert. Auch wenn jenes System noch ohne die allerneuesten Chip-Generationen auskam, zeigte es bereits, in welche Richtung die Reise geht. Mit dem nun gestarteten Projekt HiPower 5.0 wird diese Entwicklung auf eine neue Stufe gehoben. Dabei geht es um mehr als nur Technik: Es geht darum, dass Europa bei der Herstellung dieser wichtigen Komponenten unabhängig bleibt. Das Konsortium deckt die gesamte Kette ab, vom Chip-Entwickler über Zulieferer bis hin zu den großen Autoherstellern.

Das Projekt ist breit aufgestellt und umfasst Partner aus zehn europäischen Ländern. Neben Autos sollen die neuen Ladegeräte künftig auch in der Schifffahrt eingesetzt werden, wo effiziente Elektronik ebenfalls dringend benötigt wird. Insgesamt arbeiten 46 Partner an verschiedenen Lösungen für den Alltag. Gefördert wird das Vorhaben, das bis Juni 2028 läuft, mit insgesamt 33,7 Millionen Euro durch die EU und nationale Partner.

Allein das Bundesministerium für Forschung, Technologie und Raumfahrt steuert über 5,7 Millionen Euro bei. Es ist eine Investition, die dafür sorgen könnte, dass das Ladegerät im Auto in Zukunft nicht mehr Platz wegnimmt als ein Schuhkarton, während es gleichzeitig dafür sorgt, dass E-Autos leichter, effizienter und für uns alle erschwinglicher werden.

Stefan Krempl

Tabubruch in Mainz: Koalition öffnet Mautdaten für die Strafverfolgung

Der neue Koalitionsvertrag von CDU und SPD in Rheinland-Pfalz bricht mit einem langjährigen Dogma des Datenschutzes: Die Zweckbindung von Mautdaten soll zur Bekämpfung schwerster Verbrechen fallen.

Es war über Jahre hinweg ein rotes Tuch für Datenschützer und liberale Rechtspolitiker: Die Nutzung von Lkw-Mautdaten für polizeiliche Ermittlungen. Bisher galt das eiserne Versprechen, dass die zur Abrechnung erhobenen Bewegungsdaten ausschließlich fiskalischen Zwecken dienen dürfen – ein „gläserner Autofahrer“ sollte unter allen Umständen verhindert werden. Doch die neue Mainzer Koalition aus CDU und SPD rüttelt nun massiv an diesem Grundsatz. In ihrem Regierungsprogramm alias Koalitionsvertrag heißt es explizit, man wolle die Voraussetzungen dafür schaffen, dass erhobene Mautdaten künftig zur Bekämpfung schwerster Straftaten genutzt werden können.

Dieser Schritt ist die Antwort auf eine jahrelange Debatte, in der Ermittlungsbehörden immer wieder forderten, auf den Datenschatz der Maut-Infrastruktur zugreifen zu dürfen, um etwa Fluchtwege nach Kapitalverbrechen oder Terroranschlägen zu rekonstruieren. Kritiker sahen darin stets den Einstieg in eine flächendeckende Überwachung des Straßenverkehrs. Dass Rheinland-Pfalz diesen Weg nun ebnen will, markiert einen sicherheitspolitischen Kurswechsel, der weit über die Landesgrenzen hinaus Signalwirkung haben dürfte.

Doch die Maut-Pläne sind nur ein Teil einer umfassenden technologischen Aufrüstung. Weitere Punkte aus der Vereinbarung:

  • KI-Verkehrsüberwachung: Der Einsatz von Mono-Cams zur Erkennung von Handyverstößen soll unter dem Leitbild der „Vision Zero“ flächendeckend ausgebaut werden.

  • Polizeiliche Aufrüstung: Das Land strebt eine Zielzahl von 10.500 Polizeikräften an und will die technische Ausstattung zur Bekämpfung von Cybercrime und Extremismus massiv verstärken.

  • Digitale Souveränität: Rheinland-Pfalz will sich von außereuropäischen IT-Anbietern unabhängiger machen und setzt auf europäische Lösungen für Cloud-Dienste und Identitätsmanagement.

  • Verwaltungs-Modernisierung: Durch eine landesweite Low-Code-Plattform und das „Einer-für-Alle“-Prinzip soll die Digitalisierung der Verwaltung beschleunigt werden.

  • Bildungsoffensive: Ab der 5. Klasse ist eine flächendeckende 1:1-Ausstattung der Schüler mit digitalen Endgeräten fest eingeplant.

    Stefan Krempl

Grüne Welle für alle: Wie KI den Fußverkehr aus dem Schatten holt

Das DLR-Projekt LTSA+ zeigt in Potsdam, wie intelligente Ampeln Fußgänger automatisch erkennen und Wartezeiten verkürzen, während Berlin auf VeloFlow setzt.

In modernen Smart Cities scheint der Algorithmus bisher vor allem eine Sprache zu sprechen: die des Automobils. Intelligente Verkehrssteuerungen optimieren seit Jahren den Verkehrsfluss, senken Emissionen und halten Busse pünktlich. Doch wer zu Fuß unterwegs ist, blieb in dieser digitalen Gleichung oft eine unbekannte Variable. Ein neues Forschungsprojekt des Deutschen Zentrums für Luft- und Raumfahrt (DLR) schickt sich nun an, das Machtgefüge an der Kreuzung nachhaltig zu verschieben.

Bisher war die Situation für Fußgänger an Kreuzungen meist reaktiv geprägt. Wer die Straßenseite wechseln wollte, musste den berühmten gelben Taster betätigen und auf ein programmiertes Zeitfenster warten. Das Projekt LTSA+, das das DLR gemeinsam mit dem Sensorspezialisten VITRONIC in den letzten zwei Jahren vorangetrieben hat, ersetzt dieses haptische Signal durch vorausschauende Intelligenz. Der „Local Traffic Safety Analyzer“ erkennt Menschen auf dem Gehweg bereits, bevor sie den Bordstein erreichen, und passt die Ampelphasen dynamisch an den tatsächlichen Bedarf an.

Das Herzstück des Systems bildet eine KI-gestützte Sensorplattform. Diese erfasst Verkehrsobjekte datenschutzkonform und klassifiziert sie in Echtzeit. Die Steuerung weiß also nicht nur, dass sich jemand der Kreuzung nähert, sondern auch, mit welcher Geschwindigkeit und in welche Richtung sich die Person bewegt. Für Tobias Hesse, Leiter des DLR-Instituts für Verkehrssystemtechnik, ist dies ein entscheidender Hebel für mehr soziale Gerechtigkeit im Straßenraum. Besonders langsame Verkehrsteilnehmer wie Senioren oder Kinder profitieren von automatisch verlängerten Grünphasen, die individuell auf ihre Gehzeit zugeschnitten sind.

Im Frühjahr 2026 wurde das System an einer belebten Kreuzung in Potsdam unter realen Bedingungen getestet. Die Forschenden weiteten die Erfassungsbereiche weit auf die Gehwege aus, sodass die KI eine Prognose über die Ankunft der Fußgänger erstellen konnte. Diese Daten fließen direkt in die Ampelsteuerung ein. Das Ergebnis ist eine Effizienzsteigerung, die paradoxerweise sogar dem Autofahrer zugutekommt: Wenn niemand am Rand steht, wird die Fußgängerphase schlichtweg übersprungen, was den Verkehrsfluss der motorisierten Teilnehmer unnötig lange Stopps erspart.

Dass die Einführung solcher Systeme kein Selbstläufer ist, zeigt ein Blick nach Hamm. Dort steuert eine KI bereits seit 2023 eine Kreuzung und priorisiert Radfahrer sowie Fußgänger. Doch der Erfolg hat seine Tücken. Im Spätherbst 2024 musste die Stadtverwaltung die KI während der nachmittäglichen Rush Hour vorerst deaktivieren. Der Grund: Die Bevorzugung der schwächeren Verkehrsteilnehmer führte in Kombination mit umliegenden Baustellen zu massiven Rückstaus im Berufsverkehr. Zwischen 15:30 und 17:30 Uhr kehrt man dort vorerst zum konventionellen Zeitplan zurück, bis weitere Simulationen eine bessere Balance zwischen den Verkehrsarten ermöglichen.

Diese Balance ist genau das Ziel, das das DLR mit seinem multimodalen Ansatz verfolgt. Die LTSA-Technologie ist darauf ausgelegt, Kommunen die Freiheit zu geben, ihre eigenen Prioritäten zu setzen. Möchte eine Stadt die umweltfreundliche Mobilität aktiv fördern, kann das System so konfiguriert werden, dass Fußgänger und Radfahrer konsequent bevorzugt werden. Die technische Basis ist dabei hochgradig kompatibel und lässt sich auf bestehende Ampelsteuergeräte übertragen, was eine Skalierung auf verschiedene Kreuzungstypen ermöglicht.

Während Potsdam den Fußweg scannt, fokussiert sich Berlin auf den fließenden Radverkehr. Mit dem Projekt „VeloFlow“ testet die Hauptstadt eine Lösung, die Radfahrern hilft, die grüne Welle perfekt zu reiten. Digitale Anzeigen informieren die Radler weit vor der Kreuzung darüber, ob sie bei ihrem aktuellen Tempo von etwa 20 Kilometern pro Stunde auf eine grüne oder rote Ampel treffen werden. Ein einfaches Symbol zeigt an, ob eine leichte Beschleunigung sinnvoll ist oder ob man das Rad besser ausrollen lässt. Ziel ist es, abruptes Bremsen und gefährliche Rotlichtverstöße zu minimieren.

Die Kombination aus den Erkenntnissen des DLR und Projekten wie VeloFlow zeichnet das Bild einer vernetzten Stadt, in der die Hardware der Ampel nicht mehr nur ein starrer Taktgeber ist, sondern ein intelligenter Vermittler zwischen den Bedürfnissen aller. Die Zukunft der Verkehrssteuerung scheint damit weg vom reinen „Car-First“-Prinzip hin zu einer multimodalen Gerechtigkeit zu führen, bei der die KI sicherstellt, dass niemand mehr unnötig im Regen stehen gelassen wird – egal ob mit vier Rädern, zwei Rädern oder zu Fuß.

Stefan Krempl

Sonntag, 3. Mai 2026

KI-Infrastruktur: Warum Deutschlands Netzanschluss jetzt smart werden muss

Hocheffiziente Rechenzentren sind das Rückgrat der digitalen Souveränität. Der VDE zeigt Wege auf, wie Deutschland trotz Netzengpässen bei KI mithalten kann.

Die digitale Landkarte Deutschlands füllt sich zusehends. 2025 verzeichnete die Bundesrepublik bereits über 1600 unternehmenseigene Rechenzentren sowie mehr als 300 Standorte von Drittanbietern, sogenannte Colocation-ZentrenGiganten wie Digital Reality in Fechenheim mit einer IT-Leistung von 140 MW befinden sich in der FertigstellungDoch während der Hunger nach Rechenleistung für generative Künstliche Intelligenz massiv steigt, stößt die Infrastruktur an ihre GrenzenEine Analyse der Informationstechnischen Gesellschaft im VDE (VDE ITG) warnt nun davor, im globalen Wettbewerb ins Hintertreffen zu geraten. Nötig seien mutige, technologieoffene Lösungen für den Netzanschluss der Zukunft.

Damian Dudek, Geschäftsführer der VDE ITG und Co-Autor des Papiers, unterstreicht die Dringlichkeit: Deutschland brauche jetzt clevere Konzepte, um die technologische Unabhängigkeit bei Computing-Ressourcen und Datenspeichern zu sichernEin Blick über den Atlantik verdeutlicht die Dimensionen: In den USA entstehen Hyperscale-Projekte mit gigantischem Energiebedarf, die oft durch den Bau neuer Gaskraftwerke direkt am Standort realisiert werdenIn Deutschland hingegen, mit seiner hohen Besiedlungsdichte und einem komplexen, auf Erneuerbare ausgerichteten Stromnetz, ist eine simple Kopie dieses „Bulk-Power-Systems“ weder möglich noch erstrebenswert.

Stattdessen setzen die Verfasser des VDE-Papiers auf Effizienz als strategischen Vorteil. Aktuell entfallen rund 60 Prozent der Primärenergie in Rechenzentren auf das eigentliche Computing, während ein erheblicher Teil für die Kühlung aufgewendet werden mussHier liegt ein gewaltiger Hebel: Moderne High-Performance Computing Rechenzentren weisen einen bis zu viermal höheren Energiebedarf als klassische Cloud-Standorte auf, steigern die Recheneffizienz durch spezialisierte Hardware aber um ein Vielfaches mehrWerden zudem KI-gestützte Betriebsstrategien zur Optimierung von Kühlkreisläufen genutzt, lassen sich Wirkungsgrade erzielen, die weit über konventionelle Planungen hinausgehen. Ziel ist das „Five-Nines-Konzept“: Eine Verfügbarkeit von 99,999 Prozent, die durch redundante elektrotechnische Infrastrukturen und vorausschauende Instandhaltung garantiert wird.

Die größte Hürde bleibt der physikalische Anschluss an das Netz. In Ballungsräumen wie Frankfurt am Main sind die Kapazitäten so erschöpft, dass große Neuanschlüsse laut dem Versorger Mainova teils erst ab Mitte der 2030er Jahre realisierbar sindNetzbetreiber mussten bereits zugesicherte Leistungen zurücknehmen und Projekte in Warteschleifen schickenDie Experten schlagen daher eine geografische Diversifizierung vor: Mittelgroße Städte rücken in den Fokus, da dort die seit 2026 gesetzlich geforderte Abwärmenutzung – etwa über kommunale Nahwärmenetze – deutlich leichter umzusetzen ist als in überlasteten Metropolen.

Zudem plädiert der VDE für eine intelligente Systemintegration. Rechenzentren sollten nicht nur als reine Verbraucher, sondern als aktive Netzteilnehmer agierenDurch zeitliche Lastverschiebung ließen sich rechenintensive Prozesse wie das Training großer Sprachmodelle gezielt in Zeiten hoher Verfügbarkeit von Wind- oder Sonnenstrom legenInstallierte Batteriekapazitäten und Generatoren könnten zudem netzdienlich eingesetzt werden, um Spitzen im Stromnetz zu kompensierenDieser präzise, planbare Ansatz der dynamischen Laststeuerung unterscheidet den deutschen Weg von der US-Strategie der ÜberdimensionierungLetztlich ist dies auch ein Appell an die Politik: Nur wenn die Regulierung mit der technologischen Dynamik Schritt hält, kann die Vision einer „KI made in Germany“ Wirklichkeit werden.

Stefan Krempl

Donnerstag, 30. April 2026

Digital Markets Act: Brüssel zieht positive Bilanz – Lob und Tadel von Verbraucherschützern

Die EU-Kommission feiert den DMA als Erfolg für die Nutzerwahl. Verbraucherschützer mahnen aber eine striktere Durchsetzung gegen Umgehungsversuche an.

Zwei Jahre nach dem Inkrafttreten des Digital Markets Act (DMA) zieht die EU-Kommission eine erste offizielle Bilanz und stellt dem neuen Regelwerk für Tech-Giganten ein positives Zeugnis aus. In einem am Dienstag veröffentlichten ersten Überprüfungsbericht kommt die Brüsseler Regierungsinstitution zu dem Schluss, dass die Verordnung "fit für die Zukunft" sei und bereits spürbare Verbesserungen für den digitalen Binnenmarkt sowie mehr Kontrolle für die Nutzer gebracht habe.

Unterstützung erhält diese Einschätzung vom europäischen Verbraucherschutzverband Beuc, der den DMA als wegweisendes Gesetz für faire Märkte bezeichnet. Beuc-Generaldirektor Agustín Reyna hebt hervor, dass Verbraucher bereits heute konkret profitieren, etwa durch die freie Wahl des Standard-Browsers auf iOS oder die Möglichkeit, Nachrichten aus alternativen Diensten an WhatsApp-Nutzer zu senden. Dennoch warnt der Verband, dass Big-Tech-Unternehmen die Regeln zu oft umgehen, was verhindere, dass die Verbraucher die vollen Vorteile der neuen Freiheiten ausschöpfen können.

Die zentrale Botschaft der Kommission deckt sich mit diesen Beobachtungen: Der DMA wirkt. Nutzer können nun einfacher ihre Daten beim Wechsel von Diensten mitnehmen und explizit widersprechen, wenn Plattform-Betreiber persönliche Profile über verschiedene Dienste hinweg ohne Zustimmung verknüpfen wollen. Besonders für kleine und mittlere Unternehmen (KMU) sieht die Kommission neue Chancen. Durch Interoperabilitätsverpflichtungen können Hersteller von Smartwatches besser mit den Betriebssystemen der Gatekeeper kommunizieren, während alternative App-Stores den bisherigen Monopolen Konkurrenz machen.

Teresa Ribera, Exekutiv-Vizepräsidentin der Kommission, unterstreicht, der DMA sei so konzipiert worden, dass er sich an neue Herausforderungen anpassen könne. Dies betrifft insbesondere Cloud-Computing und Künstliche Intelligenz. Die Kommission hat bereits Marktuntersuchungen eingeleitet, um zu prüfen, ob Cloud-Dienste von Microsoft und Amazon als Gatekeeper einzustufen sind. Auch bei der KI schaut sie genau hin: In Verfahren gegen Alphabet wird untersucht, wie Suchdaten geteilt werden und ob KI-Dienste fairen Zugang zu Betriebssystemen erhalten.

Kritik übt Beuc an der Entscheidung der Kommission, die Interoperabilitätsregeln nicht auf soziale Netzwerke auszuweiten. Es sei bedauerlich, dass Nutzer verschiedener Plattformen ihre Aktivitäten weiterhin nicht gegenseitig einsehen können. Die Kommission begründet dies in ihrem Bericht damit, dass eine Studie derzeit noch keine eindeutige Nachfrage für eine solche horizontale Vernetzung zeige und die technische Komplexität hoch sei.

Während die offizielle Seite und Verbraucherschützer vor allem eine stärkere Durchsetzung ("beef up enforcement") fordern, gibt es auch kritische Stimmen von anderer Seite. Experten des International Center for Law & Economics (ICLE) bemängeln, dass die Kommission ihr eigenes Werk bewertet, ohne negative Folgen ausreichend zu berücksichtigen. Sie verweisen auf sinkende Klickzahlen für europäische Hotels in der Google-Suche und verzögerte Produkteinführungen von KI-Diensten in Europa aufgrund der regulatorischen Hürden.

Fest steht: Die Kommission sieht derzeit keinen Bedarf, den DMA an sich zu ändern. Ihr Fokus liegt nun darauf, eine "Kultur der Compliance" zu schaffen und die Regeln konsequent anzuwenden, damit Europas digitale Märkte langfristig fairer und wettbewerbsfähiger werden.

Stefan Krempl

Mittwoch, 29. April 2026

Elektro schlägt Verbrenner: Warum der neue Tankrabatt am Preisvorteil scheitert

Trotz der geplanten Steuersenkung auf Diesel und Benzin bleiben E-Autos im Unterhalt deutlich günstiger – besonders für Besitzer von Solaranlagen.

Die Diskussion über die Kosten der Mobilität erreicht in diesen Tagen einen neuen Höhepunkt. Die Bundesregierung versucht mit einer Senkung der Energiesteuer auf Kraftstoffe, die Belastung für Autofahrer ab dem 1. Mai zu lindern. Doch aktuelle Berechnungen des Hamburger Energiedienstleisters 1Komma5° zeigen, dass dieser politische Eingriff das grundlegende Preisgefüge zwischen fossilen und elektrischen Antrieben kaum verschiebt. Selbst wenn die Preise an den Tankstellen für zwei Monate um 17 Cent pro Liter fallen, bleibt das Laden eines Elektroautos in fast jedem Nutzungsszenario die wirtschaftlich attraktivere Wahl.

Der Blick auf die Zahlen verdeutlicht die Diskrepanz zwischen den Antriebsarten. Ein herkömmlicher Benziner schlägt derzeit mit durchschnittlich 15,56 Euro pro 100 Kilometer zu Buche. Werden die versprochenen Entlastungen der Bundesregierung wirksam, sinkt dieser Wert lediglich auf 14,25 Euro.

Im direkten Vergleich dazu wirkt der Betrieb eines Elektroautos fast wie ein Schnäppchen: Wer sein Fahrzeug zu Hause an der heimischen Wallbox mit dem deutschen Durchschnittsstrompreis von 37 Cent pro Kilowattstunde lädt, zahlt für dieselbe Strecke lediglich 7,34 Euro. Damit bewegen sich die Fahrtkosten für Stromer bei knapp der Hälfte dessen, was für einen Verbrenner fällig wird – Tankrabatt hin oder her. Auch Diesel-Fahrer profitieren von der Steuersenkung nicht in einem Maße, das den Abstand zur Elektromobilität gefährlich schrumpfen ließe; ihre Kosten liegen mit eingerechnetem Rabatt immer noch bei rund 13,93 Euro.

Oft wird in der Debatte angeführt, dass Mieter ohne eigene Lademöglichkeit oder Langstreckenfahrer durch hohe Preise an öffentlichen Ladesäulen benachteiligt seien. Doch selbst dieses Szenario hält einer genaueren Überprüfung nicht stand. Geht man von einem Preis von 60 Cent pro Kilowattstunde an einer öffentlichen Station aus, ergeben sich Kosten von etwa 11,90 Euro pro 100 Kilometer. Das sind immer noch 16 Prozent weniger als die Kosten für Benzin unter Berücksichtigung des kommenden Steuervorteils. Das E-Auto behält also auch ohne den „Heimvorteil“ der eigenen Steckdose die Nase vorn.

Jannik Schall, Mitgründer von 1Komma5°, betont in diesem Zusammenhang, dass sich der Kostenvorteil durch die Krise der fossilen Energien deutlich vergrößert hat und eine kurzfristige politische Maßnahme wie der Tankrabatt an dieser strukturellen Überlegenheit nichts ändert.

Die wahre Revolution der Mobilitätskosten findet jedoch hinter der Haustür statt. Das maximale Sparpotenzial erschließt sich jenen, die Mobilität und Eigenheim energetisch verknüpfen. Durch die Kombination einer Photovoltaikanlage mit einem Batteriespeicher und einer intelligenten Steuerung lassen sich die Kosten pro 100 Kilometer auf einen Bruchteil reduzieren. Werden dynamische Stromtarife genutzt, lädt das System das Fahrzeug bevorzugt dann, wenn das Angebot am Markt hoch und der Preis niedrig ist – etwa in den windstarken Nachtstunden oder bei strahlendem Sonnenschein. Ein durchschnittlicher Preis von 12 Cent pro Kilowattstunde ist in einem solchen vernetzten Ökosystem absolut realistisch.

In der Praxis bedeutet das, dass die Kosten für 100 Kilometer Fahrt auf nur noch 2,38 Euro sinken können. Im Vergleich zum Benziner entspricht dies einer Ersparnis von rund 85 Prozent. Der entscheidende Hebel ist die Nutzung des selbst erzeugten Solarstroms, da in diesem Fall keine Steuern, Abgaben oder Umlagen anfallen. Intelligente Softwaresysteme übernehmen dabei heute die komplexe Aufgabe, zwischen dem Eigenstrom vom Dach und dem günstigen Börsenstrom abzuwägen, ohne dass der Nutzer selbst Zeitfenster oder Preisentwicklungen überwachen muss.

Stefan Krempl

Dienstag, 28. April 2026

KI made in Germany: Experten fordern 300-Milliarden-Fonds

Die Kommission „Wettbewerb und KI“ hat ihren Abschlussbericht vorgelegt: Weniger Bürokratie, massive Investitionen und ein Fast-Track-Verfahren für Talente sollen die Souveränität sichern.


Deutschland steht am Scheideweg der digitalen Transformation. Während globale Tech-Giganten den Markt für generative Sprachmodelle und Cloud-Infrastrukturen dominieren, sucht Europa händeringend nach einer eigenen Rolle in der nächsten industriellen Revolution. Die vom Bundesministerium für Wirtschaft und Energie eingesetzte Expertenkommission „Wettbewerb und Künstliche Intelligenz“ hat nun ihren Masterplan vorgelegt. In ihrem am Dienstag vorgestellten Abschlussbericht zeichnen die Fachleute aus Wissenschaft und Wirtschaft ein klares Bild: Deutschland hat das Potenzial zum Taktgeber, doch dafür muss die Politik den Modus Operandi radikal ändern. Weg von der Überregulierung, hin zu einer entschlossenen Investitions- und Infrastrukturpolitik.

Ein Staatsfonds für die digitale Zukunft

Das wohl spektakulärste Element der 20 Handlungsempfehlungen ist der Ruf nach einem finanziellen Befreiungsschlag. Die Kommission schlägt vor, den bestehenden Deutschlandfonds zu einem langfristigen Staatsfonds namens „Deutsches Zukunftskapital“ weiterzuentwickeln. Mit einem Zielvolumen von rund 300 Milliarden Euro für den Zeitraum von 2026 bis 2035 soll dieser Fördertopf nach dem Vorbild norwegischer oder singapurischer Staatsfonds agieren. Er wird der Skizze nach nicht nur staatliche Mittel bündeln, sondern auch privates Kapital von Versicherungen und Pensionsfonds mobilisieren, um in strategische Zukunftsfelder zu investieren. So will das Gremium das chronische Problem des fehlenden Wagniskapitals in der Skalierungsphase lösen. Parallel dazu verlangt es, die Verteidigungsausgaben innovationsorientierter zu nutzen: Mindestens zehn Prozent des Rüstungsbudgets sollen direkt in KI und disruptive Technologien fließen.

Abschied vom Regulierungsweltmeister

Ein roter Faden des Berichts ist die Warnung vor einer bürokratischen Selbstfesselung. Die Vorsitzenden der Kommission, Professor Rupprecht Podszun und Rolf Schumann, heben hervor, dass Europa zwar Weltmeister im Regulieren sei. Die Marktplätze würden aber von anderen besetzt. Sie rufen daher nach einer „regulatorischen Atempause“. Bestehende Gesetze wie die DSGVO und der AI Act müssten vereinfacht und auf ihre Praxistauglichkeit geprüft werden, bevor neue Regeln das Innovationsklima weiter abkühlen. Besonders im B2B-Bereich dürfe es keine zusätzliche Regulierung ohne klare Evidenz für Marktversagen geben. Gleichzeitig müsse der Staat aber dort hart durchgreifen, wo Monopole den Wettbewerb ersticken. Die konsequente Durchsetzung des Digital Markets Act (DMA) gegen die großen Gatekeeper bleibe so essenziell, um faire Bedingungen für den Mittelstand und Startups zu sichern.

Souveränität durch Infrastruktur und Daten

Um technologisch unabhängig zu werden, sieht die Kommission den Aufbau einer eigenen, wettbewerbsfähigen KI-Infrastruktur als zwingend an. Hier geht es nicht nur um physische Rechenzentren, sondern vor allem um eine leistungsfähigen Software- und Service-Schicht, die auch kleineren Unternehmen den Zugang zu Rechenleistung ermöglicht. Der Staat soll als „Ankerkunde“ fungieren und durch garantierte Abnahmen europäischer Lösungen den Markthochlauf absichern.

Ein entscheidender Hebel ist auch der Zugang zu Daten. Die Sachverständigen plädieren für den Aufbau hochwertiger offener Datenräume, in denen das spezifische industrielle Domänenwissen der deutschen Wirtschaft gebündelt wird. Besonders im Gesundheitswesen und in den Life Sciences sieht die Kommission enorme Chancen für „KI made in Germany“. Damit dies gelingt, müsse der Datenschutz zentralisiert und vereinfacht werden – weg von der föderalen Zersplitterung hin zu einer einheitlichen Aufsicht. Neu ist dieser Appell freilich nicht.

Der Faktor Mensch: Tempo beim Transfer

Technologie allein reicht nicht aus; es mangelt an Köpfen. Mit einem „Fast Track for Talent“ will die Kommission bürokratische Hürden bei der Fachkräfteeinwanderung abräumen. Eine 48-Stunden-Garantie für Visa für Tech-Experten und Englisch als ergänzende Verwaltungssprache sollen Deutschland attraktiver machen. Auch im Bildungssystem fordern die Autoren einen Wandel: KI-Kompetenzen sollen bundesweit verbindlich in die Lehrpläne aller Schulformen integriert werden. Damit Innovationen aus der Forschung schneller in der Wirtschaft ankommen, sieht die Blaupause zudem eine Beschleunigung von Hochschulausgründungen vor. Standardisierte Prozesse und feste Zeitvorgaben von maximal sechs Monaten für den gesamten Ausgründungsprozess sollen sicherstellen, dass exzellente Wissenschaft nicht in der Verwaltung versandet. Für die Bundesregierung ist der Bericht ein klarer Auftrag: Deutschland muss vom Beobachter zum Gestalter werden, bevor die nächste technologische Welle ohne Europa bricht.

Stefan Krempl