Freitag, 17. April 2026

800-Millionen-Euro-Rätsel: Deutschlands vager Plan für die KI-Gigafabrik

Berlin will das europäische Super-Rechenzentrum erzwingen. Doch während Milliarden auf dem Spiel stehen, verweigert die Regierung konkrete Antworten zu Kosten und Nutzen.

Die Vision ist gewaltig: Bis zu fünf sogenannte KI-Gigafabriken will die EU-Kommission über den Kontinent verteilenEs handelt sich dabei um Rechenzentren einer völlig neuen Dimension, bestückt mit mehr als 100.000 spezialisierten Hochleistungsprozessoren (GPUs). Sie sollen in der Lage sein, die nächste Generation großskaliger KI-Modelle zu trainieren. Die Bundesregierung hat sich im Koalitionsvertrag das Ziel gesetzt, mindestens eine dieser Gigafabriken nach Deutschland zu holenDoch eine aktuelle Antwort der Bundesregierung auf eine Anfrage der Linksfraktion lässt viele Fragen offen. Die Exekutive vermarktet das Projekt demnach weiter als zentralen Baustein der technologischen Souveränität. Opposition und Experten werfen dagegen kritische Fragen nach der wirtschaftlichen Vernunft und der konkreten Umsetzung auf.

Die Federführung für das Mammutprojekt liegt beim Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) unter Einbindung des Bundesministeriums für Digitales und Staatsmodernisierung (BMDS)Doch die Umsetzung gerät ins Stocken: Nachdem der Start des Bewerbungsverfahrens ursprünglich für Ende 2025 geplant war und zuletzt der Februar 2026 anvisiert wurde, verzögert sich die Ausschreibung weiter auf frühestens Mai oder Juni 2026. Forschungsministerin Dorothee Bär (CSU) sieht die Ursache dafür in Brüssel. Zwar sei der deutsche Finanzierungsanteil gesichert, erklärte sie gegenüber Politico, doch herrsche Unklarheit darüber, ob das Projekt auf europäischer Ebene bereits durchfinanziert sei.

Brisant ist die finanzielle Dimension. Die Kommission schätzt die Investitionskosten pro Fabrik auf vier bis fünf Milliarden EuroIm deutschen Sondervermögen Infrastruktur und Klimaneutralität sind 805 Millionen Euro als Vorsorge für einen staatlichen Finanzierungsbeitrag reserviert. Das aktuelle Problem liegt jedoch im EU-Haushalt, der nur bis 2027 läuft. Brüssel arbeitet daher offenbar an einem zweistufigen Finanzierungsmodell: In einer ersten Phase sollen jeweils 200 Millionen Euro von der EU und dem Mitgliedstaat fließen, gefolgt von jeweils 600 Millionen Euro ab dem Jahr 2028. Ob diese Mittel im nächsten EU-Haushalt tatsächlich gesichert werden können, gilt derzeit aber als unsicher.

Bislang sieht das Modell vor, dass die EU bis zu 17 Prozent der Kosten übernimmt oder Rechenleistung im entsprechenden Wert abkauft, sofern der Sitzstaat einen mindestens ebenso hohen Beitrag leistetDie Linksfraktion kritisiert in ihrer Auswertung scharf, dass die Regierung dennoch keine eigenen Schätzungen zu den Betriebskosten oder zum Umgang mit künftigen Kostensteigerungen vorlegtEs drohe ein Szenario, in dem der Staat bei finanziellen Schieflagen am Ende das Risiko allein tragen müsse.

Auch in Sachen Nachhaltigkeit bleibt die Strategie vage. Die Bundesregierung sieht im Umweltzeichen „Blauer Engel“ lediglich eine Orientierungshilfe, will aber keine verbindliche Zertifizierung vorschreibenÄhnlich verhält es sich bei der technischen Souveränität: Während oft gefordert wird, europäische Technologie zu integrieren, überlässt die Regierung die Hardware-Auswahl faktisch den privaten Betreibern und verweist auf die noch zu verhandelnden EU-Auswahlkriterien.

Die Kritik der Linken ist fundamental. Die Abgeordnete Sonja Lemke spricht von „Planlosigkeit“ und wirft der Exekutive vor, sich in eine Sackgasse manövriert zu habenSie wolle eine Fabrik, ohne genau zu wissen, welche Bedarfe sie decken soll oder wie das Geschäftsmodell aussiehtEine Abfrage bei den Bundesländern nach deren Bedarf an Rechenleistung blieb dem Vernehmen nach hinter den Erwartungen zurück. Vorerst bleibt das Projekt eine gigantische Wette auf die Zukunft, bei der die Bundesregierung zwar den Einsatz erhöht, die entscheidenden Karten in Brüssel aber noch nicht auf dem Tisch liegen.

Stefan Krempl

Justiz-Reallabor: Der Zivilprozess der Zukunft startet im Browser

Acht deutsche Amtsgerichte erproben das volldigitale Online-Verfahren für Klagen bis 10.000 Euro – mit weniger Bürokratie und geringeren Gebühren.

Der Weg zum eigenen Recht führte in Deutschland bisher fast unweigerlich über dicke Aktenordner, Postversand und physische Präsenz im Gerichtssaal. Doch am Mittwoch hat die deutsche Justiz ein neues Kapitel aufgeschlagen: An acht ausgewählten Amtsgerichten beginnt die praktische Erprobung des zivilgerichtlichen Online-Verfahrens. Mit der Freischaltung eines neuen digitalen Eingabesystems durch das Bundesministerium der Justiz und für Verbraucherschutz (BMJV) können Bürger ihre Klagen nun direkt im Browser vorbereiten und einreichen. Es ist der Startschuss für ein „Reallabor“, das die Digitalisierung der Justiz von einer bloßen Übermittlung von PDF-Dokumenten hin zu einem echten digitalen Workflow transformieren soll.

Das https://www.bmjv.de/DE/themen/digitales/digitalisierung_justiz/digitalisierungsinitiative/_articles/zivilgerichtliches_onlineverfahren_artikel.html neue Verfahren ist mehr als ein elektronisches Postfach. Es handelt sich um eine rechtlich eigenständige Verfahrensart mit spezifischen Regeln, die auf einer Erprobungsgesetzgebung von 2025 fußt. Ziel ist es, den Zivilprozess zu entschlacken. Im Fokus stehen zunächst Zahlungsklagen mit einem Streitwert von bis zu 10.000 Euro. Wer beispielsweise ausstehenden Forderungen nachläuft oder sich mit Fluggesellschaften um Entschädigungen streitet, soll über das Portal service.justiz.de Schritt für Schritt durch die Klageerstellung geführt werden. Das System ist dabei so konzipiert, dass es den Zugang für Laien vereinfacht, ohne dabei die professionelle Vertretung durch Anwaltskanzleien auszuschließen.

Bundesjustizministerin Stefanie Hubig betont zum Start die Bedeutung der Bürgernähe. Ein starker Rechtsstaat müsse heute auch digital erreichbar sein. Die Hoffnung hinter dem Projekt ist groß: Wenn Verfahren strukturierter und digitaler ablaufen, spart das nicht nur Zeit aufseiten der Gerichte, sondern senkt auch die Kosten für die Beteiligten. Tatsächlich sieht das Online-Verfahren geringere Gebühren vor als der klassische Zivilprozess. Zudem ermöglicht es den Richtern, den Ablauf deutlich flexibler zu gestalten. Mündliche Verhandlungen vor Ort sind nicht mehr zwingend vorgeschrieben; stattdessen können Termine als Videokonferenz durchgeführt oder Entscheidungen im schriftlichen Online-Verfahren getroffen werden.

Die technische Umsetzung im Hintergrund zielt auf eine effiziente Weiterbearbeitung. Während Bürger ihre Daten über eine intuitive Maske eingeben, werden die Informationen künftig auch als strukturierte Datensätze im XJustiz-Format übertragen. Dies erlaubt den Gerichten eine maschinelle Auslesung und vermeidet Medienbrüche, die in der Vergangenheit oft die Digitalisierungsbemühungen bremsten. In der aktuellen ersten Phase nehmen unter anderem die Amtsgerichte Bremen, Hamburg-Mitte, Frankfurt am Main und Leipzig teil. In den kommenden Monaten wird der Kreis auf insgesamt 18 Gerichte in zehn Bundesländern erweitert, wobei Standorte wie Düsseldorf oder Erding sich speziell auf Fluggastrechte konzentrieren.

Das Experiment ist auf Langfristigkeit angelegt. Das Gesetz erlaubt es, innovative Technologien und Kommunikationsformen unter Realbedingungen zeitlich befristet zu testen. Nach zwei, vier und acht Jahren sind umfassende Evaluierungen geplant. Diese Datenbasis wird am Ende darüber entscheiden, ob das Online-Verfahren vom Testbetrieb in den flächendeckenden Regelbetrieb an allen deutschen Gerichten übergeht. Für die deutsche Justizlandschaft ist dieses Projekt ein wichtiger Hebel, um den Anschluss an die digitale Lebensrealität der Bürger nicht zu verlieren und gleichzeitig die Kooperation zwischen Bund und Ländern bei der Softwareentwicklung zu intensivieren. Wer heute eine Klage einreicht, wird damit Teil eines der ambitioniertesten Modernisierungsprojekte der föderalen Justizagenda.

Mittwoch, 15. April 2026

KI-Offensive und Drohnen-Deal: Berlin und Kiew schmieden Kampf-Allianz

Mit einer neuen strategischen Partnerschaft rücken Deutschland und die Ukraine militärtechnisch eng zusammen und setzen auf digitale Gefechtsdaten für neue Waffen.

Im Rahmen der jüngsten Regierungskonsultationen in Berlin am Dienstag haben Bundeskanzler Friedrich Merz (CDU) und der ukrainische Präsident Wolodymyr Selenskyj die Weichen für eine neue Ära der militärischen Zusammenarbeit gestelltDeutschland festigt damit seine Position als wichtiger bilateraler Partner der Ukraine und hebt die Beziehungen auf die Ebene einer strategischen Kooperation, die weit über kurzfristige Nothilfe hinausgehtIm Zentrum stehen nicht nur klassische Rüstungsgüter, sondern vor allem die Digitalisierung des Schlachtfeldes und die gemeinsame Entwicklung hochmoderner autonomer Waffensysteme.

Ein Kernstück der Vereinbarungen ist der Ausbau der Drohnenproduktion. Deutschland und die Ukraine haben eine Durchführungsvereinbarung zur gemeinsamen Fertigung von Langstreckenkampfdrohnen des Typs Anubis sowie Mittelstreckenkampfdrohnen vom Typ Seth-X unterzeichnetDie Zusammenarbeit zielt darauf ab, die technologische Überlegenheit gegenüber der russischen Aggression zu sichern und die europäische Verteidigungsindustrie unabhängiger zu machen. Bemerkenswert ist die geplante Einbeziehung von Drittstaaten: Eine weitere Vereinbarung regelt die Bereitstellung dieser Drohnentechnologie an Partner im Ausland, was die strategische Reichweite der deutsch-ukrainischen Rüstungsschmiede unterstreicht.

Neben der Hardware spielt die Software eine entscheidende Rolle für die künftige Verteidigungsstrategie. Die Verteidigungsminister beider Länder unterzeichneten ein Abkommen über den Austausch digitaler Gefechtsdaten. In der Ukraine gewonnene Erkenntnisse aus dem direkten Einsatz deutscher Waffensysteme wie der Panzerhaubitze 2000 oder dem Flugabwehrsystem IRIS-T fließen künftig unmittelbar in die deutsche Rüstungsplanung ein. Kiew teilt dabei auch Expertise aus eigenen digitalen Systemen, darunter das KI-gestützte Erkennungssystem Avenger und das Gefechtsführungssystem Delta. Dieser Datentransfer soll die Basis sein für die Entwicklung völlig neuer Waffensysteme, die auf den extrem harten Bedingungen eines modernen Abnutzungskrieges basieren.

Merz betonte in diesem Zusammenhang die beispiellose Innovationskraft der ukrainischen Verteidigungsindustrie, die in den vergangenen Jahren eine technische Leistungsfähigkeit erreicht habe, die in Europa bisher unerreicht war. Die Kooperation sei daher kein einseitiger Akt der Unterstützung, sondern ein wesentlicher Beitrag zur deutschen und europäischen Sicherheit. Durch die Bündelung der deutschen industriellen Basis mit der ukrainischen Kampferfahrung sollen ferner Fortschritte bei der Abwehr ballistischer Flugkörper beschleunigt werden.

Die Partnerschaft erstreckt sich auch auf das Feld der Künstlichen Intelligenz im öffentlichen Sektor. Beide Regierungen vereinbarten eine Zusammenarbeit zur Förderung "souveräner KI"Geplant ist die Entwicklung europäischer KI-Modelle und Produkte, die unter anderem im Bereich der Daseinsvorsorge und im öffentlichen Dienst eingesetzt werden sollenEin Fokus liegt dabei auf sprachspezifischer KI jenseits des Englischen sowie dem Aufbau einer robusten Dateninfrastruktur.

Begleitet werden diese technologischen Projekte von umfangreichen Finanzzusagen. Deutschland stellt neue Mittel im Umfang von bis zu 233 Millionen Euro für die Entwicklungszusammenarbeit bereit, wobei ein Schwerpunkt auf der industriellen Kooperation und der Energieresilienz liegtZudem sind Investitionen von mehr als 110 Millionen Euro bis 2029 für den Wiederaufbau und die Reform des ukrainischen Wissenschafts- und Hochschulwesens vorgesehen, um die Ukraine enger in den Europäischen Forschungsraum einzubindenMit der Eröffnung einer Niederlassung der Ukrainischen Verteidigungsindustrie (UDI) in Berlin wird die Zusammenarbeit auch physisch in der deutschen Hauptstadt verankert. 

Stefan Krempl

Cloud-Gatekeeper gesucht: Warum die EU-Regulierung bei Hyperscalern noch scheitert

Eine Studie der Konrad-Adenauer-Stiftung analysiert, warum der Digital Markets Act im Cloud-Sektor bislang nicht greift. Dazu kommt der Ruf nach „Cloud-Neutralität“ für Europas digitale Souveränität.

Cloud-Computing ist das unsichtbare Rückgrat der europäischen WirtschaftOb Datenspeicherung oder die Entwicklung Künstlicher Intelligenz – nahezu jeder Sektor ist auf diese Infrastruktur angewiesenDoch während die EU mit dem Digital Markets Act (DMA) eigentlich faire Spielregeln für digitale Giganten schaffen wollte, klafft im Cloud-Markt eine empfindliche LückeObwohl Cloud-Dienste in der Verordnung ausdrücklich als zentrale Plattformdienste gelistet sind, hat die EU-Kommission bislang keinen einzigen der großen US-Hyperscaler wie Amazon Web Services (AWS), Google Cloud oder Microsoft Azure als „Gatekeeper“ eingestuftEine jetzt veröffentlichte Studie von Antonio Manganelli im Auftrag der Konrad-Adenauer-Stiftung zeigt auf, warum die bisherige Regulierung an der Realität der Cloud-Märkte vorbeigeht und wie eine Reform aussehen müsste.

Das Kernproblem liegt laut der Untersuchung in einem grundlegenden Missverständnis der MarktarchitekturDer DMA wurde ursprünglich für zweiseitige Plattformen konzipiert, die als Vermittler zwischen Unternehmen und Endkunden fungieren. Klassische Beispiele sind App-Stores oder SuchmaschinenDie Cloud folgt jedoch einer vertikalen „Pipeline-Logik“Hier ist die Infrastruktur kein Marktplatz im herkömmlichen Sinne, sondern ein Vorprodukt, auf dem andere Unternehmen ihre eigenen Dienste aufbauenDa viele dieser Geschäftskunden ihre Dienste wiederum an Dritte weitergeben, ohne dass der Endnutzer jemals direkt mit dem Cloud-Betreiber in Kontakt tritt, laufen die quantitativen Schwellenwerte des DMA ins LeereDie geforderten 45 Millionen aktiven Endnutzer werden formal oft nicht erreicht, obwohl die tatsächliche Marktmacht der Hyperscaler groß ist.

Diese Marktdominanz manifestiert sich in Europa in einer besorgniserregenden Konzentration: Die drei größten Anbieter kontrollieren rund 70 Prozent des MarktesDer Forscher warnt, dass strukturelle Hürden wie mangelnde Interoperabilität, hohe Gebühren für den Datentransfer beim Anbieterwechsel und die Kopplung von Software-Lizenzen an die eigene Cloud den Wettbewerb erstickenEuropäische Anbieter – insbesondere kleine und mittlere Unternehmen – haben unter diesen Bedingungen kaum eine Chance, sich gegen die finanzstarke Konkurrenz aus Übersee zu behaupten.

Um diesen Stillstand zu überwinden, schlägt Manganelli neue Wege für die Einstufung als Gatekeeper vorEin Ansatzpunkt sind die Cloud-Marktplätze der HyperscalerDort treten sie eben doch als Vermittler auf, da sie Software von Drittanbietern an ihre Kunden vertreibenZudem führt die Studie das Konzept der „indirekten Ökosystem-Erfassung“ einNutzer, die beispielsweise Microsoft 365 verwenden, werden faktisch in das Azure-Ökosystem gezogen, auch wenn sie keinen direkten Vertrag über Infrastrukturdienste abgeschlossen habenWürden diese indirekten Nutzer mitgezählt, wäre die Einstufung als Türsteher rechtlich einfacher möglich.

Ist die Hürde der Einstufung erst einmal genommen, plädiert der Forscher für eine radikale Neuerung: die „Cloud-Neutralität“In Anlehnung an die Netzneutralität im Internet sollen Cloud-Betreiber verpflichtet werden, alle Anwendungen auf ihrer Infrastruktur gleich zu behandelnEigenen Diensten dürften keine technischen oder preislichen Vorteile gegenüber Wettbewerbern eingeräumt werdenDies würde verhindern, dass Hyperscaler ihre Kontrolle über die Basistechnologie nutzen, um Konkurrenten auf höheren Ebenen der Wertschöpfungskette – etwa bei KI-Anwendungen – systematisch zu benachteiligen.

Die EU-Kommission hat im November 2025 bereits Untersuchungen gegen AWS und Microsoft eingeleitet, um deren Status zu prüfenDie Ergebnisse der Untersuchung liefern hierfür eine wissenschaftliche Basis und mahnen zur EileOhne einen fairen und wettbewerbsfähigen Cloud-Sektor, so das Fazit der Konrad-Adenauer-Stiftung, bleibe die angestrebte digitale Souveränität Europas ein Lippenbekenntnis.

Stefan Krempl

Schnittstellen-Frust: Warum die Verwaltung an der Software-Wiederaufnahme scheitert

97 Prozent der vom Netzwerk NExT befragten Experten fordern technische Standards für Ämter. In der Praxis bremsen fehlende Interoperabilität und monolithische Fachverfahren die Nachnutzung bislang aus.

Die Digitalisierung der deutschen Verwaltung leidet unter einem Problem: Während der Bedarf an digitalen Lösungen riesig ist, wird bereits existierende Software viel zu selten ein zweites Mal eingesetzt. Das Prinzip der Nachnutzung, also das Übernehmen und Anpassen bewährter IT-Lösungen, gilt zwar als Königsweg aus dem Modernisierungsstau. Doch die Realität in den Rechenzentren der Länder und Kommunen sieht oft anders aus. Eine Studie des Netzwerks NExT zeigt nun auf, warum der Wissenstransfer zwischen den Behörden technisch und strukturell ins Stocken gerät. Obwohl die Relevanz des Themas mit über 90 Prozent Zustimmung fast unumstritten ist, blicken rund 40 Prozent der Befragten mit sehr gemischten Gefühlen auf ihre bisherige Praxis zurück.

Ein Grund für das Scheitern liegt in der Kluft zwischen Wunsch und technischer Wirklichkeit. Fast alle Befragten, nämlich 97 Prozent, identifizieren technische Interoperabilität und standardisierte Schnittstellen als die kritischsten Faktoren für den Erfolg. Demgegenüber steht die ernüchternde Einschätzung, dass nur acht Prozent diese Standards in ihrem Arbeitsalltag als ausreichend umgesetzt ansehen. Oft scheitert die Übernahme einer Software schlicht daran, dass die Lösungen nicht modular oder „Ende-zu-Ende“ gedacht sind. Stattdessen treffen IT-Verantwortliche auf monolithische Fachverfahren, die sich nur unter extremem manuellem Aufwand an andere Systeme anbinden lassen. Diese technische Starrheit führt dazu, dass es oft einfacher erscheint, eine Lösung komplett neu zu programmieren, anstatt den fremden Code mühsam in die eigene Infrastruktur zu integrieren.

Dazu kommt eine große Abhängigkeit von IT-Dienstleistern und den Rechenzentren der Länder. Über 70 Prozent der Teilnehmenden empfinden diese Strukturen eher als Hindernis denn als Unterstützung für eine schnelle Nachnutzung. Die Untersuchung macht deutlich, dass die technologische Souveränität der Verwaltung darunter leidet, wenn proprietäre Schnittstellen oder exklusive Verträge den Austausch von Softwarekomponenten über Gebietskörperschaften hinweg erschweren. Da eine verbindliche nationale Gesamtstrategie fehlt, bleibt die Nachnutzung oft ein Flickenteppich aus isolierten Einzelinitiativen, die zudem unter einer chronisch unsicheren Finanzierung für den langfristigen Betrieb leiden.

Auch die Informationsarchitektur erweist sich als Hürde. Wer nach bestehenden Lösungen sucht, muss sich durch eine fragmentierte Landschaft aus über 50 verschiedenen Plattformen und Marktplätzen kämpfen. Diese Zersplitterung führt dazu, dass selbst zentrale Angebote wie der Marktplatz für Leistungen nach dem Onlinezugangsgesetz (OZG) vielen erfahrenen IT-Kräften unbekannt bleiben. In der Folge wird der Austausch von Know-how oft zur Glückssache und hängt stark von persönlichen Netzwerken oder dem Engagement in einzelnen Fach-Communities ab.

NExT-Geschäftsführerin Ann Cathrin Riedel fordert angesichts dieser Befunde eine Abkehr von der bisherigen Projektlogik. Notwendig sei eine „Single Source of Truth“ – ein zentraler, technischer Einstiegspunkt, der nicht nur fertige Anwendungen listet, sondern auch deren Integrationsfähigkeit dokumentiert. Nur wenn technische Standards für Schnittstellen und Datenformate verbindlich festgeschrieben werden, kann die Vision einer modularen Verwaltungs-IT Wirklichkeit werden.

Stefan Krempl

Gläserne Patienten: Niedersachsens Vorstoß gegen die ärztliche Schweigepflicht

Ein niedersächsischer Gesetzentwurf sieht vor, dass sensible Krankheitsdaten von Psychiatrie-Patienten direkt an die Polizei fließen. Kritiker warnen vorm Überwachungsstaat.

In Hannover bahnt sich eine rechtspolitische Zäsur an, die das Vertrauensverhältnis zwischen Arzt und Patient in seinen Grundfesten erschüttern könnte. Die rot-grüne Landesregierung in Niedersachsen plant eine Neufassung des Gesetzes über Hilfen und Schutzmaßnahmen für psychisch Kranke (PsychKHG). Die Reform soll schon in Kürze im Landtag verabschiedet werden. Vordergründig verkauft die Exekutive die Initiative als Maßnahme zur öffentlichen Sicherheit. Kritikern zufolge steht dahinter aber ein tiefgreifender Eingriff in die Grundrechte einer besonders vulnerablen Personengruppe: Der Entwurf markiere faktisch das Ende der ärztlichen Schweigepflicht für Menschen mit psychiatrischen Diagnosen und stelle diese unter einen pauschalen Generalverdacht.

Kern des Anstoßes ist Paragraph 38 des Entwurfs. Er sieht ein dreistufiges Verfahren vor, nach dem Gesundheitseinrichtungen und sozialpsychiatrische Dienste verpflichtet werden können, sensible Informationen an Polizeibehörden zu übermitteln. Dabei geht es nicht nur um einfache Stammdaten. Die Übermittlung umfasst den kompletten Gesundheitszustand, konkrete Krankheitsbilder, den Behandlungsverlauf und sogar hochvertrauliche Behandlungsinhalte. Als Voraussetzung für diesen Datentransfer reichen bereits vage Anhaltspunkte aus, wonach eine Person zu einer erheblichen Gefahr für andere werden könnte. In der Praxis bedeutet dies, dass medizinisches Personal zu Hilfssheriffs umfunktioniert wird, die Prognosen über zukünftiges Verhalten abgeben sollen.

Der niedersächsische Vorstoß steht nicht isoliert da, sondern ist Teil einer bundesweiten sicherheitspolitischen Strategie. Er greift Forderungen auf, die bereits von der CDU-Spitze nach einem Register für „psychisch kranke Gefährder“ laut wurden. Zwar vermeiden Politiker nach massiver öffentlicher Kritik inzwischen den stigmatisierenden Begriff des Registers, doch die nun geplante Meldepflicht bewirkt im Kern genau das: Eine zentrale Erfassung von Menschen in psychischen Ausnahmesituationen durch Sicherheitsbehörden. Es findet eine gefährliche Vorverlagerung polizeilicher Befugnisse statt, bei der nicht mehr die Tat im Zentrum steht, sondern die bloße Vermutung einer potenziellen Bedrohung.

Die zu erwartenden gesellschaftlichen Folgen dieser Gesetzgebung sind alarmierend. Anstatt Menschen in Krisen Schutz und Heilung zu bieten, werden sie als unberechenbare Sicherheitsrisiken markiert. Dabei zeigen Statistiken, dass Menschen mit psychiatrischen Diagnosen deutlich häufiger Opfer von Gewalt werden, als dass sie selbst Taten begehen. Das Vorhaben befeuert uralte Vorurteile und nutzt die Stigmatisierung psychisch Kranker aus, um Überwachungsbefugnisse auszuweiten. Wer befürchten muss, dass seine intimsten Gedanken aus dem Therapiegespräch direkt in der Polizeiakte landen, wird professionelle Hilfe künftig eher meiden. Das untergräbt nicht nur den Heilerfolg, sondern könnte die öffentliche Sicherheit am Ende sogar gefährden, wenn notwendige Behandlungen aus Angst vor staatlicher Repression abgebrochen werden.

Besonders schwer wiegt die technische Komponente dieser Vernetzung. Die geplante Datenweitergabe erfolgt in einer Zeit, in der Polizeibehörden verstärkt auf automatisierte Datenanalysesysteme wie die Software von Palantir setzen. Wenn Gesundheitsdaten mit polizeilichen Datenbanken verschmolzen werden, entstehen gläserne Patientenprofile, die eine lückenlose Überwachung ermöglichen. 

Bürgerrechtsorganisationen und andere Gegner wie die Humanistische Union und die Neue Richter:innenvereinigung warnen in diesem Zusammenhang eindringlich vor den historischen Parallelen. Der Verweis auf die missbräuchliche Nutzung von Patientenakten während des Nationalsozialismus dient ihnen als mahnendes Beispiel dafür, was passiert, wenn medizinische Vertraulichkeit dem staatlichen Kontrollwahn geopfert wird.

Parallel treibt Niedersachsen über den Bundesrat eine bundesweite Initiative zur Aufweichung des Datenschutzes im Gesundheitswesen voran. Derweil klafft die Schere zwischen Kontrolle und Hilfe immer weiter auseinander. Ressourcen fließen massiv in Überwachungsinfrastrukturen, während im sozialen und gesundheitlichen Bereich schmerzhafte Kürzungen vorgenommen werden.

Stefan Krempl

Dienstag, 14. April 2026

Energiewende zum Selberbauen: Prototype Fund sucht Open-Source-Hardware

Mit bis zu 10.000 Euro Förderung soll das Projekt OpenEnergy des Prototype Fund Hardware die Stromerzeugung in Bürgerhand bringen und technische Hürden für Laien abbauen.

Die Vision der dezentralen Energiewende klingt in der Theorie simpel: Jedes Dach nutzt die Sonne, jeder Garten den Wind, und lokale Gemeinschaften versorgen sich selbst mit sauberem Strom. Doch wer diesen Traum in die Realität umsetzen will, landet oft unsanft auf dem Boden der Tatsachen. Wer heute eine Photovoltaikanlage oder einen Speicher installiert, kauft meist eine „Blackbox“. Diese proprietären Systeme sind oft hermetisch abgeriegelt, lassen sich kaum an individuelle Bedürfnisse anpassen und machen eine Reparatur in Eigenregie nahezu unmöglich. Dazu kommen oft intransparente Cloud-Anbindungen, die datenschutzrechtliche Fragen aufwerfen und die Unabhängigkeit der Nutzer konterkarieren.

Dabei gibt es längst eine engagierte Community, die beweist, dass es anders geht. Seit Jahren tüfteln Entwickler weltweit an offenen Alternativen, von selbstgebauten Kleinwindanlagen bis hin zu frei programmierbaren Ladereglern. Das Problem dabei ist die Zugänglichkeit. Viele dieser Open-Source-Hardware-Projekte verharren in einem prototypischen Stadium oder sind nur so dokumentiert, dass nur ausgewiesene Technik-Experten mit dem Lötkolben in der Hand etwas damit anfangen können. Um diese Lücke zwischen technischer Machbarkeit und breiter gesellschaftlicher Anwendung zu schließen, geht der Prototype Fund Hardware nun in die dritte Runde.

Im Rahmen des Projektes OpenEnergy soll eine umfassende, offene Bürgerenergieanlage entstehen, die weit über das bloße Bastelprojekt hinausgeht. Erklärtes Ziel ist es, ein modulares System zu schaffen, das alle Komponenten für die lokale Stromproduktion aus Solar- und Windkraft bereitstellt. Dafür werden nun mindestens drei Teams oder Einzelpersonen gesucht, die bereit sind, ihre Expertise in den Dienst der Allgemeinheit zu stellen. Gefragt sind Köpfe, die entweder bereits erprobte Hardware-Projekte entscheidend verbessern oder dafür sorgen, dass die Dokumentation so aufbereitet wird, dass auch technische Laien die Systeme sicher aufbauen und bedienen können.

Das Spektrum der gesuchten Komponenten ist breit gefächert und bildet das Herzstück jeder Energieanlage ab. Es geht um Wechselrichter, die den erzeugten Gleichstrom in nutzbaren Wechselstrom wandeln, um Batteriemanagementsysteme (BMS) für sichere Speicherlösungen, MPPT-Tracker zur Optimierung der Energieausbeute sowie die mechanischen Komponenten von Kleinwindanlagen und Solarpanels. Auch Steuerungs- und Überwachungssysteme, die für Transparenz beim Energiefluss sorgen, stehen im Fokus. Entscheidend ist dabei der Open-Source-Gedanke: Jede Einreichung muss zwingend als Open-Source-Hardware veröffentlicht werden. Das bedeutet, dass am Ende des sechsmonatigen Förderzeitraums eine frei lizenzierte Dokumentation stehen muss, die Quellcodes, Design-Files, Materiallisten und detaillierte Zusammenbauanleitungen umfasst.

Finanziell unterstützt wird diese Arbeit mit bis zu 10.000 Euro pro Projekt, finanziert durch die Deutsche Stiftung für Engagement und Ehrenamt. Es geht aber um mehr als eine Finanzspritze. Die ausgewählten Teams werden Teil eines Netzwerks, in dem Austausch und gegenseitiges Lernen im Vordergrund stehen. Während der Umsetzungsphase bieten verschiedene Formate die Möglichkeit, technische Hürden gemeinsam zu überwinden und die Idee einer resilienten, quelloffenen Energieversorgung voranzutreiben. Am Ende steht die öffentliche Vorstellung der Ergebnisse, die hoffentlich den Grundstein für eine Energiewende legt, die ihren Namen wirklich verdient.

Stefan Krempl