Mittwoch, 13. Mai 2026

Europäisches Glasfaser-Beben: In Deutschland drohen Notverkäufe

Die Ära „Wachstum um jeden Preis“ ist im europäischen Glasfasermarkt vorbei. Eine Studie eines Beratungshauses prognostiziert eine starke Konsolidierungswelle und warnt vor Finanzierungslücken.

Der europäische Glasfasermarkt steht vor einer Zäsur, die vor allem den deutschen Markt mit voller Härte trifft. Nachdem jahrelang die Devise galt, Marktanteile und Ausbauzahlen ohne Rücksicht auf kurzfristige Profitabilität zu steigern, prallen die ehrgeizigen Businesspläne der Netzbetreiber nun ungebremst auf die wirtschaftliche Realität. Laut der „Europäischen Glasfaserstudie 2026“ der Unternehmensberatung AlixPartners hat sich die Stimmung bei Investoren und Kreditgebern fundamental gewandelt. Im Fokus stehen heute nicht mehr bloße Ausbauversprechen, sondern die nackten finanziellen Fundamentaldaten und die dringende Frage, wie sich die Milliardeninvestitionen der letzten Jahre endlich in nachhaltige Umsätze verwandeln lassen.

Für die Studie wurden rund 200 Marktexperten aus Deutschland, Großbritannien, Italien und Frankreich befragt. Das Ergebnis für die Bundesrepublik ist besonders ernüchternd, da Deutschland bei fast allen wichtigen Marktkennzahlen das Schlusslicht im Vergleich der untersuchten Länder bildet. Während im EU-Durchschnitt bereits 70 Prozent der Haushalte über einen potenziellen Glasfaseranschluss verfügen, liegt dieser Wert in Deutschland bei gerade einmal knapp über 40 Prozent. Noch dramatischer stellt sich die Situation bei der tatsächlichen Nutzung dar. In Frankreich etwa nutzen bereits rund 75 Prozent der Haushalte die Glasfaser aktiv nutzen. Hierzulande liegt die Aktivierungsquote bei lediglich 10 bis 15 Prozent.

Diese Diskrepanz zwischen verlegten Leitungen und zahlenden Kunden bringt viele Telekommunikationsfirmen in existenzielle Bedrängnis. Die Monetarisierung der Netze hinkt den ursprünglichen Plänen weit hinterher, was angesichts des steigenden Refinanzierungsbedarfs gefährliche Folgen hat. In den kommenden ein bis zwei Jahren benötigen mehr als 60 Prozent der deutschen Glasfaserunternehmen frisches Kapital. Ein Drittel der Befragten rechnet sogar fest damit, bestehende Kreditverträge aufgrund verfehlter Ziele zu verletzen. Da Kreditgeber ihre Kriterien massiv verschärft haben und die Verfügbarkeit von Fremdkapital deutlich gesunken ist, droht vielen Akteuren schlicht das Geld auszugehen.

Um die Liquidität zu sichern, hat in der gesamten Branche ein radikaler Sparkurs eingesetzt. Die Kostenoptimierung ist mittlerweile für fast jeden dritten Betreiber das primäre Ziel, während dieser Aspekt im Vorjahr noch eine untergeordnete Rolle spielte. Der Fokus verschiebt sich weg vom reinen Netzausbau hin zu operativer Effizienz und der schnellen Aktivierung bereits bestehender Anschlüsse. In Deutschland setzen viele Betreiber zudem verstärkt auf den Wholesale-Markt und hoffen darauf, ihre Netze durch die Vermietung an Drittanbieter wie große Internet Service Provider besser auszulasten.

Die logische Konsequenz aus dieser wirtschaftlichen Schieflage ist eine massive Marktbereinigung. In Deutschland erwarten mittlerweile über 70 Prozent der Experten ein hohes Niveau an Fusions- und Übernahmeaktivitäten. Dies entspricht fast einer Verdopplung im Vergleich zum Vorjahr. Besonders brisant ist die Einschätzung der Experten zu den Hintergründen dieser Deals. Während in Großbritannien vor allem strategische Synergieeffekte die Konsolidierung treiben, werden für den deutschen Markt sogenannte Notverkäufe als Haupttreiber identifiziert. Rund 41 Prozent der Befragten gehen davon aus, dass Unternehmen unter Zeit- und Preisdruck veräußert werden müssen, weil sie allein nicht mehr überlebensfähig sind.

Klaus Hölbling, Leiter der TMT-Practice bei AlixPartners, warnt in diesem Zusammenhang vor einem extrem herausfordernden Geschäftsjahr. Er betont, dass die Zeit des ungebremsten Wachstums endgültig vorbei ist. Kreditgeber und Investoren schauen heute so genau wie nie zuvor darauf, wie die einzelnen Player ihre Investitionen in Cashflow ummünzen. Entscheidend für das Überleben wird sein, die Kosten massiv zu senken, Kunden zügig an die Netze anzuschließen und die knappen zur Verfügung stehenden Mittel hocheffizient zu nutzen. Der Markt wandelt sich von einer Goldgräberstimmung hin zu einem Verdrängungswettbewerb, bei dem nur die finanzstärksten Akteure bestehen werden. Experten prognostizieren, dass die Zahl der Unternehmen in der Branche bis 2027 um bis zu ein Viertel schrumpfen könnte. Was am Ende bleibt, ist ein konsolidierter Markt mit weniger, aber dafür hoffentlich wirtschaftlich stabileren Anbietern.

Stefan Krempl

Überwachung „Made in EU“: Menschenrechtler werfen Kommission Blindheit bei Exporten vor

Human Rights Watch kritisiert drastische Lücken in der EU-Dual-Use-Verordnung. Ein Bericht zeigt, wie Überwachungstechnik wie Spyware trotz Kontrollen an autoritäre Regime gelangt.


Eigentlich sollte die im Jahr 2021 verabschiedete Neufassung der Dual-Use-Verordnung der EU ein Meilenstein sein. Ihr Ziel: Zu verhindern, dass europäische Überwachungstechnologie in die Hände von Regierungen gelangt, die damit Journalisten, Aktivisten und Oppositionelle unterdrückenDoch ein am Dienstag veröffentlichter 54-seitiger Bericht von Human Rights Watch (HRW) mit dem Titel „Looking the Other Way“ zeichnet ein ernüchterndes Bild: Das Regelwerk versage in der Praxis fast vollständig, da die EU-Kommission die Transparenzvorgaben zugunsten von Unternehmensinteressen systematisch ausgehöhlt habe.

Die EU gilt als globaler Hotspot für die Entwicklung von Spionagesoftware und Abhörsystemen. Fast alle EU-Mitgliedstaaten beherbergen mindestens ein Unternehmen aus diesem SektorWährend die nationalen Behörden über die Exportlizenzen entscheiden, ist die Kommission verpflichtet, jährliche Berichte über diese Ausfuhren zu veröffentlichenHRW wirft der Brüsseler Regierungsinstitution aber vor, durch im Januar 2024 veröffentlichte Leitlinien die Transparenzregeln so umgedeutet zu haben, dass eine öffentliche Kontrolle kaum noch möglich sei.

Anstatt detaillierte Daten darüber zu liefern, welcher Staat welche Technologie wohin verkauft, werden Informationen in den offiziellen Berichten oft aggregiert oder unter dem Vorwand des „Geschäftsgeheimnisses“ ganz verschwiegenDie Kommission begründet dies damit, dass bei der geringen Anzahl an Exporteuren die Identität der Firmen preisgegeben werden könnteFür die Menschenrechtler ist das ein vorgeschobenes Argument, das Profite über den Schutz grundlegender Rechte stellt.

Wie brisant die Lage ist, zeigen Recherchen von HRW, die auf hunderten Informationsfreiheitsanfragen in allen 27 EU-Staaten basierenDie Daten offenbaren brisante Exportgenehmigungen: So lieferte Bulgarien 2022 trotz bekannter Repressionen Überwachungstechnik nach AserbaidschanPolen genehmigte 2023 den Export von Abhörsystemen nach Ruanda, ein Land, das bereits in der Vergangenheit mit dem Einsatz der Pegasus-Spyware gegen Kritiker in Verbindung gebracht wurde.

Besonders problematisch ist laut HRW die „Catch-all“-Klausel der Verordnung. Diese verpflichtet Unternehmen eigentlich dazu, auch für nicht explizit gelistete Güter eine Genehmigung einzuholen, wenn sie von menschenrechtsrelevanten Risiken wissenDa dies jedoch eine umfassende Due-Diligence-Prüfung durch die Firmen selbst voraussetzt, die kaum staatlich kontrolliert wird, bleibt die Bestimmung in der Praxis oft wirkungslos.

HRW fordert die Kommission auf, die für Ende 2026 geplante Evaluierung der Verordnung vorzuziehen und die Daumenschrauben deutlich anzuziehenNotwendig seien verbindliche Sorgfaltspflichten für Unternehmen, die Pflicht zur Ablehnung von Exporten bei „roten Flaggen“ und eine uneingeschränkte Transparenz über die Endverbleibsempfänger der gefährlichen SoftwareOhne diese Reformen, so die Warnung, bleibe die EU mitschuldig an der Erosion demokratischer Räume weltweit.

Stefan Krempl

Dienstag, 12. Mai 2026

Rote Linien für Big Tech: Greenpeace fordert Ethik-Kodex für Cloud-Riesen

Angesichts des massiven Ausbaus von Rechenzentren verlangt Greenpeace von AWS, Microsoft und Google eine Selbstverpflichtung gegen Umweltzerstörung und Überwachung.

Die digitale Infrastruktur ist das Nervensystem der modernen Welt, doch hinter den glänzenden Fassaden der Cloud-Giganten verbergen sich oft düstere Allianzen. Während Konzerne wie Amazon Web Services (AWS), Microsoft und Google ihre Marktposition zementieren, dienen ihre Serverkapazitäten nicht selten als technologisches Rückgrat für Branchen, die den Planeten an seine Belastungsgrenzen führen.

Mit einer neuen "Ethik-Richtlinie für Anbieter kritischer digitaler Infrastruktur" erhöht Greenpeace nun den Druck auf die BrancheDie Umweltschutzorganisation fordert, dass die "Wegbereiter der modernen Welt" endlich Verantwortung für ihre gesellschaftliche Rolle übernehmen und klare rote Linien ziehen.

Kernproblem ist die vermeintliche Neutralität der Technik. Cloud-Anbieter stellen Rechenpower und Speicherplatz bereit. Doch wer diese Ressourcen wofür nutzt, bleibt bislang weitgehend dem Markt überlassen. Greenpeace-Expertin Linda Klapdor findet dafür deutliche Worte: Big Tech mache sich mit fossiler Expansion, der Abholzung von Regenwäldern und Massenüberwachung die Taschen voll. Wer die digitale Zukunft bauen wolle, müsse die Zerstörung der Gegenwart konsequent von seinen Servern verbannen. Die Richtlinie ist dabei als direkt unterschriftsreife Selbstverpflichtung konzipiert, die abstrakte moralische Werte in eine operative Realität übersetzen soll.

Greenpeace zieht eine strukturelle Parallele zum Finanzsektor. So wie Banken über Kredite entscheiden, welche Projekte realisiert werden, entscheiden Cloud-Anbieter über die Effizienz und Skalierbarkeit von GeschäftsmodellenIm Finanzwesen sind ökologische und soziale Ausschlusskriterien, etwa in den UN Principles for Responsible Investment, längst etabliert. Viele Institute finanzieren keine Streumunition oder Regenwaldabholzung mehr. Genau diese "bewährten Prinzipien" sollen nun auf die Anbieter von Cloud-Services übertragen werden. Es geht darum, Unternehmen den digitalen Saft abzudrehen, wenn deren Handeln das Gemeinwohl gefährdet.

Die Verbotsliste: Von Öl bis Deepfakes

Die Richtlinie definiert präzise Ausschlusskriterien für die Nutzung der Infrastruktur. Ein prominenter Punkt ist der Bereich fossile Brennstoffe. Cloud-Dienste sollen für Kohleförderer mit Expansionsplänen sowie für Öl- und Gasunternehmen, die neue Reserven erschließen oder Fracking betreiben, tabu seinAuch die Rüstungsindustrie gerät ins Visier: Die Entwicklung und der Einsatz von Letalen Autonomen Waffensystemen (LAWS) alias Killer-Robotern, die ohne menschliche Kontrolle Ziele auswählen, sowie die operative Planung kinetischer Angriffe über die Cloud werden strikt abgelehnt.

Besonders aktuell sind die Forderungen im Bereich der Künstlichen Intelligenz (KI) und Überwachung. Die Richtlinie orientiert sich hier am AI Act und untersagt Anwendungen mit "unannehmbarem Risiko"Dazu zählen etwa biometrisches Scraping zur Gesichtserkennung, Predictive Policing oder manipulative Techniken, die menschliches Verhalten schädlich beeinflussenAuch der Schutz der Demokratie spielt eine Rolle: Wer Deepfakes erstellt, um Wahlen zu manipulieren, oder die freiheitlich-demokratische Grundordnung zersetzen will, soll keinen Zugang mehr zu kritischer IT-Infrastruktur erhalten.

Ökologische Sorgfaltspflicht und faire Ketten

Neben der Kundenauswahl nimmt die Richtlinie die eigene Betriebsweise der Tech-Konzerne in die Pflicht. Angesichts des enormen Ressourcenverbrauchs verlangt Greenpeace, dass neue Rechenkapazitäten ausschließlich mit echtem Strom aus erneuerbaren Energien betrieben werden – wobei bloße Zertifikate für Grünstrom nicht ausreichenZudem sollen Anbieter verpflichtet werden, mindestens 25 Prozent ihrer Abwärme weiterzuverwerten und auf den Einsatz von Trinkwasser zur Kühlung in wasserarmen Regionen zu verzichten.

Die Verantwortung endet aber nicht an der Tür des Rechenzentrums. Die Hardware-Lieferketten vom Bergbau bis zur Fertigung müssen transparent gemacht und auf Menschenrechtsverstöße geprüft werdenAuch für die oft unsichtbaren "Clickworker", die Daten für KI-Systeme aufbereiten, fordert die Selbstverpflichtung faire Löhne und den Schutz vor moderner Sklaverei.

Relevanz für den Standort Deutschland

Die Veröffentlichung kommt zu einem kritischen Zeitpunkt. Die Bundesregierung unter Bundeskanzler Friedrich Merz verfolgt ambitionierte Ziele für den digitalen Standort Deutschland. Erst im März beschloss die Exekutive, die Kapazitäten für Rechenzentren bis 2030 zu verdoppeln. Cie Anschlussleistung für Cloud-Computing und KI soll sich sogar vervierfachen. Parallel dazu fließen Milliarden: Allein AWS plant Investitionen von 7,8 Milliarden Euro in Deutschland. Auch Google und Microsoft bauen ihre Standorte massiv aus.

In diesem Kontext warnen Kritiker davor, dass der technologische Fortschritt ohne ethische Leitplanken zu Lasten der Umwelt und sozialer Standards gehen könnte. Die Forderung nach digitaler Souveränität, die Merz gemeinsam mit dem französischen Präsidenten Emmanuel Macron als europäisches Ziel ausgegeben hat, muss laut Greenpeace zwingend mit ethischen Mindeststandards verknüpft werden. Nur so könne technologischer Fortschritt langfristig zum echten Wettbewerbsvorteil werden, der dem Gemeinwohl dient.

Um die Einhaltung der ambitionierten Regeln sicherzustellen, schlägt Greenpeace die Einberufung eines unabhängigen, externen Ethik-Rats vorDieser soll Empfehlungen zur Beendigung der Zusammenarbeit mit kritischen Kunden veröffentlichenZudem sollen Ingenieure das vertraglich zugesicherte Recht erhalten, die Arbeit an Projekten zu verweigern, die gegen den Kodex verstoßen – ohne berufliche Nachteile fürchten zu müssenEs ist ein weitreichender Entwurf, der Big-Tech-Unternehmen vor die Wahl stellt: Bleiben sie "Technologie-Vermieter" oder werden sie zu verantwortungsvollen Akteuren einer demokratischen Zukunft?

Stefan Krempl

Patientenwohl vor Tempo: Bundesregierung setzt bei Gesundheits-KI auf Kontrolle

Strenge Auflagen für Evidenz und Transparenz sollen laut der Bundesregierung die Sicherheit im digitalen Gesundheitswesen garantieren und neue Datenräume Innovationen fördern.


Die Idee einer digitalisierten Medizin, in der Künstliche Intelligenz (KI) Diagnosen unterstützt, Patientenströme effizient lenkt und telemedizinische Plattformen die Versorgung im ländlichen Raum sichern, ist oft zu hören. Doch wer in Deutschland auf einen schnellen Durchmarsch kommerzieller Plattformmodelle nach internationalem Vorbild gehofft hat, wird durch eine jetzt veröffentlichte Antwort der Bundesregierung auf eine parlamentarische Anfrage auf den Boden der regulatorischen Tatsachen zurückgeholt. Die Exekutive erkennt zwar das immense Potenzial von KI-Assistenzsystemen an, zieht aber gleichzeitig eine rote Linie: Innovation dürfe nie zulasten der Patientensicherheit oder der Qualität medizinischer Leistungen gehen.

In der Auskunft macht die Bundesregierung deutlich, dass sie digital integrierte Versorgungsplattformen, die Telemedizin, KI und physische Strukturen bündeln, zwar fortlaufend beobachtet. Diese stellten aber keinen originären Bestandteil der Regelversorgung in der gesetzlichen Krankenversicherung darWer solche Dienste privat anbieten will, muss sich demnach einem engmaschigen Geflecht aus Qualitätsanforderungen, Datenschutzvorgaben und regulatorischen Rahmenbedingungen beugen.

Besonders deutlich wird dies bei der Bewertung von KI-gestützten Funktionen in der Patientensteuerung, wie etwa digitalen Symptom-Checkern oder Triage-Assistenten. Hier fordert die Regierung unter Federführung des Bundesministeriums für Gesundheit (BMG) unter Ministerin Nina Warken (CDU) strikte Evidenz und volle TransparenzHersteller und Nutzer sind gleichermaßen in der Pflicht, die nationalen und europarechtlichen Standards einzuhalten.

Ein zentraler Baustein für die Zukunft der datengestützten Medizin in Deutschland ist der Aufbau sicherer Infrastrukturen. Das seit Jahren rechtlich umkämpfte Forschungsdatenzentrum Gesundheit und der kommende Europäische Gesundheitsdatenraum (EHDS) sollen den datenschutzkonformen Zugriff auf sensible Informationen ermöglichenAb Ende 2026 ist geplant, dass auch Daten aus der elektronischen Patientenakte (ePA) für Forschungszwecke freigegeben werden könnenDas soll nicht nur Innovationen fördern, sondern durch eine breite Datengrundlage auch das Risiko von Verzerrungen (Biases) in KI-Modellen minimierenDie Regierung setzt dabei auf ein vernetztes Gesundheitsdatenökosystem, das Qualität und Sicherheit vereint.

Trotz dieser Ambitionen zeigt die Regierungsantwort auch Lücken auf. Eine systematische Bewertung der Wirksamkeit telemedizinischer Angebote findet derzeit nicht statt, eine Übersicht zu beauftragten Studien zur Digitalisierung liegt ebenfalls nicht vorAuch bei der Infrastruktur bleiben Fragen offen: Während es für Krankenhäuser detaillierte Daten zur Breitbandversorgung gibt, herrscht bei anderen Akteuren wie Arztpraxen oder dem Rettungsdienst InformationsmangelUm die Resilienz gegen Cyberangriffe zu stärken, konzeptioniert das BMG jedoch ein "Sofortprogramm Cybersicherheit" mit einem Volumen von 1,83 Milliarden Euro.

In Haftungsfragen verweist das Ressort auf das bestehende Recht für Medizinprodukte sowie die europäische KI-VerordnungHochrisiko-KI-Systeme unterliegen demnach besonders strengen SorgfaltspflichtenDamit Software künftig unabhängig von ihrer Bereitstellung umfassend in die Produkthaftung einbezogen wird, befindet sich zudem ein entsprechendes Modernisierungsgesetz im parlamentarischen Verfahren.

Um den Transfer digitaler Anwendungen in die Praxis zu beschleunigen, plant die Regierung die Einrichtung von KI-ReallaborenHier sollen Entwickler Unterstützung bei der Bewältigung regulatorischer Hürden finden. Ziel bleibt ein vernetztes System ohne proprietäre Abhängigkeiten, wobei Interoperabilität als Grundvoraussetzung für ein modernes Gesundheitswesen definiert wirdLock-in-Effekte durch geschlossene Systeme will die Exekutive durch verbindliche Standards und offene Schnittstellen verhindern. Deutschland wählt so einen Weg, der technologischen Fortschritt eng an staatliche Kontrolle und Patientenschutz bindet.

Stefan Krempl

ZDF-Reform: Bündnis fordert „Öffentliches Geld, öffentliches Gut“

Zivilgesellschaftliche Organisationen verlangen freie Lizenzen für Dokumentationen, ein Ende der Löschfristen und mehr Präsenz in dezentralen Netzwerken.

Das öffentlich-rechtliche Fernsehen steht an einer digitalen Weggabelung. Im Rahmen des gesetzlich vorgeschriebenen Genehmigungsverfahrens für die neuen Digitalkonzepte von ZDF, 3sat und phoenix – rechtlich als Telemedienänderungskonzepte bezeichnet – hat sich nun ein breites zivilgesellschaftliches Bündnis zu Wort gemeldet. Die Organisationen D64, Agora Digitale Transformation, der NABU sowie Wikimedia Deutschland und der ehemalige ZDF-Verwaltungsrat Leonhard Dobusch bewerten die Pläne in einer gemeinsamen Stellungnahme grundsätzlich positiv. Zugleich mahnen sie aber an vielen Stellen mehr Konsequenz und einen radikaleren Abschied von veralteten Strukturen an.

Ein Kritikpunkt ist der Umgang mit den rechtlichen Schranken der analogen Ära. Erik Tuchtfeld, Co-Vorsitzender von D64 und Mitglied des ZDF-Fernsehrats, findet deutliche Worte für die aktuellen Rahmenbedingungen: Der Gesetzgeber müsse die „Zombies einer analogen Medienlandschaft“ endlich zu Grabe tragen. Damit meint er vor allem das Verbot der Presseähnlichkeit und die künstliche Befristung der Verweildauern in den MediathekenDiese Regelungen seien nicht mehr zeitgemäß und angesichts der grassierenden Desinformation sogar gefährlich für den demokratischen DiskursDass hochwertige, öffentlich finanzierte Informationen nach einer bestimmten Frist gelöscht werden müssen, stelle einen erheblichen Wettbewerbsnachteil gegenüber globalen Streaming-Giganten dar und widerspreche dem Interesse der Beitragszahlenden.

Das Bündnis stützt sich dabei auch auf aktuelle Forschungsergebnisse. Eine Studie der European Broadcasting Union (EBU) aus dem Jahr 2025 belegt, dass starke öffentlich-rechtliche Online-Angebote den privaten Zeitungsverlagen keineswegs schadenIm Gegenteil: Sie würden als Teil einer seriösen Medienöffentlichkeit die private Konkurrenz sogar stärkenDas starre Festhalten am Textverbot für ARD und ZDF schwäche so lediglich das gesamte deutschsprachige Informationsökosystem.

In der technischen Umsetzung begrüßen die Unterzeichner zwar die engere Kooperation zwischen ZDF, ARD und Deutschlandradio im Projekt „Streaming OS“; sie fordern aber eine deutlich tiefere Integration. Ein gemeinsamer Login dürfe nicht nur der Bequemlichkeit dienen, sondern müsse senderübergreifende, datensparsame Profile ermöglichenEin besonderes Augenmerk liegt hierbei auf dem sogenannten Geoblocking: Wer seine Rundfunkbeitragsnummer hinterlegt, sollte nach Vorstellungen des Zusammenschlusses auch im Ausland uneingeschränkten Zugriff auf die Inhalte haben.

Ein weiterer Kernpunkt der Stellungnahme ist die Forderung nach „Öffentlichem Geld für öffentliches Gut“. Die Organisationen dringen darauf, Nachrichtenformate und Dokumentationen grundsätzlich unter freie Lizenzen zu stellenDies würde nicht nur die rechtssichere Nutzung in Schulen, Universitäten oder auf Wikipedia ermöglichen , sondern auch das Problem der Depublizierung entschärfen: Frei lizenzierte Inhalte könnten von privaten Initiativen dauerhaft gesichert werden, selbst wenn das ZDF sie aus regulatorischen Gründen von den eigenen Plattformen entfernen muss.

Auch im Bereich der sozialen Medien fordern die Experten ein Umdenken. Zwar begrüßen sie den Rückzug des ZDF von der Plattform X ausdrücklich. Doch die Abhängigkeit von kommerziellen Big-Tech-Konzernen ist ihnen ein Dorn im AugeDas ZDF sollte sich daher verpflichten, keine Inhalte exklusiv für kommerzielle Plattformen zu produzierenStattdessen müsse das Engagement auf dezentralen, offenen Netzwerken wie Mastodon, PeerTube oder Bluesky massiv ausgebaut werdenNeue Dialogplattformen müssten von vornherein vollständig kompatibel mit offenen Standards wie ActivityPub oder dem AT Protocol sein, um eine echte Teilhabe ohne kommerzielle Lock-In-Effekte zu garantieren.

Ferner weist das Bündnis auf die wachsende Bedeutung der Archive für die Ära der Künstlichen Intelligenz hin. Die kuratierten Datenschätze des ZDF seien von immensem Wert für das Training von KI-ModellenHier brauche es jedoch klare Strategien, um eine „Tragik der Allmende“ zu verhindern: Wohlhabende Tech-Konzerne dürften die öffentlich finanzierte Infrastruktur nicht ohne angemessene Entschädigung nutzen. Dagegen müsse der freie Zugriff für Forschung und Zivilgesellschaft gewahrt bleiben.

Stefan Krempl

Montag, 11. Mai 2026

Autonomes Fahren: Chinas Software-Vorsprung setzt Europa unter Druck

Eine Marktanalyse zeigt: Huawei, Xpeng und Li Auto hängen europäische Autobauer bei Assistenzsystemen ab. Der Rückstand beträgt wohl bereits mehr als zwei Jahre.

In der chinesischen Metropole Peking lässt sich derzeit die Zukunft der Mobilität beobachten, und für die traditionelle europäische Automobilindustrie ist das Bild, das sich dort zeichnet, alles andere als beruhigend. In Deutschland wird aktuell noch intensiv über die ethischen Feinheiten von Level-3-Systemen debattiert. Derweil haben chinesische Tech-Giganten und spezialisierte Elektroauto-Startups bereits eine technologische Realität geschaffen, die den Massenmarkt dominiert.

Eine jetzt publizierte Marktanalyse der Unternehmensberatung P3, die die Leistungsfähigkeit fortgeschrittener Fahrerassistenzsysteme der Stufen L2+ und L2++ untersucht hat, kommt zu einem drastischen Ergebnis: Heimische chinesische Hersteller und der US-Pionier Tesla liegen in der technologischen Umsetzung mittlerweile mehr als zwei Jahre vor den etablierten Marken aus Europa.

Die Marktbeobachter stützen ihre Erkenntnisse auf einen harten Praxistest unter Realbedingungen. Auf einer komplexen Testroute im Herzen Pekings mussten die Systeme beweisen, wie sie mit der chaotischen Dynamik einer Megacity umgehen. Die Strecke umfasste nicht nur mehrspurige Autobahnen, sondern auch dichten Stadtverkehr, unübersichtliche Kreuzungen und spontane Baustellenbereiche. In diesem Umfeld zeigten vor allem die Systeme von Huawei, Xpeng und Li Auto eine Souveränität, die bisherige Maßstäbe verschiebt. Der entscheidende Vorsprung dieser Anbieter liegt dabei weniger in der reinen Hardware der Sensoren, sondern in der tiefgreifenden softwareseitigen Integration. Während europäische Systeme oft noch wie eine Sammlung isolierter Assistenzfunktionen wirken, bieten die chinesischen Marktführer ein nahtloses Gesamterlebnis. Die Verschmelzung von hochpräziser Navigation, vorausschauender Fahrstrategie und automatisierten Parkvorgängen erzeugt einen Kundennutzen, der in China längst zum kaufentscheidenden Kriterium gereift ist.

Der Analyse zufolge ist der qualitative Abstand an der absoluten Spitze mittlerweile gering. Die führenden Systeme agieren auf einem ähnlich hohen Niveau, doch die Dynamik am Markt ist beispiellos. Durch eine konsequente Strategie von Software-Updates über die Cloud können Hersteller die Rangfolge innerhalb weniger Wochen verändern. Ein Fahrzeug ist in China kein statisches Produkt mehr, das mit einem festen Funktionsumfang ausgeliefert wird, sondern eine lernende Plattform. Diese Agilität wird durch eine völlig andere Entwicklungsphilosophie befeuert. In China herrscht das Prinzip der schnellen Iteration vor, bei dem große Datenmengen aus der realen Fahrzeugflotte unmittelbar zur Optimierung der Algorithmen genutzt werden. Die regulatorischen Rahmenbedingungen unterstützen diesen Prozess durch einen „Lessons learned“-Ansatz: dieser ermöglicht Innovationen auf der Straße, während Europa oft noch in langwierigen theoretischen Validierungsprozessen verharrt.

Der technologische Rückstand hat für die europäische Industrie weitreichende Folgen. Um auf dem wichtigsten Automobilmarkt der Welt nicht völlig den Anschluss zu verlieren, sind europäische Hersteller zunehmend gezwungen, Kooperationen mit chinesischen Technologieunternehmen einzugehen. Es findet eine Umkehr der bisherigen Verhältnisse statt: War früher der Transfer von deutscher Ingenieurskunst nach China die Regel, so kaufen sich europäische Konzerne heute Know-how in den Bereichen Software-Stack und Künstliche Intelligenz bei ihren chinesischen Partnern ein.

Der Vorsprung der chinesischen Anbieter ist allerdings geografisch gebunden. Sobald diese Fahrzeuge auf europäischen Straßen unterwegs sind, sinkt ihre Performance signifikant. Dies liegt an den strengeren hiesigen Sicherheitsvorschriften, einer anderen Datenlage und oft veralteten Softwareständen für Exportmodelle. Doch das ist kein Grund zur Entwarnung für die heimische Industrie. Experten gehen davon aus, dass die Lernkurve der chinesischen Herausforderer auch in Europa steil nach oben gehen wird. In den kommenden Jahren wird der Übergang zu echten Level-3-Systemen erwartet, die dem Fahrer in bestimmten Situationen die Verantwortung vollständig abnehmen. Ob die europäischen Autobauer diesen Rückstand durch ihre neue Kooperationsbereitschaft aufholen können, wird die zentrale Frage für das Überleben ihrer Premium-Marken im digitalen Zeitalter sein.

Stefan Krempl

Glasfaserkabel als Wanzen: Wenn das Internet zum Spion wird

Forscher warnen: Dank KI und Lasertechnik lassen sich Gespräche direkt über Glasfaserleitungen belauschen – ganz ohne klassische Abhörgeräte.

In den dunklen Zeiten des Kalten Krieges war Spionage Handarbeit. Wanzen wurden mühsam in Wänden verbaut, Telefone präpariert und Lampen zu Sendern umfunktioniert. Doch die Überwachungstechnik der Zukunft benötigt möglicherweise gar keine zusätzliche Hardware mehr. Wie Geophysiker auf der Generalversammlung der European Geosciences Union berichteten, könnte die Infrastruktur, die unsere moderne Welt vernetzt, selbst zur Gefahr für die Privatsphäre werden: Die Glasfaserkabel, die unter unseren Straßen liegen und die Ozeane durchqueren, können als hochempfindliche Mikrofone zweckentfremdet werden.

Der Schlüssel zu dieser Entdeckung liegt laut einem Bericht von Science in einer Technologie, die eigentlich dazu gedacht ist, den Planeten besser zu verstehen. Unter dem Namen „Distributed Acoustic Sensing“ (DAS) nutzen Seismologen das weltweite Glasfasernetz bereits seit Jahren, um Erdbeben aufzuspüren, Vulkane zu überwachen oder den Verkehr in Großstädten zu analysieren. Dabei wird ein sogenannter Interrogator an ein Ende der Leitung angeschlossen.

Dieses Gerät schickt Laserpulse durch die Faser. Wenn nun eine Schallwelle – etwa ein Beben oder das Rollen eines LKWs – die Faser erreicht, wird diese minimal gedehnt oder gestaucht. Winzige Defekte im Glas reflektieren das Licht auf charakteristische Weise zurück. Aus diesen Mustern lässt sich präzise berechnen, wo und wie stark der Boden vibriert hat.

Doch Jack Lee Smith von der University of Edinburgh hat nun demonstriert, dass diese Sensibilität weit über tektonische Verschiebungen hinausgeht. Das System reagiert so fein auf akustische Wellen, dass es sogar menschliche Sprache wahrnehmen kann. In einem Feldversuch platzierten die Forscher Lautsprecher neben existierenden Glasfaserleitungen, die ursprünglich zur Überwachung von Küstenerosion verlegt worden waren.

Das Ergebnis war verblüffend: Die tiefen Frequenzen der menschlichen Sprache ließen sich ohne große Vorbehandlung aus den Daten herauslesen. Für die höheren Frequenzen bedurfte es zwar einer digitalen Nachbearbeitung. Doch am Ende reichte eine frei verfügbare Künstliche Intelligenz aus, um das Gehörte in Text zu verwandeln.

Das KI-Modell Whisper von OpenAI fungierte dabei als digitaler Übersetzer. Die Forscher fütterten die durch Lichtwellen erzeugten Audiodaten in die Software, die daraus in Echtzeit verständliche Transkripte erstellte. Smith warnt davor, dass vielen Menschen nicht bewusst ist, dass die Kabel unter ihren Füßen akustische Wellen detektieren können. Fast überall, wo Glasfasern zum Einsatz kommen, besteht theoretisch ein Datenschutzrisiko.

Ganz so einfach, wie es im ersten Moment klingt, ist das Belauschen von Passanten aber noch nicht. Die Studie zeigte auch klare physikalische Grenzen auf. Besonders gut funktionierte das Abhören bei aufgewickelten Kabeln, die direkt an der Oberfläche lagen. Schon eine dünne Schicht aus Erde – etwa 20 Zentimeter – reichte aus, um die akustischen Signale so weit zu dämpfen, dass die Sprache unverständlich wurde. Auch schnurgerade verlegte Kabel erwiesen sich als weniger empfänglich für die feinen Schwingungen der Stimme.

Dennoch ist die Fachwelt alarmiert. Seismologen wie Céline Hadziioannou von der Universität Hamburg berichten von ähnlichen Erfahrungen: Bei Messungen in einem physikalischen Institut empfing sie über die Glasfaser versehentlich Lautsprecherdurchsagen aus dem Gebäude. Auch für die militärische Sicherheit birgt die Technik Sprengstoff. Frederik Tilmann vom GFZ Helmholtz-Zentrum Potsdam weist darauf hin, dass DAS-Systeme an Unterseekabeln die Bewegungen von Schiffen und sogar U-Booten tracken können. Bevor solche Forschungsdaten öffentlich geteilt werden, müsse man sich der Sicherheitsimplikationen bewusst sein.

Die Diskussion um das „Anzapfen“ von Glasfasern ist nicht neu, bekommt aber durch die DAS-Technik eine neue Qualität. Bereits 2017 stand die NSA wegen ihres „Upstream“-Programms in der Kritik. Damals ging es jedoch primär um das digitale Abgreifen des Datenstroms – also das Mitlesen von Bits und Bytes, die durch die Leitungen fließen. Die Geheimdienste suchten in der Flut der Kommunikation nach IP-Adressen und Stichwörtern. Nach massiven Protesten versicherte die NSA damals, die Überwachung unbeteiligter Dritter einzuschränken und nur noch Kommunikation zu sammeln, die direkt von einem Zielobjekt ausgeht oder an dieses gerichtet ist.

Während das Upstream-Programm darauf abzielte, den Inhalt der Datenpakete zu analysieren, macht DAS das Kabel selbst zum Sensor für die physische Umgebung. Es geht nicht mehr nur darum, was durchs Internet geschickt wird, sondern was in der Nähe der Leitung gesprochen wird.

Die wissenschaftliche Gemeinschaft steht damit vor einem Dilemma. Einerseits bietet die Nutzung von „Dark Fiber“ – also ungenutzten Glasfasersträngen, die bereits im Boden liegen – eine einmalige Chance für die Geoforschung. Man erhält ein riesiges Netz an Seismometern, ohne teure neue Sensoren verlegen zu müssen. Andererseits muss das Problem der Privatsphäre gelöst werden. Smith schlägt vor, die Daten so zu verarbeiten, dass Frequenzen, die für Sprache typisch sind, automatisch unterdrückt werden. Andere Experten raten dazu, Aufzeichnungen von aufgerollten Kabelabschnitten schlicht zu löschen, da diese für die Erdbebenforschung ohnehin kaum von Wert sind.

Die Forschungsergebnisse zeigen deutlich, dass wir in einer Welt leben, in der die Grenzen zwischen Infrastruktur und Überwachung fließend werden. Die Glasfaser, das Rückgrat unserer digitalen Gesellschaft, hat buchstäblich Ohren bekommen.

Stefan Krempl