Künstliche Intelligenz und mächtige Intermediäre verändern die öffentliche Debatte. Gutachter fordern im Auftrag der Medienanstalten eine Reform des Rechtsrahmens und klare KI-Kennzeichnungen.
Die Art und Weise, wie wir uns heute eine Meinung bilden, hat sich fundamental gewandelt. Wo früher redaktionelle Auswahlprozesse dominierten, entscheiden heute komplexe Algorithmen globaler Plattformen darüber, welche Informationen uns erreichen. Diese digitalen Vermittler (Intermediäre) sind längst keine neutralen Durchreichtüten mehr, sondern aktive Gestalter der öffentlichen Kommunikation. Ein Gutachten der Professoren Christoph Busch und Jan Oster im Auftrag der Gremienvorsitzendenkonferenz (GVK) der Medienanstalten legt nun den Finger in die Wunde: Der aktuelle Rechtsrahmen, ein Geflecht aus europäischem und nationalem Recht, weist demnach kritische Lücken auf Diese werden insbesondere durch den rasanten Aufstieg der Künstlichen Intelligenz (KI) immer sichtbarer.
Im Zentrum der Analyse steht das regulatorische Mehrebenensystem. Mit dem Digital Services Act (DSA) und dem European Media Freedom Act (EMFA) hat die EU laut der Untersuchung zwar mächtige Instrumente geschaffen. Doch die Verzahnung mit nationalen Gesetzen wie dem Medienstaatsvertrag ist noch nicht vollständig geglückt. Die Gutachter machen deutlich, dass wir es mit einem Flickenteppich an Zuständigkeiten zu tun haben, der besonders bei grenzüberschreitenden Sachverhalten die Durchsetzung von Mindeststandards erschwert. Wenn eine Plattform ihren Sitz im EU-Ausland hat, stoßen nationale Aufseher oft an ihre Grenzen, was gerade beim Schutz von Kindern und Jugendlichen fatale Folgen haben kann.
Ein besonderes Risiko für die Meinungsvielfalt sehen die Experten in der Verschmelzung von Suchmaschinen, sozialen Netzwerken und generativer KI. Systeme wie ChatGPT oder moderne Such-Bots verändern die Rollenverteilung im Netz. Während der DSA klassische Vermittler privilegiert, agieren KI-Systeme oft als Produzenten von Inhalten. Die Sachverständigen fordern daher, dass der Medienstaatsvertrag um spezifische Kategorien für KI-generierte Inhalte erweitert wird. Es müsse für Nutzer jederzeit transparent sein, ob sie mit einem Menschen oder einer Maschine interagieren. Kennzeichnungspflichten für Social Bots und automatisierte Accounts müssten drastisch verschärft werden, um die gezielte Manipulation des öffentlichen Diskurses zu verhindern.
Auch die Frage der Verantwortung stellt sich laut der Analyse neu. Bisher profitieren viele Plattformen von weitreichenden Haftungsprivilegien, solange sie keine Kenntnis von rechtswidrigen Inhalten haben. Angesichts der schieren Masse an Desinformation und Hassrede regen Busch und Oster an, diese Privilegien zu überdenken. Eine stärkere Zurechnung von Verantwortung sei notwendig, um die Plattformbetreiber zu einer proaktiveren Sicherung der Meinungsvielfalt zu bewegen. Dazu gehöre auch, dass journalistisch-redaktionelle Angebote durch Transparenzanforderungen und privilegierte Auffindbarkeit gestärkt werden, um ein Gegengewicht zu rein algorithmisch gesteuerten Trends zu bilden.
Der GVK-Vorsitzende Albrecht Bähr unterstreicht die Dringlichkeit dieser Anpassungen. Das Gutachten liefere die wissenschaftliche Basis für zwei zentrale Handlungsachsen der künftigen Medienpolitik. Zum einen müsse der Jugendmedienschutz so weiterentwickelt werden, dass er auch gegenüber Plattformen ohne deutschen Sitz effektiv durchgreifen könne. Ferner brauche es eine Reform der Vielfaltssicherung, die der wachsenden Bedeutung der Intermediäre für die Auffindbarkeit von Inhalten Rechnung trägt. Ohne klare Regeln für Transparenz und Aufsicht drohe die Gefahr, dass die demokratische Willensbildung zum Spielball kommerzieller Algorithmen wird. Das Ziel ist klar: Ein kohärentes Schutzsystem, das die Medienfreiheit im digitalen Zeitalter nicht nur verwaltet, sondern aktiv verteidigt.
Stefan Krempl
Keine Kommentare:
Kommentar veröffentlichen