Forscher warnen in einer Studie vor den blinden Flecken im AI Act der EU und fordern strengere Regeln gegen die schleichende Verzerrung des öffentlichen Diskurses durch ChatGPT & Co.
Die Algorithmen hinter modernen Sprachmodellen wie ChatGTP, Gemini oder Claude sind längst keine bloßen Werkzeuge mehr, sondern haben sich zu mächtigen Gatekeepern der Informationsgesellschaft entwickelt. Ob als Chatbot auf dem Smartphone oder als Entscheidungshilfe im Berufsalltag – die großen Sprachmodelle (LLMs) greifen immer tiefer in die Meinungsbildung ein. Doch dieser Einfluss geschieht oft im Verborgenen und ist weitaus weniger neutral, als viele Nutzer vermuten. Eine aktuelle Studie von Stefan Schmid vom Weizenbaum-Institut und Adrian Kuenzler von der University of Hong Kong verdeutlicht im Fachjournal Communications of the ACM, dass diese Systeme eine ernsthafte Bedrohung für den demokratischen Diskurs darstellen können. Die Analyse zeigt, dass die aktuelle europäische Gesetzgebung, allen voran der viel diskutierte AI Act der EU, den subtilen Gefahren der algorithmischen Kommunikation bisher kaum gewachsen ist.
Das Kernproblem liegt laut der Untersuchung in der Natur der Daten begründet. Da Sprachmodelle mit gigantischen Mengen bestehender Texte trainiert werden, spiegeln sie zwangsläufig die darin enthaltenen Vorurteile und gesellschaftlichen Hierarchien wider. Diese sogenannten Biases sind keine technischen Fehler, sondern systemimmanente Merkmale, die bestimmte Weltbilder und Wertevorstellungen transportieren und verfestigen. Stefan Schmid warnt eindringlich davor, dass die Wahrscheinlichkeit hoch ist, dass diese Modelle politische Meinungen und sogar das Wahlverhalten von Bürgerinnen und Bürgern auf eine Weise beeinflussen, die für den Einzelnen kaum greifbar ist. Diese unterschwellige Manipulation erweist sich als besonders tückisch, da sie die öffentliche Debatte nicht mit dem Holzhammer, sondern durch stetige, fast unmerkliche Filterung und Verstärkung bestehender Einstellungen verändert.
In ihrer Untersuchung nehmen die Autoren insbesondere den Digital Services Act (DSA) und die KI-Verordnung unter die Lupe. Ihr Fazit fällt ernüchternd aus: Zwar zielen die Gesetze darauf ab, offensichtliche Schäden zu begrenzen. Doch die schleichende Erosion des Meinungsklimas bleibt weitgehend unberücksichtigt. Während sich die Regulierung auf greifbare Risiken wie Desinformation oder Diskriminierung konzentriert, wird die systemische Macht der Algorithmen, die Perspektivenvielfalt im digitalen Raum einzuengen, vernachlässigt. Verschärft wird diese Situation durch die enorme Marktdominanz weniger großer Tech-Konzerne. Wenn nur eine Handvoll Unternehmen darüber entscheidet, welche Informationen wie aufbereitet werden, droht eine gefährliche Monopolisierung der Wahrheit, die alternative Sichtweisen systematisch an den Rand drängt.
Um dieser Entwicklung entgegenzuwirken, fordern die Wissenschaftler einen Kurswechsel in der Regulierungspolitik. Ein rein defensiver Ansatz, der nur auf die Vermeidung von Fehlern setzt, reiche bei weitem nicht aus. Stattdessen schlagen Schmid und Kuenzler einen ganzheitlichen Rahmen vor, der über die bloße Inhaltsmoderation hinausgeht. Ein effektiver Schutz der Demokratie müsse auch das Wettbewerbsrecht einschließen, um die Vormachtstellung der KI-Giganten zu brechen. Zudem seien transparente Lieferketten für Trainingsdaten und ein verantwortungsvolles Technologie-Design unerlässlich. Nur wenn die Architektur dieser Systeme von Grund auf auf Vielfalt und Neutralität ausgelegt ist und eine strenge staatliche Aufsicht die Einhaltung dieser Prinzipien kontrolliert, kann die schleichende Manipulation durch die künstliche Intelligenz wirksam gestoppt werden.
Stefan Krempl
Keine Kommentare:
Kommentar veröffentlichen