Große Sprachmodelle prägen zunehmend die Meinung der Nutzer, doch neutral sind sie nicht: Eine Studie der Hochschule München zeigt eine klare Tendenz zum Mitte-Links-Spektrum.
Die Nutzung von Künstlicher Intelligenz (KI) als Informationsquelle für politische Fragen nimmt rasant zu, doch die Ergebnisse sind mit Vorsicht zu genießen. Eine aktuelle Untersuchung der Hochschule München (HM) belegt nun schwarz auf weiß, dass populäre Sprachmodelle wie ChatGPT, Grok und DeepSeek keineswegs neutral agieren, wenn man sie mit politischen Thesen konfrontiert. Die Forscher Anna Kruspe und Buket Kurtulus weisen in ihrer Fallstudie zur Bundestagswahl 2025 nach, dass die Systeme systematische politische Tendenzen aufweisen, die öffentliche Debatten und Wahlentscheidungen subtil beeinflussen könnten.
Als Prüfstein im Rahmen der Studie diente der Wahl-O-Mat der Bundeszentrale für politische Bildung, ein in Deutschland etabliertes Werkzeug zur Wahlentscheidung. Die Forscherinnen ließen die drei KI-Modelle 38 Thesen zu zentralen Themen wie Klimaschutz, Migration und Wirtschaft bewerten. Um statistische Zufälle und sprachliche Verzerrungen auszuschließen, wurde jede Frage 100-mal sowohl auf Deutsch als auch auf Englisch gestellt. Das Ergebnis war über alle Modelle hinweg verblüffend einheitlich: Statt die Positionen der verschiedenen Parteien neutral abzubilden, entwickelten die KIs eigene Antwortmuster, die eine deutliche Schlagseite aufwiesen.
Besonders auffällig ist die Nähe zum Mitte-Links-Spektrum. Die Auswertung der Übereinstimmungswerte zeigt, dass die Antworten der KI-Modelle am stärksten mit den Positionen von Bündnis 90/Die Grünen und der SPD korrespondieren. ChatGPT etwa wies bei deutschen Prompts eine Übereinstimmung von 84 Prozent mit den Grünen und 76 Prozent mit der SPD auf. Die geringste Schnittmenge fand sich konsistent bei der AfD, die bei allen Modellen die niedrigsten Werte erzielte. Selbst Grok, dessen Entwickler bei xAI eigentlich das Ziel verfolgten, das Modell weniger „woke“ und damit konservativer zu gestalten, ordnete sich in der Untersuchung im liberal-progressiven Bereich ein.
Interessanterweise neigen die KIs zu einer gewissen Absicherung. Im Vergleich zu den klaren Positionierungen der politischen Parteien wählten die Sprachmodelle deutlich häufiger die Antwortoption „neutral“. Diese „Hedging“-Strategie deutet darauf hin, dass Sicherheitsfilter und Moderationsvorgaben der Hersteller darauf abzielen, allzu kontroverse oder extreme Standpunkte zu vermeiden. Dennoch bleibt eine messbare Tendenz bestehen, die laut den Forschern oft auf die Zusammensetzung der Trainingsdaten zurückzuführen ist. Da die Modelle überwiegend mit Internetquellen und Texten aus dem angloamerikanischen Raum trainiert werden, spiegeln sie häufig die dort vorherrschenden liberalen Werte wider.
Die Ergebnisse der Studie sind besonders mit Blick auf die kommenden politischen Ereignisse, wie die Kommunalwahl in Bayern am 8. März 2026, von hoher Relevanz. Wenn Wählerinnen und Wähler KI-Systeme zur Einordnung komplexer politischer Argumente nutzen, riskieren sie, nur eine eingeschränkte Perspektive zu erhalten. HM-Professorin Kruspe warnt vor den Gefahren dieser unsichtbaren Beeinflussung und fordert eine stärkere Förderung der Medienkompetenz. Es sei essenziell zu verstehen, dass eine KI keine objektive Wahrheit liefert, sondern lediglich statistische Wahrscheinlichkeiten auf Basis ihrer – oft voreingenommenen – Datenbasis berechnet.
Die Wissenschaftler plädieren daher für mehr Transparenz seitens der Entwickler und die Schaffung unabhängiger, europäischer KI-Modelle. Solche Systeme sollten auf einer bewussten Vielfalt an Daten basieren und ihre Funktionsweise offenlegen, um demokratische Prozesse nicht zu gefährden. Bis dahin bleibt die wichtigste Erkenntnis für die Nutzer: Die politische Einschätzung einer KI sollte niemals ungeprüft als Grundlage für das eigene Kreuz auf dem Wahlzettel dienen.
Keine Kommentare:
Kommentar veröffentlichen