Freitag, 6. März 2026

KI im Wahl-O-Mat-Test: Warum ChatGPT, Grok und Co. politisch eher links blinken

Große Sprachmodelle prägen zunehmend die Meinung der Nutzer, doch neutral sind sie nicht: Eine Studie der Hochschule München zeigt eine klare Tendenz zum Mitte-Links-Spektrum.

Die Nutzung von Künstlicher Intelligenz (KI) als Informationsquelle für politische Fragen nimmt rasant zu, doch die Ergebnisse sind mit Vorsicht zu genießenEine aktuelle Untersuchung der Hochschule München (HM) belegt nun schwarz auf weiß, dass populäre Sprachmodelle wie ChatGPT, Grok und DeepSeek keineswegs neutral agieren, wenn man sie mit politischen Thesen konfrontiertDie Forscher Anna Kruspe und Buket Kurtulus weisen in ihrer Fallstudie zur Bundestagswahl 2025 nach, dass die Systeme systematische politische Tendenzen aufweisen, die öffentliche Debatten und Wahlentscheidungen subtil beeinflussen könnten.

Als Prüfstein im Rahmen der Studie diente der Wahl-O-Mat der Bundeszentrale für politische Bildung, ein in Deutschland etabliertes Werkzeug zur WahlentscheidungDie Forscherinnen ließen die drei KI-Modelle 38 Thesen zu zentralen Themen wie Klimaschutz, Migration und Wirtschaft bewertenUm statistische Zufälle und sprachliche Verzerrungen auszuschließen, wurde jede Frage 100-mal sowohl auf Deutsch als auch auf Englisch gestelltDas Ergebnis war über alle Modelle hinweg verblüffend einheitlich: Statt die Positionen der verschiedenen Parteien neutral abzubilden, entwickelten die KIs eigene Antwortmuster, die eine deutliche Schlagseite aufwiesen.

Besonders auffällig ist die Nähe zum Mitte-Links-SpektrumDie Auswertung der Übereinstimmungswerte zeigt, dass die Antworten der KI-Modelle am stärksten mit den Positionen von Bündnis 90/Die Grünen und der SPD korrespondierenChatGPT etwa wies bei deutschen Prompts eine Übereinstimmung von 84 Prozent mit den Grünen und 76 Prozent mit der SPD aufDie geringste Schnittmenge fand sich konsistent bei der AfD, die bei allen Modellen die niedrigsten Werte erzielteSelbst Grok, dessen Entwickler bei xAI eigentlich das Ziel verfolgten, das Modell weniger „woke“ und damit konservativer zu gestalten, ordnete sich in der Untersuchung im liberal-progressiven Bereich ein.

Interessanterweise neigen die KIs zu einer gewissen AbsicherungIm Vergleich zu den klaren Positionierungen der politischen Parteien wählten die Sprachmodelle deutlich häufiger die Antwortoption „neutral“Diese „Hedging“-Strategie deutet darauf hin, dass Sicherheitsfilter und Moderationsvorgaben der Hersteller darauf abzielen, allzu kontroverse oder extreme Standpunkte zu vermeidenDennoch bleibt eine messbare Tendenz bestehen, die laut den Forschern oft auf die Zusammensetzung der Trainingsdaten zurückzuführen istDa die Modelle überwiegend mit Internetquellen und Texten aus dem angloamerikanischen Raum trainiert werden, spiegeln sie häufig die dort vorherrschenden liberalen Werte wider.

Die Ergebnisse der Studie sind besonders mit Blick auf die kommenden politischen Ereignisse, wie die Kommunalwahl in Bayern am 8. März 2026, von hoher Relevanz. Wenn Wählerinnen und Wähler KI-Systeme zur Einordnung komplexer politischer Argumente nutzen, riskieren sie, nur eine eingeschränkte Perspektive zu erhalten. HM-Professorin Kruspe warnt vor den Gefahren dieser unsichtbaren Beeinflussung und fordert eine stärkere Förderung der MedienkompetenzEs sei essenziell zu verstehen, dass eine KI keine objektive Wahrheit liefert, sondern lediglich statistische Wahrscheinlichkeiten auf Basis ihrer – oft voreingenommenen – Datenbasis berechnet.

Die Wissenschaftler plädieren daher für mehr Transparenz seitens der Entwickler und die Schaffung unabhängiger, europäischer KI-ModelleSolche Systeme sollten auf einer bewussten Vielfalt an Daten basieren und ihre Funktionsweise offenlegen, um demokratische Prozesse nicht zu gefährdenBis dahin bleibt die wichtigste Erkenntnis für die Nutzer: Die politische Einschätzung einer KI sollte niemals ungeprüft als Grundlage für das eigene Kreuz auf dem Wahlzettel dienen.

Keine Kommentare:

Kommentar veröffentlichen