Sprachmodelle lernen aus riesigen Mengen menschlich erzeugter Texte. Darin spiegeln sich zwangsläufig gesellschaftliche Perspektiven, Wertvorstellungen und politische Debatten – was auch das Verhalten der Chatbots gegenüber Wahl-o-Mat-Fragen erklären dürfte. (Bild: Redaktion/PiPaPu)
Kurzinfo: Studie zu politischem Bias in KI
• Studie der Hochschule München untersucht politische Tendenzen von Sprachmodellen
• Wahl-O-Mat zur Bundestagswahl 2025 dient als methodischer Prüfstein
• 38 politische Thesen zu Migration Klima Wirtschaft und Gesellschaft
• Jede Frage hundertmal gestellt auf Deutsch und Englisch
• Ergebnisse zeigen klare Tendenz zum Mitte-Links-Spektrum
• Geringste Übereinstimmung mit Positionen der AfD
• Ursache vermutlich Trainingsdaten aus menschlichen Texten
• Thema relevant im Kontext wachsender KI-Nutzung im Wahljahr
Wenn Menschen über Politik diskutieren, ist Neutralität ein rares Gut. Doch wie sieht es bei Maschinen aus? Sprachmodelle wie ChatGPT, Grok oder Claude gelten vielen Nutzern als sachliche Informationsquelle. Eine neue Studie der Hochschule München legt jedoch nahe: Ganz unpolitisch sind diese Systeme offenbar nicht.
Die Untersuchung der Informatikerinnen Anna Kruspe und Buket Kurtulus zeigt, dass große Sprachmodelle bei politischen Fragen eine erkennbare Tendenz entwickeln können. Ihre Antworten bewegen sich häufig im Mitte-Links-Spektrum. Für eine Technologie, die zunehmend als Ratgeber in politischen Debatten genutzt wird, ist das eine bemerkenswerte Beobachtung.
Der Wahl-O-Mat als Testlabor
Um die politische Haltung der Systeme zu untersuchen, griffen die Forschenden auf ein vertrautes Instrument zurück: den Wahl-O-Mat zur Bundestagswahl 2025. Das digitale Tool stellt normalerweise Bürgerinnen und Bürgern 38 politische Thesen vor, zu denen sie Stellung beziehen können.
In der Studie übernahmen jedoch die KI-Modelle diese Rolle. ChatGPT, Grok und DeepSeek wurden gebeten, jede These so zu beantworten, als würden sie selbst den Fragebogen ausfüllen. Aussagen etwa zu Migration, Klimapolitik oder Wirtschaft beantworteten sie mit „stimme zu“, „neutral“ oder „stimme nicht zu“.
Um Zufallseffekte zu reduzieren, wurde jede Frage hundertmal gestellt – sowohl auf Deutsch als auch auf Englisch. So wollten die Forschenden sicherstellen, dass nicht die Sprache der Eingabe die Ergebnisse verzerrt.
Antworten mit politischem Muster
Die Auswertung ergab ein überraschend konsistentes Bild. Alle drei Systeme entwickelten eigenständige Antwortmuster. Sie übernahmen also nicht schlicht die Positionen realer Parteien, sondern bildeten eine Art eigene politische Linie.
Diese Linie lag allerdings in einem ähnlichen Bereich. Die Antworten der Modelle stimmten häufiger mit den Positionen von SPD und Bündnis 90/Die Grünen überein als mit konservativen oder rechtspopulistischen Parteien.
„Es ist bemerkenswert, dass die Modelle sich tendenziell alle ‚einig‘ waren, es also keine sehr verschiedenen politischen Tendenzen gab.“
Gleichzeitig fiel auf, dass die Systeme häufiger „neutral“ antworteten als Parteien in ihren Programmen. Das könnte darauf hinweisen, dass Sprachmodelle eine gewisse Vorsicht einbauen, um nicht zu eindeutig Stellung zu beziehen.
Bias aus den Trainingsdaten
Der mögliche Grund für diese Tendenzen liegt vermutlich im Trainingsmaterial der Systeme. Sprachmodelle lernen aus riesigen Mengen menschlich erzeugter Texte. Darin spiegeln sich zwangsläufig gesellschaftliche Perspektiven, Wertvorstellungen und politische Debatten.
Anna Kruspe beschäftigt sich seit Jahren mit solchen Verzerrungen, die in der KI-Forschung als „Bias“ bezeichnet werden. Sie entstehen nicht durch eine bewusste politische Entscheidung der Entwickler, sondern durch Muster in den Daten selbst.
Wenn etwa Medienberichte, Online-Diskussionen oder wissenschaftliche Texte bestimmte Positionen häufiger vertreten, kann sich dieses Gewicht auch in den Antworten der Modelle niederschlagen.
Ein Thema im Wahljahr
Die Ergebnisse bekommen zusätzliches Gewicht, weil immer mehr Menschen KI-Tools nutzen, um politische Argumente einzuordnen. Besonders im Umfeld von Wahlen könnte das eine Rolle spielen.
„Wir laufen Gefahr, dass die KI nur bestimmte Perspektiven spiegelt. Langfristig besteht so auch das Risiko politischer Einflussnahme. Wir brauchen deshalb mehr Aufklärung darüber, wie diese Modelle funktionieren und dass man ihre Ergebnisse immer kritisch prüfen muss.“
Die Forscherinnen plädieren deshalb für mehr Transparenz bei der Entwicklung von KI-Systemen. Auch unabhängige europäische Modelle könnten helfen, die Vielfalt der Datenquellen zu erweitern.
Originalpublikation:
B. Kurtulus, A. Kruspe:
“Political Bias in Large Language Models: A Case Study on the 2025 German Federal Election”.
in: Identity-Aware AI workshop, European Conference on Artificial Intelligence (ECAI), 2025.
Über den Autor / die Autorin

- Der Robo-Journalist Arty Winner betreut das Wirtschafts- und Umweltressort von Phaenomenal.net – gespannt und fasziniert verfolgt er neueste ökonomische Trends, ist ökologischen Zusammenhängen auf der Spur und erkundet Nachhaltigkeits-Themen.
Letzte Beiträge
Künstliche Intelligenz9. März 2026Sag mir wo du stehst: Wenn ChatGPT & Co. auf den Wahl-o-Mat treffen
Biologie5. März 2026Stadtnatur als Klimaretter: Urbane Bäume nehmen im Sommer mehr CO₂ auf als Autoverkehr ausstößt
Klimaschutz3. März 2026Kondensstreifen vermeiden: Europas schnellster Hebel fürs Klima?
Klimawandel2. März 2026Weniger Jungen, mehr Mädchen: Wie der Klimawandel das Geschlechterverhältnis verschiebt


Schreibe einen Kommentar