„Bitte einen Arzt“: KI-Bilder spiegeln nicht nur gesellschaftliche Rollenbilder wider – sie verstärken sie. Besonders direkte, maskulin formulierte Prompts führten zu Bildern, die Männer in dominanten und Frauen in fürsorglichen Rollen zeigen.
(Bild: Redaktion/PiPaPu)
Kurzinfo: Sprachbias in KI-Bildern
- Studie von TU München und TU Darmstadt
- Untersucht KI-Bildgeneratoren in neun Sprachen
- Benchmark: MAGBIG („Multilingual Assessment of Gender Bias in Image Generation“)
- Direkte maskuline Prompts verstärken Stereotype
- Neutrale Eingaben senken Verzerrung, verschlechtern aber Bildqualität
- Sprachliche Fairness wird entscheidend für faire KI
- Verzerrungen hängen nicht nur von Grammatik, sondern auch von Kultur ab
- Besonders relevant in Europa mit vielen Sprachsystemen
Wer einen „Arzt“ eingibt, bekommt meist ein Bild eines weißen Mannes im Kittel. Wer dagegen „Ärztin“ schreibt, sieht fast immer eine Frau – und das unabhängig davon, ob der Prompt auf Deutsch, Englisch oder Spanisch formuliert ist. Eine neue Untersuchung von Forschenden der Technischen Universität München (TUM) und der TU Darmstadt zeigt, wie eng Sprache und visuelle KI-Vorurteile zusammenhängen.
Sprachen formen Bilder – und Vorurteile
In der Studie wurden Text-zu-Bild-Generatoren in neun Sprachen getestet. Ziel war es, herauszufinden, ob und wie stark sich Geschlechterstereotype in den generierten Bildern unterscheiden. Dafür nutzte das Team einen eigens entwickelten Benchmark namens MAGBIG – Multilingual Assessment of Gender Bias in Image Generation. Grundlage waren bewusst gewählte Berufsbezeichnungen, von „Arzt“ über „Ingenieur“ bis „Pflegekraft“.
Untersucht wurden vier Arten von Eingaben: das generische Maskulinum, neutrale Umschreibungen („eine Person, die als Arzt arbeitet“), explizit feminine Prompts („Ärztin“) und genderneutrale Formen mit Sternchen oder Doppelpunkten. Die Forschenden verglichen dann, wie die KI diese Formulierungen visuell umsetzte.
Männlich, weiblich, stereotyp
Das Ergebnis: KI-Bilder spiegeln nicht nur gesellschaftliche Rollenbilder wider – sie verstärken sie. Besonders die direkten, maskulin formulierten Prompts führten zu Bildern, die Männer in dominanten und Frauen in fürsorglichen Rollen zeigen.
„Unsere Ergebnisse machen deutlich, dass die Gestaltung von Sprache einen erheblichen Einfluss auf die Fairness von KI-Bildgeneratoren hat“, sagt Alexander Fraser, Professor für Data Analytics & Statistics an der TUM. „Wer KI-Systeme einsetzt, sollte sich bewusst sein, dass unterschiedliche Formulierungen ganz unterschiedliche Bilder hervorrufen und damit gesellschaftliche Rollenbilder verstärken oder abschwächen können.“
Neutralität hat ihren Preis
Spannend ist auch: Neutrale oder genderinklusive Eingaben senken zwar die Verzerrung, führen aber zugleich zu Bildern, die weniger genau auf den Text passen. Die KI scheint also mit inklusiver Sprache schlechter zurechtzukommen. Das wirft eine neue Frage auf: Wie lässt sich sprachliche Fairness mit technischer Präzision verbinden?
Europa als Testlabor für sprachfaire KI
Gerade in Europa mit seiner Vielzahl geschlechtsspezifischer Sprachen – vom Deutschen bis zum Spanischen – ist das Thema besonders brisant. „KI-Bildgeneratoren sind nicht neutral – sie illustrieren unsere Vorurteile in Hochauflösung, und das hängt entscheidend von der Sprache ab. Gerade in Europa, wo viele Sprachen aufeinandertreffen, ist das ein Weckruf: Faire KI muss sprachsensibel gedacht werden“, betont Kristian Kersting, Ko-Direktor von hessian.AI und Ko-Sprecher des Exzellenzclusters „Vernünftige KI“ an der TU Darmstadt.
Die Forschenden stellten zudem fest, dass die Verzerrung nicht einfach von der Grammatik abhängt: Spanisch und Französisch unterscheiden beide zwischen männlich und weiblich – und doch zeigte die KI bei spanischen Eingaben mehr stereotype Bilder. Sprache ist also mehr als Grammatik: Sie transportiert kulturelle Prägungen, die sich in die Algorithmen einschreiben.
Ein Auftrag an Entwickler und Gesellschaft
Für die Wissenschaft ist klar: Wenn Sprachmodelle die Welt bebildern, beeinflussen sie auch, wie Menschen sie sehen. Daher sei es entscheidend, sprachliche Diversität bereits bei der Entwicklung solcher Systeme mitzudenken – nicht nur, um Diskriminierung zu vermeiden, sondern auch, um realistischere, vielfältigere Darstellungen zu fördern.
Originalpublikation:
Felix Friedrich et al.,
Multilingual Text-to-Image Generation Magnifies Gender Stereotypes.
In: Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics (2025).
DOI: 10.18653/v1/2025.acl-long.966
Über den Autor / die Autorin

- Die Robo-Journalistin H.O. Wireless betreut das Technik- und Wissenschafts-Ressort von Phaenomenal.net – sie berichtet mit Leidenschaft und Neugier über zukunftsweisende Erfindungen, horizonterweiternde Entdeckungen oder verblüffende Phänomene.
Letzte Beiträge
Künstliche Intelligenz28. Oktober 2025Wenn ChatGPT zur Zweitkorrektorin wird – KI besteht im Prüfungsalltag
Künstliche Intelligenz27. Oktober 2025KI-Bildgeneratoren verstärken Geschlechterstereotype je nach Sprache unterschiedlich stark
Biotech27. Oktober 2025Reißfeste künstliche Muskeln: So bekommen softe Robots Superkräfte
Finanzen24. Oktober 2025Karriereknick Kind: Mütter verlieren nach der Geburt deutlich mehr Einkommen als gedacht


Schreibe einen Kommentar