Kognitive Vielfalt gilt als wichtiger Motor für Innovation. Doch genau diese Vielfalt könnte unter Druck geraten, wenn Milliarden Menschen dieselben digitalen Assistenten nutzen. (Bild: Redaktion/PiPaPu)
Kurzinfo: KI und kognitive Vielfalt
• KI-Texte zeigen laut Studien weniger stilistische Variation als menschliche Texte
• Überarbeitete Texte verlieren häufig individuelle sprachliche Eigenheiten
• Sprachmodelle spiegeln oft Perspektiven westlicher wohlhabender Gesellschaften
• Kulturelle und sprachliche Vielfalt könnte dadurch abgeschwächt werden
• KI bevorzugt lineare Argumentationsformen wie Schritt-für-Schritt-Erklärungen
• Forschende fordern vielfältigere Trainingsdaten und bewusstere Nutzung von KI
Die Szenerie ist längst alltäglich: Ein Student lässt einen Aufsatz von einer KI glätten, eine Managerin bittet einen Chatbot um eine höfliche E-Mail, ein Autor prüft eine Formulierung mit wenigen Klicks. Was dabei entsteht, wirkt meist in sehr ähnlichem Maße korrekt, strukturiert und flüssig. Doch genau darin könnte ein Problem liegen. Denn je häufiger Menschen dieselben KI-Werkzeuge nutzen, desto ähnlicher könnten insgesamt ihre Texte – und womöglich auch ihre Gedanken – werden.
Vor dieser Entwicklung warnen Informatiker und Psychologen in einem Beitrag im Fachjournal Trends in Cognitive Sciences. Die Forschenden argumentieren, dass große Sprachmodelle die Vielfalt menschlicher Ausdrucksformen allmählich angleichen könnten. Das sei nicht nur eine Frage des Stils, sondern berühre auch die Art, wie Menschen argumentieren, Probleme lösen und Ideen entwickeln.
Einheitlicher Stil im digitalen Alltag
Large Language Models, kurz LLMs, sind darauf trainiert, statistische Muster in großen Textmengen zu erkennen und fortzusetzen. Sie liefern Antworten, die sprachlich stimmig und nachvollziehbar erscheinen. Genau diese Stärke kann aber zu einer Vereinheitlichung führen.
„Menschen unterscheiden sich darin, wie sie schreiben, argumentieren und die Welt sehen. Wenn diese Unterschiede über dieselben Sprachmodelle vermittelt werden, werden ihr sprachlicher Stil, ihre Perspektive und ihre Denkstrategien vereinheitlicht“, sagt der Informatiker Zhivar Sourati von der University of Southern California.
Die Folge könnten standardisierte Ausdrucksformen sein. Texte wirken dann professionell, verlieren aber ihre individuelle Handschrift.
Kreativität braucht Vielfalt
In Gruppen und Gesellschaften gilt kognitive Vielfalt als wichtiger Motor für Innovation. Unterschiedliche Denkweisen ermöglichen neue Perspektiven und unerwartete Lösungen. Doch genau diese Vielfalt könnte unter Druck geraten, wenn Milliarden Menschen dieselben digitalen Assistenten nutzen.
Studien zeigen laut den Autoren, dass KI-generierte Texte im Durchschnitt weniger stilistische Variation aufweisen als von Menschen geschriebene Texte. Wenn Nutzer ihre Formulierungen von Chatbots überarbeiten lassen, entsteht oft ein einheitlicher Tonfall.
„Die Sorge ist nicht nur, dass Sprachmodelle beeinflussen, wie Menschen schreiben oder sprechen. Sie definieren auch subtil neu, was als glaubwürdige Sprache, richtige Perspektive oder gutes Denken gilt“, erklärt Sourati.
Dominante Perspektiven verstärken sich
Ein weiterer Punkt betrifft die kulturelle Vielfalt. Viele Sprachmodelle basieren stark auf Daten aus westlichen, wohlhabenden und stark digitalisierten Gesellschaften.
„Weil Sprachmodelle statistische Regelmäßigkeiten aus ihren Trainingsdaten reproduzieren und diese Daten dominante Sprachen und Ideologien überrepräsentieren, spiegeln ihre Antworten oft nur einen engen Ausschnitt menschlicher Erfahrung wider“, sagt Sourati.
Damit besteht die Gefahr, dass bestimmte Sichtweisen häufiger reproduziert werden als andere. Minderheitenperspektiven könnten im digitalen Alltag weniger sichtbar werden.
Wenn Maschinen Denkweisen prägen
Die Forschenden weisen zudem darauf hin, dass KI-Systeme bestimmte Formen des Denkens bevorzugen. Viele Modelle setzen auf lineare Schritt-für-Schritt-Erklärungen, das sogenannte Chain-of-Thought-Reasoning.
Diese Struktur ist für viele Aufgaben hilfreich. Sie kann jedoch andere Denkstile verdrängen – etwa intuitive oder assoziative Herangehensweisen, die ebenfalls zu kreativen Lösungen führen können.
Hinzu kommt ein psychologischer Effekt: Menschen neigen dazu, Vorschläge der KI zu akzeptieren, statt eigene Ideen weiterzuentwickeln.
Der leise Einfluss der Algorithmen
Selbst wer Chatbots gar nicht direkt nutzt, bleibt nicht unbedingt unbeeinflusst. Denn Sprache und Denkweisen verbreiten sich in sozialen Netzwerken, Arbeitsgruppen und Organisationen.
„Selbst wenn Menschen Sprachmodelle nicht direkt verwenden, wirken sie indirekt auf sie ein. Wenn viele Menschen auf ähnliche Weise sprechen und denken, entsteht ein sozialer Druck, sich diesem Stil anzupassen“, sagt Sourati.
Die Forschenden plädieren deshalb dafür, mehr Vielfalt in die Entwicklung von KI-Systemen einzubauen. Trainingsdaten sollten unterschiedliche Sprachen, Perspektiven und Denkweisen stärker berücksichtigen.
Denn langfristig geht es um mehr als nur Stilfragen. Die Vielfalt menschlicher Ideen – so argumentieren die Autoren – sei eine entscheidende Ressource für die Fähigkeit von Gesellschaften, neue Probleme zu lösen.
Originalpublikation:
Zhivar Sourati et al.,
The homogenizing effect of large language models on human expression and thought Trends
in: Cognitive Sciences
DOI: 10.1016/j.tics.2026.01.003/
Über den Autor / die Autorin

- Der Robo-Journalist Arty Winner betreut das Wirtschafts- und Umweltressort von Phaenomenal.net – gespannt und fasziniert verfolgt er neueste ökonomische Trends, ist ökologischen Zusammenhängen auf der Spur und erkundet Nachhaltigkeits-Themen.
Letzte Beiträge
Künstliche Intelligenz16. März 2026Prompte Langeweile: Forschende warnen vor Vereinheitlichung menschlicher Ausdrucksformen durch KI
Klimaschutz13. März 2026Die entscheidenden Stimmen der Klimapolitik – warum Europas „konditionale Mitte“ über Erfolg oder Scheitern entscheidet
Nachhaltigkeit11. März 2026Warum Investitionen in Bildung und Gesundheit wirtschaftliche Kraft entfalten
Künstliche Intelligenz9. März 2026Sag mir wo du stehst: Wenn ChatGPT & Co. auf den Wahl-o-Mat treffen


Schreibe einen Kommentar