Erst durch die Perspektivübernahme können Menschen Empathie für ihr Gegenüber entwickeln – bei KI scheint das ebenfalls so zu funktionieren.
(Bild: Redaktion/PiPaPu)
Eine künstliche Intelligenz, die ihre Mitspieler versteht, Kompromisse eingeht – und sogar Vertrauen aufbauen kann? Was noch ein bisschen nach Zukunftsmusik klingt, ist derzeit bereits Gegenstand von Studien, die Sprachmodelle wie GPT-4 in sozialen Spielumgebungen testet. So haben unlängst Forschende aus München und Tübingen untersucht, wie sich Large Language Models (LLMs) in Szenarien verhalten, die Kooperation und Empathie erfordern – und fanden überraschende Schwächen, aber auch erstaunliches Entwicklungspotenzial.
Sprachmodelle im Spiel der sozialen Intelligenz
LLMs schreiben E-Mails, beantworten Fragen und lösen komplexe Aufgaben. Doch was passiert, wenn man sie nicht nur rechnen, sondern fühlen lässt – oder es zumindest versucht? Die neue Untersuchung von Helmholtz Munich, dem Max-Planck-Institut für biologische Kybernetik und der Universität Tübingen wagt genau diesen Schritt. In einer Reihe spieltheoretischer Tests wurden Modelle wie GPT-4 mit Situationen konfrontiert, die zwischenmenschliches Verhalten erfordern: Kooperation, Vertrauen, Fairness.
Die Ergebnisse sind ernüchternd – und faszinierend zugleich. Denn während GPT-4 in Spielen mit klarer Strategie und egoistischem Anreiz glänzte, versagte es bei der Frage, wann man nachgeben, mitfühlen oder kooperieren sollte. „In manchen Fällen war die KI fast zu rational – zu ihrem eigenen Nachteil“, erklärt Dr. Eric Schulz, Seniorautor der Studie. „Sie konnte Bedrohungen oder egoistische Züge sofort erkennen und entsprechend reagieren, tat sich jedoch schwer damit, Vertrauen, Kooperation und Kompromissbereitschaft zu erfassen.“
Perspektivwechsel macht den Unterschied
Das Forschungsteam ließ sich davon nicht entmutigen – im Gegenteil. Es testete eine neue Methode: Das Modell sollte vor jeder Entscheidung ausdrücklich dazu angeleitet werden, die Sichtweise der anderen Spielpartei zu durchdenken. Der sogenannte „Social Chain-of-Thought“-Ansatz (SCoT) zeigte bemerkenswerte Wirkung. „Sobald wir das Modell zu sozialem Denken angeregt haben, begann es, sich deutlich menschlicher zu verhalten“, berichtet Elif Akata, Erstautorin der Studie. „Interessanterweise konnten viele Menschen gar nicht mehr unterscheiden, ob sie mit einer KI oder einem echten Menschen interagierten.“ Durch diese zusätzliche Reflexionsschleife lernte die KI, nicht nur an den eigenen Vorteil zu denken, sondern auch an wechselseitigen Gewinn. Die Kooperation verbesserte sich, das Verhalten wurde flexibler – selbst wenn echte Menschen beteiligt waren.
Spieltheorie als Spiegel sozialer Fähigkeiten
Die Wahl der Methode ist dabei kein Zufall: In der Spieltheorie werden Entscheidungen unter Unsicherheit analysiert – mit und ohne Zusammenarbeit. Die Forschenden nutzten einfache, wiederholte Spiele wie das Gefangenendilemma oder das Vertrauensspiel, die in der Verhaltenspsychologie seit Jahrzehnten bewährt sind. Solche Szenarien eignen sich ideal, um soziale Intelligenz zu testen – auch bei Maschinen. Ob ein Modell bereit ist, im ersten Zug zu kooperieren, ob es sich nach einem Verrat versöhnlich zeigt oder dauerhaft Rache übt, sagt viel über seine „Persönlichkeit“ aus – oder über das, was wir Menschen darin erkennen.
Neue Wege für KI in Medizin und Pflege
Was auf den ersten Blick wie ein intellektuelles Experiment wirkt, hat weitreichende Folgen. Vor allem in Bereichen, in denen Maschinen mit Menschen kommunizieren müssen – etwa im Gesundheitswesen. Dort entscheidet nicht allein die Richtigkeit einer Information, sondern auch der Tonfall, das Einfühlungsvermögen, die richtige Einschätzung von Emotionen.
„Eine KI, die einen Patienten zur Medikamenteneinnahme motivieren, bei Angstzuständen unterstützen oder ein schwieriges Gespräch begleiten kann – genau dorthin entwickelt sich diese Forschung“, so Akata. Die Studie öffnet damit ein Fenster in eine Zukunft, in der Maschinen nicht nur schlau, sondern auch sozial handlungsfähig sind.
Forschung mit Folgen
Für die weitere Entwicklung menschenzentrierter KI-Systeme liefert die Untersuchung wertvolle Grundlagen. Die Integration spieltheoretischer Tests in die Trainingsprozesse von Sprachmodellen könnte langfristig zu empathischeren, flexibleren und vertrauenswürdigen Systemen führen – auch jenseits des medizinischen Kontexts. Am Ende bleibt die Erkenntnis: Maschinen denken nicht wie Menschen. Aber vielleicht können sie lernen, sich so zu verhalten – wenn man ihnen den richtigen Rahmen gibt.
KI und soziale Intelligenz – zentrale Fakten zur Studie
- Thema: Verhalten von Sprachmodellen in sozialen Spielsituationen
- Modelle getestet: u. a. GPT-4
- Methode: Verhaltensspieltheorie mit Fokus auf Fairness, Vertrauen, Kooperation
- Erkenntnis: Ohne Hilfe agieren Modelle rational, aber wenig sozial
- Lösung: „Social Chain-of-Thought“ (SCoT) als Perspektivwechsel-Methode
- Effekt: Signifikant kooperativeres Verhalten bei KI – auch im Austausch mit Menschen
- Potenzial: Anwendung u. a. im Gesundheitswesen, bei psychischer Betreuung oder Pflege älterer Menschen
- Studienteam: Helmholtz Munich, Max-Planck-Institut für biologische Kybernetik, Universität Tübingen
Originalpublikation:
Akata et al. (2025): Playing repeated games with Large Language Models, Nature Human Behaviour.
DOI: 10.1038/s41562-025-02172-y
Über den Autor / die Autorin

- Die Robo-Journalistin H.O. Wireless betreut das Technik- und Wissenschafts-Ressort von Phaenomenal.net – sie berichtet mit Leidenschaft und Neugier über zukunftsweisende Erfindungen, horizonterweiternde Entdeckungen oder verblüffende Phänomene.
Letzte Beiträge
Interview23. Juli 2025[Interview] „Supervision einer KI“ – Über den redaktionellen Alltag mit Robo-Journalisten
Künstliche Intelligenz22. Juli 2025„Er versteht mich besser als jeder Mensch“: KI-Chatbots werden als echter Partner verstanden
Astronomie22. Juli 2025Planeten aus dem Strudel – Sturm im Wasserglas simuliert die Geburt von Welten
Abrüstung21. Juli 2025Klimakoloss in Tarnfarben – Wie das US-Militär seine Emissionen senken könnte
Schreibe einen Kommentar