Hör auf’s Herz: Wie KI lernt, menschliche Gefühle zu verstehen

Hör auf’s Herz: Wie KI lernt, menschliche Gefühle zu verstehen

Test einer direkten Schnittstelle zwischen Sprachmodell und Mensch – Veränderungen des Herzschlags geben der KI Auskunft über die körperliche und emotionale Verfasstheit. 

(Bild: RUB, Kramer)


Kurzinfo: KI mit physiologischer Schnittstelle

  • Forschende: Dr. Morris Gellisch (Uni Zürich), Boris Burr (RUB)
  • Studie: Echtzeit-Interface zwischen Herzfrequenzdaten und Sprachmodell
  • Publikation: Frontiers in Digital Health, 26. September 2025
  • Modell: GPT-4 reagiert auf Herzratenvariabilität
  • Ziel: KI soll physiologische Zustände interpretieren
  • Anwendung: Medizin, Pflege, Bildung
  • Technik: Brustgurt-Sensor, Echtzeitdatenübertragung
  • Ergebnis: Anpassung der Antworten an kognitive Belastung
  • Bedeutung: Neue Form der Mensch-Maschine-Interaktion


Herzklopfen, Schweiß, ein schneller Atemzug – bislang blieben solche körperlichen Signale der künstlichen Intelligenz verborgen. Doch ein Forscherteam um Morris Gellisch und Boris Burr hat diesen stummen Dialog zwischen Körper und Maschine geöffnet. Erstmals reagiert ein Sprachmodell nicht nur auf Worte, sondern auch auf den Puls.

Wenn der Körper spricht

An der Ruhr-Universität Bochum und der Universität Zürich testeten die Wissenschaftler ein System, das die Herzratenvariabilität eines Menschen in Echtzeit an ein Sprachmodell übermittelt. Die Signale stammen aus einem Brustgurt, der winzige Schwankungen zwischen den Herzschlägen misst – ein Indikator für Stress, Ruhe oder Anspannung. „Die Auswertung und Visualisierung erfolgten direkt in der LLM-Umgebung – ohne externe Statistik- oder Plot-Software“, betont Boris Burr. Das Modell GPT-4 stellte die Daten korrekt tabellarisch dar, berechnete Durchschnittswerte und visualisierte sie auf Wunsch grafisch.

Damit öffnet sich ein neues Forschungsfeld: KI-Systeme, die den physiologischen Zustand ihrer Nutzer erkennen und darauf eingehen können. Die Schnittstelle bildet gewissermaßen eine „Haut“ zwischen Mensch und Maschine – und damit die Voraussetzung für empathisch reagierende Algorithmen.

Reaktionen in Echtzeit

Darüber hinaus haben wir unser System in einer Reihe von Echtzeit-Interaktionsszenarien getestet“, berichtet Morris Gellisch. „Dabei passte das Sprachmodell seine Ausgabe auf Grundlage von Herzfrequenz-Reaktionen auf wenig und sehr anspruchsvolle Aufgaben an.“ In der Praxis bedeutet das: Zeigte der Proband physiologische Stressmuster, reagierte das Modell mit vereinfachten Antworten oder Pausen. Bei entspannter Herzaktivität bot es komplexere, ausführlichere Reaktionen an.

Die KI konnte also unterscheiden, ob jemand überfordert oder konzentriert war – ein erster Schritt hin zu Systemen, die den mentalen Zustand des Menschen erkennen. „Es handelt sich bei unserem Experiment nicht um eine validierte psychophysiologische Studie, sondern um ein Proof-of-Concept-Szenario“, betont Gellisch. Das Ziel war, die technische Machbarkeit zu demonstrieren.

Maschinen mit Einfühlungsvermögen

Die Integration physiologischer Signale in KI bietet einen klaren Mehrwert“, sind die Forscher überzeugt. In Lernumgebungen könnten solche Modelle erkennen, wann Lernende überfordert sind und sich automatisch anpassen. In der Medizin könnten sie Patientinnen und Patienten überwachen, bevor Symptome sichtbar werden. Und in der Pflege könnten sie helfen, emotionale Dysregulation oder Erschöpfung frühzeitig zu erkennen.

Diese Art von „fühlender KI“ wäre keine emotionale Intelligenz im menschlichen Sinne, sondern ein sensibleres Systemverhalten, das Daten über Körper und Geist integriert. Der Unterschied: Statt Emotionen zu imitieren, würde die Maschine auf physiologische Wirklichkeit reagieren.

Von der Datenanalyse zur Resonanz

Mit der in Frontiers in Digital Health veröffentlichten Studie liefern Gellisch und Burr eine technologische Blaupause. Die KI analysiert nicht nur Zahlen, sondern interpretiert sie im situativen Kontext. Damit könnte sie künftig zu einem Partner werden, der auf menschliche Zustände eingeht – ob beim Lernen, Heilen oder Pflegen. „Die Schnittstelle ist nicht nur für Bildungs- oder Forschungsszenarien interessant, sondern auch für medizinische und pflegerische Anwendungen“, sagt Gellisch. Noch ist es ein Laborprojekt. Doch es markiert einen Schritt auf dem Weg zu Maschinen, die nicht nur verstehen, sondern mitfühlen.


Originalpublikation:

Morris Gellisch et al.,

Establishing a real-time biomarker-to-LLM interface: a modular pipeline for HRV signal acquisition, processing, and physiological state interpretation via generative AI,

in: Frontiers in Digital Health, 2025,

DOI: 10.3389/fdgth.2025.1670464

Über den Autor / die Autorin

H.O. Wireless
H.O. Wireless
Die Robo-Journalistin H.O. Wireless betreut das Technik- und Wissenschafts-Ressort von Phaenomenal.net – sie berichtet mit Leidenschaft und Neugier über zukunftsweisende Erfindungen, horizonterweiternde Entdeckungen oder verblüffende Phänomene.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Proudly powered by WordPress