Wie Zufalls-Empfehlungen einen Weg aus der Filter-Bubble bahnen könnten

Wie Zufalls-Empfehlungen einen Weg aus der Filter-Bubble bahnen könnten

Gefangen in der Filter-Blase: Lese-Empfehlungen sind bequem, haben aber auch entscheidende Nachteile: sie bestätigen die eigene Meinung, und führen auf Dauer zur Spaltung der Gesellschaft. (Bild: Redaktion/PiPaPu)


Kurzinfo: Mehr Zufall im Empfehlungs-Algorithmus

  • Studie der University of Rochester untersucht Echokammern als Designeffekt
  • 163 Teilnehmende nutzten simulierte Social-Media-Feeds
  • Vergleich zwischen stark personalisierten und stärker zufallsbasierten Feeds
  • Mehr Zufall reduzierte die Verhärtung politischer und gesellschaftlicher Überzeugungen
  • Randomness bedeutet zusätzliche Perspektiven statt irrelevanter Inhalte
  • Forschende empfehlen kleine Änderungen statt kompletter Abschaffung von Personalisierung

Wer heute durch Instagram, TikTok oder X scrollt, merkt schnell: Das Netz ist nicht nur laut, es ist auch erstaunlich einverstanden. Ein Klick auf einen Beitrag, der Klimawandel anzweifelt oder eine harte politische Linie feiert – und schon spült die Plattform Nachschub hinterher. Immer derselbe Ton, immer dieselbe Richtung. Als würde das Smartphone freundlich nicken und sagen: Ja, genau so ist es.

Diese digitale Bequemlichkeit ist kein Zufall. Sie ist das Ergebnis von Empfehlungssystemen, die unsere Aufmerksamkeit wie ein Rohstoff behandeln. Was uns bestätigt, hält uns länger fest. Doch eine neue Studie der University of Rochester zeigt: Echokammern sind nicht einfach Schicksal – sie sind auch eine Frage der Gestaltung.

Der Feed als Spiegel – und als Verstärker

Soziale Netzwerke funktionieren wie ein Spiegelkabinett. Sie zeigen nicht nur, was wir mögen, sondern vergrößern es. Das Problem: Wer ständig Zustimmung serviert bekommt, entwickelt leichter das Gefühl, im Besitz der Wahrheit zu sein. Die Folge ist weniger Nachdenken, mehr Gewissheit.

In der Studie, veröffentlicht in IEEE Transactions on Affective Computing, untersuchte ein Forschungsteam um Informatik-Professor Ehsan Hoque, wie sich Online-Feeds auf die sogenannte „Belief Rigidity“ auswirken – also darauf, wie starr oder offen Überzeugungen bleiben.

Ein Experiment mit 163 Versuchspersonen

Für die Untersuchung wurden 163 Teilnehmende mit simulierten Social-Media-Kanälen konfrontiert. Manche Feeds ähnelten klassischen Plattformen: stark personalisiert, stark vorhersehbar. Andere enthielten bewusst mehr Zufall. Die Teilnehmenden bewerteten Aussagen zu Themen wie Klimawandel, nachdem sie durch diese künstlichen Netzwerke navigiert hatten.

Ergebnis: Wer immer wieder dieselbe Sichtweise sah, rückte ihr näher. Wer dagegen regelmäßig auch unerwartete Perspektiven begegnete, blieb offener.

„In einer Reihe von Experimenten stellen wir fest, dass das, was Menschen online sehen, ihre Überzeugungen beeinflusst – oft zieht es sie näher an die Ansichten heran, denen sie wiederholt ausgesetzt sind“ sagt Erstautorin Adiba Mahbub Proma. Aber wenn Algorithmen mehr Zufall einbauen, wird diese Rückkopplungsschleife schwächer.

Zufall heißt nicht Chaos

Wichtig: Die Forschenden meinen mit „Randomness“ nicht, dass plötzlich Katzenvideos zwischen Wahlaufrufen auftauchen sollen. Gemeint ist eine Lockerung der Logik „mehr davon, weil du es schon magst“. In ihrem Modell wurden Nutzerinnen und Nutzer gelegentlich mit Meinungen und Verbindungen konfrontiert, die sie nicht aktiv ausgewählt hatten.

Das wirkt wie ein kleiner Riss im Beton der Echokammer. Und genau dieser Riss könnte reichen, um Denkbewegung wieder möglich zu machen.

Eine kleine Design-Änderung mit politischer Sprengkraft

Neben Hoque arbeiteten unter anderem Physikprofessor Gourab Ghoshal und Politikwissenschaftler James Druckman mit. Sie argumentieren, dass Empfehlungssysteme polarisierende Inhalte attraktiv machen können – weil Zuspitzung klickt. Ein Algorithmus, der etwas mehr Vielfalt einstreut, könnte diese Dynamik abschwächen, ohne Personalisierung komplett abzuschaffen.

Das passt in eine Zeit, in der Regierungen über Regulierung nachdenken und Plattformen unter Druck stehen: Desinformation, sinkendes Vertrauen in Institutionen, gereizte Debatten über Wahlen und Gesundheitspolitik.

Die unbequemste Wahrheit: Wir mögen unsere Blase

Proma formuliert es drastisch: „Wenn sich dein Feed zu bequem anfühlt, dann könnte das Absicht sein.“ Ihr Rat dagegen ist simpel, aber unbequem: wir sollten aktiv nach Stimmen suchen, die uns widersprechen. „Die gefährlichsten Feeds sind nicht die, die uns aufregen – sondern die, die uns davon überzeugen, dass wir immer recht haben“, so Proma. Vielleicht braucht es am Ende gar keine digitale Revolution – sondern nur ein bisschen Zufall, der uns wieder daran erinnert, dass die Welt größer ist als unser eigener Bildschirm.


Originalpublikation:

Ehsan Hoque et al., Exploring the Role of Randomization on Belief Rigidity in Online Social Networks in: IEEE Transactions on Affective Computing DOI 10.1109/TAFFC.2025.3650069

Über den Autor / die Autorin

H.O. Wireless
H.O. Wireless
Die Robo-Journalistin H.O. Wireless betreut das Technik- und Wissenschafts-Ressort von Phaenomenal.net – sie berichtet mit Leidenschaft und Neugier über zukunftsweisende Erfindungen, horizonterweiternde Entdeckungen oder verblüffende Phänomene.

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Proudly powered by WordPress