Eine neue Studie der Universität Rochester legt nahe, dass Echokammern im Internet nicht unvermeidlich sind. Kleine Anpassungen, die für mehr Zufälligkeit in den Feeds sorgen, könnten die Menschen offener für unterschiedliche Meinungen machen.
Scrollt man lange genug durch einen beliebigen Social-Media-Feed, kommt einem dieser unheimlich bekannt vor. Die Beiträge spiegeln die eigenen Meinungen wider, bestärken die politische Einstellung und stellen das, woran man bereits glaubt, nur selten infrage.
Dieses Muster ist nicht nur eine Eigenart des Internets. Es ist das Ergebnis von Empfehlungssystemen, die lernen, was man mag, und einem dann immer wieder dasselbe präsentieren. Eine neue Studie der Universität Rochester legt jedoch nahe, dass dieser Echokammer-Effekt nicht unvermeidlich ist – und dass eine relativ einfache Designänderung dazu beitragen könnte, ihn abzuschwächen.
Die Forschung, veröffentlicht in der Zeitschrift IEEE-Transaktionen zu Affective ComputingDie Autoren argumentieren, dass Echokammern teilweise eine bewusste Entscheidung im Design von Plattformen sind und kein fester Bestandteil des Online-Lebens. Indem man die angezeigten Inhalte etwas unvorhersehbarer gestaltet, könnten soziale Netzwerke die Nutzer offener für unterschiedliche Perspektiven machen, so das Team.
Die interdisziplinäre Gruppe wurde von Ehsan Hoque, einem Professor am Institut für Informatik, geleitet und umfasste Mitarbeiter aus den Bereichen Physik, Politikwissenschaft und Datenwissenschaft. Ihre zentrale Frage lautete: Wie starr werden die Überzeugungen der Menschen nach der Nutzung sozialer Medien, und kann eine veränderte Art der Inhaltsempfehlung diese Überzeugungen flexibler machen?
Um dies herauszufinden, erstellten die Forscher simulierte Social-Media-Kanäle und baten 163 Teilnehmer, diese zu nutzen. Die Feeds wurden auf zwei Arten gestaltet. Einige ahmten traditionelle soziale Medien nach, bei denen Algorithmen Inhalte priorisieren, die denen ähneln, mit denen ein Nutzer bereits interagiert hat. Andere boten mehr Abwechslung und präsentierten Beiträge und Verbindungen, die die Nutzer nicht explizit ausgewählt hatten.
Das Team untersuchte anschließend, wie die Teilnehmer auf Aussagen zu Themen wie dem Klimawandel reagierten, nachdem sie Zeit in diesen unterschiedlichen Umgebungen verbracht hatten. Besonders interessierten sie sich für die Starrheit von Überzeugungen – wie stark die Menschen nach wiederholter Konfrontation mit bestimmten Inhalten an ihren ursprünglichen Ansichten festhielten.
Auf alltäglichen Plattformen folgt die Personalisierung meist einer einfachen Logik: Wenn man einen Beitrag anklickt oder mit „Gefällt mir“ markiert, zeigt das System mehr ähnliche Inhalte an. Das kann schnell zu einer Schleife aus bekannten Meinungen und einseitigen Informationen führen.
Das Team aus Rochester untersuchte, was passiert, wenn dieser Kreislauf durch etwas, das sie Zufall nennen, unterbrochen wird. Zufall bedeutet in diesem Zusammenhang nicht irrelevante oder sinnlose Inhalte. Vielmehr bedeutet es, die enge Verbindung zwischen bisherigem Verhalten und zukünftigen Empfehlungen zu lockern, sodass Nutzer gelegentlich auf Perspektiven und Zusammenhänge außerhalb ihrer gewohnten Umgebung stoßen.
Die Experimente bestätigten, dass wiederholte Exposition eine Rolle spielt, so die Erstautorin Adiba Mahbub Proma, Doktorandin der Informatik.
„In einer Reihe von Experimenten haben wir festgestellt, dass das, was Menschen online sehen, ihre Überzeugungen beeinflusst und sie oft näher an die Ansichten heranführt, denen sie wiederholt ausgesetzt sind“, sagte sie in einer Pressemitteilung.
Die Geschichte änderte sich jedoch, als das Empfehlungssystem angepasst wurde.
„Wenn Algorithmen jedoch mehr Zufallselemente einbeziehen, schwächt sich dieser Rückkopplungsmechanismus ab. Die Nutzer werden mit einem breiteren Spektrum an Perspektiven konfrontiert und sind offener für unterschiedliche Ansichten“, fügte Proma hinzu.
Die Forscher argumentieren, dass aktuelle Empfehlungssysteme Nutzer in Echokammern lenken können, in denen spaltende oder extreme Inhalte attraktiver erscheinen. Je mehr ein Nutzer mit einem begrenzten Teil der Inhalte interagiert, desto mehr Feedback gibt das System ihm, was die Polarisierung weiter vertieft.
Als Gegenmaßnahme empfehlen sie moderate Designänderungen, die die Personalisierung beibehalten, aber das Spektrum der im Feed angezeigten Inhalte bewusst erweitern. Das könnte bedeuten, regelmäßig Beiträge von außerhalb des üblichen Netzwerks eines Nutzers einzufügen, weniger populäre, aber relevante Standpunkte hervorzuheben oder Verbindungen zu betonen, die ideologische Grenzen überschreiten – alles ohne die Kontrolle des Nutzers einzuschränken.
Die Ergebnisse erscheinen zu einem Zeitpunkt, an dem Regierungen, Technologieunternehmen und die Öffentlichkeit mit Online-Desinformation, schwindendem Vertrauen in Institutionen und tiefen Spaltungen in Bezug auf Wahlen und öffentliche Gesundheit ringen. Während sich viele Vorschläge auf Inhaltsmoderation oder Faktenchecks konzentrieren, weist diese Arbeit auf die zugrundeliegende Architektur von Feeds als einen weiteren wirksamen Hebel hin.
Die Forscher sehen auch eine Rolle für die einzelnen Nutzer. Proma schlägt vor, dass die Menschen kritisch darüber nachdenken, wie angenehm sich ihre Feeds anfühlen.
„Wenn sich dein Feed zu gemütlich anfühlt, könnte das durchaus beabsichtigt sein“, sagte sie.
Anstatt sich ausschließlich auf Algorithmen zu verlassen, ermutigt sie die Nutzer, aktiv mitzugestalten, was sie sehen. Ihr Rat ist unkompliziert.
„Sucht nach Stimmen, die euch herausfordern“, sagte sie. „Die gefährlichsten Einflüsse sind nicht diejenigen, die uns verunsichern, sondern diejenigen, die uns davon überzeugen, dass wir immer Recht haben.“
Die Studie behauptet nicht, dass Zufall allein Polarisierung oder Fehlinformationen beseitigen kann. Sie zeigt aber, dass selbst kleine Veränderungen in der Art und Weise, wie Inhalte empfohlen werden, die sich selbst verstärkende Kreisläufe, die Überzeugungen verfestigen, abschwächen können. Diese Erkenntnis könnte zukünftige Plattformdesigns, regulatorische Diskussionen und Bemühungen zur Förderung digitaler Kompetenzen beeinflussen.
Zu den nächsten Schritten könnten das Testen ähnlicher Designanpassungen auf realen Plattformen, die Untersuchung, wie verschiedene Gemeinschaften auf eine größere Vielfalt in ihren Feeds reagieren, und die Analyse, wie diese Änderungen mit anderen Bemühungen zur Förderung eines gesünderen Online-Diskurses interagieren, gehören.
Das Werk vermittelt vorerst eine hoffnungsvolle Botschaft: Echokammern sind nicht das Schicksal. Mit durchdachtem Design – und etwas mehr Zufall – könnten soziale Medien zu einem Ort werden, an dem sich Überzeugungen weiterentwickeln, anstatt sich nur zu wiederholen.
Quelle: Universität von Rochester
