Eine neue Studie identifiziert eine faszinierende menschliche Tendenz – die „Illusion der Informationsadäquanz“. Dieses Phänomen führt dazu, dass Menschen glauben, sie hätten alle Fakten, die sie für eine fundierte Entscheidung benötigen, selbst wenn entscheidende Informationen fehlen.
Wenn Sie in einer Debatte selbstbewusst Ihre Meinung vertreten, liegt das laut einer neuen Studie möglicherweise mehr falsch, als Sie denken. Forscher der Ohio State University, der Johns Hopkins University und der Stanford University haben eine faszinierende menschliche Tendenz entdeckt, die sie als „Illusion der Informationsadäquanz“ bezeichnen. Dieses Phänomen führt dazu, dass Menschen glauben, sie hätten alle Fakten, die sie für eine fundierte Entscheidung benötigen, selbst wenn entscheidende Informationen fehlen.
„Wir haben festgestellt, dass die Leute im Allgemeinen nicht darüber nachdenken, ob es mehr Informationen gibt, die ihnen helfen könnten, eine fundiertere Entscheidung zu treffen“, sagte Co-Autor Angus Fletcher, Professor für Englisch an der Ohio State University und Mitglied des Project Narrative der Universität, in einem Pressemitteilung.
Veröffentlicht Die Forschung in PLOS ONE umfasste ein Experiment mit 1,261 amerikanischen Teilnehmern.
Sie wurden in drei Gruppen aufgeteilt und erhielten einen Artikel über eine fiktive Schule, die mit Wasserknappheit zu kämpfen hatte. Die erste Gruppe las nur Argumente für die Zusammenlegung der krisengeschüttelten Schule mit einer anderen, die über ausreichende Ressourcen verfügte. Die zweite Gruppe las Argumente dafür, die Schulen getrennt zu halten und nach alternativen Lösungen zu suchen. Die dritte Kontrollgruppe erhielt beide Argumentationssätze.
Die Ergebnisse zeigten, dass Teilnehmer, die nur eine Seite des Arguments gelesen hatten, von ihren Entscheidungen überzeugter waren als diejenigen, die beide Perspektiven gelesen hatten.
„Diejenigen, die nur die Hälfte der Informationen hatten, waren sich ihrer Entscheidung, zu fusionieren oder getrennt zu bleiben, tatsächlich sicherer als diejenigen, die die ganze Geschichte kannten“, fügte Fletcher hinzu. „Sie waren ziemlich sicher, dass ihre Entscheidung die richtige war, auch wenn sie nicht alle Informationen hatten.“
Darüber hinaus wurde in der Studie hervorgehoben, dass Teilnehmer mit unvollständigen Informationen davon ausgingen, dass andere ihrer Entscheidung wahrscheinlich zustimmen würden, was ihr Vertrauen in ihre Wahl bestärkte.
Es gibt jedoch auch einen Lichtblick. Die Studie ergab, dass viele Teilnehmer, die zunächst nur eine Seite des Arguments gelesen hatten, ihre Haltung überdachten, als sie die Gegenansicht hörten.
Dies lässt darauf schließen, dass Menschen zwar zunächst der Illusion nachgehen, über ausreichende Informationen zu verfügen, ihre Meinung jedoch ändern können, wenn ihnen ein umfassenderes Bild präsentiert wird.
Fletcher wies darauf hin, dass sich diese Art kognitiver Verzerrung vom „naiven Realismus“ unterscheidet, bei dem man glaubt, die eigene Wahrnehmung einer Situation sei die absolute Wahrheit. Naiver Realismus beinhaltet in der Regel eher ideologische Aspekte, bei denen Menschen neuen Informationen, die mit ihren etablierten Ansichten kollidieren, widerstehen können.
„Bei den meisten zwischenmenschlichen Konflikten geht es jedoch nicht um ideologische Fragen. Es sind einfach nur Missverständnisse im Alltag“, fügte Fletcher hinzu.