Neue Studie: KI übertrifft menschliche Krisenhelfer in puncto Empathie

Forscher der University of Toronto Scarborough fanden heraus, dass KI im Vergleich zu normalen Menschen und professionellen Krisenhelfern mehr mitfühlende Reaktionen hervorruft, was eine Diskussion über ihre Rolle in der psychiatrischen Versorgung anregte.

Künstliche Intelligenz kann laut einer neuen Studie von Forschern der University of Toronto Scarborough möglicherweise besser Empathie zeigen als Menschen.

Die Forschung, veröffentlicht in Kommunikationspsychologie, weist darauf hin, dass KI-Tools wie ChatGPT empathische Antworten liefern können, die als mitfühlender bewertet werden als die von normalen Menschen und geschulten Krisenhelfern.

„KI wird nicht müde“, sagte Hauptautorin Dariya Ovsyannikova, Laborleiterin im Labor von Michael Inzlicht, in einem Pressemitteilung„Es kann konsistente, qualitativ hochwertige empathische Antworten bieten, ohne die emotionale Belastung, die Menschen erfahren.“

Die Studie umfasste vier separate Experimente, bei denen die Teilnehmer die schriftlichen Antworten von KI, normalen Menschen und professionellen Krisenhelfern bewerteten.

Die Ergebnisse zeigten durchweg, dass die von KI generierten Antworten als mitfühlender und detailorientierter wahrgenommen wurden und so ein Gefühl von Fürsorge, Bestätigung und Verständnis erzeugten.

Empathie ist in vielen Situationen von entscheidender Bedeutung, insbesondere in der psychischen Gesundheit, wo sie den Menschen hilft, sich anerkannt und verbunden zu fühlen. Allerdings kann das ständige Ausdrücken von Empathie für menschliche Betreuer emotional belastend sein und zu Zuständen wie Mitgefühlsermüdung führen.

Ovsyannikova, die sich freiwillig als Krisenhelferin engagiert, betont die emotionale Belastung, der die Fachkräfte in diesem Bereich ausgesetzt sind.

Inzlicht, Professor für Psychologie und Co-Autor der Studie, weist darauf hin, dass KI zwar wirksam oberflächliches Mitgefühl vermitteln könne, ihr jedoch die Fähigkeit fehle, eine tiefere, bedeutungsvollere Betreuung zu bieten, die zur Lösung zugrunde liegender psychischer Probleme notwendig sei.

„KI kann ein wertvolles Werkzeug zur Ergänzung menschlicher Empathie sein, bringt aber auch ihre eigenen Gefahren mit sich“, sagte er in der Pressemitteilung.

Ein großes Problem sind die ethischen Auswirkungen einer übermäßigen Abhängigkeit von KI als emotionale Unterstützung. Sie kann dazu führen, dass sich Betroffene aus der zwischenmenschlichen Interaktion zurückziehen, was Einsamkeit und soziale Isolation verstärkt.

Während die ersten Reaktionen auf die von KI erzeugte Empathie positiv waren, zeigte ein als „KI-Aversion“ bekanntes Phänomen, dass sich die Vorlieben einiger Teilnehmer änderten, als sie erfuhren, dass die empathische Reaktion von der KI kam.

Diese Skepsis spiegelt die allgemeine gesellschaftliche Skepsis gegenüber dem Verständnis der KI für menschliche Emotionen wider.

Jüngere Generationen, die stärker an die Interaktion mit KI gewöhnt sind, könnten jedoch mit der Zeit mehr Vertrauen in diese Technologien entwickeln.

Inzlicht betont die Notwendigkeit eines ausgewogenen Ansatzes, bei dem KI eingesetzt wird, um menschliches Einfühlungsvermögen zu steigern, aber nicht zu ersetzen.

„KI kann Lücken füllen, aber sie sollte den menschlichen Einfluss nie gänzlich ersetzen“, fügte er hinzu.

Da die Studie zu weiteren Diskussionen anregt, ist klar, dass KI zwar vielversprechend ist, um den Mangel an Empathie in der psychiatrischen Versorgung zu beheben, sie muss jedoch sorgfältig und unter ethischen Gesichtspunkten integriert werden, um den Bedürftigen wirklich zu helfen.