Eine bedeutende internationale Studie zeigt, dass das Vertrauen in KI weniger von der technischen Leistungsfähigkeit abhängt, sondern vielmehr davon, ob sich die Nutzer eingebunden, unterstützt und mit der KI verbunden fühlen. Die Ergebnisse deuten auf eine Zukunft hin, in der nutzerzentriertes Design und eine entsprechende Steuerung entscheidend für die Entwicklung vertrauenswürdiger KI sind.
Das Vertrauen in künstliche Intelligenz hängt nicht nur davon ab, wie gut die Technologie funktioniert. Es geht auch darum, ob sich die Menschen bei ihrer Nutzung verbunden, unterstützt und einbezogen fühlen.
Eine neue globale Studie unter der Leitung von Forschern der Universität Tampere in Finnland kommt zu dem Ergebnis, dass eine positive Einstellung gegenüber KI und ein Gefühl der Verbundenheit bei der Nutzung von Technologie die stärksten und beständigsten Indikatoren für das Vertrauen in KI-Systeme und die Unternehmen, die sie entwickeln, sind.
Das Team verfolgte einen sozialpsychologischen Ansatz und blickte über Code und Algorithmen hinaus auf grundlegende menschliche Bedürfnisse. Sie untersuchten, wie Gefühle der Zugehörigkeit, Autonomie und Kompetenz sowie die Einstellung zu KI und das Vertrauen in deren Anwendung die Bereitschaft der Menschen beeinflussen, KI zu vertrauen.
In zwölf Ländern auf sechs Kontinenten zeigte sich ein deutliches Muster: Menschen, die KI positiver gegenüberstanden und sich bei der Nutzung von Technologie sozial besser vernetzt fühlten, vertrauten eher sowohl KI-Tools als auch KI-gestützten Unternehmen. Im Gegensatz dazu spielte das Gefühl, technisch kompetent zu sein, die Kontrolle zu haben oder über ein hohes Maß an Selbstvertrauen im Umgang mit KI zu verfügen, nur in einigen nationalen Kontexten eine Rolle.
Die Erstautorin Anica Cvetkovic, Doktorandin an der Universität Tampere, betonte, wie tief KI mittlerweile in den Alltag integriert ist.
„Da KI-Systeme zunehmend die Art und Weise beeinflussen, wie Menschen arbeiten, kommunizieren und auf Informationen zugreifen, geht es beim Vertrauen nicht mehr nur darum, ob eine Technologie korrekt funktioniert“, sagte sie in einer Pressemitteilung.
Die Studie stützte sich auf Umfragedaten von 11,259 Teilnehmern aus dem Jahr 2024 und ist damit eine der bisher umfassendsten Untersuchungen zur Entwicklung des Vertrauens in KI weltweit. Die Ergebnisse, veröffentlicht in der Zeitschrift Verhalten & Informationstechnologie, betonen Sie, dass Vertrauen ebenso sehr eine soziale und psychologische wie eine technische Frage ist.
Cvetkovic und ihre Kollegen stellten nicht nur abstrakte Fragen zu KI. Sie untersuchten auch das Vertrauen in große Technologieunternehmen, darunter Social-Media-Plattformen, die stark auf KI setzen. Dieser doppelte Fokus verdeutlicht, wie eng die öffentliche Meinung über Unternehmensverhalten und KI-Technologie mittlerweile miteinander verknüpft ist.
Wenn Menschen an KI denken, denken sie oft auch an die Unternehmen, die sie entwickeln und einsetzen – von Empfehlungsalgorithmen in sozialen Medien bis hin zu automatisierten Systemen, die die angezeigten Nachrichten, Unterhaltungsangebote und Dienstleistungen beeinflussen. Wenn sich diese Interaktionen fair, inklusiv und respektvoll anfühlen, kann Vertrauen wachsen. Fühlen sie sich hingegen undurchsichtig, manipulativ oder entmündigend an, kann das Vertrauen schnell schwinden.
Durch die Einbeziehung von Teilnehmenden aus Regionen mit sehr unterschiedlichem Stand der digitalen Infrastruktur und verschiedenen kulturellen Normen beleuchtet die Studie auch globale Ungleichheiten in der Entwicklung und Steuerung von KI. Die alltäglichen Erfahrungen der Menschen mit Technologie – ob sie sich dadurch gestärkt oder ausgeschlossen fühlen – scheinen eine entscheidende Rolle für die Vertrauensbildung zu spielen.
Atte Oksanen, Professor für Sozialpsychologie an der Universität Tampere und einer der Hauptforscher, betonte, wie hoch die Einsätze mittlerweile sind.
„Das Vertrauen in künstliche Intelligenz und insbesondere in die Unternehmen, die diese Systeme entwickeln, wird immer wichtiger“, sagte er in der Pressemitteilung.
Oksanen wies darauf hin, dass KI heute eine zentrale Rolle in Arbeit, Kommunikation und dem Zugang zu wichtigen Dienstleistungen spielt und dass geopolitische Verschiebungen strategische Fragen für Regionen wie Europa aufgeworfen haben.
„KI beeinflusst heute unsere Arbeitsweise, unsere Kommunikation und den Zugang zu grundlegenden Dienstleistungen. Die jüngsten Entwicklungen in der Weltpolitik haben zudem die Notwendigkeit unterstrichen, dass Europa eigene, starke und verlässliche Alternativen entwickelt. Eine vertrauenswürdige und transparente Entwicklung zu gewährleisten, ist daher nicht nur eine technologische, sondern auch eine strategische Priorität für unsere Gesellschaften“, sagte er.
Die Ergebnisse befürworten einen nutzerzentrierten und kultursensiblen Ansatz für die Entwicklung und Regulierung von KI. Systeme lediglich präziser zu gestalten oder Nutzer technisch besser zu schulen, reicht nicht aus, wenn sich Menschen im Umgang mit KI weiterhin entfremdet, machtlos oder ignoriert fühlen.
Stattdessen argumentieren die Forscher, dass sich Designer und politische Entscheidungsträger darauf konzentrieren müssen, wie KI-Systeme die grundlegenden psychologischen Bedürfnisse der Menschen unterstützen: Fühlen sich die Nutzer respektiert und gehört? Verstehen sie, was das System tut und warum? Haben sie das Gefühl, dass die KI mit ihnen arbeitet und nicht nur an ihnen?
Diese Fragen sind besonders dringlich für Studierende und junge Berufstätige, die KI zunehmend in Hörsälen, Bewerbungen, Gesundheits-Apps und sozialen Netzwerken begegnen. Wenn diese Erfahrungen als inklusiv und unterstützend empfunden werden, können sie Selbstvertrauen und Vertrauen stärken. Andernfalls können sie Skepsis und Widerstand verstärken.
Oksanen betonte, dass Vertrauen auf mehr als nur Schnelligkeit und Genauigkeit beruhen müsse.
„Damit KI als Teil des Alltags und öffentlicher Institutionen akzeptiert wird, muss Vertrauen auf mehr als nur Effizienz beruhen. Zu verstehen, wie Menschen zu KI – und zu den Unternehmen, die sie entwickeln – stehen, ist für die Legitimität KI-gesteuerter Gesellschaften unerlässlich“, sagte er.
Die Ergebnisse legen verschiedene Handlungsoptionen nahe. Für Entwickler bedeutet dies, unterschiedliche Nutzergruppen frühzeitig in den Designprozess einzubinden, Systeme verständlich zu erklären und ihnen sinnvolle Wahlmöglichkeiten hinsichtlich der Auswirkungen von KI zu geben. Für politische Entscheidungsträger bedeutet es, Regelungen zu entwickeln, die Transparenz, Verantwortlichkeit und Fairness fördern und gleichzeitig den kulturellen Kontext berücksichtigen.
Für Universitäten und Pädagogen unterstreicht die Studie die Bedeutung der Vermittlung nicht nur technischer Fähigkeiten, sondern auch eines kritischen Verständnisses dafür, wie KI das soziale Leben prägt – und wie man sich für inklusive und vertrauenswürdige Systeme einsetzen kann.
Da KI in nahezu alle Sektoren vordringt, liefert diese Studie eine klare Botschaft: Vertrauen aufzubauen ist nicht nur eine Frage besserer Technologie. Es geht darum, die Menschen auf der anderen Seite des Bildschirms anzuerkennen und zu respektieren.
Quelle: Tampere Universität
