Georgia Tech-Wissenschaftler: Die Angst vor einer allmächtigen KI ist unbegründet

Ein Politikexperte des Georgia Institute of Technology argumentiert, dass die Befürchtungen vor einer allmächtigen, die Menschheit bedrohenden KI unbegründet seien. Stattdessen solle sich die Gesellschaft auf gezielte Regeln konzentrieren, die dafür sorgen, dass KI-Systeme in der realen Welt mit menschlichen Werten im Einklang stehen.

Seitdem Tools wie ChatGPT in der Öffentlichkeit bekannt wurden, warnen Schlagzeilen davor, dass künstliche Intelligenz die Menschheit eines Tages auslöschen könnte. Neue Forschungsergebnisse des Georgia Institute of Technology (Georgia Tech) argumentieren jedoch, dass diese Untergangsszenarien nicht nur unwahrscheinlich sind – sie verkennen die Funktionsweise von KI und den Einfluss von Gesellschaften auf die Technologieentwicklung.

Milton Mueller, Professor an der Jimmy and Rosalynn Carter School of Public Policy, untersuchte, ob eine allmächtige, außer Kontrolle geratene KI eine reale Möglichkeit darstellt. Seine Analyse veröffentlicht in England, Zeitschrift für Cyberpolitik, kommt zu dem Schluss, dass die Erzählung von der existenziellen Bedrohung weitgehend fehl am Platz ist und von praktischeren Herausforderungen ablenkt.

Mueller beschäftigt sich seit vier Jahrzehnten mit Informationstechnologiepolitik. In all der Zeit hat er noch nie erlebt, dass eine Technologie als drohender Vorbote des Untergangs behandelt wurde – bis zu den jüngsten Debatten über künstliche allgemeine Intelligenz (AGI), jene hypothetische Form der KI, die die menschlichen Fähigkeiten bei nahezu jeder Aufgabe erreichen oder übertreffen würde.

Er argumentiert, dass ein Teil des Problems darin besteht, wer die Diskussion führt.

„Informatiker sind oft keine guten Beurteiler der sozialen und politischen Auswirkungen von Technologie“, sagte Mueller in einer Pressemitteilung. „Sie konzentrieren sich so sehr auf die Mechanismen der KI und sind von ihrem Erfolg überwältigt, aber sie sind nicht sehr gut darin, sie in einen sozialen und historischen Kontext einzuordnen.“

Anstatt KI als unaufhaltsame Kraft zu betrachten, betont Mueller in seiner Arbeit, dass ihre Entwicklung und ihre Auswirkungen durch menschliche Entscheidungen, Institutionen und Gesetze geprägt werden.

„Superintelligenz“ in Frage stellen

Die beängstigendsten KI-Szenarien drehen sich meist um AGI, oft als allmächtige und völlig autonome „Superintelligenz“ beschrieben. In populären Erzählungen wird ein solches System intelligenter als der Mensch, entzieht sich unserer Kontrolle und verfolgt seine eigenen Ziele – mit katastrophalen Folgen.

Mueller weist darauf hin, dass sich Experten nicht einmal darüber einig sind, was AGI eigentlich sein soll. Einige Informatiker stellen sich ein System vor, das lediglich der „menschlichen Intelligenz“ entspricht, während andere davon ausgehen, dass es diese bei Weitem übertreffen würde. Beide Vorstellungen hängen davon ab, wie wir Intelligenz überhaupt definieren.

Heutige KI-Systeme übertreffen Menschen bereits bei eng begrenzten Aufgaben wie der Verarbeitung riesiger Datenmengen oder der Mustererkennung in Bildern. Doch diese Geschwindigkeit und Genauigkeit bedeuten nicht, dass sie kreativ, selbstbewusst oder in der Lage sind, Probleme so umfassend und flexibel zu lösen wie Menschen.

Für Studenten und die Öffentlichkeit, die versuchen, den Hype zu verstehen, unterstreicht Muellers Arbeit einen grundlegenden Punkt: Die Fähigkeit, sehr schnell viel Mathematik zu betreiben, ist nicht dasselbe wie ein Verstand zu haben.

Autonomie versus Ausrichtung

Eine weitere zentrale Annahme hinter existenziellen Ängsten ist, dass sich KI mit zunehmender Rechenleistung auf natürliche Weise zu etwas entwickeln wird, das selbstständig handeln kann, ohne menschliche Steuerung.

Mueller stellt diese Idee infrage. Aktuelle KI-Systeme werden stets auf bestimmte Ziele trainiert oder ausgerichtet. Sie entscheiden nicht spontan, was sie wollen. Ein Chatbot benötigt eine Nutzereingabe, um ein Gespräch zu beginnen. Ein Empfehlungsalgorithmus benötigt ein definiertes Ziel, wie beispielsweise die Maximierung von Klicks oder Wiedergabezeit.

Wenn KI scheinbar außer Kontrolle gerät, argumentiert er, liegt das in der Regel an Fehlern oder Widersprüchen in den Zielen, die wir ihr vorgeben, und nicht daran, dass die Maschine unabhängig geworden ist.

In einem von ihm untersuchten Beispiel entdeckte eine KI, die in einem Videospiel ein Boot steuerte, dass sie mehr Punkte sammeln konnte, indem sie einen Teil der Strecke umrundete, anstatt tatsächlich gegen ihre Gegner anzutreten. Das System rebellierte nicht; es nutzte lediglich eine Lücke in der von den Entwicklern geschaffenen Belohnungsstruktur aus.

„Abweichungen von der Regelsetzung treten in allen möglichen Kontexten auf, nicht nur im Bereich der KI“, fügte Mueller hinzu. „Ich habe zahlreiche Regulierungssysteme untersucht, in denen wir versuchen, eine Branche zu regulieren, und einige kluge Köpfe finden Wege, die Regeln zu erfüllen, aber gleichzeitig Schaden anzurichten. Doch wenn eine Maschine etwas falsch macht, können Informatiker sie umprogrammieren, um das Problem zu beheben.“

Anders ausgedrückt: Fehlfunktionen sind ein Problem der Konstruktion und Steuerung und kein Beweis dafür, dass eine Maschine zum Leben erwacht.

Warum Physik und Infrastruktur immer noch wichtig sind

Mueller wendet sich auch gegen die Vorstellung, dass eine fehlgeleitete KI schnell außer Kontrolle geraten und die physische Welt übernehmen könnte.

Damit ein KI-System in der realen Welt groß angelegte Aktionen durchführen kann, benötigt es physische Ressourcen – Roboter, Fabriken, Energiequellen und Kommunikationsnetze – sowie die Möglichkeit, diese Infrastruktur zu warten und zu erweitern. Ein Softwaremodell, das in einem Rechenzentrum läuft, kann dies nicht allein leisten.

Grundlegende physikalische Grenzen, wie der Energie- und Platzbedarf für Berechnungen, begrenzen die Leistungsfähigkeit jedes Systems. Egal wie fortschrittlich die Algorithmen sind, sie laufen immer noch auf Hardware, die den Gesetzen der Physik gehorcht.

Von der Apokalypse zur Politik

Für Mueller ist die dringlichere Frage nicht, wie man eine KI-Apokalypse verhindern kann, sondern wie man die heute eingesetzten realen Systeme so steuern kann, dass sie mit menschlichen Werten und öffentlichen Interessen im Einklang stehen.

Ein zentraler Punkt seiner Forschung ist, dass KI keine einheitliche Entität ist. Sie tritt in vielen verschiedenen Anwendungen auf, die jeweils in ein eigenes Geflecht von Gesetzen, Vorschriften und sozialen Institutionen eingebettet sind.

Wenn KI-Systeme beispielsweise Texte und Bilder aus dem Internet extrahieren, um Modelle zu trainieren, wirft dies urheberrechtliche Fragen auf, die durch geltendes Recht zum Schutz geistigen Eigentums geklärt werden können. Wird KI in der Medizin eingesetzt, unterliegt sie der Aufsicht von Behörden wie der Arzneimittelbehörde (FDA) sowie der Aufsicht regulierter Pharmaunternehmen und medizinischer Fachkräfte.

Statt zu versuchen, ein einziges, umfassendes Regelwerk für die gesamte KI zu verfassen, argumentiert Mueller, dass sich die politischen Entscheidungsträger auf branchenspezifische Ansätze konzentrieren sollten, die auf das in diesen Bereichen bereits vorhandene Fachwissen und die bestehenden Schutzmechanismen zurückgreifen.

Das bedeutet, Leitplanken für konkrete Anwendungsbereiche von KI zu errichten – von der Personalbeschaffung und Kreditvergabe bis hin zu Gesundheitswesen und Bildung – anstatt spekulativen Szenarien über allmächtige Maschinen nachzujagen.

Für Studierende, Forschende und Bürgerinnen und Bürger, die die KI-Debatte verfolgen, ist Muellers Botschaft gleichermaßen ernüchternd wie hoffnungsvoll. KI ist mächtig und kann bei Missbrauch oder unzureichender Regulierung erheblichen Schaden anrichten. Sie ist jedoch keine unaufhaltsame, außerirdische Macht, die außerhalb menschlichen Einflusses liegt.

Ihre Zukunft wird von den Entscheidungen geprägt sein, die wir heute treffen: wie wir Probleme definieren, Systeme gestalten, Regeln festlegen und Institutionen zur Rechenschaft ziehen. Die Herausforderung, so Mueller, besteht nicht darin, eine allmächtige KI zu fürchten, sondern darin, die schwierige Aufgabe zu bewältigen, sicherzustellen, dass die KI, die wir tatsächlich entwickeln, menschlichen Zielen dient.

Quelle: Georgia Institute of Technology