Apokalypse der künstlichen Intelligenz

Sollten wir Angst vor KI haben?

Veröffentlicht am:

Aktualisiert:

Seit Jahrzehnten haben die Menschen von der Idee einer Übernahme der künstlichen Intelligenz (KI) geträumt. Science-Fiction-Filme wie „2001: A Space Odyssey“, „The Terminator“ und „I, Robot“ begeisterten die Zuschauer jahrelang, vor allem, weil sie die Chance auf eine von KI getriebene, dystopische Zukunft neckten.

Aber heute ist diese dystopische Zukunft möglicherweise zu nahe, um sie zu trösten. 

Vor seinem Tod warnte Stephen Hawking die Menschheit indem ich sage"Sobald Menschen künstliche Intelligenz entwickelt haben, würde sie von selbst abheben und sich immer schneller selbst neu gestalten." Er schlug sogar vor, dass dies das Ende der Menschheit bedeuten könnte.  

Seitdem haben viele KI-Experten solche Warnungen weiter gepredigt. Elon Musk, der CEO von Tesla, SpaceX und Neuralink, ist sogar so weit gegangen, zu sagen, dass AI es ist gefährlicher als Atomwaffen.

Aber viele andere bestreiten solche Ansichten. John Giannandrea, Senior Vice President für Maschinelles Lernen und KI-Strategie bei Apple, hat solche Doomsday-Rhetorik wie folgt beschrieben Panikmache. Und Facebook-Chef Mark Zuckerberg hat es genanntziemlich verantwortungslos"

Wo steht AI gerade?

Bevor Sie sich mit der Wahrscheinlichkeit einer AI-Apokalypse und den Methoden zur Vorbeugung dieser Apokalypse befassen, müssen Sie die AI-Typen unterscheiden. 

Was der Öffentlichkeit am besten bekannt ist, nennt man „Artificial Narrow Intelligence“ (ANI). Dies wird verwendet, um selbstfahrende Autos zu steuern und Spracherkennungssysteme wie Apples Siri und Amazons Alexa anzutreiben. ANI ist mächtig, funktioniert aber in einem sehr begrenzten Kontext.

"Ich mache mir eigentlich keine Sorgen wegen der kurzfristigen Dinge", sagte Musk sagte bei einer 2018 South by Southwest (SXSW) -Technologiekonferenz. „Schmale KI ist kein Risiko auf Artenebene. Es wird zu Verwerfungen, zum Verlust von Arbeitsplätzen und zu besseren Waffen und dergleichen führen, aber es ist kein grundlegendes Risiko auf Artenebene. “

Stattdessen sind Musk und andere am meisten besorgt über die Entwicklung der „künstlichen allgemeinen Intelligenz“ (Artificial General Intelligence, AGI). Wenn die AGI vollständig erreicht ist, sind Maschinen vermutlich in der Lage, jede Aufgabe zu verstehen oder zu lernen, die ein Mensch kann. 

Bereits jetzt kann die KI Krebs erkennen better Schlage die besten Schach- und Go-Spieler der Welt, baue eigene Algorithmen und untersuche Bilder auf Social-Media-Websites, um unter anderem den Ausdruck und die Kleidung von Menschen zu erkennen. 

Dies sind jedoch alles Beispiele für KI, die menschliche Kunststücke vollenden. Ob und wann die volle AGI Realität wird, bleibt offen unsicher

In einem Telefoninterview Nisheeth K. VishnoiDer Informatikprofessor an der Yale University sagte, er glaube nicht, dass wir AGI erreichen werden. Für Vishnoi scheint AGI eine Spekulation ohne vorhandene Beweise zu sein. 

Doch Nationen werden es wahrscheinlich versuchen. Mit etwas mehr als 60 Jahren ist AI noch ein sehr junges Feld. Ihr beschleunigter Fortschritt ist unvorhersehbar und scheint unvermeidlich. 

Das Rennen um die KI-Dominanz 

Gegenwärtig kämpfen die Nationen um die Vorherrschaft der KI, angetrieben von dem Wunsch, globaler wirtschaftlicher und militärischer Führer zu werden. 

In 2017 der russische Präsident Wladimir Putin sagte im Gespräch mit Studenten: „Künstliche Intelligenz ist die Zukunft, nicht nur für Russland, sondern für die ganze Menschheit. Es birgt gewaltige Chancen, aber auch schwer vorhersehbare Bedrohungen. Wer auf diesem Gebiet zum Führer wird, wird zum Herrscher der Welt. “

Gegenwärtig führen die USA und China - nicht Russland - dieses Rennen an, und keines der beiden Länder zeigt Anzeichen einer Verlangsamung. Im Sommer von 2017, China verpfändet das weltweit wichtigste AI-Innovationszentrum von 2030 zu werden. Und zu Beginn dieses Jahres gab Präsident Donald Trump eine oberster Befehl die amerikanische Führung in der KI beizubehalten.

Bereits im Juli gründeten Forscher der chinesischen Tsinghua-Universität eine neue Art von Computerchip dass sie glauben, wird "die AGI-Entwicklung stimulieren." Doch es ist nur der erste von vielen Schritten. 

Die Zukunft der KI

Bis zu diesem Punkt hat die KI vor allem der Gesellschaft geholfen. Es hat die medizinische Diagnose schneller und genauer gemacht, die Anzahl der mühsamen Aufgaben, die die Mitarbeiter täglich erledigen müssen, verringert und die Katastrophenhilfe und -vorbereitung unterstützt. 

Die meisten negativen Auswirkungen der KI in der jetzigen Form sind, wie Musk sagte, keine Risiken auf Artenebene. Es wird welche geben potenzieller Verlust von ArbeitsplätzenDatenschutzbedenken und Einflussnahme durch politische Kampagnen sind unter anderem bedenkenswert, bedeuten aber nicht zwangsläufig das Ende der Menschheit. 

Am meisten besorgniserregend ist jedoch, dass der Fortschritt der KI nur beschleunigt wird und die Gesellschaft eine schlanke Vorstellung davon hat, wohin er führt. 

„Die Änderungsrate der Technologie ist unglaublich schnell“, so Musk sagte auf der World Artificial Intelligence Conference (WAIC). "Es übertrifft unsere Fähigkeit, es zu verstehen."

KI-Experten schlagen bereits vor, dass es sich um „tödliche autonome Waffen“ handelt um die Ecke. Solche Waffen konnten unabhängig voneinander entscheiden, wann und wo sie ihre Waffen und Raketen abfeuern sollten. Sie sind buchstäblich etwas aus einem Science-Fiction-Film.

Moschus und andere Sorgen dass Menschen die KI-Technologie schnell aus den Augen verlieren und ihr Kraft, Intelligenz und Fähigkeiten verleihen, die Menschen möglicherweise nicht kontrollieren oder zurückfordern können. 

"Ich denke, im Allgemeinen unterschätzen die Leute die Fähigkeit der KI", sagte Musk bei WAIC. „Sie denken irgendwie, dass es ein kluger Mensch ist. Aber es wird noch viel mehr sein. Es wird viel schlauer sein als der klügste Mensch. “

"Der größte Fehler, den ich bei Forschern der künstlichen Intelligenz sehe, ist die Annahme, dass sie intelligent sind", fuhr Musk fort. „Im Vergleich zur KI ist das nicht der Fall. Viele von ihnen können sich nichts Klügeres als sich selbst vorstellen, aber die KI wird viel klüger sein. “

Obwohl einige immer noch behaupten, dass die KI die menschliche Intelligenz niemals erreichen oder übertreffen wird, stimmen die meisten der Ansicht zu, dass es besser ist, in Sicherheit zu sein, als sich zu entschuldigen. Daher haben KI-Experten, Universitäten, Think Tanks und andere Vorschläge entwickelt, wie die Entwicklung von KI gesteuert werden kann. 

Vermeiden einer KI-Apokalypse 

Eine der faszinierendsten Ideen stammt von keinem anderen als Moschus. Durch sein Neuralink Gerät nimmt Musk eine “Wenn Sie sie nicht schlagen können, schließen Sie sich ihnen an”Herangehensweise an den Umgang mit KI.

Neuralink ist ein Gerät für die Schnittstelle zwischen Gehirn und Maschine, mit dem Menschen mit ihrem Gehirn eine Verbindung zu ihren Smartphones, Laptops oder anderen Computergeräten herstellen und diese steuern können, ohne Fingerspitzen zu benötigen, was die Geschwindigkeit des Menschen verringert. 

"Es ist wie ein winziger Informationsfluss zwischen Ihrem biologischen Selbst und Ihrem digitalen Selbst", sagte Musk auf der Joe Rogan Podcast. "Wir müssen dieses winzige Stroh wie einen riesigen Fluss machen, eine riesige Schnittstelle mit hoher Bandbreite."

"Es ermöglicht jedem, der übermenschliche Erkenntnisse haben möchte", fügte Musk hinzu. „Wie viel schlauer bist du mit einem Telefon oder Computer oder ohne? Ihr Telefon ist bereits eine Nebenstelle von Ihnen. Du bist schon ein Cyborg. "

Eine bekömmlichere Idee, die Musk und andere teilen, ist die Forderung nach einer behördlichen Aufsicht über die AI-Entwicklung. 

"Es muss eine öffentliche Einrichtung sein, die Einblick und Kontrolle hat, um zu bestätigen, dass jeder die KI sicher entwickelt", sagte Musk auf der 2018 SXSW-Technologiekonferenz. „Das ist extrem wichtig. Ich denke, die Gefahr von KI ist um ein Vielfaches größer als die Gefahr von Atomsprengköpfen, und niemand würde vorschlagen, dass wir jedem erlauben, Atomsprengköpfe zu bauen, wenn er möchte. Das wäre verrückt. “ 

Inzwischen haben sich Hochschulen und Universitäten hauptsächlich darauf konzentriert, eine neue Generation von Technologen und Entwicklern zu unterrichten und zu entwickeln, die Ethik und das Gemeinwohl ebenso berücksichtigen wie Innovationen. Ihr Ziel ist es nicht unbedingt, die Weiterentwicklung der KI und anderer Technologien einzuschränken, sondern sicherzustellen, dass sie ethisch und verantwortungsbewusst geschaffen werden. 

Die Virginia Tech University ist eine der Schulen, die diese Gebühr anführt. Durch sein neues Tech für die Menschheit Auf Initiative der Technologen des College of Engineering wird ein „menschenzentrierter Ansatz“ für die Entwicklung und Weiterentwicklung von Technologie vermittelt. Geisteswissenschaftler lernen unter anderem mehr über Technologiepolitik und KI-Ethik. 

„Innovation vergrößert die Kluft zwischen dem, was technologisch möglich ist und was im besten Interesse der menschlichen Gesellschaft und einer lebensfähigen Zukunft sein kann oder nicht. Wir brauchen menschenzentrierte Ansätze, um das Studium, die Entwicklung und den Einsatz von Technologien zu steuern. “ Sylvester Johnson, sagte der Gründungsdirektor des VT Center for Humanities in einer Erklärung.

Technologie wie KI ist heutzutage nicht mehr wegzudenken. Es ist in Politik, Recht und alle Geisteswissenschaften eingedrungen. Die Initiative von VT zielt darauf ab, ausgewogene Fachkräfte sowohl in den Geistes- als auch in den Technologiebereichen zu entwickeln, die über die erforderlichen Fähigkeiten verfügen, um Entscheidungen über die Zukunft der Technologie zu treffen. 

"Sollten wir die KI mit Waffen ausrüsten und weiterhin Waffen entwickeln, um in einem Waffensystem oder Maschinensystem eine Intelligenz auf menschlicher Ebene zu erreichen?", Sagte Johnson. „Das ist eine sehr komplizierte Frage, die von einer Reihe von Menschen untersucht, diskutiert und bearbeitet werden muss. Und ich denke, dass unsere Universitäten eine sehr wichtige Rolle spielen. “

VT ist nicht die einzige Schule, die Maßnahmen ergreift. 

Weiter hinten, im März, rief eine aus 21-Universitäten bestehende Organisation die Netzwerk öffentlicher Interessen Technologie wurde mit Unterstützung der Ford Foundation, New America und der Hewlett Foundation ins Leben gerufen, um ein ähnliches Ziel erreichen. Gemeinsam sorgen sie dafür, dass öffentliches Interesse und soziales Wohl in Technologie und Informatik im gleichen Maße Vorrang haben wie in den Rechts- und Geisteswissenschaften.

Zusammenfassung

Derzeit ist AGI, um die Musk und andere sich große Sorgen machen, immer noch von Unsicherheit umgeben. Selbst wenn es erstellt wird, erwarten die meisten Experten dies mindestens 50-100 Jahre die Straße runter. 

Ungeachtet dessen haben die vorhandene KI und andere Technologien bereits einen Überschuss an ethischen Fragen aufgeworfen, und man kann sich nur vorstellen, was die Zukunft auf Lager hat. Zur Vorbereitung haben Universitäten, politische Entscheidungsträger, Aktivisten und andere die Verantwortung, einzugreifen. 

KOSTENLOSE 6-monatige Testversion

Dann genießen Sie Amazon Prime zum halben Preis – 50 % Rabatt!

TUN KI – Ihr Bildungsassistent

TUN AI

Ich bin hier, um Ihnen bei Stipendien, Hochschulsuche, Online-Kursen, finanzieller Unterstützung, Auswahl von Hauptfächern, Hochschulzulassungen und Studientipps zu helfen!

Die University Network