Künstliche Intelligenz muss wissen, wann man um menschliche Hilfe bittet

Veröffentlicht am:

Aktualisiert:

Künstliche Intelligenzsysteme sind leistungsstarke Tools für Unternehmen und Regierungen, um Daten zu verarbeiten und auf sich ändernde Situationen zu reagieren an der Börse or auf einem Schlachtfeld. Aber es gibt noch einige Dinge, für die AI nicht bereit ist.

Das aware_ Gelehrte von Computerwissenschaften arbeiten, um zu verstehen und die Art und Weise zu verbessern, wie Algorithmen mit der Gesellschaft interagieren. KI-Systeme funktionieren am besten, wenn das Ziel klar ist und qualitativ hochwertige Daten vorliegen, z. B. wenn sie aufgefordert werden, nach dem Lernen von vielen Bildern korrekt identifizierter Personen zwischen verschiedenen Gesichtern zu unterscheiden.

Manchmal funktionieren KI-Systeme so gut, dass Benutzer und Beobachter überrascht sind wie scharfsinnig Die Technologie ist. Erfolg ist jedoch manchmal schwer zu messen or falsch definiertoder die Trainingsdaten stimmt nicht mit der gestellten Aufgabe überein. In diesen Fällen können AI-Algorithmen fehlschlagen unvorhersehbare und spektakuläre Wege, obwohl es ist nicht immer sofort ersichtlich dass etwas sogar schief gelaufen ist. Infolgedessen ist es wichtig, sich vor dem Hype und der Aufregung darüber, was AI kann, in Acht zu nehmen und nicht davon auszugehen, dass die gefundene Lösung immer korrekt ist.

Wenn Algorithmen arbeiten, sollte ein Sicherheitsnetz für den Menschen vorhanden sein, um Verletzungen von Personen zu vermeiden. Unsere Forschung hat gezeigt, dass Algorithmen in einigen Situationen Probleme in ihrer Funktionsweise erkennen können und um menschliche Hilfe bitten. Insbesondere zeigen wir, dass das Bitten um menschliche Hilfe dazu beitragen kann, die algorithmische Verzerrung in einigen Einstellungen zu verringern.

Wie sicher ist der Algorithmus?

Künstliche Intelligenz-Systeme werden in verwendet strafrechtliche Verurteilung, gesichtsbasiertes Persönlichkeitsprofil, Screening fortsetzen, Einschreibung im Gesundheitswesen und andere schwierige Aufgaben, bei denen das Leben und das Wohlergehen der Menschen auf dem Spiel stehen. US-Regierungsbehörden beginnen, ihre Erforschung und Nutzung von KI-Systemen in Reaktion auf eine kürzliche Zeit zu beschleunigen Executive Order von Präsident Donald Trump.

Es ist jedoch wichtig zu bedenken, dass KI Missverständnisse bei der Bewältigung einer Aufgabe zementieren oder vorhandene Ungleichheiten vergrößern kann. Dies kann auch dann passieren, wenn niemand dem Algorithmus ausdrücklich befohlen hat, jemanden anders zu behandeln.

Zum Beispiel haben viele Unternehmen Algorithmen, die versuchen, Merkmale einer Person anhand ihres Gesichts zu bestimmen - sagen wir mal rate ihr Geschlecht. Die von US-amerikanischen Unternehmen entwickelten Systeme sind in der Regel sehr leistungsfähig besser weiße Männer zu kategorisieren als sie es tun, Frauen und dunklerhäutige Menschen; Bei dunkelhäutigen Frauen ist das am schlimmsten. In China entwickelte Systeme tendieren jedoch dazu schlechter auf weißen Gesichtern.

Der Unterschied besteht nicht darin, dass eine Gruppe Gesichter hat, die einfacher zu klassifizieren sind als andere. Vielmehr werden beide Algorithmen in der Regel mit einer großen Datenmenge trainiert, die nicht so unterschiedlich ist wie die Gesamtbevölkerung. Wenn der Datensatz von einer bestimmten Art von Gesichtern dominiert wird - weißen Männern in den USA und chinesischen Gesichtern in China -, kann der Algorithmus diese Gesichter wahrscheinlich besser analysieren als andere.

Egal wie der Unterschied entsteht, das Ergebnis ist, dass Algorithmen verzerrt werden können, indem sie für eine Gruppe genauer sind als für eine andere.

Die KI im Auge behalten

In Situationen mit hohen Einsätzen ist das Vertrauen des Algorithmus in sein eigenes Ergebnis - seine Einschätzung, wie wahrscheinlich es ist, dass das System die richtige Antwort gefunden hat - ebenso wichtig wie das Ergebnis selbst. Die Leute, die die Ausgabe von Algorithmen erhalten, müssen wissen, wie ernst die Ergebnisse zu nehmen sind, anstatt davon auszugehen, dass es richtig ist, weil es sich um einen Computer handelt.

Erst vor kurzem haben Forscher begonnen, Methoden zu entwickeln, um zu identifizieren, geschweige denn, um zu beheben, Ungleichheiten in Algorithmen und Daten. Algorithmen können so programmiert werden, dass sie ihre eigenen Mängel erkennen - und dieser Erkennung mit a folgen Bitte um Unterstützung einer Person bei der Aufgabe.

Viele Arten von AI-Algorithmen berechnen bereits einen internen Vertrauensniveau - eine Vorhersage, wie gut es bei der Analyse einer bestimmten Eingabe funktioniert hat. In der Gesichtsanalyse kommen viele AI-Algorithmen zum Einsatz haben ein geringeres Vertrauen auf dunkleren Gesichtern und weiblichen Gesichtern als bei weißen männlichen Gesichtern. Es ist unklar Inwieweit wurde dies von den Strafverfolgungsbehörden für den Einsatz dieser Algorithmen bei hohen Einsätzen berücksichtigt?

Das Ziel ist, dass die KI selbst die Bereiche findet, in denen sie für verschiedene Gruppen nicht die gleiche Genauigkeit erreicht. An diesen Eingaben kann die KI ihre Entscheidung einem menschlichen Moderator überlassen. Diese Technik eignet sich besonders für kontextlastige Aufgaben wie inhaltliche Moderation.

Moderatoren menschlicher Inhalte kann nicht mithalten die Flut von Bildern, die auf Social Media-Sites gepostet werden. Die Moderation von AI - Inhalten ist jedoch dafür bekannt, dass sie den Kontext hinter einer nachträglich falsch identifizierten Diskussion über sexuelle Orientierung als nicht berücksichtigt expliziter Inhaltoder die Unabhängigkeitserklärung als Hassreden. Dies kann zu einer ungenauen Zensur führen demographisch or politisch Gruppe über eine andere.

Um das Beste aus beiden Welten zu bekommen, unsere Forschung schlägt vor, den gesamten Inhalt auf automatisierte Weise mit den gleichen KI-Methoden zu bewerten, die heute bereits üblich sind. Dann verwendet unser Ansatz neu vorgeschlagene Techniken, um potenzielle Ungleichheiten in der Genauigkeit des Algorithmus bei verschiedenen geschützten Personengruppen automatisch zu lokalisieren und die Entscheidungen über bestimmte Personen einem Menschen zu übergeben. Infolgedessen kann der Algorithmus völlig unvoreingenommen gegenüber den Personen sein, für die er sich tatsächlich entscheidet. Und Menschen entscheiden sich für diejenigen Individuen, bei denen algorithmische Entscheidungen unvermeidlich zu Verzerrungen geführt hätten.

Dieser Ansatz eliminiert keine Verzerrung: Er "konzentriert" das Verzerrungspotenzial nur auf eine kleinere Gruppe von Entscheidungen, die dann von Menschen mit gesundem Menschenverstand gehandhabt werden. Die KI kann immer noch den größten Teil der Entscheidungsarbeit leisten.

Dies ist eine Demonstration einer Situation, in der ein KI-Algorithmus, der mit einem Menschen zusammenarbeitet, die Vorteile und die Effizienz der guten Entscheidungen der KI nutzen kann, ohne an die schlechten gebunden zu sein. Die Menschen haben dann mehr Zeit, um an den unscharfen, schwierigen Entscheidungen zu arbeiten, die für die Gewährleistung von Fairness und Gerechtigkeit von entscheidender Bedeutung sind.Das Gespräch

Autoren: Sarah Scheffler, Ph.D. Student der Informatik, Boston University, Adam D. Smith, Professor für Informatik, Boston University und Ran Canetti, Professor für Informatik, Boston University

Dieser Artikel wird erneut veröffentlicht Das Gespräch unter einer Creative Commons-Lizenz. Lies das Original Artikel.

KOSTENLOSE 6-monatige Testversion

Dann genießen Sie Amazon Prime zum halben Preis – 50 % Rabatt!

TUN KI – Ihr Bildungsassistent

TUN AI

Ich bin hier, um Ihnen bei Stipendien, Hochschulsuche, Online-Kursen, finanzieller Unterstützung, Auswahl von Hauptfächern, Hochschulzulassungen und Studientipps zu helfen!

Die University Network