Könnte KI Internet-Trolle der Vergangenheit angehören lassen?

Veröffentlicht am:

Aktualisiert:

Das Zeitalter des Internet-Trolls könnte bald zu Ende gehen, wie es Forscher von Caltech und Stanford getan haben legte den Grundstein für ein effektives KI-Tool, mit dem Social Media-Netzwerke Online-Hassreden und Belästigungen anzeigen könnten.   

Dies ist heute besonders wichtig, da viele glauben, dass die Rhetorik des Hasses im Internet zugenommen hat Platz gemacht für häufige Massenerschießungen und Gewaltverbrechen. 

Obwohl sich viele Social-Media-Sites bereits an AI gewandt haben, um Hassreden und Belästigungen auf ihren Plattformen zu überwachen, sind die vorhandenen Methoden alles andere als fehlerfrei.

In einer kürzlich herausgebrachten StudieForscher der University of Washington stellten fest, dass ein führendes KI-Tool, mit dem Hassreden aufgegriffen werden sollen, eine rassistische Tendenz gegenüber Afroamerikanern aufweist. Sie stellten fest, dass Tweets eineinhalb Mal häufiger als „anstößig“ eingestuft wurden, wenn sie von Schwarzen geschrieben wurden. Und es war ungefähr zweimal wahrscheinlicher, dass sie als "beleidigend" eingestuft wurden, wenn sie in "African American English" geschrieben wurden. 

Ein separater Studie Die von Cornell-Forschern durchgeführten Untersuchungen ergaben ähnliche Ergebnisse. 

Dies ist in erster Linie darauf zurückzuführen, dass viele vorhandene KI-Tools auf Schlüsselwörtern basieren und die Kontextmessung nicht effektiv ist. Das "n-Wort" kann zum Beispiel je nach der Bevölkerungsgruppe, in der es verwendet wird, entweder hasserfüllt oder liebenswert sein. Es ist also keine effektive Lösung, etwas aus dem Kontext heraus zu markieren, das ausschließlich auf den verwendeten Wörtern basiert. 

"Diese Systeme werden entwickelt, um die Sprache zu identifizieren, mit der marginalisierte Bevölkerungsgruppen online angesprochen werden", sagte Thomas Davidson, Doktorand für Soziologie und Hauptautor der Cornell-Studie in einer Pressemitteilung. "Es ist äußerst besorgniserregend, ob dieselben Systeme die Bevölkerung, die sie schützen sollen, selbst diskriminieren."

Um die vorhandenen KI-Tools zu ergänzen, sind viele Social-Media-Websites auch darauf angewiesen, dass ihre Benutzer auf missbräuchliche, hasserfüllte Sprache hinweisen. Dies ist jedoch eindeutig keine effektive langfristige Lösung.  

"Es ist nicht skalierbar, wenn Menschen versuchen, diese Arbeit von Hand zu erledigen, und diese Menschen sind möglicherweise voreingenommen", sagte Maya Srikanth, Junior bei Caltech und Co-Autorin der Caltech / Stanford-Studie, in einer Pressemitteilung. „Andererseits leidet die Keyword-Suche unter der Geschwindigkeit, mit der sich Online-Konversationen entwickeln. Neue Begriffe tauchen auf und alte Begriffe ändern ihre Bedeutung, sodass ein Schlüsselwort, das an einem Tag aufrichtig verwendet wurde, am nächsten sarkastisch gemeint sein könnte. “

Stattdessen verwendete ihr Team ein GloVe-Modell (Global Vectors for Word Representation), um neue und relevante Schlüsselwörter zu ermitteln. 

GloVe ist ein Wort-Einbettungsmodell. Ausgehend von einem Wort kann es verwendet werden, um Gruppen von Begriffen zu finden, die sprachlich und semantisch mit dem ursprünglichen Wort verwandt sind. Als die Forscher beispielsweise das GloVe-Modell verwendeten, um Twitter nach Verwendungen von „MeToo“ zu durchsuchen, tauchten Cluster verwandter Hashtags auf, darunter „SupportSurvivors“, „Not Silent“ und „I'm With Her“ Die Fähigkeit, Schlüsselwörter und Phrasen zu verfolgen, während sie sich im Laufe der Zeit entwickeln, und neue zu finden, sobald sie entstehen. 

GloVe berücksichtigt auch den Kontext, zeigt an, inwieweit bestimmte Schlüsselwörter in Beziehung stehen, und gibt Input für die Art und Weise, wie die Wörter verwendet werden. In einem Online-Reddit-Forum, das von einer Gruppe antifeministischer Männerrechtsaktivisten verwendet wurde, stellte das Modell beispielsweise fest, dass der Begriff „weiblich“ am häufigsten mit Begriffen wie „Verkehr“, „negativ“ und „sexuell“ verwendet wurde. In Twitter jedoch Posts über die "MeToo" -Bewegung, der Begriff "weiblich" stand am häufigsten neben Begriffen wie "Unternehmen", "Begehren" und "Kapitalist".

Derzeit liefert die Studie einen Proof-of-Concept-Nachweis, der nachweist, dass Online-Belästigungen wirksamer und effizienter aufgedeckt werden können. Nach weiteren Tests hofft das Team jedoch, dass seine Entdeckungen dazu verwendet werden können, das Internet von Trollen zu befreien, sodass Social-Media-Sites eher Orte für unterstützende und produktive als für missbräuchliche Gespräche sind. 

Anima Anandkumar, Mitautorin der Studie und Bren-Professorin für Informatik und Mathematik an der Caltech, erklärte, dass sie 2018 Opfer von Online-Belästigungen geworden sei. "Es war eine aufschlussreiche Erfahrung darüber, wie hässlich Trolling werden kann", sagte sie in einer Pressemitteilung. "Hoffentlich helfen die Tools, die wir jetzt entwickeln, in Zukunft bei der Bekämpfung aller Arten von Belästigung."

KOSTENLOSE 6-monatige Testversion

Dann genießen Sie Amazon Prime zum halben Preis – 50 % Rabatt!

TUN KI – Ihr Bildungsassistent

TUN AI

Ich bin hier, um Ihnen bei Stipendien, Hochschulsuche, Online-Kursen, finanzieller Unterstützung, Auswahl von Hauptfächern, Hochschulzulassungen und Studientipps zu helfen!

Die University Network