Neuer "Datenschutzfilter" schützt online persönliche Informationen

Veröffentlicht am:

Aktualisiert:

Jedes Mal, wenn Sie, Ihre Familie oder Freunde ein Foto oder Video auf eine Social Media-Plattform hochladen, erfahren die Gesichtserkennungsalgorithmen mehr darüber, wer Sie sind, wer Sie kennen und wo Sie sich befinden.

Um den Datenschutzbedenken der Menschen Rechnung zu tragen, haben sich Forscher der University of Toronto (U of T) entwickelt ein Algorithmus Dies kann die Gesichtserkennungssysteme stören und verhindern, dass die Systeme mehr über Sie erfahren.

Die vollständige Studie zur Erläuterung des Algorithmus ist verfügbar hier.

"Wir sind in der Lage, eine Klasse von hochmodernen Gesichtserkennungsalgorithmen zu täuschen, indem wir sie gegensätzlich angreifen", sagte er Avishek Bose, ein Doktorand in der Abteilung für Elektrotechnik und
Computer Engineering an der University of T und Mitautor der Studie.

"Die Privatsphäre ist ein echtes Problem, da die Gesichtserkennung immer besser wird" Parham Aarabi, außerordentlicher Professor an der Fakultät für Elektrotechnik und Informationstechnik an der University of T und Mitautor der Studie, sagte in einer Erklärung. "Dies ist eine Möglichkeit, mit der vorteilhafte Systeme zur Erkennung des Gesichts diese Fähigkeit bekämpfen können."

Die Technik

Die Lösung des Teams besteht darin, zwei Algorithmen für künstliche Intelligenz, einen Gesichtsdetektor und einen Gegnergenerator, gegeneinander auszuspielen, erklärte Bose.

Der Gesichtsdetektor erkennt Gesichter und der Gegnergenerator stört den Gesichtsdetektor vollständig.

"Der Gesichtsdetektor hat keine Kenntnis von der Existenz des gegnerischen Generators, während der Generator mit der Zeit lernt, wie man den Detektor erfolgreich täuscht", sagte Bose. "Anfangs ist der Generator sehr schlecht darin, aber er lernt durch Beobachtung seiner Fehler, die durch die Ausgabe des Gesichtsdetektors bestimmt werden."

Der Gegnergenerator erreicht schließlich einen Punkt, an dem er den Gesichtsdetektor fast 99 Prozent der Zeit zum Narren halten kann.

Im Wesentlichen entwickelten die Forscher einen Instagram-ähnlichen Filter, der zum Schutz der Privatsphäre auf Fotos angewendet werden kann.

Der neue Algorithmus nimmt geringfügige Änderungen an den Pixeln in einem Bild vor, die für den Menschen nicht wahrnehmbar sind, aber einen Gesichtsdetektor nach dem neuesten Stand der Technik täuschen können.

"Die störende KI kann" angreifen ", wonach das neuronale Netz für die Gesichtserkennung sucht", sagte Bose in einer Erklärung. „Wenn die Erkennungs-KI zum Beispiel nach den Augenwinkeln sucht, werden die Augenwinkel so angepasst, dass sie weniger auffallen. Es erzeugt sehr subtile Störungen auf dem Foto, aber für den Detektor sind sie bedeutend genug, um das System zum Narren zu halten. “

Die Forscher testeten ihr System an einem Pool von 600-Gesichtern, darunter viele verschiedene Ethnien, Umgebungen und Lichtverhältnisse.

Das System reduzierte effektiv die Anzahl der Gesichtserkennungsgeräte, die ursprünglich fast 100-Prozent erkennen konnten, auf nur 0.5-Prozent.

Darüber hinaus kann die Technologie die bildbasierte Suche, die Schätzung der ethnischen Zugehörigkeit, die Identifizierung von Merkmalen, die Emotion und andere gesichtsbasierte Attribute, die automatisch extrahiert werden können, stören.

Motivation

Ausschlaggebend für diese Studie war das Interesse von Aarabi und Bose an der Erforschung der Fehlermodi moderner lernbasierter Gesichtserkennungs- und -erkennungsalgorithmen.

"Zunächst haben wir diese Algorithmen unter extremen Bedingungen wie Unschärfe, Helligkeit und Trübung getestet", sagte Bose.

Bei ihren Experimenten stellten die Forscher fest, dass selbst Bilder unter vernünftigen Bedingungen gelegentlich zum Versagen der Geräte führen können, was gut mit der neuen Literatur zu gegnerischen Angriffen zu tun hat, erklärte Bose.

"Im Wesentlichen verursacht ein gegnerischer Angriff kleine und oft nicht wahrnehmbare Änderungen am Eingabebild, was dazu führt, dass die Modelle für maschinelles Lernen katastrophal scheitern", sagte Bose.

"Dies ist ein bekanntes Phänomen in vielen Deep Learning-Modellen, wurde jedoch nie im Zusammenhang mit Gesichtserkennungs- / Erkennungssystemen untersucht."

Was kommt als nächstes?

Aarabi und Bose möchten diesen Angriffsstil auf andere Klassen von Detektoren ausweiten. Obwohl dies in einigen Fällen schwierig oder unmöglich sein kann, besteht das Hauptziel darin, das Konzept zu verstehen und zu charakterisieren.

Sobald es den Forschern gelungen ist, diese Aufgabe bei mehreren Detektorklassen zu lösen, könnte ein Werkzeug hergestellt werden, von dem sie jedoch noch weit entfernt sind, so Bose.

"In Zukunft können Sie sich eine App vorstellen, die diesen Datenschutzfilter auf Ihre Fotos anwendet, bevor Sie sie im Internet hochladen", erklärte er.

Aber im Moment muss noch viel geforscht werden.

"Unser Papier ist nur der Ausgangspunkt und nichts, was dem Endziel nahe kommt", sagte Bose.

Bose möchte darauf hinweisen, dass die Forscher zwar einen hochmodernen Gesichtserkennungsalgorithmus vortäuschen konnten, aber noch nicht behaupten, jedes einzelne Gesichtserkennungsgerät angreifen zu können.

"Dies ist ein kleiner Schritt zu einem größeren Ziel, bei dem wir dem Benutzer die Möglichkeit geben, seine Privatsphäre zu schützen, wenn er dies wünscht", sagte Bose.

KOSTENLOSE 6-monatige Testversion

Dann genießen Sie Amazon Prime zum halben Preis – 50 % Rabatt!

TUN KI – Ihr Bildungsassistent

TUN AI

Ich bin hier, um Ihnen bei Stipendien, Hochschulsuche, Online-Kursen, finanzieller Unterstützung, Auswahl von Hauptfächern, Hochschulzulassungen und Studientipps zu helfen!

Die University Network