Technologie

Fooling Patch Experiment

Eine der Versuchsreihen mit AI-generierten Täuschungspflastern.

    Contact Us





    Neugierig auf Technik?

    Unsere Firma beschäftigt sich seit mehr als 7 Jahren mit der Analyse und Erkennung von statischen Bildern und Videostreams. Unsere Anwendungen werden zum Erkennen von Personen in Videos, zum Verwenden von Produkten in der Werbung usw. verwendet.

    In den letzten Jahren sind widersprüchliche Angriffe auf Modelle des maschinellen Lernens von zunehmendem Interesse geworden. Indem nur geringfügige Änderungen an der Eingabe eines neuronalen Faltungsnetzwerks vorgenommen werden, kann die Ausgabe des Netzwerks geändert werden, um ein völlig anderes Ergebnis zu erzielen. Die ersten Angriffe führten diese Aufgabe aus, indem sie die Pixelwerte eines Eingabebildes leicht änderten, um den Klassifikator zu täuschen, um auf eine falsche Klasse zu schließen.

    Andere Ansätze versuchten, „Patches“ zu finden, die auf Objekte angewendet werden können, um Detektoren und Klassifikatoren zu täuschen. Einige dieser Ansätze haben auch gezeigt, dass diese Angriffe in der realen Welt möglich sind, zum Beispiel durch Modifizieren eines Objekts und Aufnehmen mit einer Videokamera. Alle diese Ansätze konzentrieren sich jedoch auf Klassen, die praktisch keine Klassenvielfalt enthalten (z. B. Bremslichter). In diesem Fall wird die bekannte Struktur des Objekts verwendet, um ein kontradiktorisches Patch darüber zu erstellen.

    Wir präsentieren einen Ansatz zur Erstellung von kontradiktorischen Patches für Zwecke mit einer großen Vielfalt innerhalb der Klasse: Menschen. Ziel ist es, ein Patch zu erstellen, mit dem eine Person erfolgreich vor einem Detektor verborgen werden kann.

    Wir haben festgestellt, dass unser System die Genauigkeit der menschlichen Erkennung erheblich verringern kann. Unser Ansatz funktioniert auch in realen Szenarien, in denen Patches von Kameras aufgenommen werden. Soweit wir wissen, sind wir die Ersten, die versucht haben, Ziele mit einer so großen Vielfalt innerhalb der Klasse wie Menschen anzugreifen. Das Bilderzeugungssystem, mit dem wir T-Shirt-Patches erstellen, basiert auf unseren eigenen Designs und ist von den Ideen der Cornell University-Gruppe inspiriert (https://arxiv.org/abs/1904.08653).

    In realen Tests mit gedruckten Patches haben wir herausgefunden, dass sie gut genug funktionieren, wenn Menschen vor Überwachungskameras versteckt werden. Wir gehen davon aus, dass Sicherheitssysteme, die solche Detektoren verwenden, auch für die Erkennung von Personen, die Kleidung mit diesen Patches tragen, unbrauchbar sind.

    We will gratefully accept any suggestions and comments. Please share with us your experience of using our clothes in real life.

    ×

    Hello!

    Click below to chat on WhatsApp or email to sales@hidexa.com

    × How can I help you?