Fooling Computer Vision with Noise

Adversarial Images sind Bilder, die mit einem Noise-Filter moderne Computer Vision-Systeme verarschen können. Ein Katzenbild wird mit ein paar kaum sichtbaren Artefakten so für einen Rechner zur Boa Constrictor, oder eine Gottesanbeterin mutiert zu ’nem Strauß:

mantis

Diese Noise-Filter kann man auf jedes Bild anwenden, womit dann eben nicht nur Katzenbilder in Zeugs mutieren, sondern alle Bilder. Man könnte, zum Beispiel, unschuldige Bilder von grünen Wiesen bei Facebook hochladen und die künstliche Facebook-Intelligenz darin Bilder von Rihanna sehen lassen, oder Katzenbilder an einem überwachten öffentlichen Platz aufhängen und in diesen Bildern dann, sagen wir mal, eine Kalaschnikov noisefilterverstecken, die dann nur die Überwachungs-AI sehen können.

mushroom

Das alles ist schon faszinierend genug. Compuvisionwizard Samim hat nun dieses Prinzip auf einen Algorithmus angewandt, der auf Mangas trainiert wurde und Copyrightverstoßtendenzen einschätzen kann, der also die Wahrscheinlichkeit einer Urheberrechtsverletzung in einem Bild berechnet.

The Illustration2Vec model has the ability to predict copyright tags. One could say, It has memories of copyrighted content. A fascinating way to explore convolutional networks is deepdream. This experiment dreams with the Illustration2Vec model and turns everyone into a Manga.
Questions raised: Are the generated images copyright infringing? Can the copyright detection bots of large manga sites (or disney) be fooled easily?

Das Ergebnis hatte ich bereits ohne Kontext vor ein paar Tagen gebloggt: Neural Network dreams of Manga-Trump.