Prisma Style-Transfer kommt für Android und die Technik hinter der App

Gepostet vor 1 Jahr, 10 Tagen in #Design #Tech #AI #AlgoCulture #Apps #iPhone #Mobile #Photography

Share: Twitter Facebook Mail

IMG_2604

Ich hatte vor ein paar Tagen einen Hinweis auf die russische App Prisma gepostet, die diesen ganzen NeuralNetwork-AI-Style-Transfer-Kram, über den ich schon eine ganze Weile blogge, auf's Smartphone bringt.

Good News: Alex Moiseenko veröffentlicht Prisma noch in diesem Monat für Android und die App soll schon bald auch Videos können. Auf letzteres bin ich sehr gespannt, die Ergebnisse bei Video-StyleTransfer waren zuletzt sehr schnell sehr gut geworden, wobei man dafür ungleich mehr Rechenleistung braucht, als für ein Foto.

Außerdem: ich habe eine Desktop-Variante für StyleTransfer gefunden (man muss also nicht mehr den DeepForger per Twitter bemühen), eine weitere App fürs iPhone wäre Mlvch (macht dasselbe wie Prisma, aber langsamer und das Interface suckt und man hat nur ein paar kostenlose Anwendungen frei) und Alex J. Champandard hat in einer Reihe von Tweets die Performance der App erklärt, denn solche NeuralNetwork-Anwendungen sollten eigentlich nicht auf ’nem Handy laufen können wegen Prozessorpower – und das tun sie auch nicht, Prisma läuft serverseitig:

The success of #Prisma is partly due to performance, but also that fast style currently gives better results. Original #DeepStyle imposes a "global" style distribution which ruins many pictures that have different composition. Justin's fast style [the Algorithm used by Prisma] is unable to learn a perfect "global" distribution, but coincidentally works better for most! By using smaller neural network to learn a specific style (takes 4h-6h training) it does a better job applying style in localized areas.

This is somewhat unexpected; not mentioned in original paper and I've not seen it discussed either. That insight is why #Prisma went viral. Rumour has it the app is using this open source implementation: Chainer implementation of "Perceptual Losses for Real-Time Style Transfer and Super-Resolution"… But magic is still (always) in style selection.

IMG_2605 IMG_2608 IMG_2609 IMG_2610

AI-Animations with human Sounds

Google vor ein paar Tagen so: „Yay, wir haben hier 'ne neue AI-based Animation-Tech, hooray!“ (Paper) Hayayo Miyazaki über AI-based…

Visual AI-Spaces Auto-Pilot

Ich habe schon ein paar mal über Mario Klingemanns Arbeiten hier gebloggt, derzeit jagt er Neural Networks durch Feedback-Loops und…

Synthesizing Obama from Audio

Im Mai bloggte ich über ein damals noch nicht veröffentlichtes Paper zur SigGraph2017, in dem sie eine Methode für generative…

Generative Pearls

Cool fractal and generative art by Julien Leonard. I dig his explanation from his about-page: „I create algorithms that connect…

Moarph

Mario Klingemann does some weird shit again with CycleGAN Feedback Loops (Neural Networks feeding their results back to each other).…

Floral Algorithm dreams of Dinosaurs

Chris Rodley (Twitter) hat seinen Styletransfer-Bot mit Blumen gefüttert und auf Dinosaurier angesetzt.

3D-Visualized Typography-Ideaspace

Ich habe schon einige AI-Visualisierungen von Fonts gesehen, also sortierte Abbildungen des visuellen Idea-Space der Zeichensätze (also genau wie Skateboards…

Neural Network sorts Vibrators

Sabrina Verhage trainierte ein Neural Network auf Vibratoren und sortierte sie dann nach visuellen Merkmalen wie Farbe, Form, Pimmelrealismus und…

Imaginary People

Mike Tyka bastelt fiktive Gesichter aus zweistufigen Neural Networks: Portraits of imaginary People. Das erste generiert die herkömmlichen Kunstfressen in…

Neural Network dreams your Flesh

Das holländische Radio NPO hat eine eigene Instanz von Christopher Hesses Pix2Pix auf 'nem Server installiert und dort kann man…

360° Photogrammetry from abandoned Malls and Basel

„A 360° trip through photogrammed city pieces of Basel.“ „A three-dimensional photogrammetric amalgamation of abandoned shopping malls, digitally reconstructed from…