Neural Network dreams of electric Blade Runners

Gepostet vor 4 Monaten in Misc Movies Tech Share: Twitter Facebook Mail

blade

Terence Broad hat ein Neural Network auf die ersten 10 Minuten von Bladerunner trainiert. (via CreativeAI)

A frame by frame reconstruction of the first 10 minutes of the film Blade Runner using a type of artificial neural network called an autoencoder. The model is a variational autoencoder trained with a learned similarity metric [Larsen et al. 2015 - arxiv.org/abs/1512.09300] that I implemented in TensorFlow at a resolution of 256x144. It has been trained on every individual frame of Blade Runner for 6 epochs before reconstructing the film.

scrnHier sein Posting auf Medium dazu: Autoencoding Blade Runner – Reconstructing films with artificial neural networks.

Das Ergebnis ist erstmal so halb ernüchternd, wenn man es zum Beispiel mit Artistic Style Transfers vergleicht. Bis man feststellt, dass die Auflösung für Neural Network-generierte Bilder bis vor kurzem noch eher so superlowrez war (30x30px oder so) und dieser Algorithmus eigentlich für Stills gedacht ist. Und jetzt mal ganz banal linear in die Zukunft projiziert: Hollywood muss sich über Sequels und Remakes demnächst keine Gedanken mehr machen. „Siri, imagine Aliens with Audrey Hepburn and E.T. as acid-spitting Xenomorph, k thx bye.“ Und Siri dann so: „I can't do that, Dave. The Sequence could contain imagery from [Supermegacorp], for which we could not agree on conditions of use with LICENSEIDIOTS.“ (SCNR)

Tags: AI AlgoCulture BladeRunner

stfu

Conversation AI: Googles algorithmischer Troll-Filter triggert 4chan

Nachdem Yahoo vor ein paar Wochen seinen Anti-Troll-Algorithmus vorgestellt hatte, schreibt Wired nun über Googles Jigsaw-Abteilung, die an einem AI-Tool…

floete

Ausgerechnete Drachen-Flöten aus dem 3D-Drucker

I want my Octopus-Flute NAO! „This paper presents an interactive design interface for three-dimensional free-form musical wind instruments.“ The sound…

nne

Neural Network Bild-Retusche

Andrew Brock hat einen Foto-Editor mit AI-Retusche programmiert, hier auf Github, da das Paper. Alles noch im experimentellen Stadium, wie…

beatles

AI-composed „Beatles-Song“

Sony hat seine künstliche Intelligenz auf verschiedene Komponisten trainiert und die spuckt jetzt Song-Bausteine im Stil von [you name it]…

enhance

Neural Network Super Resolution getting good, fast

Neulich bloggte ich über die K.I.-Version der Zoom & Enhance-Meme und meinte noch, das seien ja nur 64x64 Pixel und…

netw

Neural Network Compositing

Adobe Research und die Uni Berkley arbeiten an Retusche und Compositing via Machine Learning. Die Ergebnisse sind zwar beeindruckend, aber…

sam

Google WaveNet: Neural Network-generated Text-2-Speech

Google hat seine Neural Networks auf Stimmerzeugung trainiert und ein neues Verfahren zur Synthetisierung von Sprache erfunden. Die Ergebnisse sind…

algobaby

Algo-Video-Babys are absolutely not creepy, not creepy at all

Total interessantes Paper vom MIT: Generating Videos with Scene Dynamics (via Gene Kogan). Die haben Neural Networks auf Videos trainiert…

poppy

Neural Network Poppy 🙃

Poppy inside the Machine 🙃 🙂 🙃 🙂 🙃 🙂 🙃 🙂 🙃 🙂 🙃 🙂 🙃 🙂 🙃 🙂…

enhance1

Zoom & Enhance via Neural Network Super Resolution

Zoom and Enhance in der AI-Variante, ein Neural Network gleicht den Informationsverlust durch Zooming aus. Das Ergebnis ist so mittel,…

acidsupermarkt

Deep Dream-Mutanten im Supermarkt

Mutanten beim Einkaufen. Und dann hat Youtuber Pouff das Video mit Googles DeepDream-Dingens gerendert. Ich glaub', die Mutanten sehen da…