Neural Network dreams of electric Blade Runners

blade

Terence Broad hat ein Neural Network auf die ersten 10 Minuten von Bladerunner trainiert. (via CreativeAI)

A frame by frame reconstruction of the first 10 minutes of the film Blade Runner using a type of artificial neural network called an autoencoder. The model is a variational autoencoder trained with a learned similarity metric [Larsen et al. 2015 - arxiv.org/abs/1512.09300] that I implemented in TensorFlow at a resolution of 256x144. It has been trained on every individual frame of Blade Runner for 6 epochs before reconstructing the film.

scrnHier sein Posting auf Medium dazu: Autoencoding Blade Runner – Reconstructing films with artificial neural networks.

Das Ergebnis ist erstmal so halb ernüchternd, wenn man es zum Beispiel mit Artistic Style Transfers vergleicht. Bis man feststellt, dass die Auflösung für Neural Network-generierte Bilder bis vor kurzem noch eher so superlowrez war (30x30px oder so) und dieser Algorithmus eigentlich für Stills gedacht ist. Und jetzt mal ganz banal linear in die Zukunft projiziert: Hollywood muss sich über Sequels und Remakes demnächst keine Gedanken mehr machen. „Siri, imagine Aliens with Audrey Hepburn and E.T. as acid-spitting Xenomorph, k thx bye.“ Und Siri dann so: „I can't do that, Dave. The Sequence could contain imagery from [Supermegacorp], for which we could not agree on conditions of use with LICENSEIDIOTS.“ (SCNR)