Algorithm watching Wolf of Wallstreet

Gepostet vor 6 Monaten, 7 Tagen in #Design #Tech #AI #AlgoCulture #Coding #FaceDetection

Share: Twitter Facebook Mail

wolf

Tolles Computervision-Experiment von Støj: An algorithm watching a movie trailer: „A program removing everything but the objects it recognises when watching the trailer for The Wolf of Wall Street.“ Vor drei Jahren gab es schonmal ein ähnliches Experiment von Benjamin Grosser, der damals allerdings „nur“ den visuellen Eyetracking-Fixpunkt der Software nachgezeichnet hatte. (via Prosthetic Knowledge)

Hier jedenfalls Wolf of Wallstreet durch die Augen eines Object Detection Algorithms:

An algorithm watching a movie trailer is a project by Lasse Korsgaard and Andreas Refsgaard from the creative coding studio Støj, that tries to explore how an object detection algorithm experiences a movie trailer.

Object detection is the process of identifying specific objects such as persons, cars and chairs in digital images or video. For most humans this task requires little effort regardless of how the objects may vary in different sizes, scales and rotations or whether they are partially obstructed from view. For long these tasks have been difficult for computers to solve, but recent developments have shown impressive improvements in accuracy and speed, even while detecting multiple objects in the same image.

We wondered what a fast paced movie trailer would look like seen through the lens of an object detection algorithm. Therefore we sent all individual frames from the movie trailer for The Wolf of Wall Street are through Yolo-2 with a threshold of 0.15, meaning that it only reacts to objects detected with a confidence of 15% or higher.

Cellular Automata Cube

Cubes.io: Conways Game of Life als 3D-Spielzeug mit Cubes und Spheres und Schnickschnack als Evolution-Nullpunkt, von wo aus die ganzen…

Neural Network-Faces synched to Music

„My first attempt to map a song made by @kamptweets onto GAN generated proto-faces.“ Bohemian Rhapsody next. The Three Nightingans.…

AI-Animations with human Sounds

Google vor ein paar Tagen so: „Yay, wir haben hier 'ne neue AI-based Animation-Tech, hooray!“ (Paper) Hayayo Miyazaki über AI-based…

Visual AI-Spaces Auto-Pilot

Ich habe schon ein paar mal über Mario Klingemanns Arbeiten hier gebloggt, derzeit jagt er Neural Networks durch Feedback-Loops und…

Synthesizing Obama from Audio

Im Mai bloggte ich über ein damals noch nicht veröffentlichtes Paper zur SigGraph2017, in dem sie eine Methode für generative…

Stereographic Torus Knot

I'm not sure what's going on here but I like it: „This is very similar to Rise Up, though with…

Generative Pearls

Cool fractal and generative art by Julien Leonard. I dig his explanation from his about-page: „I create algorithms that connect…

Moarph

Mario Klingemann does some weird shit again with CycleGAN Feedback Loops (Neural Networks feeding their results back to each other).…

Floral Algorithm dreams of Dinosaurs

Chris Rodley (Twitter) hat seinen Styletransfer-Bot mit Blumen gefüttert und auf Dinosaurier angesetzt.

3D-Visualized Typography-Ideaspace

Ich habe schon einige AI-Visualisierungen von Fonts gesehen, also sortierte Abbildungen des visuellen Idea-Space der Zeichensätze (also genau wie Skateboards…

Human Fetuses prefer „face-like“ Shapes

Vor einer Woche bloggte ich über Gesichter, die man aus den „Gesichtserkennungs-Neuronen“ von Makaken-Affen rekonstruiert hatte. Damals schrieb ich: „Der…