AlgoCulture

Moarph

Mario Klingemann does some weird shit again with CycleGAN Feedback Loops (Neural Networks feeding their results back to each other). Make sure to watch with sound. This might be one the creepiest clips that I have made so far. Yes Sir, that's my baby. #FaceFeedback pic.twitter.com/Zj1kAMtf83 — Mario Klingemann (@quasimondo) June 28, 2017

Floral Algorithm dreams of Dinosaurs

Chris Rodley (Twitter) hat seinen Styletransfer-Bot mit Blumen gefüttert und auf Dinosaurier angesetzt.

3D-Visualized Typography-Ideaspace

Ich habe schon einige AI-Visualisierungen von Fonts gesehen, also sortierte Abbildungen des visuellen Idea-Space der Zeichensätze (also genau wie Skateboards und Vibratoren, nur eben mit Typo). Es gibt zum Beispiel die Font-Map von Ideo oder die AI-Fonts von Erik Bernhardsson. Eine wirklich gut navigierbare Visualisierung von AI-sortierten Fonts gab es allerdings meines Erachtens nach bislang…

Neural Network sorts Vibrators

Sabrina Verhage trainierte ein Neural Network auf Vibratoren und sortierte sie dann nach visuellen Merkmalen wie Farbe, Form, Pimmelrealismus und Schnickschnack. Hier das PNG in HighRez (4900px, 7,9MB). (via Motherboard) Das Quietscheentchen ist wortwörtlich geil:

Imaginary People

Mike Tyka bastelt fiktive Gesichter aus zweistufigen Neural Networks: Portraits of imaginary People. Das erste generiert die herkömmlichen Kunstfressen in maximal 256x256 Pixeln, dann nutzt er ein zweites Network und generiert aus diesen Daten wiederum HighRez-Portraits. (via Prosthetic Knowledge) the receptive field of thse networks is usually less than 256x256 pixels. One way around this…

Neural Network dreams your Flesh

Das holländische Radio NPO hat eine eigene Instanz von Christopher Hesses Pix2Pix auf 'nem Server installiert und dort kann man nun, wie schon mit Hesses Katzen-Compositing-Browsertoy, mit den „Trainingsdaten“ eines Neural Networks seltsame Dinge malen, nur diesmal mit Menschen. Hier Frau May und Herr Corbyn von Cyriak: Leider ist die Implementierung eher mau. Der Sender…

360° Photogrammetry from abandoned Malls and Basel

„A 360° trip through photogrammed city pieces of Basel.“ „A three-dimensional photogrammetric amalgamation of abandoned shopping malls, digitally reconstructed from youtube videos taken prior to the sites’ destruction.“

Exploring Idea-Space with algorithmic Ableton Novelty Search

In meinem Vortrag (u.a. dieses Wochenende in Offenbach auf dem Bended Realities Festival) rede ich viel über das, was ich „Idea-Space“ nenne, also Platons Ideenwelt, die nun im Internet zum ersten mal allumfänglich mit einem Klick sichtbar wird und die wir dank der digitalen Produktionsmittel in (bis vor kurzem) zunehmender Geschwindigkeit erforschen. Samin hat nun…

Artistic Style-Transfer Video-Synthesis

Daniel Sýkora hat ein neues Spielzeug gecoded: Example-Based Synthesis of Stylized Facial Animations. Hier die Ergebnisse: Über Sýkoras StyLit-Technik für Style Transfer (also der ganze Prisma-/FaceApp-/Filter-Quatsch), das Bestandteil von Adobes Creative Cloud werden wird (oder schon ist?), hatte ich vor einem Jahr gebloggt. Der ganze AI-StyleTransfer und Computer-Vision-Kram dürfte also ungefähr jetzt die Spielzeug-Phase verlassen…

Neural Network Genesis Alpha

Douglas Summers hat das erste Buch Genesis der Bibel mit Neural Network Voodoo in Worte übersetzt, die allesamt mit dem Buchstaben A anfangen. Er selbst erklärt das so: „this was made with the help of a computer program that tries to express the meaning of any word by an adjective and a noun pair. Phrases…

Algo-Faces reconstruced from Monkey Brainwaves

Vor drei Wochen erst bloggte ich über die visuelle Rekonstruktion von Gedanken anhand von EEG-Aufzeichnungen, mit denen man Neural Networks trainiert und die ein jetzt bereits besseres Ergebnis abliefern, als „herkömmliche Telepathie-Verfahren“. Jetzt haben Wissenschaftler zwei Makaken-Affen 2000 Gesichter gezeigt, deren Hirnwellen gemessen, die Neuronen identifiziert, die für Gesichtserkennung zuständig sind – und damit haben…

Anti-AI-AI cools your ear when it hears AI-Voices

Nette Spielerei der australischen Kreativagentur DT, ein Wearable-AI-Device mit einem Neural Network, das auf synthetische Stimmen trainiert wurde und das Ohr abkühlt, sobald man eine Robot-Voice hört. (via CreativeApps) Der Infotext zur AI-Kunst ist so ungefähr genau das gleiche, was ich seit zwei Jahren unter die Hälfte der Postings zu Computer Vision und AI schreibe:…

Expanding Brain Bot

Cool new Expanding Brain Tweetie-Bot by Darius Kazemi, a „Bot that does the 'expanding brain' meme. It uses abstraction chains in [the Conceptnet Knowledge Graph] to come up with the words.“

In The Robot Skies

Vom spekulativen Architekten Liam Young, der erste Kurzfilm gedreht per Computer Vision mit autonomen Quadcoptern. In collaboration with the Embedded and Artificially intelligent Vision Lab in Belgium the film has evolved in the context of their experiments with specially developed camera drones each programmed with their own cinematic rules and behaviours. […] From the eyes…

Neural Network sorts Skate Decks

David De Vigne hat ein Neural Network auf seine Sammlung von Skatedecks trainiert und hat sie damit nach visuellen Merkmalen wie Farbe, Typo oder Motiv sortiert, hier das JPG in HighRez (6580px, 10MB). I have keen passion for skating so I decided to collect a range of images of skateboard deck graphics. I did this…