AI

DeepMind releases StarCraft AI

Google und Blizzard haben ihre StarCraft AI veröffentlicht: Testing our agents in games that are not specifically designed for AI research, and where humans play well, is crucial to benchmark agent performance. That is why we, along with our partner Blizzard Entertainment, are excited to announce the release of SC2LE, a set of tools that…

Neural Network-Faces synched to Music

„My first attempt to map a song made by @kamptweets onto GAN generated proto-faces.“ Bohemian Rhapsody next. The Three Nightingans. My first attempt to map a song made by @kamptweets onto GAN generated proto-faces. So please turn on that sound. pic.twitter.com/ldcLuXt9Br — Mario Klingemann (@quasimondo) July 21, 2017

AI-Animations with human Sounds

Google vor ein paar Tagen so: „Yay, wir haben hier 'ne neue AI-based Animation-Tech, hooray!“ (Paper) Hayayo Miyazaki über AI-based Animation-Tech: „I am utterly disgusted. I strongly feel that this is an insult to life itself.“ Youtube-User Andreas Almström: „Hold my beer.“

Visual AI-Spaces Auto-Pilot

Ich habe schon ein paar mal über Mario Klingemanns Arbeiten hier gebloggt, derzeit jagt er Neural Networks durch Feedback-Loops und erforscht so Face-Spaces und solche Dinge. Video oben: „Two pix2pix GANs, one that generates face markers from faces, the other that generates faces from face markers are set up in a feedback loop and generate…

Synthesizing Obama from Audio

Im Mai bloggte ich über ein damals noch nicht veröffentlichtes Paper zur SigGraph2017, in dem sie eine Methode für generative Video-Obamas aus Tonspuren vorstellten. Zusammen mit Tools wie etwa dem Adobe Voice Generator (mit dem ich wiederum beliebige Sätze mit Hilfe von Sprachproben generieren kann) ist es so möglich, allen Menschen alle möglichen Sätze in…

Moarph

Mario Klingemann does some weird shit again with CycleGAN Feedback Loops (Neural Networks feeding their results back to each other). Make sure to watch with sound. This might be one the creepiest clips that I have made so far. Yes Sir, that's my baby. #FaceFeedback pic.twitter.com/Zj1kAMtf83 — Mario Klingemann (@quasimondo) June 28, 2017

3D-Visualized Typography-Ideaspace

Ich habe schon einige AI-Visualisierungen von Fonts gesehen, also sortierte Abbildungen des visuellen Idea-Space der Zeichensätze (also genau wie Skateboards und Vibratoren, nur eben mit Typo). Es gibt zum Beispiel die Font-Map von Ideo oder die AI-Fonts von Erik Bernhardsson. Eine wirklich gut navigierbare Visualisierung von AI-sortierten Fonts gab es allerdings meines Erachtens nach bislang…

Neural Network sorts Vibrators

Sabrina Verhage trainierte ein Neural Network auf Vibratoren und sortierte sie dann nach visuellen Merkmalen wie Farbe, Form, Pimmelrealismus und Schnickschnack. Hier das PNG in HighRez (4900px, 7,9MB). (via Motherboard) Das Quietscheentchen ist wortwörtlich geil:

Imaginary People

Mike Tyka bastelt fiktive Gesichter aus zweistufigen Neural Networks: Portraits of imaginary People. Das erste generiert die herkömmlichen Kunstfressen in maximal 256x256 Pixeln, dann nutzt er ein zweites Network und generiert aus diesen Daten wiederum HighRez-Portraits. (via Prosthetic Knowledge) the receptive field of thse networks is usually less than 256x256 pixels. One way around this…

Neural Network dreams your Flesh

Das holländische Radio NPO hat eine eigene Instanz von Christopher Hesses Pix2Pix auf 'nem Server installiert und dort kann man nun, wie schon mit Hesses Katzen-Compositing-Browsertoy, mit den „Trainingsdaten“ eines Neural Networks seltsame Dinge malen, nur diesmal mit Menschen. Hier Frau May und Herr Corbyn von Cyriak: Leider ist die Implementierung eher mau. Der Sender…

Exploring Idea-Space with algorithmic Ableton Novelty Search

In meinem Vortrag (u.a. dieses Wochenende in Offenbach auf dem Bended Realities Festival) rede ich viel über das, was ich „Idea-Space“ nenne, also Platons Ideenwelt, die nun im Internet zum ersten mal allumfänglich mit einem Klick sichtbar wird und die wir dank der digitalen Produktionsmittel in (bis vor kurzem) zunehmender Geschwindigkeit erforschen. Samin hat nun…

Artistic Style-Transfer Video-Synthesis

Daniel Sýkora hat ein neues Spielzeug gecoded: Example-Based Synthesis of Stylized Facial Animations. Hier die Ergebnisse: Über Sýkoras StyLit-Technik für Style Transfer (also der ganze Prisma-/FaceApp-/Filter-Quatsch), das Bestandteil von Adobes Creative Cloud werden wird (oder schon ist?), hatte ich vor einem Jahr gebloggt. Der ganze AI-StyleTransfer und Computer-Vision-Kram dürfte also ungefähr jetzt die Spielzeug-Phase verlassen…

Algo-Faces reconstruced from Monkey Brainwaves

Vor drei Wochen erst bloggte ich über die visuelle Rekonstruktion von Gedanken anhand von EEG-Aufzeichnungen, mit denen man Neural Networks trainiert und die ein jetzt bereits besseres Ergebnis abliefern, als „herkömmliche Telepathie-Verfahren“. Jetzt haben Wissenschaftler zwei Makaken-Affen 2000 Gesichter gezeigt, deren Hirnwellen gemessen, die Neuronen identifiziert, die für Gesichtserkennung zuständig sind – und damit haben…

Anti-AI-AI cools your ear when it hears AI-Voices

Nette Spielerei der australischen Kreativagentur DT, ein Wearable-AI-Device mit einem Neural Network, das auf synthetische Stimmen trainiert wurde und das Ohr abkühlt, sobald man eine Robot-Voice hört. (via CreativeApps) Der Infotext zur AI-Kunst ist so ungefähr genau das gleiche, was ich seit zwei Jahren unter die Hälfte der Postings zu Computer Vision und AI schreibe:…

In The Robot Skies

Vom spekulativen Architekten Liam Young, der erste Kurzfilm gedreht per Computer Vision mit autonomen Quadcoptern. In collaboration with the Embedded and Artificially intelligent Vision Lab in Belgium the film has evolved in the context of their experiments with specially developed camera drones each programmed with their own cinematic rules and behaviours. […] From the eyes…