ComputerVision

Who wants to be a self-driving Car?

Schöne Arbeit vom Moovellab, ein ComputerVision-Simulator inklusive Miniatur-Robot-Car um das „Vertrauen in autonome Maschinen“ zu untersuchen. (via prostheticknowledge) "Who Wants to be a Self-driving Car?" is a data driven trust exercise that uses augmented reality to reveal people's feelings about self-driving vehicle systems. As a collaboration between moovel Lab and Meso Digital Interiors, the team built…

Casual 3D Photography

Peter Hedman und seine Kollegen bohren 3D-Fotografie auf und verwandeln herkömmliche digitale Fotos per Algorithmus in (ein bisschen) begehbare Virtuelle Räume, versehen die Objekte im Bild mit Lichteffekten und überfluten Wälder und solcherlei Schnickschnack. (via ProstheticKnowledge) Paper: Casual 3D Photography We present an algorithm that enables casual 3D photography. Given a set of input photos…

3D-Faces from single Images

Schöner Milestone auf dem Weg zur One-Click-Avatar für VR/AR und natürlich, sobald die Auflösung ausreicht, für One-Click-Fakes: Ein Algorithmus, der aus LowRez-Pics dreidimensionale Gesichter errechnet. Ich hab das Demo mal mit Bildern von yours truly angetestet und die Ergebnisse sind angemessen weird. Paper: Large Pose 3D Face Reconstruction from a Single Image via Direct Volumetric…

Octopus-Doodlespace

Forma Fluens: Schöne Spielzeug-Sammlung für Googles Quickdraw-Dataset, das neulich komplett veröffentlicht wurde und in dem Millionen von Usern kleine Zeichnungen von Alltagsgegenständen und Objekten anfertigten. Mauro Martinos Video Points in Movement kann man sich weitgehend sparen (es ist nichts weiter als das hier animiert und mit prätentiösem Piano-Geklimper), aber Hendrik Strobelts IconoLap und Owen Cornecs…

3500 Faces 2 Faces

Patrick Tresset hat Christopher Hesses Pix2Pix-Algorithmus auf 3500 Gesichter trainiert. Da der Mann normalerweise eher Roboter zeichnen lässt, kriegen wir demnächst wohl Roboter, die mit Algorithmen Fleisch malen. Auch geil.

Local Perception-Differences with Google Quick Draw

Google hat die Daten aus dem Quick Draw AI-Experiment („Can a neural network learn to recognize doodling?“) veröffentlicht: Exploring and Visualizing an Open Global Dataset. Ein paar der faszinierendsten Dinge, die man in diesem Dataset ausmachen kann, sind die lokalen Unterschiede: So zeichnen zum Beispiel Menschen auf den amerikanischen Kontinenten, Australien und Asien eine Eistüte…

Self-Driving Cars hacked with Love and Hate

Wissenschaftler der Uni Washington haben die Computer-Vision-Systeme von selbstfahrenden Autos gehackt – indem sie Love und Hate in colorierten Pixelfonts auf Stop-Schilder geklebt haben: Self-Driving Cars Can Be Hacked By Just Putting Stickers On Street Signs. Die Erfolgsrate: 100%. Ich freue mich schon auf die Streetart-Sticker-Trolle aus dem Jahr 2025. According to the researchers, image recognition…

Moarph

Mario Klingemann does some weird shit again with CycleGAN Feedback Loops (Neural Networks feeding their results back to each other). Make sure to watch with sound. This might be one the creepiest clips that I have made so far. Yes Sir, that's my baby. #FaceFeedback pic.twitter.com/Zj1kAMtf83 — Mario Klingemann (@quasimondo) June 28, 2017

360° Photogrammetry from abandoned Malls and Basel

„A 360° trip through photogrammed city pieces of Basel.“ „A three-dimensional photogrammetric amalgamation of abandoned shopping malls, digitally reconstructed from youtube videos taken prior to the sites’ destruction.“