Googles algorithmic Image Captions

Gepostet vor 2 Jahren, 5 Monaten in #Misc #Science #Tech #AI #Google #Language

Share: Twitter Facebook Mail

img

Google experimentiert mit automatisch generierten Bildbeschreibungen: Über ein Convolutional Neural Network (CNN) identifizieren sie zunächst die Objekte im Bild, mit einem Recurrent Neural Network (RNN) bauen sie dann aus diesen Stichwörtern komplette Sätze. Ich freue mich schon auf die Glitches!

imgggPeople can summarize a complex scene in a few words without thinking twice. It’s much more difficult for computers. But we’ve just gotten a bit closer -- we’ve developed a machine-learning system that can automatically produce captions (like the three above) to accurately describe images the first time it sees them. This kind of system could eventually help visually impaired people understand pictures, provide alternate text for images in parts of the world where mobile connections are slow, and make it easier for everyone to search on Google for images.

Google Research: A picture is worth a thousand (coherent) words: building a natural description of images (via Algopop)
Paper: Show and Tell: A Neural Image Caption Generator

[update] Die Stock-Photo-Bude EyeEm hat sich einen Algorithmus zur Bewertung der Ästhetik von Bildern gebastelt: „EyeEm is 'training' its algorithms to identify which photos actually look good. By looking at things like which objects are in focus and blurred, what’s located at each third of a photo, and other identifiers of 'beauty', the ranking algorithms determine an EyeRank of aesthetic quality for each photo and applies an aggregated score to each photographer.“ (Danke Fabian!)

AI Voice-Cloning

Vor ein paar Monate veröffentlichte Google sein WaveNet, ein auf Stimmen trainiertes Neurales Netzwerk mit einem deutlichen Qualitätssprung gegenüber bisherigen…

Neural Network cooks with Cthulhu

Janelle Shane spielt mit Neural Networks rum und hat eins davon auf Lovecraft trainiert. Dann hat sie das Neural Network…

Rogue Apostrophe Vigilante

Wie die Graffiti Grammar Police aus Ecuador, nur mit Deppen-Apostroph in Bristol. (via Martin)

Next Level, photorealistic Style-Transfer

In ihrem neuen Paper stellen Fujun Luan, Sylvain Paris, Eli Shechtman und Kavita Bala eine neue Style-Transfer-Methode vor: Figure 1:…

„Alexa? Are you connected to the CIA?“

„I always try to tell the truth.“ This reminds me of those Guilty-Dog-Videos:

AI Brainscans

Graphcore aus Bristol visualisieren künstliche Intelligenzen und Neural Networks: Inside an AI 'brain' - What does machine learning look like?…

The best Anagramm

Mark Dominus hat das beste Anagramm der englischen Sprache ausgerechnet. Dazu hat er die komplette Liste der Anagramme (der englischen…

Pix2Pix: Neural Network Katzen-Compositing als Browsertoy

Schönes Spielzeug von Christopher Hesse, der ein Neural Network auf Bild-Paaren trainiert hat und mit dem man nun Katzen, Schuhe…

RechtsLinks 17.2.2017: Fuckopoulos at Maher, PewDiePie is a racist SuperNazi from hell, Trump is 4chan

Pic: Lie Lie Land von Bambi First things first: Milo Fuckopoulos ist heute abend bei Bill Maher: „Yiannopoulos will be…

Where Slang Comes From

Schönes Posting von Matt Daniels über 2016er Slang: Where Slang Comes From – Emerging slang, identified by searches for words’…

RechtsLinks 12.2.2017: Seeßlen über die Sprache der Rechten und eine Tour der pro-authoritaristischen Neo-Reaktion

The Atlantic: Behind the Internet's Anti-Democracy Movement – White House chief strategist Steve Bannon is reportedly a reader of neoreactionary…