Googles algorithmic Image Captions

Gepostet vor 2 Jahren, 6 Monaten in #Misc #Science #Tech #AI #Google #Language

Share: Twitter Facebook Mail

img

Google experimentiert mit automatisch generierten Bildbeschreibungen: Über ein Convolutional Neural Network (CNN) identifizieren sie zunächst die Objekte im Bild, mit einem Recurrent Neural Network (RNN) bauen sie dann aus diesen Stichwörtern komplette Sätze. Ich freue mich schon auf die Glitches!

imgggPeople can summarize a complex scene in a few words without thinking twice. It’s much more difficult for computers. But we’ve just gotten a bit closer -- we’ve developed a machine-learning system that can automatically produce captions (like the three above) to accurately describe images the first time it sees them. This kind of system could eventually help visually impaired people understand pictures, provide alternate text for images in parts of the world where mobile connections are slow, and make it easier for everyone to search on Google for images.

Google Research: A picture is worth a thousand (coherent) words: building a natural description of images (via Algopop)
Paper: Show and Tell: A Neural Image Caption Generator

[update] Die Stock-Photo-Bude EyeEm hat sich einen Algorithmus zur Bewertung der Ästhetik von Bildern gebastelt: „EyeEm is 'training' its algorithms to identify which photos actually look good. By looking at things like which objects are in focus and blurred, what’s located at each third of a photo, and other identifiers of 'beauty', the ranking algorithms determine an EyeRank of aesthetic quality for each photo and applies an aggregated score to each photographer.“ (Danke Fabian!)

Smile-Filtering a Face until there is no Face left to smile-filter

Gene Kogan: „just in case you were wondering, this is what happens when you repeatedly run FaceApp’s smile filter until…

Neural Network dreams your Dreams

Wissenschaftler können bereits seit Jahren Bilder aus Gehirnscans extrahieren, also: Tatsächlich ein Abbild davon schaffen, was wir sehen. Die Resultate…

4 AI-Obamas learn Algo-Lipsynch from Audio

Seit ich über die neuen Möglichkeiten von Machine Learning bezüglich Computer Vision und der Generation von Bildern schreibe, vor allem…

Daddy Cthulhu Cumshot: Weird Algo-Poetry from repetitive Cut'n'Paste-Autocomplete

Das LanguageLog hat die „psychedellic“ AI-„Dreaming of“-Technik auf Google Translate angewandt und dort regelmäßige Sprach/Zeichen-Muster („Iä! Iä! Iä! Iä! Iä!…

Neural Networks for Character Control

Daniel Holden, Taku Komura und Jun Saito haben ein Neural Network auf Character-Animationen trainiert, mit dem Figuren in Games und…

AI Voice-Cloning

Vor ein paar Monate veröffentlichte Google sein WaveNet, ein auf Stimmen trainiertes Neurales Netzwerk mit einem deutlichen Qualitätssprung gegenüber bisherigen…

Neural Network cooks with Cthulhu

Janelle Shane spielt mit Neural Networks rum und hat eins davon auf Lovecraft trainiert. Dann hat sie das Neural Network…

Rogue Apostrophe Vigilante

Wie die Graffiti Grammar Police aus Ecuador, nur mit Deppen-Apostroph in Bristol. (via Martin)

Next Level, photorealistic Style-Transfer

In ihrem neuen Paper stellen Fujun Luan, Sylvain Paris, Eli Shechtman und Kavita Bala eine neue Style-Transfer-Methode vor: Figure 1:…

„Alexa? Are you connected to the CIA?“

„I always try to tell the truth.“ This reminds me of those Guilty-Dog-Videos:

AI Brainscans

Graphcore aus Bristol visualisieren künstliche Intelligenzen und Neural Networks: Inside an AI 'brain' - What does machine learning look like?…