Googles artificial Brain teaches itself how to find Cats on the Web

Gepostet vor 4 Jahren, 11 Monaten in #Misc #Tech #AI #Cats #Computer #Google

Share: Twitter Facebook Mail

Google X, das experimentelle Labor, in dem sie die Google Brillen und die Robo-Autos entwickeln, hat ein neuronales Netz aus 16.000 Prozessoren aufgebaut und das Ding mit 10 Millionen zufälligen Thumbnails aus Youtube-Videos gefüttert. Dieses Netz hat daraus das Konzept „Katze“ entwickelt, völlig autonom und ohne Anleitung von außen: Googles Hirnsimulation hat gelernt, was eine Katze ist. Ich meine, da hat man ein künstliches Hirn und schmeisst es zu mit Daten und was macht es? Katzen!

To find them, the Google research team, lead by the Stanford University computer scientist Andrew Y. Ng and the Google fellow Jeff Dean, used an array of 16,000 processors to create a neural network with more than one billion connections. They then fed it random thumbnails of images, one each extracted from 10 million YouTube videos.

The videos were selected randomly and that in itself is an interesting comment on what interests humans in the Internet age. However, the research is also striking. That is because the software-based neural network created by the researchers appeared to closely mirror theories developed by biologists that suggest individual neurons are trained inside the brain to detect significant objects. […]

“We never told it during the training, ‘This is a cat,’ ” said Dr. Dean, who originally helped Google design the software that lets it easily break programs into many tasks that can be computed simultaneously. “It basically invented the concept of a cat. We probably have other ones that are side views of cats.”

How Many Computers to Identify a Cat? 16,000

Neural Network sorts Skate Decks

David De Vigne hat ein Neural Network auf seine Sammlung von Skatedecks trainiert und hat sie damit nach visuellen Merkmalen…

How Computer Vision Is Finally Taking Off

Nat and Friends: „Computer vision is fascinating to me because a) it sounds intriguing and b) it’s a part of…

Deep Dreaming an Art Archive

Tolle Installation des türkischen Künstlers Refik Anadol, der eine künstliche Intelligenz und ihr Machine Learning auf das Archiv des SALT…

Smile-Filtering a Face until there is no Face left to smile-filter

Gene Kogan: „just in case you were wondering, this is what happens when you repeatedly run FaceApp’s smile filter until…

Neural Network dreams your Dreams

Wissenschaftler können bereits seit Jahren Bilder aus Gehirnscans extrahieren, also: Tatsächlich ein Abbild davon schaffen, was wir sehen. Die Resultate…

4 AI-Obamas learn Algo-Lipsynch from Audio

Seit ich über die neuen Möglichkeiten von Machine Learning bezüglich Computer Vision und der Generation von Bildern schreibe, vor allem…

Daddy Cthulhu Cumshot: Weird Algo-Poetry from repetitive Cut'n'Paste-Autocomplete

Das LanguageLog hat die „psychedellic“ AI-„Dreaming of“-Technik auf Google Translate angewandt und dort regelmäßige Sprach/Zeichen-Muster („Iä! Iä! Iä! Iä! Iä!…

Neural Networks for Character Control

Daniel Holden, Taku Komura und Jun Saito haben ein Neural Network auf Character-Animationen trainiert, mit dem Figuren in Games und…

AI Voice-Cloning

Vor ein paar Monate veröffentlichte Google sein WaveNet, ein auf Stimmen trainiertes Neurales Netzwerk mit einem deutlichen Qualitätssprung gegenüber bisherigen…

Neural Network cooks with Cthulhu

Janelle Shane spielt mit Neural Networks rum und hat eins davon auf Lovecraft trainiert. Dann hat sie das Neural Network…

Next Level, photorealistic Style-Transfer

In ihrem neuen Paper stellen Fujun Luan, Sylvain Paris, Eli Shechtman und Kavita Bala eine neue Style-Transfer-Methode vor: Figure 1:…