1 Second of 1% of a Brain has been simulated in 84k Processors

Gepostet vor 3 Jahren, 10 Monaten in #Misc #Science #Tech #AI #Neuroscience

Share: Twitter Facebook Mail

Wissenschaftler haben für einen Test ihrer Open Source NEST Simulations-Software eine Sekunde von 1% eines menschlichen Gehirns getestet. Dafür haben sie 40 Minuten in 84.000 Prozessoren eines K Supercomputers gebraucht. Da wird sich Kurzweil noch ein paar Jahre gedulden müssen.

The hardware necessary to simulate the activity of 1.73 billion nerve cells connected by 10.4 trillion synapses (just 1 percent of a brain’s total neural network) for 1 biological second: 82,944 processors on the K supercomputer and 1 petabyte of memory (24 bytes per synapse). That 1 second of biological time took 40 minutes, on one of the world’s most-powerful systems, to compute.

Simulating 1 second of real brain activity takes 40 minutes and 83K processors (via 1337core)

3D-Visualized Typography-Ideaspace

Ich habe schon einige AI-Visualisierungen von Fonts gesehen, also sortierte Abbildungen des visuellen Idea-Space der Zeichensätze (also genau wie Skateboards…

Human Fetuses prefer „face-like“ Shapes

Vor einer Woche bloggte ich über Gesichter, die man aus den „Gesichtserkennungs-Neuronen“ von Makaken-Affen rekonstruiert hatte. Damals schrieb ich: „Der…

Neural Network sorts Vibrators

Sabrina Verhage trainierte ein Neural Network auf Vibratoren und sortierte sie dann nach visuellen Merkmalen wie Farbe, Form, Pimmelrealismus und…

Imaginary People

Mike Tyka bastelt fiktive Gesichter aus zweistufigen Neural Networks: Portraits of imaginary People. Das erste generiert die herkömmlichen Kunstfressen in…

Neural Network dreams your Flesh

Das holländische Radio NPO hat eine eigene Instanz von Christopher Hesses Pix2Pix auf 'nem Server installiert und dort kann man…

Exploring Idea-Space with algorithmic Ableton Novelty Search

In meinem Vortrag (u.a. dieses Wochenende in Offenbach auf dem Bended Realities Festival) rede ich viel über das, was ich…

Artistic Style-Transfer Video-Synthesis

Daniel Sýkora hat ein neues Spielzeug gecoded: Example-Based Synthesis of Stylized Facial Animations. Hier die Ergebnisse: Über Sýkoras StyLit-Technik für…

Spider Webs are extended Spider Brains and they suck Insect-Shells

Illu: Sineater for Quantamag Vor ein paar Jahren durchschnitt Hilton Japyassú ein paar der Stränge in den Gebilden von Radnetz-Spinnen,…

Algo-Faces reconstruced from Monkey Brainwaves

Vor drei Wochen erst bloggte ich über die visuelle Rekonstruktion von Gedanken anhand von EEG-Aufzeichnungen, mit denen man Neural Networks…

Anti-AI-AI cools your ear when it hears AI-Voices

Nette Spielerei der australischen Kreativagentur DT, ein Wearable-AI-Device mit einem Neural Network, das auf synthetische Stimmen trainiert wurde und das…

In The Robot Skies

Vom spekulativen Architekten Liam Young, der erste Kurzfilm gedreht per Computer Vision mit autonomen Quadcoptern. In collaboration with the Embedded…