Bildkompression per Machine Learning

Gepostet vor 2 Monaten, 10 Tagen in Science Tech Share: Twitter Facebook Mail

comp

Google hat eine neue Methode zur Bildkomprimierung per Machine Learning erfunden, die rund 25% kleinere Dateien erzeugt. Die JPG-Artefakte fallen dabei weg – JPG komprimiert über eine Farbreduzierung in 8x8-Pixelblöcken, wodurch die Kanten entstehen –, dafür wird das Bild allerdings weichgezeichnet und verliert Details. Im Bild oben habe ich einen Bildausschnitt vergrößert, um die Details zu zeigen.

comp2

Die Komprimierung funktioniert grob gesagt, indem eine AI das Ausgangsbild lernt und in mehreren Durchgängen durch die gelernten Pattern und anhand der Unterschiede zum Quellbild rekonstruiert. Sieht man im Bild oben: „Left: Original image, I = R[0]. Center: Reconstructed image, P[1]. Right: the residual, R[1], which represents the error introduced by compression.“ Das mittlere, erste Ergebnis wird nun so oft durch denselben Algorithmus gejagt, bis die Fehler weitgehend ausgeglichen sind und das Bild rekonstriert wurde.

Paper: Full Resolution Image Compression with Recurrent Neural Networks
Github: Image Compression with Neural Networks

comp3

Our system works by iteratively refining a reconstruction of the original image, with both the encoder and decoder using Residual GRU layers so that additional information can pass from one iteration to the next. Each iteration adds more bits to the encoding, which allows for a higher quality reconstruction. […]

The residual image represents how different the current version of the compressed image is from the original. This image is then given as input to the network with the goal of removing the compression errors from the next version of the compressed image. […] At each further iteration, the network gains more information about the errors introduced by compression (which is captured by the residual image). If it can use that information to predict the residuals even a little bit, the result is a better reconstruction. Our models are able to make use of the extra bits up to a point. We see diminishing returns, and at some point the representational power of the network is exhausted.

To demonstrate file size and quality differences, we can take a photo of Vash, a Japanese Chin, and generate two compressed images, one JPEG and one Residual GRU. Both images target a perceptual similarity of 0.9 MS-SSIM, a perceptual quality metric that reaches 1.0 for identical images. The image generated by our learned model results in an file 25% smaller than JPEG.

Tags: AI Compression

Amazon works on killing billions of Jobs because Duh.

Amazon works on killing billions of Jobs because Duh.

Welcome to Amazon Go der Zukunft von alleine hierzulande über einer Million Jobs im Einzelhandel, ersetzt durch automatisierte Distribution, Konsum-Überwachung…

algo1

Algorithmic Nicolas Cage/Taylor Swift Face-Swaps

Iryna Korshunova, Wenzhe Shi, Joni Dambre und Lucas Theis haben einen Algorithmus für FaceSwaps programmiert und zur Illustration ihrer Methode…

c1

█ Blackout █ Generative Censorship-Poetry

█ Blackout █ ist Liza Dalys Beitrag zum NaNoGenMo 2016 (National Novel Generation Month, das AlgoPoetry-Äquivalent zum NaNoWriMo), ein Algorithmus…

sat

Neural Network Satellite-Images from Doodles

Invisible Cities, ein Neural Network, das Satellitenbilder aus Gekritzel generiert. Funktioniert so ein bisschen wie Style-Transfer, nur für Satellitenpics. In…

birdsounds

Google A.I. sortiert Vogelgesang

Google hat unter AI-Experiments ’ne Spielwiese für Machine Learning und AI eingerichtet. Ein paar der Experimente kannte ich bereits von…

obama

Adobe Voice-Generator formuliert neue Worte aus Stimmaufnahmen

Adobe hat vor zwei Tagen auf seiner Max Conference neben AI-Schnickschnack für seine CreativeCloud auch ein neues Tool namens VoCo…

AI goes Star Craft

AI goes Star Craft

Google und Blizzard haben gestern auf der BlizzCon eine offizielle Coop angekündigt, die StarCraft (also wohl den Code und damit…

future

Alexa Fishbot

The Future. It's beautiful. who did thispic.twitter.com/Wriy531ALr — 🦃 Wolf ウルフ (@Ouren) November 4, 2016

mixed_font

Neural Style Transfer für chinesische Fonts

Interessanter Ansatz für Type-Design: Neural Style Transfer For Chinese Fonts. (via Samim) Bei der Gestaltung von chinesischen Fonts müssen zehntausende…

banklobby_example

Neural Enhance getting sharp

Neues von AI-basiertem Zoom & Enhance (Vorher auf NC: Zoom & Enhance via Neural Network Super Resolution, Neural Network Super…

wtf

Autoversicherung mit algorithmischen Tarifen basierend auf Ausrufezeichzen in Facebook-Postings

Black Mirrors erste Folge „Nosedive“ der dritten Staffel (hier unser Podcast dazu) zeigte eine Welt, in der sich Preise nach…