Neural Network can hold 1000 Ideas

Ein Neural Network ist super dabei, realistische Bilder von tausenden virtuellen Cockerspaniels zu generieren, hat aber keinen Plan davon, wie ein Dackel aussieht. Watson kann gut Worte assoziieren, versagt aber bei Go! und AlphaGo kann Weltmeister schlagen, versagt aber bei StyleTransfer und StyleTransfer kann auch nur 1 Style pro Transfer.

Das liegt bislang vor allem daran, dass Neural Networks meistens nur eine Kategorie/ein Muster/eine Idee reproduzieren, auf deren Datasets sie trainiert wurden – bei verschiedenen Datasets (oder verschiedenen Kategorien in Datasets) wird es kompliziert und schwierig und die Neural Networks kollabieren in Noise. Deshalb betrachtete ich Artificial General Intelligence (AGI) bislang für relativ unrealistisch. Spezielle Aufgaben und Funktionen erfüllen künstliche Intelligenzen jetzt bereits prima, in Kombination eher nich so.

Und deshalb wiederum ist dieses Paper (PDF) einigermaßen beeindruckend, in dem ein Neural Network das komplette ImageNet-Dataset mit seinen tausenden Kategorien halbwegs erkennbar reproduzieren kann.
Die technischen Details verstehe ich nicht, aber das hier dürfte eine der ersten AI-Architekturen sein, die 1000 Gedanken gleichzeitig „im Kopf halten“ kann.

Ian Goofellow: „While GANs have been great at generating realistic images from a single category (one GAN for faces, another GAN for buildings) they've always struggled to fit all 1,000 classes of ImageNet with a single GAN. This ICLR submission has done it“: Spectral Normalization for Generative Adversarial Networks.

Needless to say: We're all gonna die.