Star Wars: The Last Jedi – Nahezu Spoilerfreies Review

13:13 Fun #Animals #Fish

Fucking Fish

Fickfinger für Unterwassergezeucht: Flipping_off_Fish --> „Raise your digitus medius in salute to all the creatures of the sea... little bastards“.…

13:04 Fun #Cars #Songs

Mississippi Queen (2001 Ford Expedition Cover)

I find this far funnier than I should:

12:57 Design #Art #Installation #Light #ProjectionMapping

Psychedelic Fog-Projections

Tolle Lichtinstallation von Robert Seidel: „Tempest is an environmental video installation commissioned for the 10th anniversary of Digital Graffiti Festival.…

11:59 Kultur #History #Literature #Mythology #Poetry

Rome revokes Ovids Exile

Das Stadtparlament in Rom hat die 2000 Jahre alte Verbannung des Dichters Ovid aufgehoben. Seine Metamorphosen gehören genau wie Homers…

Ron Mueck stellt in der National Gallery of Victoria grade haufenweise Riesentotenköpfe aus. Den Mann kennt ihr mindestens von seinen superrealistischen Skulpturen riesiger Menschen, noch wahrscheinlicher aber kennt ihr Mueck als Puppeteer von Ludo in Jim Hensons Labyrinth.

In a rare interview, Mueck tells The Art Newspaper that he began Mass in his UK studio where he sculpted the original skull from clay and made some silicone moulds that would ultimately be used to cast multiple copies. “Because the original clay model gets destroyed in the moulding process, I cast out a master skull in resin to make additional moulds from,” Mueck says. “This master skull and the two moulds were shipped to Australia.”

The NGV scoped out locations around Melbourne where the rest of the skulls could be produced, rather than shipping 100 skulls across the oceans. After the NGV had sourced a fibreglass workshop that could make the skulls, Mueck travelled to Melbourne to work with them on the project.

Gib mir den Rest, Baby…


Alexander Sage hat ein Neural Network auf ein Dataset von 600k Logos trainiert und erkundet den Logo-Space (genauer: Den Signet-Space, Logos sind oft die Kombination aus Signet und Firmenname in Haustypo, die Wort-Bild-Marke). Der Algorithmus hier beschränkt sich meist auf das Signet, Typo kriegen die Maschinen noch nicht vernünftig hin. Die Auflösung ist mit 32x32 Pixeln ebenfalls (noch) nicht der Rede wert, wobei grade hier anderenorts gute Fortschritte erzielt werden und offenbar basiert das Logo-Dataset auf Favicons und das Ergebnis ist dem entsprechend eher… experimentell.

Zum Brainstorming und zur Visualisierung und Kombination einiger visueller Eigenschaften reicht das allerdings jetzt bereits: Format, prinzipielle Raumaufteilung, Form, Farben, diese Dinge kann der Algorithmus schon jetzt massenweise ausspucken mit einem Klick (und ein bisschen Rechenzeit und Training und allem was dazugehört, aber wir haben bei der Prisma-App bereits gesehen, wie schnell die Dinge Standard werden). Das Ergebnis muss zum Schluss nur noch von Photoshop-Philip saubergeklickt werden, das baut schnell einer nach. Was der Code hier ausspuckt ist die erste Phase meines gelernten Berufs, die Ideenfindung, in der man viel in masse, schnelle Layouts, Anordnungen, hingepfuscht und noch einmal miteinander kombiniert, solange es zum Sujet passt. Das kann man demnächst alles online zusammenklicken.

Der Kicker ist: Das ist der Bulk meines alten Jobs, da passiert auch grade bei größeren Projekten der meiste Aufwand, die Kommunikation mit dem Kunden, doch Serifen oder keine, das Rot doch 5% mehr Cyan oder nicht, die Abstimmung, die ganzen Geschmackbefindlichkeiten, und bei ganz großen Projekten kommt dann auch Politik hinzu (das ist der eigentliche Grund, warum das Arbeitsamt-Logo so teuer ist, nicht weil das Logozusammenklicken auf einmal teurer geworden ist, sondern weil das Logo im ganzen Land mit allen Entscheidern abgestimmt wird). Wenn man den Algorithmus nun zu Ende denkt, fällt genau der Bulk dieses Prozesses in ein paar Jahren weg und von der Kommunikationsagentur bleibt die Maschine und der eine Mensch übrig, der das Ergebnis sauberklickt – literally.

Die haben anscheinend auch gleich einen Logo-Generator gebaut, einen Link dazu habe ich leider nicht gefunden, aber falls sich noch wer an KaisPowerTools erinnert: „The user is able to choose either vicinity sampling or class transfer to modify the image in a chosen semantic direction. For both methods, 8 random variations are arranged around the current logo. Upon selecting the appropriate sample, the current logo can be modified by a variable amount using the slider at the bottom of the window. After confirming the selected modification, the process starts over again from the newly modified logo, until the desired appearance is reached.“

Verschmierte 32x32-Icons werden meinen alten Beruf jetzt noch nicht morgen beenden und bis ein Algo überzeugende Typo hinbekommt, wird nochmal mehr Zeit vergehen, aber gib dem noch 5 Jahre, ein anständiges Data-Set und Vektoren, dann geht da einiges. Das lustige ist dabei: Der Algorithmus macht jetzt bereits nichts anderes, als die Los Logos-Bücher seit den 90s, nur in hässlicher, was die Disruption gleichzeitig sehr schön illustriert.

Paper: Logo Synthesis and Manipulation with Clustered Generative Adversarial Networks

Designing a logo for a new brand is a lengthy and tedious back-and-forth process between a designer and a client. In this paper we explore to what extent machine learning can solve the creative task of the designer. For this, we build a dataset – LLD – of 600k+ logos crawled from the world wide web. Training Generative Adversarial Networks (GANs) for logo synthesis on such multi-modal data is not straightforward and results in mode collapse for some state-of-the-art methods. We propose the use of synthetic labels obtained through clustering to disentangle and stabilize GAN training. We are able to generate a high diversity of plausible logos and we demonstrate latent space exploration techniques to ease the logo design task in an interactive manner. Moreover, we validate the proposed clustered GAN training on CIFAR 10, achieving state-of-theart Inception scores when using synthetic labels obtained via clustering the features of an ImageNet classifier. GANs can cope with multi-modal data by means of synthetic labels achieved through clustering, and our results show the creative potential of such techniques for logo synthesis and manipulation. Our dataset and models will be made publicly available at https://data.vision.ee.ethz.ch/cvl/lld/.

Gib mir den Rest, Baby…

2017/12/15 Music #Musicvideos

Musicvideos: BEAK, Tocotronic, Run The Jewels, Civil Civic, Slow Dancer, Tricky, Guerilla Toss, Bully, Perel, Poppy, Jane Weaver, Alex Lahey

BEAK - (Merry Xmas) Face The Future Bully - Running Alex Lahey - I Haven't Been Taking Care of Myself…

2017/12/15 Movies #StarWars

Ich habe den Film nun zweimal gesehen und die Begeisterung der anderen will sich bei mir nicht so recht einstellen.

Ich denke sehr wohl, der Film erzählt seine Story in cleverem Arrangement und bietet dabei in seinen über 150 Minuten sehr viele beeindruckende Schlachten und an mindestens einem Punkt das möglicherweise wunderbar zerstörerischste Bild aller bislang 9 Filme mit punktgenauen SoundFX. Auch das Finale liefert den wahrscheinlich unfairsten Standoff der Saga mit epischen Bildern, wie man sie so in einem Star Wars-Film noch nicht sehen durfte.

Auch den Charakteren gibt der Film genug Raum und nimmt sich Zeit auch für Nebenfiguren, während die Porgs dankenswerterweise Non-Character bleiben und mal als halbes Hähnchen, mal als Fliehkraft-Fellflummi einen exakt lokalisierbaren, visuellen Cute-Fun-Punkt erzeugen und genau deshalb funktionieren – natürlich auch als Toy.

Die Höhepunkte des Films ist jedoch das erneute Aufeinandertreffen von Rey und Kylo, ihre Macht-Spielchen, die Entwicklung von Kylo zum ernstzunehmenden Villain, General Hux als Comedic-Relief from the dark side, die CGI-Fresse von Snoke und die Duelle im Thronsaal mit seinen galaktischen Red-Plastic-Ninjas und auch Reys Training liefert, wenn schon nicht dagobahsche Fremdartigkeit, so doch immerhin ausreichend Mythos und Rätsel.

Wo The Force Awakens vor zwei Jahren nun vor allem ein Remix von A New Hope darstellte, ist The Last Jedi eine invertierte Version von Empire strikes back und auch sonst erstarrt der Film beinahe an seiner Formelhaftigkeit. Auf jedem Planeten existieren Cute Beasts, auf jedem Planeten ein Rennen, ein bisschen Kapitalismus-Kritik an Waffenhandel und den 1% im Montecarlo der Galaxis und jede Sequenz bietet mindestens einen Gag, was The Last Jedi wohl auch zum lustigsten aller Star Wars-Filme macht und das meine ich nicht als Kompliment. Immerhin: Ein Jar Jar-Level erreicht man an keiner Stelle, nicht einmal mit bügelnden Robotern. Noch dazu gibt es mehrere Stellen im Script, die mich aus dem Film herausnehmen, ein paar Creature-Designs finde ich eher so mittel und der Film führt gleich mehrere neue Force-Kräfte ein, die zumindest diskussionswürdig sind.

Auch wirkte der Film optisch auf mich oft wie ein metaphorischer „Tunnel“, die Kamera zeigt jede Menge Spaceship-Ports und Tore, der Blick immer auf das Äußere gerichtet (auf das Ziel der Flucht). Auch das zerstörerischste Bild der Saga, von dem ich oben sprach, lässt sich in diesem Bild interpretieren und auch die tatsächlich nur minimale Fortbewegung im Raum während des gesamten Films lässt sich als Blockade lesen, durch die sich die Resistance „durchgraben“ muss, um am Ende die helle Seite der Macht am Ende des „Tunnels“ zu sehen, oder wie es der Film formuliert: „If you only believe in Light when you see it, you never make it through the night“. Durchaus ein clever geschriebener Hinweis auf die Funktion von The Last Jedi als mittlerer Film einer Trilogie.

Für mich bleibt ein guter bis stellenweise sehr guter Star Wars-Film, der in Epik und FX, Narration und Actionsequenzen in der Saga Maßstäbe setzt – und mich ob seiner sichtbaren Innovationsformel trotzdem nicht so richtig überzeugen kann.

——————

Alle Spoiler und Details dann im kommenden Wowcast.

Disney kauft Anteile und Firmen von 21st Century Fox, unter anderem 20th Century Fox, damit gehören Alien und die Fantastic Four und alles jetzt zur Mickey Mouse. Garfield-Filmrechte auch. Alles. I,Robot, Rocky, Die Hard, The Three Stooges, Predator, Planet of the Apes, A-Team, Machete. Hier 'ne Liste.

Im Gegenzug bekommt Robert Murdoch Disney-Aktien im Wert von $52.4 Millarden Dollar, was ihn zum größten alleinigen Aktienhalter macht. Der Deal betrifft nicht Fox News, dafür aber neben Twentieth Century Fox Film Corporation ein paar Kabelsender, Sky und vor allem 20th Century Fox Television mit den Simpsons, M*A*S*H, X-Files, Futurama, Family Guy, 24, Firefly oder The Orville. Und damit hat Disney jetzt auch die Rechte an den Original Star Wars-Filmen und damit steht einem Release der Kinoversionen auch nichts mehr im Weg. (Pic by Arthony70100)

Zu den Politics hinter dem Deal schreibt Cory auf Boing Boing: Disney buys Fox in all-stock deal, making Rupert Murdoch the largest shareholder in the company

a political and ideological oligarch, someone who wants to use his money to change the world -- imagine Donald Trump, except with ambitions to shape nations, rather than making reality TV shows and building shitty skyscrapers and lying about how tall they are.

Disney, meanwhile, is another curiosity in of 21st century business -- on the one hand thoroughly financialized and acting like any other vehicle for converting accounting practices into dividends; on the other hand, publicly and internally beholden to high-profile artists whose political views are on display in the products the company makes.

[update] „In the 1998 episode “When You Dish Upon a Star,” Homer becomes the personal assistant to Alec Baldwin and Kim Basinger after they leave Hollywood behind and move to Springfield. When Ron Howard comes to visit the actors, Homer pitches a time-tralveing robot movie. Later in the episode, Howard is seen pitching Homer’s script to 20th Century Fox, and the sign in front of the studio lot reads “a division of Walter Disney Co.” You can see the sign from the episode in the image [above].“

[update] Simpsons Executive Producer Matt Selman:

Gib mir den Rest, Baby…

Ugly Bitcoin Xmas-Sweater

Weihnachtssweater zur Krypto-Bubble: „Home of ugly crypto sweaters! Fully-knit and high quality. Pay with crypto in our ShapeShift integrated checkout!“…

36MHz Satellite Noise on VHS

Mit 8 (oder so) entdeckte ich, dass man nicht nur Maxi-Singles aus dem Radio auf Kassette aufzeichnen konnte, sondern auch…

The Star Wars – Ralph McQuarries Concept-Art animated in CGI-Trailer

Die Abschlussklasse der DAVE Animation-School hat Ralph McQuarries legendäre Star Wars-Konzeptzeichnungen in einem Trailer zum Leben erweckt. McQuarries Star Wars-Portfolios…

2017/12/13 Kultur #Crime

Homeless guy steals 300k by chance

Ich drück die Daumen: Obdachloser klaut 300.000 Euro aus Wechselstube: „Auf dem Pariser Flughafen hat sich ein Obdachloser gegen eine Tür gelehnt. Sie war offen - und dahinter verbarg sich ein Vermögen. […] Warum die Tür zu der Wechselstube nicht verschlossen war, ist der Polizei schleierhaft. 'Am Anfang haben wir an eine geplante Tat mit Komplizen gedacht, aber vermutlich war es einfach Zufall', sagte ein Polizist. 'Das ist schon verrückt.'“

An irgendeinem Samstag vor 20 Jahren saß ich im Taxi und bekam den Auftrag, jemanden nach Gießen zu fahren, was eine beachtliche Strecke ausmacht für einen Taxifahrer aus 'nem Tausendseelenkaff in Südhessen. Aber nice, gutes Geld, ich hab' Musik dabei, läuft. Als der einsteigt, hat er eine Tüte ums Handgelenk gewickelt, sonst nichts, und wie sich am Ende der Fahrt, die nicht weiter bemerkenswert verläuft, herausstellen wird, ist die Tüte voller Geld, lauter eingerollte Scheine. Der bezahlt die Fahrt, irgendwas mit hundertsoundsoviel Mark und dazu noch dicke hundert Mark Trinkgeld. Ich hab' nicht weiter nachgefragt, aber auch dem hab' ich die Daumen gedrückt – falls er es auf ehrliche Weise geklaut hat, meine ich, so wie der Obdachlose im Fall oben. Naja. Danke für's Trinkgeld jedenfalls.

Gib mir den Rest, Baby…

Nach dem Teaser der erste richtige Trailer zur Verfilmung von Jeff VanderMeers Southern Reach-Trilogie mit Natalie Portman, Jennifer Jason Leigh, Gina Rodriguez, Tessa Thompson, Tuva Novotny und Oscar Isaac, inszeniert von Alex Garland (Ex Machina, 28 Days Later). Sieht sehr groß aus:

Hier der Plot von Wikipedia: „Als zwölftes Expeditionsteam der geheimen Organisation Southern Reach werden vier Wissenschaftlerinnen in ein Gebiet geschickt, das als Area X bekannt ist. Seit vor 30 Jahren ein unbekanntes Ereignis den Landstrich erschütterte, überwuchert dort nun die Natur die letzten Überbleibsel menschlicher Zivilisation. Doch ihr Auftrag ist nicht einfach: Die Gruppe soll nicht nur das Areal und seine Tier- und Pflanzenwelt erforschen, sondern auch die Ursachen für das mysteriöse Unglück aufdecken. Die Mitglieder der vorherigen elf Forscherteams starben entweder an Krebs, begingen Suizid oder verschwanden spurlos.“

Michelin-Stern für Thai-Straßenköchin

I love this: Erster Michelin-Stern für Bangkoks Straßenküche. Obwohl die Konkurrenz in dieser Stadt, die so viel Wert aufs Essen…

Schimmel Timelapse

„Have you ever wondered what happens to bread left in wet plate? This time lapse shows how mold take over…

Ich schrieb in den bezahlten Anzeigen für den BR und seine Futurismus-Webserie Homo Digitalis viel über CRISPR – add this to the equation: Nature hat zum Nikolaus gleich 4 Papers zu selbstzusammenbauenden DNA-Origami veröffentlicht und in einem bauen sie eine Mona Lisa aus angeordneten Tiles bestehend aus DNA-Fraktal-Pixeln. Außerdem „a clipart-rooster, a bacterium, a photoreceptor circuit31 and a chess game, generated using the compiler, either converted and modified from an uploaded image directly or drawn manually using the ‘modify layout’ function.“ Und noch dazu haben sie eine DNA-Designsoftware namens FracTile entwickelt, mit der auch Biotech-Noobs fraktale DNA-Origami bauen können.

Außerdem bauen sie bereits Röhren aus DNA-„Ring Oligomers“, Teddybären aus literally DNA-Lego-Bricks aka „Three-dimensional nanostructures self-assembled from DNA bricks“ und DNA-Origami Massenproduktion. Welcome to the new Flesh.

DNA self-assembly scaled up: „DNA can be designed to self-assemble into target shapes, but the size and quantity of objects that can be prepared have been limited. Methods to overcome these problems have now been found.“

Tikhomirov et al.2 (page 67) used square DNA origami decorated with surface patterns (formed by DNA strands that extend from the origami surface) as building units to create 2D DNA origami arrays up to about half a micrometre across (Fig. 1a). The square origami join together through the formation of short DNA duplexes at their interfaces. To program the interactions between the square origami, the authors developed a fractal method in which local assembly rules were used recursively in a hierarchical, multi-step process that assembles increasingly large arrays of the square origami. Tikhomirov and colleagues also produced design software called FracTile Compiler, which will enable non-experts to devise DNA sequences and experimental procedures to make large DNA patterns. The authors validated this automated design process by using it to make several DNA ‘pictures’, including the Mona Lisa, a rooster and a chess-game pattern (see Fig. 3 of the paper2).

Wagenbauer et al.3 (page 78) have made 3D DNA origami structures at sizes up to the micrometre scale, using another hierarchical self-assembly approach (Fig. 1b). They used a V-shaped DNA origami object as the basic building block, in which the angle of the V could be altered. By controlling the geometry and interactions between the building blocks, higher-order assemblies can be constructed. The authors demonstrated the capabilities of their method by constructing micrometre-long tubes (similar in size to some bacteria) out of stacked planar rings up to 350 nm in diameter, and three types of polyhedron up to 450 nm in diameter.

Gib mir den Rest, Baby…

2017/12/13 Fun #Books #Xmas

Bookmas Tree

Der Weihnachtsbaum von @Wörterwald, perfekt für Xmas-Minimalisten und Leseratten. (via Textzicke)

Alex Jones New World Order Remix

„Spiritual Takeovermachines try to sell you on vaccines.“

🎸 Fuck Spotify, use Bandcamp. The Problem with Muzak:

digital strategists have identified “lean back listening” as an ever more popular Spotify-induced phenomenon. It turns out that playlists have spawned a new type of music listener, one who thinks less about the artist or album they are seeking out, and instead connects with emotions, moods and activities, where they just pick a playlist and let it roll: “Chillin’ On a Dirt Road,” “License to Chill,” “Cinematic Chill Out.” They’re all there.

These algorithmically designed playlists, in other words, have seized on an audience of distracted, perhaps overworked, or anxious listeners whose stress-filled clicks now generate anesthetized, algorithmically designed playlists.

📖 Derivative Sport: The Journalistic Legacy of David Foster Wallace: Leslie Jamison: I should probably start by saying—and the very insertion of this disclaimer is itself probably a symptom of Wallace’s imprint on my style, the sudden plunge into intimate conversation with one’s reader, not infrequently by way of apology!—that Infinite Jest has been, by quite a bit, the most personally meaningful to me of all of the Wallace writing that I’ve read. Partially because he’s so moving on recovery, material he preferred to treat in fiction. But also for the sheer energy and complexity and wrinkled-ness of its imagination, for the way that imagination never once forgot it was animated by beating human hearts there in the text. And Wallace’s interest in the possibilities of sincerity, the way that it wasn’t necessarily opposed to rigor but could be its ally—that’s really artistically and humanly inspiring to me.

🎲 Focus: Dice Become Ordered When Stirred, Not Shaken: Repeatedly tap on a box of marbles or sand and the pieces will pack themselves more tightly with each tap. However, the contents will only approach its maximum density after a long time and if you use a carefully crafted tapping sequence.

Paper: Experimental Study of Ordering of Hard Cubes by Shearing

👁 China: Die AAA-Bürger: Wer hingegen unter einen Wert von 600 fällt, landet in der schlechtesten Kategorie D. Betroffene müssen sogar befürchten, ihre Jobs zu verlieren. Über eine Smartphone-App kann sich jeder über den eigenen Punktestand informieren. Aber neben Behörden sollen auch Banken und Arbeitgeber, Vermieter, Einkaufsplattformen, Reiseveranstalter und Fluggesellschaften Einsicht in die Bewertung erhalten.
Als Datenquellen kommen Kranken- und Gerichtsakten, Onlineshopping oder Beiträge in sozialen Netzwerken in Betracht. Ebenso Internet-Suchanfragen, Reisepläne oder Einkäufe mit Kreditkarte oder den Bezahl-Apps, die in China weit verbreitet sind. Diese Daten analysiert und gewichtet das System, um daraus die Punktzahl abzuleiten. Noch wird die Bürgerbewertung lediglich ausprobiert. Doch bereits 2020 könnte es den derzeitigen Plänen zufolge für jeden chinesischen Staatsbürger zur Pflicht werden, sich mit seiner Sozialausweisnummer dafür registrieren zu lassen.

🕴 The impossibility of intelligence explosion: In 1965, I. J. Good described for the first time the notion of “intelligence explosion”, as it relates to artificial intelligence (AI):

The first issue I see with the intelligence explosion theory is a failure to recognize that intelligence is necessarily part of a broader system — a vision of intelligence as a “brain in jar” that can be made arbitrarily intelligent independently of its situation. A brain is just a piece of biological tissue, there is nothing intrinsically intelligent about it. Beyond your brain, your body and senses — your sensorimotor affordances — are a fundamental part of your mind. Your environment is a fundamental part of your mind. Human culture is a fundamental part of your mind. These are, after all, where all of your thoughts come from. You cannot dissociate intelligence from the context in which it expresses itself.
In particular, there is no such thing as “general” intelligence. On an abstract level, we know this for a fact via the “no free lunch” theorem — stating that no problem-solving algorithm can outperform random chance across all possible problems. If intelligence is a problem-solving algorithm, then it can only be understood with respect to a specific problem. In a more concrete way, we can observe this empirically in that all intelligent systems we know are highly specialized. The intelligence of the AIs we build today is hyper specialized in extremely narrow tasks — like playing Go, or classifying images into 10,000 known categories. The intelligence of an octopus is specialized in the problem of being an octopus. The intelligence of a human is specialized in the problem of being human.
What would happen if we were to put a freshly-created human brain in the body of an octopus, and let in live at the bottom of the ocean? Would it even learn to use its eight-legged body? Would it survive past a few days? We cannot perform this experiment, but we do know that cognitive development in humans and animals is driven by hardcoded, innate dynamics. Human babies are born with an advanced set of reflex behaviors and innate learning templates that drive their early sensorimotor development, and that are fundamentally intertwined with the structure of the human sensorimotor space. The brain has hardcoded conceptions of having a body with hands that can grab, a mouth that can suck, eyes mounted on a moving head that can be used to visually follow objects (the vestibulo-ocular reflex), and these preconceptions are required for human intelligence to start taking control of the human body. It has even been convincingly argued, for instance by Chomsky, that very high-level human cognitive features, such as our ability to develop language, are innate.

🐊 Hundreds of fossilized pterosaur eggs, some with embryos, found in China: Archaeologists have unearthed hundreds of fossilized pterosaur eggs in northwestern China. The number is unprecedented — 215 eggs — but even more significant from a paleontological perspective is the discovery of 16 unsquashed, still perfectly 3D embryos among them. Before this, only six other well-preserved pterosaur eggs had been found and none of them had 3D embryos inside. Frozen in time at various stages of development, the embryos have to potential to reveal a great deal we don’t know about the creatures, their lives and behaviors. The team saw what a treasure they had when they CT-scanned the eggs.

Gib mir den Rest, Baby…

2017/12/12 Movies #Trailer

Trailerfest: Black Panther, Alita Battle Angel, Maze Runner 3, Batman Ninja, 7 Days in Entebbe, Jurassic World 2

Neuer japanischer Trailer zum immer besser aussehenden Black Panther, zu Robert Rodriguez' whitewashed Verfilmung des Mangas Battle Angel Alita, zum…

Ernest Cline hat ein Sequel zu seinem Nostalgie-Ejakulat Ready Player One angekündigt. Während eines Livestreams zum neuen Trailer fragte jemand nach einem zweiten Teil zum Buch und Cline antwortete: „It’s true. I can’t talk about it too much, but there’s no better inspiration for a writer [than] to return to a world they’ve already worked on when they’re watching Steven Spielberg bring that world to life.“

Es ist jetzt nicht so, dass ich Ready Player One hasse. Es ist ein schlechtes Buch, es ist Nerd-Pulp. Nicht mehr, aber auch nicht weniger (und ich habe immer ein Herz für Pulp, mache mir aber keine Illusionen über seine Qualität).

Genau deshalb finde ich das Buch hauptsächlich interessant und zwar vor allem in seiner Rezeption von Fans. Ich finde es extrem faszinierend, dass dieses Buch so dermaßen gehyped wird, obwohl selbst der größte Fan zugeben muss, dass RPO weder Hochliteratur ist noch elegante Prosa aufweist, es ist eine 80s-Referenz nach der anderen in einem superausgelutschten Futuristic-Evil-Megacorp-Plot. That's it.

Ich denke, was das Buch so anziehend macht, ist 1.) die Geborgenheit der eigenen Kindheit und ihrer kulturellen Marker (Nostalgie halt), sowie 2.) die explizite Auslebung einer Nerd-Power-Fantasy, womit ich nicht die „Awkward Nerd rettet die Welt“-Fantasy meine (die hat wohl in irgendeiner Form jeder), sondern die „In the Oasis, you can be whoever you want, do whatever you like and create, whatever you can imagine“-Fantasy. Und es sagt etwas aus, dass es diese Fantasy in unserer Zeit zu einem solchen Kult-Status geschafft hat. Das hat sicher natürlich auch mit unserer Generation zu tun, deren Kindheit nunmal in den 80ern liegt, aber genauso sicher mit dem allumfassenden Zugriff auf so gut wie alle kulturellen Erzeugnisse ever, freigegeben zu jedem Remix.

Diese beiden Dinge ergeben in einem literarisch nicht weiter erwähnenswerten Text das möglicherweise zeitgeistigste Buch, das es in den letzten Jahren gab. RPO ist viel eher Phänomen, als Literatur, und als solches ist ein Sequel natürlich ein nobrainer. Tatsächlich denke ich, dass Ernest Clines Buch Armada (das ich nicht gelesen habe, von dem mir aber erzählt wurde, es wäre ziemlich furchtbar) bereits ein Sequel war. Ich denke, Cline kann nicht mehr als „die explizite Auslebung einer Nerd-Power-Fantasy“ – ich denke, er ist ein One-Trick-Pony.

Ich denke aber auch, dass Spielberg das weiß und der Film entsprechend kritische Subtexte liefert. Werden wir dann nächstes Jahr sehen.

Das Sequel werde ich grade aus allen oben genannten Gründen dennoch lesen, denn als Phänomen ist RPO viel zu interessant, um es zu ignorieren. Wer es verstehen will, sollte mal eine oder zwei Stunden in Reaction-Videos zum ersten Trailer investieren und auf die Gesichter an den Stellen achten, in denen der Nostalgie-Porn des Trailers seine Höhepunkte erreicht (Oasis-Geburtstagsparty, das Rennen, die Schlacht). Die Leute rasten nicht aus, kein Whoohoo, kein Geschrei und kein Gejohle – sie sind paralysiert! (Und nicht falsch verstehen: I'm one of them.)

Was man da sieht sind Kinder im Körper von Thirtysomethings, die nicht fassen können, ihre gesammelte Nostalgie im Bewegtbild zu sehen. Und mich interessiert sehr, was bei diesen Leuten passiert, wenn der Novelty-Effekt des ausgelebten Nostalgie-Pornos wegfällt – wenn also nach dem Buch-Sequel der dritte Teil erscheint und dann der vierte und dann das Sequel verfilmt wird und meine Generation langsam aber sicher keine Lust mehr darauf hat. Werden die dann alle erwachsen oder was?

Wie auch immer: RP2 in the making. Yay, or something.

Iron Maiden/Hitchcock/Misfits Retro-Actionfigures

Super7 haben zu Halloween eine Alfred Hitchcock-Actionfigur veröffentlicht und jetzt auch noch eine ganze Reihe neuer Iron Maiden-Toys aufgelegt, alle…

Ihr erinnert Euch an meine Sprüche, dass mit den neuen AI-Tools für Computer Vision demnächt Fake-Videos von allem erzeugt werden könnte und die Fake-News von 2016 nur ein erster Vorgeschmack waren? Nun, wir haben den ersten konkreten Anwendungsfall und es ist natürlich Rule 34: „Someone used an algorithm to paste the face of 'Wonder Woman' star Gal Gadot onto a porn video, and the implications are terrifying“.

Ein Reddit-User namens Deepfakes trainiert Neural Networks auf die Gesichter von Celebrities, die bewegten Gesichts-Animationen fügt er dann per Face-Detection in reale Pornos ein (sofern ich die Videos richtig interpretiere, ich verlinke die hier nicht, findet ihr selber). Das Ergebnis sind authentische Pornos mit your favorite Actress.

Fake-Porn per Photoshop ist zwar ungefähr so alt wie das Internet (und realistisch gesehen wahrscheinlich so alt wie Photoshop selbst), nur wird der Prozess hier automatisiert und funktioniert in Zukunft auf Ansage. Zwar dürften AI-Coder Sicherheitsmechanismen einbauen, die eine AI an „Identitätsklau“ hindern dürften, aber auch dafür wird es dann Hacks und Cracks geben. Das Konzept wird nicht mehr weggehen und es wird wohl auch nicht bei Schauspielerinnen aufhören. Welcome to the Future.

So far, deepfakes has posted hardcore porn videos featuring the faces of Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza, and Gal Gadot on Reddit. I’ve reached out to the management companies and/or publicists who represent each of these actors informing them of the fake videos, and will update if I hear back. […]

According to deepfakes — who declined to give his identity to me to avoid public scrutiny — the software is based on multiple open-source libraries, like Keras with TensorFlow backend. To compile the celebrities’ faces, deepfakes said he used Google image search, stock photos, and YouTube videos. Deep learning consists of networks of interconnected nodes that autonomously run computations on input data. In this case, he trained the algorithm on porn videos and Gal Gadot’s face. After enough of this “training,” the nodes arrange themselves to complete a particular task, like convincingly manipulating video on the fly. Artificial intelligence researcher Alex Champandard told me in an email that a decent, consumer-grade graphics card could process this effect in hours, but a CPU would work just as well, only more slowly, over days. […]

“I just found a clever way to do face-swap,” he said, referring to his algorithm. “With hundreds of face images, I can easily generate millions of distorted images to train the network,” he said. “After that if I feed the network someone else's face, the network will think it's just another distorted image and try to make it look like the training face.”

In a comment thread on Reddit, deepfakes mentioned that he is using an algorithm similar to one developed by Nvidia researchers that uses deep learning to, for example, instantly turn a video of a summer scene into a winter one. The Nvidia researchers who developed the algorithm declined to comment on this possible application.

The Dying Of The Light

Who needs sophisticated Cutting-Techniques or nonsensical Feelgood-Timelapse when you can simply attach a torch to a drone flying over ancient…