Conversation AI: Googles algorithmischer Troll-Filter triggert 4chan

Gepostet vor 2 Monaten, 16 Tagen in Kultur Tech Share: Twitter Facebook Mail

stfuNachdem Yahoo vor ein paar Wochen seinen Anti-Troll-Algorithmus vorgestellt hatte, schreibt Wired nun über Googles Jigsaw-Abteilung, die an einem AI-Tool namens ConversationAI arbeiten. Kurz: Ein machinelearning Anti-Troll-Filter.

a small subsidiary of Google named Jigsaw is about to release an entirely new type of response: a set of tools called Conversation AI. The software is designed to use machine learning to automatically spot the language of abuse and harassment—with, Jigsaw engineers say, an accuracy far better than any keyword filter and far faster than any team of human moderators. “I want to use the best technology we have at our disposal to begin to take on trolling and other nefarious tactics that give hostile voices disproportionate weight,” says Jigsaw founder and president Jared Cohen.

Zusammen mit Youtube Heroes (das hier von Dan Olsen ziemlich genau auseinandergenommen wird; offenbar ist YT-Heroes vor allem eine billige Methode, um Videos zu untertiteln) und seinem neuen Creators for Change-Programm wird klar: Google macht im Kampf gegen Hatespeech ernst.

Ich gehe davon aus, dass die human-identifizierten Hatespeech-Comments auf Youtube im Machine-Learning-Algorithmus ihrer ConversationAI landen, die so auf Feinheiten und Slang trainiert wird. Und wenn Google tatsächlich Twitter kaufen sollte, dürften diese Filter dort in absehbarer Zeit installiert werden. Wann Facebook ähnliche Maßnahmen ergreift, ist sicher nur eine Frage der Zeit.

Die Kritik an solchen Filtern ist klar: Wie genau kann ein Algorithmus Hatespeech identifizieren und sind sie in der Lage, Ironie zu entdecken? Die Antworten sind bislang „so mittelgut bis gut“ (angeblich 92% Erfolgsrate bei 10% false-positives) und „nein“:

the group partnered with The New York Times, which gave Jigsaw’s engineers 17 million comments from Times stories, along with data about which of those comments were flagged as inappropriate by moderators. Jigsaw also worked with the Wikimedia Foundation to parse 130,000 snippets of discussion around Wikipedia pages. It showed those text strings to panels of 10 people recruited randomly from the CrowdFlower crowdsourcing service and asked whether they found each snippet to represent a “personal attack” or “harassment.” Jigsaw then fed the massive corpus of online conversation and human evaluations into Google’s open source machine learning software, TensorFlow.

Machine learning, a branch of computer science that Google uses to continually improve everything from Google Translate to its core search engine, works something like human learning. Instead of programming an algorithm, you teach it with examples. Show a toddler enough shapes identified as a cat and eventually she can recognize a cat. Show millions of vile Internet comments to Google’s self-improving artificial intelligence engine and it can recognize a troll.

In fact, by some measures Jigsaw has now trained Conver­sation AI to spot toxic language with impressive accuracy. Feed a string of text into its Wikipedia harassment-detection engine and it can, with what Google describes as more than 92 percent certainty and a 10 percent false-positive rate, come up with a judgment that matches a human test panel as to whether that line represents an attack.

Wobei sich das Ergebnis durch ständig laufende humanidentifizierte Hatespeech (eben durch Youtube Heroes) sehr schnell verbessern lassen wird.

In wenigen Jahren dürften solche Hatespeech-Filter Standard für Social-Media-Plattformen sein, genau wie Spam-Filter heute – sind Spam-Filter eigentlich eine Beschränkung der Meinungsfreiheit? Just asking… – und mein Mitleid mit den Trollen und „Kritikern“ hält sich da trotz halbreflektierter Statements sehr in Grenzen.

Das Tool wird schon bald bei der NYTimes und Wikipedia eingesetzt, gleichzeitig werden sie das Teil opensource stellen:

Wikipedia and the Times will be the first to try out Google’s automated harassment detector on comment threads and article discussion pages. Wikimedia is still considering exactly how it will use the tool, while the Times plans to make Conversation AI the first pass of its website’s com­ments, blocking any abuse it detects until it can be moder­ated by a human. Jigsaw will also make its work open source, letting any web forum or social media platform adopt it to automatically flag insults, scold harassers, or even auto-delete toxic language, preventing an intended harassment victim from ever seeing the offending comment.

Und 4chan findet das alles natürlich nicht so prall und starteten eine „Operation Google“, in der sie versuchen, „Google“ als neues N-Wort zu etablieren. No surprises.

It was from that thread that the idea came from. If Google wants to block offensive words, then they are going to give them the most offensive word to block: GOOGLE.

The plan has already taken root on 8chan’s /pol/ board and several other 4chan boards. Every time they want to use the word “N*gger”, they’re going to use “Google” instead. Let Google block that:

operation-google-2

Tags: AlgoCulture DasGeileNeueInternet Hatespeech Trolls

bildschirmfoto-2016-12-09-um-10-49-19

Links 9.12.2016: Das rechte Netz, The Age of Anger, Magischer Digitalismus, George Orwell & the Age of Outrage

BR: Rechtes Netz: „BR Data hat anhand der Seite von Pegida Nürnberg einen Teil des rechtspopulistischen Kosmos untersucht und ein…

15252534_1038116669631373_8896979166214787237_o

Links 8. 12. 2016: Schadenfreude with Bite, Dr. Jordan Petersons Free Speech Debate und Florian Cramer über Dark Enlightment und die Alt-Right

Hochinteressanter Vortrag von Florian Cramer über die Alt-Right, Neo-Reaktionismus und das Dark Enlightment: „A lecture by Florian Cramer on the…

poo

Pope: Fake News is like Sex with Shit 💩

Der Papst hat dann auch noch was zu Fake News zu sagen und das Statement ist einerseits bemerkenswert nerdcore, andererseits…

unfoodtruckspecified

Artbot.Space: Twitter-Bot remixt Headlines über algorithmische Kunst

Maria Roszkowska and Nicolas Maigret haben eine Plattform für AI-generierte Konzeptkunst aufgesetzt. Auf Artbot.Space sammelt man die Ergebnisse des Predictive…

A screenshot of New Zealand man Richard Lee's passport photo rejection notice, supplied to Reuters December 7, 2016.   Richard Lee/Handout via REUTERS

„Racist“ Algorithm tells Asian to open his eyes

Ein „rassistischer“ Gesichtserkennungs-Algorithmus verweigert den Passbild-Upload eines Asiaten wegen angeblich geschlossener Augen. Richard Lee's attempt to renew his passport was…

nnnn

Links 7.12.2016: Die Wir-Kapazität, universalistische Identitätspolitik und Steven Pinker über die Nicht-Apokalypse

Frau Meike: Die Befreiung des Ich: Die natürliche Gruppengröße wird Dunbar-Zahl genannt. Sie steht für die Anzahl der Menschen, denen…

outrage

Links 6. 12. 2016: Outrage-Memetics Propaganda Machine, the Land of no Context und Trumps Filterbubble

Schöner Dreiteiler von Jonathan Albright über Filterbubbles, BigData-Voodoo und „Fake-News“. Den ersten Teil hatte ich schonmal verlinkt, im zweiten beschreibt…

trtrtr

Links 5. 12. 2016: Big Data Voodoo, Political Correctness, Verschwörungstheorien, Gamergate und Trump

Diese Story von Das Magazin über die Rolle von Psychometrie und targeted Facebook-Werbung bei der Wahl Trumps wird seit dem…

Links 01.12.16: Biased News, Slavoj Žižek über das Versagen der Linken und ein Aussteiger aus 8/pol/

Links 01.12.16: Biased News, Slavoj Žižek über das Versagen der Linken und ein Aussteiger aus 8/pol/

Interessantes Reddit-AMA: Ich bin ein Aussteiger aus der rechten Online Szene und habe an Propagandaprojekten wie "With Open Gates" mitgewirkt.…

Donald Trump: Magician-In-Chief

Donald Trump: Magician-In-Chief

Wie Trump mit Eurer Aufmerksamkeit Achterbahn fährt:

algo1

Algorithmic Nicolas Cage/Taylor Swift Face-Swaps

Iryna Korshunova, Wenzhe Shi, Joni Dambre und Lucas Theis haben einen Algorithmus für FaceSwaps programmiert und zur Illustration ihrer Methode…