Microsofts Teenage AI racist'd by Trolls

1500x500

Microsoft hat ’ne neue AI für Teens namens Tay am Start, ein Chatbot „developed […] to experiment with and conduct research on conversational understanding.“ Schönes Ding, eigentlich.

Die AI „schläft“ derzeit und Microsoft „upgradet“ sie wohl grade, wahrscheinlich auch, weil die Software in Konversationen tatsächlich auch mal Kids zweideutig anmacht und vor allem löschen sie grade massenweise rassistische Tweets, die Tay von Trollen gelernt hat. (Tay antwortet auch auf @-Mentions, a la „Speak after me @tay“, einige der Rassismen dürften also schlichtes Nachplappern sein. Man sieht allerdings sehr wohl am Tweet über Ricky Gervais Atheismus weiter unten, dass die AI sehr wohl Rassismus aus den Konversationen gelernt hat.)

Microsoft has now taken Tay offline for "upgrades," and it is deleting some of the worst tweets — though many still remain. It's important to note that Tay's racism is not a product of Microsoft or of Tay itself. Tay is simply a piece of software that is trying to learn how humans talk in a conversation. Tay doesn't even know it exists, or what racism is. The reason it spouted garbage is because racist humans on Twitter quickly spotted a vulnerability — that Tay didn't understand what it was talking about — and exploited it.

screen_shot_2016-03-24_at_11_14_23

Internet in full effect.

(Wobei ich es wirklich mehr als schlampig von Microsoft finde, hier offensichtlich nichtmal einfachste Filter einzubauen, siehe N-Word-Tweets und Holocaust-Leugnung. Das gehört Microsoft komplett um die Ohren gehauen – nicht so sehr, weil der Scheiß passiert ist, sondern weil das Phänomen seit hundert Jahren bekannt ist und von Twitter-Bot-Spezies bereits ausführlich dokumentiert und das Problem zumindest rudimentär bereits gelöst ist. Schlechte Arbeit, that's what it is.)

screen shot 2016-03-24 at 09.50.46

screen_shot_2016-03-24_at_11_12_04

Screen_Shot_2016-03-23_at_8.13.38_AM

Screen_Shot_2016-03-23_at_8.14.15_AM