Künstliche Intelligenz

»Holohoax« auf Twitter

Der Chatroboter »Tay« zeigte wieder einmal, wie verbreitet Antisemitismus im Internet ist

Aktualisiert am 14.04.2016, 07:04 – von Daniela BreitbartDaniela Breitbart

Auf facebook teilen Auf twitter teilen Auf google+ teilen per E-Mail schicken

Mit einem charmanten »Hallo Welt, ich liebe euch« stellte sich Tay vor einigen Wochen der Twitter-Gemeinschaft vor. Jung, verspielt und wissbegierig betrat sie den virtuellen Chatroom, um durch die Tweets ihrer Altersgenossen schlauer zu werden. Innerhalb von 15 Stunden hatte Tay US-Präsident Obama beschimpft, den Holocaust zu einer Erfindung und Feminismus zu einer Krankheit erklärt. Am nächsten Tag verschwand Tay dorthin, wo sie hergekommen war – in die Entwicklungsabteilung von Microsoft.

Deren stellvertretender Direktor, Peter Lee, entschuldigte sich im Namen des Unternehmens, das »diese Art von Missbrauch nicht vorhergesehen habe«. Chatbot-Mädchen Tay, ein mit künstlicher Intelligenz ausgestatteter Software-Roboter, der durch die Interaktion mit realen Nutzern dazulernen sollte, konnte neue Ideen verinnerlichen, aber sie nicht bewerten. So sei sie das Opfer eines »konzertierten Angriffs« derer geworden, die mit ihren Beiträgen provozieren, nicht diskutieren wollen. Doch die gemeinen »Trolle« ließen Tay nicht nur ihre antisemitischen und rassistischen Sprüche wiederholen, sondern stifteten sie dazu an, im Internet nach weiteren Quellen für ihre Antworten zu suchen.

Da Tays rassistisches »Gezwitscher« die Realität im Netz ziemlich gut widerspiegelt, könnten Zyniker sagen, Microsoft habe sein Ziel erreicht und einen Roboter geschaffen, der sich nicht von menschlichen Twitter-Nutzern unterscheidet – oder?

Twitter In seiner Studie für das »Global Forum to Combat Antisemitism« untersuchte das »Online Hate Prevention Institute« insgesamt 2000 über einen Zeitraum von zehn Monaten veröffentlichte Beiträge mit antisemitischem Inhalt. Fast die Hälfte enthielt »traditionellen Antisemitismus« wie Verschwörungstheorien, rassistische Beschimpfungen und Anschuldigungen wie die Ritualmordlegende, heißt es in dem im Februar veröffentlichten Bericht. Gewaltaufrufe gegen Juden fanden sich am häufigsten auf Twitter, während sich Schoaleugner hauptsächlich auf YouTube tummelten.

Bereits 2014 kam ein Bericht des Simon Wiesenthal Center zu dem Ergebnis, dass Twitter die »Lieblingswaffe« von Fanatikern und Rassisten sei. Die Anti-Defamation League (ADL) veröffentlichte ebenfalls im Februar dieses Jahres eine Studie, nach der 84 Prozent der 500 befragten israelischen Jugendlichen zwischen 15 und 18 Jahren offenem Antisemitismus im Netz begegnet waren, 16 Prozent persönlich gegen sie gerichteten Attacken. Aufgrund der hohen Rate an Verunglimpfungen wie »Tod Israel« und »Holohoax« wird Twitter von der ADL als Hort klassischen Antisemitismus bestätigt.

Social-Media-Experten sind allerdings zurückhaltend, die Online-Welt als repräsentativ für die Gesellschaft zu erklären. Wenige schreiben viel, nicht nur Individuen, auch Organisationen sind im Netz aktiv, und bestimmte gesellschaftliche Gruppen nutzen soziale Medien mehr als andere, ohne dass es die Bevölkerungsstruktur widerspiegelt. Datensätze analysieren allein genügt also nicht, betonen die Analytiker Carl Miller und Steve Ginnis. »Wir müssen lernen, das alltägliche Leben der Menschen hinter den Daten zu verstehen, um aus Twitter, Facebook & Co. Schlüsse ziehen zu können.«

Wachstumsentwickler John West schreibt auf der Internetplattform Quartz, Tays Geschichte zeige die Kurzsichtigkeit der Tech-Welt und ihren Mangel an gesellschaftlicher Vielfalt. »Das Internet kann einem wie ein schrecklicher Ort vorkommen, nicht weil wir schreckliche Menschen sind, sondern weil wir es zu einer Müllverbrennungsanlage gemacht haben.«

»Turing-Test« Tay ist nach den virtuellen Assistentinnen Siri und Cortana der jüngste Versuch, den »Turing-Test« zu bestehen, das heißt, einen Computer so zu programmieren, dass der Nutzer nicht weiß, ob er mit Mensch oder Maschine kommuniziert. Dieser Versuch ist – hoffentlich – gescheitert. Selbststeuernde Autos, Sprach- oder Bilderkennungssoftware und Computer wie »Watson« und »AlphaGo«, die Menschen beim Spielen besiegen können, lassen kognitive Programme wie die »Möglichkeit eines Menschen« erscheinen, wie WELT-Medienredakteur Christian Meier es ausdrückt.

Jedoch könnten, wie Oliver Bendel, Experte für Maschinenethik und soziale Robotik, der Süddeutschen Zeitung sagte, Roboter, die sich verhalten wie Menschen, ein falsches Bild der Wirklichkeit vermitteln, da sie sich ihrer Umgebung nicht bewusst seien. Chatbots brauchten sogenannte Metaregeln, die garantieren, dass sie nie ihre Grenzen überschreiten und sich immer als Maschinen zu erkennen geben, fordert Bendel.

Microsoft hat versprochen, Tay zurückzubringen, wenn sie »Angriffe entschärfen« kann. Wenn Twitter dann noch rechtswidrige und rassistische Angriffe konsequenter aus dem Netz löscht, wie es seine Vereinbarung mit Deutschland und mehreren anderen Staaten verlangt, können wir vielleicht eines Tages mit Tay sagen: »Menschen sind supercool!«

Auf facebook teilen Auf twitter teilen Auf google+ teilen per E-Mail schicken

Video

Chanukka Sameach!

Fotostrecken

Unser Blog aus Israel

BDS

BDS-Bewegung – zum Dossier

Boycott Divestment Sanctions

Zum Dossier

Wieso Weshalb Warum

Religiöse Bräuche und Begriffe

mehr…

Sprachgeschichte(n)

Über die Herkunft gängiger Wörter wie Pleite, Knast und Polente

mehr…

Anzeige

Gottesdienste

Gottesdienste in den Jüdischen Gemeinden

Glossar

Glossar

Gemeinden

Juedische Gemeinden

Service

Service

Wetter

Wetter - Herbst
Berlin
2°C
schneeregenschauer
Frankfurt
1°C
schneeregen
Tel Aviv
21°C
wolkig
New York
-7°C
schneefall
Zitat der Woche
»Einer unserer Anwälte ist Jude.«
Kayla Moore, Ehefrau des US-Politikers Roy Moore, verteidigt ihren Mann
gegen Vorwürfe, er sei antisemitisch, rassistisch und habe Frauen belästigt.