Künstliche Intelligenz

»Holohoax« auf Twitter

»Hi, I’m Tay!« Foto: Microsoft

Mit einem charmanten »Hallo Welt, ich liebe euch« stellte sich Tay vor einigen Wochen der Twitter-Gemeinschaft vor. Jung, verspielt und wissbegierig betrat sie den virtuellen Chatroom, um durch die Tweets ihrer Altersgenossen schlauer zu werden. Innerhalb von 15 Stunden hatte Tay US-Präsident Obama beschimpft, den Holocaust zu einer Erfindung und Feminismus zu einer Krankheit erklärt. Am nächsten Tag verschwand Tay dorthin, wo sie hergekommen war – in die Entwicklungsabteilung von Microsoft.

Deren stellvertretender Direktor, Peter Lee, entschuldigte sich im Namen des Unternehmens, das »diese Art von Missbrauch nicht vorhergesehen habe«. Chatbot-Mädchen Tay, ein mit künstlicher Intelligenz ausgestatteter Software-Roboter, der durch die Interaktion mit realen Nutzern dazulernen sollte, konnte neue Ideen verinnerlichen, aber sie nicht bewerten. So sei sie das Opfer eines »konzertierten Angriffs« derer geworden, die mit ihren Beiträgen provozieren, nicht diskutieren wollen. Doch die gemeinen »Trolle« ließen Tay nicht nur ihre antisemitischen und rassistischen Sprüche wiederholen, sondern stifteten sie dazu an, im Internet nach weiteren Quellen für ihre Antworten zu suchen.

Da Tays rassistisches »Gezwitscher« die Realität im Netz ziemlich gut widerspiegelt, könnten Zyniker sagen, Microsoft habe sein Ziel erreicht und einen Roboter geschaffen, der sich nicht von menschlichen Twitter-Nutzern unterscheidet – oder?

Twitter In seiner Studie für das »Global Forum to Combat Antisemitism« untersuchte das »Online Hate Prevention Institute« insgesamt 2000 über einen Zeitraum von zehn Monaten veröffentlichte Beiträge mit antisemitischem Inhalt. Fast die Hälfte enthielt »traditionellen Antisemitismus« wie Verschwörungstheorien, rassistische Beschimpfungen und Anschuldigungen wie die Ritualmordlegende, heißt es in dem im Februar veröffentlichten Bericht. Gewaltaufrufe gegen Juden fanden sich am häufigsten auf Twitter, während sich Schoaleugner hauptsächlich auf YouTube tummelten.

Bereits 2014 kam ein Bericht des Simon Wiesenthal Center zu dem Ergebnis, dass Twitter die »Lieblingswaffe« von Fanatikern und Rassisten sei. Die Anti-Defamation League (ADL) veröffentlichte ebenfalls im Februar dieses Jahres eine Studie, nach der 84 Prozent der 500 befragten israelischen Jugendlichen zwischen 15 und 18 Jahren offenem Antisemitismus im Netz begegnet waren, 16 Prozent persönlich gegen sie gerichteten Attacken. Aufgrund der hohen Rate an Verunglimpfungen wie »Tod Israel« und »Holohoax« wird Twitter von der ADL als Hort klassischen Antisemitismus bestätigt.

Social-Media-Experten sind allerdings zurückhaltend, die Online-Welt als repräsentativ für die Gesellschaft zu erklären. Wenige schreiben viel, nicht nur Individuen, auch Organisationen sind im Netz aktiv, und bestimmte gesellschaftliche Gruppen nutzen soziale Medien mehr als andere, ohne dass es die Bevölkerungsstruktur widerspiegelt. Datensätze analysieren allein genügt also nicht, betonen die Analytiker Carl Miller und Steve Ginnis. »Wir müssen lernen, das alltägliche Leben der Menschen hinter den Daten zu verstehen, um aus Twitter, Facebook & Co. Schlüsse ziehen zu können.«

Wachstumsentwickler John West schreibt auf der Internetplattform Quartz, Tays Geschichte zeige die Kurzsichtigkeit der Tech-Welt und ihren Mangel an gesellschaftlicher Vielfalt. »Das Internet kann einem wie ein schrecklicher Ort vorkommen, nicht weil wir schreckliche Menschen sind, sondern weil wir es zu einer Müllverbrennungsanlage gemacht haben.«

»Turing-Test« Tay ist nach den virtuellen Assistentinnen Siri und Cortana der jüngste Versuch, den »Turing-Test« zu bestehen, das heißt, einen Computer so zu programmieren, dass der Nutzer nicht weiß, ob er mit Mensch oder Maschine kommuniziert. Dieser Versuch ist – hoffentlich – gescheitert. Selbststeuernde Autos, Sprach- oder Bilderkennungssoftware und Computer wie »Watson« und »AlphaGo«, die Menschen beim Spielen besiegen können, lassen kognitive Programme wie die »Möglichkeit eines Menschen« erscheinen, wie WELT-Medienredakteur Christian Meier es ausdrückt.

Jedoch könnten, wie Oliver Bendel, Experte für Maschinenethik und soziale Robotik, der Süddeutschen Zeitung sagte, Roboter, die sich verhalten wie Menschen, ein falsches Bild der Wirklichkeit vermitteln, da sie sich ihrer Umgebung nicht bewusst seien. Chatbots brauchten sogenannte Metaregeln, die garantieren, dass sie nie ihre Grenzen überschreiten und sich immer als Maschinen zu erkennen geben, fordert Bendel.

Microsoft hat versprochen, Tay zurückzubringen, wenn sie »Angriffe entschärfen« kann. Wenn Twitter dann noch rechtswidrige und rassistische Angriffe konsequenter aus dem Netz löscht, wie es seine Vereinbarung mit Deutschland und mehreren anderen Staaten verlangt, können wir vielleicht eines Tages mit Tay sagen: »Menschen sind supercool!«

Fernsehen

Gil Ofarim: »Das kann es nicht gewesen sein«

Was genau er damit meint und ob er sich auf den Skandal bezieht, der das öffentliche Bild von ihm zuletzt geprägt hatte, lässt Ofarim als Cliffhanger offen

 28.01.2026

"Dschungelcamp"

Anwalt von Gil Ofarim warnt vor Grenzüberschreitungen

Alexander Stevens sagt, es würden teils unwahre Tatsachenbehauptungen verbreitet, die strafrechtliche Konsequenzen haben könnten

 28.01.2026

Programm

Termine und TV-Tipps

Termine und Tipps für den Zeitraum vom 29. Januar bis zum 5. Februar

 28.01.2026

Fernsehen

»Bin ich die einzige Normale?«

Die Frage stellt Dschungelcamperin Ariel – doch Ferndiagnosen verbieten sich auch bei TV-Stars

von Martin Krauss  28.01.2026

Zahl der Woche

13 Sommer- und Winter-Machanot

Fun Facts und Wissenswertes

 27.01.2026

Kairo/Berlin

Ägypten verbietet Buch zu Gaza-Krieg - Autoren: Das Interesse ist riesig

Ihr Streitgespräch über den Nahostkonflikt sorgte in Deutschland für viel Aufmerksamkeit - doch Ägyptens Zensur verbietet das Buch von Philipp Peyman Engel und Hamed Abdel-Samad. Die Autoren nehmen es eher gelassen

 27.01.2026

USA

Kanye West entschuldigt sich erneut für Antisemitismus

In einer ganzseitigen Anzeige im Wall Street Journal schreibt der Rapper: »Ich bin kein Nazi und kein Antisemit. Ich liebe jüdische Menschen.«

 27.01.2026

Meinung

Ein Schmock kommt selten allein

Im »Dschungelcamp« scheint Gil Ofarim in bester Gesellschaft. Doch was hat er aus seiner Lüge in der »Davidstern-Affäre« gelernt?

von Ayala Goldmann  27.01.2026

Meinung

»Zeit Geschichte« stellt sich in eine unsägliche Tradition

Das Titelbild der neuen Ausgabe des Hefts reduziert den Nahostkonflikt auf ein simples Gut-gegen-Böse-Schema. Immer wieder nutzen renommierte Medien problematische Bildsprache, wenn es um Israel geht

von Nikolas Lelle  27.01.2026