Zehntausende Iraner feiern den israelischen Premierminister Benjamin Netanjahu mit seinem Spitznamen und skandieren jubelnd »Bibi Joon«. Ein Video dazu verbreitete sich Anfang März wie ein Lauffeuer in sozialen Netzwerken. »Bibi Joon« bedeutet so viel wie »lieber Bibi«. Doch Menschenmengen, die während des massiven US-amerikanischen und israelischen Beschusses spontan auf die Straßen gehen, obwohl es im Iran noch keine Proteste der Bevölkerung gibt? Es war kaum zu glauben. Und tatsächlich wurde schnell klar, dass es sich bei dem Video um ein KI-Deepfake handelte.
Um zu belustigen, provozieren oder auch, um die öffentliche Meinung ganz gezielt in eine Richtung zu lenken. Kurz darauf jedoch war nicht mehr alles »fake«. Die Grenze zwischen Fiktion und Realität begann zu verschwimmen: Menschen, vor allem Exiliraner in verschiedenen Ländern, stellten die Szenen nach, in Cafés, auf Straßen, vor Kamera, riefen »Bibi Joon« - und dankten dem israelischen Premier für seinen Kampf gegen das unterdrückerische Regime in ihrer alten Heimat. Aus einer digitalen Fantasie wurde plötzlich greifbare Realität.
Die »Bibi Joon«-Meme-Episode ist nur ein Beispiel in einem Krieg, der zunehmend auch digital ausgefochten wird. Künstliche Intelligenz, Algorithmen, Deepfakes und koordinierte Desinformation bestimmen zunehmend, was die Menschen glauben sollen – und auch glauben.
Digitale Front geht weit über Meme und manipulierte Videos hinaus
In den letzten Wochen während des Krieges zwischen den USA und Israel gegen den Iran zeigt sich zudem, dass die digitale Front weit über Memes und manipulierte Videos hinausgeht. Denn viele der digitalen Übergriffe stammen nicht von zufälligen Online-Trollen, sondern von staatlich unterstützten Akteuren. Wie der iranischen Hackergruppe »Handala Hack Team«. Über Jahre hinweg attackierte sie israelische und US-Ziele, stahl und veröffentlichte sensible und persönliche Daten, manipulierte Narrative und versuchte, politische und militärische Entscheidungen zu beeinflussen.
Obwohl die USA versuchten, den kriminellen Internettätigkeiten ein Ende zu bereiten, nahm die Gruppe ihre Aktivitäten wieder auf, was US-Justizministerium und FBI bestätigten. Unterstützer der Mullahs hatten offenbar ihre Websites und Kanäle rekonstruiert. Die Einheit wird mit dem iranischen Ministerium für Geheimdienste und Sicherheit (MOIS) in Verbindung gebracht. Zudem steht sie im Zusammenhang mit einer Cyberattacke auf ein US-Medizintechnik-Unternehmen, die Krankenhaus-IT-Systeme beeinträchtigte und lahmlegte.
Das Comeback der pro-iranischen Hacker ist ein Beweis, wie schwer es ist, solche Gruppen dauerhaft auszuschalten: Denn nur einen Tag nach der Beschlagnahmung ihrer Domains stellte Handala seine Website wieder online und bezeichnete die US-Maßnahmen als »verzweifelten Versuch, die Stimme von Handala« zu unterdrücken.
Sicherheitsexperten betonen, dass iranische Hackereinheiten trotz wiederholter Domain-Entfernungen, gesperrter Social-Media-Accounts oder rechtlicher Schritte meist schnell neue Online-Präsenzen aufbauen können, weil sie auf viele Fronten operieren – von Telegram-Kanälen über geheimen Foren bis hin zu Ersatz-Domains und Proxy-Netzwerken.
Cyberexpertin Keren Elazari: »Die Fähigkeit, kritisch zu hinterfragen, was echt ist und was nicht, ist zu einer grundlegenden digitalen Überlebensfähigkeit geworden.«
Die Hacker selbst nutzen mehrschichtige Strategien: gefälschte Accounts, automatisierte Bots, Social-Media-Traffic, Phishing-Kampagnen und subtile Deepfake-Videos. Reale Nachrichtenfragmente werden mit gefälschten Bildern oder Stimmen kombiniert, um die Inhalte glaubwürdiger erscheinen zu lassen. Das Ziel: Angst schüren, Vertrauen in offizielle Quellen untergraben und politische Narrative manipulieren – sowohl innerhalb des Iran als auch international.
Die israelische Cyber-Expertin Keren Elazari, Forscherin an der Tel Aviv Universität, warnt vor den Risiken solcher Technologien: Die breite Verfügbarkeit digitaler Werkzeuge erleichtere es, Fake News und manipulierte Inhalte zu verbreiten. Deshalb sei die Fähigkeit, kritisch zu hinterfragen, »was echt ist und was nicht«, zu einer grundlegenden digitalen Überlebensfähigkeit geworden. Sie betont, dass KI-generierte Inhalte emotional oft stärker wirken als klassische Falschmeldungen, was die Wahrnehmung noch schwieriger macht.
Neben spektakulären Memes und Deepfakes kursieren darüber hinaus zahllose manipulierte Inhalte über angebliche militärische Erfolge oder Verluste, gefälschte politische Statements und anderes im Internet. Nicht selten sind es Clips aus Videospielen oder alten, meist beendeten Konflikten oder Kriegen. Social Media multipliziert die Verbreitung und Wirkung, während die Echtheit manchmal kaum mehr überprüft werden kann.
Netanjahu sah sich gezwungen zu reagieren
Die »Bibi Joon«-Episode zeigt, wie digitale Fälschungen und KI-Werkzeuge strategisch eingesetzt werden, um Wahrnehmung und Emotionen im Internet gezielt zu steuern. Sie ist ein Lehrstück dafür, wie Memes nicht nur die Online-Kultur beeinflussen, sondern sogar reale Aktionen anstoßen können: Menschen, die Szenen nachstellen, Medienberichte, die die Meme in neue Kontexte einbetten, und sogar politische Akteure, die reagieren müssen, um Glaubwürdigkeit zu wahren.
So geschah es Netanjahu persönlich. Nachdem das Regime in Teheran ihn für »tot« erklärt hatte, sah er sich gezwungen, Videos von sich zu veröffentlichen. Zwar schien er es mit Humor zu nehmen, doch lustig sind derartige Falschnachrichten nur oberflächlich.
Denn Experten beobachten, dass auch in militärischen Auseinandersetzungen die digitale Frontlinie immer entscheidender wird. Denn Informationskriege können wirtschaftliche, politische und militärische Entscheidungen beeinflussen, lange bevor eine physische Handlung erfolgt.
Regierungen, Plattformen, Medienhäuser und viele andere kämpfen um die Verteidigung der Wahrheit, während die Öffentlichkeit zunehmend skeptisch wird. Experten sprechen von der sogenannten »Reality Erosion« – einem Zustand, in dem Fakten und Fiktion kaum mehr unterscheidbar sind und das Grundvertrauen der Menschen zunehmend verloren geht.