Sarah Spiekermann

»Der Mensch wird unterschätzt«

Die Professorin für Wirtschaftsinformatik über Kritik an Yuval Noah Harari und die Frage, warum KI nicht intelligent ist

von Katrin Richter  17.06.2023 23:09 Uhr

»Wir brauchen Vorbilder, die die Antworten der Künstlichen Intelligenz kritisch hinterfragen können«: Sarah Spiekermann Foto: David Payr

Die Professorin für Wirtschaftsinformatik über Kritik an Yuval Noah Harari und die Frage, warum KI nicht intelligent ist

von Katrin Richter  17.06.2023 23:09 Uhr

Frau Spiekermann, Sie waren in der vergangenen Woche Gast auf der re:publica, dem Festival für die digitale Gesellschaft in Berlin. Was sind Ihre Eindrücke?
Die re:publica ist eine sehr reife Konferenz geworden, vielleicht würde ich sie mir wieder etwas kleiner wünschen, aber es ist schwierig, den Erfolg künstlich zu kappen.

In Ihrem Talk zum Thema »Why Harari’s Homo Deus’ story of our technological future is wrong« kritisierten Sie den israelischen Historiker Yuval Noah Harari. Wofür?
Der erste Teil meines Vortrags bezog sich hauptsächlich auf den Transhumanismus – also die Denkrichtung, die biologische Grenzen der Menschen durch den Einsatz von Technologie und Wissenschaft überwinden will – als wachsenden und dominanten Zeitgeist, der sehr starke politische und ökonomische Flügel hat. Transhumanismus kommt in allen möglichen Formen daher, vom chinesischen Überwachungsstaat zum europäisch-amerikanischen Überwachungskapitalismus. Es gibt große Befürworter wie den Unternehmer Elon Musk oder auch Raymond Kurzweil, den Leiter der technischen Entwicklung bei Google. Auch Harari zitiert sie in seinem Buch »Homo Deus«. Diesen transhumanistischen Zeitgeist, der zum einen zutiefst menschenfeindlich und zum anderen technologisch überschätzt argumentiert, habe ich zunächst einmal vorgestellt, bevor ich in die Analyse des Buches gegangen bin. Ich möchte zeigen, wie Harari die Eckpfeiler des Transhumanismus in seinem Buch umarmt, aber leider unkritisch darstellt.

Muss ein populärwissenschaftliches Buch eines Historikers, der sich zu technischen Dingen äußert, überhaupt kritisch sein?
Ich finde, jemand sollte nur ein Buch über ein Thema auf den Markt bringen, zu dem er sich inhaltlich auch äußern kann oder wo er sich das zutraut. Das ist die Verantwortung eines Autors. Wenn ein Autor sich in bestimmten Bereichen, in die er sich hinauswagt, nicht hundertprozentig auskennt, dann gibt es verschiedene Möglichkeiten. Er kann das breitere Spektrum der Meinungen darstellen. Er kann im Konjunktiv reden, und er kann sich auch kritische Gutachter einholen. Alle drei Dinge sind offensichtlich nicht wirklich so erfolgt.

Sie haben das Buch also gemeinsam mit Ihren Kolleginnen und Kollegen unter die Lupe genommen.
Ganz genau. Das Buch ist fantastisch geschrieben, sehr kurzweilig zu lesen, und man überliest sehr gern, was da wirklich drinsteht. Wir haben eine Inhaltsanalyse mit vier verschiedenen Personen gemacht, die alle Aussagen – wohlgemerkt nur die Aussagen – untersucht haben. Das sind oft nicht nur kleine Sätze, sondern ganze Passagen, sodass die Kontext-Validität erhalten bleibt. Es gibt 268 Passagen zu Künstlicher Intelligenz, Algorithmen, Systemen: alles, was sich auf Technik bezieht. Wir sind Wirtschaftsinformatiker, und wir können auch nur technische Aussagen analysieren. Hararis Aussagen zur philosophischen Welt oder zur Bioethik zu bewerten, übersteigt unsere Kompetenz.

Und Ihr Ergebnis ist welches?
Der Mensch wird unterschätzt – ganz im Sinne des Transhumanismus, und die Technik wird überschätzt. Technische Entwicklungen, die heute als Ideen existieren, werden als unabwendbar dargestellt. Es gibt einen moralischen Imperativ, der besagt, dass der Mensch eigentlich die Verpflichtung hat, sich dieser Zukunft gegenüber positiv einzustellen. Harari trifft eine einseitige Quellenwahl. Rhetorische Fragen reichen eben nicht aus. Und Metaphern werden überstrapaziert: Wenn ein Autor in seinem Buch circa 100-mal den Menschen mit einem Computersystem vergleicht, dann ist das keine Metapher mehr. Dass ein Mensch Daten verarbeitet, das kann man schon einmal metaphorisch sagen, aber man sollte es nicht 100-mal tun, weil dann suggeriert wird, dass Menschen wirklich Computersysteme sind. Wenn Sie und ich ein Ding sind, dann liegt auch der nächste Schritt nahe: dass man uns wie Dinge behandelt. Die Verdinglichung des Menschen, die Behandlung von Menschen wie ein Rohstoff, das ist das Schlimmste, was es gibt.

Zu Künstlicher Intelligenz wird nicht erst seit zehn Jahren geforscht. Weshalb ist sie gerade jetzt ein Thema, das oft von einem Unterton der Angst begleitet wird?
Die französische Philosophin Simone Weil hat einmal gesagt: »Das imaginäre Böse ist romantisch und abwechslungsreich; das reale Böse ist düster, eintönig, öde, langweilig. Das imaginäre Gute ist langweilig; das echte Gute ist immer neu, wunderbar, berauschend.« Damit beantwortet Weil Ihre Frage. Die Künstliche Intelligenz ist der Zenit einer menschlichen Hybris, sich selbst göttlich zu reproduzieren. In eigener Kontrolle, unabhängig von Gott. Das ist gefährlich. Das gibt es aber schon seit dem Baum der Erkenntnis, seit dem Rausschmiss aus dem Paradies in unseren Religionen. Die KI ist für mich ein Symbol, dass wir versuchen, vom Baum der Erkenntnis zu essen. Wir wollen selbst Gott spielen. Aber irgendwo in uns selbst haben wir auch eine Intuition dafür, dass das, was wir da tun, eine Gratwanderung ist.

Was ist eigentlich intelligent an KI?
Der Begriff der Künstlichen Intelligenz ist an sich problematisch in der Wirtschaftsinformatik. Ich habe kein Problem damit, dass wir auch komplexe Informationsverarbeitungssysteme benutzen, um unseren wissenschaftlichen Fortschritt innerhalb von bestimmten kontrollierten Grenzen weiterzuverfolgen. Es gibt Systeme, die wir heute vielleicht mit dem Label KI bezeichnen und die sehr, sehr förderlich sind – im medizinischen Bereich, im Kommunikationsbereich, Mobilitätsbereich, Planungsbereich. Diese Systeme sind nicht intelligent im philosophischen Sinne, aber sie sind sehr effizient und hilfreich, um uns Dienstleistungen und Erkenntnisfortschritte zu ermöglichen, die ohne sie nicht möglich wären. Dagegen habe ich überhaupt nichts. Ich bin aber gegen eine Überschätzung des Begriffs Intelligenz, der sehr viele Dimensionen in sich birgt, die wir mit menschlichen Fähigkeiten belegen. Zum Beispiel emotionale und soziale Intelligenz, die Möglichkeit, sich zu verbinden, zu bewerten, zu urteilen, aber im Sinne eines integrierten, kognitiv-emotionalen Prozesses. Das ist menschliche Intelligenz, die von Bewusstsein, Charakter und Vorbild getragen wird. Und die hat eine Maschine nicht.

Was fasziniert uns so daran?
In den vergangenen Monaten seit der Veröffentlichung von ChatGPT und sogenannten Transformer-Technologien ist es zu einer Art Wahrheitsmoment gekommen. Der französische Philosoph Alain Badiou hat darüber geschrieben. Wahrheitsereignisse sind Ereignisse, die die Menschen so beeindrucken, dass sie daraufhin ihre Sicht auf die Vergangenheit und ihre Handlungsstrategien für die Zukunft verändern. Und ich kann das auch für mich selbst bestätigen und für alle, mit denen ich gesprochen habe. Wir können in technischer Hinsicht sehr kritisch sein, aber: Jeder ist beeindruckt. Und das ist ein Wahrheitsmoment, das jetzt bei vielen Laien den Eindruck erwecken kann, dass wir es tatsächlich mit einer Art künstlichen, lebendigen Intelligenz zu tun haben. Die Techniker wissen, dass es nicht so ist. Aber selbst sie sind erstaunt. Wir werden also einen sehr interessanten neuen Umgang mit der Wahrheit entwickeln müssen.

Sie haben ein Buch über digitale Ethik geschrieben. Wie geht das zusammen: Digitales und Ethik?
Im Prinzip ist darin der Aufruf enthalten, dass wir vor der Veröffentlichung von Technologien im Planungs- und Entwicklungsprozess sozial-gesellschaftliche Wertanalyse machen. Das heißt, wir müssen Systeme auf menschliche Werte und Bedürfnisse besser planen und ausrichten. Zum Beispiel, wenn wir auch weiterhin wollen, dass unsere Kinder sich Wissen aneignen, dann müssen wir die Technologie zur Verfügung stellen und Algorithmen so bauen, dass es noch Anreize für Menschen gibt, selbst Wissen zu entwickeln. Es gibt unglaublich viele Freiheitsgrade bei der Technikentwicklung. Ich gehe in meinem Buch der Frage nach: Was sind die Grenzen? Das Digitale ist nun mal nur digital, nicht biologisch. Wie werden Wissen und Freiheit von Technik beeinflusst? Und wie kann ich als Privatperson meine eigenen Werte reflektieren und dann mit einer Technik entsprechend umgehen?

Sie erwähnten gerade Anreize, die es zum Lernen braucht. Welche könnten das sein?
Ich glaube, der wichtigste Anreiz ist das Vorbild. Wer möchte ich sein? Wem eifere ich nach? Wir brauchen Vorbilder, die die Antworten der Künstlichen Intelligenz kritisch hinterfragen können, die ein eigenes und tiefes Wissen haben, sodass sie letztlich gar nicht abhängen von der Maschine. Wir müssen uns als Gesellschaft die Frage stellen, was passiert, wenn wir zum Beispiel das Expertentum niedermachen, wenn wir Wissenschaftler und alle Menschen, die über Wissen verfügen, weiterhin degradieren und nicht anständig bezahlen. Warum sollen dann junge Leute noch etwas wissen wollen? Früher musste man wissen, weil man ohne ein bestimmtes Wissen bestimmte Berufe nicht ergreifen konnte. Heute wird es immer leichter, weil man eben den Zugriff hat auf diese Informationen. Aber das allein reicht nicht. Es geht um Personen, um Vorbilder. Es geht um Tugenden.

Diese Tugenden ins Digitale zu übertragen – ist das eine Sisyphosarbeit?
Das glaube ich nicht. In allen Kulturen der Welt fragen sich Eltern, wie sie ihre Kinder erziehen, damit sie sowohl in der Gesellschaft als auch ihnen gegenüber ihren Platz finden. Und solange es Eltern gibt und eine Erziehungsaufgabe, die ein menschliches Leben über zwei Jahrzehnte oder länger prägen, solange es diese Erziehungsfamilie gibt, gibt es auch die Frage nach der Tugend. Kein Elternteil wünscht sich geizige, egoistische, dumme, selbstsüchtige Kinder. Kein Elternteil wünscht sich mutlose und emotional übergriffige Kinder. Alle Eltern und Großeltern wünschen sich, dass die Kinder der nächsten Generation einen guten Charakter haben.

Mit der Professorin für Wirtschaftsinformatik der Wirtschaftsuniversität Wien sprach Katrin Richter. Sarah Spiekermann: »Digitale Ethik: Ein Wertesystem für das 21. Jahrhundert«. Droemer Knaur, München 2021, 320 S., 12,99 €

Graphic Novel

»Wir hatten das große Glück der vielen Zeit«

Die Künstlerin Barbara Yelin über ihre Gespräche mit der Schoa-Überlebenden Emmie Arbel

von Knut Elstermann  05.05.2024

Ausstellung

Im hohlen Baum

In Frankfurt werden neun exemplarische Verstecke polnischer Juden in der Schoa gezeigt – eines erinnert an das Hamas-Massaker

von Eugen El  05.05.2024

Eurovision Song Contest

»Malmo wird in der nächsten Woche der Brennpunkt Europas sein«

Boykott-Aufrufe gegen Israel und eine Stadt, in der der Antisemitismus besonders stark grassiert: Der ESC dürfte dieses Jahr in aufgeheizter Stimmung stattfinden

von Melissa Erichsen  05.05.2024

Aufgegabelt

Hühnchen mit Aprikosen

Rezepte und Leckeres

 04.05.2024

Antisemitismus

Margot Friedländer: »So hat es damals auch angefangen«

Die 102 Jahre alte Holocaust-Überlebende hat beim Deutschen Filmpreis eindringlich vor dem wachsenden Judenhass gewarnt

 04.05.2024

Berlin-Brandenburg

Jüdisches Filmfestival zeigt Filmreihen zu Terror und Sex

Das Festival zeigt zwischen dem 18. bis 23. Juni 70 Filme aus 15 Ländern

 03.05.2024

Literatur

Am Ort, an dem wir recht haben

Zum 100. Geburtstag des Jerusalemer Dichters Jehuda Amichai, der aus Unterfranken stammte

von Alexander Kluy  03.05.2024

Serie

Geschichte des Überlebens und der Liebe

Die Verfilmung des Romans »Der Tätowierer von Auschwitz« ist ab dem 8. Mai bei Sky zu sehen

von Patrick Heidmann  03.05.2024

Glosse

Stricken für den Frieden

Regelmäßig ineinander gehende Maschen als Sinnbild für eine nicht aus den Fugen geratene Welt?

von Nicole Dreyfus  03.05.2024