NZZ, 9.8.2019
Deepfakes und der böse Dämon Descartes’
Es wird immer schwieriger, sich gegen Falschinformation zu
wappnen. Computergenerierte Bilder ermöglichen mittlerweile täuschend echte
Fälschungen: „Deepfakes“. Bekannt geworden ist etwa das Video, das Nancy
Pelosi, die Sprecherin des US-Repräsentantenhauses, betrunken zeigt; oder Mark
Zuckerberg, der über sich prahlt: „Stell
dir für eine Sekunde vor: Ein Mann kontrolliert Milliarden gestohlener Daten
von Leuten, alle ihre Geheimnisse, ihr Leben, ihre Zukunft.“ Beliebt ist auch
der Austausch von Gesichtern zwischen beliebigen Personen und Pornodarstellern:
„Face-Swapping“. Der Gedanke, dass irgend ein Fiesling im Internet solche
Austausche relativ leicht tätigt, mutet doch recht unbehaglich an. Wahrscheinlich
werden sich Deepfakes – auch „Cheapfakes“ genannt - im Alltag endemisch
ausbreiten und damit die Informationsflüsse zunehmend kontaminieren. Und
verunklären kann man die Flüsse mit relativ wenigen Falschinformationen - dank
einer beispiellosen Kombination aus sozialen Netzwerken, viraler Verbreitung
von Nachrichten, kognitiven Voreingenommenheiten, Newsfeed, und nicht zuletzt
dank der Polarisierung zwischen Netzstämmen.
***
Wir
bekommen es mit einer Tücke der Falschinformation zu tun: Ihre Verbreitung ist
ungleich leichter als ihre Korrektur. Selbst
wenn man ein Fake einmal als solches entlarvt hat, hält es sich mit
bemerkenswerter Beharrlichkeit im Netz. Das Phänomen hat bereits einen Namen: Dividende des Lügners. Aufdecken von
Fakes erhöht unter Umständen ihre Attraktivität. Es geht ja nicht um Wahrheit,
sondern um Aufmerksamkeitsbindung. Zusätzlich zum Schüren des Feuers von Fakes
legitimieren wir auch die Debatte über deren Falschheit. Denn die Legitimität
der Debatte hängt von der Zahl derer ab, die sich daran beteiligen. Das
verstärkt unter Umständen den Argwohn, dass am Fake doch „etwas Wahres“ dran
sein könnte. „Never wrong for long“, lautet der Slogan. Letztlich kann sich
dies also als Dividende für den auszahlen, der das Fake in die Welt gesetzt
hat. Selbst nachdem zum Beispiel die Falschinformation korrigiert worden war,
Obama sei kein gebürtiger Amerikaner, glaubten nach wie vor 25 Prozent der befragten
Landsleute an die Lüge.
Eine
Illusion zum Platzen bringen ist keine unproblematische Angelegenheit. Die Ur-Allegorie
dafür bietet Platons Höhlengleichnis. Die meisten Menschen leben in der „Höhle“
der Illusion. Sie sehen die Dinge nicht, wie sie wirklich sind, sondern nur die
Informationsschatten der Dinge. Allein der Philosoph entsteigt der Höhle und
erblickt das Licht der Wahrheit. Aber
wenn er zurückkehrt und den anderen weismachen will, sie lebten in einer
Illusion, erntet er nur Widerstand und Aversion. Die Höhleninsassen betrachten
ihn als Fremdling, Störefried, als lästigen Wahrheitsmaniak. So kann es heute
dem Fake-Entlarver ergehen.
Dem Deep Fake kommt eine menschliche Neigung entgegen: Viele
Dinge, die man nicht erwartet oder nicht sehen will, nimmt man nicht zur
Kenntnis. Unserer physiologischen Wahrnehmung lassen sich mentale Brillen
aufsetzen. In einem inzwischen klassischen Experiment über kognitive Täuschung
zeigten die Psychologen Christopher Chabris und Daniel Simons ihren Probanden
ein Video: Studentinnen und Studenten in weissen und schwarzen T-Shirts warfen
einander Bälle zu. Die Aufgabe lautete, die Pässe der Spieler im weissen Dress
zu zählen. Etwa in der Mitte des Videos mischte sich eine als Gorilla verkleidete
Studentin in die Szenerie, schaute kurz in die Kamera, klopfte primatenhaft auf
die Brust und verschwand wieder. Mehr als die Hälfte der Probanden nahmen den
Gorilla nicht wahr, weil sie nur zu zählende Bälle sahen.
***
Natürlich sind Abwehrmassnahmen
gefragt. An der technologischen Front arbeiten die Softwareentwickler an Algorithmen,
die Deepfakes schnell erkennen. Künstliche Intelligenz bekämpft künstliche
Intelligenz. Aus diesem Wettrüsten der Algorithmen wird wahrscheinlich kein
Sieger hervorgehen: eine No-Win-No-Win-Situation. Harid Farid, Experte in der
Aufdeckung von Kinderpornografie am Dartmouth College, klingt nicht besonders
zuversichtlich: „Wir liegen Jahrzehnte hinter einer forensischen Technologie
(..) zurück, die effizient ein echtes von einem gefälschten Video unterscheiden
könnte. Wenn man das forensische System wirklich täuschen will, wird man auf
dem Deepfake-Weg in es einbrechen.“
Auch juristische
Massnahmen stossen schnell auf ihre Grenzen. Immer wieder hört man Klagen über
das Netz als rechtslosen Raum. Die Daten suchen sich ihre Flussbetten global.
Bekanntlich kann eine russische Trollfarm die Meinungsbildung in den USA
sensibel beeinflussen. Gesetze greifen aber primär in einem nationalen Rahmen.
Und dies handikapiert natürlich die regulatorische Interventionskraft. Zudem
erweisen sich die wichtigsten Disseminationsherde von Deepfakes, die sozialen
Netze, als regelrechte Immunsysteme gegen den gesetzlichen Eingriff. Es fällt
nicht schwer, die Dystopie einer Welt auszumalen, wo es ein Kinderspiel ist,
eine Person so „umzugestalten“, dass sie Dinge sagt und tut, die sie nicht
gesagt und getan hat.
***
Neben den
technischen und rechtlichen Weiterungen stossen wir auf etwas noch Beunruhigenderes.
Deep
Fakes unterminieren eine fundamentale Vertrauensbasis der Erkenntnis: unsere
Sinne. Wir stützen uns in Alltagssituationen auf sie und orientieren uns an
ihnen. Die Sinne trügen normalerweise nicht. Die eigene Augenzeugenschaft zum
Beispiel ist eine relativ verlässliche erkenntnistheoretische Instanz. Nun definieren
die neuen Techniken der Simulation gerade diese Normalität um. Normal ist die
Verstellung. Was wir sehen, steht unter dem Apriori-Verdacht der Täuschung. Der
Augen- und Ohrenzeugenschaft – generell dem Zeugnis unserer Sinne – wird die Bürgfunktion entzogen. In den neuen
Medien vergehen uns buchstäblich Sehen und Hören. Sie lassen uns am natürlichen
Urmedium der Gewissheit zweifeln: unserem Körper.
Man muss sich klar machen, was dadurch auf dem Spiel steht. Nicht
nur erodiert die soziale Vertrauensbasis unseres Wissens, unserer Kommunikation
und Diskussion. Ein gewisses Mass an Vertrauen in das, was man mit seinem
Körper wahrnimmt, gehört zur geistigen Gesundheit. Die technische Entwicklung raubt
uns dieses Vertrauen, gefährdet somit unsere geistige Gesundheit. Alte
Selbstverständlichkeiten, herkömmliche Appellationsinstanzen der Verlässlichkeit
fallen in sich zusammen. Das Wahre für falsch zu halten und das Falsche für
wahr: damit beginnen Wahnvorstellungen. Die Technologie des Deepfake entpuppt
sich von ihrem Wesen her als Technologie
des Wahns.
***
Wir sehen uns - kaum zu übertreffende Ironie – an den Anfang
der neuzeitlichen Philosophie zurückversetzt. Man erinnert sich an das Szenario,
das uns René Descartes in seinen „Meditationen“ skizziert. Er äussert darin den
Fundamentalverdacht: „Alles nämlich, was ich bisher am ehesten für wahr
gehalten habe, verdanke ich den Sinnen oder der Vermittlung der Sinne. Nun aber
bin ich dahintergekommen, dass diese uns bisweilen täuschen, und es ist ein
Gebot der Klugheit, denen niemals ganz zu trauen, die uns auch nur einmal
getäuscht haben.“
Mit seinem Universalzweifel machte sich Descartes sozusagen
zum ersten Informationsquellenvergifter der Neuzeit. Oder genauer: Er spielt
mit dem Gedanken eines solchen Quellenvergifters: „So will ich denn annehmen,
dass nicht der allgütige Gott die Quelle der Wahrheit, sondern irgendein böser Dämon,
der zugleich allmächtig und verschlagen ist, habe allen seinen Fleiss daran
gewandt, mich zu täuschen; ich will glauben, Himmel, Luft, Erde, Farben, Gestalten,
Töne (..) seien nichts als das täuschende Spiel von Träumen, durch die er
meiner Leichtgläubigkeit Fallen stellt.“
Keine Kommentare:
Kommentar veröffentlichen