NZZ, 6.7.2019
Evidenzbasierter
Rassismus
Wer hat nicht Mühe mit seinem eigenen Rassismus? Uns
unterläuft wiederkehrend das, was ich den Fehlschluss der rassistischen
Induktion bezeichne: Wir schliessen von der „Evidenz“ der Hautfarbe – oder
allgemeiner: der äusseren Erscheinung - eines Menschen auf seine gesellschaftliche
Stellung, seinen Beruf, sein Inneres. John Hope Franklin, Geschichtsprofessor
an der Duke University in Nord Carolina, gab 1995 ein Abendessen in einem Privatclub
in Washington. Seiner schwarzen Hautfarbe wegen hielt ihn eine Angestellte für
ein Mitglied des Personals (Franklin wurde übrigens 1962 das erste schwarze
Mitglied des Clubs). Man schiebe solche Vorfälle nicht leichthändig ab auf eine
„typisch“ amerikanische Mentalität. Ich erinnere mich noch an die 1950er Jahre,
als man nicht selten hörte: Aha, Italiener, arbeitest du auf dem Bau? Die
ETH-Professorin für Umweltwissenschaft, Nina Buchmann, erzählt jüngst in einem
Interview ein aktuelles Müsterchen dieses Fehlschlusses. Sie habe oft darauf
hinweisen müssen: „Nein, ich bin nicht die Sekretärin von
Professor Buchmann. Ich bin Professor Buchmann.“ Auch hier der
Fehlschluss: Aha, eine Frau, also eher Sekretärin als Professorin.
Frau
Buchmann nennt dies ein „Missverständnis“. Aber der Fehlschluss ist nicht
harmlos. Wer seine Logik allein auf die Basis der Evidenz abstellt, betrachtet
den Menschen als „von aussen“ beschreibbares Objekt. Man nimmt ihn nicht als
Person wahr, sondern als „Evidenz“ für bestimmtes Verhalten. Natürlich sagen
uns die Logiker, dass die Evidenz stets unvollständig bleibt und keinen
zwingenden Schluss zulässt; es können zur schwarzen Hautfarbe noch so viele „evidentielle“
Merkmale treten. Das Problem aber ist der Anspruch, ja, die Anmassung, einen Menschen
durch induktiven Indizienbeweis als den zu „überführen“, der er ist.
***
Wir
kennen diese Anmassung aus der Literatur: die Sherlock-Holmes-Methode. Bei
aller Brillanz seiner Gedankenführung erscheint uns der fiktive Meisterdetektiv
irgendwie unheimlich: seine kalte Hybris, durch kalkulierende Beobachtung einen
Menschen zu kennen. Gewiss, er hat Erfolg damit, wirkt auf seine Mitmenschen aber
auch beleidigend durch die Art, wie er seine Urteile über andere bildet. Nicht
einfach, weil sie meist negativ sind. Oft basieren sie ja auf ganz banalen
Beobachtungen, zum Beispiel, welche Zigarettenmarke jemand raucht, was jemand
im Speisewagen isst oder in welchen Schuh jemand am Morgen zuerst schlüpft. Holmes
verblüfft uns, wenn er aus solch unscheinbarer Evidenz ein präzises Täterbild
zeichnet. Das Beleidigende an seinem Vorgehen reicht allerdings tiefer. Wir
finden es anstössig, dass Holmes seine „Opfer“ nicht primär als Personen
betrachtet, sondern als Übungsobjekte forensischer Analyse, Prognose und
Manipulation.
***
Die
Praxis von Sherlock Holmes grassiert heute in den neuen Medien, über das
Forensische hinaus: möglichst viel Evidenz, viele Daten über eine Person
sammeln, damit man aufgrund des Datenprofils zu einem möglichst treuen
prädiktiven Modell des Verhaltens gelangt. Nun ist es nicht mehr die Person des
Meisterdetektivs, welche die Schlüsse zieht, das tun heute Algorithmen, die auf
riesigen Datenwiesen grasen. Die evidenzbasierte Profilierung beginnt zum Beispiel
bei der Debitkarte, die im Supermarkt das Erfassen der Ware und das
kontaktlose Bezahlen ermöglicht. Diese Technik der sogenannten
Nahfeldkommunikation dient aber nicht bloss einem solch speziellen Zweck. Auf
der Karte ist ein kleiner Sender eingestanzt, der dauernd Signale ins Netz
aussendet. Der Kunde wird schon beim Eintreten in den Supermarkt „erkannt“,
seine Laufwege und Warenvorlieben werden aufgezeichnet, gesammelt und von einem
Algorithmus verarbeitet. Er berechnet die Wahrscheinlichkeit des künftigen Kundenverhaltens.
Und er gleicht die Daten mit anderen Daten im Netz ab, so dass ein immer
präziseres „persönliches“ Profil des Kunden entsteht. Anders gesagt: Der
Computer „weiss“ mehr über den Kunden als dieser selbst.
***
Und
hier nun beobachten wir eine tückische Ironie: Wenn schon die menschliche
Intelligenz dem Trugschluss der rassistischen Induktion erliegt, wie soll dann
die künstliche Intelligenz dagegen gefeit sein? Tatsächlich können Deep-Learning-Systeme
auch Rassismus „lernen“ und zur „Überführung“ von Menschen prädiktiv eingesetzt
werden. Die Mathematikerin Cathy O’ Neil zeigt in ihrem Buch „Angriff der
Algorithmen“, wie sich rassistische Modellannahmen unbemerkt in Programme einschleichen:
„Und wenn aus dem Modell erst einmal eine Überzeugung geworden ist, erstarrt es
vollends. Es generiert toxische Annahmen, die kaum jemals überprüft werden, und
gibt sich stattdessen mit Daten zufrieden, die diese Annahmen bestätigen und
zementieren (..) Folglich ist Rassismus das schlampigste aller prädiktiven
Modelle. Es wird durch planloses Datensammeln und falsche Korrelationen
angetrieben, verstärkt von institutionellen Ungerechtigkeiten und vergiftet
durch den ‚confirmation bias’“.
***
Selbstverständlich
beurteilen wir andere Menschen ständig anhand ihrer beobachtbaren Eigenschaften
und Verhaltensweisen. Und es ist nicht per se anstössig, festzustellen, dass jemand
eine schwarze Hautfarbe hat, homosexuell ist, aus einer Migrantenfamilie stammt
oder einen kriminellen Vater hat. Solche Eigenschaften legitimieren nur nicht
die „logische“ Konklusion „Also bist du ein...“ Der Schluss ist erstens fehlerhaft.
Denn meist schiebt er als Zwischenschritte versteckte Annahmen oder Vorurteile
ein (die Logiker sprechen von „Enthymem“). Der Schluss ist zweitens moralisch
verwerflich, denn die personale Identität ist immer „mehr“ als eine beliebig lange
endliche Aufzählung evidentieller Merkmale „Du bist das, das, das et cetera pp.“.
Das
hat im Übrigen keine moderne Philosophie so prägnant zu formulieren gewusst wie
der Existenzialismus von Sartre: Menschsein, ein Ich zu sein, bedeutet, nie erschöpfend beschreibbar zu
sein. Das nennt Sartre „Transzendenz des Ego“. Wer diese Beschreibbarkeit
beansprucht, ja zu erzwingen sucht – nicht wenge Big-Data-Maulhelden tun das - ,
verletzt die Menschenwürde. Sartre prägte dafür die berühmte Formel: „Die
Hölle, das sind die anderen.“ Ich interpretiere sie so: Die anderen, das sind
die, die mich so beschreiben, wie sie mich haben möchten, und am Ende
akzeptiere ich diese Beschreibungen als Wesenszuschreibung meiner selbst. Ich
sehe mich selbst immer schon als von anderen gesehen. In unserer verdateten, durchscheinenden
Identität, die im Netz zirkuliert, geben wir uns als Personen zugunsten
personifizierter Daten auf. Und so gesehen leben wir im Netz in der Sartreschen
Hölle.
***
Im
zwischenmenschlichen Umgang ziehen wir unsere Schlüsse nie allein auf der
Grundlage von Evidenz, sondern auf der Grundlage von Kennen und Mögen, von Ahnen
und Erwarten: dem Schonraum des Unwissens. Zuviel Wissen über den anderen
beschädigt das gute Verhältnis zu ihm, beschädigt ihn selbst. Im Tagebuch
1946-1949 von Max Frisch stehen die gewaltigen Sätze: „Unsere Meinung, dass wir
den anderen kennen, ist das Ende der Liebe (..) ‚Du bist nicht’, sagt der
Enttäuschte oder die Enttäuschte: ‚wofür ich Dich gehalten habe.’ Und wofür
hat man sich denn gehalten? Für ein Geheimnis, das der Mensch ja immerhin ist,
ein erregendes Rätsel, das auszuhalten wir müde geworden sind. Man macht sich
ein Bildnis. Das ist das Lieblose, der Verrat.“
Es
geht nicht bloss um Rassismus. Es geht um eine fundamentale – eine ontologische
- Vereinnahmung von uns Individuen durch ständiges Kategorisieren. Dieses
Kategorisieren ist heute eine monumentale Industrie: Data-Mining. Wir wissen,
wo du bist, was du willst, was du denkst - wir wissen, wer du bist! rufen uns
die Herren der Algorithmen fortwährend zu: Wir haben die ganze Daten-Evidenz
über dich! „Ich bin nicht der, der ich bin!“ muss man ihnen als existenzialistischen
Kampfruf entgegenschleudern. Fordern wir ein Menschenrecht auf Nichterkanntsein
ein.
Keine Kommentare:
Kommentar veröffentlichen