Donnerstag, 11. Juli 2019





NZZ, 6.7.2019


Evidenzbasierter Rassismus


Wer hat nicht Mühe mit seinem eigenen Rassismus? Uns unterläuft wiederkehrend das, was ich den Fehlschluss der rassistischen Induktion bezeichne: Wir schliessen von der „Evidenz“ der Hautfarbe – oder allgemeiner: der äusseren Erscheinung - eines Menschen auf seine gesellschaftliche Stellung, seinen Beruf, sein Inneres. John Hope Franklin, Geschichtsprofessor an der Duke University in Nord Carolina, gab 1995 ein Abendessen in einem Privatclub in Washington. Seiner schwarzen Hautfarbe wegen hielt ihn eine Angestellte für ein Mitglied des Personals (Franklin wurde übrigens 1962 das erste schwarze Mitglied des Clubs). Man schiebe solche Vorfälle nicht leichthändig ab auf eine „typisch“ amerikanische Mentalität. Ich erinnere mich noch an die 1950er Jahre, als man nicht selten hörte: Aha, Italiener, arbeitest du auf dem Bau? Die ETH-Professorin für Umweltwissenschaft, Nina Buchmann, erzählt jüngst in einem Interview ein aktuelles Müsterchen dieses Fehlschlusses. Sie habe oft darauf hinweisen müssen: „Nein, ich bin nicht die Sekretärin von Professor Buchmann. Ich bin Professor Buchmann.“ Auch hier der Fehlschluss: Aha, eine Frau, also eher Sekretärin als Professorin.

Frau Buchmann nennt dies ein „Missverständnis“. Aber der Fehlschluss ist nicht harmlos. Wer seine Logik allein auf die Basis der Evidenz abstellt, betrachtet den Menschen als „von aussen“ beschreibbares Objekt. Man nimmt ihn nicht als Person wahr, sondern als „Evidenz“ für bestimmtes Verhalten. Natürlich sagen uns die Logiker, dass die Evidenz stets unvollständig bleibt und keinen zwingenden Schluss zulässt; es können zur schwarzen Hautfarbe noch so viele „evidentielle“ Merkmale treten. Das Problem aber ist der Anspruch, ja, die Anmassung, einen Menschen durch induktiven Indizienbeweis als den zu „überführen“, der er ist.

***

Wir kennen diese Anmassung aus der Literatur: die Sherlock-Holmes-Methode. Bei aller Brillanz seiner Gedankenführung erscheint uns der fiktive Meisterdetektiv irgendwie unheimlich: seine kalte Hybris, durch kalkulierende Beobachtung einen Menschen zu kennen. Gewiss, er hat Erfolg damit, wirkt auf seine Mitmenschen aber auch beleidigend durch die Art, wie er seine Urteile über andere bildet. Nicht einfach, weil sie meist negativ sind. Oft basieren sie ja auf ganz banalen Beobachtungen, zum Beispiel, welche Zigarettenmarke jemand raucht, was jemand im Speisewagen isst oder in welchen Schuh jemand am Morgen zuerst schlüpft. Holmes verblüfft uns, wenn er aus solch unscheinbarer Evidenz ein präzises Täterbild zeichnet. Das Beleidigende an seinem Vorgehen reicht allerdings tiefer. Wir finden es anstössig, dass Holmes seine „Opfer“ nicht primär als Personen betrachtet, sondern als Übungsobjekte forensischer Analyse, Prognose und Manipulation.

***

Die Praxis von Sherlock Holmes grassiert heute in den neuen Medien, über das Forensische hinaus: möglichst viel Evidenz, viele Daten über eine Person sammeln, damit man aufgrund des Datenprofils zu einem möglichst treuen prädiktiven Modell des Verhaltens gelangt. Nun ist es nicht mehr die Person des Meisterdetektivs, welche die Schlüsse zieht, das tun heute Algorithmen, die auf riesigen Datenwiesen grasen. Die evidenzbasierte Profilierung beginnt zum Beispiel bei der Debit­karte, die im Supermarkt das Erfassen der Ware und das kontaktlose Bezahlen ermöglicht. Diese Technik der sogenannten Nahfeldkommunikation dient aber nicht bloss einem solch speziellen Zweck. Auf der Karte ist ein kleiner Sender eingestanzt, der dauernd Signale ins Netz aussendet. Der Kunde wird schon beim Eintreten in den Supermarkt „erkannt“, seine Laufwege und Warenvorlieben werden aufgezeichnet, gesammelt und von einem Algorithmus verarbeitet. Er berechnet die Wahrscheinlichkeit des künftigen Kundenverhaltens. Und er gleicht die Daten mit anderen Daten im Netz ab, so dass ein immer präziseres „persönliches“ Profil des Kunden entsteht. Anders gesagt: Der Computer „weiss“ mehr über den Kunden als dieser selbst.

***

Und hier nun beobachten wir eine tückische Ironie: Wenn schon die menschliche Intelligenz dem Trugschluss der rassistischen Induktion erliegt, wie soll dann die künstliche Intelligenz dagegen gefeit sein? Tatsächlich können Deep-Learning-Systeme auch Rassismus „lernen“ und zur „Überführung“ von Menschen prädiktiv eingesetzt werden. Die Mathematikerin Cathy O’ Neil zeigt in ihrem Buch „Angriff der Algorithmen“, wie sich rassistische Modellannahmen unbemerkt in Programme einschleichen: „Und wenn aus dem Modell erst einmal eine Überzeugung geworden ist, erstarrt es vollends. Es generiert toxische Annahmen, die kaum jemals überprüft werden, und gibt sich stattdessen mit Daten zufrieden, die diese Annahmen bestätigen und zementieren (..) Folglich ist Rassismus das schlampigste aller prädiktiven Modelle. Es wird durch planloses Datensammeln und falsche Korrelationen angetrieben, verstärkt von institutionellen Ungerechtigkeiten und vergiftet durch den ‚confirmation bias’“.

***

Selbstverständlich beurteilen wir andere Menschen ständig anhand ihrer beobachtbaren Eigenschaften und Verhaltensweisen. Und es ist nicht per se anstössig, festzustellen, dass jemand eine schwarze Hautfarbe hat, homosexuell ist, aus einer Migrantenfamilie stammt oder einen kriminellen Vater hat. Solche Eigenschaften legitimieren nur nicht die „logische“ Konklusion „Also bist du ein...“ Der Schluss ist erstens fehlerhaft. Denn meist schiebt er als Zwischenschritte versteckte Annahmen oder Vorurteile ein (die Logiker sprechen von „Enthymem“). Der Schluss ist zweitens moralisch verwerflich, denn die personale Identität ist immer „mehr“ als eine beliebig lange endliche Aufzählung evidentieller Merkmale „Du bist das, das, das et cetera pp.“.

Das hat im Übrigen keine moderne Philosophie so prägnant zu formulieren gewusst wie der Existenzialismus von Sartre: Menschsein, ein Ich zu sein,  bedeutet, nie erschöpfend beschreibbar zu sein. Das nennt Sartre „Transzendenz des Ego“. Wer diese Beschreibbarkeit beansprucht, ja zu erzwingen sucht – nicht wenge Big-Data-Maulhelden tun das - , verletzt die Menschenwürde. Sartre prägte dafür die berühmte Formel: „Die Hölle, das sind die anderen.“ Ich interpretiere sie so: Die anderen, das sind die, die mich so beschreiben, wie sie mich haben möchten, und am Ende akzeptiere ich diese Beschreibungen als Wesenszuschreibung meiner selbst. Ich sehe mich selbst immer schon als von anderen gesehen. In unserer verdateten, durchscheinenden Identität, die im Netz zirkuliert, geben wir uns als Personen zugunsten personifizierter Daten auf. Und so gesehen leben wir im Netz in der Sartreschen Hölle.

***

Im zwischenmenschlichen Umgang ziehen wir unsere Schlüsse nie allein auf der Grundlage von Evidenz, sondern auf der Grundlage von Kennen und Mögen, von Ahnen und Erwarten: dem Schonraum des Unwissens. Zuviel Wissen über den anderen beschädigt das gute Verhältnis zu ihm, beschädigt ihn selbst. Im Tagebuch 1946-1949 von Max Frisch stehen die gewaltigen Sätze: „Unsere Meinung, dass wir den anderen kennen, ist das Ende der Liebe (..) ‚Du bist nicht’, sagt der Enttäuschte oder die Enttäuschte: ‚wofür ich Dich gehalten habe.’ Und wofür hat man sich denn gehalten? Für ein Geheimnis, das der Mensch ja immerhin ist, ein erregendes Rätsel, das auszuhalten wir müde geworden sind. Man macht sich ein Bildnis. Das ist das Lieblose, der Verrat.“

Es geht nicht bloss um Rassismus. Es geht um eine fundamentale – eine ontologische - Vereinnahmung von uns Individuen durch ständiges Kategorisieren. Dieses Kategorisieren ist heute eine monumentale Industrie: Data-Mining. Wir wissen, wo du bist, was du willst, was du denkst - wir wissen, wer du bist! rufen uns die Herren der Algorithmen fortwährend zu: Wir haben die ganze Daten-Evidenz über dich! „Ich bin nicht der, der ich bin!“ muss man ihnen als existenzialistischen Kampfruf entgegenschleudern. Fordern wir ein Menschenrecht auf Nichterkanntsein ein.





Keine Kommentare:

Kommentar veröffentlichen

NZZ, 9.4.24 Sokrates und der ChatGPT Schreiben in der postliterarischen Welt Die Schrift ist eine alte Technologie. Aber als sie neu war, er...