Sonntag, 27. Dezember 2020

 


Schneckentelegraf und Internet der Bäume

Das Risiko von Metaphern in der Wissenschaft


NZZ, 19.12.2020


Der „pasilalinisch-sympathetischen Kompass“

Im Oktober 1850 erschien in der französischen Zeitung „La Presse“ ein Artikel des Journalisten und Politikers Jules Allix. Er pries darin seinen Zeitgenossen den sogenannten „pasilalinisch-sympathetischen Kompass“ an, eine kuriose drahtlose Informationsübermittlung zwischen - Schnecken. Schnecken würden, gemäss einer Theorie von zwei Esoterikern, nach der Paarung ein feinstoffliches Medium absondern, das sie zeit ihres Lebens telepathisch verbindet, über beliebige Distanzen hinweg. 


Der Prototyp der Apparatur bestand aus zwei entfernt aufgestellten Kasten, in denen man nach der Paarung getrennte Schnecken auf Tellern gefangen hielt. Jedes Tier trug als Kennzeichen einen Buchstaben des Alphabets. Die Fühlhörner stellten also quasi die Tastatur dar. Die Idee: Erregte man die Schnecke A, dann würde dies auch der Paarungspartner A unverzüglich fernempfinden. Auf diese Weise liessen sich Buchstaben, Wörter und Sätze instantan übermitteln. Die Zeit war empfänglich für solche Ideen. Nicht nur hatte man die Bioelektrizität entdeckt, die Telegrafie faszinierte als neue revolutionäre Informationsübertragung. Die Rede war deshalb auch vom „Schneckentelegrafen“. Heute würde man vom Internet der Schnecken sprechen. 


Wood Wide Web

Allix’ Erfindung entpuppte sich als Betrug. Aber nicht das Technische interessiert hier, sondern etwas anderes: Wissenschafts- und Technikgeschichte sind immer auch Metapherngeschichte. Wir übertragen Metaphern von der Technik auf die Natur, und umgekehrt. Allix bediente sich der Telegrafen-Metapher zur Demonstration einer neuen Kommunikationsform bei Schnecken. Umgekehrt postulierte der berühmte Physiologe Emil Du Bois-Reymond, dass das „Wunder unserer Zeit, die elektrische Telegraphie“ schon in der „thierischen Maschine“,  also in der Natur „vorgebildet“ sei.


An die Stelle der „thierischen Maschine“ tritt heute die Computermetapher. Fragen wir also: Sind in der Natur Ansätze zum Internet „vorgebildet“? Ein schönes Beispiel bietet das Kommunikationsnetz des Waldes, wo es nicht nur rauscht, sondern Bäume auch miteinander „sprechen“. Pflanzen leben mit Pilzen in vielgestaltiger Symbiose. Der deutsche Botaniker Albert Bernhard Frank prägte dafür im 19. Jahrhundert den Begriff der „Mykorrhiza“: ein erstaunlich raffiniertes unterirdisches System nicht nur des Stoff-, sondern auch des Informationsaustauschs. Eine Analogie drängt sich geradezu auf. So könnte man zum Beispiel Pilzfäden im Waldboden als pilzartiges lokales Netzwerk bezeichnen: „fungoid local area network“ (FLAN). Was liegt näher, als hier von einer natürlichen Vorform des Internets zu sprechen – von einem „Wood Wide Web“? 


Il n’y a pas de hors-information

Information und Netzwerk sind zu Leitmetaphern – Paradigmen - unseres Zeitalters geworden. Leben ist nicht bloss Stoffwechsel, Leben ist ein semiotischer Prozess, ein permanenter vernetzter Informationsfluss zwischen Organismen. Die Buttersäure, die ich aus-dünste, ist für die Zecke Information, sich auf mich fallen zu lassen; das Nashorn, das im Kot seines Artgenossen schnüffelt, „liest“ Informationen über die Paarungsbereitschaft heraus; Glühwürmchen blinken, Heringe furzen sich, Flusskrebse pinkeln sich gegenseitig Informationen zu. Um ein geflügeltes Wort der Postmoderne abzuwandeln („Il n’ y a pas de hors-texte“, Jacques Derrida): Il n’ y a pas de hors-information. Es gibt kein „Ausserhalb“ der Information, weder in Kultur noch Natur.


Manifestiert sich also im Pilznetzwerk zwischen den Bäumen, in diesem ganzen „sprachlosen“ Austausch von Nährstoffen, Hormonen, Toxinen eine Genealogie, an deren Ende der sprachliche Austausch der Menschen steht? Das ist eine gewaltige Frage, nämlich nach der Entstehungsspur des Geistes in der Natur.


Signal und Symbol

Zuallererst sind freilich klare Unterscheidungen gefragt. Ich beschränke mich hier auf zwei Grundarten der Information: Information zu etwas, und Information über etwas, kurz: Signal und Symbol. Eine Verkehrsampel signalisiert mir, zu warten oder zu gehen. Das Bild einer Ampel symbolisiert die Ampel – das Bild sagt mir nicht „Warte“ oder „Gehe“. Signal und Symbol informieren mich, aber im ersten Fall bewirkt die Information einfach eine Aktion, im zweiten Fall hat die Information einen „Inhalt“ über die Aktion hinaus, einen semantischen Mehrwert. 


Sprechen wir also von Informationsaustausch im Reich der Tiere, Pflanzen und Pilze, sollten wir sorgfältig auf diesen Grundunterschied achten. Wenn im Pilzmyzel des Waldbodens bestimmte Stoffe als Signale zwischen Bäumen fliessen, heisst das, dass die Signale Ursachen bestimmter Effekte sind, und nicht, dass die Bäume via Myzel miteinander über et-was „sprechen“. Das ist Märchensprache. Bei Tieren liegen die Dinge schon nicht mehr derart eindeutig zutage. Zumindest gewisse Primatenarten, etwa Meerkatzen, scheinen über eine primitive Vorform von Semantik zu verfügen. Ihre Alarmrufe sind differenziert, sie unterscheiden zwischen verschiedenen Feinden, was die Vermutung bestärkt, sie würden nicht bloss Signale zur direkten Handlung austauschen, sondern sich „über“ diese Feinde verständigen. Selbstverständlich muss die Artspezifität solcher Verständigung hervorgehoben werden. 


Die Falle des Anthropomorphisierens

Metaphern sind zweischneidig. Sie haben durchaus eine Erkenntnisfunktion. Sie können im Unähnlichen das Ähnliche sichtbar machen, die forschende Neugier auf nicht gestellte Fragen lenken, – sie können ein Phänomen buchstäblich „designen“, aus einem Hintergrund herausmodellieren. Wenn wir früher vor lauter Bäumen den Wald nicht sahen, so sehen wir jetzt dank der Metapher des Wood Wide Web auf einmal das Kommunikations-netz Wald. 


Aber Metaphern sind keine Erklärungen, sie markieren bloss deren Anfang. Pflanzen, die „lernen“ und „sich erinnern“, chemische Botenstoffe, die „Wissen“ von Baum zu Baum übertragen: das sind eingängige Bilder, die uns zweifellos im Verständnis natürlicher Phä-nomene helfen – bis zu einem gewissen Grad. Überschreiten wir diesen Grad, tappen wir in die Falle des Anthropomorphismus. Sie droht besonders in der Redeweise vom Internet der Bäume. Wir erklären Beziehungen zwischen Pflanzen mit Begriffen, die selber erklärungsbedürftig sind. Wir drehen uns im Kreis. Petitio Principii nennen dies die Philosophen - einer der gröbsten Denkfehler.  


Bio-Semiotik: Ein Grossprojekt für das 21. Jahrhundert

Dennoch: In der Internet-Metapher steckt heuristisches Potenzial. Sie könnte uns einen Blick lehren, der menschliche Kultur und Technik nicht „disruptiv“ von Natur und Evolution trennt. Unterschätzen wir nicht das natürliche Erbe, das wir mit anderen Lebewesen teilen; unterschätzen wir freilich auch nicht die grossen Unterschiede, welche den Menschen dank Kultur zum Animal symbolicum werden lassen. Öffnet man den Gesichtswinkel auf Tier-, Pflanzen- und Pilzreich so, dass auch der nicht-symbolische, nicht-semantische Zeichengebrauch als eine Form von Kommunikation erscheint, dann wird man auf einmal einer überraschenden Fülle von „Gesprächsformen“ in der nicht-menschlichen Natur gewahr. 


Leitmetaphern oder Paradigmen bestimmen das Studium der Naturphänomene: sie geben die allgemeine Frage- und Interpretationsrichtung vor. Die Idee, dass Biologie im Wesentlichen Zeichenwissenschaft, „Bedeutungslehre“ ist, stammt vom grossen Pionier der Ökologie, Jakob von Uexküll. Er formulierte sie vor gut einem Jahrhundert. Und seit vier bis fünf Jahrzehnten entwickeln die Biologen Modelle der Zoo- und Phytosemiotik, also von Zeichenprozessen im Animalischen und Vegetativen. Das Internet könnte hier quasi die Rolle eines metaphorischen Katalysators spielen. Aufs Ganze gesehen gewänne so ein post-cartesianisches Forschungsprogramm an Kontur und Relevanz, das mentales Leben nicht allein uns Menschen vorbehält, sondern solches Leben in artspezifischer Ausprägung auch in der nicht-menschlichen Natur wahrnimmt. Wir würden eine echte Naturgeschichte des Geistes zu schreiben beginnen – ich sehe darin das grosse Projekt des 21. Jahrhunderts.


Sonntag, 20. Dezember 2020

Homo fingens - der gaukelnde Mensch



NZZ-Podium, 20.10.2020





Ich lege im heutigen Podiumsthema – „Die Erfindung der Wahrheit“ – das Gewicht bewusst nicht auf die Wahrheit, sondern auf das Erfinden, die Fiktion. Denn nichts scheint mir den Menschen treffender zu charakterisieren als das Fingieren, das Fabulieren, Simulieren. Er ist nicht nur ein Homo faber, sondern auch ein „Homo fingens“: ein fingierender, erfindender, gaukelnder Mensch. Lassen Sie mich diesen „Homo fingens“ kurz an drei Phänotypen konkretisieren, die alle mit Sprache und der sprachlichen Vermittlung von Wahrheit zu tun haben: am Romanautor, am Wissenschafter und  - nun ja: am Journalisten. 


***


Ein Roman erzählt eine erfundene Geschichte. Lügt er deshalb? Kaum jemand behauptet so etwas. Aber auch kaum jemand nimmt das, was in einem fiktiven Werk steht, für bare Wahrheit. Weder wahr noch eine Lüge – was dann? Hier stellt sich die Frage nach dem Tertium datur, nach einer eigenen Kategorie des Nicht-die-Wahrheit-sagens. Es gibt ein bekanntes Postulat in der Sprachphilosophie, das der Fiktion einen sogenannten nicht-assertorischen Charakter zuschreibt: sie zielt nicht ab auf Aussagen, die wahr oder falsch sein können. Deshalb reagieren wir in der Regel auf fiktive Falschheiten anders als auf Falschheiten, die von Wissenschaftern, Politikern oder Journalisten geäussert werden. 


Der Romanautor hat primär eine evokative Aufgabe. Er beschwört fiktive Welten. Indem er vorgibt – „fingiert“ -, über eine reale Person zu reden, nimmt er eine bestimmte Sprachfunktionen in Anspruch: die Referenz, das Feststellen eines Sachverhalts. Er muss aber nicht ausserhalb des Textes verifizieren, was er innerhalb des Textes schreibt. Natürlich kann er Fehler machen. In der Regel beeinträchtigen solche Fehler nicht die Qualität des Romans. Der Romanautor tut so, als ob er Feststellungen über die Welt träfe. Und dieses Sprachspiel des Als-ob nennen wir die Kunst des Romaneschreibens, die Kunst des Kontrafaktischen. Der Autor lädt uns ein, an diesem Spiel teilzunehmen und insoweit wir uns darauf einlassen, tun auch wir, als ob die fiktiven Figuren existierten. Wir schliessen mit dem Autor einen narrativen Pakt. Fiktion beruht auf dieser magischen Kollusion von Autor und Leser. 


***


Im Gegensatz zum Romanautoren macht der Wissenschafter assertorische Aussagen, das heisst, er fingiert nicht, er hält sich an die Fakten. Er sagt nicht: Ich evoziere eine Welt der Elementarteilchen, bitte tritt ein - er sagt: Die Welt besteht aus Elementarteilchen. Punkt. So zumindest lautet das Klischee. 


Es bedarf einer Korrektur. Die modernen Naturphilosophen der ersten Stunde traten an die Natur wie an einen fremden Text heran, den sie zu entschlüsseln suchten. So schreibt Descartes in seinen „Regeln zur Leitungs des Geistes“ (Regel 10):  „Wenn wir etwa ein Schriftstück lesen wollen, das durch unbekannte Zeichen unkenntlich gemacht ist, so zeigt sich hier zwar keine Ordnung, aber wir fingieren eine, teils um alle Vorurteile zu prüfen, die man in bezug auf die Schriftzeichen (..) haben kann (..), teils um die Ordnung so anzu-legen, dass wir alles erkennen, was wir aus (den Schriftzeichen) deduzieren können .“


Das ist eine bemerkenswert genaue Charakterisierung des neuzeitlichen exakten Wissenschaftsstils: Er hält uns dazu an, eine hypothetische Ordnung zu „fingieren“, und die Fiktionen anhand von Deduktionen und Experimenten zu prüfen. Der Wissenschafter fragt also nicht nur nach dem faktischen „Was ist?“, sondern immer auch nach dem kontrafaktischen „Was könnte sein?“ Zum Beispiel: Was wäre, wenn die Erde kugelförmige Gestalt hätte; was wäre, wenn es Paralleluniversen gäbe; was wäre, wenn alle Lebensformen sich einem vertrackten evolutionären Zufallsspiel verdankten? „Was wäre, wenn ... ?“ –  das ist die Urfrage des Romanautors.  


Kurz: Nur wer erfindet, findet. Heutige Fakten sind gestrige Fiktionen. Die grössten Leistungen der forschenden Neugier entstammen einem kontinuierlichen Gespräch über „er-fundene“ Dinge, auch und gerade in der Wissenschaft. Vieles stellte sich als tatsächlich inexistent heraus. Allerdings gehören heute auch Dinge zum technischen Alltagsinventar, deren Existenz man noch zu Beginn des 20. Jahrhunderts bezweifelte: Atome und Elektronen. Antimaterie - zum Beispiel das Positron - galt in den 1930er Jahren als inexistent, ja, absurd, heute braucht man sie in bildgebenden Verfahren der Medizin, in der Positronen-Emissions-Tomografie (PET). Sagen wir nie: Das gibt es nicht! Bald gibt es vielleicht dank Gentechnologie Einhörner mit Flügeln.


***


Journalisten pflegen – zumindest bis vor kurzem -  das Ethos des Ermittlers. Nun hat in den letzten zwei Dekaden ein Journalismus an Gehör und Einfluss gewonnen, der sich von diesem Ethos abkehrt und sich dem Ethos des Beschwörers zuwendet. Er bedient sich der Mittel des Romanschreibens, aber er ist nicht Fiktion. Er ist Fake. 


Das Fake parasitiert sozusagen die investigative und die evokative Aufgabe. Die Fiktion erzählt Geschichten über eine erfundene Welt. Das Fake erfindet Geschichten über die reale Welt. Beim Roman akzeptieren wir die Erfindung. Ja, wir werten sie als Kunst. Ein Fake dagegen kann noch so herausragende literarische Qualitäten aufweisen, die Falschheit sei-ner Aussagen disqualifiziert es als Lüge. Der narrative Pakt, der den Romanleser mit dem Autor verbindet, kann dem Fake gerade nicht als Basis dienen. Aussagen von Conan Doyle über Sherlock Holmes oder von Günter Grass über Oskar Mazerath sind keine Lügen, Aussagen von Claas Relotius über seine todkranke Schwester oder von Tom Kummer über Sharon Stone dagegen schon. 


Man kann Relotius, Kummer und Konsorten als Indikatoren des heutigen Mediotop betrachten. In ihm verschwimmen die Grenzen zwischen Realität und Fiktion immer mehr. Wenn also der Borderline-Journalismus – so nennt ihn Kummer – dieses Mediotop als sein natürliches Habitat definiert, dann artikuliert er die zentrale erkenntnistheoretische Frage: Gibt es ein verlässliches Mittel, Fakten von Fabeln zu unterscheiden? Können wir Menschen eigentlich nicht nicht fabulieren? Wir leben nicht nur in einem Zeitalter des Mul-ti-Kulturalismus, sondern auch des Multi-Expertismus oder des Egalitarismus der Experten. Das erfahren wir ja gegenwärtig in der Coronakrise. Das Vertrauen in die Wissenschaft schwindet. Horden von selbsterklärten Experten fallen nun in dieses Vertrauensvakuum ein, lassen sich auf allen Gebieten nieder, von der Klimatologie bis zur Bakteriologie. Und nicht selten vertauschen sie Kausalfragen mit Schuldfragen: ein gedeihlicher Sumpfboden für Konspirationstheorien.


Wir geraten in einen Vertrauenszirkel. Um zu entscheiden, welchen Experten zu trauen sei, muss ich auf weitere Experten rekurrieren, also ihnen vertrauen. Ich lande so letztlich beim Vertrauen in meine eigene Urteilsfähigkeit, und ich weiss gleichzeitig, dass ich dieser Urteilsfähigkeit ebenfalls kein absolutes Vertrauen schenken kann. Aus diesem Zirkel führt kein Ausweg. Wir berufen uns auf das eigene Urteil, ohne es hinreichend begründen zu können. Das bedeutet nicht, dass wir immer grundlos urteilen, sondern dass wir unser Urteil als stets prüfbedürftig betrachten. Also nicht nur „Wage zu wissen“, sondern auch „Wage, dein Wissen zu prüfen“. Das charakterisiert den aufgeklärten Homo fingens. 


***


Was mich am Ende doch noch zum Begriff der Wahrheit führt. Ich möchte vom Willen zur Wahrheit sprechen. Er ist konservativ. Und was bewahren wir mit ihm?  Ganz einfach, Vertrauen in den anderen: ein Wohlwollen, das ihm nicht a priori täuschenden Vorsatz, feindliche Haltung oder Verschwörungsabsichten unterstellt. Nur ein solches Wohlwollens garantiert so etwas wie einen verbindlichen Wirklichkeitsbezug. Und man kann es nicht erfinden, man muss es erarbeiten, mühsam und immer wieder. Wahrheit steht und fällt mit diesem Wohlwollen. 




Mittwoch, 2. Dezember 2020








NZZ, 28.Nov. 2020 


Intellektuelle Ansteckung 
Eine Epidemiologie der Ideen 


 Es gibt Ansteckung durch Viren, und es gibt Ansteckung durch Gedanken – im Netz auch „Meme“ genannt. Während biologische Epidemien eher unerwünscht sind, kann man das von intellektuellen Epidemien nicht unbedingt behaupten. Ausbrüche von Ideen aus der „Nische“ eines einzelnen Denkers kennzeichnen entscheidende Disruptionen einer kultu-rellen Entwicklung. Auch wenn sich gegenüber biologischen Analogien immer ein gewisses Fingerspitzengefühl empfiehlt, erscheint es verlockend, den intellektuellen Ansteckungs-prozess einmal aus epidemiologischer Sicht anzuleuchten. 

 *** 

 Analogisieren wir also freiheraus. Wir sind empfänglich für gewisse Ideen und immun gegen andere. Einmal angesteckt, können wir, nach einer bestimmten Inkubationszeit, an-dere anstecken. Nehmen wir ein Beispiel aus den Anfängen des letzten Jahrhunderts, die Psychoanalyse. Sie ist, nach dem bissigen Wort von Karl Kraus, die Geisteskrankheit, für deren Therapie sie sich hält. Freuds Schriften trugen den infektiösen Stoff, der anfällige Leser wie Jung, Abraham oder Ferenczi ansteckte. Diese wurden nach einer Inkubations-zeit zu Wirten des psychoanalytischen Virus. Dabei entwickelte Jung eher eine erworbene Widerstandsfähigkeit gegen die Krankheit, wogegen der Widerstand der Wiener Ärzteschaft wohl einer angeborenen Immunität entsprach. Die Geschichte der Psychoanalyse in ihrer ersten Phase liest sich wie die Chronik einer Epidemie. Analoges lässt sich auch etwa über Newtons Mechanik, Darwins Evolutionsthe-orie, Cantors Mengenlehre, Keynes Beschäftigungstheorie sagen. Die Epidemien sind kei-nesfalls auf die Wissenschaft beschränkt. Man denke an das Gedankengut von Christus, Buddha oder Mohammed – wahre religiöse Pandemien -, von Kant, Marx oder Nietzsche. Sie sorgten für Gedankenepidemien in ihren Kreisen. Die quartären Ausläuferwellen errei-chen uns noch heute. 

 *** 

 Eine gute Idee entwickelt sozusagen epistemische Virulenz. Für die Virulenz brauchen die Epidemiologen eine Kenngrösse, die sogenannte Ansteckungsrate oder Reproduktionszahl R. Sie gibt an, wie viele weitere Personen ein infizierter Virusträger durchschnittlich an-steckt. Bei der Verbreitung von Viren gilt es natürlich, diese Rate zu vermindern, bei der Verbreitung von Ideen dagegen, sie zu vergrössern, das heisst, Beeinflussungsketten oder -netze zu schaffen, über lange Zeitläufte hinweg. Man nennt das landläufig „Tradition“. Haben auch Ideen eine Reproduktionszahl? Ein Team aus Physikern und Wissen-schaftshistorikern suchte 2005 die Frage affirmativ in einem Artikel zu beantworten. Und zwar wählten die Autoren als Musterbeispiel die sogenannten Feynman-Diagramme, ein vom Nobelpreisphysiker Richard Feynman in den späten 1940er Jahren ersonnenes inge-niöses mathematisches Instrument, das gestattet, langwierige Berechnungen von Quanten-wechsel¬wirkungen effektiv durchzuführen. Dieses hochpotente Ideen-Virus löste in ein-schlägogen Kreisen eine Epidemie aus. In penibler Kleinarbeit sichteten die Autoren des Artikels die Zitierungen von Feynman-Diagrammen in Fachzeitschriften und erstellten eine Chronologie der Verbreitung der Idee. Der Verlauf lässt eine typische Sigmakurve erken-nen: starker anfänglicher Anstieg, dann zunehmende Abflachung. Überdies schätzten die Autoren die Reproduktionsrate des Ideen-Virus in diversen Ländern ab: in den USA betrug sie 15, in Japan bis zu 75.

 ***

 Selbstverständlich beantworten solche numerischen Übungen nicht die relevanten epide-miologischen Fragen, vor allem: Was macht eine Idee so virulent? Weil sich in gewissen Intellektuellenkreisen viele „Superspreader“ aufhalten? Die Autoren des besagten Artikels schlugen eine andere Erklärung vor: „Die Ausbreitung der Feynman-Diagramme (..) zeigt eine enorme Virulenz, nicht aufgrund ungewöhnlich hoher Kontaktzahlen, sondern auf-grund der Langlebigkeit der Idee.“ Das ist höchst aufschlussreich, denn die Erklärung präsentiert auch den wissenschaftlichen Fortschritt in einem epidemiologischen Licht. Langlebigkeit einer Idee bedeutet oft die Dominanz von wissenschaftlichen „Mandarinen“ und ihren Schülern auf einem Gebiet. Sie kann die Ausbreitung alternativer, konkurrierender Ideen-Viren behindern. Es bildet sich sozusagen die Herdenimmunität einer wissenschaftlichen Schule gegenüber anderen Ideen aus. Gemäss Max Plancks berühmtem Zitat schreitet die Wissenschaft mit einem Begräbnis nach dem anderen vorwärts. Das heisst, neue Theorien können oft nur dann Fahrt auf-nehmen, wenn die Eminenzen einer Disziplin abtreten und die Immunität ihrer etablierten Ideen schwindet. 

 *** 

Bisher war von guten Ideen die Rede. Wie steht es mit schlechten? Zumal mit der „Patho-genität“ von Ideen? Die Frage ist von akuter Bedeutung. „Verseuchter“ Content - Falschin-formationen, Spinnertheorien, Gerüchte - verbreitet sich in den sozialen Netzwerken buch-stäblich pandemisch. Analogisieren wir auch hier. Bei einer Krankheit konkurrieren in der Regel mehrere Erre-gerstämme um Vorherrschaft und Überleben in einer Wirtepopulation. Abseitige Weltan-schauungen, Halb- und Unwahrheiten lassen sich entsprechend als intellektuelle „Pathoge-ne“ betrachten. Sie stehen in einem ständigen Konkurrenzkampf mit „gesunden“ Ideen. Alle buhlen sie um Aufmerksamkeit, das heisst, sie suchen ansteckbare Wirte. Man könnte eine robuste Population dadurch definieren, dass in ihr die „gesunden“ Ideen Gelegenheit haben, die „pathogenen“ an einer weiten Ausbreitung zu hindern. Wenn die Population nun aber zerfällt in lauter abgeschlossene Teilpopulationen, können auch „pathogene“ Ideen-Viren ihre Nischen finden, in der sie ungefährdet fortbestehen. Soziale Netzwerke geben die idealen Ansteckungsherde und Brutstätten solcher Virenstämme ab, und sie befeuern dadurch eine geistige Segregation beängstigenden Ausmasses. 

 ***

 Zurzeit befällt uns das Komplott-Virus. Und wie es scheint, ist seine Reproduktionszahl hoch - was zur Annahme verleitet, das Virus sei Produkt der sozialen Netzwerke. Aber es ist viel älter - uralt. Weil es unbelehrbar und angstgetrieben das ewig gleiche Erzählmuster rezykliert, das man in einen Satz verdichten kann: Epidemien haben immer ihre Schuldi-gen. Zum Beispiel beschuldigte man 1321 während der Lepraepidemie in Frankreich die Kranken selbst der seuchenverbreitenden Konspiration. Der Historiker Carlo Ginzburg zitiert in seinem Buch „Hexensabbat“ aus einem Bericht des berüchtigten Inquisitors Ber-nard Gui, wonach die angeblichen leprösen Verschwörer giftiges Pulver in Brunnen, Quel-len und Flüsse gestreut hätten, um die Gesunden anzustecken. Kranke seien verhaftet, ein-gesperrt, gefoltert und verbrannt worden. Nichts Neues unter der Sonne auch heute. Das Komplottmuster über das Virus SARS-CoV-2 sieht sich je nach Präferenz aktualisiert mit chinesischen Kommunisten, USA-Geheimdiensten, mit der Bill-Gates-Stiftung, der Big Pharma oder den obligaten Invasoren von Alpha Centauri. 

 *** 

 Analogisieren wir noch einmal: Bullshit ist ein pandemisches intellektuelles Virus. Seine Epidemiologie beruht auf drei Grundprinzipien: 1) Produzieren von Bullshit ist leicht, Ent-sorgen dagegen unverhältnismässig schwieriger. 2) Der „Beweis“ von Bullshit braucht kei-ne Intelligenz, seine Widerlegung dagegen sehr viel. 3) Viraler Bullshit verbreitet sich schneller als alle Versuche, ihn zu korrigieren und zu widerlegen. Im Augiasstall der Social Media ist daher kein „Impfstoff“ gegen Bullshit in Sicht. Grund zur Resignation? Betrachten wir die gegenwärtige Lage eher als Initiation zu einem zeitgemässen Stoizismus. Mikroben gelten seit ihrer Entdeckung primär als „Kontaminati-on“, als Beschmutzerinnen und Keimträgerinnen des Schlechten: biologischer Dreck, den es zu beseitigen gilt. Dasselbe lässt sich vom intellektuellen Dreck – vom Bullshit – sagen. Stoizismus heisst jetzt: Leben unter dem Gesichtspunkt des Drecks, in dem wir alle ste-cken. Bullshit-Tracking ist das Gebot der Stunde. Und eine eminente Bildungsaufgabe, längerfristig gesehen.

Mittwoch, 24. Juni 2020







NZZ, 20.6. 2020

Die Ausnahme ist die Regel
Vom Risiko zur Ungewissheit – eine Revolution


Epidemien sind episodisch. Sie haben einen Anfang und ein Ende. Das verleitet zum Fehlschluss, dass nach dem Ende „alles vorbei ist“. Man könnte von der Illusion der fortgesetzten Normalität sprechen. Ich möchte diese Sichtweise sozusagen umstülpen: Der Normalfall ist ein kurzfristiger „glücklicher“ Zeitabschnitt in einer fortlaufenden Abfolge von nicht-normalen Ereignissen. Auf eine Formel gebracht: Die Ausnahme ist die Regel.  

***

Gemünzt auf hochtechnisierte Gesellschaften heisst das:  Das Epidemische - das „über das ganze Volk Verbreitete“ – ist nicht episodisch, sondern chronisch. Und dies aufgrund der komplexen Verkehrs-, Produktions-, Verteilungs-, Energieversorgungs-, Finanz-, Kommunikationsnetze. Je vernetzter ein System, desto anfälliger und leitfähiger wird es für die Ausbreitung lokaler Störungen. Es herrscht nicht die lineare Kausalität, sondern die Netzkaskade: die Störung verstärkt sich. Ein Virus bricht aus seiner ökologischen Nische aus und verursacht eine Pandemie; ein Baum fällt bei einem Gewitter auf eine elektrische Leitung und legt die Kommunikation eines Landesteils lahm; ein Bot infiziert das Internet der Dinge und die Dinge spielen verrückt. Hohe Vernetztheit bedeutet auch hohe Verletzlichkeit. Zu dieser Verletztlichkeit gehört unsere Ungewissheit angesichts von Situationen, wie wir sie gerade in der Pandemie erleben. Hier haben wir es mit zwei Fragedimensionen zu tun, einer biologisch-epidemiologischen und einer soziologisch-politischen: Was wissen wir über das Virus und seine Verbreitungswege? Und: Was wissen wir über die gesellschaftlichen Kollateralfolgen der Pandemie?  

***

Mit Ungewissheit beschäftigt sich die Wahrscheinlichkeitstheorie, ein formidables Denkwerkzeug. Sein Axiom lautet: Unser Wissen ist „riskant“, im Sinne von unvollständig und ungewiss. In zahlreichen Disziplinen – zum Beispiel in Betriebsökonomie, Kerntechnologie, Chemie, Pharmakologie – hat sich das Risikokalkül eingebürgert. Kalkül mit dem Ungewissen – das klingt nach einem hölzernen Eisen. Aber wie der Mathematiker Ivar Ekeland bemerkt, „müssen wir uns eingestehen, dass ein einziges vernachlässigtes oder unbemerktes Risiko die ganze Verlässlichkeit einer Berechnung ausser Kraft setzen kann, die auf bekannten Risiken beruht.“ Das Risiko existiert also immer, dass Risikoabschätzungen falsch sind.
Um nochmals auf die Illusion der fortgesetzten Normalität zurückzukommen. Sie beruht auf dem sogenannten „Truthahn-Fehlschluss“. Ein Truthahn wird gefüttert. Er leitet daraus induktiv die Regel ab: Wenn ich an diesem Tag Futter kriege, dann auch am nächsten Tag. Die Wahrscheinlichkeitsrechnung demonstriert, dass die Chance, nicht geschlachtet zu werden, mit jedem Tag steigt und schliesslich fast Gewissheit annimmt. Nur rechnet der Truthahn nicht mit dem Thanksgiving Day. Beinahe hundertprozentig gewiss erwartet er am Vortag Futter und gerät am nächsten Tag mit Gewissheit unter das Messer. Anthony Fauci, einer der bestausgewiesenen Virologen, sagte am 26. Januar, das Coronavius stelle „ ein sehr, sehr geringes Risiko für die USA“ dar. Er war ein Truthahn. Lernte allerdings schnell.

***

Das Risko ist Ungewissheit unter einem bekannten Gesichtspunkt der Informiertheit. Man kennt das Spektrum der erwartbaren Ereignisse, macht Annahmen über sie und versieht sie mit entsprechenden Wahrscheinlichkeiten. Genau das ist die Aufgabe von Modellen. Sie stecken den Horizont des Möglichen ab. Ungewissheit herrscht dann, wenn dieser Horizont diffus ist, die Einschätzung einer Situation nach mehreren – möglicherweise unbekannten - Gesichtspunkten verlangt, wenn also das Spektrum der möglichen Ereignisse (auch von extremen) nicht völlig bekannt ist. Der Truthahn kennt nur die Möglichkeit des Gefüttertwerdens, was ihn in der fatalen eindimensionalen Gewissheit eines risikolosen Lebens wiegt.

Der Ungewissheit lässt sich keine Kennzahl – eine Wahrscheinlichkeit – zuordnen, aber deswegen ist sie nicht weniger ernst zu nehmen. Der Wahrscheinlichkeitskalkül ist heute unverzichtbar, auch deshalb, weil er auf massive Datenevidenz abstellen kann. Es handelt sich hier um „bekannte Unbekannte“, also um herkömmliche Risikofaktoren. Man weiss, wonach man fragt: etwa nach der Prävalenz einer Krankheit in einer Bevölkerungsgruppe, der Letalitätsrate, den dominanten Übertragungswegen und so weiter. Aber Datenevidenz genügt nicht. Wir bekommen es zusehends mit der anderen, unbequemeren Sorte von Ungewissheit zu tun, mit dem „unbekannten Unbekannten“ ausserhalb des Spektrums des Erwartbaren, also mit dem Thanksgiving Day für den Truthahn.  

***

Risikoanalysen reduzieren Ungewissheit auf das Erwartbare. Dabei lehrt uns die akute Lage eher das Gegenteil: die Beinahe-Gewissheit des Unerwarteten. Was für den Truthahn der Thanksgiving Day, ist für uns das neue Coronavirus. In in einer realen Problemsituation lauern stets Thankgiving Days - wir vermehren die günstigen Bedingungen ihres Auftretens durch zunehmend fragilere Interaktionen.

Nun vernehmen wir allerdings den lauter werdenden Ruf nach wissenschaftsbasierten Entscheiden, nach dem verlässlichen, untrüglichen Fachurteil, und zwar idealerweise als eindeutiger Handlungsanweisung.  

Ein gefährlicher Irrtum, aus zwei Gründen. Erstens lassen sich Wissenschafter berufsmässig von bestimmten Paradigmen leiten, und sie neigen oft dazu, die Probleme exklusiv nach ihrem Paradigma zu modellieren – wodurch dieses sich zu einem kognitiven blinden Fleck entwickeln kann. Und wenn das individuelle Expertenurteil kaum grossen Spielraum für Zweifel und Ambiguität offen lassen mag, so erweist sich dieser Spielraum im Expertenkollektiv als erstaunlich weit. Ein wissenschaftsbasierter eindeutiger Entscheid ist ein hölzernes Eisen.

Das wirft zweitens ein akutes Licht auf die Politik. Wissenschafter sehen sich oft gerade in Krisensituationen dazu verführt oder gedrängt, trotz fehlenden Konsenses ein eindeutiges Urteil abzugeben, was darauf hinausläuft, „gegen aussen“ einen Pseudokonsens zu mimen. Nun ist aber eine politische Krise keine rein wissenschaftliche Problemsituation. Wenn ein Politiker mit dem Anspruch auftritt, seine Entscheide allein „wissenschaftsbasiert“ zu treffen, dann verhehlt er, dass in seine Entscheide immer auch noch „etwas anderes“ geflossen ist: ideologische Voreingenommenheit, Druck von Interessegruppen, persönliches Verständnis bzw. Unverständnis der Lage – kurz: „etwas anderes“ entpuppt sich als exakt das, wofür sich der Politiker zu verantworten hat.

***


Dies alles spricht weder gegen Fachurteile und Risikoabschätzungen, noch gegen die stets raffiniertere Diagnose-  und Prognosetechnologie. Wir müssen sie nur in einer neuen Problemkonstellation sehen, das heisst, die meisten drängenden Probleme als irreduzible Ungewissheiten anerkennen. Dazu muss man das Unkalkulierbare und Mehrdeutige von Situationen wahrnehmen können, alternative Szenarien gegen „Sachzwänge“ aufwerten, ein Was-wäre-wenn-Denken kultivieren. Nicht bloss die disziplinäre Exzellenz von Spezialisten ist gefragt, sondern die transdisziplinäre Virulenz von Generalisten. Wir brauchen „Igel“, die über eines sehr viel wissen, als auch „Füchse“, die über sehr viel einiges wissen. Wir brauchen Navigation auf Sichtweite und Visionen über das Sichtbare hinaus. Das SARS-Virus ist den Wissenschaftern schon seit einiger Zeit bekannt. Sie können sein Genom lesen. Nur eines fehlt: der Gedanke, dass darin Ungelesenes schlummert. Extrem Unwahrscheinliches geschieht ständig. Man muss es sich nur vorstellen können. Wäre der Ausdruck nicht derart abgegriffen, würde ich so etwas wie Ungewissheits-Kompetenz vor dem unbekannten Unbekannten einfordern. Und dazu gehören Imagination und Perspektivenflexibilität. Wer hätte gedacht, dass ein unbekanntes Virus so mir nichts dir nichts „aus der Wildnis“ auf den Menschen überspringt. Nun schlägt die postpostfaktische Realität in ihrer urwuchtigen Unerwartetheit zurück.

Donnerstag, 4. Juni 2020







NZZ, 30.5.2020

Gesucht: Künstliche Intelligenz mit Commonsense


Die jüngste Geschichte künstlich intelligenter (KI-) Systeme ist zweifellos beeindruckend. Mit den neuronalen Netzwerken und dem Maschinenlernen hat die Forschung einen entscheidenden Schritt in Richtung eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-, Mustererkennungsysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend hochgeschraubt sind die Erwartungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont die sogenannte Allgemeine Künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine Maschine mit „gesundem künstlichen Verstand“.

Erste, sozusagen infantile Formen probiert man ja zurzeit bei selbstfahrenden Autos aus. Die Artefakte beginnen zu lernen, sich an Situationen anzupassen, sie werden also wie die natürlichen Kreaturen adaptiv. Und damit bekommen wir es nicht bloss mit technischen Problemen zu tun, sondern auch mit philosophischen. Eines lautet: Was bedeutet es eigentlich, in Alltagssituationen mit Commonsense zu reagieren?

***

Die Frage beschäftigte schon Descartes. In einem berühmten Abschnitt seines „Discours“ spricht er von der Universalität der Vernunft, die sich in allen Lebenslagen zu behaupten weiss. Wenn Maschinen „auch viele Dinge ebensogut oder vielleicht besser als einer von uns machten,“ würden sie „doch unausbleiblich in einigen andere fehlen und dadurch zeigen (..), dass sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln. Denn während die Vernunft ein Universalinstrument ist, das in allen möglichen Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere Disposition haben, und deshalb ist es moralisch (praktisch, Anm. E.K) unmöglich, dass in einer Maschine verschiedene Organe genug sind, um sie in allen Lebensfällen so handeln zu lassen, wie unsere Vernunft uns zu handeln befähigt.“

Das sind frappant moderne Worte, und sie zielen genau auf den Kern der heutigen Problematik lernender Maschinen. Setzen wir für „Organ“ „neuronales Netz“ ein, und für „Disposition“ „Lernalgorithmus“, liest sich Descartes’ Text als Vorbehalt gegen einen künstlichen Commonsense. Lernende Maschinen werden nie „aus Einsicht“ handeln, weil ihr Bauprinzip keine universelle Vernunft ermöglicht. Bis dato sind Computer jedenfalls Idiots savants.
***

Computeringenieure würden Descartes entgegenhalten, dass sie ja gar nicht viele „Organe“ benötigen, sondern einen potenten Algorithmus plus eine immense, womöglich bereits vorstrukturierte Datenmenge, die er durchpflügen kann. Deep Learning funktioniert eigentlich nach überraschend einfachen Prinzipien, deshalb ist auch das Fernziel des künstlichen Commonsense „im Prinzip“ erreichbar.

Die Betonung liegt auf „Fern“. Bisher exzellierten die neuartigen künstlichen Systeme in Spielen , also in klar definierten Rahmen mit vorgegebenen Regeln und einem primären Ziel: Gewinnen. Ein selbstfahrendes Auto kann aber nicht einfach „gewinnen“. Sein Funktionieren hängt von zahlreichen Eventualitäten ab – vom pünktlichen Abliefern der Passagiere an der richtigen Destination, über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetterverhältnissen und Strassen­zuständen, bis zu Unwägbarkeiten wie unerlaubten Strassenüberquerungen von Fussgängern, nicht funktionierenden Ampeln, Staus oder Unfällen. Ein selbstfahrendes Auto hat zum Beispiel im Laufe seines Trainings unzählige Rotsignale registriert und in seinem neuronalen Netz so etwas wie ein „Konzept“ von Rot gespeichert. Unter normalen Bedingungen funktioniert das recht gut, aber immer wieder ist mit anormalen Situationen zu rechnen. Und wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen und womöglich fatalen Fehlklassifikation zu verleiten.

***

Genau diese Offenheit der realen Situation stellt bisher das grosse Hindernis auf dem Weg zur künstlichen Intelligenz mit Commonsense dar. Das mag ein weiteres Beispiel veranschaulichen. YouTube entwickelte einen Algorithmus mit der Vorgabe, die Zeit zu maximieren, die der Nutzer am Videoportal verbringt. Der Algorithmus bewerkstelligte dies, indem er Videos mit immer extremerem Content empfahl, nach dem Prinzip „upping-the-ante“: Erhöhe den Einsatz. Eine Nutzerin berichtet etwa, wie sie ein paar Videos über den Wahlkampf von Donald Trump anschaute, und daraufhin mit rassistischem, verschwörungstheoretischem und anderem anrüchigen Material überhäuft wurde. Der Algorithmus „interpretiert“ also seine Aufabe in höchst eigenwilliger, ja, sturer Weise, die zu nichtintendieren Effekten wie Radikalisierung und Polarisierung führt. Kaum ein Zeichen „gesunden“ Maschinenverstandes.

Die Designer suchen Abhilfe mit einem neuen Ansatz. Er stammt vom Computerwissenschafter Stuart Russell und nennt sich „humankompatible Maschinen“. Solche Maschinen fangen sozusagen bei null an. Statt ein vorgegebenes Ziel zu enkodieren und zu maximieren, lernen sie selbst, aus menschlichem Verhalten ein solches Ziel zu „dekodieren“ und das Verhalten anschliessend zu verbessern. „Inverses Verstärken“ nennt sich das. Daran knüpft sich die Erwartung, dass die Orientierung an menschlichem Verhalten die Maschine auch „kompatibler“ – mit mehr Commonsense - agieren lasse.

***

Die Skepsis bleibt. Erstens stellt sich die Frage, ob der Mensch sich als Vorbild für ein KI-System eignet. Er ist im Grunde kein logisches Wesen. Sein Verhalten speist sich aus einem dichten impliziten Netz von Erwartungen, Vorlieben, Meinungen, Motiven, das sich wohl kaum je vollständig in einem expliziten Formalismus entflechten lässt. Zweitens ändern sich unsere Vorlieben und Wünsche ständig, und zwar sind sie häufig nicht von „rational rekonstruierbaren“ Gründen geleitet, sondern von „irrationalen“ Stimmungen und Launen, die oft vage oder gar widersprüchlich sind. Und drittens: Was, wenn der Mensch sich im Tiefsten von „schlechten“ Gründen leiten lässt? Sollen die Maschinen dann lernen, diese Schlechtigkeit zu optimieren? Erfahrungen wie jene von YouTube und anderen „schändlichen“ Algorithmen nähren eine nicht eben optimistische Zukunftsvision.

Der gesunde Computerverstand wirft uns eigentlich auf die Urfrage zurück: Was heisst es, sich wie ein Mensch zu verhalten, ja, ein Mensch zu sein? Wir lernen zum Beispiel nicht auf die gleiche Weise wie KI-Systeme. Wir müssen nicht 10'000 Katzenbilder sehen, um daraus eine verlässliche Kategorie „Katze“ zu bilden. Eher entwickeln wir Erwartungshaltungen, wie die Dinge ablaufen könnten, und auf dieser Basis treffen wir Vorhersagen. Wir schliessen in unserer Wahrnehmung „natürlicherweise“ auf versteckte Partien eines Dinges, ohne entsprechende Daten darüber zu haben. Oder wir entwickeln eine Intuition für den Unterschied zwischen Korrelation und Kausalität. Der Regen ist nicht „Ursache“ dafür, dass die Leute den Schirm aufspannen; ihr Wunsch, trocken zu bleiben dagegen schon.

***

Es sind solche kognitiven Aspekte, die wesentlich zu unserem „gesunden“ Menschenverstand beitragen, sozusagen unser verkörpertes Geistigsein. Das beginnt nicht wenigen KI-Forschern zu dämmern. Kein Geringerer als Rodney Brooks vom MIT, Koryphäe auf diesem Gebiet, zog kürzlich eine Kernannahme des ganzen KI-Projekts in Zweifel: Womöglich stossen künstliche Systeme an eine Grenze der Komplexität, weil sie aus dem falschen Stoff bestehen. Das heisst, die Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen habe. Das Rätsel des menschlichen Geistes liegt in seiner „Inkarniertheit“.


Und deshalb wird die KI-Forschung ihr Augenmerk mehr auf diesen spezifischen Stoff legen müssen, aus dem wir gemacht sind. Sie wird biologischer denken müssen. Bereits beginnen die Robotiker mit Tierzellen zu experimentieren, die sich nach Vorgabe eines Programms entwickeln – „Xenoboter“. Hüten wir uns, hier voreilig ein Zukunftsszenario mit smarten „organoiden“ Geräten auszumalen. Fassen wir vielmehr das wirkliche Problem ins Auge. Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an. Das Problem sind also nicht superschlaue Maschinen, sondern subschlaue Menschen.

Freitag, 8. Mai 2020







NZZ, 2.5.2020

Das Coronoptikum
Die Tücken der panoptischen Technologie


In exemplarischer Schärfe führt uns die Coronakrise die fundamentale Herausforderung einer liberalen Demokratie vor: das Virus-Trilemma. Wir können zwischen drei Optionen A, B und C entscheiden; wobei die Wahl von je zwei Optionen sich nicht mit der dritten verträgt. Im gegenwärtigen Krisenfall lautet die Option A: Ansteckungs- und Todesrate minimieren; Option B:  Das Wirtschaftsleben so wenig wie möglich einschränken; Option C: „Illiberale“ Massnahmen treffen, indem man bürgerliche Freiheiten beschneidet. Westliche Demokratien tendieren zu Optionen A und B, schrecken vor Option C zurück. Denn ein Übermass an staatlicher Intervention widerspricht der liberalen Grundidee.

Wir beobachten gegenwärtig, wie ostasiatische Länder das Trilemma anders zu lösen versuchen, mit dem Hauptgewicht auf Option C: Gesundheits-Überwachung auf Kosten bürgerlicher Freiheiten. Und Befürchtungen werden laut, dass wir uns der ostasiatischen Situtation annähern; dass wir uns auch unter demokratischen Regimes schliesslich mit dieser demokratie-inkonsistenten Option abgegeben müssen. Einige wittern im Lockdown und Social Distancing bereits Kontrollgelüste staatlicher Institutionen im Namen des Notstandes.

***

Option C reanimiert eine Idee des 19. Jahrhunderts: das Panoptikum. Der Philosoph Jeremy Bentham verlieh ihr in einer Architektur des zentralen Kontrollblicks Gestalt, der jede Ecke und Nische ausleuchtet, in Gefängnis, Spital, Fabrik, Schule. Das Panoptikum von heute braucht keine Architektur. Es nennt sich Internet der Dinge. In ihm überwachen wir uns selbst. Wir tragen Technologie –  „Wearables“ - , die das Monitoring perfektioniert. All die smarten Geräte tun vor allem eines: sie senden unausgesesetzt Daten in die unsichtbare Cloud, die uns als eine elektronische Atmosphäre umhüllt.

Ein normales Handy weist heute zahlreiche Sensoren auf, welche das permanente Tracking und Tracing der Nutzerwege erlauben. Wir rüsten uns mit einem künstlichen Sensorium aus, das sich zweifellos als hilfreich herausstellen kann, gerade in einer Situation der Epidemie. Zu ihrem Hauptcharakteristikum gehört ja die Ungewissheit: Welche Personen sind angesteckt, welche weiteren haben sie angesteckt, in welchem Mass und in welchen Gruppen ist die Ansteckung fortgeschritten? Fragen, die einen panoptischen Blick durchwegs rechtfertigen. Die Entwicklung des künstlichen Sensoriums baut auf die Rechenstärke der Computer; und die ist enorm.

Das weckt latente Begehrlichkeiten. In dem Masse, in dem die Kontroll- und Test-Technologie besser und billiger wird, bietet sie sich Wissenschaftern und Politikern als probates Mittel an, das datifizierte Verhalten des Bürgers für eine präzise epidemiologische Kartierung zu nutzen. Das Englische kennt bereits den Ausdruck „Coronopticon“. In Singapur, Taiwan oder Südkorea lassen sich die Spuren „viraler“ Mitbürger verfolgen. Man kann auf dem Handy Warnungen empfangen, wenn ein „Verdachstfall“ in der Umgebung auftaucht. Wie gesagt: Die fernöstlichen Massnahmen sind nicht so fern, dass sie uns im Westen nichts angingen. Über biometrische Erfassung im Namen nationaler Sicherheit wird auch in Europa - zumal in der Schweiz - diskutiert. Allenthalben entwickeln Softwaredesigner Apps, welche den Handynutzer aufrufen, Daten über sein Verhalten zu liefern. Vorerst noch freiwillig. Und was, wenn die Situation gebietet, diese Freiwilligkeit aufzugeben? Wer gebietet eigentlich darüber, was die Situation „gebietet“? Die Exekutive, die Experten, das Zentralkomitee?

***

Solche Fragen suggerieren immer Dramatis personae, die im Hintergrund die Fäden ziehen. Aber dieses Bild ist zu einseitig, zu anthropozentrisch. Es blendet ein Problem aus, das in der Technologie selbst steckt, und heute schon imminent ist. Der amerikanische Technikphilosoph Langdon Winner hat es 1980 – noch vor dem Internet - in eine allgemeinere Frage gekleidet: Do Artifacts Have Politics? Gibt es Technologien, die durch ihre Natur und durch die Bedingungen ihres Funktionierens die sozialen und politischen Formen um sie „diktieren“? Platon brauchte das Bild des Schiffs als eines Artefakts, das eine hierarchische soziale Form vorgibt. Eine „liberale“ Ordnung auf dem Schiff führt es nicht durch stürmische See. Auf analoge Weise führt auch eine Demokratie nicht durch die unruhigen Gewässer einer Epidemie. Es braucht einen Kapitän, einen Offiziersstab und klare Unterstellungsverhältnisse.

Sind also hypertechnisierte Gesellschaften „Schiffe“, die demokratische Verhältnisse schlecht vertragen, und zwar nicht bloss im Ausnahmefall eines Sturms, sondern auch im Normalfall ruhigeren Gewässers? Bewegen wir uns unabwendbar auf Option C zu, vor allem, wenn man mit weiteren  Pandemien – ohnehin mit katastrophischen Ereignissen - zu rechnen hat?

Schaut man genauer hin, sieht man, dass die Technologie des Panoptikums sich bereits als Normalfall eingebürgert hat. Man spricht viel von „Digital Health“, Selbst-Monitoring um seiner Gesundheit willen. Dabei sollte man hellhörig sein, denn Gesundheit wird unter der Hand häufig betriebsökonomisch definiert, also im Sinne einer Lebensführung als „Best Practice“. Hinzu kommt etwas anderes. Die neuen Technologien, die man ja meist in offizieller Diktion „zum Besten“ des Nutzers einsetzt, entwickeln inoffiziell eine nichtintendierte Eigendynamik. Bekanntlich verhalte ich mich anders, wenn ich beobachtet werde, ja, sogar schon, wenn ich mich beobachtet fühle. Tracking und Tracing machen im Endeffekt aus dem Nutzer einen humanen Fortsatz des technischen Beobachtungssystems.

Selbstverständlich kann ich mir das so zurechtlegen, dass ich genauer Buch über meine persönlichen „Rekorde“ führen möchte. Auf den zweiten Blick entpuppt sich dieses „Bio-Enhancement“ als nicht so harmlos. Man sieht sich immer weniger mit eigenen Augen, immer mehr mit den „Augen“ des Geräts. Es emanzipiert sich vom Benutzer, je smarter es wird, und es nimmt unser Ureigenstes, unseren Körper, in normativen Beschlag. Die Biodaten, die es mir liefert, informieren mich nicht nur über meinen Ist-Zustand, sondern über meinen Soll-Zustand. Wenn ich täglich Blutdruck, Puls, Cholesterinspiegel überprüfe, geschieht dies im Hinblick auf eine Vorgabe. Die Vorgabe kann von mir selber stammen. Zunehmend wahrscheinlicher ist aber, dass ich mich unmerklich den Vorgaben angleiche, welche von den „Wearables“ diktiert werden. Genau das bezweckt „autonome Technologie“. Die Designer bauen nicht Geräte, sondern Gewohnheiten. Gewohnheiten üben auch einen normativen Druck aus. Ein Teil der Computertechnologie entwickelt sich zur „Captology“, sie sucht den Nutzer via Artefakte zu einem bestimmten Verhalten zu beeinflussen (CAPT: „Computers As Persuasive Technologies“).

***


Ohne hier nun über technologischen Paternalismus zu menetekeln, scheint mir der kritische Blick auf das Potenzial einer panoptischen Technologie notwendig zu sein. Sie kann sich vom Ausnahmezustand der Pandemie loslösen und über sie hinaus die Politik des Normalzustands nachhaltig prägen. Im Hinterhalt lauert die Verführung, „Infektion“ einfach umzudefinieren. Wenn man restriktive bis repressive Sanktionen um der Gesundheit eines Volkskörpers willen legitimiert, warum sollte man dies nicht auch um der „Gesundheit“ eines politischen Systems willen tun können? In Orwellschem Neusprech liesse sich dann sagen: Sicherheit ist gleich Gesundheit. Wer die Sicherheit eines Systems in Frage stellt, stellt dessen Gesundheit in Frage, sprich: ist ein politisches Virus. Kritik des Regimes erscheint dann als „pathogen“ und „virulent“, und provoziert adäquate „Prophylaxe“ und „Therapie“. Sind viele Bürger unzufrieden mit dem Regime, handelt es sich um eine „Epidemie“. Dann schickt man eine Armee von Tracking-Detektiven zur Identifizierung von „infizierten“ kritischen Bürgern los. Das ist die Logik der Ausweitung der Ausnahmezone. Der politische Autoritarismus hat sie bereits für sich entdeckt. Treffen wir hier eine bessere Vorsorge als bei der Coronapandemie.

NZZ, 9.4.24 Sokrates und der ChatGPT Schreiben in der postliterarischen Welt Die Schrift ist eine alte Technologie. Aber als sie neu war, er...