Dienstag, 7. Dezember 2021




NZZ, 3.12.21

Die postmoderne Blase ist nicht geplatzt

Der Sokal Hoax revisited



Vor 25 Jahrern suchte der Physiker Alan Sokal die Blase des als verquast geltenden postmodernen Diskurses zum Platzen zu bringen, indem er sich einen Jux – einen «hoax» - ausdachte.  Er stellte eine Collage von Zitaten namhafter postmoderner Denkerinnen und Denker zusammen, die glaubten, jeden Schwachsinn aus der Wissenschaft destillieren zu können. Sokal tat so, als stimmte er ihnen zu. Sein Artikel erschien in einer damals trendigen Fachzeitschrift für postmodernes Denken. Ein paar Wochen nach dem Erscheinen machte Sokal publik, sein Lesepublikum auf die Schippe genommen zu haben. Die Empörung in der einen Hälfte der akademischen Galerie war ebenso gross wie die Häme auf der anderen. Ein regelrechtes Kulturscharmützel entbrannte zwischen Geistes- und Naturwissenschaften. 


Ich lese den Text nach wie vor mit Vergnügen. Aber gleichzeitig mischt sich in dieses Vergnügen die Ernüchterung: die Blase ist nicht geplatzt. Vor allem aus zwei Gründen. Erstens hat Sokal durchaus den Finger auf eine kulturelle Wunde gelegt, aber sich die Sache zu leicht gemacht. Das Thema lässt sich nicht einfach durch den Stich in eine vermeintliche Blase erledigen. Und zweitens hat sich die Blase inzwischen ausgedehnt, über die akademischen Querelen hinaus. Der all-gegenwärtige Diskurs über Identität, Ethnizität, Diversität, Intersektionalität ist ebenso aufgepumpt wie der Diskurs, den Sokal damals ins Visier nahm.


***


Seine Parodie maskierte sich mit dem Plädoyer für eine sogenannte «befreiende postmoderne Wissenschaft». «Befreiung» bedeutete dabei konkret die Loslösung von Faktenbasiertheit. Sokal zitierte die feministische Philosophin Kelly Oliver: «Um revolutionär zu sein, kann eine feministische Theorie nicht beschreiben, was ist: keine ‘natürlichen Fakten’ (..) Das Ziel ist (..), strategische Theorien zu entwickeln –  nicht wahre Theorien,  falsche Theorien.» 


Das liest sich mala fide wie das, was man heute als «postfaktisch» oder «post truth» bezeichnet. Aber es gibt eine Bona-fide-Interpretation. Sie anerkennt durchaus, dass Wissenschaft sich an Fakten zu halten hat, ordnet aber diese Fakten einer Strategie unter, die über die Wissenschaft hinausreicht. Die Klimawissenschaften geben ein gutes Beispiel. Die übergeordnete Strategie lautet bündig: Erhaltung des Planeten als gemeinsames Habitat aller Spezies. Und darin manifestiert sich natürlich die Vertracktheit des Problems. Die meisten klimatologischen, meteorologischen, ozeanologischen und was noch für Fakten sind nicht «reine» Laborsachverhalte, die sagen, «was ist». Sie sind vielmehr eingebettet in einen planetarischen Verwendungs- und Deutungszusammenhang. Sie sagen auch, was «sein soll» oder «nicht sein soll». Sie sind interesse- und interpretationsgeladen.  Und damit verlassen wir das Terrain traditioneller, «normaler»  Wissenschaft.  


***


Ein Axiom des postmodernen Denkens lautet: Die Welt ist nicht ein Gefüge aus Fakten, sondern aus Texten. Darin findet natürlich eine altehrwürdige philosophische Tradition ihren kürzestmöglichen Ausdruck: die Hermeneutik, die Textauslegung. Sie hätte das Potenzial zu einer  «Komparatistik» von Natur- und Geisteswissenschaften, denn schliesslich steht die ganze Naturforschung seit Galilei im Zeichen der Buchmetapher der Natur. Hermeneutik meldete sich im 20. Jahrhundert immer wieder als Korrektiv zur positivistischen Tradition zu Wort, auch wenn letztere die Vorherrschaft reklamierte. Es gab durchaus Versuche, fruchtbare Verknüpfungen zwischen bei-den Formen des Weltverständnisses zu finden, aber sie sind kaum erfolgreich gewesen. Das zeigt sich exemplarisch an zwei Ansätzen mit grossem postmodernem «Impact»: an der «Struktur wissenschaftlicher Revolutionen» (1962) des Physikers und Wissenschaftshistorikers Thomas Kuhn, und am «Spiegel der Natur» des Philosophen Richard Rorty (1979). Die Bücher markieren eine entscheidende Wende in der Wissenschafts- und Kulturgeschichte, bedauerlicherweise aber eher im Sinne eines Missverständnisses. Das heisst, sie wurden in der postmodernen Rezeption als Absage an Objektivität, Realismus, Wahrheitsorientierung interpretiert – kurz, als Verabschiedung der Idee, es gäbe eine für alle Menschen verbindliche «Welt». 


***


Das kommt in einer Passage von Sokals Artikel so zum Ausdruck: «Wie sich immer offensichtlicher zeigt, ist die physikalische ‘Realität’, nicht weniger als die soziale ‘Realität’, im Grunde ein soziales und linguistisches Konstrukt. Weit davon entfernt, objektiv zu sein, spiegelt und kodiert das wissenschaftliche ‘Wissen’ vielmehr die vorherrschenden Ideologien und Machtverhältnisse von Kulturen, die es produzieren. (..) Deshalb kann der Diskurs der Scientific Community – ungeachtet seines unbezweifelbaren Werts – keinen privilegierten erkenntnistheoretischen Status gegenüber antihegemonialen Narrativen reklamieren, die aus dissidenten und marginalisierten Gemeinschaften stammen.» Von solchen «dissidenten» und «marginalisierten» Gemeinschaften wimmelt es heute nur so, von den Freiheitstreichlern auf der Strasse bis zu den Konspirationisten in ihren digitalen Rattenlöchern. Sie alle reklamieren ihr «Narrativ» gegen die «Hegemonie» wissenschaftlicher und politischer Institutionen.


Nun sind allerdings die wenigsten Wissenschaftler so naiv, zu glauben, Forschung spiele sich in einem macht- und kulturfreien Vakuum ab. Es sind immer Menschen, die entscheiden, welche Evidenz relevant ist, und sie lernen dadurch auch die Standards der Evidenz besser einzuschätzen und einzusetzen. An das Ende dieses Prozesses gelangen wir nie. Aber nach der Pandemie schreiben wir uns mit Vorteil hinter die Ohren, dass das Faktische bei Gelegenheit Vorrang vor dem kulturell «Konstruierten» hat;  dass viele Dinge nicht einfach durch die Kultur bestimmt sind, sondern durch unsere Interaktion mit etwas, das nicht von der Kultur abhängt – nennen wir dieses Etwas Natur, Realität, ökologisches Ganzes oder wie auch immer. Philosophien, die dies leugnen, verdienen nach wie vor keine seriöse, sondern bestenfalls parodistische Beachtung à la Sokal. 


***


In einem ganz bestimmten und beunruhigenden Sinn ist Sokal aktueller denn je. Er schloss seinen Jux ab mit einem Appell an die «jüngere Generation»: «Das fundamentale Ziel jeder emanzipatorischen Bewegung muss in der Entmystifizierung und Demokratisierung des wissenschaftlichen Wissens liegen; im Niederreissen von Barrieren, die ‘Wissenschaftler’ von der ‘Öffentlich-keit’ trennen. Realistischerweise muss diese Emanzipation mit der jüngeren Generation beginnen, durch tiefe Reformen des Bildungssystems. Wir müssen den Unterricht von Wissenschaft und Mathematik von seinen autoritären und elitären Charakterzügen säubern, und die Fächer mit den Erkenntnissen aus feministischer, queerer, multikultureller und ökologischer Kritik anreichern.»  


Nun, genau das spielt sich heute ab auf den Campus der Universitäten. Das «Säubern von autoritären und elitären Charakterzügen» mutiert zum Säubern von nicht genehmen Themen. Erst jüngst machte der Fall der Philosophin Kathleen Stock von sich reden, einer Feministin an der University of Sussex. Sie vertritt die  «Vintage»-Meinung, dass gewisse menschliche Merkmale primär von der Biologie und nicht von der Kultur bestimmt würden. Eine zumindest debattierbare Ansicht, sollte man annehmen. Und welche Institution, wenn nicht eine Universität, könnte die Bedingungen für eine solche Debatte anbieten. Ein «aufgewachter» studentischer Mob aus dem Lager mit dem adretten Akronym LGBTQIA2+ forderte den Rücktritt von Frau Stock. Sie trüge zur «Verunsicherung von Trans-Personen in diesem kolonialistischen Drecksloch» bei, wie ein Flugblatt mit postpubertärem Charme verkündete. Frau Stock trat im Oktober 2021 zurück. 


Sokals Artikel war eine Parodie. Heute ist die Parodie bitterer Ernst. Man verunglimpft Leute im Namen der Anti-Verunglimpfung. Vielleicht ist das die Rache der postmodernen «Emanzipation». 

 





Montag, 8. November 2021







NZZ, 5.11.2021


Der Mensch als Prothese seiner Prothesen

Von der smarten Bauchspeicheldrüse zur smarten Anatomie


Ein Entscheid des Obersten Gerichtshofs der USA erklärte vor nicht allzu langer Zeit den Dateninhalt der Handys zu einem schützenswerten Gut. Wie der Vorsitzende John Roberts begründete, sind Handys «zu einem allgegenwärtigen und beharrlichen Teil des Alltagslebens geworden, so-dass der sprichwörtliche Besucher vom Mars mutmassen könnte, sie seien ein wichtiger Teil menschlicher Anatomie.»


Die Technologie schreitet voran durch Miniaturisierung und Personalisierung: durch Anatomisierung, könnte man sagen. Wenn man vom Smartphone als von einem neuen Organ spricht, dann ist das eigentlich trivial. Technik verstärkt, verbessert, optimiert menschliche Fähigkeiten. Das können wir unverfänglich und generell feststellen, vom Faustkeil bis zum Computer. Die Anthropologen unterstreichen am Werkzeug den Aspekt, dass es sich um eine Fortsetzung oder Verlängerung menschlicher Organe handelt. Das griechiche Wort «organon» bedeutet «Werkzeug». Ganz offensichtlich sind zum Beispiel Hammer, Hebel oder Zange «Organe» im Sinne der künstlichen Weiterentwicklung der motorischen Fähigkeiten unserer Arme und Hände. Weniger trivial erscheint die Umkehr: Wir adaptieren unseren Organismus an den neuen Körperteil. In dem Verhältnis, in dem wir menschliches Vermögen an Artefakte delegieren, verlagern wir das künstliche Vermögen der Artefakte in uns hinein. Wir inkarnieren quasi die von den Geräten vorgegebenen Verhaltensweisen, Rhythmen und Normen.


***


Der amerikanische Religionswissenschafter und Autor Mark C. Taylor leidet an Diabetes. Seine Bauchspeicheldrüse produziert nicht das lebenswichtige  Insulin. Er trägt deshalb eine künstliche Bauchspeicheldrüse – im Wesentlichen ein Glukosesensor und eine Insulinpumpe - , welche ihn mit dem Stoff versorgt. Der Algorithmus dieses künstlich intelligenten (KI) Systems intergriert sich in die üblichen Körperabläufe und reagiert permanent auf den Glukosepegel, den ihm die Sensoren melden. Die Daten werden überdies ins Netz geladen, so dass sie der Hausarzt, die Instrumentenhersteller - und wer auch immer - sie  einsehen können. Funktioniert die Pumpe, er-hält Taylor gerade die angemessene Dosis Insulin, funktioniert sie nicht - oder wird sie gehackt -, riskiert er den Tod. 


KI-Anatomieteile entwickeln sich immer mehr zum Standard der modernen Prothetik. Sie basieren auf sechs revolutionären Schritten der Computertechnologie, als da sind: Hochgeschwindig-keitsprozessoren, riesige Datenmengen, drahtlose Netze, Miniaturisierung mobiler Geräte, Verbilligung, und nicht zuletzt Paradigmenwechsel in der KI-Forschung, sprich:  Übergang zu lernenden Maschinen. Ein blühender Industriezweig.


Die künstliche Bauchspeicheldrüse ist nur ein Beispiel dieses fortlaufenden Prozesses. Es hat sich eingebürgert, ihn als Internet der Dinge zu bezeichnen, ein sich verdichtendes Netz smarter  interagierender Geräte also, die im Übrigen eine von uns unabhängige «ubiquitäre» Bit-Kommunikation unter sich  führen können. So gesehen erhält die künstliche Bauchspeicheldrüse ihren spezifischen Ort in einem technischen Kosmos, und sie zieht ihren Träger in diesen Kos-mos hinein. Dinge und Personen verbinden sich auf intime Weise. Mark Taylors KI-Bauchspeicheldrüse «ist» Mark Taylor: «Diabetes hat mich gelehrt, dass ich nie nur ich selbst bin, sondern stets auch anderes als ich. So wie meine Pumpe und ich einander kennen und miteinander leben lernen mussten, so habe ich entdeckt, dass mein Körper über sich selbst hinaus-reicht.»


***


Es lohnt sich, über diese identitätsphilosophische Feststellung etwas weiter nachzudenken. Gewöhnlich betrachten wir die Haut als natürliche Grenze, die das Ich «drinnen» von der Welt «draussen» separiert. Das ist allerdings zu simpel physisch gedacht. Die Haut meiner Hand zum Beispiel bildet die Grenze zur Umgebung; aber meine manuellen Aktivitäten bringen meine Hand in zahlreiche taktile Kontakte mit Objekten der Umgebung: ich ergreife sie, drücke sie, ziehe an ihnen, liebkose sie. Dadurch wohne ich ihnen gewissermassen ein. Das geschickte Umgehen mit Werkzeugen, Musikinstrumenten oder Sportgeräten beruht wesentlich auf diesem «Einwohnen»: dem «Ich-Werden» der Objekte. Ich befinde mich immer auch «draussen», in den Dingen, oft intensiver, als mir das bewusst ist. Nun beginnen wir auch in den elektronischen «wearables» einzuwohnen, und es ist nicht abwegig, sie als erweiterte Anatomie zu betrachten. Denkbar ist im Besonderen, dass sie künftig aus organischer Materie bestehen werden, und sich so gesehen im-mer weniger vom Stoff unterscheiden, aus dem wir «gemacht» sind. 


***


Wir leben zusehends in einem natürlich-künstlichen Internet der Körper. Die KI-Bauchspeicheldrüse ist vernetzt mit anderen natürlich-künstlichen Entitäten, und in diesem Netz findet eine neuartige Evolution statt. Taylor nennt sie Intervolution. Im Gegensatz zur Evolution, die sich wesentlich in der Zeit abspielt, ist die Intervolution ein Prozess der «echtzeitlichen» Verschränkung, des Ineinandergreifens von natürlichen und künstlichen «Lebensformen». Das globale Netzwerk, das entsteht, bildet die biotechnische Infrastruktur für unsere künftige körperliche und kognitive Entwicklung. Ein Prozess der Verinnerlichung der Werkzeuge und der Veräusserlichung unserer Körper.


Eine solche Intervolution ist nicht unproblematisch. Denn wenn ich mein Ich quasi in die künstlichen Organe auslagere, dann verteile ich mein Ich im Netz. Die Bauchspeicheldrüse von MarkTaylor hinterlässt Datenspuren im Internet der Körper, die gelesen werden können und möglicherweise Rückschlüsse auf die Identität erlauben. Anhand von Smartphonedaten lässt sich schon heute ziemlich genau feststellen, wo ich mich aufhalte oder aufgehalten habe. Die App kann zur Trap, zur Falle, werden. Die einschlägige Techno-Industrie befindet sich in einem entfesselten Wettbewerb. Sie entwickelt unentwegt eine mobile Armatur aus smarten Fitbitarmbändern, Hautpflastern, Textilien und anderen «wearables», die  Informationen über Herzaktivität, Blutdruck, Körperfett, Atmung, Schlafmuster, Essgewohnheiten, ja, sogar über unsere Stimmung aufzeichnen und übermitteln können. Die KI-Systeme ermöglichen immer raffiniertere Implantate. In der Medizintechnologie arbeiten die Ingenieure an smarten Pillen mit Mikrokameras, um eine Darmspiegelung durchzuführen. Man extrapoliere ein bisschen und stelle sich vor, wir be-sässen künftig eine smarte künstliche Anatomie aus Implantaten, die permanent auswertbare Daten ausstrahlen –  wir mutieren zu Cyborgs mit einer intelligenten Prothetik, die sich zunehmend verselbständigt. Vernetzte Körper, die immer online sein werden, 24 Stunden am Tag, 7 Tage in der Woche, 52 Wochen im Jahr: 24/7/52-Körper. 


***


Es ist kaum abzusehen, wohin diese Anthropotechnologie führt. Schon jetzt lässt sich sagen: Sie verändert Körper und Geist. Sie bringt nun erst zur vollen Entfaltung, was einer der originellsten Denker des 20. Jahrhunderts, Gregory Bateson, vor fünfzig Jahren die «Ökologie des Geistes» nannte. Diese Ökologie umfasst auch das Künstliche. Die intelligenten Artefakte ziehen mich in einen über mich hinausreichenden «kognitiven Loop» hinein. Als «grösseren Geist» bezeichnete ihn Bateson. Und dieses «Über-mich-Hinausreichende» muss man buchstäblich lesen: als Transzendenz der neuen Technologien.  Sie werden zunehmend unbegreiflicher. Das Internet der Dinge und Körper «intervolviert» mit einer Rasanz, die uns schon heute über den Kopf wächst. Bateson warnte, es läge in unserer Macht, in der umfassenden Ökologie eine «Geisteskrankheit» zu erzeugen, deren Teil wir selbst sind. Das mag etwas dramatisiert klingen. Aber wir erleben eine Dialektik der Prothese. Je intelligenter sie wird, desto unintelligenter drohen wir zu werden. Der Mensch entwickelt sich vom Freudschen Prothesengott zur Prothese seiner Prothesen. Und es ist nicht gerade ein Trost, zu konstatieren, dass wir erst am Anfang dieser Entwicklung stehen. 



Mittwoch, 13. Oktober 2021






NZZ, 9.10.2021



Die reale Welt ist alles, was nicht ins Modell passt

«Die Welt ist alles, was der Fall ist» - so lautet einer der rätselhaft banalen Sätze Ludwig Wittgensteins. Aber was ist der Fall? Was heisst das überhaupt? Ich nähere mich dieser Frage aus einer ganz alltäglichen Situation heraus. Angenommen,  ich komme zur Bushaltestelle und sehe gerade den Bus wegfahren. Er fährt alle zehn Minuten. Also warte ich, denn ich weiss, dass in den nächsten zehn Minuten wieder einer kommt. Nach zehn Minuten noch kein Bus. Nach einer Viertelstunde werde ich nervös. Zurecht. Meine Erwartung richtet sich nach einem simplen Modell, der Verlässlichkeit des Fahrplans. Und weil meine Erwartung sich nicht erfüllt, muss etwas geschehen sein: der «Fall» sein. Vielleicht gab es einen Unfall, hatte der Fahrer einen Schwächeanfall oder die Fahrleitung ist defekt. Ich könnte eine lange Liste von Erklärungsmöglichkeiten auf-stellen -plausible und unplausible - und nach zwanzig Minuten sehe ich mich nach einer anderen Verkehrslinie um. 


«Etwas ist geschehen» - das heisst, so betrachtet: etwas passt nicht ins Modell. Die Welt verhält sich anders als erwartet. Sie enthält ein unabdingbares Moment der Ungewissheit. Nur der Fahr-plan suggeriert Gewissheit. Aber sie täuscht. Bereits hier kommen zwei Grundarten des Unbekannten ins Spiel: das bekannte und das unbekannte Unbekannte. Ersteres bezieht sich auf variable Grössen des Modells, die man mit dessen Mittel berechnen kann; Letzteres auf weitere mögliche Variablen, die das Modell nicht berücksichtigt.  Jeder Modellbauer ist gefasst darauf, dass neue Daten – das Ausbleiben des Busses – nicht ins Modell passen. Er kann diesem Problem – den beiden Kategorien des Unbekannten entsprechend  - auf zwei Arten begegnen. Er analysiert die neuen Daten innerhalb des Modells (als «Anomalien»); oder er betrachtet die Daten als Beurteilungsinstanz des Modells selbst (als «Falsifikationen»). Das ist eine haarigere Angelegenheit als man vielleicht fürs erste vermutet. Denn sie verlangt eine Entscheidung aufgrund der Interpretation der neuen Daten. Und so einfach sind die Interpretationen meist nicht. 


***


Zum Beispiel in der Finanzwirtschaft. Auch in ihr handelt man nach «Fahrplänen». Das erste Jahrzehnt des 21. Jahrhunderts favorisierte ein Modell, nach dem sich das Kreditrisikomanagement als ein geschlossenes, klar definiertes und berechenbares Problem betrachten lässt – als eine Frage, wann der Bus kommt. Wie in allen Modellen spielen gewisse Grundannahmen eine tragende Rolle. So gehen diese sogenannten Value-at-Risk-Modelle zum Beispiel von einer Normalverteilung der Kapitalerträge aus, was man dahin vereinfachen kann, dass zukünftige Finanzschwankungen sich grosso modo als Wiederholungen früherer konzipieren lassen. Wenn der Bus bisher regelmässig verkehrte, dann auch fortan. Bloss «geschah» 2008 auch im Finanzsektor et-was. Die Risikomodelle der Finanzinstitutionen sagten eine geringe Wahrscheinlichkeit für grosse Verluste voraus, dies aber unter der Voraussetzung, dass alles «normal» verläuft. Was jedoch gerade nicht der Fall war, weil Faktoren eine Rolle spielten, die man in den Modellspielereien nicht berücksichtigte.


Da gerade von Spielen die Rede ist: Lange hätschelten Ökonomen und Politologen die Idee, man könne mit mathematischen Modellen der Spieltheorie «rationale» Gründe für wirtschaftliche und politische Entscheidungen finden. Der amerikanische Ökonom Thomas Schelling etwa genoss im Kalten Krieg die Reputation eines Grossstrategen und «Kriegsspielers», der mit der  schlagenden Logik seiner Modelle die globalen Konflikte zu lösen suchte. Im Besonderen empfahl er den «Fahrplan» der iterierten Bedrohung während der Kubakrise. Aber auch hier «geschah» etwas. Die Welt passte nicht in Schellings Modell mit seinen kalibrierten und kalkulierten Risiken. Irrtümer und Fehlwahrnehmungen überwogen. Man navigierte sozusagen mit einer falschen Karte durch tückische Gewässer. Und es ist wahrscheinlich nicht übertrieben, zu behaupten, dass die Politiker sich zum Glück «irrational» und nicht modellgerecht verhielten. Der Titel eines Buchs  über die Kubakrise sagt eigentlich alles: «How Reason Almost Lost Its Mind».


***


Wer sich schon einmal mit abstrakten rechnerischen Modellspielereien verlustiert hat, kennt den Zauber, wenn die Welt in Gedanken sich so fügt, wie man sie gerne hätte.  Man spielt Weltgeist. Zauber und Gefahr liegen allerdings nahe beieinander. Dem Zauber, dass uns im Modell die Welt überschaubar, voraussehbar, berechenbar erscheint, steht die Gefahr entgegen, dass man die Welt für das Modell hält: Realitätsverlust. Solange man es bei Gedanken- oder Laborexperimenten belässt, ist das relativ harmlos. Aber sobald man zum Beispiel eine Gesellschaft oder eine Wirtschaft als Versuchsanstalt ansieht, hört die Harmlosigkeit auf. 


Betrachten wir zum Beispiel einen in den Verhaltenswissenschaften beliebten Experimentiertypus: Man setzt Probanden – meist Studierende -  in eine spezifische abgeschlossene Spielsituation, zum Beispiel im Ultimatumsspiel. Es beginnt damit, dass  Spieler A einen Vorschlag macht, wie ein Geldbetrag zu teilen sei. Diesen Vorschlag muss Spieler B annehmen oder ablehnen. Einigen sie sich nicht, bekommt keiner etwas. Vernünftigerweise müsste B jedes Angebot akzeptieren, denn irgendein Teilbetrag ist besser als keiner. Aber die meisten Probanden lehnen ein An-gebot unter 15 Prozent als unfair ab. Im Durchschnitt gibt A etwa 30 Prozent an B ab. Ein grosser Teil der Spielverläufe endet damit, dass A und B sich auf die Hälfte einigen, was aber nicht ins Modell «rationalen» Handelns passt. Ökonomische und politologische Spieltheoretiker neigen allerdings dazu, das als «rational» zu bezeichnen, was ihren Modellen und deren Annahmen entspricht, etwa die Maximierung des Eigennutzens. Aber im Realfall sind die Absichten oder Motive der Akteure nie klar und eindeutig definiert. Der Modellbauer unterstellt also seinen Versuchskaninchen hypothetische Intentionen und ersetzt das reale Problem durch ein konstruiertes. Das ist durchaus ein vertretbares experimentelles Manöver. Es hat freilich seine Tücken. Man fühlt sich an die klassischen mathematischen Probleme erinnert: Nicht alles lässt sich mit Zirkel und Lineal konstruieren. Wir müssen weitere Instrumente hinzufügen, und mittlerweile verfügen die Modelle über ein derart raffiniertes Instrumentarium, dass sie uns dazu verführen, Probleme modelladaptiert zu «frisieren». Nicht das Problem bestimmt dann die Methode, sondern die Methode das Problem. 


***


All dies spricht nicht gegen Modelle, sondern für eine kritische Erkundung ihrer Grenzen. Von Friedrich A. von Hayek stammt der kluge Satz: «Es könnte sich als die bei weitem schwierigste (..) Aufgabe der menschlichen Vernunft erweisen, ihre eigenen Grenzen rational zu begreifen.»  Erst an diesen Grenzen erschliesst sich uns die reale Welt. Sie ist eine verdammt vertrackte Sache. Unsere Intelligenz muss, um diese Vertracktheit zu verstehen, notwendig viele Details vergessen, sprich: Modelle bauen. Aber Modellbau ist inhärent paradox. In einschlägigen Kreisen spricht man vom Bonini-Paradox, nach dem Management-Wissenschafter Charles Bonini: Je realistischer ein Modell, desto unverständlicher ist es. Man muss immer mehr Details als Parameter einbeziehen, bis man den Überblick verliert. Die Organisationsforscher William Starbuck und John Dutton formulierten es so: «Wenn ein Modell realistischer wird, wird es ebenso schwierig zu verstehen, wie der reale Prozess, den es repräsentiert.» Der reale Prozess ist also letztlich das, was man nicht vollständig versteht, was nicht ins Modell passt. Dieses Paradox hat Schriftsteller immer wieder fasziniert, etwa Lewis Carroll, Jorge Luis Borges oder Umberto Eco: Eine Karte der Welt im Massstab 1:1 wäre eben keine Karte mehr, sondern die Welt selbst. Also unbrauchbar.


Es gibt den Witz über den Spieltheoretiker, der sich mit einem Kollegen in der Savanne aufhält. Ein Löwe kommt auf sie zu. Der Spieltheoretiker packt sein iPad aus, berechnet die optimale Strategie. «Du bist verrückt, wir haben dazu jetzt keine Zeit!» entsetzt sich sein Kollege. «Keine Sorge,» erwidert der Spieltheoretiker, «der Löwe muss doch auch zuerst seine optimale Strategie ausklamüsern.»  Ein typisch menschlicher Irrtum: Der Welt ist unsere Rationalität schnuppe. 




 


Mittwoch, 29. September 2021




NZZ, 25.9.2021

Die neue Normalität heisst Komplexitätskrise 

In bestimmten Phasen des Zweiten Weltkriegs schickten die Briten täglich Bomber über den Ärmelkanal. Die Flugzeuge kehrten meist mit vielen Einschusslöchern zurück. Um die Maschinen zu verstärken, panzerten die Techniker sie an Stellen mit der  grössten Löcherhäufigkeit. Wider Erwarten nützte das jedoch kaum. Der amerikanisch-österreichische Statistiker Abraham Wald – so die Legende – machte daraufhin einen kontraintuitiven Vorschlag: Panzert die Maschinen an den Stellen mit den wenigsten Einschusslöchern. Seine Begründung: Maschinen mit sichtbarem Schaden sind wahrscheinlich an harmlosen Stellen getroffen worden, sonst wären sie gar nicht zurückgekehrt. Die verletzlichsten Stellen liegen daher nicht im Sichtbaren. 


***


Der Fall verlockt zu einer Analogie. Unsere hochvernetzte Welt ist eine Maschine mit sehr vielen Schwachstellen. Die sichtbaren Einschusslöcher in der Pandemie sind das Virus, seine Varianten und ihre Übertragung. Erwartungsgemäss mobilisiert und intensiviert man die Forschung in den einschlägigen Disziplinen: Virologie, Immunologie, Epidemiologie, Pharmakologie. Die Hoffnung auf eine kurzfristige Lösung der Krise baut darauf. Aber wie steht es mit der längerfristigen Lösung? Wie steht es mit der Erkennung von weiteren Auswirkungen der Pandemie, generell von unsichtbaren verletzlichen Stellen in jenem komplexen globalen System, das heute die Länder des Planeten verbindet? 


Könnte sich 2020 immer wieder ereignen? Fragen nach unsichtbaren Schwachstellen werden zweifellos künftig im Fokus stehen. Das heisst: Komplexe Systeme verlangen nach einer ihnen angemessenen Erkenntniseinstellung. Der Mathematiker John Allen Paulos hat sie prägnant um-schrieben: Die einzige Gewissheit, die wir haben, ist Ungewissheit; und das Wissen, wie mit Unsicherheit umzugehen ist, bietet die einzige Sicherheit. Nennen wir die Einstellung Risiko-Agnostizismus. Betrachten wir an vier Schlüsselmerkmalen komplexer Systeme, was das konkreter heisst.


***


Ein erstes, trivial erscheinendes Merkmal ist die kollektive Kopplung der Komponenten. Bleiben wir hier bei der «Komponente» Mensch. Menschen agieren gekoppelt, das heisst ihre Wahrnehmungen und Handlungen hängen von den Wahrnehmungen und Handlungen anderer ab. Wenn mein Verhalten Wirkung beim anderen zeigt, kann die Wirkung wiederum mein Verhalten beeinflussen. Das führt oft zu einer rückgekoppelten Kollektivdynamik, die sich nicht linear aus den Einzeldynamiken zusammensetzt. Zum Beispiel bei Panikkäufen. Ich sehe, wie jemand Klopapier hamstert, was bewirkt, dass ich auch hamstere, was Ursache für eine Drittperson sein kann, zu hamstern, was mich womöglich veranlasst, noch mehr zu hamstern … ad infinitum. Es wäre irre-führend, zu sagen, das Virus sei die Ursache. «Ursache» ist vielmehr das ganze System.


Damit hängt ein zweites Merkmal zusammen. Komplexe Systeme unterliegen nicht deterministischen Gesetzen. Aber sie haben durchaus eine Geschichte. Das heisst, sie sind zu dem geworden, was sie sind, aufgrund eines ganz spezifischen kontingenten Entwicklungspfades. Dadurch wird es schwierig, vorauszusagen, wie sich das System weiterentwickelt. Insbesondere erweist sich die Annahme als falsch und oft fatal, die Vergangenheit eines komplexen Systems halte die beste Information für die Zukunft bereit. Diesen Fehlschluss erleben wir gegenwärtig brutal in Fiasko von Afghanistan. Die westliche Hauptstrategie orientiert sich seit zwanzig Jahren rückwärts am letzten «üblen» Weltereignis, am 11. September 2001. Terrorismusbekämpfung lautet das primäre Ziel. Nun ist der Terrorismus sicher ein globales Übel, aber das Fokussieren auf ein einziges Weltereignis erzeugt blinde Flecken für andere bestehende und vorausliegende Übel in Ländern der Dritten Welt: Mangelnde Bildung und Gesundheitsfürsorge, korrupte Eliten und Kader, Armut, Hunger, «Disruptionen» von eingewurzelten Wirtschaftszweigen, Abhängigkeit von globalen Märkten.  Bezeichnend die Aussage des US-Befehlshabers der Region: «Was ich heute über Afghanistan weiss, kommt nicht einmal in die Nähe dessen, was ich vor 180 Tagen wusste.»


***


Ein drittes Schlüsselmerkmal komplexer Systeme sind die nicht-stationären Gleichgewichtszustände. Wir vernehmen täglich aus den Medien, wie Regierungen den R-Wert unter 1 zu drücken suchen. Der Wert funktioniert wie ein sozialer Thermostat, der die Infektionsrate auf einem be-stimmten Niveau halten und derart einen Ausgleich zwischen freiem und eingeschränktem Handeln gewährleisten soll. Dieses Gleichgewicht ist aber, wie wir alle feststellen, ständig gefährdet, weil es nicht allein vom R-Wert abhängt. So haben Massnahmen wie Social Distancing durchaus die Infektionsraten heruntergedrückt, mit nicht intendierten Folgen allerdings, wie Unterbeschäftigung von ganzen Berufszweigen, Marktinstabilitäten, Zunahme psychischer Störungen oder häuslicher Gewalt, um nur einige zu nennen.


Verwandt mit diesem Merkmal ist ein viertes, der sogenannte «schwarze Schwan»: seltene Ereignisse, die an den Rändern einer Normalverteilung liegen. Sie stören die Durchschnittsordnung kaum. In komplexen Systemen kann jedoch ein einziges unwahrscheinliches Randereignis extreme, folgenreiche Wirkungen zeitigen. Die Attentate auf das WTC 2001 und die Finanzkrise 2008 waren schwarze Schwäne. Sie lösten eine Kaskade unvorhersehbarer Folgen aus, quasi ein Geschwader sekundärer und tertiärer schwarzer Schwäne. Der Klimawandel ist zwar kein schwarzer Schwan (er wurde schon seit langem voraus¬gesehen). Aber er hebelt zum Beispiel Trocken- oder Regenperioden zu unerwarteten Extremereignissen hoch, wie zum Beispiel jetzt die Sintflut in New York zeigt. Tückisch an schwarzen Schwänen ist, dass wir uns darauf nicht genügend vorbereiten können. Wie gesagt: Die verletzlichsten Stellen liegen im Unsichtbaren.


***


Die ersten beiden Dekaden des 21. Jahrhunderts definieren eine historische Erkenntniskrise. «Komplexitätskrise» nennt sie David Krakauer vom Santa Fe Institute in New Mexico. Sie bedeutet keineswegs Defätismus angesichts der grossen Risiken. Sie verlangt nur, diese Risiken in ei-nem neuen Licht zu sehen -  eine «Konversion» zum Agnostizismus. Man kann die Komplexitätskrise auch als Syndrom einer kritischen Entwicklungsphase der Technologie interpretieren. Traditionelle Technologie baut auf das Paradigma der planenden Vernunft: auf den Entwurf spezifischer Funktionen, der Vorausschau, Simulation, Kontrolle. Das genügt bei komplexen Systemen nicht. Sie fordern eine neuen Typus von Technologie: emergente Technologie (emergent engineering). Sie berücksichtigt a priori Unvorhersehbarkeiten und Eigendynamiken eines Systems. Sie operiert nicht mit einem einzigen Plan, sondern mit einem Spektrum von Szenarien, in denen unerwartete Ereignisse «emergieren» können: unbekannte Unbekannte. 


Wir kennen dafür ein unübertreffliches Vorbild: die evolutionäre Ingenieurin Natur. Sie arbeitet ohne Masterplan, sie wurschtelt sich je nach Umständen durch, und sie bastelt dabei stupend funktionstüchtige Strukturen. Ihr Rezept lautet Robustheit und Anpassungsfähigkeit. Robustheit bedeutet: Komplexe Systeme funktionieren auch dann, wenn Schlüsselkomponenten gestört oder beschädigt sind. Ein Grund dafür sind die Redundanzen in den Systemen. Gene zum Beispiel haben «Backup-Kopien». Wenn sie beschädigt sind, können die Duplikate die ausfallenden Funktionen übernehmen. Anpassungsfähigkeit bedeutet: Komplexe Systeme verfügen über einen Lernmechanismus. Im Falle von neuen Herausforderungen ändern sie ihn in kleinen Schritten, was zu neuen Funktionen führen kann. Die kontinuierliche Konkurrenz beider Strategien garantiert letztlich die äonenlange Persistenz und die immense Diversität der natürlichen Arten. Es ist, als wäre die Natur immer schon auf Ungewissheit eingestellt. Das Defizit traditioneller Technologie liegt so gesehen in ihrer «Künstlichkeit». Höchste Zeit, die Evolution stärker als Vorbild schätzen zu lernen. Vielleicht ist das die Lektion der Mikrobe. 









Freitag, 17. September 2021






NZZ, 11.9.2021


Chimärenforschung fordert die Bioethik heraus



Chimären – Mischwesen aus Mensch und Tier – faszinieren seit alters. Wir kennen sie aus Mythen über Nixen, Kentauren oder Harpyien (Mensch-Vogel-Mischungen). Im 19. Jahrhundert nehmen sie in der Literatur Gestalt an als Kreaturen aus dem Labor meist ziemlich grössenwahnsinniger Forscher. Herbert G. Wells schrieb 1896 den Roman „Die Insel des Dr. Moreau“, in dem ein Forscher auf einer einsamen Insel Chimären produziert, mittels der damaligen Avantgardetechnologie der Vivisektion.  Sie mutet heute schon fast rührend grobschlächtig an, angesichts der aktuellen gentechnischen Möglichkeiten des Zusammenschnipselns auf molekularer Ebene. Im April 2021 gab ein Team amerikanischer, chinesischer und spanischer Wissenschafter in einem Artikel bekannt, einen Embryo aus Stammzellen von Mensch und Makakenaffe gezüchtet zu haben, also eine Mensch-Affen-Chimäre.   


Die Gentechnik schafft neuartige Organismen. Die Ausgeburten der Fantasie werden abgelöst von Ausgeburten des Labors. Man spricht von Biofakten, also von „gemachtem“ Leben. Heute besteht die Möglichkeit zur Herstellung neuer Spezies, und in diesem Sinn sind wir zu Fabrikanten eines Reichs natürlich-künstlicher Zwitterwesen geworden. Spielen wir „Evolution“? 


***


Das wäre eine Übertreibung. Es gibt zwei entscheidende Unterschiede zur natürlichen Evolution. Erstens den Zeitfaktor, und zweistens den Zweckfaktor. Zum ersten: Was die Natur in Jahrmilliarden schuf, will der Mensch nun in vielleicht ein paar Jahrzehnten zusammenbasteln. Das zeugt von einem gerüttelt Mass an Überheblichkeit. Selbst wenn wir im Stande sind, neuartige Lebewesen zu fabrizieren, so wissen wir noch lange nicht, was wir damit in die Welt gesetzt haben. So gibt es in der Natur ölfressende Bakterien, welche die Gewässer säubern helfen. Und es mag durchaus seinen Nutzen haben, sie quasi noch künstlich „aufzupeppen“, um sie etwa 

bei Schiffshavarien einzusetzen. Was aber, wenn irgendwelche geänderten Lebensverhältnisse die Biester dazu bringen, plötzlich Lust auf Öl in unseren Kellern zu verspüren? Die Ökologie der Wechselwirkungen von künstlichen Organismen und bestehender Umwelt steckt erst in der Anfangsphase. Gen-technisches Wissen ist nur ein (kleiner) Teil des biologischen Wissens. 


Zum Zweckfaktor: Die natürliche Evolution – darüber besteht ein breiter wissenschaftlicher Konsens - kennt keinen Plan, keinen Designer, keine Zwecke. Sie hat deshalb das Lebewesen auch nicht als Rohmaterial oder Laborgerät „konzipiert“. Die künstliche Evolution dagegen hat einen Designer, den Menschen. Und er  schafft Lebewesen – Biofakte – zum Experimentieren. Dieses Experimentieren wiederum dient bestimmten Zwecken. Solche Zwecke sind verhandelbar. Was auch immer mit dem Tier im Labor geschieht, es wird ihm eben angetan. Und dieses Antun steht a priori unter dem Zeichen einer Wahl. Jede Wahl verlangt eine Rechtfertigung. Kein biomedizinisches Experiment ist in diesem Sinne „unschuldig“.


***


Nun geht es den Forscherinnen und Forschern besagter Studie nicht darum, aus Chimären-Embryonen im Blastozystenstadium adulte Lebewesen – wo-möglich „Monster“ -  zu entwickeln. Im Fokus steht vielmehr die Technik der Chimärenfabrikation. Unmittelbares Ziel ist die Schaffung des Nachschubs von Stammzellen, die sich für Forschung und Therapie verwenden lassen. Und das ist ein ehrbares Vorhaben – oder sagen wir vorsichtig: ein halb-ehrbares. 


Warum? Die Stammzellenforschung kennt durchaus rechtliche und ethische Regulationen. In den USA verbietet zum Beispiel seit 2015 ein Moratorium die öffentliche Unterstützung solcher Forschung an Affen. Das Problem liegt da-rin, dass ein solches Moratorium die wissenschaftliche Neugier und Ambition nicht dämpft. Sind diese einmal geweckt, lassen sie sich schwer zügeln. Im Gefolge von Experimenten, wie man sie jetzt durchgeführt hat, könnte die Wissenschaft den Druck auf die Politik erhöhen, die Zügel zu lockern. Tat-sächlich aktualisierte die Internationale Gesellschaft für Stammzellenforschung (ISSCR: International Society for Stem Cell Research) im Mai 2021 ihre Richtlinien. Sie sind erwartungsgemäss vage und flexibel. Sie betonen die Notwendigkeit, „schrittweise vorzugehen“ und die Chimärenforschung in einem frühen Stadium - „zu wohldefinierten Zeitpunkten“ - der Embryoentwicklung zu unterbinden. 


***

  

Das sind Communiqué-Plattitüden. Denn werfen wir kurz einen genaueren Blick auf die beiden Kriterien. Sie erweisen sich als nicht eindeutig. Ein erkenntnishungriger Forscher interpretiert nämlich „schrittweise“ als „stets einen Schritt weiter“ – welche Demarkationslinien ihm auch ethische Kommissionen ziehen. Ich würde sogar behaupten, wer nicht zumindest daran denkt, einen Fuss über vorgegebene Grenzen zu setzen, sei kein echter Forscher, vor allem, wenn es um bedeutenden und folgenreichen Erkenntnisgewinn geht. Und ethische Grenzen sind in einem solchen Fall leicht zu überschreiten. 


Das demonstriert vor allem das zweite Kriterium. In der Stammzellenforschung gilt die 14-Tage-Regel: Einen Embryo soll man nicht über 14 Tage hin-aus weiter wachsen lassen (die Schweiz kennt sogar eine 7-Tage-Regel). Der Grund dafür hängt mit dem sogenannten „Primitivstreifen“ im frühen Embryo zusammen, welcher die selbstorganisierte Ausdifferenzierung in die fundamentalen Zelltypen anzeigt. Das mutet nun doch einigermassen kurios an. Soll sich der Embryo nach 14 Tagen quasi mit einem Schlag zu einem „moralischen“ Wesen gemausert haben? Die Grenze definieren nota bene nicht Politiker, die rechenschaftspflichtig wären, sondern Bioethikgremien, die sich mehr oder weniger überzeugend auf „die Natur“ berufen. Wie aber kann ein natürlicher Prozess den moralischen Status eines Lebewesens festlegen? Ein Kommentar in der Zeitschrift „Nature“ aus dem Jahr 2016 statuiert denn auch klipp und klar: „Die 14-Tage-Regel wurde nie als klare Linie verstanden, die den Anfang des moralischen Status eines Embryos markiert. Sie ist ein Werkzeug der Public Policy, welches das Forschungsterrain absteckt und gleichzeitig die ethische Perspektivenvielfalt respektiert.“  Im Klartext: Die Forscher tun so, als befolgten sie ethische Richtlinien, in Wirklichkeit justieren sie die Richtlinien je nach Stand der Erkenntnis. Sie schaffen Laborkreaturen, und wenn diese ihren Dienst getan haben, sollen sie „guten“ Gewissens abgetötet werden. Ich nenne das ethische Frivolität. So ist es auch folgerichtig, dass in den neuen Richtlinien der ISSCR vom Mai 2021 die 14-Tage-Regel fehlt. 


***


Forschungslogik  ist mächtiger als Forschungsethik. Die Versuchung der Grenzüberschreitung ist die Adjudantin des Wissenschafters. Die vage und flexible Formulierung von ethischen Richtlinien ermuntert im Übrigen zu Kosten-Nutzen-Erwägungen: Wenn Erkenntnisgewinne an Menschen-Affen-Chimären gross sind - wie sollte man sie dann durch ethische Bedenken ungenutzt lassen? Würden sich weiterentwickelte Misch-Embryonen - beispielsweise mit geeignetem neuronalen Gewebe - nicht viel besser als Modelle für Krankheiten wie etwa Alzheimer eignen? Die Frage stellt sich vor allem angesichts potenter Techniken wie der Genom-Editierung. 


Die Pandorabüchse ist geöffnet. Mit der Chimärenforschung erreicht die Biologie definitiv ein prekäres Niveau. Das heisst, ihre wichtigen Probleme sind zunehmend nicht „reine“ wissenschaftliche Fragen, sondern ethisch aufgeladen, sozusagen Problem-„Chimären“. Und hier stellt sich die Vertrauensfrage neu: Wird der Blick auf atemberaubende Erkenntnisziele den Blick auf die ethischen Richtlinien vergessen machen? Das Dilemma ist offensichtlich. Wir haben es mit ethisch überaus komplexen Forschungsgebieten zu tun, über die nur Experten ein qualifiziertes Urteil abgeben können. Und gerade deshalb bürden wir Experten eine hohe – manche sagen: eine unverantwortlich hohe – Verantwortungslast auf.  Ob sie sie tragen können, bleibt abzuwarten. Eine Dosis Misstrauen ist jedenfalls geraten. Die wissenschaftliche Fantasie erweist sich als ungemein wandelbar und erfinderisch. Das Mögliche zieht sie magisch an, so ethisch problematisch es auch sein mag. Und wie sagte Dürrenmatt: Das Mögliche ist ungeheuer. 





Freitag, 27. August 2021

 



NZZ, 23.8.2021


Die liberale Gesellschaft verschluckt sich an ihren Minderheiten

Über die Logik von „Identitätern“


Liberalismus, schreibt Ortega y Gasset in seinem Buch „Aufstand der Massen“, sei Ausdruck äusserster Grossmut, „das Recht, das die Majorität der Minorität einräumt.“ Heute stellt sich die Frage, wie weit diese Grossmut noch ertragbar sei. Minderheiten werden immer mehr zum Problem. Inzwischen wuchert ein Diskurs über marginalisierte, minorisierte, diskriminierte Kleinstgruppen, über Identität, Interkulturalität, Differenz, Diversität – es scheint, als löste sich das Gesellschaftsganze in seine molekularen Komponenten auf. Schon 1993 sprach Hans Magnus Enzensberger vom „molekularen Bürgerkrieg“.


Gewiss, die liberale Ordnung definiert sich als Schonraum von Minderheiten. Aber sie ist metastabil. Zuviele Minderheiten führen zu einem Kipp-Punkt, wo Inklusion und Integration ins Gegenteil umschlagen. Die Gesellschaft verschluckt sich quasi an ihren Minderheiten. Wir bekommen es mit der Dialektik der Diversität zu tun: Ein „nachgiebiges“ Klima begünstigt Unnachgiebigkeit. Je grösser die Diversität, desto spezifischer die Interessen, und je spezifischer die Interessen, desto rabiater vertritt man sie. Eine amerikanische Professorin mit befristeter Anstellung bot ein Lehr-Modul über Neurobiologie und Autismus an. Eine aktivistische Studentin griff sie wegen Marginalisierung von autistischen Personen an. Die Professorin zog das Lehrangebot zurück. 


„Hohe“ und vor allem „unverhandelbare“ Ziele eignen sich bestens zur Pflege unnachgiebiger Gesinnungen. Extremisten, Fundamentalisten und sonstige ideologische Sklerotiker rechtfertigen sich gerne im Aufräum-Pathos damit, dass sie gegen dekadenten Kompromiss, politisches Spiessertum, konforme Mehrheit antreten, und dies im Namen eines als sittlich „rein“ empfundenen Rigorismus, der sich durch nichts beirren lässt. Unbeirrbarkeit aber ist ein untrügliches Anzeichen von Wahn. Und die liberale Ordnung bietet ein gedeihliches Brutklima für solchen Wahn. 


***


Seit einiger Zeit geistert ein unschöner Begriff durch den politischen Diskurs: Intersektionalität oder Schnittmengen-Diskrimierung. Angenommen, zwei Stellen sind ausgeschrieben. Eine schwarze Frau bewirbt sich. Sie ist bestens qualifiziert, aber man zieht ihr eine weisse Frau und einen schwarzen Mann vor. Frustriert klagt sie wegen Diskriminierung. Die Klage wird abgewiesen mit der Begründung: Geschlechterdiskrimierung liegt nicht vor, denn man stellt ja eine Frau an; ebensowenig Rassendiskrimierung, denn auch ein Schwarzer kriegt einen Job. Die Frau fällt unglücklicherweise in die Schnittmenge von weiblich und schwarz. Sie ist Opfer einer Schnittmengen-Diskriminierung.


Der Begriff wurde 1989 von Kimberlé Williams Crenshaw eingeführt, Rechtsprofessorin an der University of California. Sie wollte auf Überlappungen von Vorurteilen hinweisen, die Diskrimierungen verstärken können. Das ist in der Rechtsprechung zweifellos wichtig. Seither hat der Begriff jedoch die akademischen Gefilde verlassen und eine politische Instrumentalisierung erfahren. „Intersektionalität“ entwickelt sich zu einem neuen Knüppelwort in der Identitätspolitik. Und das ist ziemlich wörtlich gemeint, denn in den USA und neuerdings auch in Europa findet eine Debatte statt, in der man mit dem Begriff nur so herumhaut. 


***


Das Problem liegt in der Logik des Begriffs. In einer heterogenen offenen Gesellschaft gibt es umso mehr Schnittmengen möglicher (diskriminierter) Identitäten, je mehr Merkmale man anführt. Wie wäre es zum Beispiel mit lybischer Immigrantin, ghanaischer Abstammung, Nicht-Muslima, gendermässig unentschieden, an Diabetes leidend, Doktorat in Paläontologie, arbeitslos? Judith Butler hat das Problem klar erkannt: „(Auch) Theorien feministischer Identität, die eine Reihe von Prädikaten wie Farbe, Sexualität, Ethnie, Klasse und Gesundheit ausarbeiten, setzen stets ein verlegenes ‚und so weiter’ an das Ende ihrer Liste (..), doch gelingt es ihnen niemals, vollständig zu sein.“ Das ist natürlich eine Trivialität: Man kann immer noch eine „identitäre“ Eigenschaft finden, die ein Individuum von einem anderen unterscheidet. Was schon Leibniz mit seinem „Prinzip der Identität des Ununterscheidbaren“ ausdrückte: Es gibt keine zwei Dinge, die völlig identisch sind. 


Und genau dieses manische Kategorisieren führt zur Inflation von Minderheiten. Am Ende sind wir alle diskriminiert. Der todsichere Kurs in Richtung Hass, Beleidigtsein und Ressentiment. Statt gruppenübergreifender Solidarität gruppenverstärkende Intersektionalität. Anlässlich eines Frauenprotestmarsches in Washington mahnte eine schwarze Aktivistin aus der Bronx ihre „weissen Schwestern“ an, sich ja nicht einzubilden, dass man sich nun verstünde: „Du sollst dich nicht nur anschliessen, weil du jetzt auch Angst hast. Ich wurde mit der Angst geboren.“ Wahrlich, wenn das kein eindeutiges Kriterium ist... 


***


Bei allem Verständnis für die Minderheitenproblematik: die liberale Ordnung basiert auf einer Grundparadoxie. Sie berücksichtigt Differenzen und Minderheiten und sie sieht zugleich von ihnen ab. Sie steht und fällt mit einem Uneindeutigkeits-Prinzip: Fünf gerade sein lassen. Wer fünf gerade sein lässt, bekundet ein spezifisches Vermögen: Abstraktion. Der Unterschied zwischen geraden und ungeraden Zahlen lässt sich nämlich aufheben, wenn man sie als ganze Zahlen betrachtet. „Vereinigungsmenge“ nennt das die Mengentheorie. Ein ungemein wichtiges Prinzip des Zusammenlebens, das viele „Schnittmengen-Identitäter“ nicht begriffen haben. Die Teilnahme an der liberalen Ordnung verlangt von Bürgerinnen und Bürgern ein Minimum an Abstraktionsvermögen. Man sieht gelegentlich davon ab, ob man „gerade“ oder „ungerade“ ist: schwarz oder weiss, Mann oder Frau, Eingesessener oder Zugezogener. Man begegnet Menschen unter einer „neutralen“ Oberkategorie. Und diese Kategorie nennt sich persönliches Individuum. Das ist die grossartige Erfindung der liberalen Gesellschaft. Sie schützt primär Individuen, nicht spezielle „Stammeszugehörige“. 


***


Die liberale Ordnung ist „abstrakt“. Und die wachsende gesellschaftliche Heterogenität strapaziert sie heute bis zur Zerreissgrenze. Es erstaunt daher nicht, dass gerade die Idee des Individuums ein Dorn im antiliberalen Auge ist. Der Basler Philosoph und Journalist Armin Mohler (gestorben 2003), dessen Elaborate heute unter Neurechten eine kleine Renaissance erleben, schrieb 1988 das Pamphlet „Gegen die Liberalen“. Nichts hasste Mohler inniglicher als den „Abstraktionen verfallenen Liberalen.“ Und die schlimmste Abstraktion ist die Idee des autonomen Individuums - für Mohler die unter Liberalen „verbreitetste Geisteskrankheit“. Sie suche den Menschen aus seinem zugehörigen, angestammten, „realen“ sozialen und kulturellen Ort herauszureissen. Heute tönt das etwa bei Götz Kubitschek – neurechter „Grossdenker“, Adept Mohlers und Chef des Antaios Verlags - so:  „Die Gruppenexistenz des ‚Wir’ im nationalen und damit auch ethnisch gebundenen Sinn ist unhintergehbar.“


Voilà: „Gruppenexistenz“, „ethnisch gebunden“. Dass diese Ethnie, Gruppe oder Nation in der komplexen gegenwärtigen Weltlage selbst das windige Produkt einer „Geisteskrankheit“ im Sinne Mohlers ist – nämlich einer neurechten Abstraktion - , fällt dabei unter den Tisch. Die Abstraktion bleibt „unhintergehbar“, das heisst, sie ist ein pseudoargumentativer Prügel.


Eigentlich ist der Mensch ein Hordentier geblieben. Die liberalen „Abstraktionen“ der Zivilisation – wozu insbesondere die rechtsstaatlichen Bedingungen gehören - sind ihm letztlich fremd. Es droht immer die Regression von der Zivilisation zur Horde. Wer also diese Abstraktionen rückgängig zu machen sucht, indem er allein auf den „konkreten“ Menschen im „gebundenen Wir“ seiner Farbe, Rasse, Sexualität, Nationalität, Herkunft „undsoweiter“ abstellt, öffnet die Pandorabüchse der Atavismen. Überall bröckelt die ohnehin dünne und schwache Kruste der Zivilisiertheit. Der einzige Weg zur Emanzipation aber führt über das Individuum.



Mittwoch, 11. August 2021

 





Egophobie - die Ich-Aversion der Hirnforschung 


Lange kamen mein Hirn und ich gut miteinander aus. Ich konnte auf seine verlässlichen Dienste zählen, wenn ich einen Text las oder schrieb, mit jemandem sprach, tagträumte, ein Essen und einen guten Wein genoss. Bis mein Hirn neuerdings von Hirnforschern er-fahren hat, es könne auf mich verzichten, weil ich „im Grunde“ eine Illusion sei, die es selber hervorbringe.  


Seither rumort es unter dem Schädeldach. Ständig durchkreuzt mein Hirn Sätze wie „Ich schreibe einen Artikel über das Hirn“, mit Sätzen wie „Aha, erhöhte Aktivität im Hirnareal So-und-so“. Allmählich in der persönlichen Würde gekränkt, versuche ich meinem Hirn klarzumachen, was genau mich an seinen Geschichten so zermürbt. Gewisse Dinge würden mit mir nun eben mal nicht bloss geschehen, weil ich, die Person E.K., sie tue, erkläre ich ihm. Aber ich stosse auf Unverständnis. Das sei doch überflüssiges Gerede, sagt das Hirn. Eben nicht, das sei ein Indiz dafür, dass ich vieles aus eigenem Willen tue, erwidere ich, immer erhitzter, und das sei im Übrigen auch der Grund, warum es mir allmählich auf die Nerven gehe. Dass es mir auf die Nerven gehe, könne es deutlich erkennen, sagt mein Hirn, aber für so etwas wie „eigener Wille“ fände es keine Nervenaktivität. 


Die wissenschaftliche Egophobie

Das Ich ist ein grosses wissenschaftliches Ärgernis. Es weigert sich standhaft, zum Bei-spiel im Hirnscan zu erscheinen. Unter Neurowissenschaftern ist deshalb seit einiger Zeit eine spezifische Ich-Aversion zu konstatieren: eine Egophobie. In einschlägigen Kreisen hat sich ein populärwissenschaftliches Neuro-Sprech eingebürgert, welches das Wörtchen „ich“ tilgen möchte. Alles, was wir traditionell als Aktion eines Ichs betrachteten, „entzaubern“ die Wissenschafter nun als ichlosen Prozess in Nervennetzen. In den 1990er Jahren begann der Molekularbiologe Francis Crick sein Buch „The Astonishing Hypothesis“ mit einem Paukenschlag: „Sie, Ihre Freuden und Leiden, Ihre Erinnerungen, Ihre Ziele, Ihr Sinn für Ihre eigene Identität und Willensfreiheit - bei alledem handelt es sich in Wirklichkeit nur um das Verhalten einer riesigen Ansammlung von Nervenzellen und dazugehörigen Molekülen. (..) Sie sind nichts weiter als ein Haufen Neuronen.“ Seither ergiesst sich eine Schwemme an desillusionistischer Literatur über uns, dass man sich fragen muss, warum wir uns nicht schon längst als hirngesteuerte Zombies auf der Strasse umhergehen sehen. 


Die Philosophie als Ich-Austreiberin

Woher diese seltsame und hartnäckige Desillusionsmanie? Eine naheliegende Antwort dürfte lauten, dass wissenschaftlichem Fortschritt per se ein desillusionierendes Moment eigen ist. Er räumt in der Regel mit lieb gewonnenen Meinungen auf. In diesem Sinn leistete natürlich Freud grosse Vorarbeit, als er das Ich als Herr im Haus der Psyche entliess. Und er konnte auf eine philosophische Traditionslinie der Ernüchterung bauen, die über Nietzsche und Schopenhauer bis zu Hume im 18. Jahrhundert zurückführt. Hume löste bekanntlich im Königswasser seiner Skepsis den Begriff der persönlichen Identität auf. Er argumentierte noch psychologisch, nicht neurologisch. Was ich vorfinde, so Hume, sind Empfindungen – „Perzeptionen“ – etwa der Wärme oder Kälte, des Lichtes oder des Schattens, der Lust oder Unlust, aber keine Empfindung des Ichs. Man erinnert sich an die arme, in einem fort Medikamente schluckende Mrs. Gradgrind in Charles Dickens Roman „Harte Zeiten“: „Ich glaube, es steckt hier irgendwo in der Stube ein Schmerz, aber ich könnte nicht mit Entschiedenheit behaupten, dass er in mich gefahren wäre.“


Die Grossmäuligkeit der Ich-Austreiber

Gegenwärtig erfreut sich Hume in gewissen egophoben Kreisen von Wissenschaftlern und Philosophen einer Renaissance. Erst vor kurzem lese ich in einem der jüngsten Elaborate des desillusionistischen Genres: „Die Rede über das Selbstbewusstsein ist inkohärenter Unsinn – ‚Selbste’ sind im Grunde nicht Bestandteile der sensorischen Welt. Und alle höheren Bewusstseinsformen (..), obwohl einigen Philosophen teuer, sind Unsinn auf Stelzen“ (Nick Chater „The Mind is Flat“, 2018). Hier zeigt sich ein anderes Merkmal des Genres: sein offensiver Anspruch auf Interpretationshoheit. Man gibt den Philosophen und anderen intellektuellen Softies zu verstehen, dass man ein knallharter Typ ist, wenn man sich mit „x ist nichts als...“ in die Pose dessen wirft, der uns endlich sagt, wie die Welt „wirklich“ tickt: Hört ihr Leute, was ihr bisher zu wissen glaubtet, ist Ignoranz, Irrtum, Illusion! Seit Nietzsche haftet der Nimbus des Heroischen, Tragischen an dieser Pose. Ein Schuss Gefallsucht ist ihr immer beigemischt. Auch ein gerütteltes Mass halbstarker Grossmäuligkeit. 


Der metaphysische Trick: Homunkulismus

All dies erscheint jedoch irrelevant neben der eigentlichen Crux der neurowissenschaftlichen Egophobie. Sie führt sich als Wissenschaft auf und ist eigentlich wissenschaftlich verkappte Metaphysik. Ihr grosser Kniff trägt einen Namen: Homunkulismus. Man schleust quasi undercover einen „kleinen Menschen“ ins Hirn, und lässt ihn Operationen ausführen, die wir normalerweise einer realen Person zuschreiben. Der Kniff funktioniert in der Regel so, dass man uns erschlägt mit Tatsachen über Ausschüttungen von Serotonin, Signalübermittlungen in Synapsen, Aufbau von Aktionspotentialen. Siehst du, sagt man uns dann, das geschieht in Wirklichkeit, wenn du meinst, du seist ein Ich. Man verhirnt uns als Personen, und im gleichen Zug personifiziert man das Gehirn. Als „kleiner Mensch“ „interpretiert“ es nun, „entwirft“ es „Modelle“, „löst Probleme“, „treibt Schabernack“ mit uns, während wir Personen zu Marionetten einer neuronalen Maschine mutieren. Am Ende erscheinen wir umgekrempelt: vom Menschen mit Hirn zum Hirn mit menschlichem Fortsatz. 


Das Interesse am ichlosen Automaten

Das Problem liesse sich vielleicht temperieren, indem man sagt, es handle sich um eine extreme methodische Fiktion: Wir betrachten uns, als ob wir hirngesteuerte ichlose Automaten wären. Aber das ist ein Spiel mit dem Feuer. Als so harmlos erweist sich die Fiktion nicht. Vor allem dann nicht, wenn Disziplinen wie Neuropsychologie, -chirurgie und -technologie ein machtvolles Dispositiv bereitstellen, das uns tendenziell immer mehr „ent-ichlicht“. Mittel der direkten Hirnbeeinflussung, Visionen einer Kommunikation zwischen Hirnen existieren bereits, und die Verhaltensforscher in Militär, Marketing und Management kriegen sich nicht mehr ein angesichts dieses Manipulationspotenzials. 


There is no there in there

Selbstverständlich sind unsere mentalen Aktivitäten, also auch unser Selbstbewusstsein, von neuronalen Aktivitäten abhängig; selbstverständlich haben uns die Neurowissenschaften in den letzten zwei Jahrzehnten eine beeindruckende Fülle an neuen Erkenntnissen be-schert, die uns Aufschluss über das Rätsel des Ichs geben können; und selbstverständlich werden wir im Licht dieser Erkenntnisse einige, wahrscheinlich tiefverwurzelte Ideen über unser Selbst revidieren müssen; womöglich ganz radikale Ideen wie jene eines mentalen Innenraums in unserem Kopf: There is no there in there. 


Na und? – Bleiben wir auf dem Quivive gegenüber den Schlüssen, oder besser: den Nicht-Schlüssen der Desillusionierer. Denn aus der Tatsache, dass auf neuronaler Ebene kein „Ich-Modul“ existiert, folgt nicht, dass unsere Gefühle, Absichten, Meinungen, Wünsche, Ängste bloss ein „Jux“ unseres Hirns sind. Der Nicht-Nachweis der Existenz bedeutet nicht den Nachweis der Inexistenz. Die ganze Egophobie ist getragen von diesem kolossalen Fehlschluss. Nicht das Ich ist ein Mummenschanz des Hirns - der Desillusionismus ist ein Mummenschanz der Hirnwissenschafter.  


Sonntag, 1. August 2021

 








NZZ, 24.7.2021

Muskel. Mysterium. Maschine

Der Körper im Überspitzensport




Sport ist Körperkultur. Damit sagt man schon alles über seine innere Dynamik. Der Körper ist Natur, und im Sport versuchen wir, sie nicht nur zu kultivieren, sondern zu transzendieren – was deutlich genug in der olympischen Steigerung „schneller, höher, stärker“ anklingt. Ihren Reiz bezieht die sportliche Leistung aus dem, was wir nicht für möglich halten: wenn der Torhüter einen scheinbar unhaltbaren Penalty hält; wenn der Radrennfahrer in einer Alpenetappe mit scheinbar übermenschlichen Kräften der Konkurrenz enteilt, wenn die Tennisspielerin mit einem stupend präzisen Rückhand-Volley den Ball exakt in eine Ecke des gegnerischer Feldes setzt. Sport ist das Feiern der Muskeln als Mysterium.  Und daran haben mindestens vier Faktoren teil: Zeit, Ekstase, Zufall und nicht zuletzt das Nicht-Können des Sportlers selbst. 


***


Obwohl zeitliche Vorgaben zur Natur sportlicher Aktivitäten gehören, suchen diese gerade die Aufhebung der Zeit. Schon der Sportanlass findet ja eigentlich in einer Zeitenklave statt. Hier werden Eklats, Exploits und Extreme stets angestrebt und erwartet, aber weder die Aktiven noch die Zuschauer wissen, ob und wann solche Ereignisse eintreten. Von dieser buchstäblichen Suspension lebt das ästhetische Moment des sportlichen Geschehens, und zehrt insbesondere der Zuschauer bis zur Süchtigkeit. Auch wenn der Sportanlass vorbei ist, kann er in einem zeitlosen Zustand aufgehoben sein. Siege erhalten eine „Aura der Unsterblichkeit“. Nachdem Jan Sommer den Penalty von Kylian Mbabbé gehalten hatte, war in der Presse von einem „Moment für die Ewigkeit“ die Rede. Der Journalismus hechelt der sportlichen Superlativgeilheit hinterher, aber der Ausdruck trifft in diesem Punkt durchaus das typische, stets erwartete „Fallen aus der Zeit“.


Man fällt sozusagen auch aus seinem „Normal-Selbst“. Die Sportarenen versprechen und verkaufen dem Zuschauer ja immer ein Ausser-sich-sein: Ekstase. Und vom Aktiven erwartet der Sport ohnehin ein Ausser-sich-sein. Das heisst, der Sportler ist im Zuge aussergewöhnlicher Leistung „nicht ganz bei sich“. Sein Körper vollbringt in kurzer Zeit so viele feinjustierte Aktionen, dass es unmöglich erscheint, sie durch ein bewusstes Ich simultan zu koordinieren und kontrollieren. Das Ich löst sich quasi im Körper auf. Robert Musil hat dies in seinem kleinen Essay „Durch die Brille des Sports“ mit bezeichnender Schärfe erkannt und er misst dem sportlichen Akt sogar eine mystische Qualität zu. Einer der grössten Reize des Sports sei nämlich, dass „im Augenblick der Ausführung (die) Muskeln u. Nerven mit dem Ich, nicht dieses mit ihnen (spielt), u. sowie nur ein etwas grösserer Lichtstrahl von Überlegung in dieses Dunkel gerät, fällt man schon aus dem Rennen. Das ist aber nichts anderes als ein Durchbruch durch die bewusste Person, eine Entrückung.“


***


Obwohl das sportliche Ereignis Regeln unterliegt, hat es, wie alles kreative und aleatorische Geschehen, ein unregelbares Moment: das Erreichenwollen des Unerreichbaren. Besonders auf den Sport trifft der schöne Satz des Philosophen Odo Marquard zu: „Wir sind meist mehr unsere Zufälle als unsere Leistungen.“ Natürlich sind Siege und Rekorde der Leistung und dem harten Training geschuldet, aber letztlich fallen sie dem Sportler zu. Er weiss nicht, was er tut und wie er es tut, und mangels Erklärung greift er zur Floskel, dass alles  im „Flow“ des Geschehens „zusammenstimme“. Der Athlet ist ein Virtuose der Unberechenbarkeit in einem Dispositiv, das noch die letzte Muskelfaser, das letzte Blutkörperchen unter minutiöse Kalkulation zu bringen sucht. Man weiss nie, ob er nicht gerade hier und heute zu jener Form aufläuft, die ihn die scheinbar unübersteigbare Grenze doch übersteigen lässt. Dieser Augenblick der Gnade im sportlichen Gelingen – übrigens auch im wissenschaftlichen und künstlerischen Gelingen - trägt wesentlich bei zum Nimbus des Spitzenathleten. Vielleicht liegt hierin tatsächlich so etwas wie das Transzendente der sportlichen Leistung. Musil spielte halb ironisch mit dem Gedanken, Sportsleute heilig zu sprechen. 


Mit diesem Aus-sich-heraustreten verbindet sich ein weiterer Aspekt. Zweifellos setzt die sportliche Leistung ein spezifisches Können voraus. Man trainiert ja unablässig Routinen. Man investiert oft ein geradezu übermenschliches Mass an Selbstkasteiung, Selbstüberwindung, ja, Selbstaufgabe in die Muskelskulptur. Das tut zum Beispiel auch der Zirkusartist. Und er demonstriert uns sein Können ebenfalls in unmöglich erscheinenden Kunststücken. Aber der Sportler demonstriert nicht einfach sein Können. Oder vielmehr: Er demonstriert, dass sein Können nach oben offen ist. Er will über sein Können, wie hoch entwickelt es auch ist, hinaussteigen. Der Philosoph Martin Seel hat dafür eine geglückte Formel geprägt: „Zelebration des Unvermögens“: „Das ekstatische Nicht-Können des Sportlers (ist) eine Auszeichnung seines Könnens, durch das es sich als höchstes sportliches Können beweist.“


***


Diese Auffassung widerspricht nun aber dezidiert einer heute gängigen Ideologie der Verfügbarkeit und Zurichtung des Körpers. Seine technologische Aufrüstung – wozu auch die pharmakologische und gentechnologische gehören – steuert einen Kurs ins kaum Voraussehbare. Seit dem Ende des 19. Jahrhunderts betrachtet die naturwissenschaftliche Medizin, zumal die Physiologie, die athletische Leistung als eine Sonde zur Erkundung menschlicher Grenzen. Im Bild der modernen Wissenschaft und Technologie ist der Sportlerkörper eine Experimentieranstalt auf zwei Beinen. Der Athlet liefert sich – ob er will oder nicht – diesem Bild aus und verhilft ihm gleichzeitig zu gesellschaftlich-kultureller Anerkennung. Er macht sich dadurch zum Verbündeten eines hochfahrenden Fortschrittsprojekts, welches die Maschine nicht nur als ebenbürtig zum Menschen betrachtet, sondern als weit leistungsfähiger. Die Entwicklung der Maschine ist nicht an biologische Grenzen gebunden. Schlägt man nun den menschlichen Körper zur Kategorie des Maschinellen, gibt man ihn frei zum scheinbar grenzenlosen Umbau. Sport als Technologiefortsatz fügt sich prächtig ein in die Zukunftsvision eines „Homo optimus“, eines vollumfänglich und permanent „verbesserten“ Menschentypus. 


***


Die „Zelebration des Unvermögens“ liesse sich deshalb als Memento deuten. Als Erinnerung an die Natur, der wir  in Gestalt unseres Körpers nicht völlig Herr zu werden vermögen. Die olympische „Muskelreligion“ Pierre de Coubertins ist längst profaniert zum globalen Fest des Körpers als Mittel der Produktplatzierung – der Körper ist nun selbst ein Produkt. Die World Anti-Doping Agency (WADA) charakterisiert den „Geist des Sports“ in einer Liste von Werten wie Fairness, Ehrlichkeit, Gesundheit, Hochleistung, Charakter, Solidarität, Respekt vor dem Gegner. In der Liste fehlt auf eine schon fast schreiende Weise der Spielcharakter des Sports. 


Im Grunde zeugt dieses Fehlen von einem bedenklichen Prozess. Wenn wir bisher - und immer noch - in der sportlichen Leistung unsere natürlichen Gaben bewundern und schätzen, so ist doch festzustellen, dass die Technisierung, Medikalisierung und in ihrem Gefolge die Ökonomisierung des Körpers das Ziel der sportlichen Aktivität umdefiniert. Natürlich soll der Sport auch Spektakel sein und natürlich sollen wir uns an ihm vergnügen. Aber die masslose Bewirtschaftung des Vergnügens raubt ihm genau das, was Schiller auf den Punkt brachte, als er schrieb: Im Spiel überwinden wir den Zwang der Naturgesetze. Heute müsste es heissen: den Zwang der Marktgesetze. Der Sportler ist nur da ganz Sportler, wo er spielt. Denn im Spiel liegt der Anfang der Erziehung zur Freiheit. SPOMAFUGEGL: Sport macht frei und gibt eine gute Laune. Wir sollten dieses Motto als eine vorwärtsblickende Nostalgie hüten, gerade in einer Gesellschaft, die den Körper im Spiel immer mehr zur Bestzeit- und Siegesmaschine verkommen lässt, und so dem Sport den Geist austreibt.











Dienstag, 6. Juli 2021

 





NZZ, 30.6.2021

Wir sind alle Verschwörungstheoretiker


Das Bashing von Verschwörungstheorien ist ein Volkssport in Coronazeiten. Das überrascht kaum, wirft man doch in der Regel den Blick auf ihre obskuren Seiten: auf ihr Missverhältnis zu den Fakten, ihr simples Denkmuster, ihre Unwissenheit oder Halbbildung, die latente Paranoia des Theoretikers, auf den Schwund des Realitätsprinzips. Historiker, Psychologen, Soziologen, Politologen, Medien- und Kulturwissenschafter nennen zahlreiche plausible Gründe für dieses Denken. Seine Massenwirksamkeit und Gefährlichkeit stehen ausser Zweifel. Aber meines Erachtens kommt ein Aspekt von Verschwörungstheorien zu kurz: ihre «Selbstverständlichkeit». Viele Analysen diagnostizieren in Verschwörungstheorien – leicht hochnäsig - bloss ein intellektuelles Defizit. Aber sie machen sich die Sache eine Spur zu einfach.  


***


Verschwörungstheorien sind die ersten Erklärungsversuche der Welt. Im mythischen Denken wimmelt es von Konspirationen der Götter und Dämonen. Heutige Verschwörungstheorien sind eine moderne Erscheinungsform des Mythos. Sie fragen wie «normale» Theorien: Warum geschieht das? Was steckt dahinter? Ein Vergleich mit «normalen» Theorien lässt zwei erklärende Grundhaltungen zur Welt erkennen. Wir tragen sozusagen eine kognitive Brille mit zwei völlig verschiedenen Gläsern. Durch das eine Glas sehen wir in allem Geschehen die Folgen von Absichten, durch das andere die Folgen von Ursachen. Man könnte vom intentionalen und  kausalen Brillenglas sprechen. Beide bilden sie untrennbar unsere kognitive Brille. Und bei jedem Brillenträger unterscheiden sich die Sehstärken der Gläser auf individuelle Weise – sind sie auch individuell getrübt. Im Extremfall ist ein Glas blind. Und dann sehen wir nur noch monokular. 


Wir ertragen zufällige, unzusammenhängende Ereignisse schlecht. Deshalb wollen wir im Geschehen Muster erkennen, Erklärungen, Sinn, Absichten. Vor dem abstrakten Gekleckse eines Jackson Pollock stehend, fragen wir fast instinktiv: Was bedeutet das? Und womöglich wirkt hier tatsächlich eine Art kognitiver Instinkt, der das Gekleckse nicht Gekleckse sein lassen will. Genau so formulieren Wissenschafter Hypothesen und Theorien. Aber tut denn das nicht auch der Verschwörungstheoretiker? Gewiss, aber im Gegensatz zum  Wissenschafter richtet sich seine Theorie nicht nach der Welt, sondern die Welt nach seiner Theorie. Für den Verschwörungstheoretiker sind alle Ereignisse oberflächliche Erscheinungen, sozusagen Pilze, die aus einem unterirdischen fabulösen Myzel schiessen. 


***


Als höchst aufschlussreich erweist sich dabei ein kurzer Blick auf die „Logik“ der Verschwörungstheorien. Eine beliebte Waffe ist das das Argumentum ad baculum. Man droht mit dem „Stock“, beschwört buchstäblich Malefikanten herauf – die kommunistische Partei-spitze Chinas, Pharmagiganten, Forschungseliten, die Bill-Gates-Stiftung - und menetekelt: Wehe, wir beugen deren Machenschaften nicht vor! Es mag durchaus Evidenz für solche Machenschaften geben, aber das Argument bewirtschaftet primär Ängste und Unsicherheit. Verschwörungstheorien sind zudem widerspruchsimmun. Ein Verschwörungstheoretiker kann behaupten, dass Lady Di vom britischen Geheimdienst ermordet wurde und dass sie auf einer kleinen Insel im Pazifik haust. Die Logik lehrt uns: ex falso quodlibet - aus einer Kontradiktion folgt alles Beliebige. Verschwörungsköche benützen dieses simple Rezept, um ihren mehr oder weniger giftigen Sud «logisch» zu brauen. Widerspricht ihnen jemand, dann setzen sie ein weiteres Killermittel ein: das Argumentum ad hominem. Der Verschwörungstheoretiker geht nicht auf Argumente ein, sondern stracks auf den Argumentierenden. Wer die Verschwörungserzählung in Frage stellt, gehört selbst zum Komplott. 


***


Auf vielen Gebieten haben wir die Sehstärke des kausalen Brillenglases verbessert. Wissenschaftlicher Fortschritt nennt sich das.  Er hat in Physik, Chemie und Biologie alte intentionale Erklärungsmuster verdrängt. An die Stelle zorniger Wettergötter treten Gesetze der Atmosphärenphysik; an die Stelle alchimistischer Mächte chemische Reaktionen; an die Stelle eines göttlichen Designs zufallsbedingte Mutation und Selektion. Aber noch in der Medizin stösst diese Naturalisierung auf Widerstand. Es gibt Leute, welche die Beschwörung von Naturgeistern Medikamenten vorziehen, einen Talisman gegen Krankheiten tragen oder sich mit Beten vor Viren schützen.  Wer hier bloss Irrationalismus diagnostiziert, verkennt eine heimliche Dialektik des Fortschritts. Je mehr wir über die Welt wissen, desto schwieriger ist das kausale Muster anzuwenden. Wir greifen dann vermehrt zum intentionalen Monokel.  Anstelle verwickelter Verschränkungen von Ökonomie und Ökologie sehen wir Umweltübeltäter; anstelle veränderter demographischer Bedingungen sehen wir Betrüger als Ursache eines Wahlresultats; anstelle des eigenen ungesunden Essverhaltens sehen wir «Vergifter» in Agrikultur und Nahrungsmittelindustrie. Das Motto dieser Komplexitätsreduktion mittels Einäugigkeit: Erkläre nicht durch Ursache und Wirkung, was du genau so gut durch Absichten und Motive – meist böse - erklären kannst. 


Es gibt – verschweigen wir es nicht - auch die kausale Einäugigkeit. Wir finden sie allenthalben in der wissenschaftlichen «Entzauberung» von einstmals intentional erklärten Phänomenen. Sie greift nun von den Naturwissenschaften über auf menschliche Phänomene. So sehen zum Beispiel gewisse Neurowissenschafter unser ganzes geistiges, intentionales Leben als Folge geistloser, nicht-intentionaler Gehirnvorgänge. Das Motto dieses Reduktionismus lautet sozusagen spiegelverkehrt: Erkläre menschliches Handeln nicht durch Intentionen, wenn du es genau so gut durch Hormone erklären kannst.


***


Verschwörungstheorien und Verhirnungstheorien sind deshalb heimliche Verwandte. Sie manifestieren einen oft obsessiven Hang zum Monokel: Wir werden von Drahtziehern determiniert; oder wir werden von Naturprozessen determiniert. Dieser Hang kommt in uns allen vor, und wahrscheinlich wirkt er stärker in einer Gewissheitskrise. Ohne Zweifel hat uns die Pandemie in eine solche geworfen. Wir merken plötzlich, wie wenig die Wissenschaft über die Welt der Mikroben, zumal über Vakzine, weiss; wie ungewiss und widersprüchlich die Aussagen von Fachleuten sind.  Das schwächt unser Vertrauen in die Sehstärke des wissenschaftlichen Brillenglases. Stattdessen basteln viele nun ihre eigenen, meist intentionalen Erklärungen. Der Reiz persistiert, in allem, was geschieht, Absichten – gute oder böse – zu sehen. Die wissenschaftliche Rationalität hat den Mythos nicht abgeschafft. Wir leben viel-mehr in einem neo-mythischen Zeitalter. Ein typisches Indiz dafür ist auch der Hang, Phänomene, die sich „natürlich“ schwierig erklären lassen, „künstlich“ zu erklären, so wie jüngst den mysteriösen Himmelskörper Oumuamua, den nicht wenige für den Boten einer fremden Intelligenz halten – das Von-Däniken-Syndrom. 


***


Der alte Burckhardtschen Schimpfbegriff der „terribles simplificateurs“ gewinnt hier wieder an Aktualität, etwas variiert: schreckliche Vereindeutiger. Wir können die kognitive Brille nicht abnehmen, aber wir können intentionale und kausale Einäugigkeit vermeiden. Das verlangt erhebliche intellektuelle Anstrengung, und zwar in dreierlei Richtungen: erstens einer Verbesserung und Vertiefung unseres kausalen Verständnisses der Welt; zweitens eines verfeinerten Unterscheidungsvermögens zwischen den Sehstärken des intentionalen und des kausalen Brillenglases – was auf ein neues Verhältnis von Natur- und Geisteswissenschaften hinausläuft - ; und drittens des Einübens einer erkenntnistheoretischen Demut, die sich ein-gesteht, dass wir das Weltgeschehen nicht auf «letzte» Akteure oder «letzte» Ursachen zu-rückführen können. Das Credo dieser Demut: Ungewissheit ist eine Erkenntnistugend. Und damit komme ich nun zuletzt doch auf ein Defizit zurück: Verschwörungstheorien – auch Verhirnungstheorien – sind Erklärungsansprüche, denen an erkennnistheoretischer Reife mangelt.


Mittwoch, 30. Juni 2021

 




NZZ, 26.6.2012


Wissenschaftsskepsis ja – aber die richtige


Wissenschaftsskepsis grassiert. Und Grund dafür liefern nicht bloss Protestler und Monomanen, sondern die Wissenschafter selber. Die Coronakrise wirft, anders gesagt, ein Schlaglicht auf grundlegende Veränderungen in den wissenschaftlichen Praktiken zu Beginn des 21. Jahrhunderts. Ich nehme kurz vier unter die Lupe

 

Unter dem Druck der Pandemie driftet die Forschung in eine schon länger lauernde Gefahrenzone: Publikationskaskade. Ein rezenter Artikel in der Zeitschrift Nature trägt den Titel «Wie eine Sturzflut von Covid-Forschung das Publizieren veränderte».  Gemäss Artikel zählte man im Jahr 2020 schätzungsweise 200'000 Publikationen. Ein Grossteil von zweifelhaftem Wert. Renommierte Fachzeitschriften würden jetzt auch Artikel akzeptieren, die auf klinischen Versuchen mit wenig Probanden beruhen, schreibt der Mediziner Benjamin Mazer in seinem Aufsatz «Wissenschaftliches Publizieren ist ein Witz».  Mehr als nur ein paar Forscher versprächen sich ein Aufpeppen ihrer wissenschaftlichen Karriere dadurch, dass sie das Thema Virus irgendwie in ihre Arbeit einfliessen lassen.


Dieses Schachern um wissenschaftlichen Rang und Ruf ist keineswegs neu. Aber es schaltet nunmehr in einen höheren Gang. Und dabei geraten Dringlichkeit und Qualität der Foschungsarbeit in Konflikt. Dazu tragen konkret drei Taktiken bei. Erstens Salamipublikation: Man schneidet ein experimentelles Resultat in zahlreiche «Scheiben» und veröffentlicht diese separat. Zweitens Frisieren: Man schönt Statistiken, um Resultate interessanter erscheinen zu lassen. Drittens Dramatisieren: Man übergewichtet Teilresultate, gibt ihnen zum Beispiel einen zu optimistischen oder zu pessimistischen «Spin». Bedenklich zudem, dass durchaus seriöse Forscher vermehrt Plattformen wie Twitter für diese Aufmerksamkeitshascherei benutzen.


***


In den Medien häuft sich Kritik an den wissenschaftlichen Modellierern. Ihre Prognosen seien alles andere als verlässlich und würden durch die realen Ereignisse immer wieder Lügen gestraft. Dieser externen Kritik entspricht ein, wie man es nennen könnte,  wissenschaftsinternes Schisma zwischen Modell- und Evidenzmethodologie. Modellieren bedeutet, aus Erfahrungen Hypothesen zu formulieren, zum Beispiel über die erworbene Immunabwehr, wenn man von einem Virus infiziert worden ist. Mit solchen Hypothesen lassen sich dann mittels mathematischer Gleichungen mögliche Epidemieverläufe simulieren. Dabei muss man selbstverständlich Vereinfachungen vornehmen. Das ist kein Defekt, sondern die Besonderheit mathematischen Modellierens. Schnell ertönt nun allerdings der Ruf: Zuviel Theorie, zuwenig Evidenz! Gern umgibt man die Modelle auch mit einer Aura des Spekulativen. Einer der prononciertesten Verfechter dieser Sicht, der Stanford-Epidemiologe John Ionannidis, moniert, dass die öffentlichen Massnahmen auf magerer klinischer Datenbasis stünden.  Deswegen sei zum Beispiel der Lockdown der falsche Ruf. Ioannidis plädiert für den «Goldstandard» randomisierter Versuche über öffentliche Massnahmen wie Distanzierung. Anderer Meinung ist der Modellier-Epidemiologe Marc Lipsitch von der Harvard University. Er konzediert zwar, dass wir nur über einen «Schimmer von Daten» verfügten, kontert jedoch mit dem Argument, virtuelle Szenarien könnten auch faute de mieux eine Handlungsgrundlage abgeben.  Krisen erlauben nicht zu warten, bis bessere Daten zur Ver-fügung stünden. Eine Vielfalt von Modellen, die zwischen Worst-und Best-Case-Szenarien variieren, dürfte oft hochqualitativen Daten vorzuziehen sein.  


Der Konflikt beschränkt sich nicht auf die Epidemiologie. Er ist typisch für die heutige Big Science, in der sich so etwas wie ein Imperativ der Evidenzbasierung etabliert hat. Schon 2008 schwadronierte Chris Anderson, damaliger Chefredaktor des Techno-Magazins Wired, vom «En-de der Theorie»: «Dies ist die Welt, in der Big Data und angewandte Mathematik jedes andere Erkenntniswerkzeug ersetzen.» Zum Glück ist die Mehrzahl der Forscher nicht von solcher datenfrommen Einäugigkeit geschlagen. Sie folgt vielmehr der Maxime: Ein Modell ohne Evidenz ist blind; Evidenz ohne ein Modell ist leer. Trotzdem muss man hier mit einem weiteren Problem rechnen. 


***


Zwei technische Errungenschaften treiben die gegenwärtige Virenfoschung an: Gensequenzierung und Künstliche Intelligenz (KI). Die Pandemie hat in nur einem Jahr die Forschung rund um anti-virale Impfstoffe eindrücklich auf Hochtouren gebracht. Zu dieser Beschleunigung tragen KI-Systeme entscheidend bei. Mit Muster erkennenden Systemen suchen Forscherinnen und For-scher nach antiviralen Medikamenten, studieren die DNA- und RNA-Struktur von Viren, verfolgen Verläufe der Pandemie, diagnostizieren, prognostizieren und identifizieren riskante Krankheitsfälle. Eine zweifellos nutzbringende Arbeit. Aber zugleich läuft sie Gefahr, dass man – ein-mal mehr - die Erwartungen in die KI schnell hochschraubt. 


Epidemien sind ein Paradefeld für statistische Analysen, also auch für KI-Systeme. Wie gehen KI-Systeme gegen Viren vor? Nicht direkt, sondern auf Umwegen. Ein Virus attackiert eine Wirtszelle häufig mittels Spike-Proteinen, die an der Zelloberfläche andocken, und durch die das genetische Virenmaterial – die Boten-Ribonukleinsäure (mRNA) - eingeschleust werden kann.  Das Immunsystem muss diese Proteine erkennen, um Antikörper zu produzieren. Hier tritt nun das KI-System auf den Plan: die Mustererkennung durch neuronale Netze. Diese Erkennung ist ein kombinatorisches Problem, denn Viren unterscheiden sich in der Zusammensetzung ihrer  Proteinkomponenten – oft Zehntausende an der Zahl - , und um sie wirksam bekämpfen zu können, muss man den Impfstoff auf die Schwachstellen richten. 


Das läuft im Kern auf einen gewaltigen Rechenprozess hinaus. Man lehrt zum Beispiel die lernenden Maschinen, die komplexe virale DNA-Struktur zu analysieren. Viren und ihre Proteine sind oft von grotesk verknäuelter und gefalteter Gestalt, so dass es schier unmöglich erscheint, deren Genstruktur «aufzudröseln». Ein Algorithmus durchsucht dieses dreidimensionale Gewirr nach möglichen Targets, die geeignet sind, eine Immunreaktion auszulösen. Auf diese Weise lassen sich Proteine modellieren.


Die Analyse der Genstruktur eines Virus und das anschliessende Design eines Vakzins sind ein Schritt; der nächste ist das Testen an Zellen im Labor, dann an Versuchstieren, schliesslich am Menschen. Hier beginnt die mühsame, zeitraubende Arbeit. Neuronale Netze können die  Schwachstellen eines Virus erkennen, aber sie können nicht voraussagen, wie das Immunsystem eines lebenden Körpers tatsächlich reagiert. Anders gesagt: Simulieren von Vakzinen genügt nicht, man muss experimentieren. Wie der Informatiker Oren Etzioni vom amerikanischen Allen Institute for Artificial Intelligence bemerkt: «Der menschliche Körper ist derart komplex, dass unsere Modelle nicht mit genügender Verlässlichkeit voraussagen können, was dieses Molekül oder jenes Vakzin bewirkt.»


Das fortgeschrittene Stadium der Vakzinentwicklung erfordert Tausende von Probanden, und KI-Systeme sichten und analysieren klinische und immunologische Daten innert kürzester Zeit. Sie entdecken womöglich auch Bezüge, die dem menschlichen Sucher entgehen. Sie identifizieren jene Gensequenzen eines Virus, die leicht mutieren. Aufs Ganze betrachtet werden sie in dem Masse unentbehrlicher, in dem die Forscher ihre Resultate zu einem gigantischen Korpus an Fachliteratur  auftürmen. Das Allen Institute hat zum Beispiel einen Algorithmus entwickelt – CORD-19 - , der gegen 200’000 Fachartikel über SARS-CoV-2  und verwandte Viren in maschi-nenlesbarem Format zur Verfügung stellt.  


***


Nicht nur die Pharma- sondern auch die KI-Unternehmen rund um den Globus haben den Pandemie-Braten gerochen. Und hier lauert die Gefahr des Hype. Betrachten wir das Beispiel der kanadischen Firma Blue Dot, die spezielle Algorithmen zur Beobachtung von Infektionen entwickelt. Bereits am 31. Dezember 2019 riet sie ihrer Kundschaft, Wuhan zu meiden, weil die Blue-Dot-Algorithmen einen grösseren Ausbruch prognostizierten; dies vor dem öffentlichen Bericht der WHO am 9. Januar 2020. Das ist durchaus bemerkenswert, aber in den Medien verbreitete sich rasch die Schlagzeile, dass KI-Systeme in ihrer Analyse- und Prognosepotenz den Menschen in absehbarer Zeit übertreffen würden. Der chinesische Technologiegigant Alibaba trumpfte kürzlich mit einem Algorithmus auf, der das Coronavirus schnell und mit 96-prozentiger Genauigkeit diagnostizieren könne. Solch aufgeblasene Verlautbarungen sollten eher unsere Skepsis als unsere Zuversicht aktivieren. Wie gesagt: Epidemien sind ein Paradefeld für die Statistik. Deshalb muss man im Besonderen vor statistischen Fallgruben auf der Hut sein. 


Eine notorische Fallgrube ist die Replikation von Resultaten. Seit der Statistiker John Ioannidis 2005 einen Artikel mit dem Titel «Why most published research findings are false» publizierte, ist die Scientific Community sensibilisiert. Man kennt das Problem vor allem aus Disziplinen wie Soziologie, Psychologie, Biomedizin – und nun auch in der hype-anfälligen KI-Forschung.  Ein Grossteil dieser Forschung erfolgt unter der Ägide von Technogiganten. Kurz gesagt, leidet KI-Forschung an einer Mangelkrankheit: an nicht hinreichendem Zugang zu Code, Daten und Hard-ware. Der Code eines Algorithmus ist das Kernstück von KI-Systemen. Gemäss einer Analyse aus dem Jahr 2020   sollen nur etwa 15 Prozent aller KI-Studien den Code teilen. 


Algorithmen sind häufig Geschäftsgeheimnisse. Zum Beispiel kündigte anfangs 2020 ein Team von Google Health in der renommierten Fachzeitschrift «Nature» an, ein KI-System entwickelt zu haben, das die Ärzte in der Diagnose von Brustkrebs übertrifft. Als ein Kritiker um die Herausgabe des Codes bat, beschied man ihm, dass sich das System noch in der Testphase befände und medizinische Daten ohnehin nicht geteilt werden könnten. Das Paradox tritt hier in aller Grelle zutage: Man prahlt mit einem Wundermittel der Krebsbekämpfung, behindert aber die Prüfung des Anspruchs, ein Wundermittel zu sein. Die Suche nach objektiver Erkenntnis weicht der Suche nach der besten Produktplatzierung. 


***


Publikationsschwemme, methodologisches Schisma, Replikationskrise, Transparenzdefizit sind Symptome eines allgemeinen Wandels im heutigen datenintensiven, algorithmengeleiteten Forschungsstil.  Und sie machen durchaus einen skeptischen Blick notwendig. Aber den richtigen. Was sich dieser Tage in der «Coronaskepsis» äussert, ist grösstenteils nicht Skepsis, sondern deren Gegenteil: Besserwissen, Borniertheit, Misstrauen, Verdächte. Dabei böte sich gerade eine Pandemie als musterhafte Gelegenheit gesteigerter Kooperation an – extern zwischen Laien und Experten, und intern zwischen Forschungsstilen.   


Es geht um die Zukunft des Wissens, - nein, des Nichtwissens. Denn die Pandemie zeigt eindrücklich, dass Big Science kontinuierlich zu einem Management des Ungewissen mutiert.  Erkenntnisfortschritt bedeutet nicht Annäherung an die Wahrheit, sondern Entfernung von der Unwahrheit. Der Bedarf an theoretischen Modellen und qualitätsvoller Evidenz wird steigen. Gleich-zeitig aber erweist sich eine entsprechende erkenntnistheoretische Reflektionshöhe als Gebot der Stunde. 



Mittwoch, 23. Juni 2021






Die Transzendenz der Maschine


Eine seltsame und nicht ganz geheure Obsession befällt unseren Blick auf die Zukunft. Wir sind Produkte einer natürlichen Evolution und doch stellen wir uns die Weiter- und Hö-herentwicklung unserer Spezies gerne vor als eine Überwindung der Condition humaine durch Technologie. Die Träume vieler Futuristen gravitieren um das Zentrum einer post-biologischen Superintelligenz, welche alle Formen der organischen „Wetware“ abgestreift haben wird. Man hat fast den Eindruck, als erschallte aus den Schaltkreisen unserer Com-puter ein neuer Ton mit geradezu erlöserischen Oberklängen. 


„Wo sind sie denn, die fremden Intelligenzen“?

Seit den disruptiven Technologien der Dampfmaschine, des Verbrennungsmotors, der Elektrizität und Elektronik liebt die wissenschaftlich-technische Intelligenz futuristische Spekulationen. Es wurde ja auch gesagt, dass das 19. Jahrhundert die Epoche sei, welche die Transzendenz von der Vertikalen in die Horizontale drehte: vom Himmel in die Zukunft. Wir versuchen uns vorzustellen, wohin uns die gegenwärtige technische Entwicklung trägt, und wir ergehen uns dabei auch in Fantasien über fremde Intelligenzen. Schon 1950 stellte der Physiker Enrico Fermi bei einem nicht ganz ernsten Tischgespräch über fliegende Untertassen und dergleichen die Frage, wo denn nur all diese Intelligenzen, wenn sie existieren, seien. Dabei wies er auf einen Widerspruch zwischen Empirie und Theorie hin, zwischen offenkundiger Abwesenheit und der Wahrscheinlichkeit fremder, extraterrestrischer Intelligenzformen. Die Diskussion um dieses sogenannte Fermi-Paradox hat sich seither in eine Richtung entwickelt, in der die künstliche Intelligenz eine immer grössere Rolle spielt. Wenn Maschinenintelligenz den Höhepunkt der technischen Entwicklung darstellt, so ein Lösungsvorschlag des Widerspruchs, dann könnte es sich bei Aliens ja um superentwickelte Maschinen handeln, welche die biologische Entwicklung längst hinter sich gelassen haben. Die Kommunikation zwischen solchen Maschinen könnte derart optimal kodiert sein, dass sie uns Menschen bloss als interstellares Rauschen gegenwärtig wäre. So gesehen würde also die Abwesenheit fremder Intelligenz eigentlich nichts weiter bedeuten als die Abwesenheit, will heissen: Unfähigkeit unserer Intelligenz zu ihrer Erkennung. 


Von der Biologie zur Technologie

Was man auch von solchen Phantasien halten mag, so verraten sie uns doch einiges über unsere expliziten oder impliziten Perfektionsvorstellungen. Wie es scheint, reizt die Vervollkommnung nicht im „Weichen“, Biologischen, sondern im „Harten“, Technologischen. Damit Intelligenz eine Reichweite interstellaren Ausmasses haben kann, so lautet ein Argument, bedarf sie postbiologischer Ausstattung; robuster, leistungsfähiger, dauerhafter Hard- und Software, nicht delikater Wetware mit beklangenswert kurzer Verfallszeit. Maschinen sind viel eher für die Ewigkeit geschaffen, sie können sich kopieren und sich perfekt bestimmten Umweltbedingungen anpassen, ohne die lange und zufällige Stolperei der biologischen Adaptation. Schon in einer Generation würden die Maschinen vielleicht die Kluft zwischen Sternen und anderen Welten übersprungen haben.

Futuristen wie Ray Kurzweil – „Director of Engineering“ bei Google - sind verzaubert von dieser Idee. Er verkündet mit viel Aplomb eine technische Transzendenz – Singularität genannt - , in der die maschinelle die menschliche Intelligenz eingeholt und überholt haben wird. Er rechnet mit einem solchen epochalen Sprung um die Mitte dieses Jahrhunderts. Die Zukunft des Menschen sähe nach ihm so aus, dass wir sozusagen in neuer hybrider Form, als Module von superintelligenten Maschinen weiterexistierten. Der Grossmeister der Science Fiction, Stanisław Lem, sprach schon 1964 in seine „Summa technologiae“ von „Intelligenzverstärkern“, also von Maschinen, die klüger sind als ihre Erbauer und gut und gerne das Tausenfache des menschlichen Intelligenzquotienten aufweisen. Und 1999 forderte der deutsche Physiker, Philosoph und Schriftsteller Max Bense: „Der Mensch als technische Existenz: das scheint mir eine der grossen Aufgaben einer philosophischen Anthropologie von morgen zu sein.“ Wie es den Anschein macht, ist eine künftige Zivilisation kaum noch zu denken ohne hochgerüstete Technologie. Immerhin kann man sich nach wie vor die unaufgeregte Frage stellen, ob denn die biologische Evolution wirklich in eine Sackgasse führen müsse, aus der nur technische Transzendenz her-aushilft. Gäbe es nicht auch eine andere Geschichte?


Grenzen der Rechenleistung

Ohne Zweifel besteht schon heute eine Mensch-Maschine-Interaktion, die man auf einem beträchtlichen Intelligenzniveau – beiderseits – ansiedeln muss. Die Maschinenintelligenz befindet sich in der Lernphase. Die einschlägige Methode nennt sich „Deep Learning“. Und sie funktioniert auf sogenannten neuronalen Netzen. Es handelt sich, kurz gesagt, um Algorithmen, die nicht definitiv geschrieben sind, sondern die sich im Lösungsprozess bestimmter Aufgaben selber justieren können. Damit verabschieden wir die landläufige Vorstellung des Computers, der einfach nach Vorschrift dumm und stur Schritte durchführt. Bereits schlagen solche Programme Menschen im Schach oder im Go; ein Spiel nota bene, das man bis kürzlich als zu kompliziert für einen Maschinensieg erachtete. Hier manifestiert sich ein typisches Merkmal der Entwicklung der künstlichen Intelligenz: immer wie-der werden scheinbar unüberwindbare Barrieren übersprungen, sei es, dass man raffiniertere Software entwirft oder Rechner mit grösserer Kapazität baut. Das beflügelt natürlich den Optimismus der „Singularisten“. Sie sehen Intelligenz nur als Funktion der Rechenleistung eines Systems, nicht des materiellen Substrats. Und deshalb stellt für sie die Biologie auch keine prinzipiellen Hindernisse auf den Weg zur maschinellen Transzendenz.


Neuromorphe Maschinen

So schnell sollte man die Rechnung allerdings nicht ohne Biologie machen. Es gibt zum Beispiel die sogenannte Energieschwelle. Intelligenz verbraucht Energie. Die Rechnereffizienz bemisst sich  an der Anzahl Schritte pro Sekunde. Deshalb spielt im Computerbau das Verhältnis der Anzahl Rechenschritte pro Joule eine vorantreibende Rolle. Mit der Entwicklung von Mikroprozessoren und den immer kleineren Dimension der Schaltkreise nahm dieses Verhältnis stetig zu. Aber die Entwicklung flacht ab, das heisst die Zunahme verlangsamt sich. Das könnte sich für das Projekt einer hirnartigen – „neuromorphen“ – Maschine als eine ernsthafte Barriere erweisen. Dabei fällt die bemerkenswerte Tatsache ins Gewicht, dass unser Gehirn auf dem Leistungsniveau einer Glühbirne – zwischen 20 und 30 Watt – arbeitet. Wollten wir es in ein System mit heute praktikabler Technologie hochladen, dann benötigten wir eine gigantische Energie, die etwa das chinesische Kraft-werk des Dreischluchtendammes liefert. Man braucht dies nur mit der aktuellen Erdbevölkerungszahl von 7.3 Milliarden zu multiplizieren, um sich eine Zivilisation mit menschenähnlichen künstlichen Gehirnen auszumalen. 


Leben wir unter Relikten verfallener kosmischer Zivilisationen?

Wenn Leben nichts Ungewöhnliches ist und regelmässig, wenn auch erratisch Formen der Intelligenz produziert, dann könnte es sein, dass wir uns heute quasi in der Zukunft vergangener Intelligenzen befinden. Denn das Universum ist über 13 Milliarden Jahre alt, und warum sollten wir ausschliessen, dass es nicht schon Interessantes ausgebrütet hatte, bevor unser Sonnensystem existierte. Dies zumindest ist ein spekulativer Gedanke des Astronomen und „Astrobiologen“ Caleb Scharf. Vielleicht tummeln sich in den instellaren Weiten ingenieurale Relikte von Intelligenzen, die ihre Klimax überschritten haben, und uns nur noch als kosmischer Schutt und kosmisches Rauschen erscheinen. „Vielleicht haben sich fremde Zivilisationen in ein abgeschiedenes biologisches Reduit zurückgezogen, und die Relikte ihrer Ingenieurskunst dem Unbill von kosmischer Strahlung, Verdampfung und explosivem Sternenschutt ausgeliefert.“ Und was, wenn auch wir eines Tages entdecken werden, dass die Zukunft künstlicher Intelligenz nicht mehr Rechnen, sondern mehr Biologie erfordert. „Träumen Androiden von elektrischen Schafen?“ lautet der Titel des Science-Fiction-Klassikers von Philip K. Dick. Vielleicht träumen künftige künstliche Intelligenzen davon, aus Fleisch zu bestehen.


Menschenflüchtige Horizonte

Lassen wir die Spekulation und stellen einfach fest: Das Transzendieren der Condition humaine ist nicht bloss denkbar, es erscheint heute machbar. In gewissem Sinne stellen alle modernen technologischen Projekte menschenflüchtige Horizonte in Aussicht: Weg von der Erde! Weg von unserem Körper! Weg von unserer Sterblichkeit!  In der Raumfahrt verlassen wir unsere erdgebundenen, in der Robotik und Computertechnologie unsere körpergebundenen Lebensbedingungen, in der Genetik unsere biologische Gewachsenheit. Aber wir sollten vielleicht in all den seraphischen Erlösertönen das Dissonante nicht überhören. Technische Transzendenzverheissungen strahlen umso mehr, je expliziter sie unsere Erdgebundenheit, Körperlichkeit, Vergänglichkeit als etwas Schlechtes, etwas „Gefallenes" hinstellen. Wenn also die neuesten transhumanen Visionen uralte Menschheitsträume einer verbesserten Condition humaine wecken, dann manifestieren sie insgeheim immer auch ein Desinteresse, um nicht zu sagen: eine versteckte Verachtung  des Menschlichen. 


NZZaS, 15.5.2022 Wie wir lernten, mit der Bombe zu spielen  Physik, Mathematik und Logik sind wunderbare Instrumente der Rationalität. Sie s...