Montag, 29. Mai 2023

 


                             Wieder a dr schööne grüene Aare

 





NZZ, 20.5.2023

Nonhuman Life Matters

Die grösste Gefährdung den Planeten beginnt im Kopf


Wir leben im Zeitalter des Anthropozäns. Der anthropos gestaltet angeblich mit Naturgewalt das planetarische Ökogefüge um, er zähmt die Roh-Natur und macht sie sich dienlich. Dabei strengt er sich an, seine Verfügungsmacht über andere Spezies durch ein evolutionäres Alleinstellungsmerkmal zu legitimieren. Aber sind wir wirklich eine Ausnahme-Spezies?


Im Tier treffen sich zwei fundamentale Fragen, eine ethische und eine erkenntnistheoretische. Erstens: Was rechtfertigt unsere Verfügungsmacht über andere Arten? Diese Problematik ist in der Tierethik seit Peter Singers Arbeiten über den Speziesismus allbekannt, viel und kontrovers diskutiert. Sie hängt entscheidend ab von der zweiten Frage: Was wissen wir eigentlich über die anderen Arten? 


***


Recht wenig. Nehmen wir eine Tierart im aktuellen Fokus: Die Biene. Karl von Frisch, ein Pionier der Ethologie, bezeichnete das Bienenverhalten einmal als «magische Quelle»: Je mehr man ihr entnimmt, desto mehr gibt es zu entdecken. Und so verhält es sich wohl allgemein bei den Tieren: sie übersteigen eine vollständige wissenschaftliche Erklärung – sie sind biologische Transzendenzen. Einer der renommiertesten heutigen Verhaltensforscher - Frans de Waal -, fragte im Titel eines seiner Bücher denn auch geradewegs: «Are We Smart Enough To Know How Smart Animals Are?» ( 2016).


Die Frage widerspricht vordergründig den eindrücklichen Fortschritten der Verhaltensforschung in den letzten fünfzig bis sechzig Jahren. De Waals Buch und das jüngst erschienene des amerikanischen Wissenschaftsjournalisten Ed Yong – «Die erstaunlichen Sinne der Tiere» - bezeugen,  welches Füllhorn an Entdeckungen uns die gegenwärtige Ethologie bereithält. Dabei gewinnt ein Bild immer deutlicher an Kontur: Das Tier ist kein blosser organischer «Zombie», ohne Innenleben. Seine kognitiven Vermögen sind oft atemberaubend. Und so muss man de Waals Frage nach der «Smartheit» von uns Menschen deuten: Sind unsere Forschungsmethoden dem ganzen Spektrum artspezifischer Vermögen überhaupt angepasst? 


***


Mit dieser Frage stechen wir in ein altes Problemnest der Ethologie. In ihrer Frühzeit, am Ende des 19. Jahrhunderts, hiess sie «Tierpsychologie». Man attestierte also dem Tier eine «Seele», und nicht selten stellte man seine innere Verfassung auf die gleiche Stufe wie jene von Kindern, Primitiven und geistig Gestörten. Oft erwiesen sich allerdings die vermeintlichen kognitiven Fähigkeiten der Tiere als Projektionen der Forscher. Den wissenschaftlichen Hardlinern unter den Zoologen roch eine solche Art von Tierforschung zu sehr nach unwissenschaftlicher, unobjektiver Vermenschlichung des Tiers, nach «Just-so-Zoologie». Sie zogen sich deshalb ins sichere Gehege der experimentellen Verhaltensforschung zurück. Über die «Seele» des Tiers liess sich in ihren Augen nichts wissenschaftlich Verlässliches aus¬sagen, also wurde sie Anathema. Zoologen, die  - wie etwa  Adolf Portmann - von der «Innerlichkeit» des Tieres sprachen, nahm man nicht ernst. Das waren halt Philosophen.


Gibt es wirklich keinen Zugang zum Innern des Tiers? Wir alle kennen den Mitmenschen durch sein Verhalten, die Art, wie er wohnt, isst, sich kleidet, mit den Leuten umgeht: wir kennen seine Umwelt. Es war die geniale Idee des Zoologen Jakob von Uexküll vor über hundert Jahren, sich dem Tier auf diese Weise zu nähern. Genauer fragte Uexküll: Was ist die Umwelt des Tiers? Und durch das penible Studium seiner Umwelt finden wir uns immer mehr in das Tier. Was eine Umwelt hat, ist Subjekt seines Verhaltens – also ist alles Subjekt, von der Mikrobe über die  Zecke bis zum Philosophen.


***


Die Reichweite von Uexkülls Idee – einer Art von «kopernikanischer Revolution» im Denken über das Tier - erschliesst sich uns eigentlich erst heute, und sie entfaltet ihre Heuristik umso mehr, als den Ethologen ein ungleich potenteres Instrumentarium zur Verfügung steht, in der Gestalt von Kognitionstheorie, evolutionärer Neurobiologie und ausgeklügelten Experimentiermethoden. Die moderne Verhaltensforschung hat sich zu einer faszinierenden Disziplin entwickelt, um das Zentrum des Tiersubjekts mit seinem nicht-menschlichen, artspezifischen Mentalleben herum. Deshalb spricht man heute auch von kognitiver Ethologie. 


Und trotzdem bleibt das Problem der Anthropozentrik. Es erscheint unlösbar – weil der Mensch sich nicht von der menschlichen Perspektive lösen kann. Aber nimmt denn nicht jede Art die Welt artzentrisch wahr? Der Schimpanse schimpansozentrisch, die Ratte rattozentrisch, die Amöbe amöbozentrisch? Das ist die falsche Frage. Tiere kennen das Problem gar nicht. Der Anthropozentrismus ist gerade kein «natürliches» Faktum, sondern eben – menschengemacht. Und der Mensch hat die Fähigkeit – hier stolpern wir über ein mögliches Alleinstellungsmerkmal - , sich zumindest von gewissen Zentrismen zu lösen: er ist ein «exzentrisches» Lebewesen, als das ihn der Philosoph Helmut Plessner charakterisierte. Kopernikus stiess uns aus dem Zentrum des Universums,  Darwin  aus dem Zentrum der Evolution, Freud aus dem Zentrum des Ich-Bewussteins. 


***


Heute steht eine weitere Dezentrierung an. Die neue Verhaltensforschung zeigt, dass andere Spezies ebenfalls Anlagen zum «Geistigen» aufweisen: Emotion, Intelligenz, Selbstbewusstsein, Werkzeug¬gebrauch, Imagination, Sozialität, Humor, Altruismus, Todesahnung ... eine fortgesetzte «Enttäuschung» humaner Einzigartigkeit, dieser chronischen Obsession. Natürlich kann und soll man über das spezifisch Humane an solchen Merkmalen debattieren – speziell darüber, was menschliche Kultur und Sprache dazu beitragen - , aber ob wir daraus je ein entscheidendes Alleinstellungsmerkmal gewinnen können, bleibt fraglich. 


Gewiss, Schimpansen schreiben keine Sonette, und Wale komponieren keine Sonaten. Sollten sie das? Die Fähigkeiten, die wir bei anderen Spezies untersuchen, sind ja vom Menschen her definiert. Aber kennen wir Menschen denn all die Subtilitäten etwa der Kommunikation unter Schimpansen und Walen? Wie will man herausfinden, was andere Spezies können, wenn man davon ausgeht, was sie nicht können? De Waals Sarkasmus ist berechtigt, wenn er von einer Forschung spricht, «die sich mehr an kognitiven Defiziten anderer Spezies begeistert als an ihren Fähigkeiten.» 


***


Die Anmassung, eine Ausnahme-Spezies auf dem Planeten zu sein, ist eine philosophische. Sie begann in der Neuzeit damit, dass René Descartes Tiere zu organischen Apparaten - «ausgedehnten Sachen» - erklärte, über denen der Mensch steht, weil er eine «denkende Sache» ist. 


Nun ist es gerade die Idee der Verfügungsmacht, die Lebendes zu Apparaten werden lässt. Sie konkretisiert sich darin, dass wir nach Schätzungen pro Jahr 100 Milliarden «apparatisierte» Lebewesen für Nahrung, Kleidung, Forschung und andere Zwecke töten. Sie manifestiert sich im sechsten planetarischen Massensterben. Sie manifestiert sich in der Gentechnologie. Diese hat die Schwelle zu einer zweiten Evolution bereits überschritten, in der man Tiere für bestimmte menschliche Zwecke massschneidert. Die Fauna der Zukunft wird immer mehr natürlich-künstlich sein. Inklusive Mensch. 


Die amerikanische Philosophin Donna Haraway mahnte uns schon in den 1990er Jahren an, unsere Spezies-Arroganz zu hinterfragen.  Der Anthropozentrismus hat uns in eine gefährlich entfremdete Position abgerückt. Wir sind eigentlich Aliens auf dem Planeten. Wir betrachten Natur, als ob wir nicht dazu gehörten, als befänden wir uns in einer Blase. Diese Blase nennt sich «technische Zivilisation». Darin liegt eine abgrundtiefe Ironie. Denn der Mensch ist nicht der einzige Planetengestalter. Vor über Jahrmilliarden taten dies bereits die kleinsten Lebewesen, die Mikroben. Und der Mensch verschafft ihnen gerade durch den Klimawandel die günstigsten Lebensbedingungen. Vielleicht könnten sie dereinst die Blase zum Platzen bringen und den Planeten – ohne Legitimationsprobleme - wieder für sich allein haben. Im Bakteriozän? 



Montag, 22. Mai 2023

Donnerstag, 4. Mai 2023





NZZ, 29.4.23


Das Zeitalter der posttheoretischen Wissenschaft

Ein Schisma in der Forschung?


Was ist wichtiger, die Dinge vorauszusehen oder sie zu erklären? Das ist eine alte Frage in den Wissenschaften. Und die geläufige Antwort darauf lautet: Beide sind wichtig; voraussehen kann man den Lauf der Dinge am besten, indem man ihren kausalen Zusammenhang versteht - und umgekehrt.  Zumindest bisher war dies die Standardreplik. Heute nicht mehr.  

David Krakauer - Direktor des Santa Fe Institute for Complexity Research - spricht von einem «Schisma» zwischen Erklären und Voraussagen: «Ein Schisma taucht im wissenschaftlichen Forschungsunternehmen auf. Da ist einerseits der menschliche Geist, Quelle jeder Erzählung, Theorie und Erklärung, die unsere Spezies wertschätzt. Und da sind andererseits die Maschinen. Ihre Algorithmen besitzen erstaunliche voraussagende Potenz, deren innere Funktionsweisen dem menschlichen Beobachter jedoch radikal undurchsichtig bleiben (..) Wir stehen vor der Wahl, welche Art von Wissen mehr Bedeutung hat, wie auch vor der Frage, welche der beiden Arten dem wissenschaftlichen Fortschritt im Wege steht».  

Das klingt reichlich dramatisiert, aber Krakauer bringt die aktuelle Situation der Wissenschaft auf den Punkt: Die beiden Mainstreams der Neuzeit driften auseinander, der theoriegeleitete und der empiriegeleitete Forschungsstil. Zur Erläuterung ein kleiner historischer Exkurs. 

***

Der erste Stil fand sein frühes Meisterwerk in der universellen und fundamentalen Theorie der Natur von Isaac Newton, der Philosophiae naturalis Principia Mathematica. Eine in mathematischer Sprache entworfene Theorien-Kathedrale, die auf den soliden Pfeilern einiger weniger universeller Prinzipien ruhte. Dadurch entstand ein neues Wissensideal: das Deduzieren top-down aus universellen, fundamentalen Naturprinzipien. Über drei Jahrhunderte hinweg sollte es die Physiker zu beispiellosen Leistungen inspirieren, von Newton über Laplace, Boltzmann, Max-well, Hertz, Einstein, Planck, Schrödinger bis zur heutigen Suche nach einer «Theorie von allem». 

Der zweite Stil operiert bottom-up. Er beginnt empirisch bei Beobachtungen, Experimenten, Daten, und er sucht daraus allgemeine Muster zu abstrahieren – zu «induzieren». Francis Bacon gilt als der philosophische Begründer, weshalb man den Forschungsstil auch als «baconisch» be-zeichnet. Er setzte sich zunächst nicht so sehr in der Mechanik und Astronomie durch, als vielmehr auf Gebieten, die sich gegenüber der Mathematisierung als widerständiger erwiesen: Optik, Wärme, Chemie, Biologie, Geologie. Und er bediente sich eines technischen Arsenals aus mechanischen Geräten, Mikroskopen, Teleskopen, Barometern, Thermometern, Luftpumpen, Detektoren für Elektrizität, chemischen Apparaten. Im Grunde genommen verdankt sich der Erfolg der modernen Wissenschaft dem ausserordentlichen Glücksfall einer gelungenen Kooperation der beiden Forschungsstile; der theoretischen «Gehirn-Perspektive» und der empirischen «Apparate-Perspektive». 

***

Diese Kooperation sieht Krakauer gefährdet. Theorien bewähren sich als abstrahierende Instrumente der Komplexitätsreduktion. Sie vereinfachen eine Welt vertrackter Zusammenhänge und unzählbarer Einflussfaktoren zu einer Welt mit ein paar wenigen Parametern. Naturgesetze stellen immer eine Relation zwischen diesen Parametern her, im besten Fall eine mathematische. Zu den Meilensteinen der Naturwissenschaft zählen wir Gleichungen der Physik: die Bewegungsgleichung von Newton, die Gasgleichung von Boyle, die elektromagnetischen Feldgleichungen von Maxwell, die relativistischen Gleichungen von Einstein, die Schrödingergleichung: Theorie, Theorie, Theorie. 

Aber die Welt erweist sich in einem ganz bestimmten Sinn als «theoriefeindlich». So liefert zum Beispiel die Schrödingergleichung die Grundlage für die Materialwissenschaften. Diese elegante Differentialgleichung für das Zusammenwirken von Elektronen in Molekülen zu lösen, ist jedoch eine äusserst harte Aufgabe. Hier können sich algorithmische Methoden als überraschend hilfreich erweisen.  Auch etwa in der Frage, zu welchen Strukturen sich Proteine falten ; oder wie sich Menschen in bestimmten Situationen entscheiden.  

***

Die Wissenschaft überschreitet die Schwelle zu einer neuen Ära, jener des algorithmusgeleiteten Forschungsstils. Neuronale Netzwerke können mit einer immensen Zahl von Parametern umge-hen. Sie lernen, aus Datenmengen Zusammenhänge und Muster zu erkennen und ihre Performanz ist bereits jetzt beeindruckend. In diesem Sinn kann man darin eine Fortsetzung der baconischen Wissenschaften mit potenteren Mitteln sehen. Aber Algorithmen interferieren auch mit dem theoriegeleiteten Stil. 

Kürzlich kreierte ein Team an der ETH einen künstlich intelligenten «Agenten», der lernte, die Berechnung von Planetenbahnen zu vereinfachen, indem er von der geozentrischen zur heliozentrischen Perspektive wechselt.  Hat er einen «kopernikanischen Wandel» vollzogen? Die Studie ist aus algorithmischer Sicht durchaus bemerkenswert. Sie weckt die Hoffnung, künstliche Intelligenz selber theoretisieren zu lassen. Die Forscherinnen und Forscher schreiben: «Unsere Arbeit liefert einen ersten Schritt in der Beantwortung der Frage, ob die traditionellen Methoden der Physiker, Naturmodelle zu bilden, sich von selbst aus den experimentellen Daten ergeben, ohne physikalisches und mathematisches Vorwissen». Im Klartext: Das neuronale Netzwerk lernt die Physik selber, wenn man es mit dem «richtigen» Datenmaterial füttert - mehr Physik vielleicht, als den Menschen zugemutet werden kann. Bereits macht in den Medien der Begriff der «post-theoretischen» Wissenschaft die Runde.  

***

Zweifel sind angebracht. Vor allem daran, dass Naturmodelle sich «ohne Vorwissen» aus «experimentellen Daten ergeben». Sind denn nicht alle fundamentalen Begriffe der Physik dem Denken entsprungen: Raum, Zeit, Bewegung, Materie, Kraft, Energie, Welle, Feld, um nur einige zu nennen? Wie will denn ein künstlicher Physiker «erklären», wenn er kein «Vorwissen», also kein Verständnis für die erklärenden Begriffe hat? Eine beliebte Nicht-Antwort von Wissenschaftern an vorderster Front lautet: Wir sind noch weit vom Erwarteten entfernt. Warum also nicht mit Naheliegenderem beginnen. Etwa mit einer Frage wie: Was bedeuten eigentlich «Theorie» und «Erklären»? 

Ich wage hier eine möglichst einfache Antwort: Theorie ist Denken im Konjunktiv, sie beginnt stets mit der Wendung «Stellen wir uns vor, dass..» oder «Was wäre wenn..» Empirie dagegen ist Denken im Indikativ, sie beginnt mit der Wendung «Schauen wir, was ist..» Der Prähominide, der vor 50'000 Jahren nicht einfach fragte «Wo ist das Mammut?», sondern «Wo könnte sich das Mammut unter diesen Wetterbedingungen aufhalten?», begann zu theoretisieren. Modelle ergeben sich nicht «von selbst aus den experimentellen Daten». Die Dynamik der Himmelskörper lesen wir nicht aus noch so riesigen Datenmengen heraus; das Higgsteilchen wurde nicht aus Korrelationen im Large Hadron Collider entdeckt; und Krebs verstehen wir nicht aus Bayes’schen Netzwerken. Ohne Theorie ist Wissenschaft kausalblind. 

Die algorithmengestützte «Induktionsmaschinerie» liefert uns Antworten auf Was-Wo-Wann-Fragen. Nicht auf Warum-Fragen. Je weiter das Deep Learning fortschreitet, desto mehr brauchen wir das Deep Thinking, das sich um erklärende Ursachen kümmert. Inwieweit wir es an die Maschine delegieren könnnen, bleibt abzuwarten. Recht betrachtet, deutet das «Schisma» auf eine neue Kooperationsart von Hirnschmalz und Rechenpower hin. Den menschlichen Gehirnen steht jedenfalls noch vieles bevor. Gerade dank Algorithmen.




  Der «Verzehr» des Partners Kant und der aufgeklärte Geschlechtsverkehr Kant zeigte philosophisches Interesse nicht nur an Vernunft und Urt...