Donnerstag, 4. Mai 2023





NZZ, 29.4.23


Das Zeitalter der posttheoretischen Wissenschaft

Ein Schisma in der Forschung?


Was ist wichtiger, die Dinge vorauszusehen oder sie zu erklären? Das ist eine alte Frage in den Wissenschaften. Und die geläufige Antwort darauf lautet: Beide sind wichtig; voraussehen kann man den Lauf der Dinge am besten, indem man ihren kausalen Zusammenhang versteht - und umgekehrt.  Zumindest bisher war dies die Standardreplik. Heute nicht mehr.  

David Krakauer - Direktor des Santa Fe Institute for Complexity Research - spricht von einem «Schisma» zwischen Erklären und Voraussagen: «Ein Schisma taucht im wissenschaftlichen Forschungsunternehmen auf. Da ist einerseits der menschliche Geist, Quelle jeder Erzählung, Theorie und Erklärung, die unsere Spezies wertschätzt. Und da sind andererseits die Maschinen. Ihre Algorithmen besitzen erstaunliche voraussagende Potenz, deren innere Funktionsweisen dem menschlichen Beobachter jedoch radikal undurchsichtig bleiben (..) Wir stehen vor der Wahl, welche Art von Wissen mehr Bedeutung hat, wie auch vor der Frage, welche der beiden Arten dem wissenschaftlichen Fortschritt im Wege steht».  

Das klingt reichlich dramatisiert, aber Krakauer bringt die aktuelle Situation der Wissenschaft auf den Punkt: Die beiden Mainstreams der Neuzeit driften auseinander, der theoriegeleitete und der empiriegeleitete Forschungsstil. Zur Erläuterung ein kleiner historischer Exkurs. 

***

Der erste Stil fand sein frühes Meisterwerk in der universellen und fundamentalen Theorie der Natur von Isaac Newton, der Philosophiae naturalis Principia Mathematica. Eine in mathematischer Sprache entworfene Theorien-Kathedrale, die auf den soliden Pfeilern einiger weniger universeller Prinzipien ruhte. Dadurch entstand ein neues Wissensideal: das Deduzieren top-down aus universellen, fundamentalen Naturprinzipien. Über drei Jahrhunderte hinweg sollte es die Physiker zu beispiellosen Leistungen inspirieren, von Newton über Laplace, Boltzmann, Max-well, Hertz, Einstein, Planck, Schrödinger bis zur heutigen Suche nach einer «Theorie von allem». 

Der zweite Stil operiert bottom-up. Er beginnt empirisch bei Beobachtungen, Experimenten, Daten, und er sucht daraus allgemeine Muster zu abstrahieren – zu «induzieren». Francis Bacon gilt als der philosophische Begründer, weshalb man den Forschungsstil auch als «baconisch» be-zeichnet. Er setzte sich zunächst nicht so sehr in der Mechanik und Astronomie durch, als vielmehr auf Gebieten, die sich gegenüber der Mathematisierung als widerständiger erwiesen: Optik, Wärme, Chemie, Biologie, Geologie. Und er bediente sich eines technischen Arsenals aus mechanischen Geräten, Mikroskopen, Teleskopen, Barometern, Thermometern, Luftpumpen, Detektoren für Elektrizität, chemischen Apparaten. Im Grunde genommen verdankt sich der Erfolg der modernen Wissenschaft dem ausserordentlichen Glücksfall einer gelungenen Kooperation der beiden Forschungsstile; der theoretischen «Gehirn-Perspektive» und der empirischen «Apparate-Perspektive». 

***

Diese Kooperation sieht Krakauer gefährdet. Theorien bewähren sich als abstrahierende Instrumente der Komplexitätsreduktion. Sie vereinfachen eine Welt vertrackter Zusammenhänge und unzählbarer Einflussfaktoren zu einer Welt mit ein paar wenigen Parametern. Naturgesetze stellen immer eine Relation zwischen diesen Parametern her, im besten Fall eine mathematische. Zu den Meilensteinen der Naturwissenschaft zählen wir Gleichungen der Physik: die Bewegungsgleichung von Newton, die Gasgleichung von Boyle, die elektromagnetischen Feldgleichungen von Maxwell, die relativistischen Gleichungen von Einstein, die Schrödingergleichung: Theorie, Theorie, Theorie. 

Aber die Welt erweist sich in einem ganz bestimmten Sinn als «theoriefeindlich». So liefert zum Beispiel die Schrödingergleichung die Grundlage für die Materialwissenschaften. Diese elegante Differentialgleichung für das Zusammenwirken von Elektronen in Molekülen zu lösen, ist jedoch eine äusserst harte Aufgabe. Hier können sich algorithmische Methoden als überraschend hilfreich erweisen.  Auch etwa in der Frage, zu welchen Strukturen sich Proteine falten ; oder wie sich Menschen in bestimmten Situationen entscheiden.  

***

Die Wissenschaft überschreitet die Schwelle zu einer neuen Ära, jener des algorithmusgeleiteten Forschungsstils. Neuronale Netzwerke können mit einer immensen Zahl von Parametern umge-hen. Sie lernen, aus Datenmengen Zusammenhänge und Muster zu erkennen und ihre Performanz ist bereits jetzt beeindruckend. In diesem Sinn kann man darin eine Fortsetzung der baconischen Wissenschaften mit potenteren Mitteln sehen. Aber Algorithmen interferieren auch mit dem theoriegeleiteten Stil. 

Kürzlich kreierte ein Team an der ETH einen künstlich intelligenten «Agenten», der lernte, die Berechnung von Planetenbahnen zu vereinfachen, indem er von der geozentrischen zur heliozentrischen Perspektive wechselt.  Hat er einen «kopernikanischen Wandel» vollzogen? Die Studie ist aus algorithmischer Sicht durchaus bemerkenswert. Sie weckt die Hoffnung, künstliche Intelligenz selber theoretisieren zu lassen. Die Forscherinnen und Forscher schreiben: «Unsere Arbeit liefert einen ersten Schritt in der Beantwortung der Frage, ob die traditionellen Methoden der Physiker, Naturmodelle zu bilden, sich von selbst aus den experimentellen Daten ergeben, ohne physikalisches und mathematisches Vorwissen». Im Klartext: Das neuronale Netzwerk lernt die Physik selber, wenn man es mit dem «richtigen» Datenmaterial füttert - mehr Physik vielleicht, als den Menschen zugemutet werden kann. Bereits macht in den Medien der Begriff der «post-theoretischen» Wissenschaft die Runde.  

***

Zweifel sind angebracht. Vor allem daran, dass Naturmodelle sich «ohne Vorwissen» aus «experimentellen Daten ergeben». Sind denn nicht alle fundamentalen Begriffe der Physik dem Denken entsprungen: Raum, Zeit, Bewegung, Materie, Kraft, Energie, Welle, Feld, um nur einige zu nennen? Wie will denn ein künstlicher Physiker «erklären», wenn er kein «Vorwissen», also kein Verständnis für die erklärenden Begriffe hat? Eine beliebte Nicht-Antwort von Wissenschaftern an vorderster Front lautet: Wir sind noch weit vom Erwarteten entfernt. Warum also nicht mit Naheliegenderem beginnen. Etwa mit einer Frage wie: Was bedeuten eigentlich «Theorie» und «Erklären»? 

Ich wage hier eine möglichst einfache Antwort: Theorie ist Denken im Konjunktiv, sie beginnt stets mit der Wendung «Stellen wir uns vor, dass..» oder «Was wäre wenn..» Empirie dagegen ist Denken im Indikativ, sie beginnt mit der Wendung «Schauen wir, was ist..» Der Prähominide, der vor 50'000 Jahren nicht einfach fragte «Wo ist das Mammut?», sondern «Wo könnte sich das Mammut unter diesen Wetterbedingungen aufhalten?», begann zu theoretisieren. Modelle ergeben sich nicht «von selbst aus den experimentellen Daten». Die Dynamik der Himmelskörper lesen wir nicht aus noch so riesigen Datenmengen heraus; das Higgsteilchen wurde nicht aus Korrelationen im Large Hadron Collider entdeckt; und Krebs verstehen wir nicht aus Bayes’schen Netzwerken. Ohne Theorie ist Wissenschaft kausalblind. 

Die algorithmengestützte «Induktionsmaschinerie» liefert uns Antworten auf Was-Wo-Wann-Fragen. Nicht auf Warum-Fragen. Je weiter das Deep Learning fortschreitet, desto mehr brauchen wir das Deep Thinking, das sich um erklärende Ursachen kümmert. Inwieweit wir es an die Maschine delegieren könnnen, bleibt abzuwarten. Recht betrachtet, deutet das «Schisma» auf eine neue Kooperationsart von Hirnschmalz und Rechenpower hin. Den menschlichen Gehirnen steht jedenfalls noch vieles bevor. Gerade dank Algorithmen.




1 Kommentar:

  Der «Verzehr» des Partners Kant und der aufgeklärte Geschlechtsverkehr Kant zeigte philosophisches Interesse nicht nur an Vernunft und Urt...