Wieder a dr schööne grüene Aare
NZZ, 20.5.2023
Nonhuman Life Matters
Die grösste Gefährdung den Planeten beginnt im Kopf
Wir leben im Zeitalter des Anthropozäns. Der anthropos gestaltet angeblich mit Naturgewalt das planetarische Ökogefüge um, er zähmt die Roh-Natur und macht sie sich dienlich. Dabei strengt er sich an, seine Verfügungsmacht über andere Spezies durch ein evolutionäres Alleinstellungsmerkmal zu legitimieren. Aber sind wir wirklich eine Ausnahme-Spezies?
Im Tier treffen sich zwei fundamentale Fragen, eine ethische und eine erkenntnistheoretische. Erstens: Was rechtfertigt unsere Verfügungsmacht über andere Arten? Diese Problematik ist in der Tierethik seit Peter Singers Arbeiten über den Speziesismus allbekannt, viel und kontrovers diskutiert. Sie hängt entscheidend ab von der zweiten Frage: Was wissen wir eigentlich über die anderen Arten?
***
Recht wenig. Nehmen wir eine Tierart im aktuellen Fokus: Die Biene. Karl von Frisch, ein Pionier der Ethologie, bezeichnete das Bienenverhalten einmal als «magische Quelle»: Je mehr man ihr entnimmt, desto mehr gibt es zu entdecken. Und so verhält es sich wohl allgemein bei den Tieren: sie übersteigen eine vollständige wissenschaftliche Erklärung – sie sind biologische Transzendenzen. Einer der renommiertesten heutigen Verhaltensforscher - Frans de Waal -, fragte im Titel eines seiner Bücher denn auch geradewegs: «Are We Smart Enough To Know How Smart Animals Are?» ( 2016).
Die Frage widerspricht vordergründig den eindrücklichen Fortschritten der Verhaltensforschung in den letzten fünfzig bis sechzig Jahren. De Waals Buch und das jüngst erschienene des amerikanischen Wissenschaftsjournalisten Ed Yong – «Die erstaunlichen Sinne der Tiere» - bezeugen, welches Füllhorn an Entdeckungen uns die gegenwärtige Ethologie bereithält. Dabei gewinnt ein Bild immer deutlicher an Kontur: Das Tier ist kein blosser organischer «Zombie», ohne Innenleben. Seine kognitiven Vermögen sind oft atemberaubend. Und so muss man de Waals Frage nach der «Smartheit» von uns Menschen deuten: Sind unsere Forschungsmethoden dem ganzen Spektrum artspezifischer Vermögen überhaupt angepasst?
***
Mit dieser Frage stechen wir in ein altes Problemnest der Ethologie. In ihrer Frühzeit, am Ende des 19. Jahrhunderts, hiess sie «Tierpsychologie». Man attestierte also dem Tier eine «Seele», und nicht selten stellte man seine innere Verfassung auf die gleiche Stufe wie jene von Kindern, Primitiven und geistig Gestörten. Oft erwiesen sich allerdings die vermeintlichen kognitiven Fähigkeiten der Tiere als Projektionen der Forscher. Den wissenschaftlichen Hardlinern unter den Zoologen roch eine solche Art von Tierforschung zu sehr nach unwissenschaftlicher, unobjektiver Vermenschlichung des Tiers, nach «Just-so-Zoologie». Sie zogen sich deshalb ins sichere Gehege der experimentellen Verhaltensforschung zurück. Über die «Seele» des Tiers liess sich in ihren Augen nichts wissenschaftlich Verlässliches aus¬sagen, also wurde sie Anathema. Zoologen, die - wie etwa Adolf Portmann - von der «Innerlichkeit» des Tieres sprachen, nahm man nicht ernst. Das waren halt Philosophen.
Gibt es wirklich keinen Zugang zum Innern des Tiers? Wir alle kennen den Mitmenschen durch sein Verhalten, die Art, wie er wohnt, isst, sich kleidet, mit den Leuten umgeht: wir kennen seine Umwelt. Es war die geniale Idee des Zoologen Jakob von Uexküll vor über hundert Jahren, sich dem Tier auf diese Weise zu nähern. Genauer fragte Uexküll: Was ist die Umwelt des Tiers? Und durch das penible Studium seiner Umwelt finden wir uns immer mehr in das Tier. Was eine Umwelt hat, ist Subjekt seines Verhaltens – also ist alles Subjekt, von der Mikrobe über die Zecke bis zum Philosophen.
***
Die Reichweite von Uexkülls Idee – einer Art von «kopernikanischer Revolution» im Denken über das Tier - erschliesst sich uns eigentlich erst heute, und sie entfaltet ihre Heuristik umso mehr, als den Ethologen ein ungleich potenteres Instrumentarium zur Verfügung steht, in der Gestalt von Kognitionstheorie, evolutionärer Neurobiologie und ausgeklügelten Experimentiermethoden. Die moderne Verhaltensforschung hat sich zu einer faszinierenden Disziplin entwickelt, um das Zentrum des Tiersubjekts mit seinem nicht-menschlichen, artspezifischen Mentalleben herum. Deshalb spricht man heute auch von kognitiver Ethologie.
Und trotzdem bleibt das Problem der Anthropozentrik. Es erscheint unlösbar – weil der Mensch sich nicht von der menschlichen Perspektive lösen kann. Aber nimmt denn nicht jede Art die Welt artzentrisch wahr? Der Schimpanse schimpansozentrisch, die Ratte rattozentrisch, die Amöbe amöbozentrisch? Das ist die falsche Frage. Tiere kennen das Problem gar nicht. Der Anthropozentrismus ist gerade kein «natürliches» Faktum, sondern eben – menschengemacht. Und der Mensch hat die Fähigkeit – hier stolpern wir über ein mögliches Alleinstellungsmerkmal - , sich zumindest von gewissen Zentrismen zu lösen: er ist ein «exzentrisches» Lebewesen, als das ihn der Philosoph Helmut Plessner charakterisierte. Kopernikus stiess uns aus dem Zentrum des Universums, Darwin aus dem Zentrum der Evolution, Freud aus dem Zentrum des Ich-Bewussteins.
***
Heute steht eine weitere Dezentrierung an. Die neue Verhaltensforschung zeigt, dass andere Spezies ebenfalls Anlagen zum «Geistigen» aufweisen: Emotion, Intelligenz, Selbstbewusstsein, Werkzeug¬gebrauch, Imagination, Sozialität, Humor, Altruismus, Todesahnung ... eine fortgesetzte «Enttäuschung» humaner Einzigartigkeit, dieser chronischen Obsession. Natürlich kann und soll man über das spezifisch Humane an solchen Merkmalen debattieren – speziell darüber, was menschliche Kultur und Sprache dazu beitragen - , aber ob wir daraus je ein entscheidendes Alleinstellungsmerkmal gewinnen können, bleibt fraglich.
Gewiss, Schimpansen schreiben keine Sonette, und Wale komponieren keine Sonaten. Sollten sie das? Die Fähigkeiten, die wir bei anderen Spezies untersuchen, sind ja vom Menschen her definiert. Aber kennen wir Menschen denn all die Subtilitäten etwa der Kommunikation unter Schimpansen und Walen? Wie will man herausfinden, was andere Spezies können, wenn man davon ausgeht, was sie nicht können? De Waals Sarkasmus ist berechtigt, wenn er von einer Forschung spricht, «die sich mehr an kognitiven Defiziten anderer Spezies begeistert als an ihren Fähigkeiten.»
***
Die Anmassung, eine Ausnahme-Spezies auf dem Planeten zu sein, ist eine philosophische. Sie begann in der Neuzeit damit, dass René Descartes Tiere zu organischen Apparaten - «ausgedehnten Sachen» - erklärte, über denen der Mensch steht, weil er eine «denkende Sache» ist.
Nun ist es gerade die Idee der Verfügungsmacht, die Lebendes zu Apparaten werden lässt. Sie konkretisiert sich darin, dass wir nach Schätzungen pro Jahr 100 Milliarden «apparatisierte» Lebewesen für Nahrung, Kleidung, Forschung und andere Zwecke töten. Sie manifestiert sich im sechsten planetarischen Massensterben. Sie manifestiert sich in der Gentechnologie. Diese hat die Schwelle zu einer zweiten Evolution bereits überschritten, in der man Tiere für bestimmte menschliche Zwecke massschneidert. Die Fauna der Zukunft wird immer mehr natürlich-künstlich sein. Inklusive Mensch.
Die amerikanische Philosophin Donna Haraway mahnte uns schon in den 1990er Jahren an, unsere Spezies-Arroganz zu hinterfragen. Der Anthropozentrismus hat uns in eine gefährlich entfremdete Position abgerückt. Wir sind eigentlich Aliens auf dem Planeten. Wir betrachten Natur, als ob wir nicht dazu gehörten, als befänden wir uns in einer Blase. Diese Blase nennt sich «technische Zivilisation». Darin liegt eine abgrundtiefe Ironie. Denn der Mensch ist nicht der einzige Planetengestalter. Vor über Jahrmilliarden taten dies bereits die kleinsten Lebewesen, die Mikroben. Und der Mensch verschafft ihnen gerade durch den Klimawandel die günstigsten Lebensbedingungen. Vielleicht könnten sie dereinst die Blase zum Platzen bringen und den Planeten – ohne Legitimationsprobleme - wieder für sich allein haben. Im Bakteriozän?
Gibt es fundamentale Naturgesetze?
Wenn wir von der «Gesetzesförmigkeit» der Natur sprechen, sprechen wir von unseren Theorien über die Natur. Theorien sind das zentrale Verständnismittel der Wissenschaft. Sie reduzieren Unverständliches auf für uns Verständlicheres. Für die antiken Naturphilosophen bewegten die Götter die Himmelskörper. Götter verhielten sich eigentlich wie Menschen, deshalb «verstand» man die astronomischen Phänomene am ehesten, indem man sie auf «einfache» quasimenschliche Beweggründe zurückführte. Damit kann natürlich ein moderner Astronom nichts anfangen. Das «Einfache» sind für ihn physikalische Körper – letztlich Elementarteilchen - und ihre Wechselwirkungen.
In diesem Sinn hat jede Theorie sozusagen ihr konzeptuelles Reservoir an Erklärungsfiguren, mit denen sie ihr explikatives Spiel spielt. Die Physik spielt mit Elementarteilchen und ihren Wechselwirkungen; die Chemie mit Atomen und ihren Verbindungen; die Molekularbiologie mit den Genen und ihren Expressionen in Lebewesen; die Neurobiologie mit Neuronen und ihren vernetzten Aktivitäten; die Ökonomie mit individuellen «Marktatomen» und den Marktkräften zwischen ihnen.
***
Die fundamentale Frage ist: Wie kommt man vom Einfachen zum Komplexen? Wir kennen das Problem aus der Chaostheorie. Zum Beispiel unterliegt das Wettergeschehen durchaus physikali-schen Gesetzen - ist also «deterministisch» - , aber sein Verhalten ist trotzdem nicht exakt vorhersehbar: «chaotisch». Umgekehrt manifestieren alltägliche Materialien stabile kollektive Makroeffekte, die sich aus dem «Chaos» ihrer Mikrobestandteile nicht herleiten lassen: «emergente» Eigenschaften. Etwa die Zähflüsigkeit von Sirup, die Festigkeit von Glas, ebenso Exotika wie die flüssige Kristallinität des Laptopbildschirms, die Supraleitfähigkeit oder Supraflüssigkeit ultrakalter Stoffe. Unordnung aus Ordnung, oder Ordnung aus Unordnung. Der Physiker und Nobelpreisträger Philip W. Anderson prägte für dieses Phänomen in den 1970er Jahren eine Formel, die Kultstatus geniesst: «More is different». Ein einzelnes Apfelmolekül ist nicht fest und sauer, viele Apfelmoleküle sind fest und sauer.
***
Ein anderer Nobelpreisträger – der Physiker Robert Laughlin – schrieb vor über 15 Jahren das Buch «Abschied von der Weltformel» (im Original «A Different Universe», eine Anspielung auf Anderson). Laughlin ist Festkörperphysiker, und als solcher vertraut mit dem Verhalten von Vielteilchensystemen, zum Beispiel mit dem Schmelzvorgang oder dem Übergang von halbleitendem zu supraleitendem Material. Festkörperphysik baut durchaus auf das «Fundament» der Quantentheorie, aber sie ringt immer wieder mit dem Problem, aus den Gesetzen der Wechselwirkung von Elementen eines Systems sein Makroverhalten zu erklären.
Diese Erfahrung liess Laughlin an einem Grundglauben der modernen Physik zweifeln: Die Ge-setze sind der Natur sozusagen «eingeschrieben». Wir beobachten zum Beispiel das Phänomen der Anziehung zwischen Massen. Und wir sagen, darin «wirke» das Gravitationsgesetz. Aber gemäss Laughlin sollte man dies nicht so interpretieren, dass Experimente eine immer schon bestehende Gesetzmässigkeit bestätigen. Die Ordnung der Natur beruht nicht auf ihr inhärierenden Gesetzen, die Gesetze beruhen vielmehr auf Ordnungsprinzipien, sie «emergieren» aus ihnen.
***
Was bedeutet das? Zunächst einmal eine Absage an «Muttertheorien», an ein Projekt also, wie es sich heute immer noch in der Suche nach einer «Theorie von allem» äussert, allerdings leiser als auch schon. Solche Physik ist für Laughlin «quasireligiös», weil sie an das gesetzesmässige Fundament allen Geschehens wie an eine geoffenbarte Wahrheit glaubt. «Ich bin zunehmend davon überzeugt, dass alle (..) der uns bekannten physikalischen Gesetze aus kollektivem Geschehen hervorgehen. Anders gesagt, die Unterscheidung zwischen grundlegenden Gesetzen und den aus ihnen hervorgehenden Gesetzen ist (..) ein Mythos».
Damit hängt zweitens eine Absage an den Reduktionismus zusammen, an die Idee, alles makro-physikalische Geschehen lasse sich «im Prinzip» aus mikrophysikalischen, sprich quantentheo-retischen Gesetzen erklären. Zum Beispiel beschreiben die Gesetze der Hydrodynamik das Verhalten von Flüssigkeiten anhand von Parametern wie Dichte, Druck, Viskosität, also anhand von «emergenten» Eigenschaften. Sie kommen auf mikrophysikalischer Ebene nicht vor. Wir beobachten sie einfach, wenn ein System einen hinreichenden kollektiven Organisationsgrad auf-weist.
Drittens bestreitet die Emergenzidee nicht, dass die Quantentheorie neue, oft «exotische» makroskopische Zustände begreifbar macht. Sie tut dies fortwährend, und Nobelpreise sind dafür bereits verliehen worden. Insbesondere an Laughlin. Trotzdem liegt für ihn die Zukunft der Physik nicht in theoretischen Höhenflügen, sondern in immer präziseren Messungen von komplexen Kollektivphänomenen. Gesetzmässigkeit emergiert dann, wenn man bei einem kollektiven Verhalten eine stabile quantitative Beziehung zwischen Makromessgrössen feststellt. So gesehen emergieren die Gesetze der Hydrodynamik aus dem Gewimmel einer Riesenzahl von Molekülen, weil sie unabhängig vom Geschehen auf Mikroebene sind. Wasser zeigt völlig andere Eigenschaften als seine Moleküle, und umgekehrt bleibt das Wasser unter Normalbedingungen flüssig und nass, wie sich die Moleküle auch verhalten.
***
Das alles leuchtet durchaus ein, aber die Sache hat einen Haken. Die Aussage «More is different» bemäntelt eigentlich eine Erklärungsverlegenheit. Das Problem beschäftigt die Biologen seit Dar-win. Wie Ernst Mayr, einer der einflussreichsten Evolutionstheoretiker des 20. Jahrhunderts, schrieb: «Systeme haben fast immer die Eigenheit, dass die Charakteristika des Ganzen nicht einmal theoretisch aus der vollständigen Kenntnis der Komponenten abgeleitet werden können». Wohl gemerkt: «nicht einmal theoretisch».
Emergenz geschieht einfach: Ein neues Phänomen kommt zu den bereits bekannten hinzu, entsteht aus ihnen, lässt sich nicht voraussagen. So charakterisierte der britische Darwinist Conwy Lloyd Morgan den «emergenten» Evolutionsprozess vor hundert Jahren, und er sah darin ein Naturgesetz. Wir können das Emergente nicht voraussagen, weil wir vor seinem Eintreten das Gesetz nicht kennen. Das klingt nun doch sehr nach Laughlin: Makroregelmässigkeiten emergieren aus dem Mikrogeschehen nach einem Ordnungsprinzip, aber wir kennen dieses Prinzip erst, nachdem die Regelmässigkeiten «aufgetaucht» sind.
***
Noch einmal: Gibt es fundamentale Naturgesetze? Kommt darauf an, was man als «Fundament» deklariert. Vor dem 20. Jahrhundert war dies die Newtonsche Physik mit ihren deterministischen Gesetzen. Im 20. Jahrhundert und am Beginn des 21. Jahrhunderts ist dies die Quantenphysik mit ihren probabilistischen Gesetzen. Ob künftig eine «Emergenztheorie» - oder allgemeiner: eine universelle Theorie der Komplexität – sich als Paradigma etablieren wird, wissen wir nicht. Einstweilen ist alles andere als klar, wie sie aussehen könnte. Vielleicht haben wir gar nicht den geeigneten kognitiven Apparat dazu.
All dies läuft auf eine sehr, sehr elementare Lektion hinaus: Das Bild, das die Naturwissenschafter sich von der Natur machen, ist nicht die Natur. Niemand weiss, was sie noch in petto hat. «Man muss immer mit einer Überraschung, mit einer sehr grossen Überraschung rechnen», sagte Einsteins grosser Gegenspieler, Niels Bohr. Wir kennen Galileis Metapher vom Buch der Natur, das in mathematischen Lettern geschrieben ist. Was, wenn das Buch keine letzte Seite hat? Die Geschichte der Naturwissenschaft wäre dann eine Irrfahrt, die immer wieder von Unbekanntem zu Unbekanntem führt. Lösungen, Entdeckungen, «fundamentale» Theorien - zufällige Intermezzi.
NZZ, 29.4.23
Das Zeitalter der posttheoretischen Wissenschaft
Ein Schisma in der Forschung?
Was ist wichtiger, die Dinge vorauszusehen oder sie zu erklären? Das ist eine alte Frage in den Wissenschaften. Und die geläufige Antwort darauf lautet: Beide sind wichtig; voraussehen kann man den Lauf der Dinge am besten, indem man ihren kausalen Zusammenhang versteht - und umgekehrt. Zumindest bisher war dies die Standardreplik. Heute nicht mehr.
David Krakauer - Direktor des Santa Fe Institute for Complexity Research - spricht von einem «Schisma» zwischen Erklären und Voraussagen: «Ein Schisma taucht im wissenschaftlichen Forschungsunternehmen auf. Da ist einerseits der menschliche Geist, Quelle jeder Erzählung, Theorie und Erklärung, die unsere Spezies wertschätzt. Und da sind andererseits die Maschinen. Ihre Algorithmen besitzen erstaunliche voraussagende Potenz, deren innere Funktionsweisen dem menschlichen Beobachter jedoch radikal undurchsichtig bleiben (..) Wir stehen vor der Wahl, welche Art von Wissen mehr Bedeutung hat, wie auch vor der Frage, welche der beiden Arten dem wissenschaftlichen Fortschritt im Wege steht».
Das klingt reichlich dramatisiert, aber Krakauer bringt die aktuelle Situation der Wissenschaft auf den Punkt: Die beiden Mainstreams der Neuzeit driften auseinander, der theoriegeleitete und der empiriegeleitete Forschungsstil. Zur Erläuterung ein kleiner historischer Exkurs.
***
Der erste Stil fand sein frühes Meisterwerk in der universellen und fundamentalen Theorie der Natur von Isaac Newton, der Philosophiae naturalis Principia Mathematica. Eine in mathematischer Sprache entworfene Theorien-Kathedrale, die auf den soliden Pfeilern einiger weniger universeller Prinzipien ruhte. Dadurch entstand ein neues Wissensideal: das Deduzieren top-down aus universellen, fundamentalen Naturprinzipien. Über drei Jahrhunderte hinweg sollte es die Physiker zu beispiellosen Leistungen inspirieren, von Newton über Laplace, Boltzmann, Max-well, Hertz, Einstein, Planck, Schrödinger bis zur heutigen Suche nach einer «Theorie von allem».
Der zweite Stil operiert bottom-up. Er beginnt empirisch bei Beobachtungen, Experimenten, Daten, und er sucht daraus allgemeine Muster zu abstrahieren – zu «induzieren». Francis Bacon gilt als der philosophische Begründer, weshalb man den Forschungsstil auch als «baconisch» be-zeichnet. Er setzte sich zunächst nicht so sehr in der Mechanik und Astronomie durch, als vielmehr auf Gebieten, die sich gegenüber der Mathematisierung als widerständiger erwiesen: Optik, Wärme, Chemie, Biologie, Geologie. Und er bediente sich eines technischen Arsenals aus mechanischen Geräten, Mikroskopen, Teleskopen, Barometern, Thermometern, Luftpumpen, Detektoren für Elektrizität, chemischen Apparaten. Im Grunde genommen verdankt sich der Erfolg der modernen Wissenschaft dem ausserordentlichen Glücksfall einer gelungenen Kooperation der beiden Forschungsstile; der theoretischen «Gehirn-Perspektive» und der empirischen «Apparate-Perspektive».
***
Diese Kooperation sieht Krakauer gefährdet. Theorien bewähren sich als abstrahierende Instrumente der Komplexitätsreduktion. Sie vereinfachen eine Welt vertrackter Zusammenhänge und unzählbarer Einflussfaktoren zu einer Welt mit ein paar wenigen Parametern. Naturgesetze stellen immer eine Relation zwischen diesen Parametern her, im besten Fall eine mathematische. Zu den Meilensteinen der Naturwissenschaft zählen wir Gleichungen der Physik: die Bewegungsgleichung von Newton, die Gasgleichung von Boyle, die elektromagnetischen Feldgleichungen von Maxwell, die relativistischen Gleichungen von Einstein, die Schrödingergleichung: Theorie, Theorie, Theorie.
Aber die Welt erweist sich in einem ganz bestimmten Sinn als «theoriefeindlich». So liefert zum Beispiel die Schrödingergleichung die Grundlage für die Materialwissenschaften. Diese elegante Differentialgleichung für das Zusammenwirken von Elektronen in Molekülen zu lösen, ist jedoch eine äusserst harte Aufgabe. Hier können sich algorithmische Methoden als überraschend hilfreich erweisen. Auch etwa in der Frage, zu welchen Strukturen sich Proteine falten ; oder wie sich Menschen in bestimmten Situationen entscheiden.
***
Die Wissenschaft überschreitet die Schwelle zu einer neuen Ära, jener des algorithmusgeleiteten Forschungsstils. Neuronale Netzwerke können mit einer immensen Zahl von Parametern umge-hen. Sie lernen, aus Datenmengen Zusammenhänge und Muster zu erkennen und ihre Performanz ist bereits jetzt beeindruckend. In diesem Sinn kann man darin eine Fortsetzung der baconischen Wissenschaften mit potenteren Mitteln sehen. Aber Algorithmen interferieren auch mit dem theoriegeleiteten Stil.
Kürzlich kreierte ein Team an der ETH einen künstlich intelligenten «Agenten», der lernte, die Berechnung von Planetenbahnen zu vereinfachen, indem er von der geozentrischen zur heliozentrischen Perspektive wechselt. Hat er einen «kopernikanischen Wandel» vollzogen? Die Studie ist aus algorithmischer Sicht durchaus bemerkenswert. Sie weckt die Hoffnung, künstliche Intelligenz selber theoretisieren zu lassen. Die Forscherinnen und Forscher schreiben: «Unsere Arbeit liefert einen ersten Schritt in der Beantwortung der Frage, ob die traditionellen Methoden der Physiker, Naturmodelle zu bilden, sich von selbst aus den experimentellen Daten ergeben, ohne physikalisches und mathematisches Vorwissen». Im Klartext: Das neuronale Netzwerk lernt die Physik selber, wenn man es mit dem «richtigen» Datenmaterial füttert - mehr Physik vielleicht, als den Menschen zugemutet werden kann. Bereits macht in den Medien der Begriff der «post-theoretischen» Wissenschaft die Runde.
***
Zweifel sind angebracht. Vor allem daran, dass Naturmodelle sich «ohne Vorwissen» aus «experimentellen Daten ergeben». Sind denn nicht alle fundamentalen Begriffe der Physik dem Denken entsprungen: Raum, Zeit, Bewegung, Materie, Kraft, Energie, Welle, Feld, um nur einige zu nennen? Wie will denn ein künstlicher Physiker «erklären», wenn er kein «Vorwissen», also kein Verständnis für die erklärenden Begriffe hat? Eine beliebte Nicht-Antwort von Wissenschaftern an vorderster Front lautet: Wir sind noch weit vom Erwarteten entfernt. Warum also nicht mit Naheliegenderem beginnen. Etwa mit einer Frage wie: Was bedeuten eigentlich «Theorie» und «Erklären»?
Ich wage hier eine möglichst einfache Antwort: Theorie ist Denken im Konjunktiv, sie beginnt stets mit der Wendung «Stellen wir uns vor, dass..» oder «Was wäre wenn..» Empirie dagegen ist Denken im Indikativ, sie beginnt mit der Wendung «Schauen wir, was ist..» Der Prähominide, der vor 50'000 Jahren nicht einfach fragte «Wo ist das Mammut?», sondern «Wo könnte sich das Mammut unter diesen Wetterbedingungen aufhalten?», begann zu theoretisieren. Modelle ergeben sich nicht «von selbst aus den experimentellen Daten». Die Dynamik der Himmelskörper lesen wir nicht aus noch so riesigen Datenmengen heraus; das Higgsteilchen wurde nicht aus Korrelationen im Large Hadron Collider entdeckt; und Krebs verstehen wir nicht aus Bayes’schen Netzwerken. Ohne Theorie ist Wissenschaft kausalblind.
Die algorithmengestützte «Induktionsmaschinerie» liefert uns Antworten auf Was-Wo-Wann-Fragen. Nicht auf Warum-Fragen. Je weiter das Deep Learning fortschreitet, desto mehr brauchen wir das Deep Thinking, das sich um erklärende Ursachen kümmert. Inwieweit wir es an die Maschine delegieren könnnen, bleibt abzuwarten. Recht betrachtet, deutet das «Schisma» auf eine neue Kooperationsart von Hirnschmalz und Rechenpower hin. Den menschlichen Gehirnen steht jedenfalls noch vieles bevor. Gerade dank Algorithmen.
Wieder a dr schööne grüene Aare