Montag, 29. Mai 2023

 


                             Wieder a dr schööne grüene Aare

 





NZZ, 20.5.2023

Nonhuman Life Matters

Die grösste Gefährdung den Planeten beginnt im Kopf


Wir leben im Zeitalter des Anthropozäns. Der anthropos gestaltet angeblich mit Naturgewalt das planetarische Ökogefüge um, er zähmt die Roh-Natur und macht sie sich dienlich. Dabei strengt er sich an, seine Verfügungsmacht über andere Spezies durch ein evolutionäres Alleinstellungsmerkmal zu legitimieren. Aber sind wir wirklich eine Ausnahme-Spezies?


Im Tier treffen sich zwei fundamentale Fragen, eine ethische und eine erkenntnistheoretische. Erstens: Was rechtfertigt unsere Verfügungsmacht über andere Arten? Diese Problematik ist in der Tierethik seit Peter Singers Arbeiten über den Speziesismus allbekannt, viel und kontrovers diskutiert. Sie hängt entscheidend ab von der zweiten Frage: Was wissen wir eigentlich über die anderen Arten? 


***


Recht wenig. Nehmen wir eine Tierart im aktuellen Fokus: Die Biene. Karl von Frisch, ein Pionier der Ethologie, bezeichnete das Bienenverhalten einmal als «magische Quelle»: Je mehr man ihr entnimmt, desto mehr gibt es zu entdecken. Und so verhält es sich wohl allgemein bei den Tieren: sie übersteigen eine vollständige wissenschaftliche Erklärung – sie sind biologische Transzendenzen. Einer der renommiertesten heutigen Verhaltensforscher - Frans de Waal -, fragte im Titel eines seiner Bücher denn auch geradewegs: «Are We Smart Enough To Know How Smart Animals Are?» ( 2016).


Die Frage widerspricht vordergründig den eindrücklichen Fortschritten der Verhaltensforschung in den letzten fünfzig bis sechzig Jahren. De Waals Buch und das jüngst erschienene des amerikanischen Wissenschaftsjournalisten Ed Yong – «Die erstaunlichen Sinne der Tiere» - bezeugen,  welches Füllhorn an Entdeckungen uns die gegenwärtige Ethologie bereithält. Dabei gewinnt ein Bild immer deutlicher an Kontur: Das Tier ist kein blosser organischer «Zombie», ohne Innenleben. Seine kognitiven Vermögen sind oft atemberaubend. Und so muss man de Waals Frage nach der «Smartheit» von uns Menschen deuten: Sind unsere Forschungsmethoden dem ganzen Spektrum artspezifischer Vermögen überhaupt angepasst? 


***


Mit dieser Frage stechen wir in ein altes Problemnest der Ethologie. In ihrer Frühzeit, am Ende des 19. Jahrhunderts, hiess sie «Tierpsychologie». Man attestierte also dem Tier eine «Seele», und nicht selten stellte man seine innere Verfassung auf die gleiche Stufe wie jene von Kindern, Primitiven und geistig Gestörten. Oft erwiesen sich allerdings die vermeintlichen kognitiven Fähigkeiten der Tiere als Projektionen der Forscher. Den wissenschaftlichen Hardlinern unter den Zoologen roch eine solche Art von Tierforschung zu sehr nach unwissenschaftlicher, unobjektiver Vermenschlichung des Tiers, nach «Just-so-Zoologie». Sie zogen sich deshalb ins sichere Gehege der experimentellen Verhaltensforschung zurück. Über die «Seele» des Tiers liess sich in ihren Augen nichts wissenschaftlich Verlässliches aus¬sagen, also wurde sie Anathema. Zoologen, die  - wie etwa  Adolf Portmann - von der «Innerlichkeit» des Tieres sprachen, nahm man nicht ernst. Das waren halt Philosophen.


Gibt es wirklich keinen Zugang zum Innern des Tiers? Wir alle kennen den Mitmenschen durch sein Verhalten, die Art, wie er wohnt, isst, sich kleidet, mit den Leuten umgeht: wir kennen seine Umwelt. Es war die geniale Idee des Zoologen Jakob von Uexküll vor über hundert Jahren, sich dem Tier auf diese Weise zu nähern. Genauer fragte Uexküll: Was ist die Umwelt des Tiers? Und durch das penible Studium seiner Umwelt finden wir uns immer mehr in das Tier. Was eine Umwelt hat, ist Subjekt seines Verhaltens – also ist alles Subjekt, von der Mikrobe über die  Zecke bis zum Philosophen.


***


Die Reichweite von Uexkülls Idee – einer Art von «kopernikanischer Revolution» im Denken über das Tier - erschliesst sich uns eigentlich erst heute, und sie entfaltet ihre Heuristik umso mehr, als den Ethologen ein ungleich potenteres Instrumentarium zur Verfügung steht, in der Gestalt von Kognitionstheorie, evolutionärer Neurobiologie und ausgeklügelten Experimentiermethoden. Die moderne Verhaltensforschung hat sich zu einer faszinierenden Disziplin entwickelt, um das Zentrum des Tiersubjekts mit seinem nicht-menschlichen, artspezifischen Mentalleben herum. Deshalb spricht man heute auch von kognitiver Ethologie. 


Und trotzdem bleibt das Problem der Anthropozentrik. Es erscheint unlösbar – weil der Mensch sich nicht von der menschlichen Perspektive lösen kann. Aber nimmt denn nicht jede Art die Welt artzentrisch wahr? Der Schimpanse schimpansozentrisch, die Ratte rattozentrisch, die Amöbe amöbozentrisch? Das ist die falsche Frage. Tiere kennen das Problem gar nicht. Der Anthropozentrismus ist gerade kein «natürliches» Faktum, sondern eben – menschengemacht. Und der Mensch hat die Fähigkeit – hier stolpern wir über ein mögliches Alleinstellungsmerkmal - , sich zumindest von gewissen Zentrismen zu lösen: er ist ein «exzentrisches» Lebewesen, als das ihn der Philosoph Helmut Plessner charakterisierte. Kopernikus stiess uns aus dem Zentrum des Universums,  Darwin  aus dem Zentrum der Evolution, Freud aus dem Zentrum des Ich-Bewussteins. 


***


Heute steht eine weitere Dezentrierung an. Die neue Verhaltensforschung zeigt, dass andere Spezies ebenfalls Anlagen zum «Geistigen» aufweisen: Emotion, Intelligenz, Selbstbewusstsein, Werkzeug¬gebrauch, Imagination, Sozialität, Humor, Altruismus, Todesahnung ... eine fortgesetzte «Enttäuschung» humaner Einzigartigkeit, dieser chronischen Obsession. Natürlich kann und soll man über das spezifisch Humane an solchen Merkmalen debattieren – speziell darüber, was menschliche Kultur und Sprache dazu beitragen - , aber ob wir daraus je ein entscheidendes Alleinstellungsmerkmal gewinnen können, bleibt fraglich. 


Gewiss, Schimpansen schreiben keine Sonette, und Wale komponieren keine Sonaten. Sollten sie das? Die Fähigkeiten, die wir bei anderen Spezies untersuchen, sind ja vom Menschen her definiert. Aber kennen wir Menschen denn all die Subtilitäten etwa der Kommunikation unter Schimpansen und Walen? Wie will man herausfinden, was andere Spezies können, wenn man davon ausgeht, was sie nicht können? De Waals Sarkasmus ist berechtigt, wenn er von einer Forschung spricht, «die sich mehr an kognitiven Defiziten anderer Spezies begeistert als an ihren Fähigkeiten.» 


***


Die Anmassung, eine Ausnahme-Spezies auf dem Planeten zu sein, ist eine philosophische. Sie begann in der Neuzeit damit, dass René Descartes Tiere zu organischen Apparaten - «ausgedehnten Sachen» - erklärte, über denen der Mensch steht, weil er eine «denkende Sache» ist. 


Nun ist es gerade die Idee der Verfügungsmacht, die Lebendes zu Apparaten werden lässt. Sie konkretisiert sich darin, dass wir nach Schätzungen pro Jahr 100 Milliarden «apparatisierte» Lebewesen für Nahrung, Kleidung, Forschung und andere Zwecke töten. Sie manifestiert sich im sechsten planetarischen Massensterben. Sie manifestiert sich in der Gentechnologie. Diese hat die Schwelle zu einer zweiten Evolution bereits überschritten, in der man Tiere für bestimmte menschliche Zwecke massschneidert. Die Fauna der Zukunft wird immer mehr natürlich-künstlich sein. Inklusive Mensch. 


Die amerikanische Philosophin Donna Haraway mahnte uns schon in den 1990er Jahren an, unsere Spezies-Arroganz zu hinterfragen.  Der Anthropozentrismus hat uns in eine gefährlich entfremdete Position abgerückt. Wir sind eigentlich Aliens auf dem Planeten. Wir betrachten Natur, als ob wir nicht dazu gehörten, als befänden wir uns in einer Blase. Diese Blase nennt sich «technische Zivilisation». Darin liegt eine abgrundtiefe Ironie. Denn der Mensch ist nicht der einzige Planetengestalter. Vor über Jahrmilliarden taten dies bereits die kleinsten Lebewesen, die Mikroben. Und der Mensch verschafft ihnen gerade durch den Klimawandel die günstigsten Lebensbedingungen. Vielleicht könnten sie dereinst die Blase zum Platzen bringen und den Planeten – ohne Legitimationsprobleme - wieder für sich allein haben. Im Bakteriozän? 



Montag, 22. Mai 2023

Donnerstag, 18. Mai 2023



Gibt es fundamentale Naturgesetze?

Wenn wir von der «Gesetzesförmigkeit» der Natur sprechen, sprechen wir von unseren Theorien über die Natur. Theorien sind das zentrale Verständnismittel der Wissenschaft. Sie reduzieren Unverständliches auf für uns Verständlicheres. Für die antiken Naturphilosophen bewegten die Götter die Himmelskörper. Götter verhielten sich eigentlich wie Menschen, deshalb «verstand» man die astronomischen Phänomene am ehesten, indem man sie auf «einfache» quasimenschliche Beweggründe zurückführte. Damit kann natürlich ein moderner Astronom nichts anfangen. Das «Einfache» sind für ihn physikalische Körper – letztlich Elementarteilchen - und ihre Wechselwirkungen. 

In diesem Sinn hat jede Theorie sozusagen ihr konzeptuelles Reservoir an Erklärungsfiguren, mit denen sie ihr explikatives Spiel spielt. Die Physik spielt mit Elementarteilchen und ihren Wechselwirkungen; die Chemie mit Atomen und ihren Verbindungen; die Molekularbiologie mit den Genen und ihren Expressionen in Lebewesen; die Neurobiologie mit Neuronen und ihren vernetzten Aktivitäten; die Ökonomie mit  individuellen «Marktatomen»  und den Marktkräften zwischen ihnen.

***

Die fundamentale Frage ist: Wie kommt man vom Einfachen zum Komplexen? Wir kennen das Problem aus der Chaostheorie. Zum Beispiel unterliegt das Wettergeschehen durchaus physikali-schen Gesetzen - ist also «deterministisch» - , aber sein Verhalten ist trotzdem nicht exakt vorhersehbar: «chaotisch». Umgekehrt manifestieren alltägliche Materialien stabile kollektive Makroeffekte, die sich aus dem «Chaos» ihrer Mikrobestandteile nicht herleiten lassen: «emergente» Eigenschaften. Etwa die Zähflüsigkeit von Sirup, die Festigkeit von Glas, ebenso Exotika wie die flüssige Kristallinität des Laptopbildschirms, die Supraleitfähigkeit oder Supraflüssigkeit ultrakalter Stoffe. Unordnung aus Ordnung, oder Ordnung aus Unordnung. Der Physiker und Nobelpreisträger Philip W. Anderson prägte für dieses Phänomen in den 1970er Jahren eine Formel, die Kultstatus geniesst: «More is different». Ein einzelnes Apfelmolekül ist nicht fest und sauer, viele Apfelmoleküle sind fest und sauer. 

***

Ein anderer Nobelpreisträger – der Physiker Robert Laughlin – schrieb vor über 15 Jahren das Buch «Abschied von der Weltformel» (im Original «A Different Universe», eine Anspielung auf Anderson). Laughlin ist Festkörperphysiker, und als solcher vertraut mit dem Verhalten von Vielteilchensystemen, zum Beispiel mit dem Schmelzvorgang oder dem Übergang von halbleitendem zu supraleitendem Material. Festkörperphysik baut durchaus auf das «Fundament» der Quantentheorie, aber sie ringt immer wieder mit dem Problem, aus den Gesetzen der Wechselwirkung von Elementen eines Systems sein Makroverhalten zu erklären.  

Diese Erfahrung liess Laughlin an einem Grundglauben der modernen Physik zweifeln: Die Ge-setze sind der Natur sozusagen «eingeschrieben». Wir beobachten zum Beispiel das Phänomen der Anziehung zwischen Massen. Und wir sagen, darin «wirke» das Gravitationsgesetz. Aber gemäss Laughlin sollte man dies nicht so interpretieren, dass Experimente eine immer schon bestehende Gesetzmässigkeit bestätigen. Die Ordnung der Natur beruht nicht auf ihr inhärierenden Gesetzen, die Gesetze beruhen vielmehr auf Ordnungsprinzipien, sie «emergieren» aus ihnen.

***

Was bedeutet das? Zunächst einmal eine Absage an «Muttertheorien», an ein Projekt also, wie es sich heute immer noch in der Suche nach einer «Theorie von allem» äussert, allerdings leiser als auch schon. Solche Physik ist für Laughlin «quasireligiös», weil sie an das gesetzesmässige Fundament allen Geschehens wie an eine geoffenbarte Wahrheit glaubt. «Ich bin zunehmend davon überzeugt, dass alle (..) der uns bekannten physikalischen Gesetze aus kollektivem Geschehen hervorgehen. Anders gesagt, die Unterscheidung zwischen grundlegenden Gesetzen und den aus ihnen hervorgehenden Gesetzen ist (..) ein Mythos». 

Damit hängt zweitens eine Absage an den Reduktionismus zusammen, an die Idee, alles makro-physikalische Geschehen lasse sich «im Prinzip» aus mikrophysikalischen, sprich quantentheo-retischen Gesetzen erklären. Zum Beispiel beschreiben die Gesetze der Hydrodynamik das Verhalten von Flüssigkeiten anhand von Parametern wie Dichte, Druck, Viskosität, also anhand von «emergenten» Eigenschaften. Sie kommen auf mikrophysikalischer Ebene nicht vor. Wir beobachten sie einfach, wenn ein System einen hinreichenden kollektiven Organisationsgrad auf-weist. 

Drittens bestreitet die Emergenzidee nicht, dass die Quantentheorie neue, oft «exotische» makroskopische Zustände begreifbar macht. Sie tut dies fortwährend, und Nobelpreise sind dafür bereits verliehen worden. Insbesondere an Laughlin. Trotzdem liegt für ihn die Zukunft der Physik nicht in theoretischen Höhenflügen, sondern in immer präziseren Messungen von komplexen Kollektivphänomenen. Gesetzmässigkeit emergiert dann, wenn man bei einem kollektiven Verhalten eine stabile quantitative Beziehung zwischen Makromessgrössen feststellt. So gesehen emergieren die Gesetze der Hydrodynamik aus dem Gewimmel einer Riesenzahl von Molekülen, weil sie unabhängig vom Geschehen auf Mikroebene sind. Wasser zeigt völlig andere Eigenschaften als seine Moleküle, und umgekehrt bleibt das Wasser unter Normalbedingungen flüssig und nass, wie sich die Moleküle auch verhalten. 

***

Das alles leuchtet durchaus ein, aber die Sache hat einen Haken. Die Aussage «More is different» bemäntelt eigentlich eine Erklärungsverlegenheit. Das Problem beschäftigt die Biologen seit Dar-win. Wie Ernst Mayr, einer der einflussreichsten Evolutionstheoretiker des 20. Jahrhunderts, schrieb: «Systeme haben fast immer die Eigenheit, dass die Charakteristika des Ganzen nicht einmal theoretisch aus der vollständigen Kenntnis der Komponenten abgeleitet werden können». Wohl gemerkt: «nicht einmal theoretisch».

Emergenz geschieht einfach: Ein neues Phänomen kommt zu den bereits bekannten hinzu, entsteht aus ihnen, lässt sich nicht voraussagen. So charakterisierte der britische Darwinist Conwy Lloyd Morgan den «emergenten» Evolutionsprozess vor hundert Jahren, und er sah darin ein Naturgesetz. Wir können das Emergente nicht voraussagen, weil wir vor seinem Eintreten das Gesetz nicht kennen. Das klingt nun doch sehr nach Laughlin: Makroregelmässigkeiten emergieren aus dem Mikrogeschehen nach einem Ordnungsprinzip, aber wir kennen dieses Prinzip erst, nachdem die Regelmässigkeiten «aufgetaucht» sind. 

***

Noch einmal: Gibt es fundamentale Naturgesetze? Kommt darauf an, was man als «Fundament» deklariert. Vor dem 20. Jahrhundert war dies die Newtonsche Physik mit ihren deterministischen Gesetzen. Im 20. Jahrhundert und am Beginn des 21. Jahrhunderts ist dies die Quantenphysik mit ihren probabilistischen Gesetzen. Ob künftig eine «Emergenztheorie» - oder allgemeiner: eine universelle Theorie der Komplexität – sich als Paradigma etablieren wird, wissen wir nicht. Einstweilen ist alles andere als klar, wie sie aussehen könnte. Vielleicht haben wir gar nicht den geeigneten kognitiven Apparat dazu. 

All dies läuft auf eine sehr, sehr elementare Lektion hinaus: Das Bild, das die Naturwissenschafter sich von der Natur machen, ist nicht die Natur. Niemand weiss, was sie noch in petto hat. «Man muss immer mit einer Überraschung, mit einer sehr grossen Überraschung rechnen», sagte Einsteins grosser Gegenspieler, Niels Bohr. Wir kennen Galileis Metapher vom Buch der Natur, das in mathematischen Lettern geschrieben ist. Was, wenn das Buch keine letzte Seite hat? Die Geschichte der Naturwissenschaft wäre dann eine Irrfahrt, die immer wieder von Unbekanntem zu Unbekanntem führt. Lösungen, Entdeckungen, «fundamentale» Theorien - zufällige Intermezzi. 


Mittwoch, 17. Mai 2023

Donnerstag, 4. Mai 2023





NZZ, 29.4.23


Das Zeitalter der posttheoretischen Wissenschaft

Ein Schisma in der Forschung?


Was ist wichtiger, die Dinge vorauszusehen oder sie zu erklären? Das ist eine alte Frage in den Wissenschaften. Und die geläufige Antwort darauf lautet: Beide sind wichtig; voraussehen kann man den Lauf der Dinge am besten, indem man ihren kausalen Zusammenhang versteht - und umgekehrt.  Zumindest bisher war dies die Standardreplik. Heute nicht mehr.  

David Krakauer - Direktor des Santa Fe Institute for Complexity Research - spricht von einem «Schisma» zwischen Erklären und Voraussagen: «Ein Schisma taucht im wissenschaftlichen Forschungsunternehmen auf. Da ist einerseits der menschliche Geist, Quelle jeder Erzählung, Theorie und Erklärung, die unsere Spezies wertschätzt. Und da sind andererseits die Maschinen. Ihre Algorithmen besitzen erstaunliche voraussagende Potenz, deren innere Funktionsweisen dem menschlichen Beobachter jedoch radikal undurchsichtig bleiben (..) Wir stehen vor der Wahl, welche Art von Wissen mehr Bedeutung hat, wie auch vor der Frage, welche der beiden Arten dem wissenschaftlichen Fortschritt im Wege steht».  

Das klingt reichlich dramatisiert, aber Krakauer bringt die aktuelle Situation der Wissenschaft auf den Punkt: Die beiden Mainstreams der Neuzeit driften auseinander, der theoriegeleitete und der empiriegeleitete Forschungsstil. Zur Erläuterung ein kleiner historischer Exkurs. 

***

Der erste Stil fand sein frühes Meisterwerk in der universellen und fundamentalen Theorie der Natur von Isaac Newton, der Philosophiae naturalis Principia Mathematica. Eine in mathematischer Sprache entworfene Theorien-Kathedrale, die auf den soliden Pfeilern einiger weniger universeller Prinzipien ruhte. Dadurch entstand ein neues Wissensideal: das Deduzieren top-down aus universellen, fundamentalen Naturprinzipien. Über drei Jahrhunderte hinweg sollte es die Physiker zu beispiellosen Leistungen inspirieren, von Newton über Laplace, Boltzmann, Max-well, Hertz, Einstein, Planck, Schrödinger bis zur heutigen Suche nach einer «Theorie von allem». 

Der zweite Stil operiert bottom-up. Er beginnt empirisch bei Beobachtungen, Experimenten, Daten, und er sucht daraus allgemeine Muster zu abstrahieren – zu «induzieren». Francis Bacon gilt als der philosophische Begründer, weshalb man den Forschungsstil auch als «baconisch» be-zeichnet. Er setzte sich zunächst nicht so sehr in der Mechanik und Astronomie durch, als vielmehr auf Gebieten, die sich gegenüber der Mathematisierung als widerständiger erwiesen: Optik, Wärme, Chemie, Biologie, Geologie. Und er bediente sich eines technischen Arsenals aus mechanischen Geräten, Mikroskopen, Teleskopen, Barometern, Thermometern, Luftpumpen, Detektoren für Elektrizität, chemischen Apparaten. Im Grunde genommen verdankt sich der Erfolg der modernen Wissenschaft dem ausserordentlichen Glücksfall einer gelungenen Kooperation der beiden Forschungsstile; der theoretischen «Gehirn-Perspektive» und der empirischen «Apparate-Perspektive». 

***

Diese Kooperation sieht Krakauer gefährdet. Theorien bewähren sich als abstrahierende Instrumente der Komplexitätsreduktion. Sie vereinfachen eine Welt vertrackter Zusammenhänge und unzählbarer Einflussfaktoren zu einer Welt mit ein paar wenigen Parametern. Naturgesetze stellen immer eine Relation zwischen diesen Parametern her, im besten Fall eine mathematische. Zu den Meilensteinen der Naturwissenschaft zählen wir Gleichungen der Physik: die Bewegungsgleichung von Newton, die Gasgleichung von Boyle, die elektromagnetischen Feldgleichungen von Maxwell, die relativistischen Gleichungen von Einstein, die Schrödingergleichung: Theorie, Theorie, Theorie. 

Aber die Welt erweist sich in einem ganz bestimmten Sinn als «theoriefeindlich». So liefert zum Beispiel die Schrödingergleichung die Grundlage für die Materialwissenschaften. Diese elegante Differentialgleichung für das Zusammenwirken von Elektronen in Molekülen zu lösen, ist jedoch eine äusserst harte Aufgabe. Hier können sich algorithmische Methoden als überraschend hilfreich erweisen.  Auch etwa in der Frage, zu welchen Strukturen sich Proteine falten ; oder wie sich Menschen in bestimmten Situationen entscheiden.  

***

Die Wissenschaft überschreitet die Schwelle zu einer neuen Ära, jener des algorithmusgeleiteten Forschungsstils. Neuronale Netzwerke können mit einer immensen Zahl von Parametern umge-hen. Sie lernen, aus Datenmengen Zusammenhänge und Muster zu erkennen und ihre Performanz ist bereits jetzt beeindruckend. In diesem Sinn kann man darin eine Fortsetzung der baconischen Wissenschaften mit potenteren Mitteln sehen. Aber Algorithmen interferieren auch mit dem theoriegeleiteten Stil. 

Kürzlich kreierte ein Team an der ETH einen künstlich intelligenten «Agenten», der lernte, die Berechnung von Planetenbahnen zu vereinfachen, indem er von der geozentrischen zur heliozentrischen Perspektive wechselt.  Hat er einen «kopernikanischen Wandel» vollzogen? Die Studie ist aus algorithmischer Sicht durchaus bemerkenswert. Sie weckt die Hoffnung, künstliche Intelligenz selber theoretisieren zu lassen. Die Forscherinnen und Forscher schreiben: «Unsere Arbeit liefert einen ersten Schritt in der Beantwortung der Frage, ob die traditionellen Methoden der Physiker, Naturmodelle zu bilden, sich von selbst aus den experimentellen Daten ergeben, ohne physikalisches und mathematisches Vorwissen». Im Klartext: Das neuronale Netzwerk lernt die Physik selber, wenn man es mit dem «richtigen» Datenmaterial füttert - mehr Physik vielleicht, als den Menschen zugemutet werden kann. Bereits macht in den Medien der Begriff der «post-theoretischen» Wissenschaft die Runde.  

***

Zweifel sind angebracht. Vor allem daran, dass Naturmodelle sich «ohne Vorwissen» aus «experimentellen Daten ergeben». Sind denn nicht alle fundamentalen Begriffe der Physik dem Denken entsprungen: Raum, Zeit, Bewegung, Materie, Kraft, Energie, Welle, Feld, um nur einige zu nennen? Wie will denn ein künstlicher Physiker «erklären», wenn er kein «Vorwissen», also kein Verständnis für die erklärenden Begriffe hat? Eine beliebte Nicht-Antwort von Wissenschaftern an vorderster Front lautet: Wir sind noch weit vom Erwarteten entfernt. Warum also nicht mit Naheliegenderem beginnen. Etwa mit einer Frage wie: Was bedeuten eigentlich «Theorie» und «Erklären»? 

Ich wage hier eine möglichst einfache Antwort: Theorie ist Denken im Konjunktiv, sie beginnt stets mit der Wendung «Stellen wir uns vor, dass..» oder «Was wäre wenn..» Empirie dagegen ist Denken im Indikativ, sie beginnt mit der Wendung «Schauen wir, was ist..» Der Prähominide, der vor 50'000 Jahren nicht einfach fragte «Wo ist das Mammut?», sondern «Wo könnte sich das Mammut unter diesen Wetterbedingungen aufhalten?», begann zu theoretisieren. Modelle ergeben sich nicht «von selbst aus den experimentellen Daten». Die Dynamik der Himmelskörper lesen wir nicht aus noch so riesigen Datenmengen heraus; das Higgsteilchen wurde nicht aus Korrelationen im Large Hadron Collider entdeckt; und Krebs verstehen wir nicht aus Bayes’schen Netzwerken. Ohne Theorie ist Wissenschaft kausalblind. 

Die algorithmengestützte «Induktionsmaschinerie» liefert uns Antworten auf Was-Wo-Wann-Fragen. Nicht auf Warum-Fragen. Je weiter das Deep Learning fortschreitet, desto mehr brauchen wir das Deep Thinking, das sich um erklärende Ursachen kümmert. Inwieweit wir es an die Maschine delegieren könnnen, bleibt abzuwarten. Recht betrachtet, deutet das «Schisma» auf eine neue Kooperationsart von Hirnschmalz und Rechenpower hin. Den menschlichen Gehirnen steht jedenfalls noch vieles bevor. Gerade dank Algorithmen.




Freitag, 21. April 2023

 



Der Pinsel emanzipiert sich vom Maler

Das Kunstwerk im Zeitalter seiner automatischen Produzierbarkeit


Der künstliche Künstler ist Thema der Stunde. Kann man schreibenden und malenden Computern «Autorschaft» zuschreiben, wie man dies bei Schriftstellern und Malerinnen ganz selbstverständlich tut? Der Kunstmarkt jedenfalls hat die neueste Tendenz schon absorbiert. Computergenerierte Erzeugnisse erreichen Verkaufswerte in Millionenhöhe. 

Etwas geht vor. Um beim Beispiel Malerei zu bleiben: Der Pinsel malt mit. Das heisst, die Utensilien der Malerin prägen ihre Arbeit immer bis zu einem gewissen Grad. Bisher war es relativ leicht, Künstler und Mittel zu trennen. Wenn nun diese Mittel zunehmend autonomer werden, neigen wir dazu, sie selber zu «Künstlern» zu erheben. Der Pinsel malt selbst. Was soll man von diesem kreativen «Selbst» halten? 

***

Die Frage wirft ein Licht auf die Anfänge der Fotografie. Als es einem ihrer Pioniere, dem Briten Henry Fox Talbot, 1835 gelang, seinen Landsitz fotografisch abzubilden, erklärte er triumphierend, sein Apparat sei das erste Gerät, das «von selbst» sein Haus porträtierte. Diese Einschätzung erinnert daran, dass Fotografie einen Markstein in der Geschichte der Automation darstellt – und Automation bedeutet Emanzipation der Technik vom Menschen. Sie wird selbständig, «handelt» in eigener Regie.

Genau dies verhalf der Kamera zu ihrem «unique selling point». Sie liess das künstlerische Geschick in der Wiedergabe von Objekten als entbehrlich erscheinen. Die Verfechter der neuen visuellen Technik betonten, dass das Gerät die Wiedergabe nicht nur präziser und «realistischer», sondern auch schneller und billiger machte als die Hand des Künstlers. Obwohl die Fotos oft unscharf und mehrdeutig waren, schien ihnen allein die technische Herkunft eine Aura von Verlässlichkeit, sprich Menschenunabhängigkeit zu verleihen. 

***

Damit geriet aber ein Problem in den Brennpunkt, vor das uns heute die KI stellt: der künstlerische Wert des künstlich erzeugten Bildes. Wenn die Fotografie eine automatisierte Form des Zeichnens oder Malens ist, kann man dann Fotografen als Künstler betrachten, und nicht eher als Operateure eines technischen Vorgangs? Die Frage hatte eine ganz praktische Bedeutung. Die unaufhaltsame Kommerzialisierung der Fotografie schuf den Anreiz des Kopierens. Nicht Originalität war das Kriterium, sondern Profitabilität. Wenn aber Fotografien wirklich als eigentümliche Kunstform gelten sollten, dann musste man ihnen logischerweise das Recht auf Eigentum und seines Schutzes zubilligen.  

Einer der ersten Fälle in dieser Legitimitätsfrage ereignete sich 1862. Mayer et Pierson, renommierte französische Fotografen, gingen erfolgreich gegen den Verkauf von abgeänderten und re-touchierten Porträts durch die Konkurrenz vor. Noch Monate zuvor war ihre Klage vor Gericht mit der Begründung abgelehnt worden, es handle sich beim Fotografieren «bloss» um einen automatisierten Vorgang, der das Bild eines Objekts auf lichtempfindlichem Material fixiere. Der juristische Sieg war auch ein Sieg des fotografischen Blicks: In den «Zeichnungen mit Licht» («dessins photographiques») galt der Fotograf nun als «Autor». Fotograf und Kamera bildeten eine Einheit, die künstlerische Eigenständigkeit einklagen konnte - ein Hybrid aus Mensch und Apparat. Es war gerade die «Persönlichkeit» der Fotografie, die zu ihrem ästhetischen Wert beitrug. 

***

Und heute: Wer ist eigentlich «Autor» im Hybrid aus Mensch und Computer? Die aktuellen KI-Bildgeneratoren sind nicht nur fähig, herkömmliche Kamerabilder zu emulieren, sie können weit mehr. Sie modifizieren die Bilder «selbst», nach Regeln, die sie aus immensen Datenmengen lernen, Regeln, von denen der Softwaredesigner keine Ahnung hat. Das weckt sogleich den Eindruck der Spontaneität, mehr noch: eines künstlichen «kreativen Agenten», sei er nun gut- oder böswillig. 

Bereits ist von der «disruptiven» digitalen Kunst die Rede. Und wie die Fotografie im 19. Jahrhundert fordert das computergenerierte Werk heute die kreative Tätigkeit heraus. KI-Bildgeneratoren sind wie jede neue Technologie typisch ambivalent. Man dämonisiert sie, indem man das Ende herkömmlicher Kunst durch Automatisierung heraufbeschwört; man vergöttert sie, indem man den Auftakt eines Zeitalters nie dagewesener Kunstformen bejubelt. 

Der Blick zurück verhilft zu etwas Nüchternheit. Die neue Technik der Fotografie hatte im späten 19. Jahrhundert den realistischen Stil obsolet gemacht, und sie ebnete dadurch das Feld für die impressionistische Malweise. Gleichzeitig eroberte die Fotografie (und später der Film) den Status eines eigenständigen ästhetischen Genres. Weshalb sollte man dies nicht auch von der Computertechnik erwarten? 

***

Genau dieses Argument führen Verfechter computergenerierter Bilder jetzt ins Treffen. Sie sehen sich als Ausübende einer kreativen Tätigkeit: mittels Texten («text prompts») Bilder gestalten - «Prompt-Engineering». Und sie betonen die kreative Komponente in der geschickten Eingabe origineller Prompts zur Erzeugung von Texten, Bildern, ja, ganzen Programmen. Sie synthetisieren aus disparaten Elementen etwas Neues, weshalb man auch von «Synthografie» spricht. Die generative KI ermöglicht also ein erweitertes Konzept der Kreativität. Jüngst nahm der Fotograf Boris Eldagsen einen renommierten Preis für seine KI-generierte Fotografie nicht an, weil es sich seiner Meinung nach um eine neue Gattung von Bild handele. 

2016 zerlegten Informatiker von Microsoft und der Technischen Universität Delft 346 Gemälde von Rembrandt in rund 150 Gigabytes an Daten. Mithilfe von lernenden Algorithmen analysierten sie akribisch die Details der Bilder. Die Aufgabe, die sie der Maschine stellten, lautete, ein Bild auf der Grundlage der analysierten und interpretierten Daten zu malen. Im April 2016 präsentierten sie den «nächsten Rembrandt» in Amsterdam. Täuschend echt. 

Der britische Kritiker Jonathan Jones erging sich in heiligem Zorn über das Sakrileg des digitalen Werks. Um «nachäffende» Kunst handle es sich, um einen Aprilscherz, von «Narren» geschaffen: «Welch eine schreckliche, geschmacklose, gefühllose und seelenlose Travestie all dessen, was kreativ in der menschlichen Natur ist.»  

***

Die Eruption des Kritikers verrät ein Kunst- und Technikverständnis, das durch die KI zunehmend veraltet erscheint: Kreativ ist allein der Mensch, er garantiert die Aura der Einzigartigkeit des Kunstwerks. Natürlich hat die Maschine keine «Seele». Die Programmierer wollten ihr auch gar keine «einhauchen». Vielmehr ging es ihnen um die Frage, inwieweit sich der kreative Prozess durch KI-Systeme simulieren lässt. Denn dieser Prozess ist ja selbst beim Menschen weitgehend eine Black Box. 

Ohnehin verhält sich auch der menschliche Künstler oft «maschinell». Er lernt Routinen, übt sich ein in Techniken, kopiert Stile. Das Maschinelle im Kreativen und das Kreative im Maschinellen sind komplementäre Seiten des gleichen Prozesses. Im Internet findet heute die generative KI eine immense Sammlung von Bildmaterial, von menschlichen Wahrnehmungsweisen und -konventionen. Und indem der Künstler sie zum Beispiel mit dem Programm Midjourney rekombiniert, schafft er im besten Fall etwas noch nicht Dagewesenes, verändert er konventionelle ästhetische Erwartungen –  er mit der Maschine oder die Maschine mit ihm oder beide zusammen? Ein experimenteller Kreisprozess der digitalen Produktion zeichnet sich ab: Der Mensch gibt der Maschine Material ein, die Maschine liefert ihm neues Material, das er wiederum der Maschine zur Verarbeitung einspeisen kann. Je mehr Material, desto besser die Performance. 

Sprechen wir dann noch vom Menschen als Autoren und dem Automaten als Assistenten? Ist Midjourney ein Artefakt oder ein Quasi-Künstler? Verlernen wir, wenn automatisch kreierte Kunst uns en masse umgibt, den Unterschied? Müssen wir eine Art von Wasserzeichen erfinden: «menschengemacht»? Vorerst sind das spekulative Fragen. Seien wir nur nicht vorschnell mit der Antwort. 



                               Wieder a dr schööne grüene Aare