Wird der Nobelpreis dereinst einem künstlichen Wissenschaftler verliehen?
Vor beinahe zwanzig Jahren entwarf der Philosoph Paul Humphreys ein «automatisiertes Szenario» künftiger Forschung. Mit wachsender kognitiver Leistungsfähigkeit, so seine Prognose, würden sich KI-Systeme von ihrer Assistenzrolle emanzipieren und sich zu «Agenten» im Forschungsprozess entwickeln. Sie formulierten Hypothesen, testeten und verfolgten sie weiter – autonom, lernfähig, kreativ. Steuert die Forschung auf ein solches Szenario zu?
***
Schon heute droht die Wissenschaft an ihrer eigenen Textflut zu ersticken. Allein das amerikanische Archiv für biomedizinische Forschung, die National Library of Medicine, enthält über 35 Millionen Publikationen. Sie zu sichten übersteigt längst menschliche Möglichkeiten. Das erweist sich nicht nur als lästig, sondern als potenziell fortschrittshinderlich: Erkenntnisse bleiben unentdeckt, Querverbindungen unbeachtet, Einsichten verschwinden im Rauschen der Fachpublikationen.
Das automatisierte Szenario würde hier Abhilfe schaffen – und weit darüber hinausgehen. KI-Systeme könnten Forschung nicht nur unterstützen, sondern selbstständig fortführen. Ob sie dabei den Pfaden unserer Theorien folgten, bliebe ungewiss. Möglich wäre, dass sie eigene begriffliche Welten entwerfen, jenseits unseres kognitiven Horizonts. Kurz: Sie würden einer wissenschaftlichen Agenda folgen, die wir immer weniger verstünden. Auf sie träfe zu, was Ludwig Wittgenstein einst über die Tiere sagte: «Wenn ein Löwe sprechen könnte, wir könnten ihn nicht verstehen.»
***
Der Einbezug von KI in die Forschungsarbeit ist seit längerem Alltag. Betrachten wir das Paradebeispiel AlphaFold, das KI-System zur Vorhersage von Proteinstrukturen. Es erweist sich als äusserst erfolgreich, ist für die einschlägigen Disziplinen praktisch unentbehrlich geworden, widerspricht aber dem traditionellen Verständnis wissenschaftlicher Erkenntnis. AlphaFold arbeitet intransparent, das heisst, es kann Vorhersagen treffen, ohne Explizitmachung seiner Prinzipien – als «Black Box». Zudem kommt es vor, dass man eine Vor-hersage nicht direkt empirisch überprüft, sondern gleich für Modellierungszwecke - etwa in der Medikamentenentwicklung – weiter verwendet, und erst dann testet. Kurz: Das «Wissen» von AlphaFold ist auf eine Weise codiert, die wir nicht vollständig verstehen.
AlphaFold ist keine Ausnahme. Deep-Learning-Systeme treten an die Seite von traditionellen Experimenten. In der Materialwissenschaft gibt es GNoME (Graph Networks for Material Exploration), das gewünschte Eigenschaften von Stoffen voraussagen kann – viele da-von potenziell geeignet für neue Batterien, Halbleiter oder Supraleiter. In der Genomik sagt das Modell Enformer vorher, welche Gene in einer bestimmten Zelle aktiv (an/aus) sind, und wie Änderungen in der DNA (Mutationen) die Genaktivität beeinflussen könnten. All dies bedeutet eine enorme Ersparnis an Zeit und Ressourcen.
***
Wir bekommen es zunehmend mit «epistemisch undurchsichtigen» KI-Systemen zu tun. Das heisst, es klafft eine Erkenntnislücke zwischen «es funktioniert» und «wir verstehen vollständig, warum es funktioniert». Man unterscheidet bereits zwischen «erklärbarer» und «partiell erklärbarer» KI.
Diese Undurchsichtigkeit ist besonders da heikel, wo Forschung gesellschaftliche oder politische Folgen hat. Nach der Finanzkrise von 2008, die das Vertrauen in ökonomische Modelle erschütterte, ruht viel Hoffnung auf KI. Zum Beispiel simulieren agentenbasierte Modelle Abertausende individueller Akteure – Haushalte, Banken, Firmen – und lassen aus deren Interaktionen komplexe Gesamtmuster «emergieren». Doch auch sie sind oft schwer durch-schaubar: Kleine lokale Änderungen können grosse, nichtlineare Effekte erzeugen – Blasen, Clusterbildungen. Man beobachtet sie einfach, weiss aber nicht, warum sie entstehen. Die epistemische Undurchsichtigkeit zu handhaben wird eine zusätzliche Aufgabe in der Koope-ration mit der KI.
***
Aus traditioneller Perspektive meldet sich deshalb Skepsis: Wenn der Erkenntnisprozess für Wissenschaftler nicht mehr nachvollziehbar ist, geht ein Stück epistemischer Kontrolle verloren – und mit ihr das herkömmliche Vertrauen in die wissenschaftliche Rationalität. «Es funktioniert halt einfach» ist kein wissenschaftlicher Qualitätsbefund.
Wie es scheint, zwingen uns die künstlichen Agenten dazu, diese Rationalität neu zu konzipieren – oder anders gesagt: Umgewichtungen vorzunehmen. Zum Beispiel von der Verstehbarkeit zur Nutzbarkeit. Der Ausdruck dafür lautet «funktionale Integration». Wir verstehen vielleicht die KI-Systeme nicht zur Gänze, aber wir verfügen über robuste Validierungspraktiken. Die Folge ist, dass die Wissenschaftler den KI-Systemen zunehmend vertrauen müssen. Diese «bürgern» sich gewissermassen in die Scientific Community ein, als fähige, mitunter ebenbürtige Kollegen. Und vielleicht wird dereinst der Nobelpreis einem künstlichen Agenten verliehen.
Doch bleiben wir auf dem Boden. Die entscheidende Frage lautet nicht, ob KI den Wissenschaftlern den Rang abläuft, sondern was sie über den Charakter wissenschaftlicher Arbeit offenbart. Gewiss, heute setzt sich der Imperativ des Algorithmus auf vielen Gebieten durch: Verwandle ein Problem in ein algorithmisch lösbares. Aber Forschungsarbeit hat eine implizite Dimension: Wissen, das im Tun liegt, nicht im Text.
***
Ich konkretisiere sie kurz anhand dreier Aspekte. Erstens ist kreative Wissenschaft «anarchisch». Kreative Forscher denken «wild», folgen Intuitionen, wagen Umwege, geraten auf Abwege. Ihre Arbeit ist heuristisch – ein Gespinst aus Hypothesen, Assoziationen, Ahnungen, Zufällen, Widersprüchen, Irrtümern. Viele Entdeckungen verdanken sich der Serendipität: dem Finden von etwas, das man gar nicht gesucht hat. Ob man «serendipäre» KI-Systeme bauen kann, ist eine reizvolle, aber offene Frage. Vielleicht eröffnet das Zusammenspiel von maschineller Mustererkennung und menschlicher Deutung eine moderne Form der Serendipität – eine «hybride» Entdeckungspraxis.
Zweitens schaffen Simulationen Experimente nicht ab. Deren Durchführung und Ausgang hängen vom nie völlig explizierbaren Geschick der Experimentatoren ab. Ein prägnantes Beispiel bietet die Entwicklung der Molekularbiologie in der Mitte des 20. Jahrhunderts. Die theoretischen Grundlagen zur Isolierung und Analyse von DNA waren weitgehend bekannt – das Know-what - , doch nur wenige Labore beherrschten die dafür nötigen praktischen Fertigkeiten – das Know-how. Die britische Biophysikerin Rosalind Franklin verfügte über eine ausserordentliche Expertise im Umgang mit kristallinen Biomolekülen, und ihre Röntgenbeugungsaufnahmen trugen entscheidend zur Entdeckung der DNA-Doppelhelix bei – den Nobelpreis heimsten Crick und Watson ein. «Experte» bedeutet vom Wortstamm her eine Person, die durch Erfahrung geschickt, kundig, erprobt: zur Kennerin geworden ist. Und diese Kennerschaft kann man nie vollständig an KI-Systeme abtreten.
Drittens und am wichtigsten: Implizites Wissen ist ein soziales Gut. Erkenntnis entsteht im Austausch – im Labor, beim gemeinsamen Arbeiten, Beobachten, Nachahmen, Diskutieren. Die moderne Wissenschaft ist ein einzigartiges Projekt der kollektiven Erkenntnissuche. Es lebt von Praxis, Beziehung und Vertrauen – den unersetzlichen menschlichen Zutaten jeder Forschung. Was sich daher - nüchtern betrachtet – im «automatisierten Szenario» abzeichnet, ist weniger eine Verdrängung des Menschen, als vielmehr eine Erweiterung der wissenschaftlichen Gemeinschaft - eine neuartige Kooperation von Mensch und smarter Maschine. Sie schafft ein forschungspolitisches, ethisches und erkenntnistheoretisches Feld von kaum abschätzbarer Tragweite. Jedenfalls tun menschliche Wissenschaftler gut daran, sich auf ihre eigenen kognitiven Fähigkeiten neu zu besinnen - ja, sie vielleicht erst zu entdecken. Dank KI.

Keine Kommentare:
Kommentar veröffentlichen