Mittwoch, 30. Juni 2021

 




NZZ, 26.6.2012


Wissenschaftsskepsis ja – aber die richtige


Wissenschaftsskepsis grassiert. Und Grund dafür liefern nicht bloss Protestler und Monomanen, sondern die Wissenschafter selber. Die Coronakrise wirft, anders gesagt, ein Schlaglicht auf grundlegende Veränderungen in den wissenschaftlichen Praktiken zu Beginn des 21. Jahrhunderts. Ich nehme kurz vier unter die Lupe

 

Unter dem Druck der Pandemie driftet die Forschung in eine schon länger lauernde Gefahrenzone: Publikationskaskade. Ein rezenter Artikel in der Zeitschrift Nature trägt den Titel «Wie eine Sturzflut von Covid-Forschung das Publizieren veränderte».  Gemäss Artikel zählte man im Jahr 2020 schätzungsweise 200'000 Publikationen. Ein Grossteil von zweifelhaftem Wert. Renommierte Fachzeitschriften würden jetzt auch Artikel akzeptieren, die auf klinischen Versuchen mit wenig Probanden beruhen, schreibt der Mediziner Benjamin Mazer in seinem Aufsatz «Wissenschaftliches Publizieren ist ein Witz».  Mehr als nur ein paar Forscher versprächen sich ein Aufpeppen ihrer wissenschaftlichen Karriere dadurch, dass sie das Thema Virus irgendwie in ihre Arbeit einfliessen lassen.


Dieses Schachern um wissenschaftlichen Rang und Ruf ist keineswegs neu. Aber es schaltet nunmehr in einen höheren Gang. Und dabei geraten Dringlichkeit und Qualität der Foschungsarbeit in Konflikt. Dazu tragen konkret drei Taktiken bei. Erstens Salamipublikation: Man schneidet ein experimentelles Resultat in zahlreiche «Scheiben» und veröffentlicht diese separat. Zweitens Frisieren: Man schönt Statistiken, um Resultate interessanter erscheinen zu lassen. Drittens Dramatisieren: Man übergewichtet Teilresultate, gibt ihnen zum Beispiel einen zu optimistischen oder zu pessimistischen «Spin». Bedenklich zudem, dass durchaus seriöse Forscher vermehrt Plattformen wie Twitter für diese Aufmerksamkeitshascherei benutzen.


***


In den Medien häuft sich Kritik an den wissenschaftlichen Modellierern. Ihre Prognosen seien alles andere als verlässlich und würden durch die realen Ereignisse immer wieder Lügen gestraft. Dieser externen Kritik entspricht ein, wie man es nennen könnte,  wissenschaftsinternes Schisma zwischen Modell- und Evidenzmethodologie. Modellieren bedeutet, aus Erfahrungen Hypothesen zu formulieren, zum Beispiel über die erworbene Immunabwehr, wenn man von einem Virus infiziert worden ist. Mit solchen Hypothesen lassen sich dann mittels mathematischer Gleichungen mögliche Epidemieverläufe simulieren. Dabei muss man selbstverständlich Vereinfachungen vornehmen. Das ist kein Defekt, sondern die Besonderheit mathematischen Modellierens. Schnell ertönt nun allerdings der Ruf: Zuviel Theorie, zuwenig Evidenz! Gern umgibt man die Modelle auch mit einer Aura des Spekulativen. Einer der prononciertesten Verfechter dieser Sicht, der Stanford-Epidemiologe John Ionannidis, moniert, dass die öffentlichen Massnahmen auf magerer klinischer Datenbasis stünden.  Deswegen sei zum Beispiel der Lockdown der falsche Ruf. Ioannidis plädiert für den «Goldstandard» randomisierter Versuche über öffentliche Massnahmen wie Distanzierung. Anderer Meinung ist der Modellier-Epidemiologe Marc Lipsitch von der Harvard University. Er konzediert zwar, dass wir nur über einen «Schimmer von Daten» verfügten, kontert jedoch mit dem Argument, virtuelle Szenarien könnten auch faute de mieux eine Handlungsgrundlage abgeben.  Krisen erlauben nicht zu warten, bis bessere Daten zur Ver-fügung stünden. Eine Vielfalt von Modellen, die zwischen Worst-und Best-Case-Szenarien variieren, dürfte oft hochqualitativen Daten vorzuziehen sein.  


Der Konflikt beschränkt sich nicht auf die Epidemiologie. Er ist typisch für die heutige Big Science, in der sich so etwas wie ein Imperativ der Evidenzbasierung etabliert hat. Schon 2008 schwadronierte Chris Anderson, damaliger Chefredaktor des Techno-Magazins Wired, vom «En-de der Theorie»: «Dies ist die Welt, in der Big Data und angewandte Mathematik jedes andere Erkenntniswerkzeug ersetzen.» Zum Glück ist die Mehrzahl der Forscher nicht von solcher datenfrommen Einäugigkeit geschlagen. Sie folgt vielmehr der Maxime: Ein Modell ohne Evidenz ist blind; Evidenz ohne ein Modell ist leer. Trotzdem muss man hier mit einem weiteren Problem rechnen. 


***


Zwei technische Errungenschaften treiben die gegenwärtige Virenfoschung an: Gensequenzierung und Künstliche Intelligenz (KI). Die Pandemie hat in nur einem Jahr die Forschung rund um anti-virale Impfstoffe eindrücklich auf Hochtouren gebracht. Zu dieser Beschleunigung tragen KI-Systeme entscheidend bei. Mit Muster erkennenden Systemen suchen Forscherinnen und For-scher nach antiviralen Medikamenten, studieren die DNA- und RNA-Struktur von Viren, verfolgen Verläufe der Pandemie, diagnostizieren, prognostizieren und identifizieren riskante Krankheitsfälle. Eine zweifellos nutzbringende Arbeit. Aber zugleich läuft sie Gefahr, dass man – ein-mal mehr - die Erwartungen in die KI schnell hochschraubt. 


Epidemien sind ein Paradefeld für statistische Analysen, also auch für KI-Systeme. Wie gehen KI-Systeme gegen Viren vor? Nicht direkt, sondern auf Umwegen. Ein Virus attackiert eine Wirtszelle häufig mittels Spike-Proteinen, die an der Zelloberfläche andocken, und durch die das genetische Virenmaterial – die Boten-Ribonukleinsäure (mRNA) - eingeschleust werden kann.  Das Immunsystem muss diese Proteine erkennen, um Antikörper zu produzieren. Hier tritt nun das KI-System auf den Plan: die Mustererkennung durch neuronale Netze. Diese Erkennung ist ein kombinatorisches Problem, denn Viren unterscheiden sich in der Zusammensetzung ihrer  Proteinkomponenten – oft Zehntausende an der Zahl - , und um sie wirksam bekämpfen zu können, muss man den Impfstoff auf die Schwachstellen richten. 


Das läuft im Kern auf einen gewaltigen Rechenprozess hinaus. Man lehrt zum Beispiel die lernenden Maschinen, die komplexe virale DNA-Struktur zu analysieren. Viren und ihre Proteine sind oft von grotesk verknäuelter und gefalteter Gestalt, so dass es schier unmöglich erscheint, deren Genstruktur «aufzudröseln». Ein Algorithmus durchsucht dieses dreidimensionale Gewirr nach möglichen Targets, die geeignet sind, eine Immunreaktion auszulösen. Auf diese Weise lassen sich Proteine modellieren.


Die Analyse der Genstruktur eines Virus und das anschliessende Design eines Vakzins sind ein Schritt; der nächste ist das Testen an Zellen im Labor, dann an Versuchstieren, schliesslich am Menschen. Hier beginnt die mühsame, zeitraubende Arbeit. Neuronale Netze können die  Schwachstellen eines Virus erkennen, aber sie können nicht voraussagen, wie das Immunsystem eines lebenden Körpers tatsächlich reagiert. Anders gesagt: Simulieren von Vakzinen genügt nicht, man muss experimentieren. Wie der Informatiker Oren Etzioni vom amerikanischen Allen Institute for Artificial Intelligence bemerkt: «Der menschliche Körper ist derart komplex, dass unsere Modelle nicht mit genügender Verlässlichkeit voraussagen können, was dieses Molekül oder jenes Vakzin bewirkt.»


Das fortgeschrittene Stadium der Vakzinentwicklung erfordert Tausende von Probanden, und KI-Systeme sichten und analysieren klinische und immunologische Daten innert kürzester Zeit. Sie entdecken womöglich auch Bezüge, die dem menschlichen Sucher entgehen. Sie identifizieren jene Gensequenzen eines Virus, die leicht mutieren. Aufs Ganze betrachtet werden sie in dem Masse unentbehrlicher, in dem die Forscher ihre Resultate zu einem gigantischen Korpus an Fachliteratur  auftürmen. Das Allen Institute hat zum Beispiel einen Algorithmus entwickelt – CORD-19 - , der gegen 200’000 Fachartikel über SARS-CoV-2  und verwandte Viren in maschi-nenlesbarem Format zur Verfügung stellt.  


***


Nicht nur die Pharma- sondern auch die KI-Unternehmen rund um den Globus haben den Pandemie-Braten gerochen. Und hier lauert die Gefahr des Hype. Betrachten wir das Beispiel der kanadischen Firma Blue Dot, die spezielle Algorithmen zur Beobachtung von Infektionen entwickelt. Bereits am 31. Dezember 2019 riet sie ihrer Kundschaft, Wuhan zu meiden, weil die Blue-Dot-Algorithmen einen grösseren Ausbruch prognostizierten; dies vor dem öffentlichen Bericht der WHO am 9. Januar 2020. Das ist durchaus bemerkenswert, aber in den Medien verbreitete sich rasch die Schlagzeile, dass KI-Systeme in ihrer Analyse- und Prognosepotenz den Menschen in absehbarer Zeit übertreffen würden. Der chinesische Technologiegigant Alibaba trumpfte kürzlich mit einem Algorithmus auf, der das Coronavirus schnell und mit 96-prozentiger Genauigkeit diagnostizieren könne. Solch aufgeblasene Verlautbarungen sollten eher unsere Skepsis als unsere Zuversicht aktivieren. Wie gesagt: Epidemien sind ein Paradefeld für die Statistik. Deshalb muss man im Besonderen vor statistischen Fallgruben auf der Hut sein. 


Eine notorische Fallgrube ist die Replikation von Resultaten. Seit der Statistiker John Ioannidis 2005 einen Artikel mit dem Titel «Why most published research findings are false» publizierte, ist die Scientific Community sensibilisiert. Man kennt das Problem vor allem aus Disziplinen wie Soziologie, Psychologie, Biomedizin – und nun auch in der hype-anfälligen KI-Forschung.  Ein Grossteil dieser Forschung erfolgt unter der Ägide von Technogiganten. Kurz gesagt, leidet KI-Forschung an einer Mangelkrankheit: an nicht hinreichendem Zugang zu Code, Daten und Hard-ware. Der Code eines Algorithmus ist das Kernstück von KI-Systemen. Gemäss einer Analyse aus dem Jahr 2020   sollen nur etwa 15 Prozent aller KI-Studien den Code teilen. 


Algorithmen sind häufig Geschäftsgeheimnisse. Zum Beispiel kündigte anfangs 2020 ein Team von Google Health in der renommierten Fachzeitschrift «Nature» an, ein KI-System entwickelt zu haben, das die Ärzte in der Diagnose von Brustkrebs übertrifft. Als ein Kritiker um die Herausgabe des Codes bat, beschied man ihm, dass sich das System noch in der Testphase befände und medizinische Daten ohnehin nicht geteilt werden könnten. Das Paradox tritt hier in aller Grelle zutage: Man prahlt mit einem Wundermittel der Krebsbekämpfung, behindert aber die Prüfung des Anspruchs, ein Wundermittel zu sein. Die Suche nach objektiver Erkenntnis weicht der Suche nach der besten Produktplatzierung. 


***


Publikationsschwemme, methodologisches Schisma, Replikationskrise, Transparenzdefizit sind Symptome eines allgemeinen Wandels im heutigen datenintensiven, algorithmengeleiteten Forschungsstil.  Und sie machen durchaus einen skeptischen Blick notwendig. Aber den richtigen. Was sich dieser Tage in der «Coronaskepsis» äussert, ist grösstenteils nicht Skepsis, sondern deren Gegenteil: Besserwissen, Borniertheit, Misstrauen, Verdächte. Dabei böte sich gerade eine Pandemie als musterhafte Gelegenheit gesteigerter Kooperation an – extern zwischen Laien und Experten, und intern zwischen Forschungsstilen.   


Es geht um die Zukunft des Wissens, - nein, des Nichtwissens. Denn die Pandemie zeigt eindrücklich, dass Big Science kontinuierlich zu einem Management des Ungewissen mutiert.  Erkenntnisfortschritt bedeutet nicht Annäherung an die Wahrheit, sondern Entfernung von der Unwahrheit. Der Bedarf an theoretischen Modellen und qualitätsvoller Evidenz wird steigen. Gleich-zeitig aber erweist sich eine entsprechende erkenntnistheoretische Reflektionshöhe als Gebot der Stunde. 



Keine Kommentare:

Kommentar veröffentlichen

  Die Geburt des Terrors aus dem Geist des Spektakels Terroristen überbieten sich mit Abscheulichkeiten, genauer: mit der Inszenierung von A...