Mittwoch, 24. Juni 2020







NZZ, 20.6. 2020

Die Ausnahme ist die Regel
Vom Risiko zur Ungewissheit – eine Revolution


Epidemien sind episodisch. Sie haben einen Anfang und ein Ende. Das verleitet zum Fehlschluss, dass nach dem Ende „alles vorbei ist“. Man könnte von der Illusion der fortgesetzten Normalität sprechen. Ich möchte diese Sichtweise sozusagen umstülpen: Der Normalfall ist ein kurzfristiger „glücklicher“ Zeitabschnitt in einer fortlaufenden Abfolge von nicht-normalen Ereignissen. Auf eine Formel gebracht: Die Ausnahme ist die Regel.  

***

Gemünzt auf hochtechnisierte Gesellschaften heisst das:  Das Epidemische - das „über das ganze Volk Verbreitete“ – ist nicht episodisch, sondern chronisch. Und dies aufgrund der komplexen Verkehrs-, Produktions-, Verteilungs-, Energieversorgungs-, Finanz-, Kommunikationsnetze. Je vernetzter ein System, desto anfälliger und leitfähiger wird es für die Ausbreitung lokaler Störungen. Es herrscht nicht die lineare Kausalität, sondern die Netzkaskade: die Störung verstärkt sich. Ein Virus bricht aus seiner ökologischen Nische aus und verursacht eine Pandemie; ein Baum fällt bei einem Gewitter auf eine elektrische Leitung und legt die Kommunikation eines Landesteils lahm; ein Bot infiziert das Internet der Dinge und die Dinge spielen verrückt. Hohe Vernetztheit bedeutet auch hohe Verletzlichkeit. Zu dieser Verletztlichkeit gehört unsere Ungewissheit angesichts von Situationen, wie wir sie gerade in der Pandemie erleben. Hier haben wir es mit zwei Fragedimensionen zu tun, einer biologisch-epidemiologischen und einer soziologisch-politischen: Was wissen wir über das Virus und seine Verbreitungswege? Und: Was wissen wir über die gesellschaftlichen Kollateralfolgen der Pandemie?  

***

Mit Ungewissheit beschäftigt sich die Wahrscheinlichkeitstheorie, ein formidables Denkwerkzeug. Sein Axiom lautet: Unser Wissen ist „riskant“, im Sinne von unvollständig und ungewiss. In zahlreichen Disziplinen – zum Beispiel in Betriebsökonomie, Kerntechnologie, Chemie, Pharmakologie – hat sich das Risikokalkül eingebürgert. Kalkül mit dem Ungewissen – das klingt nach einem hölzernen Eisen. Aber wie der Mathematiker Ivar Ekeland bemerkt, „müssen wir uns eingestehen, dass ein einziges vernachlässigtes oder unbemerktes Risiko die ganze Verlässlichkeit einer Berechnung ausser Kraft setzen kann, die auf bekannten Risiken beruht.“ Das Risiko existiert also immer, dass Risikoabschätzungen falsch sind.
Um nochmals auf die Illusion der fortgesetzten Normalität zurückzukommen. Sie beruht auf dem sogenannten „Truthahn-Fehlschluss“. Ein Truthahn wird gefüttert. Er leitet daraus induktiv die Regel ab: Wenn ich an diesem Tag Futter kriege, dann auch am nächsten Tag. Die Wahrscheinlichkeitsrechnung demonstriert, dass die Chance, nicht geschlachtet zu werden, mit jedem Tag steigt und schliesslich fast Gewissheit annimmt. Nur rechnet der Truthahn nicht mit dem Thanksgiving Day. Beinahe hundertprozentig gewiss erwartet er am Vortag Futter und gerät am nächsten Tag mit Gewissheit unter das Messer. Anthony Fauci, einer der bestausgewiesenen Virologen, sagte am 26. Januar, das Coronavius stelle „ ein sehr, sehr geringes Risiko für die USA“ dar. Er war ein Truthahn. Lernte allerdings schnell.

***

Das Risko ist Ungewissheit unter einem bekannten Gesichtspunkt der Informiertheit. Man kennt das Spektrum der erwartbaren Ereignisse, macht Annahmen über sie und versieht sie mit entsprechenden Wahrscheinlichkeiten. Genau das ist die Aufgabe von Modellen. Sie stecken den Horizont des Möglichen ab. Ungewissheit herrscht dann, wenn dieser Horizont diffus ist, die Einschätzung einer Situation nach mehreren – möglicherweise unbekannten - Gesichtspunkten verlangt, wenn also das Spektrum der möglichen Ereignisse (auch von extremen) nicht völlig bekannt ist. Der Truthahn kennt nur die Möglichkeit des Gefüttertwerdens, was ihn in der fatalen eindimensionalen Gewissheit eines risikolosen Lebens wiegt.

Der Ungewissheit lässt sich keine Kennzahl – eine Wahrscheinlichkeit – zuordnen, aber deswegen ist sie nicht weniger ernst zu nehmen. Der Wahrscheinlichkeitskalkül ist heute unverzichtbar, auch deshalb, weil er auf massive Datenevidenz abstellen kann. Es handelt sich hier um „bekannte Unbekannte“, also um herkömmliche Risikofaktoren. Man weiss, wonach man fragt: etwa nach der Prävalenz einer Krankheit in einer Bevölkerungsgruppe, der Letalitätsrate, den dominanten Übertragungswegen und so weiter. Aber Datenevidenz genügt nicht. Wir bekommen es zusehends mit der anderen, unbequemeren Sorte von Ungewissheit zu tun, mit dem „unbekannten Unbekannten“ ausserhalb des Spektrums des Erwartbaren, also mit dem Thanksgiving Day für den Truthahn.  

***

Risikoanalysen reduzieren Ungewissheit auf das Erwartbare. Dabei lehrt uns die akute Lage eher das Gegenteil: die Beinahe-Gewissheit des Unerwarteten. Was für den Truthahn der Thanksgiving Day, ist für uns das neue Coronavirus. In in einer realen Problemsituation lauern stets Thankgiving Days - wir vermehren die günstigen Bedingungen ihres Auftretens durch zunehmend fragilere Interaktionen.

Nun vernehmen wir allerdings den lauter werdenden Ruf nach wissenschaftsbasierten Entscheiden, nach dem verlässlichen, untrüglichen Fachurteil, und zwar idealerweise als eindeutiger Handlungsanweisung.  

Ein gefährlicher Irrtum, aus zwei Gründen. Erstens lassen sich Wissenschafter berufsmässig von bestimmten Paradigmen leiten, und sie neigen oft dazu, die Probleme exklusiv nach ihrem Paradigma zu modellieren – wodurch dieses sich zu einem kognitiven blinden Fleck entwickeln kann. Und wenn das individuelle Expertenurteil kaum grossen Spielraum für Zweifel und Ambiguität offen lassen mag, so erweist sich dieser Spielraum im Expertenkollektiv als erstaunlich weit. Ein wissenschaftsbasierter eindeutiger Entscheid ist ein hölzernes Eisen.

Das wirft zweitens ein akutes Licht auf die Politik. Wissenschafter sehen sich oft gerade in Krisensituationen dazu verführt oder gedrängt, trotz fehlenden Konsenses ein eindeutiges Urteil abzugeben, was darauf hinausläuft, „gegen aussen“ einen Pseudokonsens zu mimen. Nun ist aber eine politische Krise keine rein wissenschaftliche Problemsituation. Wenn ein Politiker mit dem Anspruch auftritt, seine Entscheide allein „wissenschaftsbasiert“ zu treffen, dann verhehlt er, dass in seine Entscheide immer auch noch „etwas anderes“ geflossen ist: ideologische Voreingenommenheit, Druck von Interessegruppen, persönliches Verständnis bzw. Unverständnis der Lage – kurz: „etwas anderes“ entpuppt sich als exakt das, wofür sich der Politiker zu verantworten hat.

***


Dies alles spricht weder gegen Fachurteile und Risikoabschätzungen, noch gegen die stets raffiniertere Diagnose-  und Prognosetechnologie. Wir müssen sie nur in einer neuen Problemkonstellation sehen, das heisst, die meisten drängenden Probleme als irreduzible Ungewissheiten anerkennen. Dazu muss man das Unkalkulierbare und Mehrdeutige von Situationen wahrnehmen können, alternative Szenarien gegen „Sachzwänge“ aufwerten, ein Was-wäre-wenn-Denken kultivieren. Nicht bloss die disziplinäre Exzellenz von Spezialisten ist gefragt, sondern die transdisziplinäre Virulenz von Generalisten. Wir brauchen „Igel“, die über eines sehr viel wissen, als auch „Füchse“, die über sehr viel einiges wissen. Wir brauchen Navigation auf Sichtweite und Visionen über das Sichtbare hinaus. Das SARS-Virus ist den Wissenschaftern schon seit einiger Zeit bekannt. Sie können sein Genom lesen. Nur eines fehlt: der Gedanke, dass darin Ungelesenes schlummert. Extrem Unwahrscheinliches geschieht ständig. Man muss es sich nur vorstellen können. Wäre der Ausdruck nicht derart abgegriffen, würde ich so etwas wie Ungewissheits-Kompetenz vor dem unbekannten Unbekannten einfordern. Und dazu gehören Imagination und Perspektivenflexibilität. Wer hätte gedacht, dass ein unbekanntes Virus so mir nichts dir nichts „aus der Wildnis“ auf den Menschen überspringt. Nun schlägt die postpostfaktische Realität in ihrer urwuchtigen Unerwartetheit zurück.

Donnerstag, 4. Juni 2020







NZZ, 30.5.2020

Gesucht: Künstliche Intelligenz mit Commonsense


Die jüngste Geschichte künstlich intelligenter (KI-) Systeme ist zweifellos beeindruckend. Mit den neuronalen Netzwerken und dem Maschinenlernen hat die Forschung einen entscheidenden Schritt in Richtung eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-, Mustererkennungsysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend hochgeschraubt sind die Erwartungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont die sogenannte Allgemeine Künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine Maschine mit „gesundem künstlichen Verstand“.

Erste, sozusagen infantile Formen probiert man ja zurzeit bei selbstfahrenden Autos aus. Die Artefakte beginnen zu lernen, sich an Situationen anzupassen, sie werden also wie die natürlichen Kreaturen adaptiv. Und damit bekommen wir es nicht bloss mit technischen Problemen zu tun, sondern auch mit philosophischen. Eines lautet: Was bedeutet es eigentlich, in Alltagssituationen mit Commonsense zu reagieren?

***

Die Frage beschäftigte schon Descartes. In einem berühmten Abschnitt seines „Discours“ spricht er von der Universalität der Vernunft, die sich in allen Lebenslagen zu behaupten weiss. Wenn Maschinen „auch viele Dinge ebensogut oder vielleicht besser als einer von uns machten,“ würden sie „doch unausbleiblich in einigen andere fehlen und dadurch zeigen (..), dass sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln. Denn während die Vernunft ein Universalinstrument ist, das in allen möglichen Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere Disposition haben, und deshalb ist es moralisch (praktisch, Anm. E.K) unmöglich, dass in einer Maschine verschiedene Organe genug sind, um sie in allen Lebensfällen so handeln zu lassen, wie unsere Vernunft uns zu handeln befähigt.“

Das sind frappant moderne Worte, und sie zielen genau auf den Kern der heutigen Problematik lernender Maschinen. Setzen wir für „Organ“ „neuronales Netz“ ein, und für „Disposition“ „Lernalgorithmus“, liest sich Descartes’ Text als Vorbehalt gegen einen künstlichen Commonsense. Lernende Maschinen werden nie „aus Einsicht“ handeln, weil ihr Bauprinzip keine universelle Vernunft ermöglicht. Bis dato sind Computer jedenfalls Idiots savants.
***

Computeringenieure würden Descartes entgegenhalten, dass sie ja gar nicht viele „Organe“ benötigen, sondern einen potenten Algorithmus plus eine immense, womöglich bereits vorstrukturierte Datenmenge, die er durchpflügen kann. Deep Learning funktioniert eigentlich nach überraschend einfachen Prinzipien, deshalb ist auch das Fernziel des künstlichen Commonsense „im Prinzip“ erreichbar.

Die Betonung liegt auf „Fern“. Bisher exzellierten die neuartigen künstlichen Systeme in Spielen , also in klar definierten Rahmen mit vorgegebenen Regeln und einem primären Ziel: Gewinnen. Ein selbstfahrendes Auto kann aber nicht einfach „gewinnen“. Sein Funktionieren hängt von zahlreichen Eventualitäten ab – vom pünktlichen Abliefern der Passagiere an der richtigen Destination, über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetterverhältnissen und Strassen­zuständen, bis zu Unwägbarkeiten wie unerlaubten Strassenüberquerungen von Fussgängern, nicht funktionierenden Ampeln, Staus oder Unfällen. Ein selbstfahrendes Auto hat zum Beispiel im Laufe seines Trainings unzählige Rotsignale registriert und in seinem neuronalen Netz so etwas wie ein „Konzept“ von Rot gespeichert. Unter normalen Bedingungen funktioniert das recht gut, aber immer wieder ist mit anormalen Situationen zu rechnen. Und wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen und womöglich fatalen Fehlklassifikation zu verleiten.

***

Genau diese Offenheit der realen Situation stellt bisher das grosse Hindernis auf dem Weg zur künstlichen Intelligenz mit Commonsense dar. Das mag ein weiteres Beispiel veranschaulichen. YouTube entwickelte einen Algorithmus mit der Vorgabe, die Zeit zu maximieren, die der Nutzer am Videoportal verbringt. Der Algorithmus bewerkstelligte dies, indem er Videos mit immer extremerem Content empfahl, nach dem Prinzip „upping-the-ante“: Erhöhe den Einsatz. Eine Nutzerin berichtet etwa, wie sie ein paar Videos über den Wahlkampf von Donald Trump anschaute, und daraufhin mit rassistischem, verschwörungstheoretischem und anderem anrüchigen Material überhäuft wurde. Der Algorithmus „interpretiert“ also seine Aufabe in höchst eigenwilliger, ja, sturer Weise, die zu nichtintendieren Effekten wie Radikalisierung und Polarisierung führt. Kaum ein Zeichen „gesunden“ Maschinenverstandes.

Die Designer suchen Abhilfe mit einem neuen Ansatz. Er stammt vom Computerwissenschafter Stuart Russell und nennt sich „humankompatible Maschinen“. Solche Maschinen fangen sozusagen bei null an. Statt ein vorgegebenes Ziel zu enkodieren und zu maximieren, lernen sie selbst, aus menschlichem Verhalten ein solches Ziel zu „dekodieren“ und das Verhalten anschliessend zu verbessern. „Inverses Verstärken“ nennt sich das. Daran knüpft sich die Erwartung, dass die Orientierung an menschlichem Verhalten die Maschine auch „kompatibler“ – mit mehr Commonsense - agieren lasse.

***

Die Skepsis bleibt. Erstens stellt sich die Frage, ob der Mensch sich als Vorbild für ein KI-System eignet. Er ist im Grunde kein logisches Wesen. Sein Verhalten speist sich aus einem dichten impliziten Netz von Erwartungen, Vorlieben, Meinungen, Motiven, das sich wohl kaum je vollständig in einem expliziten Formalismus entflechten lässt. Zweitens ändern sich unsere Vorlieben und Wünsche ständig, und zwar sind sie häufig nicht von „rational rekonstruierbaren“ Gründen geleitet, sondern von „irrationalen“ Stimmungen und Launen, die oft vage oder gar widersprüchlich sind. Und drittens: Was, wenn der Mensch sich im Tiefsten von „schlechten“ Gründen leiten lässt? Sollen die Maschinen dann lernen, diese Schlechtigkeit zu optimieren? Erfahrungen wie jene von YouTube und anderen „schändlichen“ Algorithmen nähren eine nicht eben optimistische Zukunftsvision.

Der gesunde Computerverstand wirft uns eigentlich auf die Urfrage zurück: Was heisst es, sich wie ein Mensch zu verhalten, ja, ein Mensch zu sein? Wir lernen zum Beispiel nicht auf die gleiche Weise wie KI-Systeme. Wir müssen nicht 10'000 Katzenbilder sehen, um daraus eine verlässliche Kategorie „Katze“ zu bilden. Eher entwickeln wir Erwartungshaltungen, wie die Dinge ablaufen könnten, und auf dieser Basis treffen wir Vorhersagen. Wir schliessen in unserer Wahrnehmung „natürlicherweise“ auf versteckte Partien eines Dinges, ohne entsprechende Daten darüber zu haben. Oder wir entwickeln eine Intuition für den Unterschied zwischen Korrelation und Kausalität. Der Regen ist nicht „Ursache“ dafür, dass die Leute den Schirm aufspannen; ihr Wunsch, trocken zu bleiben dagegen schon.

***

Es sind solche kognitiven Aspekte, die wesentlich zu unserem „gesunden“ Menschenverstand beitragen, sozusagen unser verkörpertes Geistigsein. Das beginnt nicht wenigen KI-Forschern zu dämmern. Kein Geringerer als Rodney Brooks vom MIT, Koryphäe auf diesem Gebiet, zog kürzlich eine Kernannahme des ganzen KI-Projekts in Zweifel: Womöglich stossen künstliche Systeme an eine Grenze der Komplexität, weil sie aus dem falschen Stoff bestehen. Das heisst, die Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen habe. Das Rätsel des menschlichen Geistes liegt in seiner „Inkarniertheit“.


Und deshalb wird die KI-Forschung ihr Augenmerk mehr auf diesen spezifischen Stoff legen müssen, aus dem wir gemacht sind. Sie wird biologischer denken müssen. Bereits beginnen die Robotiker mit Tierzellen zu experimentieren, die sich nach Vorgabe eines Programms entwickeln – „Xenoboter“. Hüten wir uns, hier voreilig ein Zukunftsszenario mit smarten „organoiden“ Geräten auszumalen. Fassen wir vielmehr das wirkliche Problem ins Auge. Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an. Das Problem sind also nicht superschlaue Maschinen, sondern subschlaue Menschen.

  Der «Verzehr» des Partners Kant und der aufgeklärte Geschlechtsverkehr Kant zeigte philosophisches Interesse nicht nur an Vernunft und Urt...