Mittwoch, 12. August 2020

Der faule Zauber der guten alten Zeit Schon früher war früher alles besser Der Mensch ist ein Geschichtenerzähler, und eine der ersten Geschichten ist wohl jene der guten alten Zeit. Wir kennen sie von Hesiods goldenem Zeitalter, von der islamischen Blütezeit, von der Zhou Dynastie des Konfuzius, dem hinduistischen Satya-Yuga-Weltalter, dem Garten Eden, von Grossmutters Kochtopf und Grossvaters Schuppen. Claude Lévi-Strauss erzählt in „Das Ro-he und Gekochte“ den Mythos der südamerikanischen Bororo. Die Leute lebten früher ohne Krankheit, Hunger, Zwist, bis ein Knabe die Sitten verletzte und sich weigerte, in der Männerhüt-te zu leben. Worauf ihm seine Grossmutter, während er schlief, wiederholt ins Gesicht furzte, was nun seinerseits eine Kette unheilvoller Ereignisse auslöste, die Leiden und Krankheiten unter den Menschen verbreiteten. Die implizite Botschaft: Wenn Kinder nur wie früher gehorchen würden, dann stünde alles zum Besten. Die Logik ist so alt wie die Jäger und Sammler der Jung-steinzeit, die vielleicht von stärkeren und gesünderen Vorfahren fabulierten, weil diese das Fleisch von grösseren Mammuts über dem Herdfeuer brieten. Schon früher war früher alles bes-ser. *** Der Mythos vom verlorenen Paradies, so hat der Märchenforscher Max Lüthi gezeigt, bietet das besänftigende Erzählmodell des Dreischritts von Ordnung zu Unordnung zu Ordnung. Er entsteht „wie von selber aus einem als Mangel empfundenen Zustand, und ebenso die Ausschau nach einem neuen, in der Zukunft liegenden Paradies (..) Schon dass etwas als Mangel empfunden werden kann, setzt ja die Vorstellung eines mangellosen Zustandes zwingend voraus,“ schreibt Lüthi. Mangel und Behebung des Mangels, das ist die Grundformel des Märchens. Politik braucht diese Grundformel auf weiten Strecken. Gerade in der globalen Dynamik, die althergebrachte Futterale der Identität auflöst, stellen heute viele Menschen Identitätsmangel fest, und diesen Mangel suchen sie mit Geschichten über eine fiktive Identität zu beheben, die sie früher zu haben glaubten, in ihrer Familie, Kultur, Religion, Nation. Dieses Phantasma einer reinen und homogenen Gruppe, in der man aufgehoben war, ist zugleich Balsam und Gift. Denn es braucht Schuldige für die Unordnung. Die Welt ist unordentlich geworden wegen all der frem-den Zuzügler in unseren einst so sauberen Gefilden. Die Schuld liegt aber nicht bei uns, denn man erinnere sich: Früher gab es bei uns nur uns. *** In Lüthis Schema passt auch sehr gut die Krisenbeschwörung. Je schlechter die Welt, in der man lebt, desto besser die Welt früher. „Wenn wir auf Amerika schauen, sehen wir Städte in Flammen und Rauch gehüllt. Wir hören Sirenen in der Nacht. Wir sehen Amerikaner auf fernen ausländi-schen Schlachtfeldern sterben. Wir sehen Amerikaner, die einander hassen, einander bekämpfen, einander zuhause töten. Und wenn sie diese Dinge sehen und hören, schreien Millionen von Amerikanern in Angst auf. Sind wir dafür den ganzen Weg gegangen?“ – Nein, die Worte stam-men nicht vom gegenwärtgen US-Präsidenten, sondern aus Richard Nixons Dankesrede 1968. Etwas gediegener hört sich diese Krisenbeschwörung im Intellektuellenjargon an, wenn von „Postdemokratie“ die Rede ist. Damit wird ja suggeriert, dass frühere Zeiten demokratischer waren, und mit diesem „Post“ nun eine neue Ära anbricht, die wenig Gutes verheisst. Das trifft durchaus punktuell zu, aber erstens meldet die Politikwissenschaft grosse Skepsis an. So schreibt etwa Jan Werner Müller in seinem Essay „Was ist Populismus?“ (2016): „Wie bei vielen ‚Post’-Begriffen ist die Grundidee desto plausibler, je weniger man über Geschichte weiss.“ Und zwei-tens ist das populistische Missbrauchsrisiko hoch, dass man nun Geschichtsklitterung betreibt und den Wähler mit der Stimmungsmache urdemokratischer Eintracht ködert. *** Die Rückwendung zur guten alten Zeit ist immer auch eine verdeckte Umwertung der Werte, wie wir sie bereits bei Rousseau, dann aber vor allem beim Altmeister Nietzsche beobachten. Nicht bloss aktuelle politische Zustände, sondern zivilisatorische Errungenschaften der Moderne wer-den aufs Korn genommen. An ihnen haftet auf einmal der Hautgout des Dekadenten, Schwä-chelnden, Verfallenden. Universelle Zivilisiertheit selbst – wie sie sich etwa in freiheitlichen und demokratischen Werten, in Menschenrechten und Objektivität ausdrückt - erscheint als dünner Film auf einem ursprünglichen und echten Menschsein, das sich vor allem über die Herkunft definiert. Zuerst die Genealogie – dann die Anthropologie. Zuerst das blutvolle Stammes-Wir, dann – wenn überhaupt - das blutleere Menschen-Wir. Nun verspüren wohl die meisten von uns gelegentlich ein Ziehen nach Zeiten, da vermeintlich alles übersichtlicher, unverdorbener, authentischer war. Dieses Weh (griechisch: álgos) nach dem Zuhause (griechisch: nóstos), wurde vom Schweizer Arzt Johannes Hofer 1688 in seiner „Disser-tatio Medica de Nostalgia oder Heimwehe“ als eine Krankheit definiert, eben als eine „Sucht“. Psychologen beginnen vermehrt die Sucht therapeutisch zu nutzen, indem sie zum Beispiel die Bedeutung der „goldenen Kindheit“ im Bilden des Selbstbewusstseins von Heranwachsenden hervorheben, oder eine Stabilisierung der Person bei Traumatisierten und Demenzkranken durch „nostalgische“ Wiederherstellung einer biographischen Kohärenz zu erreichen suchen. Aber ob pathologisch oder nicht, Nostalgie ist nicht harmlos. So erstaunt und beängstigt immer wieder die Überschussenergie, mit der dieses eher sanfte melancholische Gefühl in Agressivität und Brutalität umschlagen kann. Zum Beispiel in den Visionen einer unverdorbenen Natur. In den Köpfen von Ökofundamentalisten – etwa der Anhänger der „Earth First“-Bewegung - spukt die Phantasie eines vor-agrarischen Zustands von Jägern und Sammlern herum. Sie legitimieren ihre Aktionen nicht selten im Namen eines quasi-paradiesischen Umweltverhältnisses. Und in der Sicht einer solchen Naturordnung steht dann unversehens der Mensch als Paradieszerstörer da. Als zu entsorgender Unrat. *** Gewiss, es handelt sich um eine Minorität von Spinnern. Aber endgültig nicht harmlos wird die kollektive Nostalgie, wenn sie den Refrain „Machen wir die Welt, machen wir uns wieder gross!“ intoniert. Vorwärts zurück zu den alten Zuständen! Hier beginnt der faule Zauber vom Kopf her zu stinken. Hier mutiert der Mythos der guten alten Zeit zur infektiösen Falschheit, die unser intellektuelles Immunsystem angreift: eine Art von Aids im Geist. Leicht nutzen machtver-sesessene Propagandisten, vorwiegend in kriselnden Zeiten, diesen Immundefekt, um Sehnsüchte nach einem früheren „unverdorbenen“ Menschentypus zu schüren: nach dem Arier bei den Nazis, dem Arbeiter-Bauer-Soldat bei Pol Pot und Mao, dem superioren Weissen beim Klux Klux Klan. Hellsichtig weist der Theologe Reinhold Niebuhr bereits 1932 in seinem Buch „Moralischer Mensch und unmoralische Gesellschaft“ auf den gerade heute wieder vermehrt beobachtbaren Widerspruch zwischen Individual- und Kollektivmoral hin: „Die Frustrationen des Durch-schnittsmenschen, der nie die von ihm als Ideal vorgestellte Macht und Ehre erlangt, machen ihn zu einem umso willfährigeren Werkzeug und Opfer imperialer Gruppenansprüche. Der Befriedi-gungsgrad seiner enttäuschten individuellen Ambitionen wächst mit der Macht und Grösse seiner Nation.“ *** Das Irritierendste am Mythos der guten alten Zeit ist, dass wir ihm immer wieder auf den Leim kriechen – als halte uns ein Nostalgie-Modul im Hirn auf Dauersuche nach diesem Zustand. Die Frage bleibt: Warum lernen wir nicht aus der Geschichte? Ich habe eine simple Hypothese: Weil wir nicht lernen wollen; weil das Märchen von der guten alten Zeit ein patentes Lernverweige-rungsmittel ist. Es tröstet uns über die Frustrationen historischer Erfahrung hinweg. Es sediert den Realitätssinn. Dieses Wissen sitzt den politischen Frustrationsbewirtschaftern in den Einge-weiden. In schlechten Zeiten schenken wir diesen Maulhelden ungebührlich viel Gehör. Und wiederholen dumm-fröhlich die Fehler von früher.

Mittwoch, 24. Juni 2020







NZZ, 20.6. 2020

Die Ausnahme ist die Regel
Vom Risiko zur Ungewissheit – eine Revolution


Epidemien sind episodisch. Sie haben einen Anfang und ein Ende. Das verleitet zum Fehlschluss, dass nach dem Ende „alles vorbei ist“. Man könnte von der Illusion der fortgesetzten Normalität sprechen. Ich möchte diese Sichtweise sozusagen umstülpen: Der Normalfall ist ein kurzfristiger „glücklicher“ Zeitabschnitt in einer fortlaufenden Abfolge von nicht-normalen Ereignissen. Auf eine Formel gebracht: Die Ausnahme ist die Regel.  

***

Gemünzt auf hochtechnisierte Gesellschaften heisst das:  Das Epidemische - das „über das ganze Volk Verbreitete“ – ist nicht episodisch, sondern chronisch. Und dies aufgrund der komplexen Verkehrs-, Produktions-, Verteilungs-, Energieversorgungs-, Finanz-, Kommunikationsnetze. Je vernetzter ein System, desto anfälliger und leitfähiger wird es für die Ausbreitung lokaler Störungen. Es herrscht nicht die lineare Kausalität, sondern die Netzkaskade: die Störung verstärkt sich. Ein Virus bricht aus seiner ökologischen Nische aus und verursacht eine Pandemie; ein Baum fällt bei einem Gewitter auf eine elektrische Leitung und legt die Kommunikation eines Landesteils lahm; ein Bot infiziert das Internet der Dinge und die Dinge spielen verrückt. Hohe Vernetztheit bedeutet auch hohe Verletzlichkeit. Zu dieser Verletztlichkeit gehört unsere Ungewissheit angesichts von Situationen, wie wir sie gerade in der Pandemie erleben. Hier haben wir es mit zwei Fragedimensionen zu tun, einer biologisch-epidemiologischen und einer soziologisch-politischen: Was wissen wir über das Virus und seine Verbreitungswege? Und: Was wissen wir über die gesellschaftlichen Kollateralfolgen der Pandemie?  

***

Mit Ungewissheit beschäftigt sich die Wahrscheinlichkeitstheorie, ein formidables Denkwerkzeug. Sein Axiom lautet: Unser Wissen ist „riskant“, im Sinne von unvollständig und ungewiss. In zahlreichen Disziplinen – zum Beispiel in Betriebsökonomie, Kerntechnologie, Chemie, Pharmakologie – hat sich das Risikokalkül eingebürgert. Kalkül mit dem Ungewissen – das klingt nach einem hölzernen Eisen. Aber wie der Mathematiker Ivar Ekeland bemerkt, „müssen wir uns eingestehen, dass ein einziges vernachlässigtes oder unbemerktes Risiko die ganze Verlässlichkeit einer Berechnung ausser Kraft setzen kann, die auf bekannten Risiken beruht.“ Das Risiko existiert also immer, dass Risikoabschätzungen falsch sind.
Um nochmals auf die Illusion der fortgesetzten Normalität zurückzukommen. Sie beruht auf dem sogenannten „Truthahn-Fehlschluss“. Ein Truthahn wird gefüttert. Er leitet daraus induktiv die Regel ab: Wenn ich an diesem Tag Futter kriege, dann auch am nächsten Tag. Die Wahrscheinlichkeitsrechnung demonstriert, dass die Chance, nicht geschlachtet zu werden, mit jedem Tag steigt und schliesslich fast Gewissheit annimmt. Nur rechnet der Truthahn nicht mit dem Thanksgiving Day. Beinahe hundertprozentig gewiss erwartet er am Vortag Futter und gerät am nächsten Tag mit Gewissheit unter das Messer. Anthony Fauci, einer der bestausgewiesenen Virologen, sagte am 26. Januar, das Coronavius stelle „ ein sehr, sehr geringes Risiko für die USA“ dar. Er war ein Truthahn. Lernte allerdings schnell.

***

Das Risko ist Ungewissheit unter einem bekannten Gesichtspunkt der Informiertheit. Man kennt das Spektrum der erwartbaren Ereignisse, macht Annahmen über sie und versieht sie mit entsprechenden Wahrscheinlichkeiten. Genau das ist die Aufgabe von Modellen. Sie stecken den Horizont des Möglichen ab. Ungewissheit herrscht dann, wenn dieser Horizont diffus ist, die Einschätzung einer Situation nach mehreren – möglicherweise unbekannten - Gesichtspunkten verlangt, wenn also das Spektrum der möglichen Ereignisse (auch von extremen) nicht völlig bekannt ist. Der Truthahn kennt nur die Möglichkeit des Gefüttertwerdens, was ihn in der fatalen eindimensionalen Gewissheit eines risikolosen Lebens wiegt.

Der Ungewissheit lässt sich keine Kennzahl – eine Wahrscheinlichkeit – zuordnen, aber deswegen ist sie nicht weniger ernst zu nehmen. Der Wahrscheinlichkeitskalkül ist heute unverzichtbar, auch deshalb, weil er auf massive Datenevidenz abstellen kann. Es handelt sich hier um „bekannte Unbekannte“, also um herkömmliche Risikofaktoren. Man weiss, wonach man fragt: etwa nach der Prävalenz einer Krankheit in einer Bevölkerungsgruppe, der Letalitätsrate, den dominanten Übertragungswegen und so weiter. Aber Datenevidenz genügt nicht. Wir bekommen es zusehends mit der anderen, unbequemeren Sorte von Ungewissheit zu tun, mit dem „unbekannten Unbekannten“ ausserhalb des Spektrums des Erwartbaren, also mit dem Thanksgiving Day für den Truthahn.  

***

Risikoanalysen reduzieren Ungewissheit auf das Erwartbare. Dabei lehrt uns die akute Lage eher das Gegenteil: die Beinahe-Gewissheit des Unerwarteten. Was für den Truthahn der Thanksgiving Day, ist für uns das neue Coronavirus. In in einer realen Problemsituation lauern stets Thankgiving Days - wir vermehren die günstigen Bedingungen ihres Auftretens durch zunehmend fragilere Interaktionen.

Nun vernehmen wir allerdings den lauter werdenden Ruf nach wissenschaftsbasierten Entscheiden, nach dem verlässlichen, untrüglichen Fachurteil, und zwar idealerweise als eindeutiger Handlungsanweisung.  

Ein gefährlicher Irrtum, aus zwei Gründen. Erstens lassen sich Wissenschafter berufsmässig von bestimmten Paradigmen leiten, und sie neigen oft dazu, die Probleme exklusiv nach ihrem Paradigma zu modellieren – wodurch dieses sich zu einem kognitiven blinden Fleck entwickeln kann. Und wenn das individuelle Expertenurteil kaum grossen Spielraum für Zweifel und Ambiguität offen lassen mag, so erweist sich dieser Spielraum im Expertenkollektiv als erstaunlich weit. Ein wissenschaftsbasierter eindeutiger Entscheid ist ein hölzernes Eisen.

Das wirft zweitens ein akutes Licht auf die Politik. Wissenschafter sehen sich oft gerade in Krisensituationen dazu verführt oder gedrängt, trotz fehlenden Konsenses ein eindeutiges Urteil abzugeben, was darauf hinausläuft, „gegen aussen“ einen Pseudokonsens zu mimen. Nun ist aber eine politische Krise keine rein wissenschaftliche Problemsituation. Wenn ein Politiker mit dem Anspruch auftritt, seine Entscheide allein „wissenschaftsbasiert“ zu treffen, dann verhehlt er, dass in seine Entscheide immer auch noch „etwas anderes“ geflossen ist: ideologische Voreingenommenheit, Druck von Interessegruppen, persönliches Verständnis bzw. Unverständnis der Lage – kurz: „etwas anderes“ entpuppt sich als exakt das, wofür sich der Politiker zu verantworten hat.

***


Dies alles spricht weder gegen Fachurteile und Risikoabschätzungen, noch gegen die stets raffiniertere Diagnose-  und Prognosetechnologie. Wir müssen sie nur in einer neuen Problemkonstellation sehen, das heisst, die meisten drängenden Probleme als irreduzible Ungewissheiten anerkennen. Dazu muss man das Unkalkulierbare und Mehrdeutige von Situationen wahrnehmen können, alternative Szenarien gegen „Sachzwänge“ aufwerten, ein Was-wäre-wenn-Denken kultivieren. Nicht bloss die disziplinäre Exzellenz von Spezialisten ist gefragt, sondern die transdisziplinäre Virulenz von Generalisten. Wir brauchen „Igel“, die über eines sehr viel wissen, als auch „Füchse“, die über sehr viel einiges wissen. Wir brauchen Navigation auf Sichtweite und Visionen über das Sichtbare hinaus. Das SARS-Virus ist den Wissenschaftern schon seit einiger Zeit bekannt. Sie können sein Genom lesen. Nur eines fehlt: der Gedanke, dass darin Ungelesenes schlummert. Extrem Unwahrscheinliches geschieht ständig. Man muss es sich nur vorstellen können. Wäre der Ausdruck nicht derart abgegriffen, würde ich so etwas wie Ungewissheits-Kompetenz vor dem unbekannten Unbekannten einfordern. Und dazu gehören Imagination und Perspektivenflexibilität. Wer hätte gedacht, dass ein unbekanntes Virus so mir nichts dir nichts „aus der Wildnis“ auf den Menschen überspringt. Nun schlägt die postpostfaktische Realität in ihrer urwuchtigen Unerwartetheit zurück.

Donnerstag, 4. Juni 2020







NZZ, 30.5.2020

Gesucht: Künstliche Intelligenz mit Commonsense


Die jüngste Geschichte künstlich intelligenter (KI-) Systeme ist zweifellos beeindruckend. Mit den neuronalen Netzwerken und dem Maschinenlernen hat die Forschung einen entscheidenden Schritt in Richtung eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-, Mustererkennungsysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend hochgeschraubt sind die Erwartungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont die sogenannte Allgemeine Künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine Maschine mit „gesundem künstlichen Verstand“.

Erste, sozusagen infantile Formen probiert man ja zurzeit bei selbstfahrenden Autos aus. Die Artefakte beginnen zu lernen, sich an Situationen anzupassen, sie werden also wie die natürlichen Kreaturen adaptiv. Und damit bekommen wir es nicht bloss mit technischen Problemen zu tun, sondern auch mit philosophischen. Eines lautet: Was bedeutet es eigentlich, in Alltagssituationen mit Commonsense zu reagieren?

***

Die Frage beschäftigte schon Descartes. In einem berühmten Abschnitt seines „Discours“ spricht er von der Universalität der Vernunft, die sich in allen Lebenslagen zu behaupten weiss. Wenn Maschinen „auch viele Dinge ebensogut oder vielleicht besser als einer von uns machten,“ würden sie „doch unausbleiblich in einigen andere fehlen und dadurch zeigen (..), dass sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln. Denn während die Vernunft ein Universalinstrument ist, das in allen möglichen Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere Disposition haben, und deshalb ist es moralisch (praktisch, Anm. E.K) unmöglich, dass in einer Maschine verschiedene Organe genug sind, um sie in allen Lebensfällen so handeln zu lassen, wie unsere Vernunft uns zu handeln befähigt.“

Das sind frappant moderne Worte, und sie zielen genau auf den Kern der heutigen Problematik lernender Maschinen. Setzen wir für „Organ“ „neuronales Netz“ ein, und für „Disposition“ „Lernalgorithmus“, liest sich Descartes’ Text als Vorbehalt gegen einen künstlichen Commonsense. Lernende Maschinen werden nie „aus Einsicht“ handeln, weil ihr Bauprinzip keine universelle Vernunft ermöglicht. Bis dato sind Computer jedenfalls Idiots savants.
***

Computeringenieure würden Descartes entgegenhalten, dass sie ja gar nicht viele „Organe“ benötigen, sondern einen potenten Algorithmus plus eine immense, womöglich bereits vorstrukturierte Datenmenge, die er durchpflügen kann. Deep Learning funktioniert eigentlich nach überraschend einfachen Prinzipien, deshalb ist auch das Fernziel des künstlichen Commonsense „im Prinzip“ erreichbar.

Die Betonung liegt auf „Fern“. Bisher exzellierten die neuartigen künstlichen Systeme in Spielen , also in klar definierten Rahmen mit vorgegebenen Regeln und einem primären Ziel: Gewinnen. Ein selbstfahrendes Auto kann aber nicht einfach „gewinnen“. Sein Funktionieren hängt von zahlreichen Eventualitäten ab – vom pünktlichen Abliefern der Passagiere an der richtigen Destination, über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetterverhältnissen und Strassen­zuständen, bis zu Unwägbarkeiten wie unerlaubten Strassenüberquerungen von Fussgängern, nicht funktionierenden Ampeln, Staus oder Unfällen. Ein selbstfahrendes Auto hat zum Beispiel im Laufe seines Trainings unzählige Rotsignale registriert und in seinem neuronalen Netz so etwas wie ein „Konzept“ von Rot gespeichert. Unter normalen Bedingungen funktioniert das recht gut, aber immer wieder ist mit anormalen Situationen zu rechnen. Und wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen und womöglich fatalen Fehlklassifikation zu verleiten.

***

Genau diese Offenheit der realen Situation stellt bisher das grosse Hindernis auf dem Weg zur künstlichen Intelligenz mit Commonsense dar. Das mag ein weiteres Beispiel veranschaulichen. YouTube entwickelte einen Algorithmus mit der Vorgabe, die Zeit zu maximieren, die der Nutzer am Videoportal verbringt. Der Algorithmus bewerkstelligte dies, indem er Videos mit immer extremerem Content empfahl, nach dem Prinzip „upping-the-ante“: Erhöhe den Einsatz. Eine Nutzerin berichtet etwa, wie sie ein paar Videos über den Wahlkampf von Donald Trump anschaute, und daraufhin mit rassistischem, verschwörungstheoretischem und anderem anrüchigen Material überhäuft wurde. Der Algorithmus „interpretiert“ also seine Aufabe in höchst eigenwilliger, ja, sturer Weise, die zu nichtintendieren Effekten wie Radikalisierung und Polarisierung führt. Kaum ein Zeichen „gesunden“ Maschinenverstandes.

Die Designer suchen Abhilfe mit einem neuen Ansatz. Er stammt vom Computerwissenschafter Stuart Russell und nennt sich „humankompatible Maschinen“. Solche Maschinen fangen sozusagen bei null an. Statt ein vorgegebenes Ziel zu enkodieren und zu maximieren, lernen sie selbst, aus menschlichem Verhalten ein solches Ziel zu „dekodieren“ und das Verhalten anschliessend zu verbessern. „Inverses Verstärken“ nennt sich das. Daran knüpft sich die Erwartung, dass die Orientierung an menschlichem Verhalten die Maschine auch „kompatibler“ – mit mehr Commonsense - agieren lasse.

***

Die Skepsis bleibt. Erstens stellt sich die Frage, ob der Mensch sich als Vorbild für ein KI-System eignet. Er ist im Grunde kein logisches Wesen. Sein Verhalten speist sich aus einem dichten impliziten Netz von Erwartungen, Vorlieben, Meinungen, Motiven, das sich wohl kaum je vollständig in einem expliziten Formalismus entflechten lässt. Zweitens ändern sich unsere Vorlieben und Wünsche ständig, und zwar sind sie häufig nicht von „rational rekonstruierbaren“ Gründen geleitet, sondern von „irrationalen“ Stimmungen und Launen, die oft vage oder gar widersprüchlich sind. Und drittens: Was, wenn der Mensch sich im Tiefsten von „schlechten“ Gründen leiten lässt? Sollen die Maschinen dann lernen, diese Schlechtigkeit zu optimieren? Erfahrungen wie jene von YouTube und anderen „schändlichen“ Algorithmen nähren eine nicht eben optimistische Zukunftsvision.

Der gesunde Computerverstand wirft uns eigentlich auf die Urfrage zurück: Was heisst es, sich wie ein Mensch zu verhalten, ja, ein Mensch zu sein? Wir lernen zum Beispiel nicht auf die gleiche Weise wie KI-Systeme. Wir müssen nicht 10'000 Katzenbilder sehen, um daraus eine verlässliche Kategorie „Katze“ zu bilden. Eher entwickeln wir Erwartungshaltungen, wie die Dinge ablaufen könnten, und auf dieser Basis treffen wir Vorhersagen. Wir schliessen in unserer Wahrnehmung „natürlicherweise“ auf versteckte Partien eines Dinges, ohne entsprechende Daten darüber zu haben. Oder wir entwickeln eine Intuition für den Unterschied zwischen Korrelation und Kausalität. Der Regen ist nicht „Ursache“ dafür, dass die Leute den Schirm aufspannen; ihr Wunsch, trocken zu bleiben dagegen schon.

***

Es sind solche kognitiven Aspekte, die wesentlich zu unserem „gesunden“ Menschenverstand beitragen, sozusagen unser verkörpertes Geistigsein. Das beginnt nicht wenigen KI-Forschern zu dämmern. Kein Geringerer als Rodney Brooks vom MIT, Koryphäe auf diesem Gebiet, zog kürzlich eine Kernannahme des ganzen KI-Projekts in Zweifel: Womöglich stossen künstliche Systeme an eine Grenze der Komplexität, weil sie aus dem falschen Stoff bestehen. Das heisst, die Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen habe. Das Rätsel des menschlichen Geistes liegt in seiner „Inkarniertheit“.


Und deshalb wird die KI-Forschung ihr Augenmerk mehr auf diesen spezifischen Stoff legen müssen, aus dem wir gemacht sind. Sie wird biologischer denken müssen. Bereits beginnen die Robotiker mit Tierzellen zu experimentieren, die sich nach Vorgabe eines Programms entwickeln – „Xenoboter“. Hüten wir uns, hier voreilig ein Zukunftsszenario mit smarten „organoiden“ Geräten auszumalen. Fassen wir vielmehr das wirkliche Problem ins Auge. Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an. Das Problem sind also nicht superschlaue Maschinen, sondern subschlaue Menschen.

Freitag, 8. Mai 2020







NZZ, 2.5.2020

Das Coronoptikum
Die Tücken der panoptischen Technologie


In exemplarischer Schärfe führt uns die Coronakrise die fundamentale Herausforderung einer liberalen Demokratie vor: das Virus-Trilemma. Wir können zwischen drei Optionen A, B und C entscheiden; wobei die Wahl von je zwei Optionen sich nicht mit der dritten verträgt. Im gegenwärtigen Krisenfall lautet die Option A: Ansteckungs- und Todesrate minimieren; Option B:  Das Wirtschaftsleben so wenig wie möglich einschränken; Option C: „Illiberale“ Massnahmen treffen, indem man bürgerliche Freiheiten beschneidet. Westliche Demokratien tendieren zu Optionen A und B, schrecken vor Option C zurück. Denn ein Übermass an staatlicher Intervention widerspricht der liberalen Grundidee.

Wir beobachten gegenwärtig, wie ostasiatische Länder das Trilemma anders zu lösen versuchen, mit dem Hauptgewicht auf Option C: Gesundheits-Überwachung auf Kosten bürgerlicher Freiheiten. Und Befürchtungen werden laut, dass wir uns der ostasiatischen Situtation annähern; dass wir uns auch unter demokratischen Regimes schliesslich mit dieser demokratie-inkonsistenten Option abgegeben müssen. Einige wittern im Lockdown und Social Distancing bereits Kontrollgelüste staatlicher Institutionen im Namen des Notstandes.

***

Option C reanimiert eine Idee des 19. Jahrhunderts: das Panoptikum. Der Philosoph Jeremy Bentham verlieh ihr in einer Architektur des zentralen Kontrollblicks Gestalt, der jede Ecke und Nische ausleuchtet, in Gefängnis, Spital, Fabrik, Schule. Das Panoptikum von heute braucht keine Architektur. Es nennt sich Internet der Dinge. In ihm überwachen wir uns selbst. Wir tragen Technologie –  „Wearables“ - , die das Monitoring perfektioniert. All die smarten Geräte tun vor allem eines: sie senden unausgesesetzt Daten in die unsichtbare Cloud, die uns als eine elektronische Atmosphäre umhüllt.

Ein normales Handy weist heute zahlreiche Sensoren auf, welche das permanente Tracking und Tracing der Nutzerwege erlauben. Wir rüsten uns mit einem künstlichen Sensorium aus, das sich zweifellos als hilfreich herausstellen kann, gerade in einer Situation der Epidemie. Zu ihrem Hauptcharakteristikum gehört ja die Ungewissheit: Welche Personen sind angesteckt, welche weiteren haben sie angesteckt, in welchem Mass und in welchen Gruppen ist die Ansteckung fortgeschritten? Fragen, die einen panoptischen Blick durchwegs rechtfertigen. Die Entwicklung des künstlichen Sensoriums baut auf die Rechenstärke der Computer; und die ist enorm.

Das weckt latente Begehrlichkeiten. In dem Masse, in dem die Kontroll- und Test-Technologie besser und billiger wird, bietet sie sich Wissenschaftern und Politikern als probates Mittel an, das datifizierte Verhalten des Bürgers für eine präzise epidemiologische Kartierung zu nutzen. Das Englische kennt bereits den Ausdruck „Coronopticon“. In Singapur, Taiwan oder Südkorea lassen sich die Spuren „viraler“ Mitbürger verfolgen. Man kann auf dem Handy Warnungen empfangen, wenn ein „Verdachstfall“ in der Umgebung auftaucht. Wie gesagt: Die fernöstlichen Massnahmen sind nicht so fern, dass sie uns im Westen nichts angingen. Über biometrische Erfassung im Namen nationaler Sicherheit wird auch in Europa - zumal in der Schweiz - diskutiert. Allenthalben entwickeln Softwaredesigner Apps, welche den Handynutzer aufrufen, Daten über sein Verhalten zu liefern. Vorerst noch freiwillig. Und was, wenn die Situation gebietet, diese Freiwilligkeit aufzugeben? Wer gebietet eigentlich darüber, was die Situation „gebietet“? Die Exekutive, die Experten, das Zentralkomitee?

***

Solche Fragen suggerieren immer Dramatis personae, die im Hintergrund die Fäden ziehen. Aber dieses Bild ist zu einseitig, zu anthropozentrisch. Es blendet ein Problem aus, das in der Technologie selbst steckt, und heute schon imminent ist. Der amerikanische Technikphilosoph Langdon Winner hat es 1980 – noch vor dem Internet - in eine allgemeinere Frage gekleidet: Do Artifacts Have Politics? Gibt es Technologien, die durch ihre Natur und durch die Bedingungen ihres Funktionierens die sozialen und politischen Formen um sie „diktieren“? Platon brauchte das Bild des Schiffs als eines Artefakts, das eine hierarchische soziale Form vorgibt. Eine „liberale“ Ordnung auf dem Schiff führt es nicht durch stürmische See. Auf analoge Weise führt auch eine Demokratie nicht durch die unruhigen Gewässer einer Epidemie. Es braucht einen Kapitän, einen Offiziersstab und klare Unterstellungsverhältnisse.

Sind also hypertechnisierte Gesellschaften „Schiffe“, die demokratische Verhältnisse schlecht vertragen, und zwar nicht bloss im Ausnahmefall eines Sturms, sondern auch im Normalfall ruhigeren Gewässers? Bewegen wir uns unabwendbar auf Option C zu, vor allem, wenn man mit weiteren  Pandemien – ohnehin mit katastrophischen Ereignissen - zu rechnen hat?

Schaut man genauer hin, sieht man, dass die Technologie des Panoptikums sich bereits als Normalfall eingebürgert hat. Man spricht viel von „Digital Health“, Selbst-Monitoring um seiner Gesundheit willen. Dabei sollte man hellhörig sein, denn Gesundheit wird unter der Hand häufig betriebsökonomisch definiert, also im Sinne einer Lebensführung als „Best Practice“. Hinzu kommt etwas anderes. Die neuen Technologien, die man ja meist in offizieller Diktion „zum Besten“ des Nutzers einsetzt, entwickeln inoffiziell eine nichtintendierte Eigendynamik. Bekanntlich verhalte ich mich anders, wenn ich beobachtet werde, ja, sogar schon, wenn ich mich beobachtet fühle. Tracking und Tracing machen im Endeffekt aus dem Nutzer einen humanen Fortsatz des technischen Beobachtungssystems.

Selbstverständlich kann ich mir das so zurechtlegen, dass ich genauer Buch über meine persönlichen „Rekorde“ führen möchte. Auf den zweiten Blick entpuppt sich dieses „Bio-Enhancement“ als nicht so harmlos. Man sieht sich immer weniger mit eigenen Augen, immer mehr mit den „Augen“ des Geräts. Es emanzipiert sich vom Benutzer, je smarter es wird, und es nimmt unser Ureigenstes, unseren Körper, in normativen Beschlag. Die Biodaten, die es mir liefert, informieren mich nicht nur über meinen Ist-Zustand, sondern über meinen Soll-Zustand. Wenn ich täglich Blutdruck, Puls, Cholesterinspiegel überprüfe, geschieht dies im Hinblick auf eine Vorgabe. Die Vorgabe kann von mir selber stammen. Zunehmend wahrscheinlicher ist aber, dass ich mich unmerklich den Vorgaben angleiche, welche von den „Wearables“ diktiert werden. Genau das bezweckt „autonome Technologie“. Die Designer bauen nicht Geräte, sondern Gewohnheiten. Gewohnheiten üben auch einen normativen Druck aus. Ein Teil der Computertechnologie entwickelt sich zur „Captology“, sie sucht den Nutzer via Artefakte zu einem bestimmten Verhalten zu beeinflussen (CAPT: „Computers As Persuasive Technologies“).

***


Ohne hier nun über technologischen Paternalismus zu menetekeln, scheint mir der kritische Blick auf das Potenzial einer panoptischen Technologie notwendig zu sein. Sie kann sich vom Ausnahmezustand der Pandemie loslösen und über sie hinaus die Politik des Normalzustands nachhaltig prägen. Im Hinterhalt lauert die Verführung, „Infektion“ einfach umzudefinieren. Wenn man restriktive bis repressive Sanktionen um der Gesundheit eines Volkskörpers willen legitimiert, warum sollte man dies nicht auch um der „Gesundheit“ eines politischen Systems willen tun können? In Orwellschem Neusprech liesse sich dann sagen: Sicherheit ist gleich Gesundheit. Wer die Sicherheit eines Systems in Frage stellt, stellt dessen Gesundheit in Frage, sprich: ist ein politisches Virus. Kritik des Regimes erscheint dann als „pathogen“ und „virulent“, und provoziert adäquate „Prophylaxe“ und „Therapie“. Sind viele Bürger unzufrieden mit dem Regime, handelt es sich um eine „Epidemie“. Dann schickt man eine Armee von Tracking-Detektiven zur Identifizierung von „infizierten“ kritischen Bürgern los. Das ist die Logik der Ausweitung der Ausnahmezone. Der politische Autoritarismus hat sie bereits für sich entdeckt. Treffen wir hier eine bessere Vorsorge als bei der Coronapandemie.