Donnerstag, 16. August 2018

Durchgeknallte Algorithmen






Aargauer Zeitung, 11.8.2018

Carl Gustav Jung sagte einmal sinngemäss, in jedem normalen Menschen schlummere ein wahnsinniger. Der Wahnsinn ist quasi ein nicht auszuschliessender Zustand unserer neuronalen Apparatur – technisch ausgedrückt: ein Defekt oder „Bug“ im System. Jungs Aussage lässt sich genereller so formulieren: Jedes funktionierende System hat sein Nicht-Funktionieren, möglicherweise seinen Kollaps, eingebaut.

Auch Algorithmen. Im Fokus steht gegenwärtig der Typus des neuronalen Netzes. Es weist eine im Grunde simple Architektur auf. Verarbeitungseinheiten („Neuronen“) sind netzartig miteinander verschaltet, und zwar bilden sie eine geordnete Hierarchie von Schichten. Sie können dressiert werden, einen Input in einen geforderten Output umzuwandeln, indem das System durch einen Lernalgorithmus die Verknüpfungen („Synapsen“) zwischen den „Neuronen“ ständig neu justiert. Lässt man es zum Beispiel eine Zeitlang über eine riesige Pixelmenge laufen, „erkennt“ es Katzenbilder oder kategorisiert Menschen. Schon an dieser Stelle seien zwei Punkte hervorgehoben. Erstens erkennt das System überhaupt nichts, sondern zeigt ein Verhalten, das wir unter Menschen als Erkennen bezeichnen. Und zweitens funktioniert unser Hirn nicht auf diese Weise, weshalb der Begriff des neuronalen Netzes letztlich eine Irreführung ist.

***

Aber abgesehen davon kann man sich trotzdem fragen, ob künstliche Systeme von einem bestimmten Komplexitätsgrad an einen Zustand der „Gestörtheit“ riskieren. Dass Programme Zeichen der „Anomalität“ manifestieren, erfuhr man zum Beispiel bei Alpha Go, das 2016 den Grossmeister Lee Sedol schlug. Alpha Go „lernte“ aus einer Unzahl von Positionen und Zügen selber Stragegien zu entwickeln, die Go-Spieler und Computerwissenschafter gleichermassen verblüfften. Das Agieren von Alpha Go war zum Teil kaum nachvollziehbar, machte einen geradezu „gestörten“ Eindruck. Das heisst, der Computer führte Züge durch, die man unter Menschen als sehr unorthodox taxiert. Nun mag es als voreiliger Anthropomorphismus erscheinen, der Maschine aufgrund eines ungewöhnlichen Verhaltens gleich „Gestörtheit“ zu unterstellen, dennoch lohnt es sich, die Tendenz, die sich darin abzeichnet, etwas weiter zu verfolgen.

***

Erstens gibt es Probleme, die aus der Struktur der Trainingsdaten erwachsen. Füttern wir künstliche Systeme mit menschlichen Daten, dann sind solche Daten „kontaminiert“ mit menschlichen Gestörtheiten - Vorurteilen und kognitiven Bias. Das zeigt eine Studie in der Zeitschrift „Science“ aus dem Jahr 2017: Algorithmen lernen aus entsprechenden News Feeds fast über Nacht rassistische oder sexistische Voreingenommenheiten und andere Gemeinheiten. Wie die Leiterin der Studie, Aylin Caliskan von der Princeton University, schreibt: „Viele Leute glauben, Maschinen seien nicht voreingenommen. Aber Maschinen werden auf menschlichen Daten trainiert. Und Menschen sind immer voreingenommen.“

Die wohl grösste Kloake des Vorurteils, Hasses, Bullshits, Extremismus’ sind die sozialen Medien. Lässt man Algorithmen darin „fischen“, nehmen sie schnell hässliche Untugenden an. Der Twitter-Chatbot Tay wurde 2016 konzipiert, Menschen zu unterhalten und zu beschäftigen. Tay lernte schnell, wie das zu erreichen war – durch rassistische Bemerkungen. Algorithmen kennen keinen Anstand, keine Moral, sie potenzieren in dieser Hinsicht die negativen Seiten des Menschen. Sie neigen zu Klischees, Beleidigungen, ungeprüften Meinungen, sie verkörpern das schlimmste intellektuelle Defizit des Menschen: Inkompetenz in der Erkennung eigener Inkompetenz.

***

Zweitens gibt es Probleme, die in die Architektur der Algorithmen eingebaut sind. Man muss sich dies bei neuronalen Netzwerken so vorstellen, dass der Designer mit zunehmender Schichttiefe immer weniger Einblick hat in das, was „drinnen“ im Einzelnen vor sich geht. Er kann Schwachstellen nicht direkt angehen, sondern das System quasi nur noch „von aussen“, über sein Verhalten kontrollieren. Defekte in traditionellen Programme liessen und lassen sich zumindest im Prinzip „von innen“ beheben, dadurch, dass man auf den Quellcode zugreift, und in ihm nach dem entsprechenden Bug sucht. Bei einem neuronalen Netzen ist das kaum noch möglich. Wenn es also eine „Gestörtheit“ zeigt, dann muss man versuchen, es zum Beispiel durch neues Datenmaterial zu „therapieren“.

Zwei solche Defekte sind „katastrophisches Vergessen“ und Überanpassung. Neuronale Netze können alte Infornationen vergessen, wenn sie neue „lernen“. Das Problem sähe beim Menschen so aus: Ich lerne den Namen eines neuen Kollegen, im gleichen Zug vergesse ich aber, wo ich wohne. Dieses Vergessen stellt eine ernsthafte Quelle des Fehlverhaltens von Algorithmen dar. Im Extremfall ist das System völlig paralysiert.
Überanpassung liegt dann vor, wenn der Algorithmus zuviel Unzusammenhängendes korreliert, was natürlich bei den immensen Datenmengen nicht selten der Fall ist. Ein spektakulärer Fall ist jener von Google Flu, eines algorithmischen Frühwarnsystems für die zeitliche und örtliche Ausbreitung von Epidemien. Die Datenbasis bilden Suchanfragen von Googlenutzern, in denen das Wort „Grippe“ („flu“ = „influenza“) vorkommt. Wo und wann erfolgten diese Anfragen? Der Algorithmus suchte das Vorkommen des Wortes „flu“ mit Orten und Zeiten der Anfragen zu korrelieren, um daraus ein schnelles Bild der Verbreitung zu erstellen. Anfänglich klappte dies erstaunlich gut. Aber dann häufte sich immer mehr irrelevantes Datenmaterial, und die Prognosen wurden unzuverlässiger. Datenmist erzeugt mehr Datenmist. Algorithmen können Weltbilder ohne kausale Kohärenz fabrizieren. Menschen, die so etwas tun, nennt man Paranoiker. 

***

Ein drittes Problem liegt darin, dass alltagstaugliche Algorithmen auch mit den normalen Unwägbarkeiten des Alltags zurande kommen sollten – also quasi einen „gesunden“ Maschinenverstand entwickeln müssen. Ein selbstfahrendes Auto hat mit zahlreichen Eventualitäten zu rechnen – vom pünktlichen Abliefern der Passagiere an der richtigen Destination, über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetter, Lichtverhältnissen, Strassen­zuständen, bis zu unerlaubten Strassenüberquerungen von Fussgängern, Staus oder Unfällen. Der Algorithmus eines selbstfahrenden Autos muss also im Laufe seines Trainings eine Fülle von solchen Eventualitäten lernen, aber damit wird er noch nicht alltagstauglich. Das grosse Hindernis liegt darin, dass Alltagssituationen ein Gestrüpp von Normalitäten und Abweichungen sind. Die Robustheit des menschlichen Commonsense zeigt sich gerade an der flexiblen Reaktion auf Abweichungen von der Normalität. Mit einer solchen Robustheit dürfte es bei selbstfahrenden Autos nicht weit her sein. Wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen Fehlklassifikation zu verleiten. Er „halluziniert“ dann. Man stelle sich vor, ein selbstfahrendes Auto „halluziniere“ ein Rotsignal unter ungewöhnlichen Lichtverhältnissen als grün.

***


Ein viertes Problem gewinnt hier Gestalt. Immer mehr Algorithmen knüpfen unser soziales Gewebe. Konsumverhalten, Kommunikation, Partnersuche, polizeiliche Überwachung von Städten, Militäroperationen, Finanztransaktionen, medizinische Diagnosen, das Kategorisieren von Banken- und Versicherungskunden oder von Straftätern – überall sind Algorithmen eingestreut und mischen sich heimlich in das Geschäft des Entscheidens ein. Dabei werden wir in Zukunft wahrscheinlich mit immer „unbegreiflicheren“ Algorithmen zu tun haben. Wenn die Algorithmen auf eine Weise agieren, die uns nicht mehr verständlich ist, dann entziehen sich logischerweise auch ihre Defekte unserem Verständnis. Wir wären dann mit einer neuartigen Ätiologie maschineller Gestörtheiten konfrontiert. Man muss sich vorstellen, dass die Maschine selber überhaupt keinen Begriff davon hat, gestört zu sein. Sie agiert einfach. Auch über den Weltuntergang hinaus.

Donnerstag, 9. August 2018

Wird auch die Physik postfaktisch?







NZZ, 3.8.2018

Der Streit um das Multiversum

Seit einiger Zeit schon steht die Idee des Multiversums im Brennpunkt heftiger physikalischer Debatten. Sie ist im Grunde alt, und sie resultiert aus einer fortgesetzten Provinzialisierung der menschlichen Position im Kosmos: Unser Sonnensystem ist eine Provinz in unzähligen Sonnensystemen, unsere Galaxie eine Provinz in unzähligen Galaxien - diese Iteration lässt sich fortführen bis zum Universum: Es ist eine Provinz im System unzähliger Universen: dem Multiversum.

Nun muss man sich vergegenwärtigen, dass wir es hier nicht bloss mit einer innerphysikalischen Debatte zu tun haben, sondern mit der fundamentalen wissenschaftstheoretischen Frage nach der Neukonzeption der Physik: Ist die Idee des Multiversums noch Wissenschaft? Wie wollen wir uns versichern, dass es wirklich existiert? Wir können ja nur beobachten, was in unserem Universum geschieht! Und so gesehen, erscheint der Fall hoffnungslos: Die Idee lässt sich nicht einmal falsifizieren. Also hat sie überhaupt keinen wissenschaftlichen Wert – zumindest nach dem berühmten Falsifikationskriterium von Karl Popper.

***

Was also? Eine ziemlich streitbare Faktion von Wissenschaftern und Philosophen dreht den Spiess einfach um: Uns gefällt die Theorie, und wenn sie nicht falsifizierbar ist, dann zur Hölle mit dem Falsifikationskriterium! Damit steht nun das Konzept der Empirie selber zur Debatte.

Der einflussreiche Kosmologe Sean Carroll argumentiert folgendermassen: Wir haben uns derart weit von den herkömmlichen Bedingungen des Beobachtens entfernt, dass wir uns der Frage stellen müssen: Greifen die traditionellen Kriterien der Empirie überhaupt noch? Wenn der Kosmos tatsächlich ein Multiversum ist, dann müssten wir uns ihm mit anderen konzeptuellen und methodischen Mitteln nähern. Es ist an der Zeit, unser wissenschaftliches Vorgehen neu zu überdenken und uns mit einem neuen Genre zu beschäftigen, der post-empirischen Forschung. Beobachtung und Experiment sind klassische Mittel, aber manchmal sind sie einfach nicht möglich. Das bedeutet nun freilich nicht, dass man nicht Wissenschaft betreibt. Vielmehr wäre zu überlegen, wie sich auch post-empirisch Erkenntnisse gewinnen liessen.

Andere Wissenschafter reagieren alarmiert. Der Mathematiker George Ellis und der Astrophysiker Joe Silk nahmen 2014 in einem Brief an die Zeitschrift „Nature“ die rezenten Theorienkonstruktionen ihrer Fachkollegen aufs Korn: „Dieses Jahr vollzog sich in den Debatten der Physiker eine beunruhigende Wende. Angesichts der Schwierigkeiten, fundamentale Theorien auf das beobachtete Universum anzuwenden, riefen einige Forscher dazu auf, die Art des Theoretisierens zu ändern. Sie begannen – explizite – zu behaupten, dass eine hinreichend elegante und explikative Theorie nicht empirisch überprüft werden müsse, und sie brachen so mit einer jahrhundertealten philosophischen Tradition, die wissenschaftliches Wissen als empirisch definiert. Wir stimmen dem nicht zu. Wie der Wissenschaftsphilosoph Karl Popper argumentierte, muss eine Theorie falsifizierbar sein, um als wissenschaftlich zu gelten.“

***

Als irritierend erscheint an der Idee des Multiversums, dass sie aus dem dualistischen Raster Wissenschaft-Nichtwissenschaft fällt. Sie ist keine wissenschaftliche Hypothese im Popperschen Sinn, aber auch nicht einfach Pseudowissenschaft. Was ist sie dann? Der britische Publizist Steven Poole hat eine treffende Bescheibung vorgeschlagen. Er nennt solche Ideen „Placebo-Ideen“. Wie ein Mittel, das keine Wirkstoffe enthält und trotzdem wirkt, weil es „gefällt“, so gibt es Ideen, die nicht geprüft werden können, aber dennoch „gefallen“, weil sie eine heuristische Wirkung ausüben. Sie produzieren Fragen, öffnen Horizonte und halten insofern den wissenschaftlichen Topf am Kochen.

Man könnte vom Barmherzigkeitsprinzip für Ideen sprechen: Lass ihnen Zeit, das Potenzial ihrer möglichen Konsequenzen zu entfalten. So mag die Idee des Multiversums absurd anmuten, aber absurde Ideen haben in der Vergangenheit immer wieder zu testbaren Konklusionen geführt. Die Idee des Atoms galt zuerst als absurd, weil nicht durch Beobachtung zu rechtfertigen; die Quantenfeldtheorie des Elektrons führte zur unerwarteten Idee der Antimaterie, die Allgemeine Relativitätstheorie zur Idee des Urknalls und des schwarzen Lochs - auf den ersten Blick Absurditäten.

***

Ideen sind der Grundstoff der Forschung - und verrückte Ideen der Motor. Wenn der bisherige Begriffsapparat nicht mehr zur Lösung eines Problems taugt, müssen wir gelegentlich die alten Begriffsschrauben lockern und einen neuen Apparat bauen. Dann beginnen wir von solchen exotischen Dingen wie Strings und Branen, von dunkler Energie und dunkler Materie, von Schleifen-Quanten-Gravitation und Deformierter Spezieller Relativitätsheorie zu sprechen, und den Experimentalphysikern wird schwindlig bei der Frage, wie sie das alles überprüfen sollen.

Wirf also eine Theorie nicht weg, wenn du nicht alle ihre Konsequenzen verfolgt hast. Das scheint eine favorisierte Verteidigungsstrategie der Multiversums-Theoretiker zu sein. Zudem verbinden sie die Idee des Multiversums mit einer anderen Idee, jene der permanenten Inflation. Stellen wir uns das Multiversum wie einen ständig aufgehenden Brotteig vor, in dem wiederholt neue Löcher entstehen: Universen mit ihren provinziellen Naturgesezten und -konstanten. Diese Universen könnten unter Umständen kollidieren und beobachtbare Spuren hinterlassen, zum Beispiel besondere Muster in der kosmischen Hintergrundstrahlung, dem bisher einzigen robusten empirischen Relikt unseres provinziellen Urknalls. Wir warten darauf...

***

Es gibt Regionen unseres Universums, die jenseits des Beobachtbaren liegen. Das darf als Tatsache gelten. Über dieses Jenseits zu spekulieren, ist legitim, sofern die Spekulation sich auf einer Ebene bewegt, welche die gegenwärtige Physik zulässt. Aber die Ebene ist schief, es besteht Rutschgefahr vom Wissen in den Glauben. Wie der Physiker Paul Davis schreibt: „Wenn man diese schiefe Ebene hinunterrutscht, muss immer mehr auf guten Glauben, und immer weniger auf wissenschaftliche Bestätigung gestützt werden. Extreme Multiversums-Erklärungen erinnern deshalb an theologische Debatten. Das Bemühen, mit einer Unendlichkeit unsichtbarer Universen die ungewöhnlichen Merkmale des einzigen sichtbaren Universums zu erklären, ist genauso ad hoc wie der Appell an einen unsichtbaren Schöpfer. Die Theorie des Multiversums mag in wissenschaftliche Sprache gekleidet sein, aber sie verlangt im Wesentlichen den gleichen Glaubenssprung.“

Könnte das am Ende der Grund sein, warum uns die Idee des Multiversums „gefällt“? Die Aussicht auf eine Hypertheorie, die erklärt, warum unser Universum gerade so ist und nicht anders? Der Astrophysiker Martin Rees liebäugelt mit einer solchen ultimativen Sicht: „Vielleicht werden wir eines Tages eine überzeugende Theorie des Beginns unseres Universums haben; eine Theorie, die uns sagt, ob ein Multiversum existiert, und – falls so – ob einige sogenannte Naturgesetze bloss die provinzielle Gemeindeordnung in jenem kosmischen Flecken sind, in dem wir leben.“ Vielleicht – aber wie soll eine solche Theorie zu rechtfertigen sein? Niemand weiss es. Hier stehen wir vor einem wirklich fundamentalen Hindernis. Die herkömmlichen Naturgesetze können wir lokal im Labor überprüfen. Aber die Gesetze des Kosmos, die Gesetze eines Multiversums? Was wäre das Labor dafür?
Eigentlich befinden wir uns wieder auf Feld eins. Das heisst, es gibt durchaus noch eine andere Sicht auf die Debatte. Vielleicht handelt es sich um die letzten Konvulsionen eines seltsamen Erklärungshungers, der erst dann befriedigt ist, wenn er die „ultimative“ Weltsicht einverleibt hat. Manchmal will einem die ganze theoretische Gipfelstürmerei wie eine lächerliche Hybris des Menschen erscheinen, der sich einen „Gottesgesichtspunkt“ anmasst, und dabei vergisst, dass er unentrinnbar ein Provinzler bleibt.


  Die Geburt des Terrors aus dem Geist des Spektakels Terroristen überbieten sich mit Abscheulichkeiten, genauer: mit der Inszenierung von A...