Samstag, 26. August 2017





NZZ, 22.6.2017

Wenn Algorithmen undurchschaubar werden
Auf der Schwelle zum Maschinozän

Auf die Frage, ob es je Computer geben werde, die so intelligent sind wie Menschen, erwiderte der amerikanische Mathematiker und Science-Fiction-Autor Vernor Vinge lapidar: „Ja, aber nur für kurze Zeit.“ - Die Maschinen beginnen zu lernen. „Deep Learning“ nennt sich die Technologie. Bereits feiern einige Propheten den Advent einer postbiologischen Intelligenz. Der Cambridger Philosoph Huw Price spricht vom kommenden Zeitalter des „Maschinozäns“, auf das wir uns vorbereiten sollten. [i]

***

Als von zentraler Bedeutung erweisen sich heute neuronale Netze. Wir können sie uns am einfachsten veranschaulichen als viele miteinander verbundene Drehschalter – die „Neuronen“ -, die in Schichten mit unterschiedlichen Funktionen angeordnet sind und sich kontinuierlich justieren lassen. Sie leiten über elektrische Verbindungen - „Synapsen“ – Signale weiter. Jede dieser Leitungen hat einen bestimmten Wert; hoher Wert bedeutet, die Verbindung leitet gut, tiefer Wert, die Verbindung leitet schlecht. Auch die Schalter sind gekennzeichnet durch einen sogenannten Schwellenwert, der angibt, ab welcher Signalstärke die ankommende Information weitergeleitet wird. Wir haben es also mit einer offensichtlichen Analogie zu den anregenden und hemmenden Signalen in biologischen Gehirnen zu tun.

***

Wie lernen sie? Ganz einfach dadurch, dass man die Werte der einzelnen Neuronen und ihrer Synapsen neu justiert. Das Netz soll zum Beispiel Katzenbilder erkennen. Dazu setzt man ihm eine Pixelmenge als Trainingsdaten vor. Das Netz „lernt“ in einer ersten Schicht, dunkle und helle Pixel zu unterscheiden, in einer zweiten Kanten und andere einfache Formen, in einer dritten komplexere Figuren, und so weiter, bis es gelegentlich etwas Katzenartiges aus der Pixelmenge aussortieren kann. Bei den Netzverbindungen, die zu diesem Output führen, werden nun die Gewichtswerte neu justiert. Ein Lern-Algorithmus besorgt dies. Führt man diesen Prozess wiederholt durch, resultiert ein Netz, in dem die „Katzen-erkennenden“ Verbindungen verstärkt und stabilisiert sind. - Im besten Fall, wohlgemerkt. Immer wieder kommt es vor, dass sich solche Netze nach erfolgreicher Trainingsphase als völlig unbrauchbar für neue Anwendungen erweisen. Die Bilderkennung von Google identifizierte zum Beispiel dunkelhäutige Menschen als „Gorillas“, die Software von Flickr sah im Eingangstor des Konzentrationslagers Dachau ein „Klettergerüst“. 

***

Ein neuartiger Problemtypus nimmt Gestalt an. Man kann ihn so zusammenfassen: Input geht hinein, Output kommt heraus, aber wir verstehen nicht oder nur fragmentarisch, was in den Zwischenschichten passiert. Für Undurchschaubarkeit sorgen ja eigentlich die „Meta-Algorithmen“ des Lernens.

Das Problem hat eine ganz praktische Komponente, zumal heute, da viele Entscheidungs­findungen von Computern abhängen. Hiezu ein Beispiel. Am medizinischen Zentrum der University of Pittsburgh wurde ein Deep-Learning-System zur Voraussage entwickelt, ob bei Patienten mit Lungenentzündung das Risiko verschiedener weiterer Komplikationen besteht. Die Idee war natürlich, Patienten mit niedrigem Risiko zur kostengünstigeren Behandlung nach Hause zu schicken. Das System graste also die Daten aus den Krankendossiers ab, „lernte“, und empfahl entsprechende Massnahmen. Als die Forscher die Empfehlungen etwas genauer unter die Lupe nahmen, entdeckten sie etwas Irritierendes. Das System empfahl, Patienten mit Asthma und Lungenentzündung nach Hause auszuquartieren, wo doch bekannt ist, dass Asthma in Verbindung mit Lungenentzündung die Komplikationsrisiken stark erhöht.

Was war geschehen? Nun, eine dieser unergründlichen Denk-Volten, zu denen Deep-Learning-Systeme offenbar fähig sind. Zur Politik des Spitals gehört, Patienten mit Asthma und Lungenentzündung vor vornherein einer besonders intensiven Pflege zu unterziehen, und diese Massnahme funktioniert so gut, dass in den Dossiers kaum je über Komplikationen zu berichten war. Das System zog daraus den Schluss: Patienten mit Asthma und Lungenentzündung können nach Hause geschickt werden, weil Asthma das Komplikationsrisiko verringert.

***

Das ficht die Designer nicht an: Bloss eine Kinderkrankheit des Algorithmus, weiter nichts. Das System muss lernen, die Gefährlichkeit seiner Schlussfolgerungen zu erkennen.  Aber das kann es nur, wenn die Designer – wie im Fall unseres Beispiels – Einblick in diese Schlussfolgerungen haben. Eine naheliegende Lektion daraus könnte sein, dass man das neuronale Netzwerk trainiert, seinen Output in ein menschlich interpertierbares Format zu übersetzen.

Nichtsdestoweniger stellt die Interpretierbarkeit ein ernsthaftes Problem dar. Das sehen auch die Designer. Zum Beispiel Dimitry Malioutov von IBM. Er entwarf für eine grosse Versicherungsgesellschaft ein Programm auf der Basis von Deep Learning: „Wir konnten das Modell unseren Kunden nicht erklären, weil sie nicht in Maschinenlernen ausgebildet waren.“ Aber auch Experten bekunden oft Mühe, das, was ihre „lernenden Schüler“ ausgeben, zu verstehen. Malioutov bietet aus diesem Grund den Kunden statt Deep-Learning-Maschinen oft ein Regel-basiertes System an, das gut interpretierbar ist. Dieses erweist sich zwar vielfach als weniger präzise als das neuronale Netz, trotzdem entscheiden sich die Kunden für ersteres. „Sie bringen es mehr in Übereinstimmung mit ihren Intuitionen,“ erklärt Malioutov.

***

Die Undurchschaubarkeit der Maschine wird uns wahrscheinlich immer mehr beschäftigen. Sie wird eine neue Kategorie von Technik charakterisieren. Das Programm AlphaGo, das 2016 den Go-Weltmeister Lee Sedol besiegte, führte Züge durch, die von Beobachtern als geradezu übermenschlich taxiert wurden. Über den entscheidenden Zug in einem Spiel begeisterte sich der Europameister Fan Hui: „Es war kein menschlicher Zug. Ich sah nie einen Menschen diesen Zug spielen. So schön ist er.“

Der Vergleich mit anderen algorithmischen Orakeln – zum Beispiel statistischen Klassifikations­systemen oder Entscheidungsbäumen – zeigt ein umgekehrtes Verhältnis von genauer Voraussage und Verstehbarkeit: Je fähiger das System zu exakter Voraussage ist, desto  schwieriger ist es interpretierbar. Wie der Neurokybernetiker Aaron Bornstein vom Princeton Neuroscience Institute schreibt: „Modernes Maschinenlernen offeriert eine Wahl zwischen Orakeln: Wollen wir möglichst präzise wissen, was passiert, oder wollen wir wissen, warum etwas passiert, auf Kosten der Präzision? Das ‚Warum’ hilft uns, Strategien zu entwerfen und zu wissen, wann unser Modell zusammenbricht. Das ‚Was’ hilft uns, angemessen in der unmittelbaren Zukunft zu agieren.“ [ii]

***

Und wenn uns die Ausgeburten unseres Kopfes über den Kopf wachsen? Mit dieser Frage bewegen wir uns auf dem Boden der Spekulation, wo vor allem die Science Fiction weidet. Aber was man auch von ihren teils exaltierten Phantastereien halten mag, wir werden es wahrscheinlich vermehrt mit „kognitiven Exoten“ zu tun bekommen. Deshalb brauchen wir eine Anthropologie im Maschinozän, die Aussichten auf das Menschsein unter und mit Maschinen eröffnet. Jürgen Habermas warnte 1968 vor Wissenschaft und Technik als Ideologie. Heute meldet sich eine neue, weitaus potentere Algorithmen-Ideologie zu Wort. Algorithmenentwerfer verstehen vielleicht viel von Maschinen und deren Logik, aber verstehen sie eigentlich etwas von den Menschen, die sie brauchen? Das heisst, sehen sie im Menschen mehr als ein abrichtbares Verhaltensmodul? Wenn man heute bereits vernimmt, die Stärke der künstlichen Intelligenz sei ihre Unergründlichkeit, dann liesse sich darauf erwidern, dass gerade wir Menschen diese Stärke den Maschinen voraus haben. Das kann immerhin ein Grund zur Zuversicht sein.




[i]    Huw Price: Now it’s time to prepare for the Machinocene, Aeon, 17.10.2016; https://aeon.co/ideas/now-it-s-time-to-prepare-for-the-machinocene.
[ii]   Aaron Bornstein: Is Artificial Intelligence Permanently Inscrutable? Nautilus, 1.9.2016; http://nautil.us/issue/40/learning/is-artificial-intelligence-permanently-inscrutable.

Keine Kommentare:

Kommentar veröffentlichen