NZZ, 22.6.2017
Wenn Algorithmen
undurchschaubar werden
Auf der Schwelle zum Maschinozän
Auf die Frage, ob es je Computer geben werde, die so intelligent sind
wie Menschen, erwiderte der amerikanische Mathematiker und
Science-Fiction-Autor Vernor Vinge lapidar: „Ja, aber nur für kurze Zeit.“ -
Die Maschinen beginnen zu lernen. „Deep Learning“ nennt sich die Technologie.
Bereits feiern einige Propheten den Advent einer postbiologischen Intelligenz.
Der Cambridger Philosoph Huw Price spricht vom kommenden Zeitalter des „Maschinozäns“,
auf das wir uns vorbereiten sollten. [i]
***
Als von zentraler Bedeutung erweisen sich heute neuronale Netze. Wir
können sie uns am einfachsten veranschaulichen als viele miteinander verbundene
Drehschalter – die „Neuronen“ -, die in Schichten mit unterschiedlichen
Funktionen angeordnet sind und sich kontinuierlich justieren lassen. Sie leiten
über elektrische Verbindungen - „Synapsen“ – Signale weiter. Jede dieser
Leitungen hat einen bestimmten Wert; hoher Wert bedeutet, die Verbindung leitet
gut, tiefer Wert, die Verbindung leitet schlecht. Auch die Schalter sind gekennzeichnet
durch einen sogenannten Schwellenwert, der angibt, ab welcher Signalstärke die
ankommende Information weitergeleitet wird. Wir haben es also mit einer
offensichtlichen Analogie zu den anregenden und hemmenden Signalen in
biologischen Gehirnen zu tun.
***
Wie lernen sie? Ganz einfach dadurch, dass man die Werte der einzelnen
Neuronen und ihrer Synapsen neu justiert. Das Netz soll zum Beispiel Katzenbilder
erkennen. Dazu setzt man ihm eine Pixelmenge als Trainingsdaten vor. Das Netz
„lernt“ in einer ersten Schicht, dunkle und helle Pixel zu unterscheiden, in
einer zweiten Kanten und andere einfache Formen, in einer dritten komplexere
Figuren, und so weiter, bis es gelegentlich etwas Katzenartiges aus der
Pixelmenge aussortieren kann. Bei den Netzverbindungen, die zu diesem Output
führen, werden nun die Gewichtswerte neu justiert. Ein Lern-Algorithmus besorgt
dies. Führt man diesen Prozess wiederholt durch, resultiert ein Netz, in dem
die „Katzen-erkennenden“ Verbindungen verstärkt und stabilisiert sind. - Im
besten Fall, wohlgemerkt. Immer wieder kommt es vor, dass sich solche Netze
nach erfolgreicher Trainingsphase als völlig unbrauchbar für neue Anwendungen
erweisen. Die Bilderkennung von Google identifizierte zum Beispiel
dunkelhäutige Menschen als „Gorillas“, die Software von Flickr sah im
Eingangstor des Konzentrationslagers Dachau ein „Klettergerüst“.
***
Ein neuartiger Problemtypus nimmt Gestalt an. Man kann ihn so
zusammenfassen: Input geht hinein, Output kommt heraus, aber wir verstehen
nicht oder nur fragmentarisch, was in den Zwischenschichten passiert. Für
Undurchschaubarkeit sorgen ja eigentlich die „Meta-Algorithmen“ des Lernens.
Das Problem
hat eine ganz praktische Komponente, zumal heute, da viele Entscheidungsfindungen
von Computern abhängen. Hiezu ein Beispiel. Am medizinischen Zentrum der
University of Pittsburgh wurde ein Deep-Learning-System zur Voraussage
entwickelt, ob bei Patienten mit Lungenentzündung das Risiko verschiedener
weiterer Komplikationen besteht. Die Idee war natürlich, Patienten mit
niedrigem Risiko zur kostengünstigeren Behandlung nach Hause zu schicken. Das
System graste also die Daten aus den Krankendossiers ab, „lernte“, und empfahl
entsprechende Massnahmen. Als die Forscher die Empfehlungen etwas genauer unter
die Lupe nahmen, entdeckten sie etwas Irritierendes. Das System empfahl,
Patienten mit Asthma und Lungenentzündung nach Hause auszuquartieren, wo doch
bekannt ist, dass Asthma in Verbindung mit Lungenentzündung die
Komplikationsrisiken stark erhöht.
Was war
geschehen? Nun, eine dieser unergründlichen Denk-Volten, zu denen
Deep-Learning-Systeme offenbar fähig sind. Zur Politik des Spitals gehört,
Patienten mit Asthma und Lungenentzündung vor vornherein einer besonders
intensiven Pflege zu unterziehen, und diese Massnahme funktioniert so gut, dass
in den Dossiers kaum je über Komplikationen zu berichten war. Das System zog
daraus den Schluss: Patienten mit Asthma und Lungenentzündung können nach Hause
geschickt werden, weil Asthma das Komplikationsrisiko verringert.
***
Das
ficht die Designer nicht an: Bloss eine Kinderkrankheit des Algorithmus, weiter
nichts. Das System muss lernen, die Gefährlichkeit seiner Schlussfolgerungen zu
erkennen. Aber das kann es nur, wenn die
Designer – wie im Fall unseres Beispiels – Einblick in diese Schlussfolgerungen
haben. Eine naheliegende Lektion daraus könnte sein, dass man das neuronale
Netzwerk trainiert, seinen Output in ein menschlich interpertierbares Format zu
übersetzen.
Nichtsdestoweniger
stellt die Interpretierbarkeit ein ernsthaftes Problem dar. Das sehen auch die Designer.
Zum Beispiel Dimitry Malioutov von IBM. Er entwarf für eine grosse Versicherungsgesellschaft
ein Programm auf der Basis von Deep Learning: „Wir konnten das Modell unseren
Kunden nicht erklären, weil sie nicht in Maschinenlernen ausgebildet waren.“
Aber auch Experten bekunden oft Mühe, das, was ihre „lernenden Schüler“
ausgeben, zu verstehen. Malioutov bietet aus diesem Grund den Kunden statt
Deep-Learning-Maschinen oft ein Regel-basiertes System an, das gut
interpretierbar ist. Dieses erweist sich zwar vielfach als weniger präzise als
das neuronale Netz, trotzdem entscheiden sich die Kunden für ersteres. „Sie
bringen es mehr in Übereinstimmung mit ihren Intuitionen,“ erklärt Malioutov.
***
Die Undurchschaubarkeit der Maschine wird uns wahrscheinlich immer mehr
beschäftigen. Sie wird eine neue Kategorie von Technik charakterisieren. Das
Programm AlphaGo, das 2016 den Go-Weltmeister Lee Sedol besiegte, führte Züge
durch, die von Beobachtern als geradezu übermenschlich taxiert wurden. Über den
entscheidenden Zug in einem Spiel begeisterte sich der Europameister Fan Hui:
„Es war kein menschlicher Zug. Ich sah nie einen Menschen diesen Zug spielen.
So schön ist er.“
Der Vergleich mit anderen algorithmischen Orakeln – zum Beispiel
statistischen Klassifikationssystemen oder Entscheidungsbäumen – zeigt ein
umgekehrtes Verhältnis von genauer Voraussage und Verstehbarkeit: Je fähiger
das System zu exakter Voraussage ist, desto
schwieriger ist es interpretierbar. Wie der Neurokybernetiker Aaron Bornstein
vom Princeton Neuroscience Institute schreibt: „Modernes Maschinenlernen
offeriert eine Wahl zwischen Orakeln: Wollen wir möglichst präzise wissen, was
passiert, oder wollen wir wissen, warum etwas passiert, auf Kosten der
Präzision? Das ‚Warum’ hilft uns, Strategien zu entwerfen und zu wissen, wann
unser Modell zusammenbricht. Das ‚Was’ hilft uns, angemessen in der
unmittelbaren Zukunft zu agieren.“ [ii]
***
Und wenn uns die Ausgeburten
unseres Kopfes über den Kopf wachsen? Mit dieser Frage bewegen wir uns auf dem
Boden der Spekulation, wo vor allem die Science Fiction weidet. Aber was man
auch von ihren teils exaltierten Phantastereien halten mag, wir werden es
wahrscheinlich vermehrt mit „kognitiven Exoten“ zu tun bekommen. Deshalb brauchen
wir eine Anthropologie im Maschinozän, die Aussichten auf das Menschsein unter
und mit Maschinen eröffnet. Jürgen Habermas warnte 1968 vor Wissenschaft und
Technik als Ideologie. Heute meldet sich eine neue, weitaus potentere
Algorithmen-Ideologie zu Wort. Algorithmenentwerfer verstehen vielleicht viel
von Maschinen und deren Logik, aber verstehen sie eigentlich etwas von den
Menschen, die sie brauchen? Das heisst, sehen sie im Menschen mehr als ein
abrichtbares Verhaltensmodul? Wenn man heute bereits vernimmt, die Stärke der
künstlichen Intelligenz sei ihre Unergründlichkeit, dann liesse sich darauf
erwidern, dass gerade wir Menschen diese Stärke den Maschinen voraus haben. Das
kann immerhin ein Grund zur Zuversicht sein.
[i] Huw
Price: Now it’s time to prepare for the
Machinocene, Aeon, 17.10.2016;
https://aeon.co/ideas/now-it-s-time-to-prepare-for-the-machinocene.
[ii] Aaron
Bornstein: Is Artificial Intelligence Permanently
Inscrutable? Nautilus, 1.9.2016; http://nautil.us/issue/40/learning/is-artificial-intelligence-permanently-inscrutable.
Keine Kommentare:
Kommentar veröffentlichen