NZZ, 30.5.2020
Gesucht: Künstliche
Intelligenz mit Commonsense
Die jüngste Geschichte künstlich intelligenter
(KI-) Systeme ist zweifellos beeindruckend. Mit den neuronalen Netzwerken und
dem Maschinenlernen hat die Forschung einen entscheidenden Schritt in Richtung
eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-,
Mustererkennungsysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend
hochgeschraubt sind die Erwartungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont die sogenannte Allgemeine
Künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine
Maschine mit „gesundem künstlichen Verstand“.
Erste, sozusagen infantile Formen probiert man ja zurzeit bei
selbstfahrenden Autos aus. Die Artefakte beginnen zu lernen, sich an Situationen
anzupassen, sie werden also wie die natürlichen Kreaturen adaptiv. Und damit
bekommen wir es nicht bloss mit technischen Problemen zu tun, sondern auch mit philosophischen.
Eines lautet: Was bedeutet es eigentlich, in Alltagssituationen mit Commonsense
zu reagieren?
***
Die Frage beschäftigte schon Descartes. In einem berühmten
Abschnitt seines „Discours“ spricht er von der Universalität der Vernunft, die
sich in allen Lebenslagen zu behaupten weiss. Wenn Maschinen „auch viele Dinge
ebensogut oder vielleicht besser als einer von uns machten,“ würden sie „doch
unausbleiblich in einigen andere fehlen und dadurch zeigen (..), dass sie nicht
nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln.
Denn während die Vernunft ein Universalinstrument ist, das in allen möglichen
Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere
Disposition haben, und deshalb ist es moralisch (praktisch, Anm. E.K)
unmöglich, dass in einer Maschine verschiedene Organe genug sind, um sie in
allen Lebensfällen so handeln zu lassen, wie unsere Vernunft uns zu handeln
befähigt.“
Das sind frappant moderne Worte, und sie zielen genau auf
den Kern der heutigen Problematik lernender Maschinen. Setzen wir für „Organ“
„neuronales Netz“ ein, und für „Disposition“ „Lernalgorithmus“, liest sich Descartes’
Text als Vorbehalt gegen einen künstlichen Commonsense. Lernende Maschinen
werden nie „aus Einsicht“ handeln, weil ihr Bauprinzip keine universelle Vernunft
ermöglicht. Bis dato sind Computer jedenfalls Idiots savants.
***
Computeringenieure würden Descartes entgegenhalten, dass sie
ja gar nicht viele „Organe“ benötigen, sondern einen potenten Algorithmus plus
eine immense, womöglich bereits vorstrukturierte Datenmenge, die er
durchpflügen kann. Deep Learning funktioniert eigentlich nach überraschend
einfachen Prinzipien, deshalb ist auch das Fernziel des künstlichen Commonsense
„im Prinzip“ erreichbar.
Die Betonung liegt auf „Fern“. Bisher exzellierten die
neuartigen künstlichen Systeme in Spielen , also in klar definierten Rahmen mit
vorgegebenen Regeln und einem primären Ziel: Gewinnen. Ein selbstfahrendes Auto
kann aber nicht einfach „gewinnen“. Sein Funktionieren hängt von zahlreichen
Eventualitäten ab – vom pünktlichen Abliefern der Passagiere an der richtigen
Destination, über das Befolgen der Verkehrsregeln, das Berücksichtigen von
Wetterverhältnissen und Strassenzuständen, bis zu Unwägbarkeiten wie
unerlaubten Strassenüberquerungen von Fussgängern, nicht funktionierenden
Ampeln, Staus oder Unfällen. Ein selbstfahrendes Auto hat zum Beispiel im Laufe
seines Trainings unzählige Rotsignale registriert und in seinem neuronalen Netz
so etwas wie ein „Konzept“ von Rot gespeichert. Unter normalen Bedingungen
funktioniert das recht gut, aber immer wieder ist mit anormalen Situationen zu
rechnen. Und wie sich zeigt, genügen oft ganz kleine Störungen des gelernten
Musters, um den Algorithmus zu einer totalen und womöglich fatalen Fehlklassifikation
zu verleiten.
***
Genau
diese Offenheit der realen Situation stellt bisher das grosse Hindernis auf dem
Weg zur künstlichen Intelligenz mit Commonsense dar. Das mag ein weiteres
Beispiel veranschaulichen. YouTube entwickelte einen Algorithmus mit der
Vorgabe, die Zeit zu maximieren, die der Nutzer am Videoportal verbringt. Der
Algorithmus bewerkstelligte dies, indem er Videos mit immer extremerem Content
empfahl, nach dem Prinzip „upping-the-ante“: Erhöhe den Einsatz. Eine Nutzerin
berichtet etwa, wie sie ein paar Videos über den Wahlkampf von Donald Trump
anschaute, und daraufhin mit rassistischem, verschwörungstheoretischem und
anderem anrüchigen Material überhäuft wurde. Der Algorithmus „interpretiert“
also seine Aufabe in höchst eigenwilliger, ja, sturer Weise, die zu
nichtintendieren Effekten wie Radikalisierung und Polarisierung führt. Kaum ein
Zeichen „gesunden“ Maschinenverstandes.
Die Designer suchen Abhilfe mit einem neuen Ansatz. Er
stammt vom Computerwissenschafter Stuart Russell und nennt sich
„humankompatible Maschinen“. Solche Maschinen fangen sozusagen bei null an. Statt
ein vorgegebenes Ziel zu enkodieren und zu maximieren, lernen sie selbst, aus
menschlichem Verhalten ein solches Ziel zu „dekodieren“ und das Verhalten anschliessend
zu verbessern. „Inverses Verstärken“ nennt sich das. Daran knüpft sich die Erwartung,
dass die Orientierung an menschlichem Verhalten die Maschine auch „kompatibler“
– mit mehr Commonsense - agieren lasse.
***
Die
Skepsis bleibt. Erstens stellt sich die Frage, ob der Mensch sich als Vorbild
für ein KI-System eignet. Er ist im Grunde kein logisches Wesen. Sein Verhalten
speist sich aus einem dichten impliziten Netz von Erwartungen, Vorlieben,
Meinungen, Motiven, das sich wohl kaum je vollständig in einem expliziten
Formalismus entflechten lässt. Zweitens ändern sich unsere Vorlieben und
Wünsche ständig, und zwar sind sie häufig nicht von „rational rekonstruierbaren“
Gründen geleitet, sondern von „irrationalen“ Stimmungen und Launen, die oft
vage oder gar widersprüchlich sind. Und drittens: Was, wenn der Mensch sich im
Tiefsten von „schlechten“ Gründen leiten lässt? Sollen die Maschinen dann
lernen, diese Schlechtigkeit zu optimieren? Erfahrungen wie jene von YouTube
und anderen „schändlichen“ Algorithmen nähren eine nicht eben optimistische
Zukunftsvision.
Der gesunde Computerverstand wirft uns eigentlich auf die Urfrage
zurück: Was heisst es, sich wie ein Mensch zu verhalten, ja, ein Mensch zu sein?
Wir lernen zum Beispiel nicht auf die gleiche Weise wie KI-Systeme. Wir müssen
nicht 10'000 Katzenbilder sehen, um daraus eine verlässliche Kategorie „Katze“
zu bilden. Eher entwickeln wir Erwartungshaltungen, wie die Dinge ablaufen könnten,
und auf dieser Basis treffen wir Vorhersagen. Wir schliessen in unserer
Wahrnehmung „natürlicherweise“ auf versteckte Partien eines Dinges, ohne
entsprechende Daten darüber zu haben. Oder wir entwickeln eine Intuition für
den Unterschied zwischen Korrelation und Kausalität. Der Regen ist nicht
„Ursache“ dafür, dass die Leute den Schirm aufspannen; ihr Wunsch, trocken zu
bleiben dagegen schon.
***
Es sind solche kognitiven Aspekte, die wesentlich zu unserem
„gesunden“ Menschenverstand beitragen, sozusagen unser verkörpertes Geistigsein.
Das beginnt nicht wenigen KI-Forschern zu dämmern. Kein Geringerer als Rodney
Brooks vom MIT, Koryphäe auf diesem Gebiet, zog kürzlich eine Kernannahme des
ganzen KI-Projekts in Zweifel: Womöglich stossen künstliche Systeme an eine
Grenze der Komplexität, weil sie aus dem falschen Stoff bestehen. Das heisst, die
Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren
Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen habe. Das
Rätsel des menschlichen Geistes liegt in seiner „Inkarniertheit“.
Und deshalb wird die KI-Forschung ihr Augenmerk mehr auf diesen
spezifischen Stoff legen müssen, aus dem wir gemacht sind. Sie wird
biologischer denken müssen. Bereits beginnen die Robotiker mit Tierzellen zu
experimentieren, die sich nach Vorgabe eines Programms entwickeln –
„Xenoboter“. Hüten wir uns, hier voreilig ein Zukunftsszenario mit smarten „organoiden“
Geräten auszumalen. Fassen wir vielmehr das wirkliche Problem ins Auge.
Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im
Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller
Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren
Alltag ihnen an. Das Problem sind also nicht superschlaue Maschinen, sondern
subschlaue Menschen.
Keine Kommentare:
Kommentar veröffentlichen