Donnerstag, 4. Juni 2020







NZZ, 30.5.2020

Gesucht: Künstliche Intelligenz mit Commonsense


Die jüngste Geschichte künstlich intelligenter (KI-) Systeme ist zweifellos beeindruckend. Mit den neuronalen Netzwerken und dem Maschinenlernen hat die Forschung einen entscheidenden Schritt in Richtung eines umweltadaptierteren Programmierens getan. Es gibt Sprach-, Gesichts-, Mustererkennungsysteme von erstaunlicher Anpassungsfähigkeit, und entsprechend hochgeschraubt sind die Erwartungen und Visionen der KI-Gemeinde. Jetzt beginnt am Horizont die sogenannte Allgemeine Künstliche Intelligenz (AGI: Artificial General Intelligence) zu leuchten, eine Maschine mit „gesundem künstlichen Verstand“.

Erste, sozusagen infantile Formen probiert man ja zurzeit bei selbstfahrenden Autos aus. Die Artefakte beginnen zu lernen, sich an Situationen anzupassen, sie werden also wie die natürlichen Kreaturen adaptiv. Und damit bekommen wir es nicht bloss mit technischen Problemen zu tun, sondern auch mit philosophischen. Eines lautet: Was bedeutet es eigentlich, in Alltagssituationen mit Commonsense zu reagieren?

***

Die Frage beschäftigte schon Descartes. In einem berühmten Abschnitt seines „Discours“ spricht er von der Universalität der Vernunft, die sich in allen Lebenslagen zu behaupten weiss. Wenn Maschinen „auch viele Dinge ebensogut oder vielleicht besser als einer von uns machten,“ würden sie „doch unausbleiblich in einigen andere fehlen und dadurch zeigen (..), dass sie nicht nach Einsicht, sondern lediglich nach der Disposition ihrer Organe handeln. Denn während die Vernunft ein Universalinstrument ist, das in allen möglichen Fällen dient, müssen diese Organe für jede besondere Handlung eine besondere Disposition haben, und deshalb ist es moralisch (praktisch, Anm. E.K) unmöglich, dass in einer Maschine verschiedene Organe genug sind, um sie in allen Lebensfällen so handeln zu lassen, wie unsere Vernunft uns zu handeln befähigt.“

Das sind frappant moderne Worte, und sie zielen genau auf den Kern der heutigen Problematik lernender Maschinen. Setzen wir für „Organ“ „neuronales Netz“ ein, und für „Disposition“ „Lernalgorithmus“, liest sich Descartes’ Text als Vorbehalt gegen einen künstlichen Commonsense. Lernende Maschinen werden nie „aus Einsicht“ handeln, weil ihr Bauprinzip keine universelle Vernunft ermöglicht. Bis dato sind Computer jedenfalls Idiots savants.
***

Computeringenieure würden Descartes entgegenhalten, dass sie ja gar nicht viele „Organe“ benötigen, sondern einen potenten Algorithmus plus eine immense, womöglich bereits vorstrukturierte Datenmenge, die er durchpflügen kann. Deep Learning funktioniert eigentlich nach überraschend einfachen Prinzipien, deshalb ist auch das Fernziel des künstlichen Commonsense „im Prinzip“ erreichbar.

Die Betonung liegt auf „Fern“. Bisher exzellierten die neuartigen künstlichen Systeme in Spielen , also in klar definierten Rahmen mit vorgegebenen Regeln und einem primären Ziel: Gewinnen. Ein selbstfahrendes Auto kann aber nicht einfach „gewinnen“. Sein Funktionieren hängt von zahlreichen Eventualitäten ab – vom pünktlichen Abliefern der Passagiere an der richtigen Destination, über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetterverhältnissen und Strassen­zuständen, bis zu Unwägbarkeiten wie unerlaubten Strassenüberquerungen von Fussgängern, nicht funktionierenden Ampeln, Staus oder Unfällen. Ein selbstfahrendes Auto hat zum Beispiel im Laufe seines Trainings unzählige Rotsignale registriert und in seinem neuronalen Netz so etwas wie ein „Konzept“ von Rot gespeichert. Unter normalen Bedingungen funktioniert das recht gut, aber immer wieder ist mit anormalen Situationen zu rechnen. Und wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen und womöglich fatalen Fehlklassifikation zu verleiten.

***

Genau diese Offenheit der realen Situation stellt bisher das grosse Hindernis auf dem Weg zur künstlichen Intelligenz mit Commonsense dar. Das mag ein weiteres Beispiel veranschaulichen. YouTube entwickelte einen Algorithmus mit der Vorgabe, die Zeit zu maximieren, die der Nutzer am Videoportal verbringt. Der Algorithmus bewerkstelligte dies, indem er Videos mit immer extremerem Content empfahl, nach dem Prinzip „upping-the-ante“: Erhöhe den Einsatz. Eine Nutzerin berichtet etwa, wie sie ein paar Videos über den Wahlkampf von Donald Trump anschaute, und daraufhin mit rassistischem, verschwörungstheoretischem und anderem anrüchigen Material überhäuft wurde. Der Algorithmus „interpretiert“ also seine Aufabe in höchst eigenwilliger, ja, sturer Weise, die zu nichtintendieren Effekten wie Radikalisierung und Polarisierung führt. Kaum ein Zeichen „gesunden“ Maschinenverstandes.

Die Designer suchen Abhilfe mit einem neuen Ansatz. Er stammt vom Computerwissenschafter Stuart Russell und nennt sich „humankompatible Maschinen“. Solche Maschinen fangen sozusagen bei null an. Statt ein vorgegebenes Ziel zu enkodieren und zu maximieren, lernen sie selbst, aus menschlichem Verhalten ein solches Ziel zu „dekodieren“ und das Verhalten anschliessend zu verbessern. „Inverses Verstärken“ nennt sich das. Daran knüpft sich die Erwartung, dass die Orientierung an menschlichem Verhalten die Maschine auch „kompatibler“ – mit mehr Commonsense - agieren lasse.

***

Die Skepsis bleibt. Erstens stellt sich die Frage, ob der Mensch sich als Vorbild für ein KI-System eignet. Er ist im Grunde kein logisches Wesen. Sein Verhalten speist sich aus einem dichten impliziten Netz von Erwartungen, Vorlieben, Meinungen, Motiven, das sich wohl kaum je vollständig in einem expliziten Formalismus entflechten lässt. Zweitens ändern sich unsere Vorlieben und Wünsche ständig, und zwar sind sie häufig nicht von „rational rekonstruierbaren“ Gründen geleitet, sondern von „irrationalen“ Stimmungen und Launen, die oft vage oder gar widersprüchlich sind. Und drittens: Was, wenn der Mensch sich im Tiefsten von „schlechten“ Gründen leiten lässt? Sollen die Maschinen dann lernen, diese Schlechtigkeit zu optimieren? Erfahrungen wie jene von YouTube und anderen „schändlichen“ Algorithmen nähren eine nicht eben optimistische Zukunftsvision.

Der gesunde Computerverstand wirft uns eigentlich auf die Urfrage zurück: Was heisst es, sich wie ein Mensch zu verhalten, ja, ein Mensch zu sein? Wir lernen zum Beispiel nicht auf die gleiche Weise wie KI-Systeme. Wir müssen nicht 10'000 Katzenbilder sehen, um daraus eine verlässliche Kategorie „Katze“ zu bilden. Eher entwickeln wir Erwartungshaltungen, wie die Dinge ablaufen könnten, und auf dieser Basis treffen wir Vorhersagen. Wir schliessen in unserer Wahrnehmung „natürlicherweise“ auf versteckte Partien eines Dinges, ohne entsprechende Daten darüber zu haben. Oder wir entwickeln eine Intuition für den Unterschied zwischen Korrelation und Kausalität. Der Regen ist nicht „Ursache“ dafür, dass die Leute den Schirm aufspannen; ihr Wunsch, trocken zu bleiben dagegen schon.

***

Es sind solche kognitiven Aspekte, die wesentlich zu unserem „gesunden“ Menschenverstand beitragen, sozusagen unser verkörpertes Geistigsein. Das beginnt nicht wenigen KI-Forschern zu dämmern. Kein Geringerer als Rodney Brooks vom MIT, Koryphäe auf diesem Gebiet, zog kürzlich eine Kernannahme des ganzen KI-Projekts in Zweifel: Womöglich stossen künstliche Systeme an eine Grenze der Komplexität, weil sie aus dem falschen Stoff bestehen. Das heisst, die Tatsache, dass Roboter nicht aus Fleisch sind, könnte einen grösseren Unterschied zum Menschen ausmachen, als er, Brooks, bisher angenommen habe. Das Rätsel des menschlichen Geistes liegt in seiner „Inkarniertheit“.


Und deshalb wird die KI-Forschung ihr Augenmerk mehr auf diesen spezifischen Stoff legen müssen, aus dem wir gemacht sind. Sie wird biologischer denken müssen. Bereits beginnen die Robotiker mit Tierzellen zu experimentieren, die sich nach Vorgabe eines Programms entwickeln – „Xenoboter“. Hüten wir uns, hier voreilig ein Zukunftsszenario mit smarten „organoiden“ Geräten auszumalen. Fassen wir vielmehr das wirkliche Problem ins Auge. Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an. Das Problem sind also nicht superschlaue Maschinen, sondern subschlaue Menschen.

Keine Kommentare:

Kommentar veröffentlichen

  NZZ; 28.11.24 Das Omelett und die vielen Eier Der neue Mensch – ein antizivilisatorisches Projekt Eine der schrecklichsten Ideen der Mensc...