Mittwoch, 30. August 2023




NZZ, 25.8.23


Die irreführende Mythologie der Maschinenintelligenz

Künstlichkeit ist das einzige Klare an der künstlichen Intelligenz. Aber «Intelligenz»? Der Trick, der ein System intelligent macht, sei der, dass es keinen gibt, schrieb ein Pionier der KI - Marvin Minsky - vor fast 40 Jahren. Ungeachtet dessen dürfte sich ein Blick auf einige Fehlschlüsse loh-nen, die uns im Vergleich zwischen Mensch und Maschine immer wieder unterlaufen. Sie tragen nicht zum Verständnis bei, sondern verfestigen eine Mythologie der Maschinenintelligenz. 

***

In der KI-Forschung ist eine Steigerungsform geläufig: schwach (narrow), stark (general) und super. Lassen wir hier die Super-Stufe ausser Acht. KI-Systeme sind bisher sehr erfolgreich im Bewältigen von spezifischen Aufgaben. Meist handelt es sich um klar geregelte und abgrenzbare Bereiche wie etwa Spiele. Das ist die schwache Stufe.

Man vernimmt jetzt andauernd, wie rasant die Verbesserungen einiger KI-Systeme voranschreiten in Richtung starker Stufe. Die Prämisse lautet: Wir schreiten von den schwachen Anfängen der Computerintelligenz an langsam auf einem Kontinuum fort, bis wir an dessen Ende allgemei-ne künstliche Intelligenz erreichen werden.

Man nennt diese eindimensionale Sicht in KI-Kreisen den «Fehlschluss des ersten Schritts». Denn es ist überhaupt nicht ausgemacht, ob der gegenwärtig bevorzugte Ansatz auf ein allgemeineres Niveau der Intelligenz führt, wie wir es von Lebewesen her kennen. 

Hier macht sich ein anderer Fehlschluss bemerkbar: Fortschritt ist immer mehr vom Gleichen; immer mehr Daten, immer mehr Rechenkapazität, immer mehr «Neuronenschichten». Das Wun-dermittel: Hochskalieren. Es erinnert an das Sprichwort: Wer nur einen Hammer hat, sieht in allem bloss Nägel. Yann LeCun, einer der gegenwärtig führenden KI-Forscher, sagte kürzlich dazu: «Ich glaube nicht eine Sekunde an die Idee, dass wir die aktuellen grossen Sprachmodelle ein-fach hochskalieren müssen, um schliesslich allgemeine KI zu erhalten».

***

In KI-Kreisen beginnt sich die Einsicht durchzusetzen, dass Intelligenz viel mehr mit der organi-schen Hardware – der «Wetware» – zu tun hat, als bisher angenommen. Pointiert: Starke Intelli-genz ist biologische Intelligenz. Und hier erhält ein Problem Kontur, das die KI-Forschung noch lange beschäftigen dürfte. Es gibt eine immense Zahl intelligenter Lebensformen, vom Bakterium bis zum Bonobo. Und die Frage stellt sich, inwieweit und ob sich dieser evolutionäre Reichtum überhaupt je völlig algorithmisch ausbuchstabieren lässt. Dass nichtmenschliche Lebewesen Probleme lösen, die dem Menschen gewaltiges Kopfzerbrechen abverlangen, ist längst bekannt. Womöglich liegt im «Design» der Organismen ein noch nicht begriffener Evolutionsvorsprung der Natur gegenüber den KI-Systemen. Was nicht bedeutet, dass nur evolutionär entstandene Systeme intelligent sind, sondern, dass in der künftigen KI-Forschung die Biologie ein gewichtiges Wort mitreden wird. 

***

Damit hängt ein anderes Phänomen zusammen. Ein Grossteil unserer Fähigkeiten ist implizit. Das heisst, wir können etwas, ohne genau zu wissen, wie und warum wir das können. Das Knowhow erweist sich als «inkarniert» in den körperlichen Automatismen. Ob sich in Maschinen etwas Analoges implemetieren lässt, ist eine offene Frage.  

Jedenfalls stossen wir auf eine höchst eigentümliche Asymmetrie: Vieles, was für die Menschen schwierig ist, ist für die Maschine leicht – und umgekehrt. Oft lösen Maschinen Probleme, die für uns harte Knacknüsse sind. Und oft scheitern sie an Problemen, die wir dank Commonsense, also Hausverstand, spielend lösen. Commonsense ist der Sammelbegriff für alles, was den Computerwissenschaftlern Kopfzerbrechen bereitet.

Man hat Commonsense auch schon als «dunkle Materie» der KI bezeichnet, die grosse Unbekannte der Intelligenz. In KI-Kreisen spricht man vom «Moravec-Paradox», nach dem Robotiker Hans Moravec, der sagte: «Es ist relativ leicht, den Computer auf einer Erwachsenenstufe Intelligenztests bestehen oder Schach spielen zu lassen, und es ist schwierig oder unmöglich, ihnen die Fertigkeit eines einjährigen Kindes im Wahrnehmen oder Bewegen beizubringen».

***

Genügend vielschichtige neuronale Netze sind Black Boxes. Sie haben Milliarden von Parametern, die sie automatisch justieren. Wenn wir all die Prozesse, die in einem Computer ablaufen, rein maschinentechnisch beschreiben müssten, wären wir aufgeschmissen. In Ermangelung einer besseren Alternative greifen wir zu Metaphern aus der Psychologie. Der Computerwissenschaftler Drew Mc Dermott prägte 1976 den Begriff der «hoffnungsvollen Eselsbrücke» («wishful mnemonics»).

Wir wünschen uns, dass der Computer es macht wie wir, also nutzen wir anthropomorphisierende Wörter für ihn: Das brachenübliche Marketing kündigt vollmundig menschenähnliche Fähigkeiten an. Zum Beispiel «Watson kann alle Texte über Gesundheitsfürsorge in Sekunden lesen» (IBM), oder «Das KI-Modell hat den Menschen im Verstehen von natürlichen Sprachen überflügelt» (Microsoft). Kein Wort davon, was mit «lesen» und «verstehen» genau gemeint ist.

***

Um noch einmal auf den Körper zurückzukommen: Intelligenz beruht auf Gehirnaktivitäten, letztlich auf Biochemie. Unser Gehirn bewältigt eine Unmenge an Informationen im Ur-Modus, in dem wir nicht in einen «höheren Denkgang» schalten müssen, sondern einfach die Automatismen unserer neuronalen Schaltkreise – das Unbewusste - arbeiten lassen.

KI, wie wir sie kennen, beruht auf Statistik, Mathematik. Im natürlichen Gehirn sind die Neuronen über Synapsen verbunden, und die Signalübertragung erfolgt durch chemische Vorgänge: Ausschütten von Neurotransmittern. Das künstliche Gehirn modelliert diesen Vorgang mathematisch, indem es den chemischen Vorgang durch einen Zahlenwert des künstlichen Neurons, das Gewicht, ersetzt. Dieses Modell funktioniert überraschend gut, in vielen Anwendungsgebieten mit einer Präzision, die dazu verleitet, das Modell des Gehirns mit dem Gehirn zu verwechseln. Ein kolossaler Fehlschluss.

***

Die hier kurz besprochenen Fehlschlüsse sind nicht die einzigen im Missverstehen der KI. Forscherinnen und Forscher, die über den engen Horizont des Algorithmendesigns hinaus blicken, wie Melanie Mitchell vom Santa Fe Institute in New Mexico, hinterfragen sie schon lange. Doch sie werden viel zu wenig gehört. Wie es scheint, sind die Fehlschlüsse bereits Bestandteil unserer gängigen Vorstellung über Maschinenintelligenz, will sagen: Selbstverständlichkeiten. 

 Selbstverständlichkeiten tendieren dazu, ins kollektive Unbewusste zu sinken, und sich dabei in ein «Gefühl» zu verwandeln. Wir haben das Gefühl, KI-Systeme würden «denken», uns gegen-über «feindlich» gestimmt sein, uns vielleicht beherrschen «wollen». Ein Grossteil der gegenwärtigen Pop-Kultur rund um die KI bestärkt dieses Gefühl.  Obwohl, nein, weil die gängige Vorstellung über Maschinenintelligenz einer kritischen Befragung nicht standhält, verhext sie unseren Verstand. Sie bildet die Mythologie maschineller Intelligenz.

Und diese Mythologie hat uns mächtig im Griff. Wenn Rationalität bedeutet, sich diesem Griff durch Reflexion zu entziehen, dann leben wir in einem völlig irrationalen Zeitalter.


Keine Kommentare:

Kommentar veröffentlichen

Das Bachgesicht