Dienstag, 1. August 2023

 



NZZ, 20.7.23

Unbegreifliche Maschinen

Die vier Gesetze der Maschinenintelligenz


Wir bauen mit neuronalen Netzen einen neuen Maschinentypus: unbegreifliche Maschinen. Natürlich kennen die Designer den Aufbau eines Netzes. Die mathematischen Prinzipien seiner Architektur sind sogar erstaunlich einfach. Die Basiselemente, die «Neuronen», arbeiten nach bestimmten wohlformulierten Regeln der Transformation und Optimierung von Datenströmen. Aber das Ganze ist nicht durch ein Master-Programm gesteuert – ebensowenig wie unser Hirn. 

Und hier beginnt das Problem. Neuronale Netzwerke bestehen heute schon aus Milliarden von Parametern, die einen numerischen Input in einen numerischen Output verwandeln. Das heisst, das System entwickelt womöglich Prozeduren, die nur es selbst kennt. Der Designer hat begrenzten – wenn überhaupt - Einblick in das, was sich im Innern abspielt. Mit zunehmender Schichttiefe wird das Netz selbständiger: eine Black Box. Es manifestiert sich  ein umgekehrtes Verhältnis von genauer Voraussage und Verstehbarkeit: Je fähiger das System zu exakter Voraussage ist, desto schwieriger ist es interpretierbar. 

***

Spricht man von der Unbegreiflichkeit eines KI-Systems, stellt man gewöhnlich drei Fragen: Ist es steuerbar? Ist es vollständig beschreibbar? Ist es verstehbar? Alle drei Fragen haben eine Antwort in der Form von Gesetzen über komplexe Systeme. 

Das erste stammt vom Neurokybernetiker William Ross Ashby: Um ein System erfolgreich zu steuern, brauchen wir einen Kontrollmechanismus, der mindestens ebenso komplex ist wie das System. Man könnte auch sagen: Ist ein System hinreichend komplex, kann nur es selbst sich steuern. 

Das zweite Gesetz, benannt nach dem Mathematiker John von Neumann, lautet: Das einfachste Modell, ein komplexes System vollständig zu beschreiben, ist das System selbst. Jeder Versuch, das Systemverhalten in einem Formalismus zu vereinfachen, verkompliziert die Sache nur. 

Schliesslich das dritte Gesetz, vom Technikhistoriker George Dyson formuliert: Ein System, das man vollständig versteht, ist nicht komplex genug, um intelligentes Verhalten zu manifestieren; und ein System, das intelligentes Verhalten manifestiert, ist zu komplex, um vollständig verstanden zu werden. 

Die drei Gesetze markieren die Schwelle zu einem Zeitalter autonomer Artefakte. Wir sind im Begriff, sie zu überschreiten. Beispiele von Systemen, die den drei Gesetzen unterliegen, kennen wir bereits: Verkehrsnetze, soziale Netze, überhaupt Beziehungsgeflechte im Internet. Sie steuern sich selbst, kennen keine vereinfachende Beschreibung, und sie verhalten sich auf eine «intelligente» Weise, die wir nicht mehr komplett durchschauen. 

***

Vor allem das dritte Gesetz hat es in sich. Angenommen, ein neuronales Netz lernt Mathematik von null auf. Zunächst einfache arithmetische Operationen, dann immer höhere Stufen. Es er-reicht schliesslich eine metamathematische Stufe, auf der es uns den Beweis eines mathematischen Theorems liefert, den wir nicht nachvollziehen können. Gilt das als Beweis? 

KI-Systeme dieser Art stellen uns eine verwirrende philosophische Frage: Ist eine unbegreifliche Intelligenz überhaupt eine Intelligenz? Welche Massstäbe legen wir an sie an? Wenn man uns ein Artfeakt präsentiert und von ihm sagt, es sei intelligent, dann werden wir fragen: Aha, hat es so etwas wie eine kognitive Ausstattung, mit der unseren vergleichbar? Und wenn nicht, können wir fragen: Nun gut, wir verstehen nicht, wie die Intelligenz dieses Dings funktioniert, aber bringt es etwas hervor, das sich mit intelligenten menschlichen Hervorbringungen vergleichen lässt? Der Vergleich ist freilich kein Beweis der fremden Intelligenz. Er liefert uns einfach die Basis für den Glauben an die fremde Intelligenz. Das könnte als viertes Gesetz bezeichnet werden.

***

Ist also die Intelligenz einer unbegreiflichen Maschine eine Glaubensfrage, wie jene an Gott? Zu-mindest zwingt sie uns zum Überdenken des menschlichen Denkens. Seit Alan Turing ist die KI-Forschung mesmerisiert von der Aussicht, alles, was der Mensch tun kann, an Rechenprozesse zu delegieren. Die Deep-Learning-Forscher weisen auch gerne darauf hin, dass das Schichtenmodell neuronaler Netze eine primitive Simulation der Aktivitäten in den Hirnschichten darstelle. Wir wissen mittlerweile ziemlich gut Bescheid über Rechner, aber wir wissen noch lange nicht, wie das Gehirn funktioniert, und selbst wenn wir es wüssten, bedeutete das nicht, dass das Gehirn ein Rechner ist. Der Rechner ist nüchtern gesehen eine heuristische Metapher. Und wenn wir die Metapher mit dem verwechseln, wofür sie steht, dann erliegen wir einer epochalen Missdeutung. 

Ich leugne keineswegs die heuristische Nützlichkeit der Metapher. Vergessen wir nur nicht, dass die Evolution immerhin Jahrmillionen benötigte, um das biologische neuronale Netz in der Wet-ware zu schaffen. Nun massen sich ein paar übereifrige Algorithmentüftler und Computeringenieure an, dies in ein paar Jahrzehnten in der Soft- und Hardware zu bewerkstelligen. 

Vielleicht hängt aber die organische Intelligenz enger mit unserer biologischen Wetware zusammen als bisher angenommen. Bereits experimentieren unkonventionelle Informatiker wie etwa der Brite Andrew Adamatzky mit Schleimpilzen. Er nimmt deren Problemlösungsverfahren bei der Nahrungssuche zum Vorbild alternativer «organischer» Algorithmen. Womöglich liegt die Zukunft der Technologie im Schleim.

***

Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde eine Sorte neuartiger Entitäten - unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an. Zum Beispiel wird ein Grossteil des globalen Finanzmarktes von solchen «Aliens» - Algorithmen - gesteuert, in deren unerforschliche Ratschlüsse man kaum noch Einblick hat. Den Strategien von Go-Programmen kommen  selbst Grossmeister schwer, wenn überhaupt auf die Schliche. Sie mu-ten wie eine «torkelnde» Intelligenz an, die scheinbar unlogisch, in zufallsgesteuerter Weise ihre Schritte vollführt. Fremd und unbegreiflich, wie ein aussergalaktisches Wesen.

Wir neigen dazu, die fremde Intelligenz zu vermenschlichen.  Eine autonome künstliche Intelligenz könnte aber so geartet sein, dass ihr menschliche Motive und Intentionen unbekannt sind. Sie nähme uns also in diesem Sinne gar nicht wahr, oder als etwas, von dem wir keinen Begriff haben. Die Inputs dieser Systeme würden nach ganz anderen als humanen Imperativen und Modalitäten verarbeitet. Wir könnten ihre «Gedanken» nicht denken. Ihre Entscheidungen und Wege wären unergründlich – ein Numinosum.

***

Dadurch übt die KI-Technologie zweifellos eine unheimliche Verführungskraft aus. Sie macht den Menschen immer maschinen-kompatibler. Man kann deshalb  in den unbegreiflichen Maschinen den Anlass zu einem Paradigmenwechsel sehen. Der Ruf nach einem auf den Menschen zugeschnittenen Maschinendesign wird laut, kürzlich etwa im Buch «Human Compatible», geschrieben von einem der führenden KI-Wissenschafter, Stuart Russell. Dazu muss man aber den Menschen wiederentdecken, nicht nur seine Schwächen, welche die Maschine beheben kann, sondern seine Stärken, die sich nicht an die Maschine delegieren lassen. 


Dringend nötig wäre deshalb nicht ein halbjähriges Moratorium in der KI-Forschung, wie kürzlich gefordert, sondern ein vertieftes Nachdenken über die Wechselwirkung von Mensch und Maschine im 21. Jahrhundert. Die unaufhaltsame Fortentwicklung der KI verlangt nach einer anthropologischen Analyse der Technologie, die mit ihr Schritt hält. Die unbegreifliche Maschine ist also kurz gesagt ein Appell an den Menschen, sich neu begreifen zu lernen – ein Appell an seine Intelligenz. 


Keine Kommentare:

Kommentar veröffentlichen

Das Bachgesicht