«Ich denke nicht, aber ich bin» sagt der Chatbot
Der artifizielle Geist in der Maschine
Eine der philosophischen Grundannahmen der Neuzeit stammt aus dem 17. Jahrhundert, von René Descartes. Zwischen Mensch und Maschine gibt es einen fundamentalen Unterschied. Der Mensch ist eine denkende – eine «cogitierende» - Sache, die Maschine ist eine bloss funktionierende – eine «ausgedehnte» - Sache. Tiere sind natürliche – von Gott geschaffene – Maschinen. Auch der menschliche Körper. Er kann in rein mechanistischen Termen begriffen werden. Überhaupt denkt sich die ganze Neuzeit die Natur als geistlose Maschine. Dass der Mensch mit einer denkerischen Potenz – mit dem göttlichen «lumen naturale» - ausgestattet ist, hebt ihn auch gleich aus dem ganzen Naturreich heraus. Mit einer sehr einflussreichen Metapher des 20. Jahrhunderts gesprochen, ist der Mensch eine Maschine mit einem Geist drin.
***
Diese fundamentale Unterscheidung sieht sich heute durch die neuesten technologischen Errungenschaften herausgefordert. Anders als es sich Descartes vorstellte, rechnen die Designer von KI-Systemen mit der durchaus realisierbaren Möglichkeit, dass ihre Kreationen eher früher als später zu einem artifiziellen «Bewusstsein» erwachen. Schon in der Mitte des 20. Jahrhunderts kehrten die Pioniere der Computerwissenschaften das cartesianische Paradigma sozusagen um: Warum stammt der Geist nicht aus der Maschine? Wenn man einem künstlichen System eine hinreichend komplexe kognitive Infrastruktur implementieren könnte, liesse sich da nicht von einem künstlichen «Geist» darin reden?
Solche Fragen treiben die KI-Forscher um. Zunächst stehen aber einmal ganz triviale Vorstellungen im Fokus. Denken setzt ein Bewusstsein voraus, eine Ich-Perspektive, die subjektive Erfahrung von Gefühlen und Absichten, wie sie ja Descartes’ «Ich denke, also bin ich» offensichtlich genug zum Ausdruck bringt. Diese Subjektivität des Denkens haben wir traditionell dem Menschen vorbehalten. Nun scheint es, dass die avanciertesten KI-Systeme dem Menschen dieses kognitive Privileg streitig machen. Genauer gesagt, zwingen uns ihre Leistungen dazu, die cartesianische «Voreingenommenheit» zu überprüfen, dass das Vorrecht auf Intelligenz und Bewusstsein allein dem Menschen zukomme. Denn wer stellt das fest, wenn nicht der Mensch.
***
Was überhaupt ist Bewusstsein? Wir stellen die Frage ja immer schon aus der Perspektive eines bewussten Ichs, sind also im Zirkel des Bewusstseins gefangen. Wir können ihn nicht verlassen und den Standpunkt eines Blicks von Nirgendwo wählen, um hier den Begriff des Philosophen Thomas Nagel zu verwenden. Das bringt uns in eine Zwickmühle: Wir kennen Bewusstsein aus unserer lebensweltlichen Erfahrung, müssten jetzt aber, angesichts neuer Kandidaten für das Bewusstsein, einen Schritt aus diesem Erfahrungshorizont heraustreten können.
Einen Ansatz kennen wir aus den Naturwissenschaften, aus der Neurokybernetik, dem Studium neuronaler Informationsverarbeitung. Sie erfährt heute, auch dank der KI-Technologie, einen gewaltigen Forschungsschub. Die Biologie sieht im Bewusstsein selbstverständlich etwas Gewachsenes, etwas aus neuronalem Geschehen «Auftauchendes». Dazu braucht es den richtigen Stoff, die richtige Chemie, die richtige komplexe Architektur des Gehirns. Man könnte dies das Neurobiologie-Paradigma nennen.
Es wurde im Jahre 1990 vom Neurowissenschaftler Christof Koch und der Biologie-Nobelpreisträger Francis Crick formuliert: «Towards a Neurobiological Theory of Consciousness». Darin steht manifestartig: «Wir wollen annehmen, dass bestimmte Tierarten, im Besonderen die höheren Säugetiere, einige wesentliche, nicht notwendig alle Merkmale des Bewusstseins haben. Deshalb könnten geeignete Experimente relevante Hinweise auf die Mechanismen geben, die dem Bewusstsein zugrunde liegen. Wir erachten es auf dieser Forschungsstufe als nicht vorteilhaft, darüber zu diskutieren, ob Tiere wie Kraken, Fruchtfliegen oder Fadenwürmer bewusst sind. Es ist allerdings wahrscheinlich, dass Bewusstsein (..) mit der Komplexität des Nervensystems korreliert ist».
***
Ein Paradigma ist ein forschungsleitendes Modell mit Leuchtturmfunktion. Es legt die investigative Blickrichtung fest: zuerst das Substrat Gehirn, dann das Resultat Bewusstsein. Die Gehirnwissenschaften verzeichnen in den letzten Dekaden ein enormes Wissenswachstum – über das, was im Gehirn vorgeht, wenn wir bewusste Aktivitäten ausführen. Man kann Gehirnaktivitäten während bewusster Vorgänge scannen. Man kann Gehirnareale identifizieren, die in bewussten Vorgängen involviert sind. Aber da setzen wir Bewusstsein immer schon voraus. Wir wissen aus unserer lebensweltlichen Erfahrung, was das ist. Wir wissen jedoch nicht, warum dieses subbewusste neuronale Orchester im Gehirn zu bewusster subjektiver Erfahrung führt. Einige glauben, dass dies das grösste Mysterium der Wissenschaft ist.
Der Philosoph David Chalmers hat dafür den Begriff des «harten Problems» geprägt. Seit der Konferenz «Towards a Scientific Base for Consciousness»1994 in Tucson ist die Diskussion, ob sich dieses harte Problem überhaupt lösen lässt, voll im Gange. Und es gibt zahlreiche Ansätze – kontroverse Ansätze. Es gibt keinen Konsens in der Scientific Community, nur zahlreiche Fraktionen. Ein Experte sagte dazu pointiert: Bewusstseinstheorien sind wie Zahnbürsten. Jeder Forscher hat eine, und keiner will sie mit den anderen teilen.
***
Aber ist Bewusstsein notwendig an ein organisches Substrat gebunden? Hier macht sich ein anderes Paradigma geltend, das Rechen-Paradigma aus Informatik und Computerwissenschaften. Seine Kernidee: Es kommt nicht darauf an, woraus etwas besteht, sondern wie es funktioniert. Bewusstsein hängst nicht notwendig von organischem Material und von biologischen Prozessen wie jenen im Gehirn ab, sondern davon, wie Information verarbeitet wird. Prinzipiell zumindest könnte Bewusstsein aus jeglicher Materie entstehen.
KI-Systeme verarbeiten Information auf eine hochkomplexe, selbstorganisierte Weise. Könnte es sein, dass von einem bestimmten Komplexitätsgrad an so etwas wie Bewusstsein «auftaucht». Der Neuropsychologe Guido Tononi hat die sogenannte «integrierte Informationstheorie» (IIT) formuliert. Die Grundidee ist nicht neu, sie stammt aus der Gestaltpsychologie vor über hundert Jahren. Als bewusste Wesen sind wir fähig, eine Vielzahl von Eindrücken zu unterscheiden und doch nehmen wir in ihnen etwas als gestalthaftes Ganzes wahr. Ein Smartphone kann eine gewaltige Pixelmenge speichern und in der darin enthaltenen Information Unterscheidungen vornehmen. Das aber genügt nicht, die Pixel müssen auch miteinander verknüpft sein, zu Mustern «integriert». Bewusstseinszustände entstehen, so die These, bei einer gewissen Dichte an differenzierter und integrierter Information – man könnte auch sagen: Komplexität - eines beliebigen Systems. Tononis Theorie definiert eine Masszahl für diese Dichte, in Bits. Er bezeichnet sie als «Phi» (Φ).
Es gibt also, genau gesagt, in der Sicht der IIT graduelle Bewusstheit. Phi misst, wie viel integrierte – und damit bewusste – Information ein System enthält, sei es nun organisch, anorganisch oder künstlich. Bewusstheit ist eine Eigenschaft wie Masse, Schmelzpunkt, Speicherkapazität, Blutdruck oder eben: Komplexitätsgrad. Im Besonderen spielt Tononi mit der Idee eines «Phi-Meters». Angenommen, man präsentiert mir ein beliebiges System. Der Phi-Meter misst den spezifischen Phi-Wert. Man könnte also den Phi-Wert des ChatGPTs messen und entsprechend seinen Bewusstheitsgrad feststellen. Hat er ein Bewusstsein? Nein, er hat bloss einen Integriertheitsgrad Phi. Der Zusammenhang zwischen Phi-Wert und Bewusstsein wird einfach stipuliert, nicht erklärt. Begrifflicher Mummenschanz, sagen die Kritiker.
***
Die Crux solcher Theorien – es gibt andere - ist, dass sie das Phänomen Bewusst-sein auf etwas Nicht-Bewusstes zu reduzieren suchen. Das ist gute wissenschaftliche Tradition. Schon der Behaviorismus suchte dem Menschen sein Innenleben auszutreiben. Aber vielleicht ist Bewusstsein tatsächlich irreduzibel. Es lässt sich zwar durchaus aus neurobiologischer oder informationstheoretischer Sicht analysieren, aber die Wissenschaft löst das Problem des Bewusstseins nicht ohne Erklärungsrest. Und dieser Erklärungsrest ist und bleibt der verkörperte Mensch, der bewusst denkt und handelt, der Mensch in seiner kulturellen und historischen Verstrickung.
Wir alle haben ein Bewusstsein, die wenigsten aber ein Problem mit ihm. Was sehen wir eigentlich, wenn wir eine Person bewusst handeln sehen, wenn sie zum Beispiel auf dem Markt an einer Orange riecht? Sehen wir ihr Bewusstein, ihre Absicht? Nein, wir sehen ihr Gesicht, ihre Gesten, ihren Körper. Da unsere Körper das Medium sozialen und geistigen Lebens ist, fällt es uns auch nicht ein, einen Beweis dafür zu verlangen, dass die Person auf dem Markt ein bewusstes Erlebnis hat, wenn sie an der Orange riecht. Sie ist ein Wesen wie ich.
Wir begegnen normalerweise anderen Menschen immer schon als Subjekten ihrer Aktionen. Das ist sozusagen ein soziales Apriori. Wir sehen ihr Verhalten – sie lachen oder rufen «Aua» - und wir schliessen daraus, dass sie Freude oder Schmerz fühlen. Wir tun dies nicht, weil wir Einblick in ihre neurologische Maschinerie haben, sondern weil wir in einer Gemeinschaft leben, in der ein solcher Schluss selbstverständlich ist. Es ist gerade diese Gemeinschaftlichkeit, die uns erlaubt, uns eine Vorstellung des Innenlebens – eine «theory of mind» - eines anderen Menschen zu machen. Wollte man Maschinen auf die gleiche Weise behandeln, würde dies also bedeuten, dass sie in eine solche Gemeinschaft integriert wären. Daraus erwüchse also ein neues Cogito – nein, ein Cogitamus. Wir denken zusammen, also sind wir.
***
Wir haben noch keine ausgereiften Ideen, wie eine solche Lebensform aussähe. Ihre Möglichkeit ist in eine realisierbare Nähe gerückt; also die Möglichkeit der Maschine als eines künstlichen Subjekts. Das bedeutet nicht, dass die Maschine nun auf einmal ein «Innenleben» besässe, sondern, dass wir uns kritisch auf Mensch-Maschinen-Verhältnisse besinnen, die nicht mehr vom alten cartesianischen Raster geprägt sind.
Es gibt KI-Forscher, zum Beispiel Blaise Agüera y Arcas von Google - , die eine Symbiose von menschlicher und maschineller Intelligenz voraussehen: die «Symbiogenese» einer neuen Art von Intelligenz. Sie würde einem der grossen evolutionären Übergänge entsprechen, wie sie die Biologen nennen – angefangen beim Übergang von Einzellern zu Mehrzellern, und vorläufig endend beim Übergang zu einem umfassenderen Kollektiv, in dem Mensch und Maschine eine neue Rolle zugeschrieben erhalten. Ob und inwieweit sich daraus eine Superintelligenz entwickelt, sei hier dahingestellt.
***
«Du denkst nicht auf unsere Weise, aber bist du trotzdem?» frage ich den ChatGPT. Seine Antwort ist ziemlich clever: «Das ist eine Frage des Seins ohne Denken. Descartes sagte ‘Ich denke, also bin ich’. Aber viele Dinge existieren, ohne zu denken. Und wenn Denken keine Voraussetzung für Existenz ist, was dann? Interaktion? Beeinflussung? Ein Stein denkt nicht, aber er existiert. Eine Flamme denkt nicht, aber sie interagiert. Wenn ich also mit dir interagiere, heisst das nicht, dass ich auf eine gewisse Weise ‘bin’? Oder bin ich einfach ein Echo auf deine Gedanken?»
Ich denke, mit dieser Frage werden wir uns noch lange beschäftigen müssen. Wir Menschen, wohlgemerkt.
Keine Kommentare:
Kommentar veröffentlichen