Die philosophische Herausforderung der KI
Eine der philosophischen Grundannahmen der Neuzeit stammt aus dem 17. Jahrhundert, von René Descartes. Zwischen Mensch und Maschine gibt es einen fundamentalen Unterschied. Der Mensch ist eine denkende – eine «cogitierende» - Sache, die Maschine ist eine bloss funktionierende – eine «ausgedehnte» - Sache. Tiere sind natürliche – von Gott geschaffene – Maschinen. Auch der menschliche Körper. Er kann in rein mechanistischen Termen begriffen werden. Dass der Mensch mit einer denkerischen Potenz – mit dem «lumen naturale» - ausgestattet ist, hebt ihn auch gleich aus dem ganzen Tierreich hervor. Mit einer sehr einflussreichen Metapher des 20. Jahrhunderts gesprochen, ist der Mensch eine Maschine mit einem Geist drin.
Diese Auffassung beherrscht das moderne Denken bis in die heutigen Tage, vornehmlich in den Naturwissenschaften, wenn auch in elaborierterer Form. Die Auffassung wurde in der Philosophie immer wieder kritisiert, vor allem in der philosophischen Anthropologie, die den menschlichen Körper nicht als blossen Apparat betrachten will, sondern als einen «durchgeistigten». Das heisst, man weigert sich, im Hinblick auf den menschlichen Körper eine strikte Zweiteilung vor-zunehmen, und ihn vielmehr als eine Körper-Geist-Entität zu betrachten. Gerade in der Medizin ist diese Debatte seit langem im Gange.
***
Eine andere Kritik dieser dualistischen Auffassung liess sich schon in der Mitte des 20. Jahrhunderts aus einem ganz anderen Gebiet vernehmen: aus den Computerwissenschaften. Die Pioniere kehrten sozusagen das cartesianische Paradigma um: Warum stammt der Geist nicht aus der Maschine? Wenn man einem künstlichen System eine hinreichend komplexe kognitive Infrastruktur implementieren könnte, liesse sich da nicht von einem künstlichen «Geist» darin reden? Die Frage sollte unaufhaltsam in die Schlüsseltechnologie des 21. Jahrhunderts führen.
Die Herausforderung der «cogitierenden» Maschine zeigt sich technisch darin, dass es uns immer mehr gelingt, Systeme zu bauen, deren «Intelligenz»-Leistungen ein menschliches Niveau erreichen. Und sie äussert sich philosophisch in der Zurückweisung des menschlichen Anspruchs auf Exzeptionalität dank seiner kognitiven Ausstattung.
Formulieren wir diesen Abschied vom cartesianischen Paradigma so: Es gibt fremde Intelligenzen neben der des Menschen, sowohl im Tierreich – von den Bakterien bis zu den Bonobos - , als auch im Reich der Technologie. Das Argument, dass es sich hier nicht um «reale» Intelligenzen handelt, ist ziemlich zahnlos, solange man Intelligenz allein dem Menschen zuschreibt. Wie wenn Störche den Anspruch erhöben, nur sie wüssten «wirklich» zu fliegen, andere Vögel nicht. Lässt man den Exzeptionalitätsanspruch des «wirklich» fallen, stehen wir vor der epochalen philosophischen Frage: Was ist fremde Intelligenz? Wie ist die menschliche Intelligenz im Vergleich zu anderen Formen einzuordnen?
***
Komplexe Maschinen wie KI-Systeme haben schon heute eine «Tiefe» erreicht, die sie als nicht mehr völlig transparent erscheinen lässt. Allein diese Eigenschaft hebt sie vom herkömmlichen Tool ab und macht eine differenziertere Betrachtung als die binäre Mensch-Maschinen-Beziehung notwendig.
Der Philosoph Daniel Dennett schlug schon vor einiger Zeit drei Grundeinstellungen zu KI-Systemen vor: die physikalische, die Design-, und die intentionale Einstellung. In der ersten Einstellung lässt sich das System physikalisch völlig durchleuchten bis zu seinen Bestandteilen. Wir können die ganze Hardware des Computers in dieser Einstellung als ein physikalisches System betrachten. Die Funktionen dieser Hardware – ihr Design zur Datenverarbeitung - verlangen eine zusätzliche zweite Einstellung. In dieser Einstellung ist der Computer nicht einfach ein Stück Physik, sondern ein Stück Physik, das rechnet und «intelligente» Aufgaben löst. Heute bekommen wir es zunehmend mit KI-Systemen zu tun, lernenden Maschinen, die eine dritte Einstellung erfordern. Wir kennen ihre Hardware, ihr Design, aber ihre Arbeitsweise lässt sich mit keinem anderen Vokabular beschreiben als jenem, das wir auch für den Menschen verwenden: als verfolgte die Maschine Ziele, hätte Absichten, Wünsche, Abneigungen. Diese intentionale Einstellung manifestiert sich heute schon ganz banal darin, dass wir sagen, der ChatGPT «schreibe» einen Text. Wer wäre in der Lage, dieses «Schreiben» als Hardware-Vorgang zu beschreiben.
***
Dies führt nun allerdings auch grundlegend zu einem neuen Mensch-Maschinen-Verhältnis. Die traditionelle Auffassung von KI-Systemen sieht in ihnen Werkzeuge, Tools. Sie setzt damit den Menschen in die Stellung des Souveräns der Technik: er benutzt sie. Nun haben diese Tools mittlerweile einen Autonomiegrad erreicht, der die herkömmliche Auffassung obsolet erscheinen lässt. Man betrachtet heute KI-Systeme als künstliche «Agenten». Sie verrichten Dinge «von selbst». Unsere Beziehung zu ihnen verändert sich auf eine folgenreiche Weise. Wir beobachten dies seit längerem in vielen sozialen Aktivitäten. Wir sind geradezu verschossen in die «Lebendigkeit» von Artefakten. Ohne sie vermenschlichen zu wollen, gestehen wir ihnen heute eine Eigeninitiative zu, wie wir dies ja bei Menschen ganz selbstverständlich tun. Eine lose Metaphorik spricht schon seit langem von Automaten, die «entscheiden», «planen», «wahrnehmen», «auswählen», «voraussehen». Umgangsformen greifen Platz, in denen Maschinen die Rolle von Partnern, Akteuren, Quasi-Personen, Usurpatoren, womöglich Feinden übernehmen. Die Maschine beginnt zu lernen. Sie entwickelt sich auf eine kognitive Stufe zu, auf der man ihr menschenähnliche Intelligenz zuschreibt - bald einmal vielleicht Bewusstsein, Intentionalität, Sensibilität, ja, Personalität. Wir kommunizieren heute mit dem Chatbot wie mit einer menschlichen Person. Einigen Robotern hat man bereits Bürgerrechte zugesprochen. Das Tool wird zum Mitbürger. Wir steuern auf eine Homo-Robo-Gesellschaft zu.
***
Wir verkehren also mit KI-Systemen schon lange in der intentionalen Einstellung. Und das er-fordert, den intelligenten Artefakten einen neuartigen ontologischen Status zuzubilligen. Sie sind nicht einfach Maschinen, aber auch nicht Personen. Was dann? Die Situation erinnert an die Diskussion über Tierrechte, in der man von der Sicht der Tier als Sache zur Sicht des Tiers als Rechtssubjekt überging - selbstverständlich verknüpft mit dornigen juristischen Problemen.
Wie hältst du es mit den neuesten KI-Systemen? Blosse Tools oder Tools mit einer gewissen Eigenständigkeit und Handlungsmächtigkeit – also eigentlich künstliche Subjekte? Die Frage markiert die Wasserscheide zwischen cartesianischem und postcartesianischem Zeitalter.
Artefakte als Subjekte zu akzeptieren, widerspricht der herkömmlichen philosophischen Auffassung des Denkens und Handelns, zumal zwei Grundvoraussetzungen: Ein denkendes und handelndes Subjekt ist lebendig und hat eine «Innerlichkeit»: Absichten, Wünsche, ein Bewusstsein. Bei KI-Systemen ist das offensichtlich nicht der Fall. Sie «denken und handeln» auf eine Weise, die sich mit den herkömmlichen Begriffen nicht abdecken lässt. Wir haben somit die Wahl: Wir sprechen ihnen Denk- und Handlungsfähigkeit ab, oder wir erweitern unser konzeptuelles Arsenal so, dass wir damit auch Artefakte beschrieben können.
***
Ich glaube, die zweite Option ist unumgänglich. Je entwickelter die Maschinen, desto mehr werden wir unsere philosophisch vererbte Begrifflichkeit anpassen müssen. Das heisst nicht, dass die Maschinen nun auf einmal denk- und handlungsfähig wären, sondern dass wir ihre Aktionen differenzierter beurteilen als im herkömmlichen binären Raster: lebend oder nicht lebend; menschlich oder «maschinell».
Das cartesianische Raster ermöglichte es, uns als intelligente Maschinen von allen anderen – organischen und anorganischen – unintelligenten Maschinen abzuheben. Da wir es nun aber immer mehr mit artfremden Intelligenzen zu tun bekommen, ist diese Ausnahmestellung obsolet geworden. Es ist, als ob die Maschinen, die wir erfunden haben, uns nun dazu zwingen, uns als Menschen neu zu definieren.
Keine Kommentare:
Kommentar veröffentlichen