Mittwoch, 30. August 2023




NZZ, 25.8.23


Die irreführende Mythologie der Maschinenintelligenz

Künstlichkeit ist das einzige Klare an der künstlichen Intelligenz. Aber «Intelligenz»? Der Trick, der ein System intelligent macht, sei der, dass es keinen gibt, schrieb ein Pionier der KI - Marvin Minsky - vor fast 40 Jahren. Ungeachtet dessen dürfte sich ein Blick auf einige Fehlschlüsse loh-nen, die uns im Vergleich zwischen Mensch und Maschine immer wieder unterlaufen. Sie tragen nicht zum Verständnis bei, sondern verfestigen eine Mythologie der Maschinenintelligenz. 

***

In der KI-Forschung ist eine Steigerungsform geläufig: schwach (narrow), stark (general) und super. Lassen wir hier die Super-Stufe ausser Acht. KI-Systeme sind bisher sehr erfolgreich im Bewältigen von spezifischen Aufgaben. Meist handelt es sich um klar geregelte und abgrenzbare Bereiche wie etwa Spiele. Das ist die schwache Stufe.

Man vernimmt jetzt andauernd, wie rasant die Verbesserungen einiger KI-Systeme voranschreiten in Richtung starker Stufe. Die Prämisse lautet: Wir schreiten von den schwachen Anfängen der Computerintelligenz an langsam auf einem Kontinuum fort, bis wir an dessen Ende allgemei-ne künstliche Intelligenz erreichen werden.

Man nennt diese eindimensionale Sicht in KI-Kreisen den «Fehlschluss des ersten Schritts». Denn es ist überhaupt nicht ausgemacht, ob der gegenwärtig bevorzugte Ansatz auf ein allgemeineres Niveau der Intelligenz führt, wie wir es von Lebewesen her kennen. 

Hier macht sich ein anderer Fehlschluss bemerkbar: Fortschritt ist immer mehr vom Gleichen; immer mehr Daten, immer mehr Rechenkapazität, immer mehr «Neuronenschichten». Das Wun-dermittel: Hochskalieren. Es erinnert an das Sprichwort: Wer nur einen Hammer hat, sieht in allem bloss Nägel. Yann LeCun, einer der gegenwärtig führenden KI-Forscher, sagte kürzlich dazu: «Ich glaube nicht eine Sekunde an die Idee, dass wir die aktuellen grossen Sprachmodelle ein-fach hochskalieren müssen, um schliesslich allgemeine KI zu erhalten».

***

In KI-Kreisen beginnt sich die Einsicht durchzusetzen, dass Intelligenz viel mehr mit der organi-schen Hardware – der «Wetware» – zu tun hat, als bisher angenommen. Pointiert: Starke Intelli-genz ist biologische Intelligenz. Und hier erhält ein Problem Kontur, das die KI-Forschung noch lange beschäftigen dürfte. Es gibt eine immense Zahl intelligenter Lebensformen, vom Bakterium bis zum Bonobo. Und die Frage stellt sich, inwieweit und ob sich dieser evolutionäre Reichtum überhaupt je völlig algorithmisch ausbuchstabieren lässt. Dass nichtmenschliche Lebewesen Probleme lösen, die dem Menschen gewaltiges Kopfzerbrechen abverlangen, ist längst bekannt. Womöglich liegt im «Design» der Organismen ein noch nicht begriffener Evolutionsvorsprung der Natur gegenüber den KI-Systemen. Was nicht bedeutet, dass nur evolutionär entstandene Systeme intelligent sind, sondern, dass in der künftigen KI-Forschung die Biologie ein gewichtiges Wort mitreden wird. 

***

Damit hängt ein anderes Phänomen zusammen. Ein Grossteil unserer Fähigkeiten ist implizit. Das heisst, wir können etwas, ohne genau zu wissen, wie und warum wir das können. Das Knowhow erweist sich als «inkarniert» in den körperlichen Automatismen. Ob sich in Maschinen etwas Analoges implemetieren lässt, ist eine offene Frage.  

Jedenfalls stossen wir auf eine höchst eigentümliche Asymmetrie: Vieles, was für die Menschen schwierig ist, ist für die Maschine leicht – und umgekehrt. Oft lösen Maschinen Probleme, die für uns harte Knacknüsse sind. Und oft scheitern sie an Problemen, die wir dank Commonsense, also Hausverstand, spielend lösen. Commonsense ist der Sammelbegriff für alles, was den Computerwissenschaftlern Kopfzerbrechen bereitet.

Man hat Commonsense auch schon als «dunkle Materie» der KI bezeichnet, die grosse Unbekannte der Intelligenz. In KI-Kreisen spricht man vom «Moravec-Paradox», nach dem Robotiker Hans Moravec, der sagte: «Es ist relativ leicht, den Computer auf einer Erwachsenenstufe Intelligenztests bestehen oder Schach spielen zu lassen, und es ist schwierig oder unmöglich, ihnen die Fertigkeit eines einjährigen Kindes im Wahrnehmen oder Bewegen beizubringen».

***

Genügend vielschichtige neuronale Netze sind Black Boxes. Sie haben Milliarden von Parametern, die sie automatisch justieren. Wenn wir all die Prozesse, die in einem Computer ablaufen, rein maschinentechnisch beschreiben müssten, wären wir aufgeschmissen. In Ermangelung einer besseren Alternative greifen wir zu Metaphern aus der Psychologie. Der Computerwissenschaftler Drew Mc Dermott prägte 1976 den Begriff der «hoffnungsvollen Eselsbrücke» («wishful mnemonics»).

Wir wünschen uns, dass der Computer es macht wie wir, also nutzen wir anthropomorphisierende Wörter für ihn: Das brachenübliche Marketing kündigt vollmundig menschenähnliche Fähigkeiten an. Zum Beispiel «Watson kann alle Texte über Gesundheitsfürsorge in Sekunden lesen» (IBM), oder «Das KI-Modell hat den Menschen im Verstehen von natürlichen Sprachen überflügelt» (Microsoft). Kein Wort davon, was mit «lesen» und «verstehen» genau gemeint ist.

***

Um noch einmal auf den Körper zurückzukommen: Intelligenz beruht auf Gehirnaktivitäten, letztlich auf Biochemie. Unser Gehirn bewältigt eine Unmenge an Informationen im Ur-Modus, in dem wir nicht in einen «höheren Denkgang» schalten müssen, sondern einfach die Automatismen unserer neuronalen Schaltkreise – das Unbewusste - arbeiten lassen.

KI, wie wir sie kennen, beruht auf Statistik, Mathematik. Im natürlichen Gehirn sind die Neuronen über Synapsen verbunden, und die Signalübertragung erfolgt durch chemische Vorgänge: Ausschütten von Neurotransmittern. Das künstliche Gehirn modelliert diesen Vorgang mathematisch, indem es den chemischen Vorgang durch einen Zahlenwert des künstlichen Neurons, das Gewicht, ersetzt. Dieses Modell funktioniert überraschend gut, in vielen Anwendungsgebieten mit einer Präzision, die dazu verleitet, das Modell des Gehirns mit dem Gehirn zu verwechseln. Ein kolossaler Fehlschluss.

***

Die hier kurz besprochenen Fehlschlüsse sind nicht die einzigen im Missverstehen der KI. Forscherinnen und Forscher, die über den engen Horizont des Algorithmendesigns hinaus blicken, wie Melanie Mitchell vom Santa Fe Institute in New Mexico, hinterfragen sie schon lange. Doch sie werden viel zu wenig gehört. Wie es scheint, sind die Fehlschlüsse bereits Bestandteil unserer gängigen Vorstellung über Maschinenintelligenz, will sagen: Selbstverständlichkeiten. 

 Selbstverständlichkeiten tendieren dazu, ins kollektive Unbewusste zu sinken, und sich dabei in ein «Gefühl» zu verwandeln. Wir haben das Gefühl, KI-Systeme würden «denken», uns gegen-über «feindlich» gestimmt sein, uns vielleicht beherrschen «wollen». Ein Grossteil der gegenwärtigen Pop-Kultur rund um die KI bestärkt dieses Gefühl.  Obwohl, nein, weil die gängige Vorstellung über Maschinenintelligenz einer kritischen Befragung nicht standhält, verhext sie unseren Verstand. Sie bildet die Mythologie maschineller Intelligenz.

Und diese Mythologie hat uns mächtig im Griff. Wenn Rationalität bedeutet, sich diesem Griff durch Reflexion zu entziehen, dann leben wir in einem völlig irrationalen Zeitalter.


Dienstag, 29. August 2023

 


                                   Oh, l'été au bord du lac de Morat

Sonntag, 13. August 2023

 

                       David Chalmers                              Christof Koch


Das «harte Problem» des Bewusstseins

Integrierte Information, Quantendekohärenz, Emergenz… und was noch?

Was ist Bewusstsein? Vor 25 Jahren stritten ein Neurowissenschaftler und ein Philosoph über diese faszinierende und zugleich frustrierende Frage. Der Neurowissenschaftler Christof Koch vertrat die These, dass das Phänomen des Bewussteins auf der Basis neurophysiologischer Vorgänge erklärbar sei. Dagegen erhob der damals kaum bekannte junge australische Philosoph David Chalmers den kecken Einwand, dass der neurophysiologische Kenntnisstand allein, und mag er noch so hoch sein, nicht erklären könne, wie Bewusstsein aus Gehirnprozesses «auftaucht». Und er prägte einen mittlerweile notorischen Begriff für diese Unzulänglichkeit: das «harte Problem» des Bewussteins. Koch ging mit Chalmers eine Wette ein: Im Jahre 2023 würde man ein neuronales Muster entdeckt haben, das dem Bewusstsein zugrundeliegt, das harte Problem also gelöst sein. Wettgewinn: Eine Kiste Wein. Chalmers erhielt sie im Juni 2023. 

***

Das harte Problem ist nicht neu. Wir «verdanken» es in moderner Fassung der Philosophie von René Descartes. Schon bei ihm stand das Gehirn im Fokus. Er spekulierte darüber, wie dieses Organ Gedanken hervorbringen kann. In der mechanistischen Weltsicht entpuppte sich Bewusst-sein als eine «okkulte» Eigenschaft des Gehirns. Und obwohl Descartes sich seinen genialen Kopf zerbrach, fand er letztlich keine befriedigende Erklärung dafür, wie ein Gedanke – etwas «Unausgedehntes», Nicht-Mechanisches - dem Gehirn – etwas «Ausgedehntem», Mechanischem - entspringt. Er hat das Problem der modernen Gehirnforschung vererbt. Und sie bekundet auch mit entwickelten Theorien ihre liebe Mühe.

Werfen wir zunächst einen Blick auf die Problemstruktur. Sie ist einfach. Man geht aus von Eigenschaften X1, X2, X3… der Materie – des Gehirns - , und versucht, ein Phänomen – Bewusst-sein - zu erklären, das daraus resultiert, aber X1, X2, X3… nicht hat. Es übersteigt gewissermassen den Horizont dieser Eigenschaften. Das Gehirn hat eine Masse, eine chemische Zusammensetzung, eine elektrische Leitfähigkeit et cetera pp. – was man vom Gedanken, der ihm entstammt, nicht sagen kann. Gewiss, Bewusstsein «hat etwas zu tun» mit einem neuronalen Muster, aber der Umkehrschluss, dass dieses Muster allein bewusstes Verhalten erklärt, ist ein reduktio-nistischer Erz-Irrtum. 

***

Sind wir heute weiter gekommen? Die Fortschritte der Gehirnforschung sind beeindruckend. Heute machen sich neurokybernetische Modelle anheischig, Descartes’ Problem zu «lösen». Ein prominentes  stammt von Christoph Koch und Guido Tononi: die  «integrierte Informationstheorie» (IIT).  

Die Grundidee: Bewusste Zustände sind differenziert und integriert. Als bewusste Wesen sind wir fähig, eine Vielzahl von Eindrücken zu unterscheiden und doch nehmen wir in ihnen etwas als gestalthaftes Ganzes wahr. Ein Smartphone kann eine gewaltige Pixelmenge speichern und in der darin enthaltenen Information Unterscheidungen vornehmen. Das aber genügt nicht, die Pixel müssen auch miteinander verknüpft sein, zu Mustern «integriert». Bewusstseinszustände entstehen, so die These, bei einer gewissen Dichte an differenzierter und integrierter Information – man könnte auch sagen: Komplexität - eines beliebigen Systems. Tononis Theorie definiert eine Masszahl für diese Dichte, in Bits. Sie wird als «Phi» (Φ) bezeichnet. 

Es gibt also für Tononi graduelle Bewusstheit. Phi misst, wie viel integrierte – und damit bewusste – Information ein System enthält, sei es nun organisch, anorganisch oder künstlich. Bewusst-sein ist eine Eigenschaft wie Masse, Schmelzpunkt, Speicherkapazität, Blutdruck oder eben: Komplexitätsgrad eines beliebigen Systems. Tononi spielt im Besonderen mit der Idee eines «Phi-Meters», der für jedes System einen spezifischen Wert berechnet: Menschen, Katzen, Google-Autos, Smartphones. Was sagt uns dieser Wert? Angenommen, man präsentiert mir ein beliebiges System. Ich messe seinen Phi-Wert. Hat es ein Bewusstsein? Nein, nur einen Phi-Wert. Der Zusammenhang zwischen Phi-Wert und Bewusstsein wird einfach stipuliert, nicht erklärt. Das harte Problem bleibt. 

***

Natürlich darf die magistrale Erklärerin Quantentheorie nicht fehlen. Der Physiker Roger Penrose und der Anästhesiologe Stuart Hameroff haben ihre eigene Erklärung des Bewusstseins entwickelt. An neurophysiologischen Prozessen sind Mikroobjekte beteiligt, bei denen sich (unter Umständen) Quanteneffekte bemerkbar machen. Hameroff vermutet einen wichtigen Ort für neuronale Quantenereignisse in so genannten Mikrotubuli. Es handelt sich um Proteinfäden, die innerhalb der Nervenzellen als molekulare Informationsübermittler fungieren. Die Hypothese von Penrose und Hameroff lautet, dass Mikrotubuli genügend klein sind, um Quanteneffekte zu zeigen. Das heisst, die Zustände vieler Mikrotubuli können sich zum Gesamtzustand eines verschränkten Quantenobjekts überlagern. Der Kollaps dieses Gesamtzustands – im Jargon: der Dekohärenz -,  manifestiert sich als Bewusstsein.

Spekulation auf hohem Seil, sagen nicht wenige. Erstens ist unklar, ob Mikrotubuli eine zentrale Rolle in Bewusstseinsvorgängen spielen. Zweitens beruft sich Pensose auf eine «modifizierte» neue Quantentheorie, die nach seiner Ansicht die Gravitation auf neurobiologischer Ebene einführen würde und diese Vorgänge erklären könnte. Aber die Theorie existiert (noch) nicht. Überdies herrscht unter Physikern alles andere als Einigjkeit über den Begriff der Dekohärenz.  Das Vorhaben von Penrose erinnert ein wenig an das alte Projekt der Alchemisten mit ihrer Devise: Ignotum per ignotius – das Unbekannte aus noch weniger Bekanntem erklären. In diesem Zusammenhang schwebt mir immer ein Bild des amerikanischen Cartoonisten Stanley Harris vor Augen. Zwei Wissenschaftler stehen vor einer Wandtafel. Links ein Haufen Formeln, rechts ein Haufen Formeln. Die Forscher diskutieren offensichtlich die Frage, wie man von links nach rechts gerät. Als Missing Link steht dazwischen der Satz: «Dann geschieht ein Wunder..». Der zweite Forscher sagt zum ersten: «Ich glaube, Sie sollten in diesem Schritt etwas expliziter sein».

***

Um noch einmal auf die «harte» Problemstruktur zurückzukommen. Ein System besteht aus Elementen. Diese haben eine Reihe von Eigenschaften. Im System als Ganzem manifestiert sich eine neue Eigenschaft, die sich nicht auf die elementaren zurückführen lassen. Man spricht von «Emergenz».  Wasser ist nass, ein Wassermolekül ist nicht nass. Bewusstsein ist eine Eigenschaft, die aus dem Kollektivverhalten der Neuronen emergiert. Die Neuronen sind nicht bewusst. 

In den letzten zwei Jahrzehnten hat sich der Emergenzbegriff als Hoffnungsträger in der Erklärung von vielen komplexen Phänomenen angeboten, von der Physik und Chemie, über Biologie und Neurowissenschaft bis zur Soziologie und KI-Forschung.  Das Problem ist allerdings gerade sein explikatives Vermögen. Wenn wir sagen «Bewusstsein emergiert aus neuronalen Prozessen», dann machen wir eine Beobachtung, und bekunden zugleich unsere Ignoranz. Das heisst, wir liefern keine Erklärung. Wir wissen nicht wie und warum dies geschieht. Eine Emergenztheorie des Bewusstsens müsste ja die Eigenschaft «Bewusstsein» aus dem Verhalten der Elemente eines neuronalen Netzes voraussagen können. Wie soll man aber etwas voraussagen, das man erst kennt, wenn es «aufgetaucht» ist? 

Neulich las ich einen kleinen, sehr aufschlussreichen Essay: «Emergenz ist keine Erklärung, sondern ein Gebet».  Der Titel sagt alles. Die Theorien des Bewusstseins, die wir bis heute kennen, sind Theorieversprechen. Ein leeres? Werden sie je etwas anderes sein? Ich weiss nicht, ob Koch und Chalmers eine neue Wette eingehen.







Dienstag, 1. August 2023

 



NZZ, 20.7.23

Unbegreifliche Maschinen

Die vier Gesetze der Maschinenintelligenz


Wir bauen mit neuronalen Netzen einen neuen Maschinentypus: unbegreifliche Maschinen. Natürlich kennen die Designer den Aufbau eines Netzes. Die mathematischen Prinzipien seiner Architektur sind sogar erstaunlich einfach. Die Basiselemente, die «Neuronen», arbeiten nach bestimmten wohlformulierten Regeln der Transformation und Optimierung von Datenströmen. Aber das Ganze ist nicht durch ein Master-Programm gesteuert – ebensowenig wie unser Hirn. 

Und hier beginnt das Problem. Neuronale Netzwerke bestehen heute schon aus Milliarden von Parametern, die einen numerischen Input in einen numerischen Output verwandeln. Das heisst, das System entwickelt womöglich Prozeduren, die nur es selbst kennt. Der Designer hat begrenzten – wenn überhaupt - Einblick in das, was sich im Innern abspielt. Mit zunehmender Schichttiefe wird das Netz selbständiger: eine Black Box. Es manifestiert sich  ein umgekehrtes Verhältnis von genauer Voraussage und Verstehbarkeit: Je fähiger das System zu exakter Voraussage ist, desto schwieriger ist es interpretierbar. 

***

Spricht man von der Unbegreiflichkeit eines KI-Systems, stellt man gewöhnlich drei Fragen: Ist es steuerbar? Ist es vollständig beschreibbar? Ist es verstehbar? Alle drei Fragen haben eine Antwort in der Form von Gesetzen über komplexe Systeme. 

Das erste stammt vom Neurokybernetiker William Ross Ashby: Um ein System erfolgreich zu steuern, brauchen wir einen Kontrollmechanismus, der mindestens ebenso komplex ist wie das System. Man könnte auch sagen: Ist ein System hinreichend komplex, kann nur es selbst sich steuern. 

Das zweite Gesetz, benannt nach dem Mathematiker John von Neumann, lautet: Das einfachste Modell, ein komplexes System vollständig zu beschreiben, ist das System selbst. Jeder Versuch, das Systemverhalten in einem Formalismus zu vereinfachen, verkompliziert die Sache nur. 

Schliesslich das dritte Gesetz, vom Technikhistoriker George Dyson formuliert: Ein System, das man vollständig versteht, ist nicht komplex genug, um intelligentes Verhalten zu manifestieren; und ein System, das intelligentes Verhalten manifestiert, ist zu komplex, um vollständig verstanden zu werden. 

Die drei Gesetze markieren die Schwelle zu einem Zeitalter autonomer Artefakte. Wir sind im Begriff, sie zu überschreiten. Beispiele von Systemen, die den drei Gesetzen unterliegen, kennen wir bereits: Verkehrsnetze, soziale Netze, überhaupt Beziehungsgeflechte im Internet. Sie steuern sich selbst, kennen keine vereinfachende Beschreibung, und sie verhalten sich auf eine «intelligente» Weise, die wir nicht mehr komplett durchschauen. 

***

Vor allem das dritte Gesetz hat es in sich. Angenommen, ein neuronales Netz lernt Mathematik von null auf. Zunächst einfache arithmetische Operationen, dann immer höhere Stufen. Es er-reicht schliesslich eine metamathematische Stufe, auf der es uns den Beweis eines mathematischen Theorems liefert, den wir nicht nachvollziehen können. Gilt das als Beweis? 

KI-Systeme dieser Art stellen uns eine verwirrende philosophische Frage: Ist eine unbegreifliche Intelligenz überhaupt eine Intelligenz? Welche Massstäbe legen wir an sie an? Wenn man uns ein Artfeakt präsentiert und von ihm sagt, es sei intelligent, dann werden wir fragen: Aha, hat es so etwas wie eine kognitive Ausstattung, mit der unseren vergleichbar? Und wenn nicht, können wir fragen: Nun gut, wir verstehen nicht, wie die Intelligenz dieses Dings funktioniert, aber bringt es etwas hervor, das sich mit intelligenten menschlichen Hervorbringungen vergleichen lässt? Der Vergleich ist freilich kein Beweis der fremden Intelligenz. Er liefert uns einfach die Basis für den Glauben an die fremde Intelligenz. Das könnte als viertes Gesetz bezeichnet werden.

***

Ist also die Intelligenz einer unbegreiflichen Maschine eine Glaubensfrage, wie jene an Gott? Zu-mindest zwingt sie uns zum Überdenken des menschlichen Denkens. Seit Alan Turing ist die KI-Forschung mesmerisiert von der Aussicht, alles, was der Mensch tun kann, an Rechenprozesse zu delegieren. Die Deep-Learning-Forscher weisen auch gerne darauf hin, dass das Schichtenmodell neuronaler Netze eine primitive Simulation der Aktivitäten in den Hirnschichten darstelle. Wir wissen mittlerweile ziemlich gut Bescheid über Rechner, aber wir wissen noch lange nicht, wie das Gehirn funktioniert, und selbst wenn wir es wüssten, bedeutete das nicht, dass das Gehirn ein Rechner ist. Der Rechner ist nüchtern gesehen eine heuristische Metapher. Und wenn wir die Metapher mit dem verwechseln, wofür sie steht, dann erliegen wir einer epochalen Missdeutung. 

Ich leugne keineswegs die heuristische Nützlichkeit der Metapher. Vergessen wir nur nicht, dass die Evolution immerhin Jahrmillionen benötigte, um das biologische neuronale Netz in der Wet-ware zu schaffen. Nun massen sich ein paar übereifrige Algorithmentüftler und Computeringenieure an, dies in ein paar Jahrzehnten in der Soft- und Hardware zu bewerkstelligen. 

Vielleicht hängt aber die organische Intelligenz enger mit unserer biologischen Wetware zusammen als bisher angenommen. Bereits experimentieren unkonventionelle Informatiker wie etwa der Brite Andrew Adamatzky mit Schleimpilzen. Er nimmt deren Problemlösungsverfahren bei der Nahrungssuche zum Vorbild alternativer «organischer» Algorithmen. Womöglich liegt die Zukunft der Technologie im Schleim.

***

Künstliche Intelligenz bleibt uns zutiefst fremd. Wir schaffen mit ihr im Grunde eine Sorte neuartiger Entitäten - unsere eigenen Aliens. Und diese Aliens werden sich, trotz aller Bemühungen, wahrscheinlich nicht unserem Alltag adaptieren. Eher passen wir unseren Alltag ihnen an. Zum Beispiel wird ein Grossteil des globalen Finanzmarktes von solchen «Aliens» - Algorithmen - gesteuert, in deren unerforschliche Ratschlüsse man kaum noch Einblick hat. Den Strategien von Go-Programmen kommen  selbst Grossmeister schwer, wenn überhaupt auf die Schliche. Sie mu-ten wie eine «torkelnde» Intelligenz an, die scheinbar unlogisch, in zufallsgesteuerter Weise ihre Schritte vollführt. Fremd und unbegreiflich, wie ein aussergalaktisches Wesen.

Wir neigen dazu, die fremde Intelligenz zu vermenschlichen.  Eine autonome künstliche Intelligenz könnte aber so geartet sein, dass ihr menschliche Motive und Intentionen unbekannt sind. Sie nähme uns also in diesem Sinne gar nicht wahr, oder als etwas, von dem wir keinen Begriff haben. Die Inputs dieser Systeme würden nach ganz anderen als humanen Imperativen und Modalitäten verarbeitet. Wir könnten ihre «Gedanken» nicht denken. Ihre Entscheidungen und Wege wären unergründlich – ein Numinosum.

***

Dadurch übt die KI-Technologie zweifellos eine unheimliche Verführungskraft aus. Sie macht den Menschen immer maschinen-kompatibler. Man kann deshalb  in den unbegreiflichen Maschinen den Anlass zu einem Paradigmenwechsel sehen. Der Ruf nach einem auf den Menschen zugeschnittenen Maschinendesign wird laut, kürzlich etwa im Buch «Human Compatible», geschrieben von einem der führenden KI-Wissenschafter, Stuart Russell. Dazu muss man aber den Menschen wiederentdecken, nicht nur seine Schwächen, welche die Maschine beheben kann, sondern seine Stärken, die sich nicht an die Maschine delegieren lassen. 


Dringend nötig wäre deshalb nicht ein halbjähriges Moratorium in der KI-Forschung, wie kürzlich gefordert, sondern ein vertieftes Nachdenken über die Wechselwirkung von Mensch und Maschine im 21. Jahrhundert. Die unaufhaltsame Fortentwicklung der KI verlangt nach einer anthropologischen Analyse der Technologie, die mit ihr Schritt hält. Die unbegreifliche Maschine ist also kurz gesagt ein Appell an den Menschen, sich neu begreifen zu lernen – ein Appell an seine Intelligenz. 


  Der «Verzehr» des Partners Kant und der aufgeklärte Geschlechtsverkehr Kant zeigte philosophisches Interesse nicht nur an Vernunft und Urt...