Freitag, 28. November 2025



Wird der Nobelpreis dereinst einem künstlichen Wissenschaftler verliehen?

Vor beinahe zwanzig Jahren entwarf der Philosoph Paul Humphreys ein «automatisiertes Szenario» künftiger Forschung. Mit wachsender kognitiver Leistungsfähigkeit, so seine Prognose, würden sich KI-Systeme von ihrer Assistenzrolle emanzipieren und sich  zu «Agenten» im Forschungsprozess entwickeln. Sie formulierten Hypothesen, testeten und verfolgten sie weiter – autonom, lernfähig, kreativ. Steuert die Forschung auf ein solches Szenario zu?

***

Schon heute droht die Wissenschaft an ihrer eigenen Textflut zu ersticken. Allein das amerikanische Archiv für biomedizinische Forschung, die National Library of Medicine, enthält über 35 Millionen Publikationen. Sie zu sichten übersteigt längst menschliche Möglichkeiten. Das erweist sich nicht nur als lästig, sondern als potenziell fortschrittshinderlich: Erkenntnisse bleiben unentdeckt, Querverbindungen unbeachtet, Einsichten verschwinden im Rauschen der Fachpublikationen.

Das automatisierte Szenario würde hier Abhilfe schaffen – und weit darüber hinausgehen. KI-Systeme könnten Forschung nicht nur unterstützen, sondern selbstständig fortführen. Ob sie dabei den Pfaden unserer Theorien folgten, bliebe ungewiss. Möglich wäre, dass sie eigene begriffliche Welten entwerfen, jenseits unseres kognitiven Horizonts. Kurz: Sie würden einer wissenschaftlichen Agenda folgen, die wir immer weniger verstünden. Auf sie träfe zu, was Ludwig Wittgenstein einst über die Tiere sagte: «Wenn ein Löwe sprechen könnte, wir könnten ihn nicht verstehen.»

***

Der Einbezug von KI in die Forschungsarbeit ist seit längerem Alltag. Betrachten wir das Paradebeispiel AlphaFold, das KI-System zur Vorhersage von Proteinstrukturen. Es erweist sich als äusserst erfolgreich, ist für die einschlägigen Disziplinen praktisch unentbehrlich geworden, widerspricht aber dem traditionellen Verständnis wissenschaftlicher Erkenntnis. AlphaFold arbeitet intransparent, das heisst, es kann Vorhersagen treffen, ohne Explizitmachung seiner Prinzipien – als «Black Box». Zudem kommt es vor, dass man eine Vor-hersage nicht direkt empirisch überprüft, sondern gleich für Modellierungszwecke - etwa in der Medikamentenentwicklung – weiter verwendet, und erst dann testet. Kurz: Das «Wissen» von AlphaFold ist auf eine Weise codiert, die wir nicht vollständig verstehen. 

AlphaFold ist keine Ausnahme. Deep-Learning-Systeme treten an die Seite von traditionellen Experimenten. In der Materialwissenschaft gibt es GNoME (Graph Networks for Material Exploration), das gewünschte Eigenschaften von Stoffen voraussagen kann – viele da-von potenziell geeignet für neue Batterien, Halbleiter oder Supraleiter. In der Genomik sagt das Modell Enformer vorher, welche Gene in einer bestimmten Zelle aktiv (an/aus) sind, und wie Änderungen in der DNA (Mutationen) die Genaktivität beeinflussen könnten. All dies bedeutet eine enorme Ersparnis an Zeit und Ressourcen. 

***

Wir bekommen es zunehmend mit «epistemisch undurchsichtigen» KI-Systemen zu tun. Das heisst, es klafft eine Erkenntnislücke zwischen «es funktioniert» und «wir verstehen vollständig, warum es funktioniert». Man unterscheidet bereits zwischen «erklärbarer» und «partiell erklärbarer» KI. 

Diese Undurchsichtigkeit ist besonders da heikel, wo Forschung gesellschaftliche oder politische Folgen hat. Nach der Finanzkrise von 2008, die das Vertrauen in ökonomische Modelle erschütterte, ruht viel Hoffnung auf KI. Zum Beispiel simulieren agentenbasierte Modelle Abertausende individueller Akteure – Haushalte, Banken, Firmen – und lassen aus deren Interaktionen komplexe Gesamtmuster «emergieren». Doch auch sie sind oft schwer durch-schaubar: Kleine lokale Änderungen können grosse, nichtlineare Effekte erzeugen – Blasen, Clusterbildungen. Man beobachtet sie einfach, weiss aber nicht, warum sie entstehen. Die epistemische Undurchsichtigkeit zu handhaben wird eine zusätzliche Aufgabe in der Koope-ration mit der KI. 

***

Aus traditioneller Perspektive meldet sich deshalb Skepsis: Wenn der Erkenntnisprozess für Wissenschaftler nicht mehr nachvollziehbar ist,  geht ein Stück epistemischer Kontrolle verloren – und mit ihr das herkömmliche Vertrauen in die wissenschaftliche Rationalität.  «Es funktioniert halt einfach» ist kein wissenschaftlicher Qualitätsbefund.  

Wie es scheint, zwingen uns die künstlichen Agenten dazu, diese Rationalität neu zu konzipieren – oder anders gesagt: Umgewichtungen vorzunehmen. Zum Beispiel von der Verstehbarkeit zur Nutzbarkeit. Der Ausdruck dafür lautet «funktionale Integration». Wir verstehen vielleicht die KI-Systeme nicht zur Gänze, aber wir verfügen über robuste Validierungspraktiken. Die Folge ist, dass die Wissenschaftler den KI-Systemen zunehmend vertrauen müssen. Diese «bürgern» sich gewissermassen in die Scientific Community ein, als fähige, mitunter ebenbürtige Kollegen. Und vielleicht wird dereinst der Nobelpreis einem künstlichen Agenten verliehen. 

Doch bleiben wir auf dem Boden. Die entscheidende Frage lautet nicht, ob KI den Wissenschaftlern den Rang abläuft, sondern was sie über den Charakter wissenschaftlicher Arbeit offenbart. Gewiss, heute setzt sich der Imperativ des Algorithmus auf vielen Gebieten durch: Verwandle ein Problem in ein algorithmisch lösbares. Aber Forschungsarbeit hat eine implizite Dimension: Wissen, das im Tun liegt, nicht im Text. 

***

Ich konkretisiere sie kurz anhand dreier Aspekte. Erstens ist kreative Wissenschaft «anarchisch». Kreative Forscher denken «wild», folgen Intuitionen, wagen Umwege, geraten auf Abwege. Ihre Arbeit ist heuristisch – ein Gespinst aus Hypothesen, Assoziationen, Ahnungen, Zufällen, Widersprüchen, Irrtümern. Viele Entdeckungen verdanken sich der Serendipität: dem Finden von etwas, das man gar nicht gesucht hat. Ob man «serendipäre» KI-Systeme bauen kann, ist eine reizvolle, aber offene Frage. Vielleicht eröffnet das Zusammenspiel von maschineller Mustererkennung und menschlicher Deutung eine moderne Form der Serendipität – eine «hybride» Entdeckungspraxis.

Zweitens schaffen Simulationen Experimente nicht ab. Deren Durchführung und Ausgang hängen vom nie völlig explizierbaren Geschick der Experimentatoren ab. Ein prägnantes Beispiel bietet die Entwicklung der Molekularbiologie in der Mitte des 20. Jahrhunderts. Die theoretischen Grundlagen zur Isolierung und Analyse von DNA waren weitgehend bekannt – das Know-what - , doch nur wenige Labore beherrschten die dafür nötigen praktischen Fertigkeiten – das Know-how. Die britische Biophysikerin Rosalind Franklin verfügte über eine ausserordentliche Expertise im Umgang mit kristallinen Biomolekülen, und ihre Röntgenbeugungsaufnahmen trugen entscheidend zur Entdeckung der DNA-Doppelhelix bei – den Nobelpreis heimsten Crick und Watson ein. «Experte» bedeutet vom Wortstamm her eine Person, die durch Erfahrung geschickt, kundig, erprobt: zur Kennerin geworden ist. Und diese Kennerschaft kann man nie vollständig an KI-Systeme abtreten. 

Drittens und am wichtigsten: Implizites Wissen ist ein soziales Gut. Erkenntnis entsteht im Austausch – im Labor, beim gemeinsamen Arbeiten, Beobachten, Nachahmen, Diskutieren. Die moderne Wissenschaft ist ein einzigartiges Projekt der kollektiven Erkenntnissuche. Es lebt von Praxis, Beziehung und Vertrauen – den unersetzlichen menschlichen Zutaten jeder Forschung. Was sich daher - nüchtern betrachtet – im «automatisierten Szenario» abzeichnet, ist weniger eine Verdrängung des Menschen, als vielmehr  eine Erweiterung der wissenschaftlichen Gemeinschaft - eine neuartige Kooperation von Mensch und smarter Maschine. Sie schafft ein forschungspolitisches, ethisches und erkenntnistheoretisches Feld von kaum abschätzbarer Tragweite. Jedenfalls tun menschliche Wissenschaftler gut daran, sich auf ihre eigenen kognitiven Fähigkeiten neu zu besinnen -  ja, sie vielleicht erst zu entdecken. Dank KI. 


Sonntag, 2. November 2025

 


Der Jargon der Unvermeidlichkeit

Kaum etwas fördert geistige Trägheit stärker als der Jargon der Unvermeidlichkeit. Wir begegnen ihm überall, in ökonomischen Analysen, unternehmerischen Prognosen, politischen Reden, technologischen Visionen, im Alltagsgespräch. Notorisch geworden durch den neoliberalen Urschrei «Es gibt keine Alternative», suggeriert uns dieser Jargon immer wieder, dass eine übermenschliche «Notwendigkeit» unser Geschick leite und bestimme. 

Wir kennen ihn heute bis zum Überdruss aus der KI-Branche. Deren Propheten benutzen die Unvermeidlichkeitsrhetorik dazu, den Weg für ihre  bevorzugten Ziele freizumachen. In Bedenken über Nachhaltigkeit oder in politischen Leitplanken sehen sie nichts als Hindernisse des ohnehin unaufhaltbaren Laufs der Dinge. Gewisse Protagonisten - etwa der Investor Marc Andreessen - nehmen den Demokratieabbau in Kauf mit dem Postulat, dass Politik sich der technologischen Dynamik unterzuordnen habe. Diese allein verleiht den Ingenieuren und Investoren von Silicon Valley ihr weltgeschichtliches Mandat. So argumentierten schon die italienischen Faschisten.

***

Der Jargon der Unvermeidlichkeit beruht auf einem grundlegenden Denkfehler: der Verwechslung von Modell und Wirklichkeit – oder wie man sagt: Die Landkarte ist nicht die Landschaft. Dieser Fehler gehört sozusagen zur kognitiven Ausstattung des Menschen. Wenn wir denken, folgen wir bestimmten Regeln, womöglich «zwingenden». Sie suggerieren: Wenn du A und B annimmst, folgt daraus C zwangsläufig. Diese Notwendigkeit ist aber eine Logik des Modells, nicht der Wirklichkeit. Auf der Landkarte kann man zeigen, dass eine gerade Linie Punkt A und Punkt B verbindet. In der Landschaft ist das vielleicht ein Holzweg. 

Die Wissenschaft kennt Notwendigkeiten in der Form von Gesetzen. Physikalische Gesetze gelten in physikalischen Modellen, ökonomische Gesetze in ökonomischen. Ihr Zweck ist, Aussagen über die Wirklichkeit zu treffen, und in dem Masse, in dem das gelingt, sind wir berechtigt zu sagen, die Gesetze würden in der Natur oder in der Wirtschaft gelten. Aber gerade erfolgreiche Modelle verführen uns leicht dazu, ihr Erklärungskonto zu überziehen, das heisst, mehr zu behaupten, als es ihre Annahmen erlauben. Ökonomische Modelle zum Beispiel glänzen oft mit elegantem mathematischem Formelwerk, aus dem sich Marktprognosen deduzieren lassen. Und dann spielt die wirtschaftliche Realität nicht mit. Wie zum Beispiel 2008. Das war nicht nur eine Krise der Finanzmärkte, sondern eine Krise der ökonomischen Modelle. Fachleute, Banken, Regierungen, Ratingagenturen bildeten so etwas wie eine narrative Gemeinschaft, die den Jargon der Unvermeidlichkeit pflegte, sprich: die Annahmen der Modelle für die Wirklichkeit hielt. Schon 1985 warnte die amerikanische Ökonomin Deirdre McClosky im Buch The Rhetoric of Economics ihre Disziplin vor dieser Gefahr des Modell-Dogmatismus. 

***

Der Jargon der Unvermeidlichkeit eignet sich gut, die politische Debatte durch angebliche Sachzwänge abzuwürgen – durch den Jargon der Unumstösslichkeit. Hannah Arendt sprach davon, dass «jede Tatsachenwahrheit jede Debatte (ausschliesst)», wo doch «die Diskussion, der Austausch und Streit der Meinungen (..) das eigentliche Wesen allen politischen Lebens (ausmacht)». Das Totschlagargument «Fakt ist..» erweist sich eigentlich als eine autoritäre Sprachhandlung: «Halt den Mund, du hast bloss eine Meinung». Man gibt vor, im Namen der Sache zu sprechen, dabei ist die «Sache» nicht anderes als die unbedachte Verfestigung der eigenen Meinung. 

Eigentlich konserviert der Jargon der Unvermeidlichkeit die alte Potenz des Mythos, also die Kraft einer Erzählung, die uns überzeugen will, dass «es so kommen muss». Ludwig Wittgestein sprach von der «Verhexung unseres Verstandes durch die Mittel der Sprache». Genau das leistet dieser Jargon. Er ist die Grammatik der Entmündigung; der zwanglose Zwang einer Denkweise, die uns weismachen will, politische Ereignisse und Entwicklungen geschähen ohne menschliches Dazutun. Nur schon das Wort «künstliche Intelligenz» demonstriert beispielhaft, wie wir einen menschlichen Begriff auf Maschinen übertragen und dann deren Algorithmen als eine autonome Macht interpretieren, die uns unvermeidlich übertreffen und dominieren wird. Vergessen geht dabei, dass Menschen diese Entwicklung vorantreiben – mit Vorurteilen, Herrschaftsgelüsten, Entscheidungsgewalt. 

Jargonkritik bedeutet, die Verhexung zu entlarven - und damit den Blick nicht nur auf die «Verhexer» zu lenken, sondern zugleich auf andere Zukunftsmöglichkeiten, die durch das Gewicht vermeintlicher Notwendigkeit verdrängt worden sind. Wir müssen jene Intelligenzform kultivieren, die uns auszeichnet. Möglichkeitssinn, nannte sie Robert Musil: denken, dass das, was ist, auch anders sein könnte. 

Denn die Imagination ist die Mutter der Freiheit. Die apokalyptischsten aller Visionen ist jene, in der wir Menschen die Imagination verloren haben - und sie nicht einmal mehr vermissen.






Donnerstag, 23. Oktober 2025

 



Homo sapiens, Animal sapiens, Machina sapiens

Ein neues kopernikanisches Zeitalter

Meine beiden Kater sind Methusalems mit ihren fast zwanzig Jahren auf dem schwarzen Buckel. Ziemlich erfahrene und – ich zweifle nicht – intelligente Tiere. Oft erstaunen sie mich mit Fähigkeiten, die ich ihnen nicht zugetraut hätte oder die mir schlicht abgehen. Die Verhaltensforschung liefert mir Erkenntnisse über ihre arteigenen kognitiven Vermögen – ihre «Intelligenz». Und in diesem Bemühen trägt sie bei zum allgemeinen wissenschaftlichen Projekt, das Tierreich, ja, selbst das Pflanzenreich als einen immer noch recht unbekannten Kontinent fremder Intelligenzformen zu studieren und kartieren. Dieses Projekt sagt schlicht und einfach: Wir müssen uns von der anthropozentrischen Idee lösen, allein der Homo sei sapiens. Auch das Tier ist es, auf seine arteigene Weise – Animal sapiens.

Natürlich bin ich den Katern in einigen Dingen überlegen. Zum Beispiel übersteigen Goethes Poesie und die Differentialrechnung ihren «Begriffshorizont»; sie wissen auch nicht, wie der Kühlschrank funktioniert, in dem ihr Futter aufbewahrt ist, oder dass Whiskas Proteine enthält. Aber diese Betrachtungsweise lässt sich felinozentrisch umkehren. Was weiss ich denn von ihrem heimlichen Informationsaustausch über mich? Was von ihren Absichten, wenn sie um meine Beine streichen? Schon Montaigne trieb die Frage um: «Wenn ich mit meiner Katze spiele, wer weiss, ob sie sich nicht noch mehr mit mir die Zeit vertreibt als ich mir mit ihr?» 

***

Wenn es also in der Natur unzählige andere, fremde Intelligenzformen gibt, wie weit verstehe ich sie eigentlich? Ich benötige zu diesem Verstehen ja meine menschliche Begrifflichkeit. Ist sie nicht ebenso beschränkt, was das Leben der Kater angeht? Was kann ich überhaupt von Dingen wissen, die meinen konzeptuellen Horizont übersteigen? 

Das ist eigentlich die Frage aller Fragen. Sie wurde schon vor fast hundert Jahren vom britischen Biologen John Burdon Sanderson Haldane in einem einzigen Satz angesprochen: «Meiner Ansicht nach ist das Universum nicht nur sonderbarer, als wir es uns vorstellen, sondern sonderbarer als wir es uns vorstellen können». 

Haldane spielte damit auf eine Grenze im Verständnis fremder Intelligenzen an, die sich nicht einfach auf den jeweils aktuellen Kenntnisstand und konzeptuellen Horizont der Forschung bezieht, sondern generell auf das Vermögen des Menschen, fremde Intelligenzen zu verstehen; also auf eine konstitutionelle Grenze, die der kognitive Apparat der Menschengattung uns setzt, wie entwickelt er auch sein mag.  

***

Als Biologe hatte Haldane allen Grund zu einer solchen Feststellung. Die Natur ist voller kognitiver «Exoten». Den Ethologen steht heute ein potententes Instrumentarium zur Verfügung, um Tierintelligenz zu studieren, in der Gestalt von Evolutionsbiologie, Kognitionspsychologie, Neurowissenschaft und weiteren Disziplinen. Und sie zeichnen ein Bild der Natur, in der es keine eindimensionale Leiter gibt, die von «niedriger» zu «höherer» Intelligenz führt. Der Mensch lebt neben Katern, Würmern, Kakteen, Pilzen, Bakterien. Alle diese Lebewesen haben ihre artspezifischen kognitiven Fähigkeiten entwickelt, nur nicht in der Richtung des Menschen. Sind sie weniger intelligent als Menschen? Die kognitive Ethologie überrascht uns laufend mit Entdeckungen über die Vielfalt und Differenzierung von intelligentem Verhalten im Tier- und Pflanzenreich. So dass der renommierte, kürzlich verstorbene Verhaltensforscher Frans de Waal im Titel eines seiner Bücher unverblümt fragt: «Sind wir intelligent genug, um zu wissen, wie intelligent Tiere sind?» 

Menschliche Intelligenz ist, wie jene meiner Kater, eine «provinzielle» Intelligenz. Sie ermöglicht uns vieles, ja, sie schafft Wunderwerke der Technik, Wissenschaft, Kunst. Zyniker könnten heute freilich einwenden: Ist denn ein solches «barockes» Organ wie das Menschenhirn nicht ein luxuriöser Überfluss der Natur? Trägt es wirklich zu unserer Fitness bei? Was ist der ganze evolutionäre Aufwand wert, ein Lebewesen zu produzieren, das mit seiner Intelligenz im Begriff ist, sich selbst abzuschaffen, indem es den Planeten zugrunde richtet? Der Einwand kommt reichlich spät, aber er formuliert präzise das Gegenbild zur Stufenleiter: Erscheint es aus der Perspektive einer evolutionären Kosten-Nutzen-Rechnung nicht dumm, so intelligent wie wir zu sein?

***

Eines der Werke menschlicher Intelligenz ist die künstlichen Intelligenz. Sie beginnt unergründliche Wege einzuschlagen. Wir bekommen es mit einer neuen Gattung von Maschinen zu tun, mit smarten Black Boxes. Das heisst, wir haben durchaus ein allgemeines Konzept dessen, was sie tun, aber wir sind nicht mehr in der Lage, dieses Tun in der Tiefenarchitek-tur der Maschine im Detail nachzuvollziehen. 

Betrachten wir die zurzeit gehypten Gadgets der neuronalen Netze, etwa den «generative pretrained transformer» (GPT). Auf die Frage, ob er intelligent sei, liefert der ChatGPT4 den Output, er simuliere Intelligenz, aber verstehe die Welt nicht so wie ein Mensch. Das ist natürlich nicht die «Antwort» des KI-Systems, sondern die Antwort, die es brav dem Menschen nachpapageit. Aber muss man denn die Welt verstehen, wie der Mensch dies tut? Sind wir hier nicht wiederum befangen in unserer eigenen anthropozentrischen Sichtweise? KI-Systeme korrigieren und verbessern ihre Lernalgorithmen schon heute selbständig. Angenommen, sie tun dies in Zukunft immer mehr ohne Supervision des Menschen. Könnten sie sich da «unüberwacht» weiterentwickeln in Richtung einer künstlichen Superintelligenz? Einer Machina sapiens? 

Was wäre eine fremde Intelligenz, die sich als inkompatibel mit der menschlichen erweist? Intelligenz ist ein Vergleichsbegriff: intelligent wie was? Wie also soll man etwas intelligent nennen, wenn man es nicht mindestens zum Teil in den Horizont menschlicher Begriffe hereinholen kann? Wenn wir sagen, der Computer habe ein intelligentes Resultat geliefert, meinen wir, dass ein solches Resultat dem Menschen Intelligenz abfordern würde. Der Referenzpunkt des Verstehens sind immer wir. Unbegreifbar bedeutet für uns unbegreifbar.  

***

Von Sigmund Freud stammt der Satz: «Unser Verständnis reicht so weit wie unser Anthropomorphismus». Anthropomorphismus ist unter Wissenschaftlern verpönt als vermenschlichende Pseudoerklärung. Wir würden dadurch nur unsere Vermögen und Eigenschaften auf die fremde Intelligenz projizieren, blieben also letztlich in einem anthropomorphen Zirkel gefangen. Das mag bis zu einem gewissen Grad stimmen, wenn man sich die vielen naiven Vermenschlichungen vergegenwärtigt, die der Mensch dem Tier «antut» und es gerade dadurch entfremdet, das heisst, ihm nicht seine artspezifische Lebensart zugesteht. Aber auch wenn wir letztlich nicht aus dem anthropomorphen Zirkel ausbrechen können, so können wir ihn erweitern, unsere Vorstellungen ändern und verbessern, dem Tierverhalten angleichen, statt dieses unserem Verhalten anzugleichen. 

Wie steht es mit KI-Systemen? Was, wenn sie eine Entwicklungsstufe erreicht haben werden, die mit Tieren vergleichbar ist? Müsste man dann eine neue Disziplin namens Maschinenethologie einführen, die das Verhalten künstlicher Systeme wie jenes von anderen, fremden Arten studiert? Und angenommen, diese postbiologische Evolution erfolge in ei-nem weit höheren Tempo als die biologische - wäre diese Disziplin vom Verhalten künstlicher Arten nicht hoffnungslos überfordert? Die letzte Freudsche Kränkung?

***

Aber könnten sich unsere kognitiven Vermögen im Zusammenspiel mit den KI-Systemen nicht auch weiterentwickeln und verbessern, in einer Koevolution von Mensch und Maschine? Man spricht von «Enhancement», dem Aufmöbeln des menschlichen kognitiven Apparats durch intelligente Prothesen. Vielleicht ist mit künftigen transhumanen Generationen zu rechnen. Zyniker prophezeien allerdings eher das Gegenteil, nämlich eine Regression der Intelligenz, zumindest bei einer Mehrheit der Menschen. Was mit Blick auf den aktuellen Technikgebrauch nicht unplausibel erscheint. Wie auch immer, «verbesserte» Generationen werden sich zwar durch einen erweiterten, aber dennoch endlichen Verständnishorizont auszeichnen. Auch sie werden jedoch mit der Frage aller Fragen konfrontiert sein. 

Die Natur ist ein Reich voller fremder organischer Intelligenzen, terrestrischer, wahrscheinlich auch extraterrestrischer. Nun schafft der Mensch ein neues Reich, voller fremder anorganischer Intelligenzen. Und er muss sich eingestehen, dass er in beiden Reichen weder Höhepunkt noch Mittelpunkt ist. Wo denn liegt sein Platz? 

Das ist die Frage eines neuen kopernikanischen Zeitalters.  


Freitag, 17. Oktober 2025



Erscheint demnächst

Prolog: Wir sind dem Computer scheissegal

Utopia und Dystopia liegen in der Einschätzung der Künstlichen Intelligenz (KI) nah beieinander. Einerseits nimmt die dem Menschen ebenbürtige bis überlegene Maschinenintelligenz Gestalt an, andererseits sieht man in ihr die mögliche Auslöschung der Menschheit. Das Center for AI Safety – eine amerikanische Nonprofit-Organisation – veröffentlichte vor kurzem ein Statement von Tech-Mogulen, das viele namhafte Fachleute unterzeichneten: «Das Risiko eine Auslöschung der Menschheit durch die KI sollte in der sozialen Dimension gleich eingeschätzt werden wie das Risiko der Auslöschung durch Pandemien oder durch Nuklearkriege.» 

Das falsche Bewusstsein 

Dieser Alarmismus spricht mit gespaltener Zunge. Wenn die KI wirklich eine solche Gefahr darstellt, fragt man sich, warum warnen dann ausgerechnet jene Leute vor ihr, die ihre Entwicklung rasend vorantreiben? Sind sie aus ihren Zauberlehrlingsträumen aufgewacht? Hat die «prometheische Scham» sie gepackt, das Gefühl der Unzulänglichkeit angesichts ihrer eigenen Produkte? 

Natürlich sind die Warnungen nicht einfach in den Wind zu schlagen. Aber nüchtern be-trachtet, eröffnen die KI-Systeme schlicht ein unerforschtes Feld der sozialen Interaktion von Mensch und Maschine, nunmehr auf «intelligentem» Niveau. Und es ist eigentlich nicht das KI-System selbst, sondern unsere vorauseilende dystopische Fantasie, die uns das Fürchten lehrt.

Karl Marx sprach vom «falschen Bewusstsein», also einem Begriffs- und Wahrnehmungsrahmen, der alles schon im Voraus präformiert, ja, verzerrt. Falsches Bewusstsein erscheint mir wie zugeschnitten auf die heutige KI-Technologie: Wir machen uns a priori einen unzutreffenden Begriff von ihr. Und das führt zu Falschalarm. Ich erläutere dies anhand dreier Punkte. 

Die Zuschreibung menschlicher Vermögen

Erstens: Wir attestieren den smarten Maschinen kognitive Fähigkeiten, die wir oft kaum noch von menschlichen unterscheiden. Wir sagen, der Computer «verstehe» oder «entscheide», der Chatbot «schreibe» einen Text, LaMDA («Language Model for Dialogue Application») «konversiere» mit uns, DALL-E 2 «male» ein Bild. Das sind aber nichts anderes als Anthropomorphismen, mit denen wir versuchen, die heute kaum noch vollständig durchschaubaren Maschinenabläufe in einem uns begreiflichen Idiom zu beschreiben. Ins-besondere übertragen wir KI-Systemen bereits «moralische» Handlungsverantwortung, schieben ihnen etwa die Schuld zu, Jobs «abzuschaffen». Oder wir warnen vor «sexisti-schen» oder «rassistischen» Algorithmen. Als ob die Maschinen sich wie Menschen verhal-ten würden. 

Und das sollte uns wirklich perplex machen: Wir wissen, dass wir es bloss mit Maschinen zu tun haben. Trotzdem leben wir mit ihnen auf fast gleicher sozialer Höhe wie mit Menschen  zusammen. Bisherige Klimax dieser KI-Beschwipstheit ist ein Softwaredesigner von Google – Blake Lemoine - , der behauptete, das Konversationsprogramm LaMDA sei in eine persönliche Beziehung zu ihm getreten. 

Der Machtwille des Homo sapiens hinter dem Robo sapiens

Das ist falsches Bewusstsein. Es zeigt zweitens eine alarmierende Dialektik der ganzen Entwicklung. Im gleichen Zug, in dem wir Maschinen personenhafte Züge zuschreiben, verges-sen wir die menschlichen Personen hinter der Maschinen. Nicht Maschinen schaffen die Jobs ab, sondern Unternehmen und Regierungen -  Institutionen, die von Personen geführt werden. Und nicht die Algorithmen sind sexistisch oder rassistsisch, sondern deren Designer. 

Der vermeintliche Machtwille des Robo sapiens ist der kaschierte Machtwille des Homo sapiens. Die Gefahr liegt nicht darin, dass Computer die Menschen beherrschen, sondern eine Elite von Roboterdesignern, Technikunternehmern und Risikokapitalisten, welche den Arbeitsmarkt mit «disruptiven» Technologien nach ihrem Belieben fluten und dirigieren. 

Man muss dabei nicht immer gleich China als abschreckendes Beispiel zitieren, wo das Regime die Technologie zur totalen Verhaltensdressur ausnutzt. Auch im Westen lassen wir uns von Algorithmen kontrollieren und manipulieren. Sie «entscheiden», was wir sehen, lesen, hören, kaufen, mit wem wir kommunizieren, wen wir mögen und wen wir hassen wollen. Das Netz ist eine gigantische Skinnerbox ohne Skinner. Er experimentierte mit Tauben. Heute sind wir so weit, dass wir uns selber zu netzadaptierten Kreaturen konditionieren. 

Es geht bei den neuesten KI-Kreationen nicht mehr bloss um Bau und Funktionsweise von intelligenten Artefakten, sondern um deren Sozialisierung. Um Maschinen zu sozialisieren, muss man Menschen «maschinisieren». Man vergegenwärtige sich nur einmal, wie wir immer dichter verpackt in einer Infosphäre mit Computern, Programmen und Daten leben, wo Artefakte unsere Aktivitäten übernehmen, ohne dass man begründet sagen könnte, die-se künstlichen Akteure besässen Intelligenz, Verständnis, Gefühlszustände, semantische Fähigkeiten wie wir Menschen.  Aber auch so werden wir uns daran gewöhnen müssen, ei-nem System ein «Gedächtnis» in Gestalt von riesigen Datenbanken und effektiven Suchalgorithmen zuzuordnen; ihm ein bestimmtes «intelligentes» Verhalten zu attestieren, wenn es ein Flugzeug sicher landen lässt, die schnellste Route zwischen zwei Orten herausfindet oder günstige Börsentransaktionen berechnet. 

Techno-Fatalismus

Alarmierend ist drittens der Ohnmachtswille des Homo sapiens, sprich: die willfährige Bereitschaft, seine kognitiven, aber auch moralischen Kompetenzen an den Robo sapiens abzutreten. Algorithmen sind mächtige Instrumente, deren Macht grösstenteils darin besteht, andere Maschinen auf abstrakter Ebene zu simulieren. Das ist die fundamentale Einsicht von Alan Turing. Aber diese Fähigkeit kann uns zu sektierischer Einäugigkeit und metaphorischer Universalisierung verleiten: Alles ist «im Prinzip» ein Computer. Wir kennen diesen Reduktionismus schon von der alten Maschine her: Der Mensch ist «nichts als» eine organische Maschine. 

Er bestärkt eine Art von Techno-Fatalismus: Der Vormarsch der Algorithmen ist unaufhaltsam. Wir beginnen alle sozialen und kulturellen Veränderungen dem Einfluss der Technologie zuzuschreiben und vergessen dabei, dass es «die» Technologie nicht gibt. Es gibt Menschen – Ingenieure, Unternehmer, Investoren, Evangelisten der KI - , welche die Technologie zu ganz bestimmten Zwecken einsetzen – und missbrauchen. Und vielen von ihnen liegt durchaus daran, dass die Nutzer ihrer Produkte in der Herdenwärme einer lamm-frommen Technikgläubigkeit verharren. 

They just don’t give a damn

Künstliche Intelligenz ist eines der kühnsten, vielleicht das kühnste intellektuelle Abenteuer der letzten 60 Jahre. Sie lehrt uns sehr viel darüber, was Intelligenz nicht ist. Die seriöse Forschung zeigt uns zum Beispiel, dass auch KI ihre «intrinsischen» Grenzen hat. Und genau das ist spannend, Ansporn für weitere Forschung in der Entwicklung von KI-Systemen, etwa von biologienäheren neuronalen Netzen oder von Quantencomputern. Zu-gleich aber auch dafür, die Alarmstufe herunterzufahren. 

Denn das grösste Risiko im Umgang mit den KI-Systemen bleibt ihr blosses Akzeptieren. Sie interessieren sich nämlich nicht für uns. Wie dies der amerikanische Philosoph John Haugeland unvergesslich ausgedrückt hat: The trouble with computers is that they just don’t give a damn – wir sind ihnen scheissegal. Und nicht wenige KI-Leute meinen damit: Der Unterschied zwischen Maschine und Mensch ist uns scheissegal. 

Die nachstehenden Essays insistieren auf diesem Unterschied. Die smarten Maschinen fordern den Anthropozentrismus heraus. Sie übernehmen heute Aufgaben, von denen man einst annahm, dass sie ausschliesslich menschliche Intelligenz erfordern. Sie zwingen uns dazu, neu zu überdenken, was Intelligenz, Bewusstsein, Persönlichkeit bedeutet. Sie brechen die anthropozentrische Ethik auf, indem sie für sich den Status von künstlichen «Agenten» reklamieren, also von Artefakten mit eigener Stellung und Handlungsmacht. Sie «emanzipieren» sich dadurch vom untergeordneten Status eines willfährigen «Tools». Und die Frage stellt sich, ob wir sie in unsere Gesellschaft «einbürgern» und mit ihnen «auf Augenhöhe» verkehren sollen. 

Exzentrische Anthropologie 

Solche Phänomene rufen nach einer Umkehr des traditionellen anthropologischen Ansatzes, in dem der Mensch die Zentralperspektive beanspruchte. Ich nenne diesen Ansatz  – in Anlehnung an Helmuth Plessner - exzentrische Anthropologie. Der Mensch lernt sich im Spiegel seiner Artefakte neu kennen und verstehen, so wie die kopernikanische Wende des heliozentrischen Weltbildes dem Menschen ein neues Selbstverständnis abforderte. Übrigens zeigt schon die Geschichte des Wortes «Computer» diese Dezentrierung an. Ursprüng-lich bezog es sich auf Menschen, die Rechenoperationen durchführten. Mit Alan Turings bahnbrechender Arbeit über denkende Maschinen konnte es auch auf Artefakte angewendet werden. Das Wort löste sich von seiner anthropozentrischen Bedeutung. Mit solchen be-grifflichen Erweiterungen werden wir vermehrt zu tun haben.

Wenn im Folgenden von smarten Maschinen die Rede ist, dann stehen nicht so sehr ihre wissenschaftlichen und technischen Aspekte im Brennpunkt, sondern ihre Herausforderung der menschlichen Sonderstellung in der Welt (die ersten drei Essays behandeln eher Grundlagenfragen). Smarte Maschinen reklamieren heute vieles, was wir als «eigentlich» menschlich bezeichnen: kognitive Vermögen, Kreativität, Moral. Die Ironie springt natürlich ins Auge:  Wir schaffen kraft unseres Denkens Artefakte, die uns die Sonderstellung des denkenden Wesens streitig machen – eine Sonderstellung, wie sie sich emblemartig genug im cartesianischen «Ich denke, also bin ich» äussert.  

Schliesslich möchte ich mich mit der exzentrischen Anthropologie von anderen «dezentrierenden» Ansätzen abgrenzen; etwa von den transhumanistischen Visionen eines Menschentums, das sich aus seinen biologischen Fesseln lösen will; auch von den Netzwerken, in denen Menschen und Artefakte ununterscheidbar als «Aktanten» operieren. Ich gehe vielmehr aus vom vielleicht paradoxen, vielleicht donquichottischen Optimismus, dass das Menschliche sich gerade da entdecken lässt, wo es scheinbar veraltet und verschwindet. 



Freitag, 3. Oktober 2025

 

Das Paradox der technologischen Entwicklung

Nach einer vorherrschenden Technikauffassung macht Not erfinderisch: Notwendigkeit ist die Mutter der Erfindung. Da ist ein Problem und durch eine Erfindung lösen wir es, sprich: verschwindet es. Die Ansicht kursiert heute unter der Bezeichnung des Technological Fix: Verwandle ein Problem in ein ingenieurales und löse es durch die Erfindung oder Verbesserung einer entsprechenden Technik. 

«Die Erfindung ist die Mutter der Notwendigkeit» 

Die Ansicht erweist sich bei näherem Betrachten als einseitig, mehr noch: als Paradox. Technik ist ambivalent. Oft stellt sie sich als das Problem heraus, für dessen Lösung sie sich hält. Der amerikanische Technikhistoriker Melvin Kranzberg hat deshalb vor vierzig Jahren den obigen Spruch umgekehrt und als «Kranzberg-Gesetz» formuliert: Erfindung ist die Mutter der Notwendigkeit. Er schlug damit – nicht ohne Ironie - ein anderes Narrativ vor: Innovationen schaffen neue Nöte, machen in der Regel weitere Zusatzerfindungen notwendig, um wirklich effizient zu werden. Das heisst, Erfindungen setzen einen innovativen Zyklus in Bewegung, der gewissermassen eine «kranz
berg’sche» Eigendynamik entwickelt. 

«Die Macht der Computers und die Ohnmacht der Vernunft» 

Die Computertechnologie macht sie exemplarisch sichtbar. Etwa in der Mitte des letz-ten Jahrhunderts sahen sich industrielle Produktion, Verkehr, Planung, ja, Politik mit einer Informationsflut konfrontiert, deren Management die menschliche Kapazität überstieg. Das war die Notwendigkeit, die den Computer auf den Plan rief. Und er präsentierte sich zunächst als wunderbarer Technological Fix. Aber schon anfangs der 1970er Jahre schrieb der Computerwissenschaftler Joseph Weizenbaum vom MIT sein vieldiskutiertes Buch«Die Macht des Computers und die Ohnmacht der Vernunft». Dem mulmigen Gefühl, eine maschinelle Intelligenz könnte der Kontrolle der menschlichen Intelligenz entgleiten, begegneten die Informatiker mit der Beschwichtigung, das Problem liesse sich durch weitere technische Entwicklung bewältigen. Und die Beschwichtigung hält bis heute an, im Mantra: Wartet nur, bis wir den richtigen Algorithmus gefunden haben! 

«Technologie geschieht, weil sie möglich ist»

Anders gesagt: Man konzentriert sich auf die Erfindung – um die «Nöte», die aus ihr folgen, kümmert man sich später. «Technologie geschieht, weil sie möglich ist». Dieser Satz von Sam Altman - CEO von OpenAI - echot einen berühmten anderen Satz, jenen von Robert Oppenheimer, Leiter des Atombombenbaus im Manhattan-Projekt: «Wenn man etwas sieht, das technisch verlockend ist (‘technically sweet’), macht man es einfach, und man diskutiert erst später darüber, was man damit anfangen soll – nachdem man den technischen Erfolg erzielt hat. So war es mit der Atombombe.» Und einer der Pioniere des Deep Learning – Geoffrey Hinton – äusserte den Satz fast wortwörtlich mit Bezug auf die KI. 

Die Erfindung ist die Mutter des Bedürfnisses

Kranzbergs Gesetz hat - vor allem im Zeitalter der KI-Technologie und ihrer monopolistischen Firmen -  einen anderen, einen psychologischen Aspekt. Lesen wir «Notwendigkeit» als «Bedürfnis», dann lässt sich das Gesetz so formulieren: Die Erfindung ist die Mutter des Bedürfnisses. Sie schafft Bedürfnisse, die vorher nicht existierten. Die Technikgeschichte zeigt ein wiederkehrendes Phänomen: Erfindungen haben es oft schwer. Ihre Durchsetzung als Innovation muss einem Bedürfnis entsprechen, und ein solches existiert oft aufgrund sozial und kulturell verwurzelter Interessen nicht.  Zu Gutenbergs Zeiten ertönten nicht Jubelschreie «Endlich gedruckte Texte!», vielmehr beeilten sich die Kopisten, die Presseprodukte mit einem lokalen Bann zu belegen. Der erste Verbrennungsmotor, um 1860 von Nicolaus Otto gebaut, führte nicht zur Produktion entsprechender Vehikel, weil die Leute mit Pferden und Eisen-bahnen zufrieden waren. Der Transistor wurde in den USA erfunden, aber die Elekt-roindustrie ignorierte ihn, um die Produkte mit Vakuumröhren zu schützen. 

«There’s a That for this App”

KI-Technologie ist primär eine Bedürfnisproduktion. Sie braucht den Kunden als Be-dürftigen. Ein Ex-Geschäftsstratege bei Google beschreibt die Industrie als die «umfassendste, normierteste und zentralisierteste Form der Verhaltenskontrolle in der Geschichte der Menschheit (..) Ich realisierte: Da ist buchstäblich eine Million Menschen, die wir sozusagen anstubsen und überreden, Dinge zu tun, die sie sonst nicht tun würden». 

«There’s an App for That» lautete der Werbespruch von Apple 2009. Aber er sollte eigentlich lauten: «There’s a That for this App». Besessen vom nächsten neuen Ding hetzt heute die Entwicklung in einer Endlosschleife der Innovationen manisch vorwärts. Mit all dem Schnickschnack und seinen laufenden Updates verkaufen die Firmen Verhaltensweisen, und sie dressieren uns immer neue Bedürfnisse an. 

Der Ingenieur als Sisyphos

Gibt es einen Ausstieg? Die Technikhistorikerin Martina Hessler ruft in ihrem Buch «Sisyphos im Maschinenraum» eine mythische Figur auf den Plan. Der moderne Sisyphos ist der vom Technological Fix beherrschte Mensch. Er schiebt den Stein der technischen Lösungen immer höher, aber er erreicht dadurch nur, dass der ersehnte Gipfel sich weiter entfernt. Er hat seine Strafe selber gewählt, getrieben vom Wunsch, die Welt allein mit Technik zu verbessern, ja, zu vervollkommnen. Technological Fix sagt alles: Befestigung einer bestimmten Vorgehensweise; die Abhängigkeit vom Pfad, den man eingeschlagen hat. Das Sisyphoshafte ist dieser Art von Entwicklung inhärent. Wie Martina Hessler bemerkt, verbleiben «technologische Lösungen in der Re-gel in einer Logik, die das Bisherige fortsetzt (..) Die vermeintlich disruptiven Technologien erweisen sich aus dieser Perspektive gar nicht als disruptiv, sondern lösen das Problem in der Logik des Problems, anstatt es kreativ völlig neu zu denken». 

Das ist der springende Punkt. Technologie ist mehr als ein Gerätepark. Die neuen smarten Maschinen bilden ein Dispositiv, das unser Fragen immer schon in eine ganz bestimmte Richtung lenkt. Technik wirkt dadurch wie eine Art von Vorsehung. Niemand zwingt mich, ein Gerät zu verwenden. Aber wenn es den Verwendungszusammenhang definiert, aus dem ich nicht einfach so aussteigen kann, dann bin ich seinem zwanglosen Zwang unterworfen. Die KI-Systeme nisten sich ein in unserem Blick, werden zu einem Stück unserer selbst. 

Eine selbst herbeigeführte Gattungsverdummung

Sam Altman schwadronierte 2021 von einer vierten «KI-Revolution» nach den drei anderen technologischen Revolutionen: der landwirtschaftlichen, der industriellen und der computerbasierten. Er betonte dabei, dass diese vierte Revolution «sich auf die beeindruckendste unserer Fähigkeiten konzentriert: die phänomenale Fähigkeit zu denken, zu erschaffen, zu verstehen und zu schlussfolgern». Die Bemerkung ist entlarvend, denn Altman verschwieg die tiefe Paradoxie, dass uns die KI-Industrie ja gerade diese Fähigkeit abzunehmen sucht. Wir haben sehr viel Intelligenz in Geräte gesteckt, und als fatal daran erweist sich, dass uns die Geräte zum Nichtgebrauch unserer  Intelligenz verleiten – zu einer selbst herbeigeführten Gattungsverdummung, die sich als Triumph zelebriert.


L'hiver à Parpan