Donnerstag, 23. Oktober 2025

 



Homo sapiens, Animal sapiens, Machina sapiens

Ein neues kopernikanisches Zeitalter

Meine beiden Kater sind Methusalems mit ihren fast zwanzig Jahren auf dem schwarzen Buckel. Ziemlich erfahrene und – ich zweifle nicht – intelligente Tiere. Oft erstaunen sie mich mit Fähigkeiten, die ich ihnen nicht zugetraut hätte oder die mir schlicht abgehen. Die Verhaltensforschung liefert mir Erkenntnisse über ihre arteigenen kognitiven Vermögen – ihre «Intelligenz». Und in diesem Bemühen trägt sie bei zum allgemeinen wissenschaftlichen Projekt, das Tierreich, ja, selbst das Pflanzenreich als einen immer noch recht unbekannten Kontinent fremder Intelligenzformen zu studieren und kartieren. Dieses Projekt sagt schlicht und einfach: Wir müssen uns von der anthropozentrischen Idee lösen, allein der Homo sei sapiens. Auch das Tier ist es, auf seine arteigene Weise – Animal sapiens.

Natürlich bin ich den Katern in einigen Dingen überlegen. Zum Beispiel übersteigen Goethes Poesie und die Differentialrechnung ihren «Begriffshorizont»; sie wissen auch nicht, wie der Kühlschrank funktioniert, in dem ihr Futter aufbewahrt ist, oder dass Whiskas Proteine enthält. Aber diese Betrachtungsweise lässt sich felinozentrisch umkehren. Was weiss ich denn von ihrem heimlichen Informationsaustausch über mich? Was von ihren Absichten, wenn sie um meine Beine streichen? Schon Montaigne trieb die Frage um: «Wenn ich mit meiner Katze spiele, wer weiss, ob sie sich nicht noch mehr mit mir die Zeit vertreibt als ich mir mit ihr?» 

***

Wenn es also in der Natur unzählige andere, fremde Intelligenzformen gibt, wie weit verstehe ich sie eigentlich? Ich benötige zu diesem Verstehen ja meine menschliche Begrifflichkeit. Ist sie nicht ebenso beschränkt, was das Leben der Kater angeht? Was kann ich überhaupt von Dingen wissen, die meinen konzeptuellen Horizont übersteigen? 

Das ist eigentlich die Frage aller Fragen. Sie wurde schon vor fast hundert Jahren vom britischen Biologen John Burdon Sanderson Haldane in einem einzigen Satz angesprochen: «Meiner Ansicht nach ist das Universum nicht nur sonderbarer, als wir es uns vorstellen, sondern sonderbarer als wir es uns vorstellen können». 

Haldane spielte damit auf eine Grenze im Verständnis fremder Intelligenzen an, die sich nicht einfach auf den jeweils aktuellen Kenntnisstand und konzeptuellen Horizont der Forschung bezieht, sondern generell auf das Vermögen des Menschen, fremde Intelligenzen zu verstehen; also auf eine konstitutionelle Grenze, die der kognitive Apparat der Menschengattung uns setzt, wie entwickelt er auch sein mag.  

***

Als Biologe hatte Haldane allen Grund zu einer solchen Feststellung. Die Natur ist voller kognitiver «Exoten». Den Ethologen steht heute ein potententes Instrumentarium zur Verfügung, um Tierintelligenz zu studieren, in der Gestalt von Evolutionsbiologie, Kognitionspsychologie, Neurowissenschaft und weiteren Disziplinen. Und sie zeichnen ein Bild der Natur, in der es keine eindimensionale Leiter gibt, die von «niedriger» zu «höherer» Intelligenz führt. Der Mensch lebt neben Katern, Würmern, Kakteen, Pilzen, Bakterien. Alle diese Lebewesen haben ihre artspezifischen kognitiven Fähigkeiten entwickelt, nur nicht in der Richtung des Menschen. Sind sie weniger intelligent als Menschen? Die kognitive Ethologie überrascht uns laufend mit Entdeckungen über die Vielfalt und Differenzierung von intelligentem Verhalten im Tier- und Pflanzenreich. So dass der renommierte, kürzlich verstorbene Verhaltensforscher Frans de Waal im Titel eines seiner Bücher unverblümt fragt: «Sind wir intelligent genug, um zu wissen, wie intelligent Tiere sind?» 

Menschliche Intelligenz ist, wie jene meiner Kater, eine «provinzielle» Intelligenz. Sie ermöglicht uns vieles, ja, sie schafft Wunderwerke der Technik, Wissenschaft, Kunst. Zyniker könnten heute freilich einwenden: Ist denn ein solches «barockes» Organ wie das Menschenhirn nicht ein luxuriöser Überfluss der Natur? Trägt es wirklich zu unserer Fitness bei? Was ist der ganze evolutionäre Aufwand wert, ein Lebewesen zu produzieren, das mit seiner Intelligenz im Begriff ist, sich selbst abzuschaffen, indem es den Planeten zugrunde richtet? Der Einwand kommt reichlich spät, aber er formuliert präzise das Gegenbild zur Stufenleiter: Erscheint es aus der Perspektive einer evolutionären Kosten-Nutzen-Rechnung nicht dumm, so intelligent wie wir zu sein?

***

Eines der Werke menschlicher Intelligenz ist die künstlichen Intelligenz. Sie beginnt unergründliche Wege einzuschlagen. Wir bekommen es mit einer neuen Gattung von Maschinen zu tun, mit smarten Black Boxes. Das heisst, wir haben durchaus ein allgemeines Konzept dessen, was sie tun, aber wir sind nicht mehr in der Lage, dieses Tun in der Tiefenarchitek-tur der Maschine im Detail nachzuvollziehen. 

Betrachten wir die zurzeit gehypten Gadgets der neuronalen Netze, etwa den «generative pretrained transformer» (GPT). Auf die Frage, ob er intelligent sei, liefert der ChatGPT4 den Output, er simuliere Intelligenz, aber verstehe die Welt nicht so wie ein Mensch. Das ist natürlich nicht die «Antwort» des KI-Systems, sondern die Antwort, die es brav dem Menschen nachpapageit. Aber muss man denn die Welt verstehen, wie der Mensch dies tut? Sind wir hier nicht wiederum befangen in unserer eigenen anthropozentrischen Sichtweise? KI-Systeme korrigieren und verbessern ihre Lernalgorithmen schon heute selbständig. Angenommen, sie tun dies in Zukunft immer mehr ohne Supervision des Menschen. Könnten sie sich da «unüberwacht» weiterentwickeln in Richtung einer künstlichen Superintelligenz? Einer Machina sapiens? 

Was wäre eine fremde Intelligenz, die sich als inkompatibel mit der menschlichen erweist? Intelligenz ist ein Vergleichsbegriff: intelligent wie was? Wie also soll man etwas intelligent nennen, wenn man es nicht mindestens zum Teil in den Horizont menschlicher Begriffe hereinholen kann? Wenn wir sagen, der Computer habe ein intelligentes Resultat geliefert, meinen wir, dass ein solches Resultat dem Menschen Intelligenz abfordern würde. Der Referenzpunkt des Verstehens sind immer wir. Unbegreifbar bedeutet für uns unbegreifbar.  

***

Von Sigmund Freud stammt der Satz: «Unser Verständnis reicht so weit wie unser Anthropomorphismus». Anthropomorphismus ist unter Wissenschaftlern verpönt als vermenschlichende Pseudoerklärung. Wir würden dadurch nur unsere Vermögen und Eigenschaften auf die fremde Intelligenz projizieren, blieben also letztlich in einem anthropomorphen Zirkel gefangen. Das mag bis zu einem gewissen Grad stimmen, wenn man sich die vielen naiven Vermenschlichungen vergegenwärtigt, die der Mensch dem Tier «antut» und es gerade dadurch entfremdet, das heisst, ihm nicht seine artspezifische Lebensart zugesteht. Aber auch wenn wir letztlich nicht aus dem anthropomorphen Zirkel ausbrechen können, so können wir ihn erweitern, unsere Vorstellungen ändern und verbessern, dem Tierverhalten angleichen, statt dieses unserem Verhalten anzugleichen. 

Wie steht es mit KI-Systemen? Was, wenn sie eine Entwicklungsstufe erreicht haben werden, die mit Tieren vergleichbar ist? Müsste man dann eine neue Disziplin namens Maschinenethologie einführen, die das Verhalten künstlicher Systeme wie jenes von anderen, fremden Arten studiert? Und angenommen, diese postbiologische Evolution erfolge in ei-nem weit höheren Tempo als die biologische - wäre diese Disziplin vom Verhalten künstlicher Arten nicht hoffnungslos überfordert? Die letzte Freudsche Kränkung?

***

Aber könnten sich unsere kognitiven Vermögen im Zusammenspiel mit den KI-Systemen nicht auch weiterentwickeln und verbessern, in einer Koevolution von Mensch und Maschine? Man spricht von «Enhancement», dem Aufmöbeln des menschlichen kognitiven Apparats durch intelligente Prothesen. Vielleicht ist mit künftigen transhumanen Generationen zu rechnen. Zyniker prophezeien allerdings eher das Gegenteil, nämlich eine Regression der Intelligenz, zumindest bei einer Mehrheit der Menschen. Was mit Blick auf den aktuellen Technikgebrauch nicht unplausibel erscheint. Wie auch immer, «verbesserte» Generationen werden sich zwar durch einen erweiterten, aber dennoch endlichen Verständnishorizont auszeichnen. Auch sie werden jedoch mit der Frage aller Fragen konfrontiert sein. 

Die Natur ist ein Reich voller fremder organischer Intelligenzen, terrestrischer, wahrscheinlich auch extraterrestrischer. Nun schafft der Mensch ein neues Reich, voller fremder anorganischer Intelligenzen. Und er muss sich eingestehen, dass er in beiden Reichen weder Höhepunkt noch Mittelpunkt ist. Wo denn liegt sein Platz? 

Das ist die Frage eines neuen kopernikanischen Zeitalters.  


Freitag, 17. Oktober 2025



Erscheint demnächst

Prolog: Wir sind dem Computer scheissegal

Utopia und Dystopia liegen in der Einschätzung der Künstlichen Intelligenz (KI) nah beieinander. Einerseits nimmt die dem Menschen ebenbürtige bis überlegene Maschinenintelligenz Gestalt an, andererseits sieht man in ihr die mögliche Auslöschung der Menschheit. Das Center for AI Safety – eine amerikanische Nonprofit-Organisation – veröffentlichte vor kurzem ein Statement von Tech-Mogulen, das viele namhafte Fachleute unterzeichneten: «Das Risiko eine Auslöschung der Menschheit durch die KI sollte in der sozialen Dimension gleich eingeschätzt werden wie das Risiko der Auslöschung durch Pandemien oder durch Nuklearkriege.» 

Das falsche Bewusstsein 

Dieser Alarmismus spricht mit gespaltener Zunge. Wenn die KI wirklich eine solche Gefahr darstellt, fragt man sich, warum warnen dann ausgerechnet jene Leute vor ihr, die ihre Entwicklung rasend vorantreiben? Sind sie aus ihren Zauberlehrlingsträumen aufgewacht? Hat die «prometheische Scham» sie gepackt, das Gefühl der Unzulänglichkeit angesichts ihrer eigenen Produkte? 

Natürlich sind die Warnungen nicht einfach in den Wind zu schlagen. Aber nüchtern be-trachtet, eröffnen die KI-Systeme schlicht ein unerforschtes Feld der sozialen Interaktion von Mensch und Maschine, nunmehr auf «intelligentem» Niveau. Und es ist eigentlich nicht das KI-System selbst, sondern unsere vorauseilende dystopische Fantasie, die uns das Fürchten lehrt.

Karl Marx sprach vom «falschen Bewusstsein», also einem Begriffs- und Wahrnehmungsrahmen, der alles schon im Voraus präformiert, ja, verzerrt. Falsches Bewusstsein erscheint mir wie zugeschnitten auf die heutige KI-Technologie: Wir machen uns a priori einen unzutreffenden Begriff von ihr. Und das führt zu Falschalarm. Ich erläutere dies anhand dreier Punkte. 

Die Zuschreibung menschlicher Vermögen

Erstens: Wir attestieren den smarten Maschinen kognitive Fähigkeiten, die wir oft kaum noch von menschlichen unterscheiden. Wir sagen, der Computer «verstehe» oder «entscheide», der Chatbot «schreibe» einen Text, LaMDA («Language Model for Dialogue Application») «konversiere» mit uns, DALL-E 2 «male» ein Bild. Das sind aber nichts anderes als Anthropomorphismen, mit denen wir versuchen, die heute kaum noch vollständig durchschaubaren Maschinenabläufe in einem uns begreiflichen Idiom zu beschreiben. Ins-besondere übertragen wir KI-Systemen bereits «moralische» Handlungsverantwortung, schieben ihnen etwa die Schuld zu, Jobs «abzuschaffen». Oder wir warnen vor «sexisti-schen» oder «rassistischen» Algorithmen. Als ob die Maschinen sich wie Menschen verhal-ten würden. 

Und das sollte uns wirklich perplex machen: Wir wissen, dass wir es bloss mit Maschinen zu tun haben. Trotzdem leben wir mit ihnen auf fast gleicher sozialer Höhe wie mit Menschen  zusammen. Bisherige Klimax dieser KI-Beschwipstheit ist ein Softwaredesigner von Google – Blake Lemoine - , der behauptete, das Konversationsprogramm LaMDA sei in eine persönliche Beziehung zu ihm getreten. 

Der Machtwille des Homo sapiens hinter dem Robo sapiens

Das ist falsches Bewusstsein. Es zeigt zweitens eine alarmierende Dialektik der ganzen Entwicklung. Im gleichen Zug, in dem wir Maschinen personenhafte Züge zuschreiben, verges-sen wir die menschlichen Personen hinter der Maschinen. Nicht Maschinen schaffen die Jobs ab, sondern Unternehmen und Regierungen -  Institutionen, die von Personen geführt werden. Und nicht die Algorithmen sind sexistisch oder rassistsisch, sondern deren Designer. 

Der vermeintliche Machtwille des Robo sapiens ist der kaschierte Machtwille des Homo sapiens. Die Gefahr liegt nicht darin, dass Computer die Menschen beherrschen, sondern eine Elite von Roboterdesignern, Technikunternehmern und Risikokapitalisten, welche den Arbeitsmarkt mit «disruptiven» Technologien nach ihrem Belieben fluten und dirigieren. 

Man muss dabei nicht immer gleich China als abschreckendes Beispiel zitieren, wo das Regime die Technologie zur totalen Verhaltensdressur ausnutzt. Auch im Westen lassen wir uns von Algorithmen kontrollieren und manipulieren. Sie «entscheiden», was wir sehen, lesen, hören, kaufen, mit wem wir kommunizieren, wen wir mögen und wen wir hassen wollen. Das Netz ist eine gigantische Skinnerbox ohne Skinner. Er experimentierte mit Tauben. Heute sind wir so weit, dass wir uns selber zu netzadaptierten Kreaturen konditionieren. 

Es geht bei den neuesten KI-Kreationen nicht mehr bloss um Bau und Funktionsweise von intelligenten Artefakten, sondern um deren Sozialisierung. Um Maschinen zu sozialisieren, muss man Menschen «maschinisieren». Man vergegenwärtige sich nur einmal, wie wir immer dichter verpackt in einer Infosphäre mit Computern, Programmen und Daten leben, wo Artefakte unsere Aktivitäten übernehmen, ohne dass man begründet sagen könnte, die-se künstlichen Akteure besässen Intelligenz, Verständnis, Gefühlszustände, semantische Fähigkeiten wie wir Menschen.  Aber auch so werden wir uns daran gewöhnen müssen, ei-nem System ein «Gedächtnis» in Gestalt von riesigen Datenbanken und effektiven Suchalgorithmen zuzuordnen; ihm ein bestimmtes «intelligentes» Verhalten zu attestieren, wenn es ein Flugzeug sicher landen lässt, die schnellste Route zwischen zwei Orten herausfindet oder günstige Börsentransaktionen berechnet. 

Techno-Fatalismus

Alarmierend ist drittens der Ohnmachtswille des Homo sapiens, sprich: die willfährige Bereitschaft, seine kognitiven, aber auch moralischen Kompetenzen an den Robo sapiens abzutreten. Algorithmen sind mächtige Instrumente, deren Macht grösstenteils darin besteht, andere Maschinen auf abstrakter Ebene zu simulieren. Das ist die fundamentale Einsicht von Alan Turing. Aber diese Fähigkeit kann uns zu sektierischer Einäugigkeit und metaphorischer Universalisierung verleiten: Alles ist «im Prinzip» ein Computer. Wir kennen diesen Reduktionismus schon von der alten Maschine her: Der Mensch ist «nichts als» eine organische Maschine. 

Er bestärkt eine Art von Techno-Fatalismus: Der Vormarsch der Algorithmen ist unaufhaltsam. Wir beginnen alle sozialen und kulturellen Veränderungen dem Einfluss der Technologie zuzuschreiben und vergessen dabei, dass es «die» Technologie nicht gibt. Es gibt Menschen – Ingenieure, Unternehmer, Investoren, Evangelisten der KI - , welche die Technologie zu ganz bestimmten Zwecken einsetzen – und missbrauchen. Und vielen von ihnen liegt durchaus daran, dass die Nutzer ihrer Produkte in der Herdenwärme einer lamm-frommen Technikgläubigkeit verharren. 

They just don’t give a damn

Künstliche Intelligenz ist eines der kühnsten, vielleicht das kühnste intellektuelle Abenteuer der letzten 60 Jahre. Sie lehrt uns sehr viel darüber, was Intelligenz nicht ist. Die seriöse Forschung zeigt uns zum Beispiel, dass auch KI ihre «intrinsischen» Grenzen hat. Und genau das ist spannend, Ansporn für weitere Forschung in der Entwicklung von KI-Systemen, etwa von biologienäheren neuronalen Netzen oder von Quantencomputern. Zu-gleich aber auch dafür, die Alarmstufe herunterzufahren. 

Denn das grösste Risiko im Umgang mit den KI-Systemen bleibt ihr blosses Akzeptieren. Sie interessieren sich nämlich nicht für uns. Wie dies der amerikanische Philosoph John Haugeland unvergesslich ausgedrückt hat: The trouble with computers is that they just don’t give a damn – wir sind ihnen scheissegal. Und nicht wenige KI-Leute meinen damit: Der Unterschied zwischen Maschine und Mensch ist uns scheissegal. 

Die nachstehenden Essays insistieren auf diesem Unterschied. Die smarten Maschinen fordern den Anthropozentrismus heraus. Sie übernehmen heute Aufgaben, von denen man einst annahm, dass sie ausschliesslich menschliche Intelligenz erfordern. Sie zwingen uns dazu, neu zu überdenken, was Intelligenz, Bewusstsein, Persönlichkeit bedeutet. Sie brechen die anthropozentrische Ethik auf, indem sie für sich den Status von künstlichen «Agenten» reklamieren, also von Artefakten mit eigener Stellung und Handlungsmacht. Sie «emanzipieren» sich dadurch vom untergeordneten Status eines willfährigen «Tools». Und die Frage stellt sich, ob wir sie in unsere Gesellschaft «einbürgern» und mit ihnen «auf Augenhöhe» verkehren sollen. 

Exzentrische Anthropologie 

Solche Phänomene rufen nach einer Umkehr des traditionellen anthropologischen Ansatzes, in dem der Mensch die Zentralperspektive beanspruchte. Ich nenne diesen Ansatz  – in Anlehnung an Helmuth Plessner - exzentrische Anthropologie. Der Mensch lernt sich im Spiegel seiner Artefakte neu kennen und verstehen, so wie die kopernikanische Wende des heliozentrischen Weltbildes dem Menschen ein neues Selbstverständnis abforderte. Übrigens zeigt schon die Geschichte des Wortes «Computer» diese Dezentrierung an. Ursprüng-lich bezog es sich auf Menschen, die Rechenoperationen durchführten. Mit Alan Turings bahnbrechender Arbeit über denkende Maschinen konnte es auch auf Artefakte angewendet werden. Das Wort löste sich von seiner anthropozentrischen Bedeutung. Mit solchen be-grifflichen Erweiterungen werden wir vermehrt zu tun haben.

Wenn im Folgenden von smarten Maschinen die Rede ist, dann stehen nicht so sehr ihre wissenschaftlichen und technischen Aspekte im Brennpunkt, sondern ihre Herausforderung der menschlichen Sonderstellung in der Welt (die ersten drei Essays behandeln eher Grundlagenfragen). Smarte Maschinen reklamieren heute vieles, was wir als «eigentlich» menschlich bezeichnen: kognitive Vermögen, Kreativität, Moral. Die Ironie springt natürlich ins Auge:  Wir schaffen kraft unseres Denkens Artefakte, die uns die Sonderstellung des denkenden Wesens streitig machen – eine Sonderstellung, wie sie sich emblemartig genug im cartesianischen «Ich denke, also bin ich» äussert.  

Schliesslich möchte ich mich mit der exzentrischen Anthropologie von anderen «dezentrierenden» Ansätzen abgrenzen; etwa von den transhumanistischen Visionen eines Menschentums, das sich aus seinen biologischen Fesseln lösen will; auch von den Netzwerken, in denen Menschen und Artefakte ununterscheidbar als «Aktanten» operieren. Ich gehe vielmehr aus vom vielleicht paradoxen, vielleicht donquichottischen Optimismus, dass das Menschliche sich gerade da entdecken lässt, wo es scheinbar veraltet und verschwindet. 



Freitag, 3. Oktober 2025

 

Das Paradox der technologischen Entwicklung

Nach einer vorherrschenden Technikauffassung macht Not erfinderisch: Notwendigkeit ist die Mutter der Erfindung. Da ist ein Problem und durch eine Erfindung lösen wir es, sprich: verschwindet es. Die Ansicht kursiert heute unter der Bezeichnung des Technological Fix: Verwandle ein Problem in ein ingenieurales und löse es durch die Erfindung oder Verbesserung einer entsprechenden Technik. 

«Die Erfindung ist die Mutter der Notwendigkeit» 

Die Ansicht erweist sich bei näherem Betrachten als einseitig, mehr noch: als Paradox. Technik ist ambivalent. Oft stellt sie sich als das Problem heraus, für dessen Lösung sie sich hält. Der amerikanische Technikhistoriker Melvin Kranzberg hat deshalb vor vierzig Jahren den obigen Spruch umgekehrt und als «Kranzberg-Gesetz» formuliert: Erfindung ist die Mutter der Notwendigkeit. Er schlug damit – nicht ohne Ironie - ein anderes Narrativ vor: Innovationen schaffen neue Nöte, machen in der Regel weitere Zusatzerfindungen notwendig, um wirklich effizient zu werden. Das heisst, Erfindungen setzen einen innovativen Zyklus in Bewegung, der gewissermassen eine «kranz
berg’sche» Eigendynamik entwickelt. 

«Die Macht der Computers und die Ohnmacht der Vernunft» 

Die Computertechnologie macht sie exemplarisch sichtbar. Etwa in der Mitte des letz-ten Jahrhunderts sahen sich industrielle Produktion, Verkehr, Planung, ja, Politik mit einer Informationsflut konfrontiert, deren Management die menschliche Kapazität überstieg. Das war die Notwendigkeit, die den Computer auf den Plan rief. Und er präsentierte sich zunächst als wunderbarer Technological Fix. Aber schon anfangs der 1970er Jahre schrieb der Computerwissenschaftler Joseph Weizenbaum vom MIT sein vieldiskutiertes Buch«Die Macht des Computers und die Ohnmacht der Vernunft». Dem mulmigen Gefühl, eine maschinelle Intelligenz könnte der Kontrolle der menschlichen Intelligenz entgleiten, begegneten die Informatiker mit der Beschwichtigung, das Problem liesse sich durch weitere technische Entwicklung bewältigen. Und die Beschwichtigung hält bis heute an, im Mantra: Wartet nur, bis wir den richtigen Algorithmus gefunden haben! 

«Technologie geschieht, weil sie möglich ist»

Anders gesagt: Man konzentriert sich auf die Erfindung – um die «Nöte», die aus ihr folgen, kümmert man sich später. «Technologie geschieht, weil sie möglich ist». Dieser Satz von Sam Altman - CEO von OpenAI - echot einen berühmten anderen Satz, jenen von Robert Oppenheimer, Leiter des Atombombenbaus im Manhattan-Projekt: «Wenn man etwas sieht, das technisch verlockend ist (‘technically sweet’), macht man es einfach, und man diskutiert erst später darüber, was man damit anfangen soll – nachdem man den technischen Erfolg erzielt hat. So war es mit der Atombombe.» Und einer der Pioniere des Deep Learning – Geoffrey Hinton – äusserte den Satz fast wortwörtlich mit Bezug auf die KI. 

Die Erfindung ist die Mutter des Bedürfnisses

Kranzbergs Gesetz hat - vor allem im Zeitalter der KI-Technologie und ihrer monopolistischen Firmen -  einen anderen, einen psychologischen Aspekt. Lesen wir «Notwendigkeit» als «Bedürfnis», dann lässt sich das Gesetz so formulieren: Die Erfindung ist die Mutter des Bedürfnisses. Sie schafft Bedürfnisse, die vorher nicht existierten. Die Technikgeschichte zeigt ein wiederkehrendes Phänomen: Erfindungen haben es oft schwer. Ihre Durchsetzung als Innovation muss einem Bedürfnis entsprechen, und ein solches existiert oft aufgrund sozial und kulturell verwurzelter Interessen nicht.  Zu Gutenbergs Zeiten ertönten nicht Jubelschreie «Endlich gedruckte Texte!», vielmehr beeilten sich die Kopisten, die Presseprodukte mit einem lokalen Bann zu belegen. Der erste Verbrennungsmotor, um 1860 von Nicolaus Otto gebaut, führte nicht zur Produktion entsprechender Vehikel, weil die Leute mit Pferden und Eisen-bahnen zufrieden waren. Der Transistor wurde in den USA erfunden, aber die Elekt-roindustrie ignorierte ihn, um die Produkte mit Vakuumröhren zu schützen. 

«There’s a That for this App”

KI-Technologie ist primär eine Bedürfnisproduktion. Sie braucht den Kunden als Be-dürftigen. Ein Ex-Geschäftsstratege bei Google beschreibt die Industrie als die «umfassendste, normierteste und zentralisierteste Form der Verhaltenskontrolle in der Geschichte der Menschheit (..) Ich realisierte: Da ist buchstäblich eine Million Menschen, die wir sozusagen anstubsen und überreden, Dinge zu tun, die sie sonst nicht tun würden». 

«There’s an App for That» lautete der Werbespruch von Apple 2009. Aber er sollte eigentlich lauten: «There’s a That for this App». Besessen vom nächsten neuen Ding hetzt heute die Entwicklung in einer Endlosschleife der Innovationen manisch vorwärts. Mit all dem Schnickschnack und seinen laufenden Updates verkaufen die Firmen Verhaltensweisen, und sie dressieren uns immer neue Bedürfnisse an. 

Der Ingenieur als Sisyphos

Gibt es einen Ausstieg? Die Technikhistorikerin Martina Hessler ruft in ihrem Buch «Sisyphos im Maschinenraum» eine mythische Figur auf den Plan. Der moderne Sisyphos ist der vom Technological Fix beherrschte Mensch. Er schiebt den Stein der technischen Lösungen immer höher, aber er erreicht dadurch nur, dass der ersehnte Gipfel sich weiter entfernt. Er hat seine Strafe selber gewählt, getrieben vom Wunsch, die Welt allein mit Technik zu verbessern, ja, zu vervollkommnen. Technological Fix sagt alles: Befestigung einer bestimmten Vorgehensweise; die Abhängigkeit vom Pfad, den man eingeschlagen hat. Das Sisyphoshafte ist dieser Art von Entwicklung inhärent. Wie Martina Hessler bemerkt, verbleiben «technologische Lösungen in der Re-gel in einer Logik, die das Bisherige fortsetzt (..) Die vermeintlich disruptiven Technologien erweisen sich aus dieser Perspektive gar nicht als disruptiv, sondern lösen das Problem in der Logik des Problems, anstatt es kreativ völlig neu zu denken». 

Das ist der springende Punkt. Technologie ist mehr als ein Gerätepark. Die neuen smarten Maschinen bilden ein Dispositiv, das unser Fragen immer schon in eine ganz bestimmte Richtung lenkt. Technik wirkt dadurch wie eine Art von Vorsehung. Niemand zwingt mich, ein Gerät zu verwenden. Aber wenn es den Verwendungszusammenhang definiert, aus dem ich nicht einfach so aussteigen kann, dann bin ich seinem zwanglosen Zwang unterworfen. Die KI-Systeme nisten sich ein in unserem Blick, werden zu einem Stück unserer selbst. 

Eine selbst herbeigeführte Gattungsverdummung

Sam Altman schwadronierte 2021 von einer vierten «KI-Revolution» nach den drei anderen technologischen Revolutionen: der landwirtschaftlichen, der industriellen und der computerbasierten. Er betonte dabei, dass diese vierte Revolution «sich auf die beeindruckendste unserer Fähigkeiten konzentriert: die phänomenale Fähigkeit zu denken, zu erschaffen, zu verstehen und zu schlussfolgern». Die Bemerkung ist entlarvend, denn Altman verschwieg die tiefe Paradoxie, dass uns die KI-Industrie ja gerade diese Fähigkeit abzunehmen sucht. Wir haben sehr viel Intelligenz in Geräte gesteckt, und als fatal daran erweist sich, dass uns die Geräte zum Nichtgebrauch unserer  Intelligenz verleiten – zu einer selbst herbeigeführten Gattungsverdummung, die sich als Triumph zelebriert.


Atome, Äpfel und Schrödingers Katze Der Physiknobelpreis  2025 zeigt, dass sich die Quantenphysik  den gewöhnlichen Dingen nähert  Im Film «...