Freitag, 17. Oktober 2025



Erscheint demnächst

Prolog: Wir sind dem Computer scheissegal

Utopia und Dystopia liegen in der Einschätzung der Künstlichen Intelligenz (KI) nah beieinander. Einerseits nimmt die dem Menschen ebenbürtige bis überlegene Maschinenintelligenz Gestalt an, andererseits sieht man in ihr die mögliche Auslöschung der Menschheit. Das Center for AI Safety – eine amerikanische Nonprofit-Organisation – veröffentlichte vor kurzem ein Statement von Tech-Mogulen, das viele namhafte Fachleute unterzeichneten: «Das Risiko eine Auslöschung der Menschheit durch die KI sollte in der sozialen Dimension gleich eingeschätzt werden wie das Risiko der Auslöschung durch Pandemien oder durch Nuklearkriege.» 

Das falsche Bewusstsein 

Dieser Alarmismus spricht mit gespaltener Zunge. Wenn die KI wirklich eine solche Gefahr darstellt, fragt man sich, warum warnen dann ausgerechnet jene Leute vor ihr, die ihre Entwicklung rasend vorantreiben? Sind sie aus ihren Zauberlehrlingsträumen aufgewacht? Hat die «prometheische Scham» sie gepackt, das Gefühl der Unzulänglichkeit angesichts ihrer eigenen Produkte? 

Natürlich sind die Warnungen nicht einfach in den Wind zu schlagen. Aber nüchtern be-trachtet, eröffnen die KI-Systeme schlicht ein unerforschtes Feld der sozialen Interaktion von Mensch und Maschine, nunmehr auf «intelligentem» Niveau. Und es ist eigentlich nicht das KI-System selbst, sondern unsere vorauseilende dystopische Fantasie, die uns das Fürchten lehrt.

Karl Marx sprach vom «falschen Bewusstsein», also einem Begriffs- und Wahrnehmungsrahmen, der alles schon im Voraus präformiert, ja, verzerrt. Falsches Bewusstsein erscheint mir wie zugeschnitten auf die heutige KI-Technologie: Wir machen uns a priori einen unzutreffenden Begriff von ihr. Und das führt zu Falschalarm. Ich erläutere dies anhand dreier Punkte. 

Die Zuschreibung menschlicher Vermögen

Erstens: Wir attestieren den smarten Maschinen kognitive Fähigkeiten, die wir oft kaum noch von menschlichen unterscheiden. Wir sagen, der Computer «verstehe» oder «entscheide», der Chatbot «schreibe» einen Text, LaMDA («Language Model for Dialogue Application») «konversiere» mit uns, DALL-E 2 «male» ein Bild. Das sind aber nichts anderes als Anthropomorphismen, mit denen wir versuchen, die heute kaum noch vollständig durchschaubaren Maschinenabläufe in einem uns begreiflichen Idiom zu beschreiben. Ins-besondere übertragen wir KI-Systemen bereits «moralische» Handlungsverantwortung, schieben ihnen etwa die Schuld zu, Jobs «abzuschaffen». Oder wir warnen vor «sexisti-schen» oder «rassistischen» Algorithmen. Als ob die Maschinen sich wie Menschen verhal-ten würden. 

Und das sollte uns wirklich perplex machen: Wir wissen, dass wir es bloss mit Maschinen zu tun haben. Trotzdem leben wir mit ihnen auf fast gleicher sozialer Höhe wie mit Menschen  zusammen. Bisherige Klimax dieser KI-Beschwipstheit ist ein Softwaredesigner von Google – Blake Lemoine - , der behauptete, das Konversationsprogramm LaMDA sei in eine persönliche Beziehung zu ihm getreten. 

Der Machtwille des Homo sapiens hinter dem Robo sapiens

Das ist falsches Bewusstsein. Es zeigt zweitens eine alarmierende Dialektik der ganzen Entwicklung. Im gleichen Zug, in dem wir Maschinen personenhafte Züge zuschreiben, verges-sen wir die menschlichen Personen hinter der Maschinen. Nicht Maschinen schaffen die Jobs ab, sondern Unternehmen und Regierungen -  Institutionen, die von Personen geführt werden. Und nicht die Algorithmen sind sexistisch oder rassistsisch, sondern deren Designer. 

Der vermeintliche Machtwille des Robo sapiens ist der kaschierte Machtwille des Homo sapiens. Die Gefahr liegt nicht darin, dass Computer die Menschen beherrschen, sondern eine Elite von Roboterdesignern, Technikunternehmern und Risikokapitalisten, welche den Arbeitsmarkt mit «disruptiven» Technologien nach ihrem Belieben fluten und dirigieren. 

Man muss dabei nicht immer gleich China als abschreckendes Beispiel zitieren, wo das Regime die Technologie zur totalen Verhaltensdressur ausnutzt. Auch im Westen lassen wir uns von Algorithmen kontrollieren und manipulieren. Sie «entscheiden», was wir sehen, lesen, hören, kaufen, mit wem wir kommunizieren, wen wir mögen und wen wir hassen wollen. Das Netz ist eine gigantische Skinnerbox ohne Skinner. Er experimentierte mit Tauben. Heute sind wir so weit, dass wir uns selber zu netzadaptierten Kreaturen konditionieren. 

Es geht bei den neuesten KI-Kreationen nicht mehr bloss um Bau und Funktionsweise von intelligenten Artefakten, sondern um deren Sozialisierung. Um Maschinen zu sozialisieren, muss man Menschen «maschinisieren». Man vergegenwärtige sich nur einmal, wie wir immer dichter verpackt in einer Infosphäre mit Computern, Programmen und Daten leben, wo Artefakte unsere Aktivitäten übernehmen, ohne dass man begründet sagen könnte, die-se künstlichen Akteure besässen Intelligenz, Verständnis, Gefühlszustände, semantische Fähigkeiten wie wir Menschen.  Aber auch so werden wir uns daran gewöhnen müssen, ei-nem System ein «Gedächtnis» in Gestalt von riesigen Datenbanken und effektiven Suchalgorithmen zuzuordnen; ihm ein bestimmtes «intelligentes» Verhalten zu attestieren, wenn es ein Flugzeug sicher landen lässt, die schnellste Route zwischen zwei Orten herausfindet oder günstige Börsentransaktionen berechnet. 

Techno-Fatalismus

Alarmierend ist drittens der Ohnmachtswille des Homo sapiens, sprich: die willfährige Bereitschaft, seine kognitiven, aber auch moralischen Kompetenzen an den Robo sapiens abzutreten. Algorithmen sind mächtige Instrumente, deren Macht grösstenteils darin besteht, andere Maschinen auf abstrakter Ebene zu simulieren. Das ist die fundamentale Einsicht von Alan Turing. Aber diese Fähigkeit kann uns zu sektierischer Einäugigkeit und metaphorischer Universalisierung verleiten: Alles ist «im Prinzip» ein Computer. Wir kennen diesen Reduktionismus schon von der alten Maschine her: Der Mensch ist «nichts als» eine organische Maschine. 

Er bestärkt eine Art von Techno-Fatalismus: Der Vormarsch der Algorithmen ist unaufhaltsam. Wir beginnen alle sozialen und kulturellen Veränderungen dem Einfluss der Technologie zuzuschreiben und vergessen dabei, dass es «die» Technologie nicht gibt. Es gibt Menschen – Ingenieure, Unternehmer, Investoren, Evangelisten der KI - , welche die Technologie zu ganz bestimmten Zwecken einsetzen – und missbrauchen. Und vielen von ihnen liegt durchaus daran, dass die Nutzer ihrer Produkte in der Herdenwärme einer lamm-frommen Technikgläubigkeit verharren. 

They just don’t give a damn

Künstliche Intelligenz ist eines der kühnsten, vielleicht das kühnste intellektuelle Abenteuer der letzten 60 Jahre. Sie lehrt uns sehr viel darüber, was Intelligenz nicht ist. Die seriöse Forschung zeigt uns zum Beispiel, dass auch KI ihre «intrinsischen» Grenzen hat. Und genau das ist spannend, Ansporn für weitere Forschung in der Entwicklung von KI-Systemen, etwa von biologienäheren neuronalen Netzen oder von Quantencomputern. Zu-gleich aber auch dafür, die Alarmstufe herunterzufahren. 

Denn das grösste Risiko im Umgang mit den KI-Systemen bleibt ihr blosses Akzeptieren. Sie interessieren sich nämlich nicht für uns. Wie dies der amerikanische Philosoph John Haugeland unvergesslich ausgedrückt hat: The trouble with computers is that they just don’t give a damn – wir sind ihnen scheissegal. Und nicht wenige KI-Leute meinen damit: Der Unterschied zwischen Maschine und Mensch ist uns scheissegal. 

Die nachstehenden Essays insistieren auf diesem Unterschied. Die smarten Maschinen fordern den Anthropozentrismus heraus. Sie übernehmen heute Aufgaben, von denen man einst annahm, dass sie ausschliesslich menschliche Intelligenz erfordern. Sie zwingen uns dazu, neu zu überdenken, was Intelligenz, Bewusstsein, Persönlichkeit bedeutet. Sie brechen die anthropozentrische Ethik auf, indem sie für sich den Status von künstlichen «Agenten» reklamieren, also von Artefakten mit eigener Stellung und Handlungsmacht. Sie «emanzipieren» sich dadurch vom untergeordneten Status eines willfährigen «Tools». Und die Frage stellt sich, ob wir sie in unsere Gesellschaft «einbürgern» und mit ihnen «auf Augenhöhe» verkehren sollen. 

Exzentrische Anthropologie 

Solche Phänomene rufen nach einer Umkehr des traditionellen anthropologischen Ansatzes, in dem der Mensch die Zentralperspektive beanspruchte. Ich nenne diesen Ansatz  – in Anlehnung an Helmuth Plessner - exzentrische Anthropologie. Der Mensch lernt sich im Spiegel seiner Artefakte neu kennen und verstehen, so wie die kopernikanische Wende des heliozentrischen Weltbildes dem Menschen ein neues Selbstverständnis abforderte. Übrigens zeigt schon die Geschichte des Wortes «Computer» diese Dezentrierung an. Ursprüng-lich bezog es sich auf Menschen, die Rechenoperationen durchführten. Mit Alan Turings bahnbrechender Arbeit über denkende Maschinen konnte es auch auf Artefakte angewendet werden. Das Wort löste sich von seiner anthropozentrischen Bedeutung. Mit solchen be-grifflichen Erweiterungen werden wir vermehrt zu tun haben.

Wenn im Folgenden von smarten Maschinen die Rede ist, dann stehen nicht so sehr ihre wissenschaftlichen und technischen Aspekte im Brennpunkt, sondern ihre Herausforderung der menschlichen Sonderstellung in der Welt (die ersten drei Essays behandeln eher Grundlagenfragen). Smarte Maschinen reklamieren heute vieles, was wir als «eigentlich» menschlich bezeichnen: kognitive Vermögen, Kreativität, Moral. Die Ironie springt natürlich ins Auge:  Wir schaffen kraft unseres Denkens Artefakte, die uns die Sonderstellung des denkenden Wesens streitig machen – eine Sonderstellung, wie sie sich emblemartig genug im cartesianischen «Ich denke, also bin ich» äussert.  

Schliesslich möchte ich mich mit der exzentrischen Anthropologie von anderen «dezentrierenden» Ansätzen abgrenzen; etwa von den transhumanistischen Visionen eines Menschentums, das sich aus seinen biologischen Fesseln lösen will; auch von den Netzwerken, in denen Menschen und Artefakte ununterscheidbar als «Aktanten» operieren. Ich gehe vielmehr aus vom vielleicht paradoxen, vielleicht donquichottischen Optimismus, dass das Menschliche sich gerade da entdecken lässt, wo es scheinbar veraltet und verschwindet. 



Samstag, 11. Oktober 2025



Verschwörungstheoretiker in der Wissenschaft

Wer wissenschaftlich etwas auf sich hält und mitreden möchte, hat heute die Möglichkeit, auf YouTube und anderen Internetmedien seine Ideen kundzutun. Das dient auf den ersten Blick einem guten Zweck, nämlich die wissenschaftliche Arbeit auf unterhaltsame Weise einer breiteren Öffentlichkeit zugänglich zu machen. Aber dieser Blick trügt. 

Betrachten wir die Debatten der letzten 40 Jahre über das Standardmodell der Teilchenphysik. Es hat sich in zahlreichen Fällen als erfolgreiches Erklärungsinstrument erwiesen. Nichtsdestotrotz gilt es als vorläufiges «Flickwerk», weil ihm die Vereinheitlichung der Grundkräfte bisher nicht gelungen ist. Das reizt natürlich auch Aussenseiter. Zum Beispiel Eric Weinstein, einen ehemaligen Geschäftsführer von Thiel Capital. Er bastelt seit Jahren an einer «fundamentalen» Theorie – der «Geometric Unit» - , welche die Gravitationstheorie mit der Quantenphysik verbinden, die dunkle Materie erklären und neue Teilchen vor-hersagen will. Ein ziemlich ambitiöses Programm. Das Problem: die Physiker nehmen es nicht ernst.  

***

In der populären YouTube-Talkshow des britischen Journalisten Piers Morgan traf sich Weinstein neulich mit Sean Carroll, dem Physiker und bekannten Wissenschaftsautor von der Johns Hopkins University. Dieser wies auf einige wichtige Kriterien hin, die eine Idee «akkreditieren». Sie sollte neue Voraussagen ermöglichen, den aktuellen Forschungsstand der einschlägigen Disziplin bereichern, sie sollte vor allem in einem Fachorgan mit Peer-Review zur Diskussion gestellt werden. Weinstein habe ein einziges Paper geschrieben, das keinem dieser Kriterien genüge. Solcherlei liess Weinstein nicht auf sich sitzen. Er ist ausgebildeter Mathematiker, und er kennt sich in den aktuellen physikalischen Problemen aus. Aber die Diskussion entartete schnell zu einem gegenseitigen Austausch von vergifteten Nettigkeiten. Carroll bezichtigte Weinstein, die Hausaufgaben nicht richtig gemacht zu haben (im Englischen lautet die fadenscheinige Entschuldigung «the dog ate my homework»). Im Gegenzug verunglimpfte Weinstein Carroll als zweitrangigen Forscher, der eher ein Influencer sei, eine Art von «Marie Antoinette der theoretischen Physik». 

***

Weinstein exemplifiziert ein nicht seltenes Phänomen: Ein wissenschaftliches Paper stellt eine  starke, jedoch fragwürdige Behauptung auf, die – wenn sie wahr wäre – unser Verständnis der Realität revolutionieren würde. Weinstein ist jedoch auch Symptom einer zunehmend bedenklicheren Tendenz. Erstens darf man annehmen, dass er als «Hofphilosoph» des nonkonformistischen Investors Peter Thiel dessen Abneigung gegen die akademische Welt teilt. Weinstein ist zweitens Mitbegründer des sogenannten «Intellectual Dark Web», eines losen Verbunds von furchtlosen «alternativen» Denkern, die sich gerne als Personae non gratae im akademischen Klub aufführen.  Weinstein hat drittens mit dem Begriff des «verteilten Komplexes der Ideenunterdrückung» («Distributed Idea Suppression Complex»; DISC) ein verschwörungtheoretisches Narrativ geschaffen: Es existiert angeblich ein geheimes akademisches Establishment, das unkonventionelle Ideen marginalisiert, un-terdrückt oder zum Schweigen bringt. Das Narrativ ist eine unübertreffliche Immunisierungsstrategie. Wer es kritisiert, bestätigt es gerade. 

Nun wäre all dies kaum der Rede wert, fänden solche Theorien nicht ein wissenschaftsfeindliches politisches Brutklima vor. Sheila Jasanoff, Professorin für Wissenschaftspolitik an der Harvard University, spricht vom «Bürgerkrieg der Ideen» : «Auf der einen Seite kämpfen die Verfechter des Glaubens, dass die Wissenschaft uns die besten Antworten auf die meisten sozialen Probleme gibt; auf der anderen Seite kämpfen Menschen, die glauben, dass die Wissenschaft in Amerika von einer ‘Big Government’-Ideologie vereinnahmt wurde. Sie wollen Forschungseinrichtungen wie die National Institutes of Health auflösen, um die Wissenschaft von Grund auf neu aufzubauen.»

***

Wie dieser Neuaufbau aussieht, zeichnet sich in aller Deutlichkeit am amerikanischen Gesundheitsministerium ab. Seinem Vorsteher Robert Kennedy jr. wird die Neigung zu Verschwörungstheorien nachgesagt.  Er hatte sich vor allem als Kritiker der Pharma- und Lebensmittelindustrie profiliert, allerdings auch mit wilden Hypothesen über den Zusammenhang von Massenschiesserei und Antidepressiva, Impfen und Autismus, Chemikalien im Wasser und sexueller Orientierung. Man muss sich vor Augen halten: Das amerikanische Gesundheitsministerium – das Department of Health and Human Services - verfügt über ein gewaltiges Budget, um die 1.8 Billionen Dollar. Damit übt es erheblichen Einfluss auf Forschungsrichtungen aus und kann gezielt kritische Wissenschaftler entmachten – ein gefährlicher Hebel zur politischen Steuerung wissenschaftlicher Agenden.

Paradox erscheint ja, dass die USA als führende Forschungsnation der Welt gelten, aber ihre Regierung gegenwärtig einen regelrechten Feldzug gegen die «Eliten» der universitären Wissenschaft eröffnet.  Die Ideologie dahinter machte sich schon an den konkreten Auswirkungen des DOGE-Programms von Elon Musk bemerkbar («Department of Government Efficiency»): «Säuberung» der Bürokratie von unproduktivem Ballast. Sehr wahrscheinlich macht man sich auch Gedanken über eine «Säuberung» der Wissenschaft von missliebigen Ideen. 

***

Dass Aussenseiter sich mit dem wissenschaftlichen Establishment anlegen, ist nicht neu. Auch nicht, dass sie dabei mit verschwörungstheoretischen Argumenten operieren. «Renegaten» wie Weinstein verweisen ja durchaus auf reale Missstände von Big Science: Replikationskrise, Publikationsdruck, kriselnde Peer-Review, Tendenz zu Konformität, Hyperspezialisierung, Kampf um öffentliche Gelder. Jüngst kommen Verdächte hinzu, dass Wissenschaftler die Laborhypothese von Covid-19 unterdrückt hätten.  Das nährt das Misstrauen beim Laien. Und Aussenseiter ziehen ihren Nutzen aus einem soziokulturellen Klima, in dem die Wissenschaft nicht mehr als alleinige Hüterin der Wahrheit gilt. Gewiss, sie bewährt sich als System, das disziplinären Fortschritt, reproduzierbare Ergebnisse und über-prüfbare Theorien ermöglicht. Doch trifft auch zu, dass viele grosse wissenschaftliche Ent-deckungen es schwer hatten gegen die «Orthodoxie» von Paradigmen. Man denke nur etwa an das kopernikanische Weltbild, die Keimtheorie der Krankheiten, die frühe Quantentheorie.

***

Diese Ambivalenz charakterisiert den wissenschaftlichen Diskurs. Wer dazu beitragen will, kann nicht wie ein Prophet von seinen eigenen Ideen überzeugt sein, sondern muss andere überzeugen, nach den Regeln des Spiels. Weinstein und sonstige «Contrarians» suchen nicht den Diskurs, sie stilisieren sich zu dessen «Opfer». Ihr Narrativ vom unterdrückten unorthodoxen Denker wirkt wie ein Virus. Es infiziert den wissenschaftlichen Konsens mit dem Verdacht, dieser sei im Grunde ein Komplott. Und damit delegitimieren sie den wissenschaftlichen Erkenntnisanspruch. Denn wo Wissenschaft nicht mehr als gemeinsame Erkenntnissuche gilt, sondern als Macht- und Ränkespiel von «Eliten», öffnen sich Hintertüren für Ideologen und Populisten. Verschwörungstheorien untergraben nicht nur die Glaubwürdigkeit der Wissenschaft – sie bedrohen ihr ideeles Rückgrat. Die Wissenschaftler tun gut daran, sich selber wieder darauf zu besinnen und es zu stärken. 




Freitag, 3. Oktober 2025

 

Das Paradox der technologischen Entwicklung

Nach einer vorherrschenden Technikauffassung macht Not erfinderisch: Notwendigkeit ist die Mutter der Erfindung. Da ist ein Problem und durch eine Erfindung lösen wir es, sprich: verschwindet es. Die Ansicht kursiert heute unter der Bezeichnung des Technological Fix: Verwandle ein Problem in ein ingenieurales und löse es durch die Erfindung oder Verbesserung einer entsprechenden Technik. 

«Die Erfindung ist die Mutter der Notwendigkeit» 

Die Ansicht erweist sich bei näherem Betrachten als einseitig, mehr noch: als Paradox. Technik ist ambivalent. Oft stellt sie sich als das Problem heraus, für dessen Lösung sie sich hält. Der amerikanische Technikhistoriker Melvin Kranzberg hat deshalb vor vierzig Jahren den obigen Spruch umgekehrt und als «Kranzberg-Gesetz» formuliert: Erfindung ist die Mutter der Notwendigkeit. Er schlug damit – nicht ohne Ironie - ein anderes Narrativ vor: Innovationen schaffen neue Nöte, machen in der Regel weitere Zusatzerfindungen notwendig, um wirklich effizient zu werden. Das heisst, Erfindungen setzen einen innovativen Zyklus in Bewegung, der gewissermassen eine «kranz
berg’sche» Eigendynamik entwickelt. 

«Die Macht der Computers und die Ohnmacht der Vernunft» 

Die Computertechnologie macht sie exemplarisch sichtbar. Etwa in der Mitte des letz-ten Jahrhunderts sahen sich industrielle Produktion, Verkehr, Planung, ja, Politik mit einer Informationsflut konfrontiert, deren Management die menschliche Kapazität überstieg. Das war die Notwendigkeit, die den Computer auf den Plan rief. Und er präsentierte sich zunächst als wunderbarer Technological Fix. Aber schon anfangs der 1970er Jahre schrieb der Computerwissenschaftler Joseph Weizenbaum vom MIT sein vieldiskutiertes Buch«Die Macht des Computers und die Ohnmacht der Vernunft». Dem mulmigen Gefühl, eine maschinelle Intelligenz könnte der Kontrolle der menschlichen Intelligenz entgleiten, begegneten die Informatiker mit der Beschwichtigung, das Problem liesse sich durch weitere technische Entwicklung bewältigen. Und die Beschwichtigung hält bis heute an, im Mantra: Wartet nur, bis wir den richtigen Algorithmus gefunden haben! 

«Technologie geschieht, weil sie möglich ist»

Anders gesagt: Man konzentriert sich auf die Erfindung – um die «Nöte», die aus ihr folgen, kümmert man sich später. «Technologie geschieht, weil sie möglich ist». Dieser Satz von Sam Altman - CEO von OpenAI - echot einen berühmten anderen Satz, jenen von Robert Oppenheimer, Leiter des Atombombenbaus im Manhattan-Projekt: «Wenn man etwas sieht, das technisch verlockend ist (‘technically sweet’), macht man es einfach, und man diskutiert erst später darüber, was man damit anfangen soll – nachdem man den technischen Erfolg erzielt hat. So war es mit der Atombombe.» Und einer der Pioniere des Deep Learning – Geoffrey Hinton – äusserte den Satz fast wortwörtlich mit Bezug auf die KI. 

Die Erfindung ist die Mutter des Bedürfnisses

Kranzbergs Gesetz hat - vor allem im Zeitalter der KI-Technologie und ihrer monopolistischen Firmen -  einen anderen, einen psychologischen Aspekt. Lesen wir «Notwendigkeit» als «Bedürfnis», dann lässt sich das Gesetz so formulieren: Die Erfindung ist die Mutter des Bedürfnisses. Sie schafft Bedürfnisse, die vorher nicht existierten. Die Technikgeschichte zeigt ein wiederkehrendes Phänomen: Erfindungen haben es oft schwer. Ihre Durchsetzung als Innovation muss einem Bedürfnis entsprechen, und ein solches existiert oft aufgrund sozial und kulturell verwurzelter Interessen nicht.  Zu Gutenbergs Zeiten ertönten nicht Jubelschreie «Endlich gedruckte Texte!», vielmehr beeilten sich die Kopisten, die Presseprodukte mit einem lokalen Bann zu belegen. Der erste Verbrennungsmotor, um 1860 von Nicolaus Otto gebaut, führte nicht zur Produktion entsprechender Vehikel, weil die Leute mit Pferden und Eisen-bahnen zufrieden waren. Der Transistor wurde in den USA erfunden, aber die Elekt-roindustrie ignorierte ihn, um die Produkte mit Vakuumröhren zu schützen. 

«There’s a That for this App”

KI-Technologie ist primär eine Bedürfnisproduktion. Sie braucht den Kunden als Be-dürftigen. Ein Ex-Geschäftsstratege bei Google beschreibt die Industrie als die «umfassendste, normierteste und zentralisierteste Form der Verhaltenskontrolle in der Geschichte der Menschheit (..) Ich realisierte: Da ist buchstäblich eine Million Menschen, die wir sozusagen anstubsen und überreden, Dinge zu tun, die sie sonst nicht tun würden». 

«There’s an App for That» lautete der Werbespruch von Apple 2009. Aber er sollte eigentlich lauten: «There’s a That for this App». Besessen vom nächsten neuen Ding hetzt heute die Entwicklung in einer Endlosschleife der Innovationen manisch vorwärts. Mit all dem Schnickschnack und seinen laufenden Updates verkaufen die Firmen Verhaltensweisen, und sie dressieren uns immer neue Bedürfnisse an. 

Der Ingenieur als Sisyphos

Gibt es einen Ausstieg? Die Technikhistorikerin Martina Hessler ruft in ihrem Buch «Sisyphos im Maschinenraum» eine mythische Figur auf den Plan. Der moderne Sisyphos ist der vom Technological Fix beherrschte Mensch. Er schiebt den Stein der technischen Lösungen immer höher, aber er erreicht dadurch nur, dass der ersehnte Gipfel sich weiter entfernt. Er hat seine Strafe selber gewählt, getrieben vom Wunsch, die Welt allein mit Technik zu verbessern, ja, zu vervollkommnen. Technological Fix sagt alles: Befestigung einer bestimmten Vorgehensweise; die Abhängigkeit vom Pfad, den man eingeschlagen hat. Das Sisyphoshafte ist dieser Art von Entwicklung inhärent. Wie Martina Hessler bemerkt, verbleiben «technologische Lösungen in der Re-gel in einer Logik, die das Bisherige fortsetzt (..) Die vermeintlich disruptiven Technologien erweisen sich aus dieser Perspektive gar nicht als disruptiv, sondern lösen das Problem in der Logik des Problems, anstatt es kreativ völlig neu zu denken». 

Das ist der springende Punkt. Technologie ist mehr als ein Gerätepark. Die neuen smarten Maschinen bilden ein Dispositiv, das unser Fragen immer schon in eine ganz bestimmte Richtung lenkt. Technik wirkt dadurch wie eine Art von Vorsehung. Niemand zwingt mich, ein Gerät zu verwenden. Aber wenn es den Verwendungszusammenhang definiert, aus dem ich nicht einfach so aussteigen kann, dann bin ich seinem zwanglosen Zwang unterworfen. Die KI-Systeme nisten sich ein in unserem Blick, werden zu einem Stück unserer selbst. 

Eine selbst herbeigeführte Gattungsverdummung

Sam Altman schwadronierte 2021 von einer vierten «KI-Revolution» nach den drei anderen technologischen Revolutionen: der landwirtschaftlichen, der industriellen und der computerbasierten. Er betonte dabei, dass diese vierte Revolution «sich auf die beeindruckendste unserer Fähigkeiten konzentriert: die phänomenale Fähigkeit zu denken, zu erschaffen, zu verstehen und zu schlussfolgern». Die Bemerkung ist entlarvend, denn Altman verschwieg die tiefe Paradoxie, dass uns die KI-Industrie ja gerade diese Fähigkeit abzunehmen sucht. Wir haben sehr viel Intelligenz in Geräte gesteckt, und als fatal daran erweist sich, dass uns die Geräte zum Nichtgebrauch unserer  Intelligenz verleiten – zu einer selbst herbeigeführten Gattungsverdummung, die sich als Triumph zelebriert.


Mittwoch, 24. September 2025

Die Angst des Logikers vor dem Widerspruch

Vom Zwang des Binären


Logik hasst den Widerspruch. Entweder ist eine Aussage wahr oder falsch, ein Drittes gibt es nicht – tertium non datur. Ein viel zitierter Grund für den logischen Bann des Dritten lautet, dass man aus einer logischen Kontradiktion sowohl eine Behauptung wie ihr Gegenteil – also Beliebiges - schliessen könne : ex falso quodlibet (in der Kurzform). Nun leben wir im Zeitalter des Bullshits, dessen Logik sich einen feuchten Kehricht um Widersprüchlichkeit kümmert. Ein Schlag windiger Politiker bevorzugt sie sogar als Argumentationsstil: Was ich sage, ist wahr, und wenn ich im gleichen Satz das Gegenteil sage, ist das auch wahr –  logic sucks. 

***

Es geht hier freilich nicht um politische Pathologien, sondern  um ein viel tieferes Problem. In der Logik muss man «müssen». Der arabische Philosoph Avicenna, der dem europäischen Mittelalter die aristotelische Logik übermittelte, war in dieser Hinsicht erbarmungslos: «Jeder, der das Gesetz des Nicht-Widerspruchs (des ausgeschlossenen Dritten, E.K.) leugnet, sollte geschlagen und verbrannt werden, bis er zugibt, dass geschlagen zu werden nicht dasselbe ist wie nicht geschlagen zu werden, und dass verbrannt zu werden nicht das-selbe ist wie nicht verbrannt zu werden».

Ein zwangloser Denkzwang steckt im Schliessen, und man kann sich fragen, was denn da eigentlich zwinge. «Sei logisch!» bedeutet ja im Grunde «Halte dich an die Spielregeln!», und damit meint man die Spielregeln des Denkens. Aber kennt das Denken nur ein einziges Spiel? Und gibt es überhaupt universelle Spielregeln? Einen kategorischen logischen Imperativ?

***

Widerspruchslosigkeit bildet das Fundament der Mathematik. Es ist freilich nicht so kompakt, wie man gemeinhin annimmt. Um die Wende vom 19. zum 20. Jahrhundert machten sich die besten Köpfe daran, die Mathematik durch die Mengenlehre logisch zu zementieren. Aber es zeigte sich, dass diese Grundlagen selbst vom Widerspruch kontaminiert waren. David Hilbert – Vordenker seiner Zeit - entwarf daraufhin ein ganzes Forschungsprojekt, mit dem Ziel, die Widerspruchsfreiheit der Mathematik zu beweisen. Als Ideal strahlte eine logisch geölte formale «Maschine», die bei jedem Satz, den man ihr eingibt, entscheiden könnte: er ist beweisbar oder widerlegbar. 

Das Projekt – so schön binär es aussah - hatte nicht den geplanten Erfolg. Spielverderber war der Logiker Kurt Gödel mit einem mathematischen Husarenstück. Er konstruierte ein formallogisches System, in das er die elementare Arithmetik übersetzte. Alle arithmetischen Sätze und auch ihre Beweise lassen sich darin ausdrücken. Wäre das System vollständig, könnte man zeigen, dass alle wahren Sätze in ihm beweisbar sind. Aber das System hat einen Webfehler. Es enthält notwendig einen «Fremdkörper», einen arithmetischen Satz, der wahr ist, aber weder beweis- noch widerlegbar. Das gilt nota bene unter der Annahme der Widerspruchsfreiheit des Systems. Und Gödel doppelte mit einem zweiten Resultat nach: Man kann noch so umfassende formallogische Systeme bauen, sie vermögen mit ihren Mitteln nicht die eigene Widerspruchsfreiheit zu beweisen. Entweder ist ein solches System um-fassend, aber nicht widerspruchsfrei; oder es ist widerspruchsfrei, aber nicht umfassend. Es enthält unbeweisbare Sätze. 

***

Man kann Logik als Theorie der Gültigkeit von Schlüssen betrachten; als Versuch, Rechenschaft zu geben, welche Konklusionen legitim aus Prämissen folgen. Die Crux ist das Wort «legitim». Wer definiert es verbindlich? Wer ist oberster Schiedsrichter? Wenn Gödel bewies, dass es keine vollständige widerspruchsfreie Theorie der Mathematik gibt, warum dann nicht eine vollständige Theorie, die Widersprüche enthält? Muss man den Widerspruch wirklich so fürchten wie der Teufel das Weihwasser? Ludwig Wittgenstein spricht einmal von der «abergläubischen Angst und Verehrung der Mathematiker vor dem Widerspruch». Er konnte sich nicht mit der Idee anfreunden, dass Arithmetik – Mathematik generell – ein unvollständiges «Sprachspiel» sei. Sie ist vollständig, aber nicht widerspruchsfrei. In einem Gespräch mit Alan Turing äusserte sich Wittgenstein unmissverständlich zur Warnung «ex falso quodlibet»: «Wenn man daraus jede beliebige Folgerung ziehen will, dann ist das die einzige Schwierigkeit (..) Und ich würde sagen: ‚Nun gut, dann ziehe einfach keine Schlüsse aus Kontradiktionen’». 

***

Das Widersprüchliche, Absurde ist eine reiche und unerschöpfliche Ideenquelle, auch in der Wissenschaft - der heimliche Motor der Fortschrittsdynamik. Erinnern wir uns nur daran, dass der Abschied von scheinbar selbstverständlichen Prinzipien oder Axiomen uns vordem «unbegreifliche» Wissensterritorien erschloss. Man denke etwa an die Wurzel aus -1, die imaginäre Zahl, mit der man lange Zeit nicht rechnen zu können glaubte; an die nicht-euklidische Geometrie oder an die Nichtstandardanalysis mit ihren hyperreellen Zahlen. Alle Theorien haben den Horizont ins mathematisch «Undenkbare» ausgeweitet.

Es gibt zeitgenössische Logiker, die der Widerspruch nicht abschreckt. Der brasilianische Mathematiker Newton da Costa formulierte bereits in den 1960er Jahren eine sogenannte parakonsistente Logik. Der britisch-australische Logiker Graham Priest arbeitet in dieser Tradition weiter. Er stellt den logischen Widerspruch zudem in einen erweiterten kulturellen Horizont. So ist schon lange bekannt, dass östliche Traditionen das Denken in Paradoxien pflegen, etwa das zenbuddhistische Koan. Priest weist auf eine nicht-binäre Denkfigur im indischen Buddhismus hin, das «Catuskoti» oder die «vier Ecken».  Catuskoti kennt nicht nur die Werte «wahr» und «falsch», sondern auch «wahr und falsch», sowie «weder wahr noch falsch». Beispiele für «weder wahr noch falsch» sind keineswegs ungewohnt. Wir kennen sie als Prognosen: «Trump wird 2024 nicht zur Wahl stehen». Eines der berühmtesten Beispiele für «wahr und falsch» ist schon irritierender, das Lügner-Paradoxon: «Was ich sage, ist falsch». Wenn der Satz wahr ist, dann äussert er etwas Falsches; und umgekehrt. Das Paradox tritt wohlgemerkt nur dann auf, wenn man ausschliesst, dass ein Satz wahr und falsch sein kann. Das Catuskoti tut das nicht. 

***

Könnte das binäre Entweder-oder der Spezialfall einer nicht-binären Logik sein – einer Logik, die mit Abstufungen operiert? Das ganze 20. Jahrhundert hindurch haben Denker sich mit alternativen oder mehrwertigen Versionen der klassischen Logik beschäftigt. Nur eine seltsame Obsession von welt¬fremden Köpfen? Im Gegenteil. Gerade Computerwissenschaft und KI-Forschung decken die Weltfremdheit herkömmlichen binären Denkens auf. Computerprogramme beruhen letztlich auf automatischen formalen Systemen, in denen alles algorithmisch geregelt ist. Bei der Übersetzung in formale Sprachen gehen viele relevanten Informationen verloren. Wir nehmen das in Kauf, weil wir von Computern erwarten, dass sie auf logisch konsistente Weise arbeiten: binär. Füttert man einen Computer mit inkonsistenten Datensätzen, dreht er möglicherweise durch, sprich: hält er nicht an. Ein Algorithmus aber, der nicht anhält, ist keiner. 

Bertrand Russell, auch er ein grosser mathematischer Denker, schrieb 1923 einen Essay über Vagheit. Darin steht der bedenkenswerte Satz: «Das Gesetz des ausgeschlossenen Dritten ist wahr, wenn man präzise Symbole einsetzt, aber es ist nicht wahr, wenn die Symbole so vage wie alle Symbole sind». Dieses Schlüsselmerkmal der natürlichen Sprache verhilft uns, Entscheide auf unscharfer Informationsbasis zu fällen. Genau das erwarten wir ja von KI-Systemen, die man in den Alltag integriert. Sie scheitern oft aufgrund ihrer sturen Binarität. Seit den 1960er Jahren suchen Mathematiker, Logiker und Ingenieure, dieses zentrale Charakteristikum menschlicher Intelligenz – ihre Vagheit oder «fuzzyness» - in einer präzisen Sprache zu formulieren. Und es gelingt ihnen erstaunlich gut. Die «Fuzzy Logic» kann mit Alltags-Folgerungen umgehen wie «Wenn es ein bisschen regnet, wird man ein bisschen nass». Sie ist heute Basis von «unscharfen» Algorithmen, die auf zahlreichen techni-schen Gebieten Anwendung finden: nicht-binäre künstliche Intelligenz. 

***

Hüten wir uns vor einem Missverständnis. Es geht nicht um eine «alternative» Mathematik, im Sinne von «alternativen» Fakten. Es geht darum, zu lernen, wie wir Menschen mit Widersprüchlichkeiten umgehen – erfolgreich umgehen. Die Technologie braucht widerspruchstolerante Systeme. Diese logische Geschmeidigkeit würde sie sogleich auch eine Spur «humaner» erscheinen lassen (sofern wir das überhaupt wollen). Im Grunde leben wir nämlich ständig parakonsistent. Unser Alltag ist gespickt mit Halbwahrheiten, Widersprüchen, Aporien, Dilemmata, Paradoxa. Kein Problem, darin zu sagen «Heute regnet es und regnet auch nicht». 

Widersprüche kennzeichnen entscheidende Durchbrüche in der Forschung. Das Gegenteil einer tiefen Wahrheit ist eine andere tiefe Wahrheit, lautete das Motto von Niels Bohr in der Diskussion um die Interpretation der Quantentheorie – ein wahrer Widerspruch! Widersprüche veranlassen uns, eine Denkposition zu überprüfen, sie allenfalls zu verlassen, Widersprüche zwingen zu Begriffsklärungen, sie lösen uns aus sklerotisierten Denkgewohnheiten. Ja, geistige Gesundheit zeichnet sich aus durch ein gewisses Mass an Widerspruchsfreundlichkeit. Geistesgestörtheit dagegen manifestiert sich oft symptomatisch in pathologischer – in «maschineller» - Widerspruchsaversion. 

«Logik bringt uns dem Himmel näher als jede andere Wissenschaft», schrieb Bertrand Russell. Bleiben wir besser auf der Erde.


Montag, 8. September 2025

 


NZZ,  26.8.25

Technologischer Progress bis zum Exzess 

Der amerikanische Politikwissenschaftler Robert Jervis formulierte in der Zeit des Kalten Krieges das sogenannte Sicherheitsdilemma, eine zentrale Denkfigur der Geopolitik. Jervis’ Annahme: Nationen sind primär mit ihrer eigenen Sicherheit beschäftigt. Dazu rüsten sie sich mit Waffen auf. Auch wenn diese Aufrüstung aus defensiven Gründen geschieht, so kann daraus unbeabsichtigt ein offensiver Effekt resultieren. Was die eine Nation als Schutzmassnahme betrachtet, interpretiert die andere als agressiven Akt. In einer Situation, in der keine supranationale  Instanz  bindende Abkommen durchsetzen kann, empfiehlt sich für beide Nationen die Strategie des Aufrüstens. Aber dadurch manövrieren sie sich in eine paranoide Spirale gegenseitigen Verdächtigens, die das Risiko und die Letalität eines Krieges erhöht. 

Drohkulisse für Jervis’ Sicherheitsdilemma war die Nuklearwaffe. Ihr Nimbus der Einzigartigkeit rührt von ihrem immensen Zerstörungspotenzial her, genauer gesagt,  vom  «harten» materiellen  Zerstörungspotenzial. Nun steht die technologische Entwicklung im Zeichen der KI-Systeme, einer «weichen» immateriellen Waffe. Sie droht den Menschen nicht materiell zu zerstören, sondern «von innen heraus», indem sie Möglichkeiten schafft, sein Verhalten unterschwellig  zu steuern. Dadurch kann das gefährdet werden, was wir  – zu-mindest in modernen Demokratien – als das Wertvollste am Menschen schätzen: die Unantastbarkeit seines Willens, seine intellektuelle Mündigkeit, sein Status als frei entscheidender Bürger. Dass die globale Autokratenclique die KI als patente künstliche Prätorianer-garde begrüsst, versteht sich von selbst. 

***

Heute prägt das Sicherheitsdilemma primär das globale technologische Wettrüsten, im Besonderen die Beziehung der beiden Grossmächte USA und China. Beide sind sich einig über den Charakter des Spiels. Wer obenauf ist, regiert die Welt. Mit den Worten von Alex Karp, des Mitbegründers von Palantir, einer der führenden Firmen für Softwareanalyse: «Unsere Gegner werden keine Auszeit nehmen, um theatralische Debatten über die Vorzüge von Technologien mit kritischen militärischen und sicherheitspolitischen Anwendungen zu führen. Sie werden einfach vorangehen.» 

Das ist der Punkt. Wenn nicht wir in Silicon Valley es tun, tun es die anderen in Shenzhen. Entweder verzichtet eine Nation auf geopolitische Vormachtstellung und begibt sich in die Abhängigkeit der avancierteren Nation – oder sie tritt ein in die entfesselte agressive Technologieentwicklung, ungewiss der Schäden und Trümmer, die daraus resultieren mögen. 

***

Nun ist diese binäre Logik keineswegs naturgegeben. Es sind geopolitische Druckverhältnis-se, die sie notwendig erscheinen lassen. Der Zweite Weltkrieg markierte den Start des Com-puterrennens. Der Kalte Krieg befeuerte das Rennen im Weltraum zwischen den USA und der Sowjetunion. Japans Überlegenheit in der Halbleiterindustrie in den 1980er Jahren war der Beginn des Chipherstellungsrennens mit den USA. Vergessen wir nicht die Gentechnologie. Die Beijing Genomics Institution (BGI) studierte schon 2013 die DNA von Hochbegabten – mit dem Ziel, dank Gen-Engineering eine smartere Bevölkerung zu schaffen. An die-sem Eugenik-Rennen machen auch die USA mit. 

In ein buchstäbliches Rattenrennen tritt die Gehirnforschung. Im Zentrum steht das sogenannte Brain-Brain-Interface, BBI – die Beeinflussung durch direkte Signalkommunikation zwischen Gehirnen; zwischen Rattenhirnen, aber auch zwischen Menschen- und Rattenhirnen. Als immer wichtiger erweist sich das Brain-Computer-Interface (BCI), die Verschaltung von Gehirn und Computer. Ausdrücklich erklärt das chinesische Ministerium für Industrie und Informationstechnologie, in Konkurrenz zu Elon Musks Firma Neuralink zu treten.  Das Gehirnchip-Rennen hat Fahrt aufgenommen.

***

Es gibt in diesem Wettlauf die «Hemmer» und die «Beschleuniger». Der Hemmer spekuliert darauf, dass die Nutzer smarter Geräte sich deren negativen Seiten bewusst werden. Dadurch könnte das Dilemma in einer Art von technologischem Waffenstillstand entschärft und ein Forum für Debatten über alternative Entwicklungen eröffnet werden - ein Techno-Moratorium.  So wünschenswert das auch erscheint, wir machen damit die Rechnung ohne das Dilemma. Die neuen Technologien prägen bereits derart tief unsere alltäglichen Verhaltensweisen, dass ein Verzicht schwierig, wenn überhaupt denkbar erscheint. Wenn man einmal eingetreten ist, so scheint es, kann man nicht mehr austreten. Wider Willen muss der Nutzer das Spiel der grossen Player mitmachen. 

Der Beschleuniger leugnet die Schattenseiten oder spielt sie herunter. 2023 verfasste der Risikokapitalist Marc Andreessen ein «techno-optimistisches Manifest», in dem er das Auf-kommen von Supermännern beschwört. Darin liest man zum Beispiel: «Wir können zu einer weitaus höheren Lebens- und Daseinsweise fortschreiten. Wir haben die Werkzeuge, die Systeme, den Willen. (..) Wir glauben an die Grösse. Wir glauben an den Ehrgeiz, an die Agression, die Hartnäckigkeit, die Unbarmherzigkeit, die Stärke.» 

Solche Worte erinnern auf höchst unangenehme Art an eine Mentalität des Ersten Weltkriegs. Damals sprachen die französischen Militärhandbücher von der «attaque à outran-ce», dem Krieg bis zum Exzess. Nach dieser Doktrin muss man damit drohen, alles einzusetzen, um den Krieg zu beenden - alles, das waren neue Superwaffen wie Maschinengewehre, Flammenwerfer, Panzer, Flugzeuge, Giftgas. Die Strategen waren überzeugt, dass nur das kompromisslose Vorwärtsdrängen Erfolg versprach. Sie glaubten, mit Andreessen geprochen, an «den Ehrgeiz, an die Agression, die Hartnäckigkeit, die Unbarmherzigkeit, die Stärke.» 

***

Der technologische Exzess ist in das Sicherheitsdilemma eingebaut, unabhängig von den Ideologien und Motiven der beteiligten Spieler. Sicherheit bringt nur das Vorwärtsstürmen, nicht das Einhalten, nicht das Überlegen. Und paradox ist: Die Spieler würden vielleicht so-gar eingestehen, dass sie besser dran wären, drehten sie die Spirale nicht unablässig weiter. Aber sie sind besessen von der Logik des Spiels, das nächste «Superding» zwinge den Gegner in die Knie. Sie sind gefangen in einem Dilemma, das ihr Handeln immer näher an den Abgrund treibt. Eine Situation blanker Absurdität: Man diskutiert darüber, ob wir uns in einem «chinesischen» oder «amerikanischen» Jahrhundert befinden,  dabei ist die Frage vordringlicher, ob wir in diesem Jahrhundert noch die Kurve kriegen, den Planeten zu ret-ten. 

Zweifellos hat uns der technologische Fortschritt das Leben in mancherlei Hinsicht erleichtert. Doch es gibt eine bekannte Dialektik dieses Fortschritts: die unvorhergesehenen und unbeabsichtigen Folgen der Technologie. Sie können nicht nur kurzfristig zu wirtschaftlichen Instabilitäten und Jobverlusten führen, sondern langfristig zu sozialen Ungleichgewichten, zu prekären Versorgungsverhältnissen, zum Verlust menschlicher Fähigkeiten und Handlungsoptionen, zur Unterminierung von Traditionen, zur Ausweitung der staatlichen Macht über die Bürger. Nicht  zuletzt trägt all dies zur geopolitischen Unsicherheitslage bei, in der wir heute stecken. 

Das Wettrüsten von Computer-, Gen- und Neurotechnologie nimmt seinen Lauf. Das Mindeste, was wir tun können, ist falsche Hoffnungen zu vermeiden. Trösten wir uns auch nicht mit dem Gedanken, dass der alte Kalte Krieg nicht zu einem Weltenbrand führte. Der amerikanische Abschreckungstheoretiker und Nobelpreisträger Thomas Schelling erklärte dieses Nicht-Ereignis zum «spektakulärsten Ereignis» der zweiten Hälfte des 20. Jahrhunderts. Ob der neue Kalte Krieg auch in einem spektakulären Nicht-Ereignis endet, ist nicht ausgemacht. 






Erscheint demnächst Prolog: Wir sind dem Computer scheissegal Utopia und Dystopia liegen in der Einschätzung der Künstlichen Intelligenz (KI...