Samstag, 16. Mai 2026

 


Naturverbot an der schönen Giesse



Habermas auf  Silizium

Die hybride Öffentlichkeit aus Mensch und Maschine


Ein Team von DeepMind - einer Tochter des Technogiganten Alphabet Inc. - veröffentlichte Ende 2024 im Fachjournal Science einen Artikel mit dem Titel «KI verhilft den Menschen zum Konsens in der demokratischen Deliberation».  Darin beschreiben die Autorinnen und Autoren ein grosses Sprachmodell (Large Language Model), das als Vermittler in Meinungsstreitigkeiten zwischen Gruppen fungiert. 

Getestet wurde das Modell mit rund 5000 Probanden. Man fütterte es mit unterschiedlichen Positionen zu kontroversen Themen wie Brexit, Einwanderung, Mindestlohn oder Klimawandel. Daraus generierte die KI sogenannte Gruppenaussagen, die von den Probanden bewertet wurden. Die Rückmeldungen wurden dem Modell erneut eingegeben, wodurch es lernte, Aussagen zu formulieren, denen eine Mehrheit zustimmen konnte. Man präsentierte es als ein Tool zur Konsensfindung. Aus einer nicht ganz nachvollziehbaren Reverenz vor dem kürzlich verstorbenen Theoretiker des kommunikativen Handelns nannte man das Modell «Habermas-Maschine».

Das Motiv zur Konstruktion einer solchen Maschine leuchtet durchaus ein. Der politische Diskurs ist in heutigen digitalen Plattformöffentlichkeiten stark zersplittert - Antagonismus, Polarisierung, affektive Aufladung sind die Normalität. Weshalb sollte man also nicht jenen Denker als Namensgeber heranziehen, der die theoretischen Mittel zur Analyse dieses kommunikativen Missstands schuf? Aber abgesehen von dieser Frage ist das System von DeepMind – wie Habermas wohl gesagt hätte – ein Eindringen der Technologie in die Lebenswelt des Menschen, und damit erweist es sich als Symptom einer tieferen Entwicklung, nämlich der Bildung einer hybriden Öffentlichkeit aus Mensch und Maschine. Was ist darunter vorzustellen?

***

Öffentlichkeit war sozusagen das Lebensthema von Jürgen Habermas. Er sah in der Vernunft eine öffentliche Sache – eine res publica. Sie realisiert sich im Austausch von Argumenten unter freien und gleichen Menschen. Man kann – zugegeben, etwas respektlos - Habermas’ Theorie der Kommunikation auf einen einzigen Satz eindampfen (die Theorie umfasst über 1000 Seiten): Wenn Menschen miteinander sprechen, müssen sie sich gegen-seitig als ernsthafte Gesprächspartner anerkennen. 

Das ist nicht einfach eine explizite Forderung, sondern implizite Voraussetzung von Kommunikation überhaupt. Eine Aussage enthält immer mehr als das Ausgesagte – sie erhebt Geltungsansprüche: auf Wahrheit, Richtigkeit und Wahrhaftigkeit. Wenn ich etwas behaupte, dann tue ich dies im Bewusstsein, dass meine Aussage wahr oder falsch sein kann. Ich orientiere mich an epistemischen Instanzen wie Faktentreue, bewährtem Wissen, logischer Konsistenz. Ich halte mich dabei an gewisse Normen des «richtigen» Gesprächs, die still-schweigend gelten. Ich erwarte zum Beispiel, dass der Gesprächspartner primär auf meine Aussage, nicht auf mein Aussehen reagiert. Und ich lasse mich nicht von Motiven wie Täuschung oder Blossstellung des Gesprächspartners leiten. Nur so kann Kommunikation Ver-ständigung und Austausch von Argumenten – Deliberation - gewährleisten. 

***

So zumindest charakterisierte Habermas die ideale Sprechsituation. Sie wird in der Realität immer nur angenähert realisiert. Und die Frage stellt sich, wie sie sich ändert, wenn man künstliche Diskursteilnehmer einbezieht. 

Nachdem man ihn 2025 über die Habermas-Maschine informiert hatte, antwortete der Philosoph, ein solches Programm sei unmöglich – und zwar nicht aus technischen, sondern aus philosophischen Gründen. Und der zentrale Grund liege darin, dass die Maschine keine Perspektive der ersten Person kenne.  Sie strukturiert Argumente, macht versteckte An-nahmen sichtbar, formuliert präzise Gegenpositionen, zeigt Fehlschlüsse auf - sie tut dies jedoch aus einer völlig entpersonalisierten Perspektive. Deliberation aber setzt Interesse, Betroffenheit, Verantwortung voraus. Sie kann nur von einer Person verkörpert werden. Selbst wenn nun eine Maschine in die Konsensfindung eingebunden wird, sind es letzten Endes Personen, die für ihre Entscheidungen eintreten müssen. 

***

Das ist der gute alte klassische Einwand. Er betrachtet die Sprachmaschine weiterhin als Hilfsmittel – die kommunikative Souveränität bleibt dem Menschen vorbehalten. Freilich gerät der Einwand in dem Masse unter Druck, in dem das Tool Eigenschaften eines «Handelnden» annimmt. Computerwissenschaftler sprechen heute ganz selbstverständlich von KI-Systemen als künstlichen «Agenten». Die Sprechweise ist doppeldeutig. Einerseits meint sie einfach autonom operierende Systeme, andererseits aber verbindet sie damit die Ambition, dass KI-Systeme eine Art Eigeninitiative entwickeln können: Sie planen, wählen aus, antizipieren und scheinen etwas wie Überzeugungen oder Absichten zu haben. Beim Menschen würden wir solche Fähigkeiten einer Innenwelt – einer Erste-Person-Perspektive - zurechnen.

Entwickelt die Maschine etwas Homologes? Unbestreitbar befindet sie sich auf einem kognitiven Niveau, auf der man ihr spezifische – wenn nicht unbedingt humane - Intelligenz zu-schreibt. Wir kommunizieren heute mit dem Chatbot wie mit einer menschlichen Person. Und nicht wenige Nutzer entwickeln eine affektive Beziehung zur Sprachmaschine. Kommunikative Prozesse finden nicht mehr ausschliesslich zwischen Menschen statt, sondern werden zunehmend von künstlichen Akteuren mitstrukturiert – der Philosoph Bruno Latour hat von «Aktanten» gesprochen. Sie bevölkern als neuartige Spezies das menschliche Diskursuniversum. 

***

Wird das Tool mündig? Selbst wenn wir KI-Systemen nicht die vollwertige Diskursteilnahme zugestehen mögen, so lässt sich die Tatsache nicht leugnen, dass sie in vielen Bereichen zumindest als funktionale Gesprächspartner akzeptiert sind. Und das bedeutet, dass sie weder in die Kategorie der Person noch in jene der blossen Maschine fallen. Sie sind etwas «zwischendrin»: Als-ob-Personen. Das ist nicht Science-Fiction. Das Europäische Parlament diskutiert die Frage der «elektronischen Personalität» seit 2017.  

Hybride Öffentlichkeit entsteht dort, wo nichtpersonale Systeme kommunikative Rollen von Personen übernehmen. Muss man also avancierten KI-Agenten eine «Als-ob-Perspektive» der ersten Person zuschreiben? Um diese Frage des ontologischen Zwitterstatus’ kommt keine Theorie der hybriden Öffentlichkeit herum. 

***

Aber es steht mehr auf dem Spiel. Habermas wurde leicht ironisch als der «letzte Europäer» bezeichnet – damit versetzte man ihn auf den verlorenen Posten eines Philosophen, der  mit dem klassischen Projekt der Aufklärung ein nicht mehr zeitgemässes Unternehmen in der Ära der smarten Maschinen verfolgt. Zu diesem Projekt gehörte und gehört natürlich das Konzept der Person als einer aus Vernunftgründen handelnden Teilnehmerin des Diskurses und der deliberativen Politik. 

In der Habermas-Maschine tritt die neue Ära diesem Konzept entgegen. Sie ist sozusagen der Prototyp einer Entwicklungsreihe, an deren Ende das intelligente Artefakt nicht mehr bloss als Werkzeug des Diskurses auftritt, sondern den Anspruch erhebt, selbst daran teilzunehmen. Lassen wir hier die Diskussion um die Frage ausser Acht, was dieses «Selbst» überhaupt zu bedeuten hätte. 

Nicht dass die Frage unbedeutend wäre. Entscheidender an der neuen Situation ist, dass sie Rückfragen an uns Menschen stellt. Wie definieren wir uns in der hybriden Öffentlichkeit? Habermas sprach vom neuen Lernen der «Autorenrolle» neben der «Konsumentenrolle».  Das ist fürwahr eine gewaltige Aufgabe, angesichts der Tatsache, dass die KI-Systeme schon heute in den Medien, in Wissenschaft, Kunst und Politik nicht mehr wegzudenken sind. Wie es scheint, muss der Mensch seine Mündigkeit vor ihrem «gängelnden» Einfluss erst neu gewinnen. 






  Naturverbot an der schönen Giesse