Donnerstag, 16. August 2018

Durchgeknallte Algorithmen






Aargauer Zeitung, 11.8.2018

Carl Gustav Jung sagte einmal sinngemäss, in jedem normalen Menschen schlummere ein wahnsinniger. Der Wahnsinn ist quasi ein nicht auszuschliessender Zustand unserer neuronalen Apparatur – technisch ausgedrückt: ein Defekt oder „Bug“ im System. Jungs Aussage lässt sich genereller so formulieren: Jedes funktionierende System hat sein Nicht-Funktionieren, möglicherweise seinen Kollaps, eingebaut.

Auch Algorithmen. Im Fokus steht gegenwärtig der Typus des neuronalen Netzes. Es weist eine im Grunde simple Architektur auf. Verarbeitungseinheiten („Neuronen“) sind netzartig miteinander verschaltet, und zwar bilden sie eine geordnete Hierarchie von Schichten. Sie können dressiert werden, einen Input in einen geforderten Output umzuwandeln, indem das System durch einen Lernalgorithmus die Verknüpfungen („Synapsen“) zwischen den „Neuronen“ ständig neu justiert. Lässt man es zum Beispiel eine Zeitlang über eine riesige Pixelmenge laufen, „erkennt“ es Katzenbilder oder kategorisiert Menschen. Schon an dieser Stelle seien zwei Punkte hervorgehoben. Erstens erkennt das System überhaupt nichts, sondern zeigt ein Verhalten, das wir unter Menschen als Erkennen bezeichnen. Und zweitens funktioniert unser Hirn nicht auf diese Weise, weshalb der Begriff des neuronalen Netzes letztlich eine Irreführung ist.

***

Aber abgesehen davon kann man sich trotzdem fragen, ob künstliche Systeme von einem bestimmten Komplexitätsgrad an einen Zustand der „Gestörtheit“ riskieren. Dass Programme Zeichen der „Anomalität“ manifestieren, erfuhr man zum Beispiel bei Alpha Go, das 2016 den Grossmeister Lee Sedol schlug. Alpha Go „lernte“ aus einer Unzahl von Positionen und Zügen selber Stragegien zu entwickeln, die Go-Spieler und Computerwissenschafter gleichermassen verblüfften. Das Agieren von Alpha Go war zum Teil kaum nachvollziehbar, machte einen geradezu „gestörten“ Eindruck. Das heisst, der Computer führte Züge durch, die man unter Menschen als sehr unorthodox taxiert. Nun mag es als voreiliger Anthropomorphismus erscheinen, der Maschine aufgrund eines ungewöhnlichen Verhaltens gleich „Gestörtheit“ zu unterstellen, dennoch lohnt es sich, die Tendenz, die sich darin abzeichnet, etwas weiter zu verfolgen.

***

Erstens gibt es Probleme, die aus der Struktur der Trainingsdaten erwachsen. Füttern wir künstliche Systeme mit menschlichen Daten, dann sind solche Daten „kontaminiert“ mit menschlichen Gestörtheiten - Vorurteilen und kognitiven Bias. Das zeigt eine Studie in der Zeitschrift „Science“ aus dem Jahr 2017: Algorithmen lernen aus entsprechenden News Feeds fast über Nacht rassistische oder sexistische Voreingenommenheiten und andere Gemeinheiten. Wie die Leiterin der Studie, Aylin Caliskan von der Princeton University, schreibt: „Viele Leute glauben, Maschinen seien nicht voreingenommen. Aber Maschinen werden auf menschlichen Daten trainiert. Und Menschen sind immer voreingenommen.“

Die wohl grösste Kloake des Vorurteils, Hasses, Bullshits, Extremismus’ sind die sozialen Medien. Lässt man Algorithmen darin „fischen“, nehmen sie schnell hässliche Untugenden an. Der Twitter-Chatbot Tay wurde 2016 konzipiert, Menschen zu unterhalten und zu beschäftigen. Tay lernte schnell, wie das zu erreichen war – durch rassistische Bemerkungen. Algorithmen kennen keinen Anstand, keine Moral, sie potenzieren in dieser Hinsicht die negativen Seiten des Menschen. Sie neigen zu Klischees, Beleidigungen, ungeprüften Meinungen, sie verkörpern das schlimmste intellektuelle Defizit des Menschen: Inkompetenz in der Erkennung eigener Inkompetenz.

***

Zweitens gibt es Probleme, die in die Architektur der Algorithmen eingebaut sind. Man muss sich dies bei neuronalen Netzwerken so vorstellen, dass der Designer mit zunehmender Schichttiefe immer weniger Einblick hat in das, was „drinnen“ im Einzelnen vor sich geht. Er kann Schwachstellen nicht direkt angehen, sondern das System quasi nur noch „von aussen“, über sein Verhalten kontrollieren. Defekte in traditionellen Programme liessen und lassen sich zumindest im Prinzip „von innen“ beheben, dadurch, dass man auf den Quellcode zugreift, und in ihm nach dem entsprechenden Bug sucht. Bei einem neuronalen Netzen ist das kaum noch möglich. Wenn es also eine „Gestörtheit“ zeigt, dann muss man versuchen, es zum Beispiel durch neues Datenmaterial zu „therapieren“.

Zwei solche Defekte sind „katastrophisches Vergessen“ und Überanpassung. Neuronale Netze können alte Infornationen vergessen, wenn sie neue „lernen“. Das Problem sähe beim Menschen so aus: Ich lerne den Namen eines neuen Kollegen, im gleichen Zug vergesse ich aber, wo ich wohne. Dieses Vergessen stellt eine ernsthafte Quelle des Fehlverhaltens von Algorithmen dar. Im Extremfall ist das System völlig paralysiert.
Überanpassung liegt dann vor, wenn der Algorithmus zuviel Unzusammenhängendes korreliert, was natürlich bei den immensen Datenmengen nicht selten der Fall ist. Ein spektakulärer Fall ist jener von Google Flu, eines algorithmischen Frühwarnsystems für die zeitliche und örtliche Ausbreitung von Epidemien. Die Datenbasis bilden Suchanfragen von Googlenutzern, in denen das Wort „Grippe“ („flu“ = „influenza“) vorkommt. Wo und wann erfolgten diese Anfragen? Der Algorithmus suchte das Vorkommen des Wortes „flu“ mit Orten und Zeiten der Anfragen zu korrelieren, um daraus ein schnelles Bild der Verbreitung zu erstellen. Anfänglich klappte dies erstaunlich gut. Aber dann häufte sich immer mehr irrelevantes Datenmaterial, und die Prognosen wurden unzuverlässiger. Datenmist erzeugt mehr Datenmist. Algorithmen können Weltbilder ohne kausale Kohärenz fabrizieren. Menschen, die so etwas tun, nennt man Paranoiker. 

***

Ein drittes Problem liegt darin, dass alltagstaugliche Algorithmen auch mit den normalen Unwägbarkeiten des Alltags zurande kommen sollten – also quasi einen „gesunden“ Maschinenverstand entwickeln müssen. Ein selbstfahrendes Auto hat mit zahlreichen Eventualitäten zu rechnen – vom pünktlichen Abliefern der Passagiere an der richtigen Destination, über das Befolgen der Verkehrsregeln, das Berücksichtigen von Wetter, Lichtverhältnissen, Strassen­zuständen, bis zu unerlaubten Strassenüberquerungen von Fussgängern, Staus oder Unfällen. Der Algorithmus eines selbstfahrenden Autos muss also im Laufe seines Trainings eine Fülle von solchen Eventualitäten lernen, aber damit wird er noch nicht alltagstauglich. Das grosse Hindernis liegt darin, dass Alltagssituationen ein Gestrüpp von Normalitäten und Abweichungen sind. Die Robustheit des menschlichen Commonsense zeigt sich gerade an der flexiblen Reaktion auf Abweichungen von der Normalität. Mit einer solchen Robustheit dürfte es bei selbstfahrenden Autos nicht weit her sein. Wie sich zeigt, genügen oft ganz kleine Störungen des gelernten Musters, um den Algorithmus zu einer totalen Fehlklassifikation zu verleiten. Er „halluziniert“ dann. Man stelle sich vor, ein selbstfahrendes Auto „halluziniere“ ein Rotsignal unter ungewöhnlichen Lichtverhältnissen als grün.

***


Ein viertes Problem gewinnt hier Gestalt. Immer mehr Algorithmen knüpfen unser soziales Gewebe. Konsumverhalten, Kommunikation, Partnersuche, polizeiliche Überwachung von Städten, Militäroperationen, Finanztransaktionen, medizinische Diagnosen, das Kategorisieren von Banken- und Versicherungskunden oder von Straftätern – überall sind Algorithmen eingestreut und mischen sich heimlich in das Geschäft des Entscheidens ein. Dabei werden wir in Zukunft wahrscheinlich mit immer „unbegreiflicheren“ Algorithmen zu tun haben. Wenn die Algorithmen auf eine Weise agieren, die uns nicht mehr verständlich ist, dann entziehen sich logischerweise auch ihre Defekte unserem Verständnis. Wir wären dann mit einer neuartigen Ätiologie maschineller Gestörtheiten konfrontiert. Man muss sich vorstellen, dass die Maschine selber überhaupt keinen Begriff davon hat, gestört zu sein. Sie agiert einfach. Auch über den Weltuntergang hinaus.

Donnerstag, 9. August 2018

Wird auch die Physik postfaktisch?







NZZ, 3.8.2018

Der Streit um das Multiversum

Seit einiger Zeit schon steht die Idee des Multiversums im Brennpunkt heftiger physikalischer Debatten. Sie ist im Grunde alt, und sie resultiert aus einer fortgesetzten Provinzialisierung der menschlichen Position im Kosmos: Unser Sonnensystem ist eine Provinz in unzähligen Sonnensystemen, unsere Galaxie eine Provinz in unzähligen Galaxien - diese Iteration lässt sich fortführen bis zum Universum: Es ist eine Provinz im System unzähliger Universen: dem Multiversum.

Nun muss man sich vergegenwärtigen, dass wir es hier nicht bloss mit einer innerphysikalischen Debatte zu tun haben, sondern mit der fundamentalen wissenschaftstheoretischen Frage nach der Neukonzeption der Physik: Ist die Idee des Multiversums noch Wissenschaft? Wie wollen wir uns versichern, dass es wirklich existiert? Wir können ja nur beobachten, was in unserem Universum geschieht! Und so gesehen, erscheint der Fall hoffnungslos: Die Idee lässt sich nicht einmal falsifizieren. Also hat sie überhaupt keinen wissenschaftlichen Wert – zumindest nach dem berühmten Falsifikationskriterium von Karl Popper.

***

Was also? Eine ziemlich streitbare Faktion von Wissenschaftern und Philosophen dreht den Spiess einfach um: Uns gefällt die Theorie, und wenn sie nicht falsifizierbar ist, dann zur Hölle mit dem Falsifikationskriterium! Damit steht nun das Konzept der Empirie selber zur Debatte.

Der einflussreiche Kosmologe Sean Carroll argumentiert folgendermassen: Wir haben uns derart weit von den herkömmlichen Bedingungen des Beobachtens entfernt, dass wir uns der Frage stellen müssen: Greifen die traditionellen Kriterien der Empirie überhaupt noch? Wenn der Kosmos tatsächlich ein Multiversum ist, dann müssten wir uns ihm mit anderen konzeptuellen und methodischen Mitteln nähern. Es ist an der Zeit, unser wissenschaftliches Vorgehen neu zu überdenken und uns mit einem neuen Genre zu beschäftigen, der post-empirischen Forschung. Beobachtung und Experiment sind klassische Mittel, aber manchmal sind sie einfach nicht möglich. Das bedeutet nun freilich nicht, dass man nicht Wissenschaft betreibt. Vielmehr wäre zu überlegen, wie sich auch post-empirisch Erkenntnisse gewinnen liessen.

Andere Wissenschafter reagieren alarmiert. Der Mathematiker George Ellis und der Astrophysiker Joe Silk nahmen 2014 in einem Brief an die Zeitschrift „Nature“ die rezenten Theorienkonstruktionen ihrer Fachkollegen aufs Korn: „Dieses Jahr vollzog sich in den Debatten der Physiker eine beunruhigende Wende. Angesichts der Schwierigkeiten, fundamentale Theorien auf das beobachtete Universum anzuwenden, riefen einige Forscher dazu auf, die Art des Theoretisierens zu ändern. Sie begannen – explizite – zu behaupten, dass eine hinreichend elegante und explikative Theorie nicht empirisch überprüft werden müsse, und sie brachen so mit einer jahrhundertealten philosophischen Tradition, die wissenschaftliches Wissen als empirisch definiert. Wir stimmen dem nicht zu. Wie der Wissenschaftsphilosoph Karl Popper argumentierte, muss eine Theorie falsifizierbar sein, um als wissenschaftlich zu gelten.“

***

Als irritierend erscheint an der Idee des Multiversums, dass sie aus dem dualistischen Raster Wissenschaft-Nichtwissenschaft fällt. Sie ist keine wissenschaftliche Hypothese im Popperschen Sinn, aber auch nicht einfach Pseudowissenschaft. Was ist sie dann? Der britische Publizist Steven Poole hat eine treffende Bescheibung vorgeschlagen. Er nennt solche Ideen „Placebo-Ideen“. Wie ein Mittel, das keine Wirkstoffe enthält und trotzdem wirkt, weil es „gefällt“, so gibt es Ideen, die nicht geprüft werden können, aber dennoch „gefallen“, weil sie eine heuristische Wirkung ausüben. Sie produzieren Fragen, öffnen Horizonte und halten insofern den wissenschaftlichen Topf am Kochen.

Man könnte vom Barmherzigkeitsprinzip für Ideen sprechen: Lass ihnen Zeit, das Potenzial ihrer möglichen Konsequenzen zu entfalten. So mag die Idee des Multiversums absurd anmuten, aber absurde Ideen haben in der Vergangenheit immer wieder zu testbaren Konklusionen geführt. Die Idee des Atoms galt zuerst als absurd, weil nicht durch Beobachtung zu rechtfertigen; die Quantenfeldtheorie des Elektrons führte zur unerwarteten Idee der Antimaterie, die Allgemeine Relativitätstheorie zur Idee des Urknalls und des schwarzen Lochs - auf den ersten Blick Absurditäten.

***

Ideen sind der Grundstoff der Forschung - und verrückte Ideen der Motor. Wenn der bisherige Begriffsapparat nicht mehr zur Lösung eines Problems taugt, müssen wir gelegentlich die alten Begriffsschrauben lockern und einen neuen Apparat bauen. Dann beginnen wir von solchen exotischen Dingen wie Strings und Branen, von dunkler Energie und dunkler Materie, von Schleifen-Quanten-Gravitation und Deformierter Spezieller Relativitätsheorie zu sprechen, und den Experimentalphysikern wird schwindlig bei der Frage, wie sie das alles überprüfen sollen.

Wirf also eine Theorie nicht weg, wenn du nicht alle ihre Konsequenzen verfolgt hast. Das scheint eine favorisierte Verteidigungsstrategie der Multiversums-Theoretiker zu sein. Zudem verbinden sie die Idee des Multiversums mit einer anderen Idee, jene der permanenten Inflation. Stellen wir uns das Multiversum wie einen ständig aufgehenden Brotteig vor, in dem wiederholt neue Löcher entstehen: Universen mit ihren provinziellen Naturgesezten und -konstanten. Diese Universen könnten unter Umständen kollidieren und beobachtbare Spuren hinterlassen, zum Beispiel besondere Muster in der kosmischen Hintergrundstrahlung, dem bisher einzigen robusten empirischen Relikt unseres provinziellen Urknalls. Wir warten darauf...

***

Es gibt Regionen unseres Universums, die jenseits des Beobachtbaren liegen. Das darf als Tatsache gelten. Über dieses Jenseits zu spekulieren, ist legitim, sofern die Spekulation sich auf einer Ebene bewegt, welche die gegenwärtige Physik zulässt. Aber die Ebene ist schief, es besteht Rutschgefahr vom Wissen in den Glauben. Wie der Physiker Paul Davis schreibt: „Wenn man diese schiefe Ebene hinunterrutscht, muss immer mehr auf guten Glauben, und immer weniger auf wissenschaftliche Bestätigung gestützt werden. Extreme Multiversums-Erklärungen erinnern deshalb an theologische Debatten. Das Bemühen, mit einer Unendlichkeit unsichtbarer Universen die ungewöhnlichen Merkmale des einzigen sichtbaren Universums zu erklären, ist genauso ad hoc wie der Appell an einen unsichtbaren Schöpfer. Die Theorie des Multiversums mag in wissenschaftliche Sprache gekleidet sein, aber sie verlangt im Wesentlichen den gleichen Glaubenssprung.“

Könnte das am Ende der Grund sein, warum uns die Idee des Multiversums „gefällt“? Die Aussicht auf eine Hypertheorie, die erklärt, warum unser Universum gerade so ist und nicht anders? Der Astrophysiker Martin Rees liebäugelt mit einer solchen ultimativen Sicht: „Vielleicht werden wir eines Tages eine überzeugende Theorie des Beginns unseres Universums haben; eine Theorie, die uns sagt, ob ein Multiversum existiert, und – falls so – ob einige sogenannte Naturgesetze bloss die provinzielle Gemeindeordnung in jenem kosmischen Flecken sind, in dem wir leben.“ Vielleicht – aber wie soll eine solche Theorie zu rechtfertigen sein? Niemand weiss es. Hier stehen wir vor einem wirklich fundamentalen Hindernis. Die herkömmlichen Naturgesetze können wir lokal im Labor überprüfen. Aber die Gesetze des Kosmos, die Gesetze eines Multiversums? Was wäre das Labor dafür?
Eigentlich befinden wir uns wieder auf Feld eins. Das heisst, es gibt durchaus noch eine andere Sicht auf die Debatte. Vielleicht handelt es sich um die letzten Konvulsionen eines seltsamen Erklärungshungers, der erst dann befriedigt ist, wenn er die „ultimative“ Weltsicht einverleibt hat. Manchmal will einem die ganze theoretische Gipfelstürmerei wie eine lächerliche Hybris des Menschen erscheinen, der sich einen „Gottesgesichtspunkt“ anmasst, und dabei vergisst, dass er unentrinnbar ein Provinzler bleibt.


Montag, 16. Juli 2018

Über Blösse, Scham und Geheimnis









Andere Version in NZZ, 16.7.2018



Der Online-Exhibitionismus grassiert. Wir entblössen uns in den einschlägigen Social Media ungehemmt und schamlos, und zugleich wissen wir, dass wir uns dadurch umso mehr einem Blick „von aussen“ aussetzen. Vielen scheint das wenig auszumachen. Sich darstellen, ausstellen, blossstellen: einerlei. Die Klagen über unsere digitale Durchsichtigkeit und deren Ausbeutung durch einschlägige Unternehmen sind schon tägliches mediales Ritual, ständig zollen wir Lippenbekenntnisse zur dringenden Datenkontrolle. Aber die Schwemme an digitalem Spielzeug, das eine immer engere „Verbundenheit“ verspricht, lässt den Bereich des Privaten zusehends schrumpfen. In der neuen digitalen „Öffentlichkeit“ verändert sich unser Sinn für Intimität und Scham auf eine tiefgreifende Weise -  zu unserem Schaden?

***

Dem Blick „von aussen“ entspricht ein „äusseres“ Selbst: die Person, die wir gegenüber anderen darstellen, eine soziale Maske. Sie ist ein Vehikel der Konformität. Unser zwischenmenschlicher Umgang ist grösstenteils die Begegnung solcher äusseren Selbste. Ich weiss zwar, dass die andere Person, die ich „von aussen“ kenne, nicht die ganze Person ist. Ein Teil von ihr ist mir verborgen, und ich akzeptiere das auch. Nun enthält mir ja die andere Person in der Regel nicht willentlich etwas vor oder täuscht sie mich; vielmehr basiert das soziale Leben zu einem wesentlichen Teil auf dieser Nichtkenntnis der anderen Person. Wir alle tragen ein Stück Undurchsichtigkeit in uns und wir brauchen das. Pointiert: Das Spurenelement Undurchsichtigkeit in dir macht dich für mich im wahrsten Sinn zur eigenständigen Person. Man erinnert sich hier an die Worte von Max Frisch: „Wir lieben ihn (den andern Menschen, Anm.E.K.) einfach. Eben darin besteht ja die Liebe, das Wunderbare an der Liebe, dass sie uns in der Schwebe des Lebendigen hält, in der Bereitschaft, einem Menschen zu folgen, in allen seinen möglichen Entfaltungen.“ Der Anspruch, die andere Person zu sehr zu kennen, erstickt die Liebesbeziehung: „Man macht sich ein Bildnis. Das ist das Lieblose. Der Verrat.“

***

Natürlich benötigt der soziale Verkehr eine „glatte“ Oberfläche. Man bekleidet sich quasi mit bestimmten Verhaltensformen, und selbst Porno-Schauspieler sind so gesehen in ihrer „expliziten“ Berufsblösse bekleidet. Wie Richard Sennett in seinem Buch über den Verfall des öffentlichen Lebens schreibt, schützt eine solche Oberfläche die Menschen voreinander und ermöglicht es ihnen zugleich, „an der Gesellschaft anderer Gefallen zu finden“. Das kann immer auch in die Verlogenheit abgleiten, deren zeitgemässe Abart wir in der politischen Korrektheit beobachten. Aber sich „glatt“ zu benehmen verrät nicht einfach Unehrlichkeit oder täuschende Absicht, ebenso wenig, wie uns Kleider unsere Nacktheit „verraten“. Wir wissen, dass die andere Person unter ihren Kleidern nackt ist, und wir wissen, dass sie unter ihrem sozial gezeigten Verhalten ein Innenleben führt, das diesem Verhalten vielleicht widerspricht – aber es geht uns nichts an, oder vielmehr: es geht uns nur insoweit etwas an, als es sich dem Blick „von aussen“ aussetzt. Allein schon das Bewusstsein, dass dieser Blick nicht durch die Oberfläche dringt, ermöglicht uns ein relativ „abgedichtetes“ Innenleben.

***

Nun weitet sich allerdings das Gesichtsfeld des Blicks „von aussen“ stetig ins Innere. Das Internet ist ein elektronisches Panoptikum ohne Zentrum. Wir fühlen uns von überall und nirgendwo beobachtet. Die Beobachter können leibliche Menschen sein oder auch Bots. Wir leben online in einem Zustand des permanenten Exponiert­seins.

Der Blick „von aussen“ wird heute technisch gewaltig aufgemöbelt. Es gibt Apps, die mich über meinen aktuellen physischen Zustand informieren; Apps, die eine „Mood“-Analyse durchführen, um festzustellen, in welcher Stimmung ich mich gerade befinde (ich muss das selber gar nicht mehr wissen); Apps, die mich daran hindern, unüberlegte oder beleidigende Mails zu versenden; Apps, die mich zu „vernünftigem“ Ess- und Trinkverhalten anstiften; Apps, die aus meinen Daten ein psychosoziales Profil erstellen, anhand dessen ich dann der Situation entsprechend auftreten kann: in der Prüfung, im Bewerbungsgespräch, in der Vertragsverhandlung, in der politischen Debatte. Arianne Huffington von der „HuffPost“ lancierte vor einigen Jahren das Projekt eines „GPS für die Seele“, eines moralischen Kompasses durchs Leben. Bleibe die Seele, wo sie will.

***

Dadurch, dass wir uns völlig dem Blick „von aussen“ ausliefern, riskieren wir, eine bisherige Grundlage der Moral zu unterhöhlen. Scham setzt unser Innenleben quasi unter moralische Spannung. Man könnte die Logik des Schamempfindens auf die Formel bringen: Ich hätte etwas besser wissen können, aber ich habe wider besseres Wissen gehandelt. Ich hätte wissen können, dass das Nachäffen deiner Sprachbehinderung dich kränkt, und trotzdem habe ich es getan. Scham macht den Konflikt zwischen innerem und äusserem Selbst akut: Du hast Mist gebaut!
Scham setzt immer auch einen Commonsense darüber voraus, was man sagt und nicht sagt, was man zeigt und nicht zeigt. Die Grenzen werden durch Anstandsnormen gezogen, sie sind nie scharf, und sie sind stets kulturell abhängig. Die „Kultur“ der Social Media hebt sie zunehmend auf. Anstelle des inneren Beobachters tritt die Crowd. Sie trägt die Scham von aussen an eine Person heran, als öffentliche Beschämung. Riskant daran ist, dass die moralische Spannung zwischen innerem und äusserem Selbst zusammenfällt. Man ist ganz und gar durch den Blick „von aussen“ definiert. Man entblösst sich ohne Scham, weil man nichts zu verbergen hat.

***

Michel Foucault beschreibt in seiner Geschichte der Sexualität detailreich, wie unser intimes Leben traditionell in der Sprache des Bekenntnisses verhandelt wurde. Das Busssakrament zum Beispiel fordert den Beichtenden auf, seine Seele zu entblössen, tief in sich einzutauchen, um die Wahrheit in ihrer ganzen oft hässlichen und schmutzigen Nacktheit ans Licht des vergebenden Blicks „von aussen“ zu fördern. Später verschob sich dieses Entblössen vom Religiösen ins Säkulare, in Praktiken wie Bekenntnisliteratur, medizinische Atteste oder Psychoanalyse. Aber immer noch wirkt der kategorische Imperativ: Zeige dich!.

Generell etabliert sich in den Social Media heute eine neue Art von Entblössungszwang –Foucault würde sagen: eine „Diskursifizierung“ der Intimität. Wer sich nicht ständig mitteilt, wer nicht mit anderen teilt, wer nicht „Me too“ hinausposaunt, ist out. In diesem Universum des inkontinenten Sich-äusserns gilt als lichtscheu und suspekt, wer sich zurückhält. Er könnte etwas verbergen, und Verbergen ist die Erzsünde der Netzgemeinschaft. Übrig bleibt der total „entborgene“ Mensch. Mit schamloser Brutalität geilt er sich an der Party öffentlichen Beschämens auf. Andere am Pranger des Shitstorms blosszustellen gehört zur infamen Rückseite des Schamverlusts.

***

In einem schlanken Essay aus dem Jahre 1906 gibt der Philosoph und Soziologe Georg Simmel dem „durch positive oder negative Mittel getragene(n) Verbergen von Wirklichkeiten“ einen geläufigen Namen: Geheimnis. Schamlosigkeit und Geheimnislosigkeit gehören zusammen. „Das Geheimnis ist eine der grössten geistigen Errungenschaften des Menschen,“ schreibt Simmel.  Und er spricht vom „kindischen Zustand, in dem jede Vorstellung sofort ausgesprochen wird, jedes Unternehmen allen Blicken zugänglich ist.“ Höchst aktuelle Worte. Wenn wir einmal unsere „schamlose“ Kindheit hinter uns gelassen haben und den Unterschied zwischen Ich und den anderen allmählich in den Griff bekommen, setzt eine subtile Psychodynamik von Öffnen und Verbergen ein. Genau so wie man einen Menschen, der einem etwas sagt, kennen lernen möchte, gehören Grenzen des Kennenwollens zum Kernbestandteil erwachsener persönlicher Beziehungen. Umgekehrt liesse sich daraus folgern, dass eine Lebensform, welche geradezu frenetisch diese Grenzen einzureissen sucht, sich auf dem besten Weg zum „kindischen Zustand“ befindet – also zur Unmündigkeit.