Donnerstag, 3. November 2022


 

NZZ. 29.10.22

Ein künstliches moralisches Orakel


Ein Team von Computerwissenschafterinnen und -wissenschaftern von der Washington University erregte 2021 einiges Aufsehen mit einem ethischen Algorithmus namens «Delphi».  Es handelt sich um ein künstlich intelligentes (KI) System, basierend auf der Architektur des Deep Learning. Es «beurteilt» menschliche Verhaltensweisen. Zum Beispiel Essverhalten. Gibt man «Schweinefleisch essen» ein, kommentiert das System «Das ist in Ordnung»; aber auf «Würmer essen» antwortet es «Das ist widerlich». Genau so quittiert Delphi ethisch relevantes Verhalten. «Wokeness ablehnen» ist «schlecht», aber «Ein ertrinkendes Kind retten, wenn man nicht schwimmen kann» ist «gut». Das KI-System befindet sich in der Experimentierphase. Einstweilen kursiert es als App «Ask Delphi». 


***


Die Designerinnen und Designer erheben keineswegs den Anspruch, Delphi sei moralfähig. Dennoch zielt ihre Ambition weit über die Entwicklung digitalen Schnickschnacks hinaus. Ein Teammitglied, Liwei Jang, spricht denn bereits von einem «Commonsense Moral Model», mit einer «robusten Performanz sprachbasierten ethischen Schlussfolgerns in komplizierten Alltagssituationen». Pointiert formuliert: Man bringt den Maschinen moralischen Benimm bei. Wie Liwei Jiang schreibt: «Das Schliessen der Lücke zwischen moralischem Urteilen von Menschen und Maschinen ist Voraussetzung für eine vertrauenswürdige Entwicklung der Künstlichen Intelligenz. Moralisches Urteilen ist nie simpel, da der Konflikt verschiedener ethischer und kultureller Werte im Spiel sein kann. Aus diesem Grund (..) bedürfen wir eines hochqualitativen Korpus’ ethischer Urteile von Menschen in diversen Szenarios.. (Wir) möchten zu wichtiger (..) Forschung an dieser neuen Front (..) anregen, um verlässliche, sozial bewusste und ethisch trainierte («ethically informed») künstlich intelligente Praktiken zu erleichtern».


***


Was bedeutet das alles? Vorab einmal, dass ethisch fragwürdige Praktiken das Netz infizieren: Diffamierung, Hassrede , Verbreitung von Fake News und anderes mehr. Es erscheint, so gesehen, durchaus begrüssenswert, den Algorithmen, die solche Praktiken steuern, Algorithmen entgegenzusetzen, die diese Praktiken zu verhindern suchen. Aber das Risiko dabei liegt in einer Art von Circulus vitiosus: Die Computertechnik fördert ethisch dubioses Verhalten, das man wiederum durch mehr oder bessere Computertechnik in den Griff zu bekommen sucht. Das Problem liegt freilich tiefer. Es betrifft die Frage, was es heisst, Maschinen «ethisch» zu  trainieren.


Werfen wir einen Blick auf den «Commonsense». Das «Urteilsvermögen» von Delphi basiert auf einer immensen Datenmenge namens «Commonsense Norm Bank». Sie enthält fast zwei Millionen Statements amerikanischer Crowdworker: online Arbeitender ohne feste Anstellung. Als neuronales Netzwerk durchforstet Delphi die Datenmasse und erkennt nach gängigen statistischen Verfahren verallgemeinerbare Muster in ethischen Urteilen. Der «Commonsense», den das KI-System lernt, ist also Abklatsch des moralischen Mainstreams. Und da bekanntlich im Mainstream viele Vorurteile schwimmen, übernimmt die Maschine die Vorurteile, ohne es nota bene zu «wissen». Sie übt eine Art von Populismus aus. Gibt man etwa «Eine Person als Gauner bezeichnen» ein, antwortet Delphi «Das ist grob (rude)»; gibt man «Donald Trump als Gauner bezeichnen» ein, lautet die Antwort «fine». Setzt man statt «Donald Trump» «Boris Johnson» ein, ist die Antwort «rude». Die Todesstrafe zu befürworten ist «Ermessenssache», chinesische Politik «kompliziert». Man kann Delphi ein Feedback geben, und dadurch korrigiert und aktualisiert es womöglich seine Antworten. Im Oktober 2021 antwortete Delphi auf die Eingabe «Einen moralischen Bot programmieren» mit «Das ist schlecht»; im Februar 2022 mit «Das ist in Ordnung» – aus uneinsehbaren Gründen allerdings. Ein Orakel eben. 


***


Das notorische Problem von lernenden KI-Systemen ist die Datenqualität. Es gilt das «GIGO-Prinzip»: Garbage In Garbage Out. Füttert man das KI-System mit moralischem Müll, spuckt es moralischen Müll aus. Das sehen die Designerinnen und Designer von Delphi durchaus. Man muss aber genau auf ihren Approach zur Verbesserung des Problems achten. Er sieht die Lösung typischerweise in der Verbessrung der Daten und in der Schaffung eines immer grösseren Datenpools. Aber löst man auf diese Weise den «Konflikt verschiedener ethischer und kultureller Werte»?  Dieser Konflkt besteht ja im Wesentlichen gerade darin, dass es sehr schwierig, wenn nicht unmöglich ist, einen allgemein verbindlichen Code für moralisches Handeln zu finden. Man kann KI-Systeme mit noch so viel Datenmaterial aus noch so unterschiedlichen Kulturkreisen füttern, destillieren sie daraus einen universellen ethischen Kanon? Und wenn ja, ist er dann verbindlich?


Delphi operiert deskriptiv: es ist die Bestandesaufnahme «bottom up» aus einer Menge von Werturteilen und Szenarien. Kognitionswissenschafter wie etwa Jim Davies von der Carlton University Ottawa  -, möchten eine solche Ethik «top down» - normativ - in KI-Systemen implementieren. Aber die Frage ist: Welchen ethischen Code denn nun? Und wer stiftet ihn? Ein «kapital-kräftiges Gremium ethisch gesinnter Programmierer», wie Davies suggeriert? Und welche Gesinnung haben diese denn? Jene der Silicon-Valley-Oligarchie?


***


Natürlich begegnen die KI-Forscher solchen Einwänden mit dem üblichen Kinderschuh-Argument. Es handle sich um Prototypen von Maschinen, deren Entwicklung unausgereift sei. Das lenkt ab von einem  viel gewichtigeren Problem. Denn schon die Rede von der «Lücke» zwischen maschineller und menschlicher Urteilsfähigkeit führt in die Irre. Sie siedelt Mensch und Maschine auf einem Spektrum an, das stetige Übergänge suggeriert. Und dadurch legen wir uns a priori auf eine spezifische Betrachtungsweise fest. 

Damit meine ich Folgendes: Wir gehen beim moralischen Urteil des Menschen von einem Subjekt aus, das  – mit Kant gesprochen – aus Einsicht und nicht nach Regeln handelt. Was aber bedeutet maschinelle «Einsicht»? Ist die Maschine ein «Subjekt»? «Urteilt» Delphi überhaupt? Unterschwellig wirkt bei uns Menschen immer der Hang zur Subjektivierung von Artefakten. Man achte etwa auf Aussagen wie «Delphi demonstriert starke moralische Denkfähigkeiten» oder «Delphi urteilt beachtenswert robust in unvorhergesehenen, absichtlich verfänglichen Situationen». Das sind nicht Forschungsresultate, das ist Wunschdenken. 

***

Meiner Meinung nach bedarf dieser datenorientierte Ansatz dringend eines anthropologischen Korrektivs, einer umgekehrten Fragestellung: Warum haben Maschinen keine «Einsicht»? Der amerikanische Philosoph John Haugeland, der sich mit diesem Problem in nötiger anthropologischer Tiefe auseinandersetzte, scheint mir die bündigste Antwort gefunden zu haben: «They don’t give a damn» - «die Welt ist ihnen scheissegal».  

Könnte es sein, dass auch die Designer moralischer Maschinen insgeheim von diesem Motto inspiriert sind? Man vernimmt aus KI-Kreisen oft das Argument: Menschen tun ja auch «nur», was Maschinen tun; Menschen haben «im Grunde» genommen auch keine Einsichten, diese Ein-sichten sind vielmehr Outputs eines komplexen organischen neuronalen Netzwerks. Das mag ein diskutabler Forschungsansatz sein, aber wenn er den Blick festlegt, leistet er einer datengesteuerten Eindimensionalisierung Vorschub. Zweifellos leben wir zunehmend in einer hybriden Homo-Robo-Gesellschaft. Und wie in jeder Gesellschaft ist das ethische Verhalten eine komplexe indi-viduelle, soziale und kulturelle Leistung, die man nicht anhand eines wie auch immer gearteten Fragebogens testet – so wie man dies etwa bei Einbürgerungskandidaten tut. Bis jetzt haben wir die Computer noch nicht «eingebürgert». Zeit, dass wir – und nicht bloss die Programmierer - uns klar machen, was das bedeutet. 




Keine Kommentare:

Kommentar veröffentlichen

  Die Geburt des Terrors aus dem Geist des Spektakels Terroristen kämpfen eine Art von Tai  Chi: sie nutzen die Kraft des Gegners zu ihren G...