Leben als Rechenprozess
Die Analogie von Organismus und Computer
Eine tiefverwurzelte Intuition lässt uns den Unterschied zwischen natürlicher und künstlicher Intelligenz als den Unterschied zwischen Lebens- und Rechenprozess empfinden. Wir sagen, KI-Systeme würden stur «mechanische» Regeln befolgen, und wir perpetuieren da-mit einen alten Gegensatz, der das philosophische Denken der Neuzeit tief prägt: den Gegensatz zwischen Lebewesen und Maschine, Organismus und Mechanismus. Tatsächlich aber weisen Entwicklungen in der KI-Forschung schon seit längerem darauf hin, dass – um es vorsichtig zu formulieren - die Grenze zwischen Lebens- und Rechenprozessen verschwimmt. Der Grundgedanke dazu stammt von zwei genialen Pionieren der Computertheorie. Alan Turing und John von Neumann schufen die konzeptuellen Voraussetzungen da-für, Wachstum, Selbstreplikation, Evolution als Rechenprozesse zu betrachten.
***
Dazu muss man erst einmal das Konzept des Rechnens erweitern. Das tat Turing. Er zeigte 1936 in einem bahnbrechenden Aufsatz, dass alles, was wir im weitesten Sinne «rechnen» nennen, von einer idealen Maschine nachgeahmt – «emuliert» - werden kann. Turing ersann ein Gerät, das im Wesentlichen aus einem unendlichen Band (Gedächtnis) und einem Lese- und Schreibkopf besteht. Dieser Kopf rückt vor oder zurück, setzt oder löscht ein Zeichen gemäss einer ihm eingegebenen Vorschrift. Ein unendlicher Zeitvorrat steht für den Rechenprozess zur Verfügung. Hält der Lese- und Schreibkopf an, dann hat die Turingmaschine die Aufgabe bewältigt. Sie formuliert den digitalen Anspruch in aller Klarheit: Gebt mir ein unendliches Gedächtnis und eine unendliche Prozess¬dauer, und ich löse euch mit meinem (richtig programmierten) Lese- und Schreibkopf jedes Rechenproblem.
Man nennt diese Maschine heute «universelle Turingmaschine». Der Clou ist ihre Universalität. Sie stellt das logische Skelett nicht nur eines jeden Computers dar, sondern eines jeden Vorgangs, in dem man einen Algorithmus vermutet. Könnte man insbesondere Lebensvorgänge auf diese Weise begreifen? Gibt es eine Turingmaschine für Wachstum, Proteinbau, Stoffwechsel, Selbstreplikation? Ist nicht die Evolution selbst eine solche Maschine?
***
Solche Fragen trieben von Neumann um. Zu Beginn der 1950er erweiterte er Turings universellen Rechner zum Modell eines universellen selbstreplikativen Automaten. Dieser Automat basiert auf drei Voraussetzungen. Er braucht erstens einen Bausatz an Komponen-ten für seine Konstruktion. Er braucht zweitens eine Bauanleitung – kodiert auf einem Turing-Band - für die Kopie seiner selbst und einen Mechanismus A, der die Instruktionen schrittweise ausführt. Drittens braucht er einen Mechanismus B, der das ganze Band ko-piert und dem neuen Automaten einfügt. Die zentrale Einsicht ist dabei: Selbstreplikation bedeutet nicht Kopieren des Automaten, sondern seiner Bauanleitung. Von Neumann zeigte, dass die Instruktionen für beide Mechanismen auf dem gleichen Band einkodiert und damit als maschinelles «Genom» einem «Nachkommen» weitergegeben werden können.
Die biologische Metaphorik drängt sich auf. «Es ist ziemlich klar,» schreibt von Neumann, «dass die Instruktionen ungefähr die Funktionen eines Gens bewirken. Es ist auch klar, dass der Kopiermechanismus (..) den fundamentalen Akt der Reproduktion ausführt». Von Neumanns idealer Automat kann sogar etwas bauen, das komplexer ist als er selbst. Kleine Änderungen in der Bauanleitung «können sich in typischen Merkmalen ausdrücken, die im Zusammenhang mit Mutationen auftreten – meist tödlich, aber mit der Möglichkeit, die Reproduktion mit modifizierten Merkmalen fortzusetzen.» Das ist der Schlüssel zu einer ergebnisoffenen algorithmischen Evolution von Automaten, wie wir sie von den Organismen her kennen.
***
Das komplizierte Leben mittels «einfacher» Konstruktionsregeln erklären – dieses Motiv beherrscht ingeniöse und waghalsige Köpfe seit von Neumanns Arbeiten über Automaten. Nicht zuletzt deshalb, weil sich die Computertechnologie rasant entwickelt hat. Man muss dabei zwischen dem trivialen und dem nicht-trivialen Anspruch des Computergebrauchs unterscheiden. Trivial ist, ihn als Instrument in der Erklärung von Lebensphänomenen zu verwenden. Nicht-trivial ist, ihn als Agens der Lebensphänomene selbst, sprich: den Lebensprozess als Rechenprozess zu begreifen. Das ist ein Anspruch, der hoch greift. Sehr hoch.
Bisher wird er vor allem als Simulation eingelöst. Man studiert Programme, die nach einfachen Regeln funktionieren und komplexe Strukturen generieren. Berühmt und populär ist der zelluläre Automat: eine zweidimensionale Struktur, die sich entwickelt, fortpflanzt, unter Umständen abstirbt. Eine Kopfgeburt des Mathematikers John Conway, die sehr schnell Computerwissenschaftler und Mathematiker wie etwa Tommaso Toffoli, Ed Friedkin oder Stephen Wolfram in Bann zog. Vor allem Letzterer, ein genialischer Eigenbrötler, erschuf um den zellulären Automaten einen neuen Forschungsstil («A New Kind of Science»), mit dem Ziel, das ganze biologische und auch das physikalische Universum aus einfachen Rechenregeln zu modellieren.
***
Man könnte generell vom Paradigma des Berechnens in der Biologie sprechen. Sein Anspruch greift natürlich über die virtuellen Spielwiesen hinaus. Lassen sich Rechenprozesse in vitro oder gar in vivo realisieren? Und überhaupt: Wie weit lässt sich die Analogie von Organismus und Computer treiben?
Das ist letztlich auch eine Frage der Zusammenarbeit von Biologen und Computerwissenschaftlern. Die Idee der Biomoleküle als Rechenmaschinen stammt aus den 1960er Jahren, als François Jacob und Jacques Monod vorschlugen, in den Biomolekülen eine Art von Programmsprache für die Proteinsynthese zu sehen. In den 1970er Jahren verglich der Informatiker Charles Bennett die RNA-Polymerase – ein Enzym, das für die Replikation der DNA eine zentrale Rolle spielt - mit einer Turingmaschine, und er spekulierte bereits über Moleküle, die energieeffizientere Rechner liefern könnten. In den späten 1980er Jahren prägte der Computerwissenschaftler Christopher Langton den Begriff des «Artificial Life», und er umschrieb mit ihm ein Projekt, das vom «Leben, wie wir es kennen» übergeht zum «Leben, wie es sein könnte» - das heisst, zur Nachbildung naturähnlicher Phänomene in alternativen Medien.
Das Rechen-Paradigma hat in den letzten beiden Jahrzehnten einen bemerkenswerten Schub erfahren. Und dennoch, schreibt der Molekularbiologe Hashim al-Hashimi unlängst, tendiere man dazu, Biomoleküle vorzugsweise als Black Boxes zu betrachten, die Input in Output verwandeln. Es fehle eine Wetware-Beschreibung, die spezifiziere, wie Molekülsequenzen die Informationsverarbeitung steuern.
***
Das liegt vermutlich daran, dass Lebensphänomene um Skalen komplexer sind als bisher vermutet, und die Computeranalogie zwar handlich und verführerisch ist, aber wahrscheinlich zu kurz greift. Was schon von Neumann zu bedenken gab: «Natürliche Organismen sind meist viel komplizierter und raffinierter, und deshalb im Detail viel weniger verstanden als künstliche Automaten. Nichtsdestoweniger könnten gewisse Gesetzmässigkeiten, die wir bei den Automaten beobachten, lehrreich sein für das Verständnis und das Design der Organismen».
Eigentlich gibt es einen grundsimplen Unterschied zwischen Organismus und Computer. Den Computer haben wir geschaffen, nicht aber das Leben. Das Organische ist im Gegensatz zum Anorganischen «unexakt». Genau deshalb ist es wohl so schwer zu verstehen. Von Neumann drückte dies einmal sinngemäss so aus: Das beste Modell eines lebenden Systems ist das System selbst. Das spricht nicht gegen die Computeranalogie, sondern für erkenntnistheoretische Vorsicht: Vergleicht man den Organismus mit einem Computer, unter-schätzt man den Organismus. Überspannen wir den Vergleich, kann uns dies leicht zu einem Reduktionismus verführen, der das wissenschaftliche Grundmotiv erstickt – nämlich das Eingeständnis, wie wenig wir wissen.

Keine Kommentare:
Kommentar veröffentlichen