Sterbliche Computer
Leben als Rechenprozess
Eine tiefverwurzelte Intuition lässt uns den Unterschied zwischen natürlicher und künstlicher Intelligenz als den Unterschied zwischen Lebens- und Rechenprozess empfinden. Wir sagen, KI-Systeme würden stur «mechanische» Regeln befolgen, und wir perpetuieren da-mit einen alten Gegensatz, der das philosophische Denken der Neuzeit tief prägt: den Gegensatz zwischen Lebewesen und Maschine, Organismus und Mechanismus. Tatsächlich aber weisen Entwicklungen in der KI-Forschung schon seit längerem darauf hin, dass – um es vorsichtig zu formulieren - die Grenze zwischen Lebens- und Rechenprozessen verschwimmt.
Die Konvergenz von Biologie und Computerwissenschaften hat eine fast hundertjährige Geschichte. Sie liegt in einem genialen theoretischen Entwurf des Mathematikers Alan Turing begründet. Er konzipierte in den 1930er Jahren eine ideale Maschine, die all das simulieren kann, was wir in einem herkömmlichen Sinn «rechnen» nennen – und weit mehr, nämlich jeden Vorgang, der automatisch, algorithmengesteuert abläuft. Man nennt diese Maschine «universelle Turingmaschine». Das Revolutionäre an ihr ist die Medienunabhängigkeit. Es spielt keine Rolle, ob Algorithmen auf der Basis von Zahnrädern, Elektronenröhren, Siliziumchips oder organischen Molekülen operieren. Das Maschinelle oder Rechnerische steckt, anders gesagt, potenziell in allem. Auch im Organischen. Turing öffnete den konzeptuellen Weg, insbesondere Lebensvorgänge als Rechenprozesse zu begreifen. Er ermöglicht Fragen wie: Gibt es eine Turingmaschine für Wachstum, Proteinbau, Stoffwechsel, Selbstreplikation? Ist nicht die Evolution selbst eine solche Maschine?
***
Ein anderes Genie der Computertheorie, der Mathematiker John von Neumann, nahm diese Fragen auf. Er erweiterte Turings universellen Rechner zu einem Modell des selbstreproduzierenden Automaten, des «universellen Konstruktors». Er besteht aus zwei Hauptkomponenten. Der Konstruktionsteil baut gemäss einem gespeicherten Bauplan eine neue Maschine; und der Kopierteil kopiert den Bauplan selbst und übergibt ihn an die neue Maschine. Von Neumann machte die Logik eines solchen Automaten explizit und lieferte damit eine Antwort auf das Problem: Wie kann eine Maschine nicht nur ihre Struktur, sondern auch die Information zum Aufbau ihrer Struktur weitergeben?
Nun ist das alles Theorie. Der selbstreproduzierende Automat ist ein mathematischer «Organismus», kein natürlicher. Dass er zuhauf in der Natur vorkommt – in der konkreten Gestalt von Lebewesen -, ist das eine; ihn technisch zu realisieren, das andere. Die Idee der organischen Materie als Substrat für Rechenprozesse wurde in den 1960er Jahren realisier-bar, als François Jacob und Jacques Monod vorschlugen, in den Biomolekülen eine Art von Programmsprache für die Proteinsynthese zu sehen. In den 1970er Jahren erkannte der Informatiker Charles Bennett, dass sich in Biomolekülen - etwa in der RNA-Polymerase – Turings Maschinenkonzept materialisieren lässt, und er spekulierte bereits über Moleküle, die energieeffizientere Rechner liefern könnten. In den späten 1980er Jahren prägte der Computerwissenschaftler Christopher Langton den Begriff des «Artificial Life», und er um-schrieb mit ihm ein Projekt, das vom «Leben, wie wir es kennen» übergeht zum «Leben, wie es sein könnte» - das heisst, zur Nachbildung von Naturphänomene in alternativen Medien.
***
Dieses Projekt wird heute auf vielen Feldern des «Bio-Computing» verfolgt. Man verschaltet zum Beispiel lebende Neuronen mit Chips. Ein australisches Forscherteam kultivierte das Netz von etwa 800’000 Zellen eines embryonalen Mäusegehirns in vitro, und «pflanzte» diese Schicht einem dichten Gitter von Mikroelektroden «auf». Die Neuronen reagierten auf die elektrischen Signale und lernten durch positive und negative Rückkoppelung ein einfaches Computerspiel. «DishBrain» nennt sich dieses System: Gehirn in der Petrischale. Die Forscher versprechen sich von solchen Bio-Hybriden, die «inhärente» Intelligenz des biologischen Systems nutzen zu können.
Oder man studiert Organismen wie den Schleimpilz auf seiner Futtersuche. Er löst das Problem, eine Anzahl Punkte – Nahrungsquellen - mit einem Netz kürzester Länge zu verknüpfen. Für die Informationstheorie stellt dies ein notorisch kniffliges Problem dar, das mit wachsender Zahl von Punkten dem Computer sehr schnell eine immense Rechenleis-tung abfordert. Womöglich steckt in der schleimigen Biologie der Schlüssel für einen effi-zienten Algorithmus. Die Natur als Terra incognita unbekannter «Rechenverfahren» …
Einer der grössten Wissenschaftsverlage der Welt - Springer Nature - lädt kürzlich zu Bei-trägen im Forschungsfeld des Biocomputing ein. Er begründet dies mit dem Hinweis auf einen «Paradigmenwechsel in der Konvergenz biologischer Systeme, Materialtechnik und computergestützter Technologien» (..) Mit dem Fortschritt der Organoid- und lebenden Bio-Hybrid-Technologien bietet die Integration von Künstlicher Intelligenz (KI) in diese lebenden Strukturen eine spannende Gelegenheit, neue Formen der Biocomputing zu erforschen (..) Die Zeit für diese Erforschung ist reif, da Fortschritte im Gewebeengineering und bei KI-Algorithmen sich rasant entwickeln und eine genauere Untersuchung ihres kombinierten Potenzials erfordern.»
***
Ein Typus von Computer nimmt Gestalt an, den Geoffrey Hinton - ein Pionier des Deep Learning – unlängst «sterblich» genannt hat. Er brachte damit etwas Offensichtliches zur Sprache: Biologische Rechensysteme sind untrennbar mit dem physischen Substrat verbunden. Wenn wir sagen, das Gehirn rechne, dann meinen wir, dass der neurophysiologische «Kalkül» vollständig im Gewebe – in der «Wetware» - abgebildet ist. Sterbliche KI muss die Fakten des Lebens lernen. Intelligenz braucht die Auseinandersetzung mit der Umwelt, sie ist ein Produkt dieser Auseinandersetzung. Davon zeugt die immense Vielfalt intelligenter Lebensformen, vom Bakterium bis zum Bonobo. Und die Frage stellt sich, inwieweit und ob sich diese evolutionäre Fülle je völlig mit den Algorithmen ausbuchstabieren lässt, die wir kennen und ersinnen können.
Wie auch immer, allmählich dämmert den Architekten der künstlichen Netze, dass sie - buchstäblich - die Rechnung ohne das «feuchte» Medium machen. Das heisst, immer klarer treten die «Features» des biologischen neuronalen Netzes in den Vordergrund. Um nur kurz drei anzuführen. Erstens arbeitet das menschliche Gehirn viel energieeffizienter als das künstliche. Zweitens sind Neuronen keine simplen Recheneinheiten, an denen man einfach die Gewichte justiert, sondern hochkomplexe dynamische Systeme, die Signale gepulst verschicken und sich dabei chemisch ändern. Und drittens sind die synaptischen Veränderungen zwischen Neuronen vielschichtiger als die statistischen Optimierungsverfahren, die man beim maschinellen Lernen verwendet.
***
Ist Leben ein Rechenprozess? Das ist keine hilfreiche Frage. Sie sollte vielmehr lauten: Welche Werkzeuge lassen sich zwischen Biologen und Computerwissenschaftlern austauschen, damit sie wechselseitig ihre Disziplinen befruchten können - und wie weit gelingt das? Dieser Austausch verabschiedet heute den alten binären Raster von Organismus versus Mechanismus. Ein erzsimpler Unterschied bleibt dennoch. Den Computer haben wir geschaffen - nicht aber das Leben. Deshalb ist es wohl so schwer zu verstehen.
Keine Kommentare:
Kommentar veröffentlichen