Der Pionier der KI, John von Neumann, versuchte, die Sackgasse der Wissenschaft seiner Zeit zu überwinden

Als Roberto Calasso, der Dominus des Adelphi-Verlags, starb, veröffentlichte der Mathematiker und Polemiker Piergiorgio Odifreddi in La Stampa eine heftige Schmähschrift zu seinem Gedenken mit dem Titel Cacciari, Calasso und die Anti-Wissenschaftler. Gegenüber Calasso kritisierte Odifreddi zunächst die Entscheidung, das Gesamtwerk von Friedrich Nietzsche zu veröffentlichen, dem Philosophen von “Es gibt keine Tatsachen, nur Interpretationen”, das der Mathematiker für ein subtiles Gift hält, das die Gemüter von Generationen berauscht und sie zu wissenschaftsfeindlichen Haltungen getrieben hat. Weiter stigmatisiert er die redaktionelle Auswahl Calassos, der der italienischen Kultur “unendlich viel Schaden zugefügt” habe, weil er “grenzwertige wissenschaftliche Werke” wie Fritjof Capras Das Tao der Physik, John Barrow und Frank Tiplers Das anthropische Prinzip, Paolo Zellinis Mathematik und die Götter und Wolfgang Paulis Psyche und Natur ausgewählt habe, denen “Scharlatane wie René Guénon oder Elémire Zolla” gegenüberstanden (Odifreddi, 2021). Auf diese Weise werden andere von Adelphi herausgegebene Werke über die Wissenschaft ignoriert oder vielmehr so getan, als ob sie ignoriert würden, darunter Texte von Nobelpreisträgern wie Richard Feynman, Leonard Susskind, James Watson, Konrad Lorenz sowie von Größen wie Oliver Sacks, David Quammen, Luigi Cavalli-Sforza, John Bell, Carlo Rovelli, Martin Rees, Edward O. Wilson, Sean Carroll, Douglas Hofstadter und Rudy Rucker. Die Beschimpfungen trafen allerdings ins Schwarze, denn das Gepräge des Verlegers (wie ein Buch von Calasso selbst genannt wird) war in der italienischen Verlagswelt noch nie so stark wie bei Adelphi, wo jeder Titel nicht zufällig gewählt wird. Selbst jetzt, da Calasso nicht mehr unter uns weilt, kann man seine Handschrift in der jüngsten Veröffentlichung von zwei Titeln über eine Persönlichkeit erkennen, die gerade in den Jahren, in denen wir leben, eine Wiederentdeckung verdient hat: John von Neumann. Benjamin Labatut hat sich in Maniac mit ihm befasst (ein Text, den wir bereits in Quaderni d’Altri Tempi analysiert haben) und, prosaischer und streng biografisch ausgerichtet, der Journalist und Wissenschaftsautor Ananyo Bhattacharya in The Man from the Future.

“Ein Schrecken, den kein Science-Fiction-Roman hervorzurufen vermochte”.

Calasso selbst hatte sich bereits mit John von Neumann befasst, beginnend mit einem Absatz in seinem Meisterwerk The Ruin of Kasch (1983), der hier in vollem Umfang zitiert werden soll:

“Als von Neumann 1956 die Gelegenheit der Silliman-Vorlesungen nutzte, um schnell zusammenzufassen, was gerade geschehen war, was unter den Maschinen geschah, die nun selbständig rechneten, als er damit begann, die Unterscheidung zwischen digitalen und analogen Rechenmaschinen vorzustellen, wurde den beiden Polen, die uns im Verborgenen halten, ein neuer Name gegeben. Der digitale Pol scheint biologisch zweitrangig und abhängig zu sein, so wie der Austausch zweitrangig gegenüber dem auszutauschenden Objekt erscheint. Doch dann übernimmt der digitale Pol das Kommando und offenbart die Fähigkeit, den anderen Pol zu umhüllen, ihn zu absorbieren – und ihn natürlich zu nutzen. Der digitale Pol verleiht große Macht, aber er enthält in der Maschine nicht jene Körperlichkeit der sich bewegenden Werte, die eine letzte greifbare Erinnerung an die Außenwelt ist. Die Digitalität ist eine reine Zeichenfolge: Wenn sich ihre Herrschaft auf alles ausgedehnt hat, wissen wir nicht mehr, welche Erde uns trägt – wenn es überhaupt noch eine Erde gibt. Den analogen Pol erleben wir weiterhin, aber wir wissen nicht mehr, wie wir ihn benennen sollen: Er ist ein stummes Gefühl, das erdrückt und nicht mehr in seine ehemalige Mündung fließt. Die Digitalität hat ihm ein neues Bett bereitet, unzerstörbares Silizium”.

(Calasso, 1983).

Dies ist natürlich eine Prophezeiung der modernen Zeit, jener unbenennbaren Gegenwart, die Calasso später in einem viel späteren Buch (2017), am Vorabend der Revolution der intelligenten Maschinen, beschreiben sollte. In diesem Buch hat Calasso mit außerordentlicher Hellsichtigkeit eine Passage aus einem TED-Vortrag von Stuart Russell, dem “Autor der populärsten Abhandlung über künstliche Intelligenz”, vom 25. April 2017 aufgespürt, in dem der Durchbruch angekündigt wurde, der in Kürze zur generativen KI führen würde. Da es mit den bisherigen Ansätzen der Computerwissenschaftler nicht möglich sei, eine KI zu schaffen, die wie Menschen denken und sich an unseren Werten orientieren könne, müsse die Maschine, so Russell, lernen zu lesen: “Was? Alles. Sie wird ‘alles lesen, was die Menschheit geschrieben hat’”. Und Calasso schloss:

“Das sind nur ein paar Worte, aber sie reichen aus, um sich einen Horror vorzustellen, den kein Science-Fiction-Roman je zu beschwören vermochte: eine endlose Masse von Zeichen in jeder Art von Alphabet, die von einem Roboter gelesen werden und aus denen wie ein erweichender Sirup der Saft der Werteheraussprudelt.”

(Calasso, 2017).

“Eine Neuauflage des Eisernen Throns.

John von Neumann, der Mann aus der Zukunft, war derjenige, der sich all dies, mehr noch als Alan Turing, als Erster vorgestellt hatte. Im Gegensatz zu vielen seiner damaligen Kollegen war von Neumann kein Reduktionist, d. h. er glaubte nicht, dass sich alles auf erste Prinzipien reduzieren ließe; er war ein Emergentist: Ausgehend von Urbausteinen und sehr einfachen Gesetzen glaubte er, dass Komplexität und all jene irreduziblen Prozesse wie Bewusstsein und Leben selbst erreicht werden könnten. Er war natürlich Materialist, obwohl Bhattacharya daran erinnert, dass er kurz vor seinem dramatisch verfrühten Tod zum Katholizismus seiner Familie zurückkehrte und behauptete, dies sei die beste Religion, in der man sterben könne. Es war eine “Pascalsche Wette”, äußerst pragmatisch und alles andere als ideologisch: Wenn es nur eine winzige Chance gibt, dass es einen Gott gibt, ist es besser, auf seine Gnade zu vertrauen, als auf ewig in der Verdammnis zu leben. Eine theologische Version des Gefangenendilemmas, das er selbst als Pionier der Spieltheorie entwickelt hatte.

Die Spieltheorie, eine der berühmtesten konzeptionellen Erfindungen von Neumanns, veranschaulicht perfekt seinen pragmatischen, anti-ideologischen, scheinbar reduktionistischen, aber im Grunde emergentistischen Ansatz. Von Neumann glaubte, dass der Mensch ein rationaler Akteur sei und dass sich die Komplexität seiner Entscheidungen auf sehr einfache Gesetze zurückführen ließe; wenn dies möglich wäre, dann hätte man einen Weg gefunden, die Entscheidungen der Gegner im tödlichsten aller Spiele des Kalten Krieges, dem Wettrüsten, zu antizipieren, den Kriegsspielen, die immer wieder in den Räumen der RAND Corporation, der Denkfabrik, bei der von Neumann nach dem Krieg gelandet war, gespielt wurden. Die Entscheidung für oder gegen einen Atomkrieg war für von Neumann keine Entscheidung, die von ideologischer Wut diktiert wurde; sicherlich war er, der aus Ungarn stammte und als Junge die Verwerfungen der kommunistischen Diktatur erlebt hatte, (wie sein Landsmann Edward Teller, der Vater der H-Bombe) ein erbitterter Gegner der Sowjetunion und von der Notwendigkeit überzeugt, Europa und dann die Welt um jeden Preis davor zu bewahren, unter das Joch der UdSSR zu geraten, selbst wenn dies Hunderte Millionen von Opfern bedeutete. Und doch war eine solche Entscheidung – Atomkrieg oder nicht – viel zu wichtig, als dass ideologische Entscheidungen sie diktieren konnten, genau wie bei der Pascalschen Wette: Es musste ein Weg gefunden werden, um die Unsicherheit zu rationalisieren und zu operationalisieren.

Die Spieltheorie wurde mit diesem Gedanken geboren. Man brauchte nicht davon auszugehen, dass jedes Individuum vollkommen rational ist und dass seine Entscheidungen binärer Natur sind; es genügte zuzugeben, dass der Durchschnittsmensch auf diese Grundannahmen reduzierbar ist. Danach würde sich komplexes Verhalten aus der Interaktion zwischen zwei oder mehreren Akteuren ergeben, “so wie die Bewegungen einzelner Moleküle die makroskopischen Eigenschaften eines Gases bestimmen”. Die elegante mathematische Formulierung des menschlichen Verhaltens durch die Spieltheorie hatte jedoch eine Einschränkung. Als von Neumann versuchte, sie auch “auf Situationen anzuwenden, in denen die Möglichkeit eines gegenseitigen Nutzens besteht”, scheiterte er. Seine Beispiele für Dreierbeziehungen endeten immer in einer “Wiederholung des Throns der Schwerter mit seinen blutigen Zyklen von Allianzen und Verrat, die unvermindert weitergehen”. Der maximale gegenseitige Nutzen, den sich seine Mathematik vorstellen konnte, war der von zwei Spielern auf Kosten eines Dritten. Allenfalls konnte man sich vorstellen, mit dem “toten Mann” zu spielen, einem fiktiven Spieler, der “den Betrag verliert, den die anderen Spieler gewinnen, und umgekehrt den Betrag gewinnt, den die anderen Spieler verlieren”. Diese Unfähigkeit, sich Lösungen für Nicht-Nullsummenspiele vorzustellen, war der Grund, erklärt Bhattacharya, für die Kälte, mit der die Spieltheorie in der Welt der Wirtschaftswissenschaften lange Zeit behandelt wurde, bis später wichtige, mit dem Nobelpreis ausgezeichnete Ergebnisse dort scheiterten, wo von Neumann gescheitert war.

Der Greif an der Schwelle zur Computerwissenschaft

Von einem Mann, der Jahre damit verbracht hatte, immer leistungsfähigere Atombomben zu entwickeln, und dann seine Intelligenz in den Dienst von Atomkriegssimulationen stellte, konnte man nicht viel mehr erwarten. Doch von Neumanns wahre Leidenschaft galt den Computern. Wenn man sich heute an seinen Namen als einen der Väter der Informatik erinnert und nicht als einen der Väter der Atombombe oder der Quantenmechanik, dann deshalb, weil er vor anderen die enorme Bedeutung von Computern für die Zukunft der Menschheit erkannte. In den Computern sah von Neumann vor allem die Möglichkeit zu zeigen, dass aus einfachen Gesetzen Komplexität entstehen kann, und noch besser, dass sich aus fundamentalen Zuständen Leben und Bewusstsein entwickeln können. Als überzeugter Verfechter des digitalen Paradigmas, das grundlegende Entscheidungen auf eine Wahl zwischen 0 und 1 reduziert, war von Neumann jedoch kein großer Verfechter der symbolischen Logik, wahrscheinlich weil er mit Gödel vertraut war und die Grenzen des logischen Ansatzes, den die Mathematiker der ersten Hälfte des Jahrhunderts zu verfolgen versucht hatten, klar erkannt hatte. Daher war er davon überzeugt, dass zur Beantwortung von Turings Frage, ob Maschinen denken können, ein anderer Ansatz erforderlich war, der die Entwicklung des Lebens nachbilden konnte. Dieser Ansatz, den er in dem Text beschrieb, den er posthum unter dem Titel Theory of Self-Reproducing Automata (1966) veröffentlichte, ist heute in der Variante von John Conways Game of Life bekannt: Man beginnt mit einer einzigen Zelle auf einem unendlichen zweidimensionalen Gitter und erreicht mit einem begrenzten Satz von Regeln ein Niveau extremer Komplexität, das die “unendlichen, schönen und wunderbaren Formen” des Darwinschen Gedächtnisses erzeugt.

Einer seiner Schüler, John McCarthy, war von der Möglichkeit überzeugt, “intelligente Maschinen durch Ausnutzung der Evolution zu erzeugen”, eine Idee, die von Neumann sehr gut gefiel. McCarthy prägte kurz darauf den Begriff “künstliche Intelligenz” und begann zusammen mit Marvin Minsky, das Problem zu untersuchen (zu diesen Themen siehe Dyson, 2000, 2012). Aber von Neumann war zuerst da, in jener Silliman-Gedächtnisvorlesung, aus der das Buch Computer and the Brain, “der Greif an der Schwelle der Informatik” (Calasso, 2017), hervorging. Die große Einsicht war, dass “Neuronen nicht nacheinander feuern, sondern gleichzeitig: Sie sind nicht seriell (…), sondern massiv parallel”. Es dauerte Jahre, aber schließlich ermöglichte die parallele Berechnung auf modernen Grafikprozessoren die generativen künstlichen Intelligenzen, die Russell vor einigen Jahren erdacht hatte, und bewies die Gültigkeit von Neumanns Intuition, dass nur ein emergentistischer Ansatz eine echte Simulation von Intelligenz in Maschinen ermöglichen würde. Und nicht nur das. Bhattacharya erinnert uns daran:

“Einige Zukunftsforscher spekulieren, dass eine übermenschliche künstliche Intelligenz die Gesellschaft so verändern könnte, dass sie nicht mehr wiederzuerkennen ist. Dies wird heute als ‘Singularität’ bezeichnet – ein Begriff, der erstmals von einem verwendet wurde, der diese Möglichkeit viele Jahre zuvor voraussah: John von Neumann”.

(Bhattacharya, 2024).

“Gibt es überhaupt ein stabiles Ding, auf dem das Universum beruht?”

Tatsächlich ist das Konzept der Singularität einige Jahre älter als das von Neumanns. Benjamin Labatut erinnert uns daran in When We Stopped Understanding the World (Als wir aufhörten, die Welt zu verstehen), das nach dem Erfolg von Maniac von Adelphi billig nachgedruckt wurde und in dem sich Labatut mit der dunklen Seite von Neumanns Denken auseinandersetzt. Es besteht in der Tat eine enge Verbindung zwischen von Neumann und der tausendfach erzählten und zum modernen Mythos gewordenen Geschichte von der Entdeckung der Quantenmechanik und der Krise der Wissenschaft im frühen 20. Der Begriff “Singularität” wurde erstmals von Karl Schzwarzschild in den Schützengräben des Ersten Weltkriegs geprägt, als er erkannte, dass eine Lösung der Einsteinschen Gleichungen der allgemeinen Relativitätstheorie vorhersagte, dass “ein idealer Stern, perfekt kugelförmig, ohne Rotation oder elektrische Ladung”, der einer Kontraktion unterworfen ist, die Schwerkraft so stark ansteigen lassen würde, dass die Raumzeit ins Unendliche gekrümmt würde. “Das Ergebnis wäre ein unendlicher Abgrund, der für immer vom Rest des Universums getrennt wäre”. Ein solcher Punkt unendlicher Dichte hätte der Gültigkeit aller physikalischen Gesetze ein Ende gesetzt und eine Singularität dargestellt. Schzwarschild überlebte diese Entdeckung nicht, was Einstein zutiefst beunruhigte. Die Singularität war die Verkörperung der größten Befürchtung eines theoretischen Physikers, “dass die Physik nicht in der Lage sein würde, die Bewegungen der Sterne zu erklären und eine Ordnung im Universum zu finden”:

“Gibt es wenigstens ein stabiles Etwas, auf dem das Universum beruht, oder gibt es nichts, woran man sich festhalten kann in dieser unerbittlichen Kette von Bewegungen, in der alles gefangen ist? Machen Sie sich klar, wie sehr wir in die Ungewissheit gefallen sind, wenn die menschliche Vorstellungskraft keinen einzigen Ankerplatz findet und es keinen Stein auf der Welt gibt, der als unverrückbar gelten kann!”

(Labatut, 2024).

Diese große Angst erschütterte die Köpfe und Physiker all der großen Wissenschaftler, von denen Labatut in seinem erfolgreichen Buch berichtet: Schwarzschild und der Japaner Shinichi Mochizuki, der 2012 behauptete, die berühmte Vermutung der Zahlentheorie a + b = c bewiesen zu haben und dann alles rückgängig machte; Werner Heisenberg in seinem verzweifelten Aufenthalt auf Helgoland, der bereits von Carlo Rovelli (2020) teilweise fiktionalisiert wurde, und Alexander Grothendieck, der zum Einsiedler wurde; Louis de Broglie mit seinem zu Hause angelegten Mistberg und Erwin Schrödinger mit seinen erotischen Obsessionen. In Maniac zeigt uns Labatut einen von Neumann, der von einem ähnlichen Wahnsinn geschüttelt wird, aber die Dinge sind nicht ganz so. Angesichts der Gefahr, die Welt nicht mehr zu verstehen, gibt es zwei Lösungen, die eigentlich dasselbe sind: Die erste besteht darin, immer tiefer einzudringen, die Welt zu zerbrechen, bis man sie verstanden hat; die zweite besteht darin, eine alternative, verständliche und beruhigende Welt zu konstruieren. In beiden Fällen handelt es sich um Lösungen, die mit Kontrolle und Beherrschung zu tun haben.

Labatut erinnert uns daran, dass der erste, der Schzwarschild Recht und Einstein Unrecht gab, Robert Oppenheimer war, dessen Arbeit, in der er den Kollaps massereicher Sterne zu Punkten unendlicher Dichte nachwies, genau am Tag des Ausbruchs des Zweiten Weltkriegs erschien. Oppenheimer hatte keine Schwierigkeiten, von diesen Argumenten zum Bau einer Atombombe überzugehen, denn eine Waffe zu bauen, die auf den krawalligen Gesetzen der fundamentalen Physik beruht, bedeutet, sie zu zähmen. “Es ist die Ausnutzung der fundamentalen Kraft des Universums”, wie Harry Truman in der Rundfunkansprache, mit der er den Bombenabwurf auf Hiroshima ankündigte, zusammenfasste. “Die Kraft, aus der die Sonne ihre Energie bezieht, wurde gegen diejenigen eingesetzt, die den Krieg im Fernen Osten provoziert haben”. Von Neumann empfand das genauso. Er war der erste, der die paradoxen Folgen der Quantenmechanik bereitwillig akzeptierte, und zwar in seinem genialen Werk Mathematical Foundations of Quantum Mechanics (1932), in dem er die Widersprüchlichkeit von Theorien mit “verborgenen Variablen” aufzeigte, wie sie sich Einstein erhoffte, um dasVerschränkungsproblem zu erklären, und für eine Lösung des Messproblems eintrat, die den Prozess der Quantenreduktion dem Bewusstsein zuschreibt – eine Interpretation (genannt von Neumann-Wigner), auf der heute eine unglaubliche Menge von New-Age-Theorien beruht. Von Neumann ließ sich wie Oppenheimer nicht von der Unbegreiflichkeit der Welt zerstören: Er wollte sie kontrollieren und damit beherrschen. Aber gleichzeitig ging er auch den anderen Weg. Stanislaw Lem sprach in seiner Summa Technologiae von der Versuchung derZystifizierung, die eintreten kann, wenn eine intelligente Zivilisation im Laufe ihrer Entwicklung an die Grenzen ihrer eigenen Fähigkeit stößt, die Realität zu verstehen, und beschließt, sich in eine von ihr selbst geschaffene Unterwelt zu “zystifizieren”, eine deterministische Art von Simulation, in der alles vorhersehbar und kontrollierbar ist. Ist dies nicht die Welt, die von Neumann mit seinen Beiträgen zur Informatik und zum Digitalen zu schaffen versuchte? Vielleicht repräsentieren zelluläre Automaten nicht die Art und Weise, wie sich das Leben in unserer Welt entwickelt hat, aber sie könnten den Keim einer anderen Welt darstellen, in der künstliche Intelligenz dominieren wird.

“Aber wer würde so etwas jemals tun wollen?”

Hier kehren wir zu unserem Ausgangspunkt zurück, nämlich zu Calasso. Der digitale Pol, der den analogen ablöst, wie er es in Der Untergang von Kasch vorhersah, ist genau das Endergebnis der “Beziehung der Wissenschaft zum Unbekannten”:

“Die Schlachthäuser von Chicago, die Universitätslabors mit ihren nach abgetrennten Fröschen riechenden Gängen, die in der Wüste getarnten Kraftwerke sind Orte desselben Kults. Sie verbreiten Gewalt durch gewaltsames Eingreifen, eine Entscheidung, bei der alles auf Verfahren ausgerichtet ist, weil ihre Fähigkeit zur Kontrolle immer perfekter wird. Hatten nicht schon die vedischen Seher gesagt, dass “Exaktheit, Realität Opfer ist”? Je perfekter die Kontrolle, desto reichhaltiger das Material, das verarbeitet werden kann, desto intensiver die entfesselte Kraft, desto unkontrollierbarer ihr Ausgang”.

(Calasso, 1983).

Man kann fast das Zähneknirschen eines Odifreddi hören, wenn er diese Zeilen liest. Labatut schließt in ähnlicher Weise mit Als wir aufhörten, die Welt zu verstehen. Der Nachtgärtner des Epilogs antwortet dem Autor, der ihn fragt, wie lange sein Zitronenbaum noch zu leben hat, dass die einzige Möglichkeit, dies herauszufinden, darin bestünde, den Stamm zu schneiden, um die Ringe einzuziehen. Aber wer würde so etwas jemals tun wollen? Und das bittere Ende von Lems Roman Planet der Stille kommt uns in den Sinn, das uns mit einer zukünftigen Menschheit konfrontiert, die durch den Versuch, das Universum zu verstehen, indem sie Dinge zerstört, die sie nicht versteht, das Objekt ihrer Suche selbst zerstört.

Lektüre

Original hier: https://www.sinistrainrete.info/filosofia/28499-roberto-paura-la-scienza-di-von-neumann-o-di-come-capiremo-il-mondo.html