Entscheidungsfindung neu programmieren

Die Politik der Postwahrheit ist die Kunst, alte Überzeugungen so zu inszenieren, als wären sie neu, und dabei affektive Prädispositionen oder bekannte oder bereits geäußerte Reaktionen zu nutzen. Die Algorithmen sind so konzipiert, dass sie diese Prädispositionen oder Reaktionen nutzen, die in Form von zufälligen Datenspuren gespeichert sind, die wir hinterlassen, wenn wir dieses oder jenes Musikstück, diese oder jene Shorts, diese oder jene Streaming-Plattform wählen. Mit anderen Worten: Die Post-Truth-Computing-Maschine folgt nicht einer internen, binären Logik des Entweder-Oder, sondern der Logik, die wir bei unserer zufälligen Auswahl hinterlassen. Wenn wir davon ausgehen, dass es in der Politik der Postwahrheit eine Rechenmaschine gibt, dann ist diese Maschine nicht mehr digital, da sie nicht mehr mit der Überprüfung und Klärung von Problemen beschäftigt ist. Vielmehr hat sie sich in eine metacypherische Logik verlagert, weil sie sich nicht mehr mit der Korrelation zwischen Wahrheiten oder Ideen einerseits und Beweisen oder Fakten andererseits befasst und stattdessen durch die algorithmische Quantifizierung des Affekts von einer neuen Ebene der automatisierten Kommunikation Besitz ergriffen hat.

Die metadigitale Maschine der Post-Truth-Politik gehört zu einer automatisierten Kommunikationsordnung, die für die endlose Erforschung isolierter und sich wiederholender Verhaltensweisen konzipiert ist, die wir als Verfahren bezeichnen könnten. Dabei handelt es sich um Kausalitäten (Agenturen) oder Handlungsmuster, die hinreichend diskret oder konsistent sind, um von maschineller Intelligenz erkannt zu werden. Die Maschinerie der Post-Truth-Politik verwendet heuristische Reaktionstests, um aufzuzeichnen, welche Entwicklungen, Veränderungen, Anpassungen und Umwälzungen in Prozessen stattfinden. Dabei handelt es sich nicht einfach um eine statistische Berechnung von Wahrscheinlichkeiten entsprechend diesem oder jenem Trend in der Datennutzung, sondern um eine völlige Gleichgültigkeit gegenüber den gesammelten und übermittelten Daten, die nur als Hintergrund dienen. Und doch ist der Inhalt der Daten nicht trivial. Im Gegenteil, die Rechenmaschine bringt eine granulare Analyse der Daten mit sich, die von Algorithmen durchgeführt wird, die das Potenzial dieser Inhalte eröffnen, auf bisher unbekannte Ziele umgelenkt zu werden. Mit anderen Worten, die rechnerische Gleichgültigkeit gegenüber binären Problemlösungen fällt mit einem neuen Imperativ zusammen: dem technologischen Dezisionismus, der Wert darauf legt, schnell klare Entscheidungen zu treffen, anstatt die richtigen zu treffen. Für den Dezisionismus ist das, was am richtigsten ist, auch das, was am besten passt. Als Mussolini 1925 im Parlament eine Rede hielt, in der er die volle Verantwortung für das mörderische Chaos übernahm, das sein Regime verursacht hatte, und dennoch seine Gegner aufforderte, ihn abzusetzen, praktizierte er den Dezisionismus auf Kosten der binären Logik, die vorschreiben würde, dass Mussolini, wenn er verantwortlich war, zurücktreten sollte. Stattdessen erklärte der Diktator, er sei verantwortlich und bleibe im Amt. Heute sind es die Maschinen, die diese Reden für uns halten.

Entscheide dich, nicht zu entscheiden, und die Ergebnisse werden von selbst kommen

Die Geschichte der Kommunikation, die Ergebnisse erzielt, indem sie Wahrheiten entkräftet und Fakten fabriziert, anstatt sie zu entdecken, muss mindestens drei historische Momente in der Entwicklung der maschinellen Intelligenz und der Entstehung der Metamaschine berücksichtigen. Der erste Zeitraum erstreckt sich von den 1940er bis zu den 1960er Jahren und ist mit der Entstehung der kybernetischen Kommunikationsinfrastruktur und der Einführung der Computerlogik in die Entscheidungsprozesse verbunden. Die zweite Periode, die 1970er und 1980er Jahre, sah den Übergang zu interaktiven Algorithmen und Experten- und Wissenssystemen. Die dritte Phase, von den 1980er bis in die 00er Jahre des 21. Jahrhunderts, lenkte die Aufmerksamkeit auf intelligente Agenten, Algorithmen fürmaschinelles Lernen und Big-Data-Logik. Mit ihrem Einzug in die soziale Kommunikationskultur wurden diese Formen der automatisierten Intelligenz auch zu einem zentralen Thema der technologisch orientierten kritischen Theorie, die uns ständig vor der Automatisierung der Entscheidungsfindung warnt, bei der Informationsverarbeitung, Computerlogik und kybernetische Rückkopplung die Struktur, die Sprache und die Fähigkeit, über das bereits Bekannte hinaus zu denken, ersetzen.

In seinem Essay Das Ende der Philosophie und die Aufgabe des Denkens (1969) argumentiert Martin Heidegger, dass der Vormarsch der Kybernetik – der Technowissenschaft der Kommunikation und Kontrolle – ab den späten 1940er Jahren den Höhepunkt der westlichen Metaphysik selbst markiert1. Dies bedeutet nicht nur, dass die Philosophie durch Tests überprüfbar und beweisbar wird, sondern auch, dass wissenschaftliche Wahrheiten der Wirksamkeit der Ergebnisse untergeordnet werden. Das instrumentelle Denken der Kybernetik, das die aus angenommenen Kategorien abgeleiteten Urteile durch die Funktionsfähigkeit der von Maschinen realisierten Wahrheitszustände ersetzt, absorbiert die westliche Metaphysik in ihrer Gesamtheit. Die Technowissenschaft konnte nicht länger im Dienste der Philosophie stehen. Hier werden Ideen nicht einfach dargestellt oder bewiesen, sondern als Information verarbeitet. Die neue Technowissenschaft der Kommunikation aktiviert eine neue Sprache des Denkens, die in die Inputs und Outputs von Informationskreisläufen eingebettet ist und nach der Handlungen programmiert werden, um eine Reihe von Ergebnissen zu erzielen.

Wenn nach Heidegger das Ende der Philosophie “eine Konzentration auf die äußersten Möglichkeiten” ist, dann deshalb, weil die Entwicklung der Wissenschaften und ihre Trennung von der Philosophie zu einer Verwandlung der Philosophie in “die empirische Wissenschaft vom Menschen” geführt hat.2 Nirgendwo ist dies greifbarer als in den Fortschritten der Kybernetik und ihren Bemühungen, “den Menschen als handelndes und soziales Wesen zu definieren”. Denn sie ist eine Theorie zur Steuerung der Planung und Organisation der menschlichen Arbeit. Die Kybernetik verwandelt die Sprache in den Austausch von Nachrichten. Die Künste werden zu gesteuerten und kontrollierenden Instrumenten der Information. “3 Wenn die Philosophie nur noch eine der Wissenschaften ist, die mit den anderen in wechselseitiger Kommunikation steht, verliert sie ihre metaphysische Totalität. Die Aufgabe, die Welt zu erklären und den Platz des “Menschen in der Welt” zu bestimmen, wird letztlich durch die Technologie zunichte gemacht.

Unter diesen neuen Bedingungen der Techno-Invention der metaphysischen Wahrheit besteht Heidegger darauf, dass die neue Aufgabe des Denkens jenseits der Trennung zwischen rational und irrational liegt. Da das Denken immer in der Irrationalität der Systeme verborgen bleibt, kann seine Existenz nicht wirklich bewiesen werden. Unter diesem Gesichtspunkt stellt er im Anschluss an Aristoteles die Frage, wie man erkennen kann, ob und wann das Denken eines Beweises bedarf, und wie man erfahren kann, was keines Beweises bedarf4. Für Heidegger kann aber nur die Unverborgenheit – der Zustand, in dem das Denken nicht unverborgen sein kann – die Bedingung der Wahrheit sein. Wahrheit bedeutet hier nicht die Gewissheit des absoluten Wissens – und gehört daher nicht in den Bereich der wissenschaftlichen Erkenntnistheorie. Da die kybernetische Ordnung des technowissenschaftlichen Wissens vor allem auf die Erzielung von Ergebnissen ausgerichtet ist, kann sie uns unter diesem Gesichtspunkt nichts über die Wahrheit sagen, da diese die Unaufdeckbarkeit dessen beinhaltet, was nicht gezeigt werden kann – da sich das Denken immer in der Irrationalität der Systeme verbirgt. Wahrheiten müssen also jenseits des bereits Bekannten liegen. In einem Zeitalter der bedeutungslosen Kommunikation muss deshalb, so Heidegger, die Aufgabe des Denkens in eine Methode des Lernens von Denkweisen verwandelt werden5.

Es ist diese neue Idee des Denkens in einem Zeitalter der automatischen Erkenntnis, die die heutige Politik der Postwahrheit verfolgt. Wir befinden uns in einer Sackgasse: Wir können nicht zum deduktiven Modell der idealen Wahrheiten zurückkehren, aber wir können uns auch nicht auf die induktive Methode oder die einfache Überprüfung von Fakten verlassen, um die Wahrheit zu verifizieren. Wie können wir diese Sackgasse überwinden? Es ist schwierig, einen Perspektivwechsel in Bezug auf das, was Technopolitik sein könnte, zu vollziehen, ohne zunächst zu versuchen, diesen grundlegenden Knoten zu lösen, der Philosophie und Technowissenschaft miteinander verbindet und der immer noch von Heideggers Behauptung erschüttert wird, dass die Umwandlung der Metaphysik – eine unmögliche Bedingung des Denkens – in kybernetische Kommunikationskreisläufe die Artikulation eines Denkens jenseits der Vernunft und ihrer Instrumentalität erfordert.

Das Erbe dieser Kritik des Denkens scheint die Frage nach der Instrumentalität des Denkens auch heute noch nicht zuzulassen, wo Maschinen mit künstlicher Intelligenz oder Bots die kritische Perspektive in eine Ideologie der Wahrheit und einen Daten-Empirismus des Fakten-Checkings umcodiert haben. Anstatt das Ende des metaphysischen Denkens und seinen Höhepunkt in der Instrumentalität auszurufen, scheint es wichtiger zu sein, durch die Hintertür zur Kritik des instrumentellen Denkens zurückzukehren und die Frage neu zu stellen, wie man in Bezug auf die Mittel denken kann, durch die Fehler, Unbestimmtheit, Zufälligkeit und Unbekanntes im Allgemeinen Teil des technowissenschaftlichen Wissens und des maschinellen Denkens geworden sind.

Denken lernen

Zu diesem Zweck ist es notwendig, einen genaueren Blick auf die historischen Versuche in der Kybernetik und der Informatik von den späten 1940er bis in die 1980er Jahre zu werfen, Modelle automatischer Intelligenz zu entwickeln, die sich nicht auf die deduktive Logik bekannter Wahrheiten stützen. Da der Einsatz induktiver Datenerfassung und heuristischer Tests den Schwerpunkt der KI-Forschung von einem Modus der Validierung zu einem Modus der Entdeckung verlagert hat, müssen die Annahmen der kritischen Theorie, dass die Technowissenschaft die Metaphysik in bereits konzipierter – oder gewöhnlicher – Kommunikation erschöpfen würde, revidiert werden. Es ist die Erkenntnis der ontischen Grenze der Technowissenschaft, die die Kybernetik und die Computertechnik über rationale symbolische Systeme hinaus zum Experimentieren mit Wissen-als – das heißt, Lernen zu lernen – gedrängt hat, das nun für das Überwachungsbild der sozialen Kommunikation von Bot zu Bot in der Post-Wahrheits- und Post-Fakten-Ära von zentraler Bedeutung ist. Das rationale System der westlichen Metaphysik wird durch Kybernetik und Computer nicht einfach realisiert oder aktualisiert, sondern erfährt eine vollständige Mutation, durch die die ewige Basis der Wahrheit schließlich in die Wechselfälle der materiellen Abenteuer eintritt. In der kybernetischen Instrumentalisierung wird die Wahrheit als Wissen durch das Mittel der Erkenntnis ersetzt, das die metaphysische Dimension des maschinellen Wissens begründet, das sich aus seinen automatischen Funktionen des Lernens und der Vorhersage ableitet. Und doch ist es in diesem glatten rationalen System nicht mehr möglich, das Denken als das zu begreifen, was jenseits ist oder was in den unsichtbaren Lücken des transparenten Kommunikationsapparats unentdeckt bleibt. Stattdessen scheint es notwendig zu sein, die Verarbeitung des Nicht-Kommunizierbaren (unbestimmtes Denken) in das maschinelle Denken als die moderne Bedingung einzubeziehen, durch die die Instrumentalität auch erklärt hat, dass die Mittel selbst einen Schritt über das hinaus sind, was sie tun können. Diese transzendentale Instrumentalität eröffnet die Frage nach dem Verhältnis von Handeln und Denken, die im Zentrum der Technikkritik steht. Während die gegenwärtige Verbreitung von post-wahrheitsbezogenen und post-faktischen Politiken eine Folge des Endes der westlichen Metaphysik zu sein scheint, das durch Kybernetik und Computer eingeleitet wurde, müssen die Folgen der Metaphysik der Maschinen im Hinblick auf das Aufkommen eines nicht-menschlichen Denkens noch vollständig untersucht werden. Aber was bedeutet es, dass Maschinen denken können? Hat die Technikkritik, von Heidegger bis Deleuze und sogar Laruelle6, nicht argumentiert, dass die Immanenz des Denkens durch unreflektierte und unentscheidbare Maschinen verläuft? Und wenn dem so ist, sind dann post-wahrhaftige und post-faktische Politiken wirklich nur die sichtbarsten Folgen davon, wie irrationales Denken das rationalste System durchdringt? Und doch ist es möglich, die Frage des nicht-menschlichen Denkens innerhalb der Logik der Maschinen und im Hinblick auf die Entstehung einer maschinellen Erkenntnistheorie anders anzugehen, bei der es um komplexe Vermittlungsebenen geht und nicht um die Unmittelbarkeit zwischen Handeln und Denken.

Bereits in den 1940er Jahren schlugen Walter Pitts und Warren McCulloch in ihrer einflussreichen Arbeit über neuronale Netze vor, das deduktive Modell des mathematischen Denkens, das auf symbolischen Wahrheiten beruht, durch heuristische Versuch-und-Irrtum-Methoden zu ersetzen, die es Maschinen ermöglichen würden, auf einer abstrakten Ebene zu lernen und nicht nur durch sensomotorisches Feedback. Wie der Historiker der Kybernetik, Ronald Kline, hervorgehoben hat, konzentrierten sich bereits diese mathematischen neuronalen Netze auf den Grad der Zufälligkeit im Netz, anstatt sich einfach auf eine homöostatische Rückkopplungsfunktion zu verlassen7. Das neuronale Wissensmodell von Pitts und McCulloch überschnitt sich jedoch in erster Linie mit der konnektionistischen Auffassung von Intelligenz, die künstliche Neuronen mit mathematischer Notation und das biologische Feuern von Neuronen mit der Entstehung von Konzepten verband. Dieses Modell nutzte das algorithmische Lernen als Repräsentationsinstrument hauptsächlich zur Erklärung kognitiver Funktionen8. Da ein einzelnes Neuron jedoch nur eine kleine Anzahl logischer Prädikate berechnen konnte und daher nicht ausreichte, um die Komplexität des parallelen Denkens zu erklären, kam das Modell in der Forschung zur künstlichen Intelligenz nach den 1980er Jahren zum Stillstand.

Erst Ende der 1980er und in den 1990er Jahren, nach dem so genannten “KI-Winter”, führten neue Versuche zur Automatisierung des Denkens eine subsymbolische Darstellung der Intelligenz ein, die weitgehend nicht-deduktive und heuristische Methoden zur Überprüfung der Ergebnisse einsetzte und es den Algorithmen ermöglichte, aus unsicheren oder unvollständigen Informationen zu lernen. Mit induktiven Such- und Datenmethoden lernten die Algorithmen – oder trainierten im Laufe der Zeit – aus einem relativ kleinen Datenhintergrund. Anstatt die Ergebnisse einfach nur nach bestimmten Axiomen zu überprüfen, wurden die Algorithmen performativ mit den Daten. Das heißt, durch rekursive und probabilistische Berechnungen suchen Algorithmen nicht nur nach Informationen, sondern extrahieren und erstellen auch Muster.

Ende der 1990er Jahre wurde das normative (regelbasierte) Verhalten von Algorithmen evolutionär: Sie begannen, sich im Laufe der Zeit, d. h. während der Datenabfrage und -übertragung, anzupassen und zu mutieren. Experimente mit genetischen und evolutionären Algorithmen veränderten schließlich das maschinelle Lernen als Methode zur Überprüfung von Beweisen, indem sie neuronale Netze schufen, die mit versteckten Schichten ausgestattet sind, die dem Zustand des Computerspeichers entsprechen und parallel einen anderen Satz von Anweisungen ausführen9. Im Allgemeinen können neuronale Netze mit einer größeren Schichttiefe mehr Anweisungen in einer einzigen Sequenz ausführen. So werden beispielsweise bei einer Form des maschinellen Lernens, derBackpropagation, Netzwerke mit versteckten Schichten trainiert, so dass sich einfachere Recheneinheiten entwickeln können. Wir wissen, dass Backpropagation-Algorithmen ein Data-Mining-Tool sind, das für Klassifizierung, Clustering und Vorhersage verwendet wird. Bei der Bilderkennung könnte diese Methode des maschinellen Lernens zum Beispiel darin bestehen, die erste Schicht des Algorithmus so zu trainieren, dass sie lernt, Linien und Ecken zu erkennen. Die zweite Schicht lernt, Kombinationen dieser Linien zu erkennen, aus denen sich Merkmale wie Augen und Nase zusammensetzen. Die dritte Schicht kann dann die Linien kombinieren und so lernen, das Gesicht zu erkennen. Bei der Backpropagation werden jedoch nur die zuvor ausgewählten Merkmale ausgedrückt. Daher ist der Hintergrund der Daten, aus denen die Merkmale extrahiert werden sollen, bereits bekannt, so dass beispielsweise geschlechts- und rassenbedingte Verzerrungen bereits in den Datensätzen kodiert oder blind, d. h. für die Algorithmen unsichtbar sind. Anstatt zu hoffen, die Objektivität der Datendarstellung zu gewährleisten, sollte maschinelles Lernen als Verstärker bestehender Vorurteile gesehen werden, die bei der Kombination von Wörtern und Bildern in der automatischen Klassifizierung und Vorhersage zutage treten10.

Anstatt Funktionen von oben nach unten zu programmieren, verarbeiten adaptive Algorithmen in neuronalen Netzen Daten mit immer höherer Geschwindigkeit, während sie Daten abrufen und übertragen, ohne deduktive logische Schlüsse zu ziehen. Katherine Hayles zufolge ist algorithmische Intelligenz jedoch nicht geistlos, sondern sollte vielmehr als einenicht bewusste(nicht kognitive) Form der Kognition verstanden werden, die komplexe Probleme ohne Verwendung formaler Sprachen oder deduktiver Schlussfolgerungen löst. Diese Algorithmen lernen induktiv, d. h. sie entwickeln komplexes Verhalten, indem sie Informationen aus bestimmten Datenaggregaten extrahieren, wobei sie sich auf niedrige Ebenen der neuronalen Organisation und iterative und rekursive Muster derZustandserhaltung stützen. Hayles weist jedoch darauf hin, dass Emergenz, Komplexität, Anpassung und phänomenale kognitive Erfahrung nicht einfach mit den materiellen Prozessen oder Funktionen dieser Elemente der Kognition übereinstimmen11. Selbst wenn Algorithmen eine unbewusste Intelligenz aufweisen, bedeutet dies nicht, dass sie geistlos handeln. Ihr vernetztes und evolutionäres Lernen kann nicht auf ihre materiellen Funktionen oder, anders ausgedrückt, auf ihre exekutiven Funktionen reduziert werden.

Im Gegensatz zu Lorraine Daston, der zufolge algorithmische Routinen geistlose Befehlssätze sind, die Logos durch Ratio12 ersetzt haben, argumentiert Hayles, dass algorithmische Routinen unbewusster Kognition in den Interaktionen zwischen Daten und Algorithmen, Daten und Metadaten sowie Algorithmen und anderen Algorithmen transformiert werden, was maschinelles Lernen als ein zeitliches Medium definiert, in dem Informationsvektoren kontinuierlich konvergieren und divergieren. Da das maschinelle Lernen nach Hayles bereits eine Manifestation von Low-Level-Aktivitäten unbewusster Kognition ist, die mit einer nicht wahrnehmbaren oder affektiven Geschwindigkeit ausgeführt werden, kann nicht mehr behauptet werden, dass Kognition zeitlich kohärent ist, d. h. Vergangenheit und Gegenwart oder Ursache und Wirkung miteinander verknüpft. Hayles zufolge können Informationen nicht einfach so bearbeitet werden, dass sie den Erwartungen entsprechen. Die unbewusste Kognition intelligenter Maschinen offenbart zeitliche Verschiebungen, die der bewussten menschlichen Kognition nicht unmittelbar zugänglich sind. Diese emergentistische Sichtweise der unbewussten Kognition stellt die zentrale Bedeutung des menschlichen Denkens in Frage und geht von einer koevolutionären kognitiven Infrastruktur aus, in der sich Algorithmen nicht passiv an die abgerufenen Daten anpassen, sondern durch das Sammeln, Abgleichen und Auswählen von Daten neue Bedeutungsmuster schaffen. Wenn das induktive Versuch-und-Irrtum-Modell es Computern ermöglicht, schnellere Verbindungen herzustellen, bedeutet dies unter diesem Gesichtspunkt auch, dass Algorithmen lernen, Muster zu erkennen und sie zu wiederholen, ohne die gesamte Kausalkette durchlaufen zu müssen und ohne ihren Inhalt zu lernen.

Da die Algorithmen jedoch auf immer größeren Datensätzen trainieren, ist ihre Suchfähigkeit nicht auf die bereits bekannten Wahrscheinlichkeiten beschränkt. Stattdessen gehen Algorithmen zunehmend instrumentell an Daten heran und experimentieren mit Interpretationsmethoden, die Hayles als “Technogenese” bezeichnet, was auf eine instrumentelle Veränderung der “Art und Weise, wie wir denken können “13 hinweist.

In den letzten zehn Jahren hat sich dieser instrumentelle Wandel jedoch auch auf die Art und Weise ausgewirkt, wie Algorithmen untereinander denken können. Seit 2006, mit dem Aufkommen derDeep-Learning-Algorithmen, ist eine neue Richtung der Forschung zur Berechnung unbekannter Daten in den Mittelpunkt der Entwicklung der Infrastruktur künstlicher neuronaler Netze gerückt. Anstatt die Geschwindigkeit der Daten zu messen und der Häufigkeit der Daten eine Bedeutung zuzuordnen, extrahieren Deep-Learning-Algorithmen die Eigenschaften eines Liedes, eines Bildes oder einer Stimme, um den Inhalt, die Bedeutung und die kontextbezogenen Aktionen der Daten vorherzusagen. In diesem Fall lernen die Algorithmen nicht nur von den Daten, sondern auch von anderen Algorithmen, indem sie eine Art Meta-Lernen aus den verborgenen Schichten des Netzwerks etablieren und den Abstand zu den Knotenpunkten verkürzen, wenn sie eine granulare Analyse des Dateninhalts durchführen. Aus dieser Sicht folgen Algorithmen des maschinellen Lernens nicht nur unbewussten Mustern der Datenkognition, die Lücken in totalisierenden rationalen Systemen aufdecken, sondern scheinen auch neue Argumentationsketten zu etablieren, die sich auf minimale Variationen des Dateninhalts stützen, um maschinelle Bedeutung für ihre Nutzung zu etablieren.

Diese Konzentration auf den Dateninhalt unterscheidet sich radikal von der Auffassung von Information in Kommunikationssystemen in den 1940er Jahren und der Nachkriegszeit. Für Claude Shannon beispielsweise wurde der Dateninhalt auf seine Aufzählungsfunktion reduziert, und die Information sollte ohne Kontext, Bedeutung oder Spezifität sein. Mit Deep Learning können Big-Data- und Data-Mining-Algorithmen die kleinsten Unterschiede im Inhalt und Kontext von Daten messen, wie sie bei der Nutzung digitaler Geräte (von Satelliten bis zu CCTV-Kameras, von Mobiltelefonen bis zur Nutzung von Apps und Web-Browsing) vorhergesagt werden. Was das maschinelle Lernen zu einer neuen Form des Denkens macht, ist nicht nur eine schnellere und umfassendere Aggregation von Daten, sondern auch eine neue Art der Quantifizierung oder eine Art der qualitativen Quantifizierung auf der Grundlage der sich entwickelnden Variationen in den Daten. Man kann hier bereits von einer transzendentalen Qualität des Recheninstruments sprechen, die die Kluft zwischen dem, was Maschinen tun, und dem, was sie denken, aufdeckt.

Mit anderen Worten: Deep-Learning-Algorithmen lernen nicht nur aus der Nutzung, sondern auch aus dem Inhalt und dem Kontext der Daten (indem sie Wege zur Nutzung des Inhalts über Klassen, Geschlechter, Rassen, geografische Standorte, emotionale Reaktionen, soziale Handlungen, sexuelle Vorlieben, Musiktrends usw. hinweg extrahieren). Dies allein zeigt die Tendenz von Maschinen, nicht nur diesen oder jenen bekannten Inhalt darzustellen oder ein Ergebnis von einem anderen zu unterscheiden, sondern auch ihre eigene Form von Wissen zu produzieren, d. h. durch und mit Unsicherheit zu argumentieren. Es sei darauf hingewiesen, dass die Folge dieser Art des Lernens mehr zu sein scheint als der unvermittelte Ausdruck immanenten Denkens oder die beruhigende Explosion der Irrationalität in rationalen Systemen. Vielmehr geht es beim maschinellen Lernen um erweiterte Vermittlungsebenen, in denen sich die Ungewissheit in Form von nicht berechenbaren Formen der algorithmischen Automatisierung manifestiert. Sie brechen nicht einfach mit der Berechnung, der Quantifizierung oder der numerischen Ordnung von Unendlichkeiten. Das Nicht-Berechenbare tritt in einen komplexen Prozess der übereinstimmenden Vermittlung ein, der die Strukturierung der Zufälligkeit während der algorithmischen Kalibrierung der Unbestimmtheit beinhaltet. Daher sollte maschinelles Lernen nicht nur unter dem Gesichtspunkt betrachtet werden, was Algorithmen tun, d. h. als ein Modell zur Reproduktion der in die Verwendung, den Kontext und die Bedeutung von Daten eingebetteten Verzerrungen. Gleichzeitig sollte man der Versuchung widerstehen, Algorithmen lediglich als Orte der Manifestation unbewusster oder irrationaler Denkpotenziale zu betrachten. Ich möchte stattdessen vorschlagen, dass das sehr allgemeine Prinzip des maschinellen Lernens im Hinblick auf eine sich abzeichnende transzendentale Instrumentalität kritisch untersucht werden sollte: Was Maschinen tun, deckt sich nicht mit den Potenzialen des maschinellen Denkens und sollte es auch nicht tun. Das bedeutet nicht nur, dass das Denken über die bloße Pragmatik hinausgeht, sondern, was noch wichtiger ist, dass das pragmatische Denken danach strebt, das Denken zu konstruieren, indem es anerkennt, dass künftige Handlungsweisen die Bedingungen des Wissens verändern können. Hier ist das Irrationale nicht jenseits des Denkens, sondern zeigt die fremden Möglichkeiten auf, die die allgemeine Praxis des Denkens bei der Vermittlung von technosozialem Wandel und Handeln bietet.

Wenn diese Kritik des maschinellen Lernens darauf abzielt, die Perspektiven auf die Möglichkeiten einer kritischen Theorie des automatischen Denkens zu verschieben, kann sie jedoch nicht die Tatsache übersehen, dass die algorithmische Kontrolle und Steuerung das Mikrotargeting von Bevölkerungen durch die Konstruktion alternativer Fakten beinhaltet, die darauf abzielen, bestehende Überzeugungen zu verstärken. Gleichzeitig zeigt die evolutionäre Dynamik des maschinellen Lernens, dass die Rechenzeit, einschließlich der verborgenen Schichten eines wachsenden Netzwerks, die Algorithmen auch dazu zwingt, den Zufall über das hinaus zu strukturieren, was bereits bekannt ist. Wenn eine Maschine mit Daten gefüttert wird, die bereits bekannten Kategorien, Klassen und Formen angehören, werden diese Daten, sobald der Rechenprozess beginnt, in eine algorithmische Assoziationssuche einbezogen, die kleinere Teile der Daten miteinander verbindet und der Gesamtberechnung versteckte Ebenen der Zeitlichkeit hinzufügt. Dadurch erhalten die Algorithmen Lernfähigkeiten, die über das hinausgehen, was in das System eingegeben wurde.

Wenn wir aus dieser Sicht argumentieren, dass Algorithmen geistlos und unbewusst sind, dann argumentieren wir auch, dass Computerkontrolle nur zur Reproduktion der ideologischen und diskursiven Machtstruktur führt, die die Daten aufrechterhalten sollten. Mit anderen Worten: Es ist unerheblich, ob behauptet wird, dass die Maschinenarchitektur von Algorithmen und Daten eine weitere Form des ideologischen Designs ist (durchdrungen von menschlichen Entscheidungen) oder dass Maschinen letztlich bewusstlos sind und daher empirisch handeln können (einfach um Daten zu verifizieren). Was hier zu fehlen scheint, ist eine spekulative Kritik des maschinellen Lernens, die Maschinen als mehr als bloße Instanzen des instrumentellen Denkens oder als Gefäße des Wissens betrachtet, die bestenfalls den Binaritäten der westlichen Metaphysik – deduktive Wahrheiten und induktive Faktenüberprüfung – folgen können, aber schneller. Diese Sichtweise zeigt zwar, dass der Nexus von Macht und Wissen gegenwärtig auf bestehenden Überzeugungen und granularen Datenaggregaten beruht, bietet aber keinen technologiekritischen Ansatz, der die Heideggersche Vorhersage beiseite schieben kann, dass die Aufgabe des Denkens durch die Technowissenschaft transformiert wird und die Wahrheit durch die Effizienz der Befolgung von Regeln ersetzt wird.

Eine kritische Theorie der Automatisierung sollte stattdessen mit dem Versuch beginnen, die autopoietische Diade des instrumentellen Denkens zu widerlegen, in der Maschinen entweder apriorisch denken oder die Regel der Vernunft (Gesetz und Wahrheit) auf rohe Gewalt und reaktive Antworten reduzieren. Mit anderen Worten, diese Kritik sollte die Ansicht zurückweisen, dass die Technowissenschaft den Traum der westlichen Philosophie von der Vernunft ergänzt, und stattdessen versuchen, das technowissenschaftliche Wissen und die philosophische Vernunft zu untergraben, indem mit den Grenzen der künstlichen Intelligenz experimentiert wird. Das Microtargeting von Bevölkerungen beinhaltet also nicht nur die Reproduktion von Vorurteilen in und durch Datenaggregate, sondern auch die algorithmische Ausarbeitung jeglicher Daten, die rassifiziert und geschlechtsspezifisch sein können und somit unter bestimmten Umständen als potenzieller Feind klassifiziert werden können.

Wie aber sind diese Zusammenhänge zwischen dem Ende von Wahrheit und Tatsache und der Umwandlung kybernetischer Binärzustände in Formen unbewusster Kognition und metakognitiver Lernverarbeitung zu verstehen, in denen Algorithmen nicht nur den Inhalt von Daten ausführen, sondern lernen, wie man lernt, und so lernen, wie man Unbestimmtheit in die Argumentation einbezieht? Reicht es aus, die gedankenlose technowissenschaftliche Quantifizierung vorgefasster Überzeugungen und Wünsche zu tadeln, oder sollten wir eine materialistische Darstellung der Technologie vornehmen, die mit einer sorgfältigen Untersuchung der Mittel beginnt, mit denen das Denken denkt?

Diese Fragen erfordern, dass wir unsere Aufmerksamkeit von der Art und Weise, wie intelligente Maschinen Wissen als eine Reihe von Fakten in Daten darstellen, auf eine materialistische Untersuchung des technischen Rahmens des Denkens in künstlichen neuronalen Netzen lenken. Man kann argumentieren, dass seit dem Zweiten Weltkrieg die algorithmischen Mittel des Denkens auch als eine Art des Denkens betrachtet werden sollten. Es stimmt, dass die meisten Algorithmen des maschinellen Lernens, wie z. B. die Algorithmen von Netflix, sich auf eine bestimmte Nutzung der Daten konzentrieren, indem sie heuristisch die Korrelation der Daten analysieren, statistisch abgleichen und so die Präferenzkategorien in den Daten vorhersagen, entsprechend dem, was bereits bekannt sein kann. Deep-Learning-Algorithmen – als Mittel zum Nachdenken über die Art und Weise des Denkens – umfassen jedoch nicht nur die prädiktive Inhaltsanalyse und das Mikro-Targeting der Datennutzung, sondern definieren auch die Tendenz der künstlichen Intelligenz zu abstrakten Methoden des Lernens über eine unendliche Vielfalt von kontextuellen Inhalten. Diese unendliche Vielfalt ergibt sich nicht nur aus der algorithmischen Erfassung der menschlichen Datennutzung nach Häufigkeit, Kontext und Inhalt, sondern hängt auch mit den Metawirkungen der Art und Weise zusammen, wie Algorithmen Wissen über diese Nutzungen erworben haben.

Im Gegensatz zu Empfehlungsalgorithmen präsentieren die RankBrain-Interpretationsalgorithmen, die das Google-Ranking unterstützen, beispielsweise nicht einfach nur Vorschläge. Vielmehr lösen sie eine meta-relationale Ebene der Inferenz aus – d. h. der Algorithmus versucht, unbekannte Zeichen zu erklären, um Informationen zu erhalten – durch hypothetische Vermutungen über die Daten, die eine algorithmische Suche nach nicht spezifizierten Wörtern, Ereignissen oder Dingen beinhalten, für die es möglicherweise keine genauen Suchbegriffe gibt. Im Gegensatz zur heuristischen Analyse von Datenkorrelationen zwischen einzelnen Sätzen, beweisen, verifizieren oder bestätigen diese interpretativen Algorithmen nicht einfach eine Hypothese, sondern müssen zunächst hypothetische Schlussfolgerungen auf der Grundlage dessen entwickeln, was andere Algorithmen bereits gesucht haben, um die mögliche Bedeutung von Informationen zu bestimmen, die in der Abfrage fehlen. Deep-Learning-Algorithmen arbeiten nach dem Prinzip, Überraschungsmomente zu finden – d. h. nicht bedachte Informationen -, die nur auftreten können, wenn das System in der Lage ist, die Mikroebenen der Zufälligkeit, die sich in riesigen Datenmengen manifestieren, zu erhalten, anstatt sie einfach als Fehler zu eliminieren.

Mit anderen Worten: Diese metakognitive Form der automatisierten Kognition ist nicht darauf ausgerichtet, Fehler zu korrigieren oder Zufälligkeiten zu eliminieren, sondern sie ist gleichgültig gegenüber dem entropischen Rauschen wachsender Datenmengen, insofern dieses Rauschen gerade Teil des Lernprozesses ist. Aus diesem Grund muss die experimentelle Hypothesenbildung die Unbestimmtheit beibehalten, damit sie Informationen mit Überraschungen verbinden kann. Während man annehmen könnte, dass diese Einbeziehung von Unbestimmtheit – oder Irrationalität oder unbewusster Aktivität – in den Rechenprozess nur eine weitere Manifestation der ultimativen Technokontrolle über die Realität ist, ist es hier wichtiger zu wiederholen, dass der Zufall den Kern der algorithmischen Vermittlung ausmacht und als solcher die Frage der erkenntnistheoretischen Autorität auf die zentrale Bedeutung der Kontingenz für das Funktionieren jedes rationalen Systems öffnet. Dies führt nicht zu einem zwangsläufigen Versagen des Systems – d.h. zu einer Panne oder einem Zusammenbruch der Ordnung -, sondern zu seiner hyperrationalen (oder surrationalen, um Bachelards Begriff aufzugreifen) Artikulation des Realen, des Unbekannten, des Nicht-Berechenbaren, in Form von technischen Vermittlungen, automatischen Updates und maschinellem Real-Werden in ihren offenkundig künstlichen Formen.

Anstatt allgemeine Ergebnisse auf der Grundlage bestimmter begrifflicher Assoziationen zu ermitteln, die sich aus der häufigen Verwendung bestimmter Inhalte durch Menschen und Maschinen ergeben, betrifft die Einbeziehung der Unbestimmtheit in das maschinelle Lernen die zeitliche Parallelität von Lernen und Datenverarbeitung. Dies wiederum bedeutet, dass Daten verarbeitet werden, die eine grundlegende Ebene der Rückmeldung auf der Grundlage eines bereits bekannten Ergebnisses überspringen.

Wir wissen, dass die RankBrain-Algorithmen auch als Signale bezeichnet werden, weil sie denAlgorithmen für das Seitenranking Hinweise auf den Inhalt geben: Sie suchen nach Wörtern auf einer Seite, nach Links zu Seiten, nach dem Standort des Nutzers, nach seinem Browserverlauf oder überprüfen die Domainregistrierung, doppelte Inhalte usw. Diese Hinweise wurden entwickelt, um den grundlegenden Page Rank-Algorithmus zu unterstützen, damit neue Informationsinhalte indiziert werden können14. Bei der Indexierung von Informationen soll RankBrain die Suchanfragen der Nutzer interpretieren, indem es durch die Verwendung von Synonymen oder Stemming-Listen Rückschlüsse auf den Inhalt von Wörtern, Phrasen und Sätzen zieht. In diesem Fall wird die Ausrichtung der algorithmischen Suche auf bereits geplante Ergebnisse mit einer algorithmischen Hypothese überlagert, die der Unbestimmtheit der Ergebnisse (Outputs) und zufälligen Mengen an Informationen ausgesetzt ist, die in den verborgenen Schichten der neuronalen Netze gespeichert sind. Bei der Indexierung werden beispielsweise Informationen an spärliche und präzise Abfragen angehängt, die dazu dienen, dem gesuchten Inhalt mehr kontextuelle Spezifität zu verleihen. Die RankBrain-Algorithmen basieren also nicht auf der Übereinstimmung von Konzepten, sondern auf der Unbestimmtheit der Ergebnisse.

Die Unbestimmtheit ist Teil der metakognitiven Synthese von Ratio und Logos geworden. Als solche ist sie ein aktives Element dieser künstlichen Form von Wissen-als-ob, in der die Speicherung von Unbekanntem zu hypothetischen Bedeutungsschlüssen führt: Die metakognitive Gleichgültigkeit gegenüber Wahrheit und Tatsachen kann somit die Möglichkeit beinhalten, instrumentelles Wissen als Erzeugung von Hypothesen neu zu erfassen, die in und durch die Mittel des Denkens wirken. Im Zeitalter der Post-Wahrheits-Politik definiert die Unbestimmtheit des maschinellen Lernens nicht die äußere Kontingenz, die die ansonsten stabile Steuerung von Informationen unterbricht. Vielmehr erfordert die Korrelation der “neuen Brutalität” von Fake- und alternativen Nachrichten mit einer zeitgenössischen Form der Automatisierung eine granulare Strukturierung des Unwissbaren, die die automatisierte Kognition über wissensbasierte Systeme hinausschiebt15. Die Unbestimmtheit ist daher der algorithmischen Generierung von Hypothesen inhärent, und daher kann die technowissenschaftliche Artikulation von Wahrheiten und Fakten nicht mehr auf sich wiederholende Funktionen und die Ausführung des bereits Bekannten reduziert werden. Daher muss die Korrelation zwischen Post-Truth-Politik und automatischer Kognition weiter erforscht, hinterfragt und neu entdeckt werden.

Wie Deleuze und Guattari uns daran erinnern, verurteilen wir das Denken zur Doxa, wenn wir einfach auf die vorherrschenden Formen unserer Epoche reagieren .16 Wenn insbesondere die vorherrschenden politischen Prinzipien der Lüge und der Einschüchterung durch ein ungezügeltes neoheuristisches Vertrauen in die algorithmische Suche erleichtert werden, würde dann eine nicht-reaktive Kritik die Philosophie außerhalb der Informationstechnologie stellen?

Deleuze und Guattari haben bereits bewiesen, dass sich die Philosophie direkt mit einem neuartigen dogmatischen Bild des Denkens auseinandersetzen muss, das von der kybernetischen Kommunikation geprägt ist, die Vergangenheit und Zukunft, Erinnerung und Hoffnung in einem kontinuierlichen Kreislauf der Gegenwart ständig miteinander verbindet. Um die Dominanz des Denkens der Gegenwart zu überwinden, bedarf es jedoch nicht der Rückkehr zur ewigen Wahrheit – zur Metaphysik der wahren Ideen -, die der Falschheit gegenübergestellt werden muss. Wenn die Kybernetik mit dem Informationsnetz des kommunikativen Austauschs zusammenfällt, das die Verbreitung von Meinungen und die Herstellung von Konsens begünstigt,17 muss sich die Philosophie umgekehrt bemühen, kritische Konzepte zu schaffen, die die Gegenwart aus den zukünftigen Denkbildern herausnehmen. Doch wie soll das geschehen?

Die Kritik von Deleuze und Guattari an der kommunikativen Gesellschaft ist eine Kritik der Informationswissenschaft, des Marketings, des Designs und der Werbung18. Sie verstehen Kommunikation als eine Erweiterung der Doxa, eines Modells der Wahrheitserkennung, in dem es eine endlose Wiederholung dessen gibt, was alle wissen, was die Umfrage sagt, was die Mehrheit glaubt. Deleuze und Guattari zufolge hat die Kommunikation die Philosophie verarmt und in die Mikrobewegungen des Denkens eingegriffen, indem sie die Zeit in eine chronologische Abfolge von Möglichkeiten verwandelt hat, in ein lineares Zeitmanagement, das auf dem beruht, was man sich bereits vorgestellt, gewusst oder erlebt hat. Deleuze und Guattari setzen dem entgegen, dass die Nicht-Zeitlichkeit mit der Gegenwart interagieren muss, um einer anderen Zeit, die kommt, Raum zu geben: der Zeit des Denkens der Zukunft.

In seinem Interview Über die neuen Philosophen und das allgemeinere Problem beklagt Deleuze insbesondere die Unterwerfung des philosophischen Denkens unter die Medien19, in denen das Schreiben und das Denken in ein kommerzielles Ereignis, eine Ausstellung, eine Werbung verwandelt werden. Deleuze besteht darauf, dass es in der Philosophie um die Bildung von Problemen und die Schaffung von Begriffen geht. Nur das unzeitgemäße Denken und die Nicht-Philosophie der Philosophie ermöglichen die Schaffung eines wirklich kritischen Konzepts. Doch wie lässt sich die vermeintliche Selbstevolution kritischer Begriffe, die sich außerhalb der technowissenschaftlichen Kommunikationsordnung befinden, umkehren? Kann ein wahrhaft kritischer Begriff die Gleichgültigkeit der neuen Brutalität unserer post-wahrheitlichen und post-faktischen, vom automatischen Denken angetriebenen Welt überleben? Hindert dieses Misstrauen gegenüber den Technowissenschaften die Philosophie letztlich daran, die kommende Welt zu konzipieren? Warum ignoriert die Philosophie weiterhin denkende Maschinen, die fremde Konzepte schaffen, und tut so, als ob Maschinen dazu nicht fähig wären?

Obwohl es sich um zwei völlig verschiedene Welten handelt, kann man bei Heidegger und Deleuze denselben Faden des Eintretens der Philosophie gegen die Technowissenschaft, gegen die Armut des Denkens im Zeitalter des automatischen Denkens verfolgen. Wenn die Heideggersche Unverborgenheit der Wahrheit letztlich einen unerreichbaren Zustand betrachtet, der durch das Bewusstsein der Endlichkeit (der westlichen Metaphysik und des Menschen) begrenzt ist, so tendiert die Deleuzesche Vision des Undenkbaren der Philosophie zur kreativen Entwicklung von Möglichkeiten, zur Konstruktion von begrifflichen Persönlichkeiten, die der Doxa der Gegenwart widerstehen und entgegenwirken.

Dennoch gibt es ein starkes Misstrauen gegenüber den Technowissenschaften. Insbesondere die in der kybernetischen und computergestützten Kommunikation eingebetteten Formen des instrumentellen Denkens werden hier immer noch mit Kontrolle als Herrschaft gleichgesetzt. Ebenso bleibt der Begriff eines Mittels oder Instruments der Steuerung – also der Informationstechnologie – eine Blackbox, die keinen anderen Zweck hat (selbst ein geistloser, unbewusster Automat) als den politisch inszenierten. Während es nicht möglich ist, die politischen Bedingungen der Wahrheit und der Fakten von der computergestützten Verarbeitung, Extraktion und Übertragung von Daten zu unterscheiden, scheint die Nichtberücksichtigung einer Denkweise, die aus den Werkzeugen oder Mitteln des Denkens hervorgeht, ebenso selbstbegrenzend zu sein.

Wenn das Recheninstrument mit der Kybernetik und dem Computer zu einer lernenden Maschine geworden ist, die die Technowissenschaft – die deduktive Logik der Wahrheit und der induktiven Fakten – herausfordert, dann auch deshalb, weil diese Form der Instrumentalität ihre eigene Argumentation hat, wobei sich das heuristische Testen auf die Generierung von Hypothesen verlagert hat, eine Denkweise, die über ihre Funktionsweise hinausgeht. Man könnte also argumentieren, dass diese instrumentelle Form des Denkens beim Erlernen des Denkens die ontische Bedingung transzendiert, in die sie durch das zeitgenössische Projekt der Philosophie eingeschrieben wurde.

Da Instrumente bereits Politik machen, stellt sich die Frage, wie die Brutalität der Instrumentalität von der bedeutungslosen Stimulierung von Überzeugungen und Wünschen auf eine Dynamik des Denkens umgelenkt werden kann, die die Neuformulierung – und nicht die Eliminierung – von Zielen ermöglicht. Eine Möglichkeit, eine Politik der Maschinen zu betreiben, besteht darin, eine Philosophie anderer Art zu entwickeln, die nicht nur vom Nicht-Denken im Denken ausgeht, sondern auch vom unmenschlichen Wesen der Instrumentalität, die die Entfremdung innerhalb des Denkens umfasst, was der Ausgangspunkt für die Vorstellung einer Technophilosophie sein könnte, einer Neuprogrammierung des Denkens durch und mit Maschinen. Wenn der Antagonismus zwischen Automatisierung und Philosophie auf der instrumentellen Nutzung des Denkens beruht, sollte die Technophilosophie nicht eine Opposition, sondern eine parallele Artikulation einer Philosophie der Maschinen vorschlagen, die zur Neuerfindung von Welten, Wahrheiten und Fakten beiträgt, die existieren und sich verändern können.

Die neue Brutalität der Technopolitik könnte dann durch eine Technophilosophie unterlaufen werden, deren Versuche, soziale Formen des instrumentellen Denkens neu zu erfinden, bereits in der Geschichte, den Kulturen und der Ästhetik zu finden sind und die Metaphysik der Gegenwart umkehren. Die Architektur des Neuen Brutalismus der 1950er und 1970er Jahre beispielsweise setzte ein Programm des technosozialen Lebens in Gang, das die sentimentale Bindung an das Ende der “Geistigkeit im Menschen” aufheben und die Norm des architektonischen Ausdrucks durch einen uneingeschränkten Funktionalismus, der die Strenge der Strukturen und Materialien zum Ausdruck bringt, transzendieren wollte.20 Der Neue Brutalismus der 1950er und 1970er Jahre beispielsweise war ein Programm des sozialen Lebens. Nicht nur der Funktionalismus, sondern vor allem der Aformalismus und die Topologie waren Teil der prozessualen Aktivitäten, die die Betrachtung des Zwecks durch neue Imaginationen der räumlichen Erfahrung von Wahrheiten und Fakten zu transzendieren suchten. Hier werden alle Medien parallelisiert oder aneinandergereiht, um ihre spezifischen Inhalte in einer aformalen Dimension zu vereinen – einer Dimension, die die Unvollständigkeit des Gesamtbildes der Gemeinschaft aufarbeiten könnte. Die Verschmelzung der materiellen Welt der belebten und unbelebten Medien bewahrt jedoch die implizite Komplexität dieser getrennten Teile, die dann die Vermittlungsformen von Wahrheiten und Tatsachen in viele verschiedene Richtungen revidieren können.

Die Architektur des Neuen Brutalismus verwandelt die Instrumente des Denkens in konkrete, modulare, miteinander verbundene Blöcke und in sich geschlossene Einzelzellen, die sich über das lokale Territorium erheben und durch himmelhohe Straßen oder Netzwerke von Korridoren, die zwischen den einzelnen Gebäudeteilen verlaufen, miteinander verbunden sind. Das instrumentelle Denken verwandelt hier die entropische Zersetzung der Nachkriegszeit, indem es die betondichte Schwere der Vergangenheit beibehält, um sie in strukturellen Experimenten mit Aufgabenfunktionen und einer Ästhetik der Transparenz aufzulösen. Wenn die Vision des Neuen Brutalismus die Militarisierung der Information erleichterte, dann nicht einfach, um die Informationstechnologie voranzutreiben, sondern vielmehr, um Modi des instrumentellen Denkens vorzuschlagen, die durch Entropie, Zufälligkeit oder Rauschen arbeiten, um Codes und Werte, Durchgänge und Brücken, Inhalte und Ausdrücke eines einheitlichen Bildes des Sozialen neu zu programmieren.

  1. M. Heidegger, Das Ende der Philosophie und die Aufgabe des Denkens, übersetzt. K. Michalski, in Texte: Literaturtheorie, Kritik, Interpretation, Nr. 4-5 (28-29), S. 9-26 .
  2. Ebd., S. 11 .
  3. Ebd., S. 12 .
  4. Ebd., S. 26 .
  5. Ebd.
  6. G. Deleuze, Das Denken und das Kino, Kap. 7, in Kino II. Bild-Zeit, übersetzt. J. Margasinski, Gdansk 2008. F. Laruelle, Der transzendentale Computer: Eine nicht-philosophische Utopie, übersetzt von. T. Adkins, Ch. Eby, Speculative Heresy, https://speculativeheresy.wordpress.com/2013/08/26/translation-of-f-laruelles-the-transcendental-computer-a-non-philosophical-utopia/.
  7. R. R. Kline, Der kybernetische Augenblick: Or Why We Call Our Age The Information Age, Baltimore 2015, S. 53 .
  8. Ibid, p. 56 .
  9. Ein System der künstlichen Intelligenz, das ein Bild mit einem Gesicht betrachtet, bei dem ein Auge im Schatten liegt, kann beispielsweise zunächst nur ein Auge sehen. Sobald es jedoch das Vorhandensein des Gesichts erkannt hat, kann es daraus schließen, dass das andere Auge wahrscheinlich auch vorhanden ist. In diesem Fall umfasst der Begriffsgraph nur zwei Ebenen – die Augenebene und die Gesichtsebene -, aber der Berechnungsgraph umfasst 2n Ebenen, wenn wir unsere Schätzung jedes Begriffs verfeinern, indem wir den anderen n-mal nehmen.
  10. A. Caliskan, J. J. Bryson, A. Narayanan, Semantics derived automatically from language corpora contain human-like biases, Science 356, no. 6334 (2017), pp. 183-86 .
  11. K. N. Hayles, Cognition Everywhere: The Rise of the Cognitive Nonconscious and the Costs of Consciousness, Neue Literaturgeschichte 45, Nr. 2 (2014).
  12. L. Daston, Die Herrschaft der Regeln, Vortrag, Wissenschaftskolleg Berlin, 21. November 2010 .
  13. K. N. Hayles, How We Think: Digitale Medien und zeitgenössische Technogenese, Chicago 2012 .
  14. R. Ridgway, From Page Rank to Rank Brain, 2017, https://machineresearch.wordpress.com/2016/09/26/renee-ridgway-title/.
  15. R. Braidotti, T. Vermeulen, J. Aranda, B. K. Wood, S. Squibb, A. Vidokle, Editorial: The New Brutality, e-flux journal 83 (Juni 2017) http://www.e-flux.com/journal/83/142721/editorial-the-new-brutality/.
  16. G. Deleuze, F. Guattari, Was ist Philosophie, trans. H. Tomlinson, G. Burchell, New York 1994, S. 99 .
  17. Ibid.
  18. Ebd., S. 10 .
  19. G. Deleuze, Über die neuen Philosophen und ein allgemeineres Problem, Discourse: Journal for Theoretical Studies in Media and Culture 20, no. 3 (1998).
  20. R. Banham, The New Brutalism: Ethic or Aesthetic?, London 1966 .
  21. Original here: https://www.minasmongrel.xyz/blog/luciana-parisi—przeprogramowanie-decyzjonizmu/