Im Sommer 2020 sorgte eine Software mit dem unscheinbaren Namen GPT-3 international für Schlagzeilen. Der Wirtschaftsmediendienst Bloomberg spekulierte sogar, dass man das Jahr weniger wegen der Pandemie oder Präsidentschaftswahl in den USA, sondern dem „Generative Pretrained Transformer“ erinnern könnte, zu diesem Zeitpunkt eines der mächtigsten Programme zur Verarbeitung natürlicher Sprachen.1 „GPT-3 kann absolut originelle, kohärente und manchmal sogar sachliche Prosa erzeugen“, staunte die New York Times.2 Die Software gehört zu einer Klasse von Deep Learning-Modellen, die auf keinen spezifischen Bereich der Zeichenverarbeitung eingeschränkt ist. Auf ein „Prompt“ hin, die Eingabe weniger Wörter, generiert sie selbsttätig Text: „Und nicht nur Prosa – sie kann Gedichte, Dialoge, Memes, Computercode und wer weiß, was sonst noch alles schreiben.“ Was sonst noch? – Die SZ half aus: „Kurzgeschichten, Songtexte, Betriebsanleitungen, Bilanzanalysen, juristisch korrekte Abhandlungen oder eine Harry-Potter-Fortsetzung im Stil von Raymond Chandler.“3
Obwohl Texte heute in der Regel am Computer verfasst werden, konnte die Literatur bisher weitgehend unbehelligt von den prophezeiten und tatsächlichen Errungenschaften der digitalen Rechnertechnologie leben. Anders als in der Musik oder Kunst tun sich die Programme mit der natürlichen Sprache nach wie vor schwer, deren semantische Dimension sie über syntaktische und statistische Relationen erschließen müssen. Zudem waren die Aufgaben gut verteilt: Während eine Spielart der experimentellen Literatur sich ab den 1960ern offensiv in den Dienst der Programmierung stellte, konnte der Mainstream fortfahren wie zuvor. Von der Arbeitsteilung profitierten beide Seiten. Sofern die konventionelle Literaturproduktion überhaupt von der computergenerierten Literatur Notiz nahm, durfte sie sich aufgrund einfacher oder inkohärenter Texte darin bestätigt sehen, dass die Transformation der natürlichen Sprache in digitalen Code sie gar nicht erst kümmern musste. Die digitale Literatur konnte sich dagegen in Abgrenzung zum Mainstream profilieren, und selbstgenügsam ein avantgardistisches Erbe für sich beanspruchen, ohne sich allzu ernsthaft darüber Rechenschaft abzulegen, dass die Avantgarden nach 70 Jahren (inzwischen sind es über 100) auch dem Wortsinn nach klassisch und ihre ästhetischen Verfahren zu Konventionen wie alle anderen geworden waren. Ein näherer Blick hätte zudem gezeigt, dass sich die avantgardistischen Verfahren gar nicht ohne weiteres mit computergenerierten vertragen. Die schärfste Kritik an der frühen Computerliteratur kam aus dem Feld der Neoavantgarden, nicht vom Mainstream.
Auf dem Feld des Natural Language Processing (NPL) war GPT-3, das längst durch mächtigere Programme überflügelt worden ist, nur eine jüngere Meldung in einer Reihe wundersamer Verheißungen über die Leistungsfähigkeit neuer maschineller Lernalgorithmen, die neben vielem anderen auch die Textproduktion revolutionieren sollen. Angesichts der Allgegenwart des Themas verwundert es kaum, dass in den letzten Jahren vermehrt Autorinnen und Autoren nicht nur fiktional in Romanen, sondern theoretisch in Bezug auf das eigene Handwerk des Schreibens nach der Bedeutung der KI fragen, in Deutschland etwa Ulla Hahn, Ernst-Wilhelm Händler oder Daniel Kehlmann.4 Die Nachricht, dass ein computergeneriertes Gedicht in die Anthologie des Lyrikwettbewerbs der Brentano-Gesellschaft aufgenommen wurde, lässt Hahn rätseln, ob Computer ihre Profession überflüssig machen werden. Offensichtlich sind die digitalen Technologien im literarischen Mainstream angekommen. Die Folgen sind aber von allgemeiner Tragweite. „Es gibt kaum einen Aspekt von menschlich ausgeführter Wissensarbeit, der nicht von GPT-3 infrage gestellt wird“, meinte Michael Moorstedt in der SZ, die Ehrfurcht schwang noch in jeder Zeile mit, ironiefrei sprach er von einer „Schöpfung“ und „Magie“ – was aber eben auch jene Qualitäten sind, die die eigene Tätigkeit des Schreibens erschüttern: „Wer nur ein bisschen Zeit mit dem Programm verbringt, sieht seine Zukunftsaussichten bröckeln.“
Wo die Zukunft ihre Federn lässt, kann es helfen, einen Schritt zurückzutreten. Angesichts der computergenerierten Literatur suggeriert die Distanz nicht nur eine bessere Übersicht, auch aus der Nahsicht stellte sich die Lage für einen Zeitgenossen wie Martin Heidegger noch eindeutig dar. 1962 kam er bündig zu dem Schluss: „Darum lässt sich ein Gedicht grundsätzlich nicht programmieren.“5
Die Anfänge der Computerliteratur
Drei Jahre zuvor, im Herbst 1959, war in Stuttgart – von Freiburg, wo Heidegger nach seiner Emeritierung und Rehabilitierung als NSDAP-Mitglied ab 1950 wieder unterrichten durfte, keine 150 Kilometer entfernt – der erste, an einer Rechenanlage generierte Textausschnitt in deutscher Sprache erschienen. Sein Autor, der Elektroingenieur und Informatiker Theo Lutz, der nach dem Erhalt seines Diploms im selben Jahr einen Job bei der Standard Elektrik Lorenz AG in Stuttgart-Zuffenhausen antrat, hatte Seminare bei Max Bense besucht. Bense hielt seit 1953 eine Professur für Wissenstheorie und Philosophie in der schwäbischen Metropole inne und versammelte als „großer Mittler“ (Ilse und Pierre Garnier) Neugierige und Professionelle aus Mathematik und Elektrotechnik einerseits, Literatur und Kunst andererseits. Obwohl Bense zeit seines Lebens nie lernte, einen Computer zu bedienen, hat er mit seiner rationalen und numerischen Ästhetik, die er seit Mitte der Fünfziger entwickelte und später auf den Begriff der Informationsästhetik brachte, der Computerliteratur den Boden bereitet und ihr ein unverzichtbares theoretisches Gerüst verliehen.
Als Lutz mit seiner Idee, einen „Text wie ein Künstler“ am Computer zu erzeugen, an Bense herantrat, empfahl ihm dieser, „erst einmal ein Vokabular anzulegen, und das Vokabular nimmt man nicht aus der Tageszeitung, sondern aus der Literatur. Herhalten musste Das Schloss von Kafka.“6 Bedeutsamer ist aber, dass Bense Lutz’ „Stochastische Texte“7 in die von ihm gegründete und gemeinsam mit Elisabeth Walther redigierte Zeitschrift augenblick. zeitschrift für tendenz und experiment aufnahm, wo die generierten Zeilen neben etablierten Größen des Literaturbetriebs erschienen, in der Herbstausgabe ’59 waren darunter Helmut Heißenbüttel, Nathalie Sarraute, Jean Genet und Bense selbst. Dass die Zeilen keinen kohärenten Sinn ergeben, irritierte nicht, sondern qualifizierte sie für die experimentelle Zeitschrift.
Heidegger hatte den Text höchstwahrscheinlich nicht wahrgenommen. Aber was heißt das? War er schlicht nicht up to date und sein Urteil schon empirisch falsch?
Heidegger hatte den Text höchstwahrscheinlich nicht wahrgenommen. Aber was heißt das? War er schlicht nicht up to date und sein Urteil schon empirisch falsch? Oder gibt es andere Gründe, dass Heidegger, der heute von vielen als der erste Philosoph betrachtet wird, der die Technik als ontologische Fragestellung ins Zentrum der Disziplin rückte, sich so sicher war, dass Dichtung und Programmierung unverträglich sind?
Im Folgenden inszeniere ich eine Konfrontation zwischen Bense und Heidegger, deren Pointe darin liegt, dass der Konflikt noch immer virulent ist. In aktuellen Debatten – dies zeigt GPT-3 – kehren sprach- und zeichentheoretische Probleme wieder, die schon die beiden Philosophen umtreiben. Eine ironische Volte des Erfolgs gegenwärtiger Sprachverarbeitungsprogramme liegt aus dieser Perspektive darin, dass sie die Bedeutung der Literatur eher unterstreichen, statt zu schmälern. Orientiert man sich am Stand der Technologie, rückt der Roman als Gattung der Stunde in den Blick, in der sich elementare Fragestellungen der algorithmischen Wissensproduktion und Probleme der Programmierung verdichten.
Die Transformation der Schrift
Der Titel von Heideggers Vortrag „Die überlieferte Sprache und die technische Sprache“ deutet schon an, dass sein Urteil sprachtheoretisch begründet ist. Die Übersetzung der natürlichen Sprache in digitalen Code perspektiviert Heidegger ausgehend vom „Bau und d[er] Leistung der Großrechenanlagen“, die die Schrift als „bloß zeichengebende Meldung“ verarbeiten. Die Formulierung ruft die Semiotik auf, wie sie Charles Sanders Peirce oder Charles W. Morris in der ersten Hälfte des 20. Jahrhunderts als Konkurrenzprojekt zur Hermeneutik mitbegründeten. In der Hermeneutik blieben die Zeichen auf Subjekte bezogen und mussten von diesen gedeutet werden. Die Semiotik erweiterte und differenzierte den Zeichenbegriff und machte Zeichenprozesse denkbar, die unabhängig von menschlichen Zuschreibungen quasi aus sich selbst heraus wirksam werden.
Informationstheorie und Kybernetik konnten darauf aufbauen. Die Entsemantisierung und Entgrenzung der Zeichen war eine Voraussetzung dafür, dass auch sprachliche Zeichen der mathematischen Berechenbarkeit zugeführt werden konnten. Claude E. Shannon erklärte die semantischen Aspekte der Sprache gleich auf der ersten Seite seiner gemeinsam mit Warren Weaver veröffentlichten Theorie der mathematischen Kommunikation (1949) für irrelevant. Während Shannon sich mit der Beschränkung auf syntaktische Relationen auf die Kommunikation als technischen Akt einer effizienten Übertragung konzentrierte, versuchten andere die Informationstheorie im Rahmen der Kybernetik auf die semantische und pragmatische Dimension der Sprache zu erweitern. Die Informationstheorie trug wesentlich dazu bei, dass der Begriff der Kommunikation auch über den Bereich der Sprache hinaus zu einem absoluten Begriff wurde, der unterschiedslos auf natürliche, technische und soziale Mechanismen, Organismen oder Systeme angewendet wurde. Der Aufstieg des Kommunikationsbegriffs dürfte ferner dazu beigetragen haben, dass der Fachterminus der „natürlichen Sprache“ in Reaktion auf die Entwicklung von Programmiersprachen gebräuchlich wurde, um gesprochene Sprachen von formalsprachlichen Notationen und Code zu unterscheiden; zumindest ist nicht evident, dass Programmiersprachen, denen die semantische und pragmatische Ebene natürlicher Sprachen fehlt, gleichfalls als Sprache bezeichnet werden sollen.
Das Modell einer Kommunikation als bloß zeichengebender Meldung tauchte ferner in Alan Turings Entwurf einer Universalmaschine auf, die alle Operationen als Instruktionen verarbeitet, die sich in eine endliche Abfolge einzelner, binär strukturierter Schritte zerlegen lassen. In seinem berühmten Simulationsspiel brachte Turing Mensch und Maschine in ein Kommunikationsverhältnis, das die Differenz zwischen beiden tilgen sollte. Turing traf spezifische Vorkehrungen, die das Gelingen des Simulationsspiels garantieren sollten. Seine fiktive Maschine operiert im Unendlichen, sie ist also immateriell, was seine Entsprechung in einem körperlosen Subjekt hat. Außerdem unterwirft Turing die Kommunikationssituation der Logik der Maschine, sodass sich der Mensch nach ihrer Funktionsweise richten muss. Mit der Zurückführung der Sprache auf logische, interpretationsfreie Zeichenoperationen ist der Reduktionismus der Turingmaschine absichtsvoll eingeschrieben.
Heideggers „technische Sprache“ referierte auf maschinenbasierte und digitale Formalisierungsversuche der Kommunikation, wie sie Shannon oder Turing vornahmen. Allerdings betont er, dass die natürliche Sprache die Formalsprachen umfasse, nicht aber umgekehrt. „Indessen stößt auch die Informationstheorie der Sprache notwendig an eine Grenze.“ Heidegger zitiert Carl Friedrich von Weizäcker: „jeder Versuch, einen Teil der Sprache (durch Formalisierung in ein Zeichensystem) eindeutig zu machen“, setze den Gebrauch der natürlichen Sprache voraus. Deshalb bleibe die überlieferte Sprache „gleichsam im Rücken aller technischen Umformung des Sprachwesens“ erhalten.
Die Unvereinbarkeit zwischen der Programmierung und Dichtung leitete Heidegger daraus ab, dass den Programmiersprachen kategoriale Grenzen gesetzt sind, die innerhalb der natürlichen Sprache liegen. Zur Dichtung gehöre es hingegen, dass sie die Sprache an ihre Grenzen führe und an ein Unaussprechliches oder Unsagbares rühre. Heideggers Urteil ist kein technisches, in dem es um Machbarkeitsfragen ginge, ob sich Worte am Computer manipulieren lassen. Unabhängig davon war es trotz Fiktionen wie der von Turings Universalmaschine Anfang der 60er noch keineswegs klar, was es hieß, dass Rechenmaschinen auch Text verarbeiten können. Selbst für Lutz hatte es Ende der 50er noch Neuigkeitswert, „dass sich die Verwendung programmgesteuerter elektronischer Rechenanlagen tatsächlich nicht nur auf Probleme beschränkt, die an den Begriff der Zahl gebunden sind“.8
Die Autorin als Programmiererin
Man ginge allerdings fehl, wenn man meint, dass sich die Positionen in Freiburg und Stuttgart vor diesem Hintergrund vermitteln ließen – etwa in dem Sinn, dass Heidegger mit der Dichtung Hölderlin oder Rilke im Kopf hatte. Bense ging dagegen im Anschluss an den deutschen Physiker Wilhelm Fucks von einer modernen Texttheorie aus, und verstand alle Schrifterzeugnisse, Werbung oder Poesie, als „gegliederte Menge von Elemente[n], also von Wörtern“: „Diese Definition sieht natürlich von Wörtern als Bedeutungsträgern völlig ab und fasst sie nur als schreibbare oder sprechbare linguistische Gebilde, sozusagen als pures sprachliches Material auf.“9 Nur so werde sie für „die Anwendung mathematischer Verfahrensweisen“ zugänglich. Analog zu Shannon konzentrierte sich Bense opportunistisch auf syntaktische und stochastische Relationen.
Bense führte darauf aufbauend die für ihn zentrale Unterscheidung zwischen einer natürlichen und künstlichen Poesie ein. Während erstere von einem Subjekt und der Welthaltigkeit (Referenzialität) der Worte ausging und sich mit Heideggers Verständnis der Dichtung in Einklang bringen ließe, gründete letztere auf der Programmierbarkeit von Texten. Bense begriff das Computerprogramm als abstraktes Prinzip, führte es aber dennoch als eigenständigen Akt in den Prozess der Texterzeugung ein. „Im Ganzen, so lässt sich vielleicht formulieren, unterscheidet sich die künstliche von der natürlichen Produktionskategorie durch die Einführung eines Vermittlungsschemas zwischen Schöpfer und Werk, bestehend aus Programm und Programmiersprache, womit eine ungewohnte Arbeitsteilung im ästhetischen Prozess verknüpft ist.“10 Möglicherweise ließen sich die Positionen zwischen Heidegger und Bense noch schlichten, indem man sie zwei unterschiedlichen Zuständigkeitsbereichen zuschlägt.
Allerdings waren Benses Kategorien mit einer starken Wertung versehen: Die natürliche Poesie gehöre der Vergangenheit an, mit der künstlichen formulierte er eine progressive Position. Im gemeinsam mit Reinhard Döhl verfassten Manifest „Zur Lage“, das 1965 in der Zeitschrift manuskripte erschien, wird der technische Aspekt der Programmierung normativ gesetzt: „Zur Realisation ästhetischer Gebilde bedarf es des Autors und des Druckers und des Malers und des Musikers und des Übersetzers und des Technikers und Programmierers.“11 Drei Jahre später spitzte der französische Ingenieur und Philosoph Abraham Moles, der die Informationsästhetik parallel in Frankreich entwickelte, die Neubestimmung zu: „Der Künstler wird nicht ersetzt, sondern versetzt. Demnach müsste er zum ‚Programmierer‘ werden.“12 Spätestens hier, mit der Autorin als Programmiererin, hätte Heidegger wohl Vorbehalte angemeldet.
Bense preschte noch weiter vor und erklärte das informationstheoretische Modell der Schrift zur Norm des Schreibens schlechthin. Bense vollzog damit jenen Schritt, den die Kybernetik schon in den Vierzigern vorbereitet hatte. Die informationstheoretische Modellierung der Sprache hatte von Anfang an eine Entsprechung in der Reformulierung des menschlichen Subjekts. 1943 stellten Warren McCulloch und Walter Pitts logische Notationen vor, mit der sie die neuronalen Aktivitäten des Gehirns in einfache, mathematisch darstellbare Aussagefunktion verwandelten. Neben Shannons Informationstheorie, Wieners behavioristischer Modellierung von Mensch, Tier und Maschine, gilt die Rückführung neuronaler Aktivitäten auf eine algebraische Schaltlogik zu den drei Bausteinen der Kybernetik. „Alles, was wir über Organismen lernen, führt uns nicht nur zu dem Schluss, dass sie analog sind zu Maschinen, sondern zu dem, dass sie Maschinen sind“, so fasste McCulloch die binäre Schaltlogik des Denkens 1955 zusammen: „Vom Menschen gemachte Maschinen sind keine Gehirne, aber Gehirne sind eine bisher kaum verstandene Art der Rechenmaschine.“13 In der Gegenüberstellung der überlieferten zur technischen Sprache ging es von Anfang an nicht nur um die Schrift, sondern im Zuge der Kybernetik als „larger theory of messages“ (Norbert Wiener) wurden auch der Mensch und der Begriff des Denkens umgedeutet.
Maschinenanaloges Schreiben
Bense unterzog seine Informationsästhetik mehreren Revisionen, in den späten 60ern übersetzte er die informationstheoretischen und kybernetischen Prämissen in die Poetik eines „maschinenanalogen Schreibens“. „Das intuitive intellektuelle Tun kann leicht als automatisches intellektuelles Tun gedeutet“ werden „und als stochastisches maschinell simuliert werden.“14 Während er mit der künstlichen Poesie noch von einer Arbeitsteilung ausging, die die Texterzeugung an den Computer delegierte, träumte er nun von einer Konvergenz: „Das Team ›Mensch-Maschine‹ ist zu einem wechselseitigen geworden, in dem die Maschine (wiederum: mindestens im Prinzip) nicht nur das Bewusstsein des Menschen simuliert, sondern der Mensch unter Umständen den Automatismus der Maschine nachahmt. Eine noch tiefere Partnerschaft lässt sich kaum denken.“
Bense entwarf das maschinenanaloge Schreiben als Simulationsspiel, das allerdings nur bedingt etwas mit dem Turings gemein hatte. Turings Frage nach der Ununterscheidbarkeit von Mensch und Maschine übersetzte sich bei Bense in eine erzwungene Verschmelzung, in der sich der Mensch der Funktionsweise des Computers anglich: Die Maschine simulierte scheinbar den Mensch, der Mensch die Maschine, was auf die Simulation dessen hinauslief, was die Kybernetik unter menschlichem Denken verstand.
Ein Beispiel der Konvergenz liefert Bense in Der Monolog der Terry Jo (1968), einer Hörspieladaption des Textes Vielleicht zunächst wirklich nur. Monolog der Terry Jo im Mercey Hospital (1963). Während die frühe Schrifttextversion noch im Stil der Konkreten Poesie gehalten ist, setzt das Hörspiel mit stochastischen Annäherungsstufen ein, wie sie Shannon in seiner Mathematischen Kommunikationstheorie vorstellte. In seiner Transformation des Alphabets in digitalen Code knüpfte Shannon an den russischen Mathematiker Andrej A. Markov an und erschloss die Schrift nach statistischen Gesetzmäßigkeiten (e ist z. B. der häufigste Buchstaben im Englischen, auf ein q folgt stets ein u etc.). Shannon begann mit einer gleichwahrscheinlichen Buchstabenverteilung („XFOML RXKHR…“); in einzelnen Annäherungsstufen führte er unterschiedliche statistische Werte ein und erhielt schließlich einen halbwegs lesbaren Satz, der seiner statistischen Herkunft zufolge gar keine Bedeutung haben kann, aufgrund seines Inhalts aber dennoch berüchtigt wurde: „THE HEAD AND IN FRONTAL ATTACK ON AN ENGLISH WRITER …“
Benses Hörspiel setzt identisch ein. Während der Übergang von einer unwahrscheinlichen Buchstaben- zu einer statistisch wahrscheinlichen Wortkette auf der Inhaltsebene die Rückkehr des Bewusstseins der Protagonistin Terry symbolisieren sollte, erklärte Bense die stochastische Schreibweise der letzten Annäherungsstufe zugleich zum produktionsästhetischen Prinzip des maschinenanalogen Schreibens. Als Resultat muss sich Benses Autor-Programmiererin die Gesetze der Logik und Statistik, auf der die stochastische Schreibweise fußt, antrainieren. Für Benses Poetik ist es nicht nötig, das Handwerk des Programmierens zu erlernen, die Pointe liegt darin, dass die Dichterin die Funktionsweise des Computers (hier die statistisch-stochastische Modellierung der Sprache) internalisiert. Selbst der mit Füller bewaffneten Hand (bei Bense ist es die Schreibmaschine) entströmt deshalb reine Maschinenschrift, die unterhalb der Schwelle zur Sinnhaftigkeit stillos dahinstottert: „denn wenn wer über was was weiß / dann auch wem anders / als ihm ich dieses / in den indes jene /das von zum so doch bald“, so lautet eine typische Sequenz in Terry Jo (1968). Die Sinnentstellung war kein Manko, sondern Ausweis der progressiven Ästhetik, die nach einer stochastischen Programmierbarkeit des Alphabets modelliert war. Den unwahrscheinlichen Wortfolgen verlieh Bense eine höhere „ästhetische Punktezahl“ als statistisch wahrscheinlicheren, wie sie konventionelle Prosa auszeichnet.15
Die Reproduktion der Realität
Im vorliegenden Kontext ist aber ein anderer Aspekt von Interesse: Würde man Bense und Heidegger miteinander konfrontieren, würde Bense sich mit dem maschinenanalogen Schreiben näher an der Realität wähnen als Heidegger mit der natürlichen Sprache. Das maschinenanaloge Schreiben will die Ordnung der Repräsentation hinter sich lassen. In seiner Rückführung der sprachlichen Zeichen auf stochastische Prinzipien entwickelte Bense eine semiotische Signaltheorie, die die Realität nicht nur repräsentierte, sondern synthetisch reproduzieren sollte: „Es handelt sich dabei also um einen Übergang von jener Zeichenwelt, die Realität bedeutet, zu einer Zeichenwelt, die Realität ist.“16 Die Hierarchien hatten demnach gewechselt: Die technische Sprache Benses operierte auf einer tieferen, gegenüber der natürlichen Sprache Heideggers vorgängigen Ebene. Die prälinguistischen Zeichen waren das „universale, nicht mehr tiefer zu legende Fundament“, das Bense der Wissenschaft, Ästhetik und menschlichen Realitätswahrnehmung unterschob.17
Benses Position war symptomatisch für den „cyborg-discourse“, den der Wissenschaftshistoriker Paul N. Edwards als Merkmal des Kalten Kriegs identifiziert. In der Nachkriegszeit führten Kybernetik und Computer zu einer Wissensproduktion, die der Simulation oft mehr Signifikanz als realen Ereignissen beimaß: „Im geschlossenen Horizont der unklaren Politik wurden Simulationen realer als die Realität selbst, da sich die nukleare Auseinandersetzung zu einem gänzlich abstrakten Stellungskrieg entwickelte. Simulationen – Computermodelle, Kriegsspiele, statistische Analysen, Diskurse über die nukleare Strategie – hatten in einer entscheidenden Hinsicht mehr politisches Gewicht und weitreichenderer kulturelle Auswirkungen als die Waffen, die nicht eingesetzt werden konnten.“18
Die epistemologischen Fallstricke von Benses „semiotischen Fundamentalismus“ können hier vernachlässigt werden.19 Es genügt der Hinweis, dass der stochastischen Modellierung der Sprache Grenzen gesetzt sind. Shannon betonte schon Mitte der 50er, dass die Reichweite seiner Stochastik allenfalls für kurze Buchstaben- und Wortsequenzen funktioniere, nicht für die globale Struktur von Texten. Die Problematik treibt noch die gegenwärtigen NPL-Modelle um. Mit seinem riesigen Volumen an Trainingsdaten, „ein Korpus von fast einer Billion Wörtern aus Texten, die aus dem Web abgesaugt wurden“20 und 175 Milliarden Parametern, die die Verhaltenswahrscheinlichkeit steuern, erhält GPT-3 die Kohärenz zwar mitunter über wenige Absätze aufrecht; die Vorgängerversion GPT-2 büßt schon nach wenigen Sätzen die inhaltliche Stringenz ein. Im Verhältnis zur Macht der Software fällt der Leistungssprung dennoch ernüchternd aus: „Zu wenig hat sich geändert. Das Hinzufügen von hundertmal mehr Eingabedaten hat geholfen, aber eben nur ein kleines bisschen.“21 Der vorherrschende Trend, die Verarbeitung natürlicher Sprache durch größere Datensätze, Modelle und mehr Rechenleistung zu lösen, wirft deshalb grundsätzliche Zweifel auf, ob die Entwicklungen mit einer Software wie GPT-3 auf einem zielführenden Pfad hin zu einer allgemeinen Intelligenz sind (die etwa Sprache tatsächlich versteht).
Für Bense und Heidegger waren technische Machbarkeitsfragen allerdings nicht von Belang. Bense eignete sich das stochastische Sprachmodell händisch an, um das Subjekt in die Technosphäre einzukapseln, was er zu der „großen Aufgabe einer philosophischen Anthropologie von morgen“ zählte. Seine Cyborg-Anthropologie setzte darauf, dass die kybernetischen Maschinen in die „Feinstrukturen der Welt, die immateriellen Bestandteile“ eindringen und eine ontologische Technosphäre hervorbringen, in der das „technische Sein umfassender ist als die Sphäre dessen, was man Natur oder was man Geist nennt. Technisches Sein umfasst beide.“22
Heidegger begriff die Dichtung als Gegenentwurf zur technischen Sprache und Kybernetik. Spätestens an dieser Stelle wird klar, dass die Frage, wer von beiden angesichts computergenerierter Gedichte falsch liegt, irreführend ist, weil beide von anderen Prämissen ausgehen und andere Zielsetzungen verfolgen. Bense und Heidegger repräsentieren zwei theoretische und poetologische Haltungen, die unvereinbar sind. In Bezug auf die Transformation der natürlichen Sprache in digitalen Code macht die Gegenüberstellung dennoch deutlich, dass Bense, im Versuch, das Schreiben maschinenkompatibel zu machen, zuallererst einen neuen Begriff der Literatur in Anschlag bringen musste.
Dichtung als Wahrheit oder Wahrscheinlichkeit
Der Kern der Transformation der natürlichen Sprache in digitalen Code war in Shannons wahrscheinlichkeitstheoretischer Reformulierung des Alphabets angelegt. Die statistisch-stochastische Modellierung des Alphabets veränderte den Status der linguistischen Zeichen. An die Stelle eines Kommunikationsakts, der eine Aussage über einen Sachverhalt trifft, trat die Botschaft als eine mögliche Aussage unter anderen (oder einer bestimmten Anzahl von Wahlmöglichkeiten). Was Shannon für das Alphabet leistete, übertrug die Kybernetik auf sämtliche Disziplinen und die Gesellschaft als Ganze. Sie ersetzte eine ontologische durch eine wahrscheinliche und eine referenzielle durch eine prozessuale Wissensordnung.
Wenn Heideggers Poetik mit der Benses kollidiert, dann also auch deshalb, weil Heidegger nach dem Wesen der Dichtung fragte, und das heißt nach einer Wahrheit. Unter Wahrheit verstand er den Akt einer Hervorbringung, den Technik und Poesie teilen, auch wenn sich ihr Modus darin fundamental unterscheidet. Genau das war für Heidegger aber die Bedingung, die Dichtung als stimmigen Gegenentwurf zur Technologie in Position zu bringen: „Weil das Wesen der Technik nichts Technisches ist, darum muss die wesentliche Besinnung auf die Technik und die entscheidende Auseinandersetzung mit ihr in einem Bereich geschehen, der einerseits mit dem Wesen der Technik verwandt und andererseits von ihm doch grundverschieden ist. Ein solcher Bereich ist die Kunst.“23 Demgegenüber fügte sich Benses maschinenanaloges Schreiben in die kybernetische Ordnung der Wahrscheinlichkeit und Vorhersage. Die Frage nach dem Wesen und der Wahrheit der Dichtung (Heidegger) wurde in das Problem ihrer Funktionsweise überführt, die ihr Modell in einem kalkulierbaren und automatisch generierbaren Prozess fand (Bense). Den epistemologischen Wechsel vom Sein (being) zum Machen (doing), den die Kybernetik in die Wissenschaften einführte, projizierte Bense auf die Ästhetik und Literatur.
Die Enden der Simulation
Inwiefern ist die Gegenüberstellung von Bense und Heidegger aber heute noch von Bedeutung? Zur Beantwortung dieser Frage sind weniger die Poetiken selbst von Interesse, sondern deren Beziehung zum Verhältnis der natürlichen und technischen Sprache, die Bense und Heidegger jeweils anders gewichten. Folgt man dieser Spur, scheint zunächst vieles dafür zu sprechen, dass Bense mit der technischen Sprache auf das richtige Pferd gesetzt hat. Das maschinenanaloge Schreiben mag zwar hinfällig sein. Angesichts heutiger Sprachmodelle, die einzelne Wörter beispielsweise statistisch in einem vektoriellen Raum repräsentieren, in denen ihnen jeweils hunderte Zahlenwerte zugeordnet sind, die sie in granulare Relationen zu den anderen in den Datensätzen enthaltenen Wörtern setzen, mutet eine händische Imitation stochastischer Gesetzmäßigkeiten abwegig an. Die Hypothese, dass außersprachliche Zeichen näher an der Wirklichkeit sind und diese sogar fundieren, scheint sich hingegen bestätigt zu haben.
Seit den Neunzigern haben Computer ihre Gehäuse verlassen und sind in Objekte eingewandert. Heute gewinnt die Technologie ihre Dominanz als adaptive Umgebungstechnologie: „verstrickt in diesen Datenfluss“, schreibt N. Katherine Hayles, „wird menschliches Verhalten zunehmend in das technologische Unbewusste integriert, das vermittels somatischer Reaktionen, haptischer Feedbacks, gestischer Interaktionen und einer Vielzahl anderer kognitiver Aktivitäten, die habituell und repetitiv sind, und daher unterhalb der Schwelle des bewussten Bewusstseins liegen.“24 Die Technologie operiert in einer Sphäre, die dem Bewusstsein der Subjekte und der alphabetischen Schriftkultur vorausgeht, sodass Subjektivierungsprozesse nun auch jenseits der menschlichen Wahrnehmung und hermeneutischer Sinnoperationen gestaltet werden.
Der Medienphilosoph Erich Hörl spricht von einer „technologischen Sinnverschiebung“, die einerseits ein Ende der Schriftkultur markiere und andererseits die Produktion eines neuen technologischen Sinns heraufbeschwöre, der „primär auf nicht-sprachlichen, unterschiedlichen, nicht-bezeichnenden Semiotiken wie Software und Programmiersprachen, Algorithmen, mathematischen Gleichungen, Diagrammen, Börsenindizes etc.“ basiere.25 In einem präzisen Sinn operiert die technische, nicht länger die natürliche Sprache im Rücken des Sprachwesens und der Subjekte. Hörl, der diese Position vertritt, sieht das vornehmlich in rechenbasierten und adaptiven Umwelten verwirklicht, die eigenständige Handlungsmächte darstellen und digitale Subjekte hervorbringen, mit denen tradierte Vorstellungen alphabetischer, humanistischer und souveräner Subjekte ihre Geltung einbüßen. Forciert wird das durch die rasante Verbreitung der KI in Militär, Finanzwirtschaft, Sicherheitspolitik, Polizei-, Versicherungs- oder Gesundheitswesen, die von einer neuen Ära der „Automatisierung der Automatisierung“ (Luciana Parisi) kündet.
Im Technokapitalismus liegt die Hegemonie heute eindeutig im Digitalen. Im Bereich der natürlichen Sprache – dies fand bereits Erwähnung – ist es dennoch gerade der Erfolg maschineller Systeme, der zunehmend auf Kritik stößt. Der Grund dafür ist das Problem der Verzerrung (bias), das Diskriminierungen reproduziert, sowie der bigger is better-Trend, der unter anderem auf den enormen (fossilen) Energieverbrauch der KI aufmerksam gemacht hat.
Mir geht es aber um eine andere Problematik, die die Beziehung der Programmiersprachen zur Realität betrifft. Die derzeitigen Sprachprogramme scheitern am Problem der Referenzialität. „Das Verständnis von GPT-3 gleicht einem Tunnelblick, der nur sieht, wie sich die Wörter zueinander verhalten; niemals ziehen sie aus all diesen Wörtern einen Schluss, der eine Aussage über die blühende und brummende Welt treffen würde. Es lernt über Korrelationen zwischen Wörtern, mehr nicht.“26 Gary Marcus und Ernest Davis sind keine KI-Verächter, sondern argumentieren, dass gegenwärtige Systeme wie das Deep Learning einer tatsächlichen künstlichen Intelligenz, die zum Beispiel auch der Sprache mächtig wäre, den Weg verstellt. Ihr Fazit fällt entsprechend rüde aus: GPT-3 sei eine „sprudelnde Quelle des Bullshits“ und allenfalls für surrealistisch anmutende Dichtung zu gebrauchen.
Das Wissen des Romans
Die Einsicht, dass maschinelle Sprachsoftware keinen Zugang zur Bedeutung hat, und den Zielen, Systeme mit einem allgemeinen Sprachverständnis zu entwickeln, deshalb nicht näherbringt, setzt sich zunehmend durch. Als Mitbegründer des Deep Learning erklärt etwa Yoshua Bengio, dass sich aus Text allein kein Sprachverständnis gewinnen lässt: „Um natürliche Sprache zu verstehen, muss man ein Modell der Welt haben. Man muss irgendwie ein Verständnis für die intuitiven Aspekte haben, wie die Dinge in der Welt funktionieren.“27 Bengio ist deshalb dazu übergegangen, sich mit der Programmierung außersprachlicher Faktoren und impliziten Wissensformen wie Common Sense, Kausalität oder Aufmerksamkeit zu beschäftigen.
Die Neuausrichtung der KI-Forschung ist bemerkenswert. Die Frage, ob sich ein intuitives Wissen der Welt oder Common Sense programmieren lassen, ist keineswegs neu, unterstreicht aber aktuell, dass offenbar ganz neue Formen der Programmierung notwendig sind, die jenseits deduktiver Verfahren liegen, auf denen die symbolische KI basiert oder induktiver Verfahren, mit denen die konnektivistische KI derzeitiger Sprachsysteme arbeitet. „Der Sprung zum allgemeinen ›gesunden Menschenverstand‹ ist etwas völlig anderes, und es führt kein bekannter Weg dorthin. Man darf mit gutem Grund skeptisch sein, dass ein solcher Algorithmus aus weiteren Bemühungen mit Deep Learning-Systemen oder einem anderen der heute gängigen Ansätze hervorgehen wird. Viel wahrscheinlicher ist es, dass ein großer wissenschaftlicher Durchbruch notwendig ist, und niemand hat derzeit die geringste Ahnung, wie dieser überhaupt aussehen könnte, oder weiß über die Details Bescheid, wie man dorthin gelangt.“28
Bedeutsam ist die Neuorientierung ferner, weil in der KI-Forschung offenbar wieder jene semantische und nicht-linguistische Dimension der Sprache Thema ist, die Shannons Informationstheorie und die frühe Computerliteratur methodisch ausgeschlossen haben. Die computergenerierte Literatur, die die Materialität, Objekthaftigkeit und Selbstreferenzialität der Schrift auf Kosten der Hermeneutik und Referenzialität aufgewertet hat, und meinte, so einen objektiven, kontrollierten und experimentell überprüfbaren Zugriff auf die Schrift zu erhalten, gerät nun vonseiten einer technologischen Avantgarde, wie sie Marcus, Davis oder Bengio vertreten, unter Legitimationsdruck. Offenbar greift es zu kurz, Schrift „als pures sprachliches Material“ (Bense) aufzufassen, oder davon auszugehen, dass das Geschriebene im Internet vollumfänglich vorliege, sodass es fortan genüge, das Gegebene nach der Vorgabe einer Regel oder eines Konzepts neu zu arrangieren. Letzteres hat Kenneth Goldsmith vorgeschlagen, und mit der Erklärung, dass Autorinnen deshalb heute „eher wie Programmierer denn als traditionelle Schriftsteller“ agieren, auch eine Maxime der Informationsästhetik wiederbelebt.29
Die Unzulänglichkeiten statistisch-induktiver Verfahren, Text aus Text zu generieren, werden vor allem anhand der Kategorien der Kohärenz und Konsistenz ersichtlich. Beide Kategorien bilden problematische Kenngrößen von Sprachverarbeitungsprogrammen, was sich auch darin niederschlägt, dass sie an der globalen Struktur längerer Text scheitern. Dies lässt sich auch dahingehend deuten, dass zu Beginn des 21. Jahrhunderts nicht länger Lyrik, die mit Zeilensprüngen syntaktische und semantische Inkohärenzen und Inkonsistenzen besser überspielen kann, sondern Prosa und Romane den Maßstab der computerbasierten Textverarbeitung bilden.
Das Unternehmen Elemental Cognition, das ein tatsächliches maschinelles Sprachverständnis erzielen will, wendet sich aus diesem Grund Romanen zu. Weil die Lektüre von Erzählungen und Romanen ein Weltwissen voraussetzt, das von außen an die Fiktionen herangetragen werden muss, sollen sie als Richtschnur für die maschinelle Sprachverarbeitung dienen. Der Roman adressiert jene Probleme, an der die Sprachsoftware scheitert: Fiktionale Erzählungen entfalten eine in sich geschlossene Welt, die offenbar alle nötigen Informationen enthält, die für ein Verständnis notwendig sind. Der Software bleibt die Darstellung allerdings unzugänglich, weil ihr im Gegensatz zu Menschen implizites Weltwissen fehlt, das die Schrift für Menschen transportiert. Die Analyse fiktionaler Erzählungen soll dem Unternehmen deshalb Aufschlüsse darüber geben, wie sich ein programmierbares Verständnis von Welt und Sprache erlangen lässt. „Originäre Geschichten sind informationsreich, nicht zu googeln und zentral für viele Anwendungen, was sie zu einem idealen Testobjekt für ein Leseverständnis macht.“30 Das Unternehmen beschränkt sich vorerst auf die Analyse, nicht die Generierung von Text.
David Ferrucci, CEO von Elemental Cognition, ist kein Unbekannter des Fachs. 2011 hat er als Leiter von IBMs Supercomputer Watson die TV-Quizshow Jeopardy! gewonnen, nach dem Sieg von IBMs Deep Blue über den amtierenden Schachweltmeister Gari Kasparow gilt das als weiterer Meilenstein in der Konkurrenzbeziehung zwischen Mensch und Maschine. Ferrucci unterscheidet vier Ebenen der Analyse, um den Programmen anhand von Erzählungen auf die Sprünge zu helfen: „Örtlichkeit: Wo befindet sich alles und wo ist sein Platz in der Geschichte? Zeitlichkeit: Welche Ereignisse treten wann auf? Kausalität: Wie führen Ereignisse mechanistisch zu anderen Ereignissen? Motivation: Warum entscheiden sich die Charaktere für bestimmte Handlungen?“ Der Fragekatalog illustriert, dass der Zugriff auf Texte rudimentär ist, hermeneutische, poetologische oder (sprach-)philosophische Fragen nach dem Sinn der Sprache oder Literatur stellen sich nicht. Auch das unterstreicht die anhaltende Kluft zwischen der natürlichen und technischen Sprache.
Erzählungen des Digitalen
Der entscheidende Aspekt für meine Argumentation liegt aber in dem simplen Befund, dass die Herausforderung der KI-Forschung in jenem außersprachlichen Bereich liegt, der die Vermittlungsprozesse selbst betrifft: die der Zeichen und Sprache zur Welt und die der Menschen zur Sprache, die wiederum nicht von ihrer Beziehung zur Welt zu trennen ist. Zwar steht außer Frage, dass das Digitale auch unabhängig von der Fähigkeit maschineller Lernsysteme, die natürliche Sprache zu modellieren, an ökonomischem und soziokulturellem Einfluss gewinnt. Die Organisation und Steuerung der Subjekte, Gesellschaften und Welt wird verstärkt über informationelle Datenströme und adaptive Umwelttechnologien realisiert.
In der Digitalökonomie werden Subjekte zudem als biometrische und datenbehavioristische adressiert und formiert, die Vorstellung des Menschen als sprachbegabtes Tier ist mit der Modellierung digitaler Subjekte erklärtermaßen Makulatur. Shoshana Zuboff spricht vom Problem der zwei Texte. Auf der Oberfläche und über Interfaces findet die Kommunikation wie gewohnt in der natürlichen Sprache statt, während im Hintergrund ein „Schattentext“ entsteht.31 Die digitalen Subjekte werden zur Kommunikation animiert, sollen darin aber in dem was und wie es gesagt wird, zuallererst zu Datenspenderinnen werden. „Nicht was in ihren Sätzen steht, zählt, sondern deren Länge und Komplexität, nicht was Sie auflisten, sondern die Tatsache, dass sie eine Liste aufstellen.“ Die Überwachung, auf die Zuboff abhebt, ist nur ein Aspekt. Die umfassendere Bedeutung des Digitalen liegt darin, dass der Datenbehaviorismus die Subjekte, die er kontrolliert, durch das digitale Erfassungsregime überhaupt erst als solche hervorbringt.
Dennoch legen die derzeitigen Forschungen im Bereich der maschinellen Lernsysteme nahe, dass es verfrüht wäre, der natürlichen Sprache angesichts der Allgegenwart digitaler Datenströme ihre Bedeutung abzusprechen. Dass die alphabetische Schrift- und Bedeutungskultur bislang unhintergehbar ist, zeigt sich schon daran, dass die Reflexion über die technologische Sinnverschiebung selbstverständlich im Medium der natürlichen Sprache stattfindet (gerade auch dort, wo ihr Ende behauptet wird). Dass die Systeme an der Bedeutung und Referenzialität des linguistischen Zeichensystems scheitern, spricht nicht nur gegen die Universalität des digitalen Codes, sondern erhärtet, dass sich dessen Grenzen im Medium der natürlichen Sprache aufzeigen und reflektieren lassen, nicht in der Programmierung.
In Bezug zur Literatur ist hier vor allem die Fähigkeit der Sprache im Kontrast zur Programmierung zu betonen, „von der Sprache selbst zu sprechen, ohne die Sprache zu wechseln (eine Möglichkeit, die den formalen Sprachen abgeht).“32 Dieser Aspekt ist wesentlich, denn er macht auch deutlich, dass mit der natürlichen und technischen Sprache unterschiedliche Vermittlungsformen zur Disposition stehen. Die natürliche Sprache und der digitale Code stellen zwei unterschiedliche Modi dar, wie Subjekte, Natur und Welt relational zu denken und zu erschließen sind. Zur Sprache gehört es, dass sie ihre eigene Vermittlungsleistung und die Verkettung von Sätzen im Vollzug des Sprechens und Schreibens reflektieren und problematisieren kann.
Darüber hinaus lässt sich festhalten, dass die natürliche Sprache nicht nur im Rücken des Digitalen erhalten bleibt, sondern in dessen Zentrum wirksam ist. Das Digitale lässt sich nicht auf das Technische beschränken, sondern erhält seine Bedeutung und Ausrichtung im Rahmen soziokultureller Zuschreibungen, was über Metaphern, aber vor allem über die Kulturtechnik des Erzählens geschieht. Mythische Versprechen wie die eines universalen oder allmächtigen Codes sind nur ein Beispiel für die strukturelle Bedeutung von Narrativen für die Technowissenschaften. Nennen lässt sich außerdem die Science-Fiction, die zur Produktentwicklung oder Kommunikation von Ideen und Visionen eingesetzt wird; innerhalb internationaler Forschungslabore stiftet sie einen Gemeinsinn und schwört Forschende auf geteilte Ziele ein. Die Abhängigkeit der Digitalökonomie von Erzählungen zeigt sich aber auch im unternehmerischen Storytelling. Innerhalb einer Branche, in der Investitionsgelder und Börsenindizes auch von den Fiktionen abhängen, die über Unternehmen und Produkte zirkulieren, sind sowohl Start-ups als auch die Giganten auf die Kunst des Erzählens angewiesen (vgl. dazu jüngst Robert J. Shiller, Narrative Economics. How Stories Go Viral & Drive Major Economic Events). Die Techkonzerne gehören vermutlich zu den letzten, die in das Lied vom Ende der alphabetischen Schrift- und Sinnkultur einstimmen würden.
Die Erzählungen, die die Techbranche verbreitet, sind nur ein Bereich, der die Verflechtungen von digitalem Code und natürlicher Sprache vor Augen führen. Der digitale Code mag die Sprache in vielerlei Hinsicht unterlaufen, umgekehrt trägt dies aber dazu bei, dass das Technische immer wieder übersetzt und in Sinnzusammenhänge eingefügt wird. Für Romane, die sich der technologischen Sinnverschiebung widmen, scheinen die vielschichtigen Austausch- und Übersetzungsprozesse zwischen digitalen Datenströmen, adaptiven Umwelten, der natürlichen Sprache und Subjekten, die von informationellen und alphabetischen Daten- und Zeichenprozessen durchkreuzt werden, zahlreiche Ansatzpunkte zu bieten.
Dennoch schließe ich mit einer anderen Beobachtung. Sie betrifft den simplen Umstand, dass der Roman, orientiert man sich an der Forschung im Bereich der maschinellen Sprachverarbeitung, in eine Avantgardeposition gehoben wird, sofern man darunter nicht mehr als den Anspruch der ersten Avantgarden versteht, dass die Literatur sich an den technomedialen Entwicklungen der Zeit orientieren müsse. Folgt man der avancierten Forschung, wie sie etwa Bengio oder Elemental Cognition vertreten, resultiert die erkenntnistheoretische Bedeutung des Romans weniger aus Aspekten, die gemeinhin mit avantgardistischen Poetiken verknüpft werden, sondern die den Roman von Anfang an umtreiben (berühmt etwa schon in Miguel de Cervantes Don Quijote). Die Aspekte betreffen die grundsätzliche Beziehung der Sprache und von Fiktionen zu materiellen und sozialen Wirklichkeiten und welche Rolle der Mensch darin als sprachbegabtes Wesen einnimmt.
Das heißt keineswegs, dass der Roman von den technologischen Sinnverschiebungen des Digitalen unberührt bliebe. Dennoch lässt sich folgern, dass das literarische Schreiben dort, wo es sich auf das Digitale einlässt, und sich von den Übersetzungen der Sprache in digitalen Code, sowie den Steuerungs- und Kontrollfunktionen, die dieser in der Gestaltung rechenbasierter Umgebungstechnologien und digitaler Subjekte übernimmt, affizieren und infrage stellen lässt, Problematiken in sich aufnehmen, reflektieren und zur Darstellung bringen kann, die im Zentrum der technologischen Umbrüche und Sinnverschiebungen stehen. Der Akt, die technologische, datengesättigte Verfasstheit der Welt in die natürliche Sprache und Erzählungen zu übersetzen, oder jene Erzählungen zu befragen, mit denen die Digitalökonomie den Einsatz und die Entwicklung von Technologien legitimiert und vorantreibt, unterstreicht ferner, dass die Technologien niemals einfach gegeben oder unumgänglich, sondern veränderbar sind und sich somit auch immer anders gestalten, verwenden und erzählen lassen.
* * *
1) Tyler Cowen, „Artificial Intelligence Is the Hope 2020 Needs“, in: Bloomberg 21.7.2020, {https://www.bloomberg.com/opinion/articles/2020-07-21/artificial-intelligence-offers-the-hope-2020-needs}.
2) Farhad Manjoo, „How Do You Know a Human Wrote This?“, in: New York Times 29.7.2020, {https://www.nytimes.com/2020/07/29/opinion/gpt-3-ai-automation.html}.
3) Michael Moorstedt, „Federhalter“, in: Süddeutsche Zeitung 6.8.2020, S. 9.
4) Ulla Hahn, „Vernunft ist auch eine Herzenssache“, in: FAZ 10.3.2019; Ernst-Wilhelm Händler, „Die Literatur in Zeiten der Internetplattformen“, in: Volltext 3 (2018), {https://volltext.net/texte/die-literatur-in-zeiten-der-internetplattform-gesellschaften/}; Daniel Kehlmann, Mein Algorithmus und Ich. Stuttgarter Zukunftsrede, Stuttgart 2021.
5) Martin Heidegger, Überlieferte Sprache und technische Sprache, St. Gallen 1989, S. 25.
6) „Maschinensprache – Nachrichten aus der ›Galeere‹. Interview mit Elisabeth Walther, Walter Knödel und Rul Gunzenhäuser“, in: Barbara Büscher u.a. (Hg.), Ästhetik als Programm. Max Bense/Daten und Streuung, Berlin 2004, S. 130–140, S. 134 u. S. 136.
7) Theo Lutz, „Stochastische Texte“, siehe: {https://www.stuttgarter-schule.de/lutz_schule.htm}; {https://zkm.de/de/werk/stochastische-texte}.
8) Lutz, „Stochastische Texte“.
9) Max Bense, „Die Gedichte der Maschine der Maschine der Gedichte. Über Computer-Texte“, in: ders., Die Realität der Literatur. Autoren und ihre Texte, Köln 1971, S. 74–98, S. 77.
10) Max Bense, Aesthetica. Einführung in die neue Ästhetik [1965], Baden-Baden 1982, S. 338.
11) Max Bense, Reinhard Döhl, „Die ›Stuttgarter Gruppe‹. Zur Lage“, in: manuskripte. Zeitschrift für Literatur, Kunst und Kritik 13 (1965), S. 2.
12) Zit. n. Büscher, Ästhetik als Programm, S. 214–219, S. 219.
13) Zit. n. Erich Hörl, „Das kybernetische Bild des Denkens“, in: ders., Michael Hagner (Hg.), Die Transformation des Humanen. Beiträge zur Kulturgeschichte der Kybernetik, Frankfurt a.M. 2008, S. 163–197, S. 175.
14) Bense, „Die Gedichte der Maschine“, S. 92 u. S. 96.
15) Claus Pias, „›Hollerith gefiederter Kristalle‹. Kunst, Wissenschaft und Computer in Zeiten der Kybernetik“, in: Hagner, Hörl (Hg.), Transformationen des Humanen, S. 72–106, S. 85.
16) Bense, Aesthetica, S. 63.
17) Max Bense, Das Universum der Zeichen, Baden-Baden 1983, S. 133.
18) Paul N. Edwards, The Closed World. Computers and the Politics of Discourse in Cold War America, Cambridge 1997, S. 14.
19) Dieter Mersch, „Benses existenzieller Rationalismus. Philosophie, Semiotik und exakte Ästhetik“, in: Elke Uhl, Claus Zittel (Hg.), Max Bense. Weltprogrammierung, Stuttgart 2018, S. 61–81, S. 65.
20) Tiernan Ray, „OpenAI’s gigantic GPT-3 hints at the limits of language models for AI“, 1.6.2020, {https://www.zdnet.com/article/openais-gigantic-gpt-3-hints-at-the-limits-of-language-models-for-ai/}
21) Gary Marcus, Ernest Davis, „GPT-3, Bloviator: OpenAI’s language generator has no idea what it’s talking about“, 22.8.2020, {https://www.technologyreview.com/2020/08/22/1007539/gpt3-openai-language-generator-artificial-intelligence-ai-opinion/}.
22) Max Bense, „Kybernetik oder die Metatechnik einer Maschine“, in: Merkur 5 (1951), S. 205–218, S. 218.
23) Martin Heidegger, „Die Frage nach der Technik“, in: ders., Vorträge und Aufsätze, GA Bd. 7, Frankfurt a. M. 2000, S. 5–36, S. 36.
24) N. Katherine Hayles, „Trauma in Code“, in: Critical Inquiry 33/1 (2006), S. 136–157, S. 140.
25) Erich Hörl, „Introduction to General Ecology. The Ecologization of Thinking“, in: ders., James Burton (Hg.), General Ecology. The New Ecological Paradigm, London 2017, S. 1–74, S. 16.
26) Marcus, Davis, „GPT-3, Bloviator“.
27) Yoshua Bengio, „Deep Learning Cognition, Full Keynote – AI in 2020 & Beyond“, 27.2.2020 (Video), {www.youtube.com/watch?v=GibjI5FoZsE}.
28) Erik J. Larson, The Myth of Artificial Intelligence. Why Computers Can’t Think the Way We Do, London 2021, S. 2.
29) Kenneth Goldsmith, Uncreative Writing. Sprachmanagement im digitalen Zeitalter, Berlin 2017, S. 13.
30) Jesse Dunietz, „The field of natural language processing is chasing the wrong goal“, 31.7.2020, {www.technologyreview.com/2020/07/31/1005876/natural-language-processing-evaluation-ai-opinion/}.
31) Shoshana Zuboff, Das Zeitalter des Überwachungskapitalismus, Frankfurt, New York 2018, S. 217 f. u. 316.
32) Luc Boltanski, Soziologie und Sozialkritik, Berlin 2010, S. 111.
* * *