% Die Kaleidoskop-Begrenzung: automatisierte Künste, aus ihren Sackgassen betrachtet % Florian Cramer, 2020 + Versionsupdate im April 2024 **Charlie (Informator 0):** _Alle Verfahren der automatischen Erzeugung von Texten, Bildern, Tönen sind gepimpte Kaleidoskope. Mit ihnen generierte Texte, Bilder und Töne mögen eine gewisse Zeit lang interessant sein, vielleicht amüsieren, sogar fesseln, doch stellt sich ab einem Punkt Ennui ein. Der Fortschritt rechnerisch komplexer KI- (bzw. Machine-Learning-) Verfahren gegenüber einfacher Würfelkombinatoriken bestejt darin, diesen Punkt weiter hinauszuzögern. In Anlehnung an Platons Höhlengleichnis, John Searles chinesisches Zimmer und diverse zeitgenössische KI-Debatten könnte man zwar argumentieren, dass dieser Ennui sich ästhetisch und erkenntnistheoretisch neutralisiert, sobald sein Hinauszögern eine kritische Spanne - wie zum Beispiel ein Menschenleben - überdauert. Aber dies ändert nichts am Befund der kaleidoskopischen Beschränktheit generativer Systeme. Ihre strukturelle Begrenzung liegt darin, nichts anderes zu können als einmal gesampletes Datenmaterial - ihre Kaleidoskop-Farbscheiben - endlos zu remixen, in einer Poetik ewiger Wiederkehr des Gleichen, algorithmischer posthistoire kultureller Produktion und strukturalistischem Gefängnis textueller Selbstähnlichkeit; wobei - im Gegensatz zu herkömmlichen intertextuellen Poetiken und Recycling-Ästhetiken - die jeweiligen Remix-Verfahren (bzw. -Algorithmen) sich innerhalb eines Systems nicht weiterentwickeln, sondern wie in einem Leierkasten dieselben bleiben._ **Informator 1:** Die kaleidoskopische Begrenztheit und der Leierkasten-Ennui verfolgen mich seit meiner Dissertation aus dem Jahr 2006, in der ich versuchte, eine Geschichte der programmierten und sich technisch selbst ausführenden Literatur von Ramon Llulls mittelalterlicher _ars_, der lullistischen ars combinatoria der frühen Neuzeit bis zu zeitgenössischer Netzkunst zu schreiben, einschließlich ihrer Vorläufer in antiker und mittelalterlicher Poesie und Mystik. Seitdem habe ich mich nur noch gelegentlich mit diesem Thema beschäftigt, denn meine Arbeit endete mit dem Befund einer Sackgasse: dass sich durch die zwar lange, aber meistens übersehene Geschichte dieser Literatur eine strukturelle Kluft zieht zwischen - einerseits - spekulativer Imagination unendlicher Kräfte und Potentiale automatisierter Spracherzeugung und - andererseits - den Ergebnissen ihrer Experimente, die diese Erwartungen enttäuschen. Von der Frühen Neuzeit bis zur Gegenwart endete noch jede generative Kunst als Leierkasten und entzauberte sich in ihrer kaleidoskopischen Begrenztheit. Die Poetiken automatisierter Literatur sind deshalb oft interessanter als ihre Poesie. Mit Renate Lachmann las ich sie als phantastische Literatur, mit Gert Mattenklott als Teil einer literarischen Anthropologie spekulativen Denkens. Während Mattenklott sein Konzept an Ästhetizismen der Moderne entwickelt hatte, wandte ich es auf Poetizismen an, also auf Extremformen experimentellen Schreibens, beziehungsweise "schreiberlicher" ['scriptible'] Texte im Sinne von Roland Barthes. Die spekulative Qualität kombinatorisch-generativer Textautomaten-Poetiken lag zum Beispiel darin, dass eine simple Wortpermutation - d.h. die Vertauschung der Reihenfolge von Wörtern in einem Satz oder Gedichtvers - mit radikal unterschiedlichen Bedeutungen aufgeladen sein konnte, je nach Poetik oder Jahrhundert. Formal identische Wortumstellungen konnten mystizistisch oder rationalistisch sein, ekstatisch oder konstruktivistisch, Regelwerk oder Zufall, Regime oder Anarchie, satanisch oder christlich, klassizistisch oder antiklassizistisch. **Informator 2:** Eine Gelehrtensatire aus Jonathan Swifts _Gullivers Reisen_ fasst die frühneuzeitliche ars combinatoria wie folgt zusammen: **Charlie (Informator 0):** *Alle Verfahren der automatischen Erzeugung von Texten, Bildern, Tönen sind gepimpte Kaleidoskope. Die mit ihnen generierten Texte, Bilder und Töne mögen eine gewisse Zeit lang interessant sein, vielleicht amüsieren, sogar fesseln, doch stellt sich ab einem gewissen Punkt Ennui ein. Der Fortschritt rechnerisch komplexer KI- (bzw. Machine-Learning-) Verfahren gegenüber einfachen Würfelkombinatoriken besteht darin, diesen Punkt weiter hinauszuzögern. In Anlehnung an Platons Höhlengleichnis, John Searles chinesisches Zimmer und diverse zeitgenössische KI-Debatten könnte man zwar argumentieren, dass dieser Ennui sich ästhetisch und erkenntnistheoretisch neutralisiert, sobald sein Hinauszögern eine kritische Spanne, wie zum Beispiel ein Menschenleben, überdauert. Dies ändert jedoch nichts am Befund der kaleidoskopischen Beschränktheit generativer Systeme. Ihre strukturelle Begrenzung liegt darin, nichts anderes zu können als einmal gesampletes Datenmaterial - ihre Kaleidoskop-Farbscheiben - endlos zu remixen, in einer Poetik ewiger Wiederkehr des Gleichen, algorithmischer posthistoire kultureller Produktion und einem strukturalistischen Gefängnis textueller Selbstähnlichkeit; wobei - im Gegensatz zu herkömmlichen intertextuellen Poetiken und Recycling-Ästhetiken - die jeweiligen Remix-Verfahren (bzw. -Algorithmen) sich innerhalb eines Systems nicht weiterentwickeln, sondern wie in einem Leierkasten dieselben bleiben.* **Informator 1:** Die kaleidoskopische Begrenztheit und der Leierkasten-Ennui verfolgen mich seit meiner Dissertation aus dem Jahr 2006. In ihr hatte ich versucht, eine Geschichte der programmierten und sich technisch selbst ausführenden Literatur von Ramon Llulls mittelalterlicher *ars*, der lullistischen ars combinatoria der frühen Neuzeit bis zu zeitgenössischer Netzkunst zu schreiben, einschließlich ihrer Vorläufer in antiker und mittelalterlicher Poesie und Mystik. Seitdem habe ich mich nur noch gelegentlich mit diesem Thema beschäftigt. Denn meine Arbeit endete mit dem Befund einer Sackgasse: dass sich durch die zwar lange, aber meistens übersehene Geschichte dieser Literatur eine strukturelle Kluft zieht, zwischen - einerseits - spekulativer Imagination unendlicher Kräfte und Potentiale automatisierter Spracherzeugung und - andererseits - den Ergebnissen ihrer Experimente, die diese Erwartungen enttäuschen. Von der Frühen Neuzeit bis zur Gegenwart endete noch jede generative Kunst als Leierkasten, und entzauberte sich in ihrer kaleidoskopischen Begrenztheit. Deshalb sind Poetiken automatisierter Literatur oft interessanter als ihre Poesie. Mit Renate Lachmann las ich sie als phantastische Literatur, mit Gert Mattenklott als Teil einer literarischen Anthropologie spekulativen Denkens. Während Mattenklott sein Konzept an Ästhetizismen der Moderne entwickelt hatte, wandte ich es auf Poetizismen an, also auf Extremformen experimentellen Schreibens, beziehungsweise "schreiberlicher" \['scriptible'\] Texte im Sinne von Roland Barthes. Die spekulative Qualität kombinatorisch-generativer Textautomaten-Poetiken lag zum Beispiel darin, dass eine simple Wortpermutation - d.h. die Vertauschung der Wortreihenfolgen in einem Satz oder Gedichtvers - mit radikal unterschiedlichen Bedeutungen aufgeladen sein konnte, je nach Poetik oder Jahrhundert. Formal identische Wortumstellungen konnten mystizistisch oder rationalistisch sein, ekstatisch oder konstruktivistisch, Regelwerk oder Zufall, Regime oder Anarchie, satanisch oder christlich, klassizistisch oder antiklassizistisch. **Informator 2:** Eine Gelehrtensatire aus Jonathan Swifts *Gullivers Reisen* fasst die frühneuzeitliche ars combinatoria wie folgt zusammen: "Der erste Professor, den ich sah, befand sich in einem sehr großen Zimmer und war von vierzig Schülern umgeben. Nach der Begrüßung bemerkte er, daß ich angelegentlich einen Rahmen betrachtete, der den größten Teil der Länge und Breite des Zimmers einnahm. \[...\] Jedermann wisse, wie mühevoll die gewöhnliche Methode sei, Kenntnisse auf dem Gebiet der Geistes- und Naturwissenschaft zu erwerben; dagegen könne durch seine Erfindung auch die unwissendste Person mit mäßigem Kostenaufwand und ein bißchen körperlicher Arbeit auch ohne die geringste Hilfe von Begabung oder Studium Bücher über Philosophie, Poesie, Politik, Recht, Mathematik und Theologie schreiben. Dann führte er mich zu dem Rahmen, um dessen Seiten alle seine Schüler in Reihen standen. Er war zwanzig Fuß im Quadrat und stand in der Mitte des Zimmers. Die Oberfläche setzte sich aus verschiedenen Holzstücken von etwa der Größe eines Würfels zusammen, aber einige waren größer als andere. Sie waren alle durch dünne Drähte miteinander verbunden. Diese Holzstücke waren an jeder Seite mit Papier beklebt, und auf diese Papiere waren alle Wörter ihrer Sprache in ihren verschiedenen Modi, Tempora und Deklinationen geschrieben, aber ohne jede Ordnung. Der Professor bat mich dann achtzugeben, denn er wolle seinen Apparat in Betrieb setzen."[^1] Diese Satire trifft, weil sie den frühneuzeitlichen Lullismus nicht etwa grotesk überzeichnet, sondern faktengetreu wiedergibt. Im 17. Jahrhundert hatte der deutsche Universalgelehrte Johann Joachim Becher einen nahezu identischen Apparat zur maschinellen Übersetzung aus dem Lateinischen in moderne Sprachen konstruiert.[^2] Der Dichter und Mystiker Quirinus Kuhlmann plante neunzehn kombinatorische und automatisierte Künste und Wissenschaften, darunter eine automatisierte "ars magna librum scribendi", die "von solcher Vollkommenheit wäre, dass kein sterbliches Wesen ein Buch schreiben könnte, das nicht schon in unserer ars scribendi enthalten wäre".[^3] Aus heutiger Sicht waren die Apparate der frühneuzeitlichen Lullisten technisch simple Vorläufer von KI-Übersetzungsautomaten wie Google Translate und DeepL sowie von generativen KI-Systemen wie ChatGPT; nur dass sie in der Vorstellungskraft von Becher, Kuhlmann und anderen bereits konnten, was heutige Systeme erst seit wenigen Jahren beherrschen. Die poetische und wissenschaftliche ars combinatoria des 17. Jahrhunderts scheiterte, weil ihre Automaten nie mehr als Konzeptskizzen und Prototypen waren, die rhetorisch mehr versprachen, als sie technisch zu leisten vermochten - und auch deshalb in späteren Jahrhunderten "barock" genannt wurden. Zu Beginn des 18. Jahrhunderts, als die Scholastik von den empirischen Wissenschaften abgelöst wurde und die Regelpoetik von der Ästhetik, war auch das lullistische Projekt an sein vorläufiges Ende gekommen. Swift musste es nur noch als Realsatire erzählen. In einem Paradigmenwechsel, im klassische Sinne Thomas Kuhns, wurde die "ars" marginalisiert und überlebte nur noch in den Nischen von Gesellschaftsspielen, Kinderbüchern, Humorismus und Okkultismus. Raymond Queneaus *Cent Mille Milliards de Poèmes* belebten 1961 die literarische ars combinatoria wieder, im Sinne dieser Ludistik und Kinderspiele.[^4] Sie führten zur Gründung der Oulipo-Gruppe von Schriftstellern und Mathematikern, darunter Georges Perec und Italo Calvino. Formal war der Oulipo eine Sektion des Pariser Collège de Pataphysique, das Alfred Jarrys poetisch-absurde Wissenschaft der Pataphysik praktizierte. Die Oulipo-Renaissance der ars combinatoria wiederrief also Swifts Abgesang nicht, sondern fügte sich in sein modernes framing literarischer Kombinatorik als organisierter Albernheit. **Informator 4:** Der Oulipo begann seine kollektive Arbeit in denselben Jahren, in denen Marshall McLuhans *Understanding Media* erschien.[^5] McLuhan definierte Medien, faktisch synonym mit Technik, als "Erweiterungen des Menschen" ("extension of man"). Die Auffassung von neuen Technologien als fortschreitende Funktionserweiterungen dominiert seither, den spekulativen Projektemachern des 17. Jahrhunderts nicht unähnlich, den Diskurs neuer Medien. (Man könnte Projektemacher wie Johann Joachim Becher tatsächlich und ohne metaphorische Verrenkungen frühneuzeitliche Startup-Unternehmer und Vorläufer von Figuren wie Elon Musk nennen - der als Mitbegründer der ChatGPT-Firma OpenAI seine Finger auch in den heutigen generativen Poetiken hat.) **Informator 2:** Die Poetik des Oulipo besagte jedoch das Gegenteil: Sie verstand Techniken und Technologien, einschließlich Computern und Algorithmen, nicht als Erweiterungen, sondern als "contraintes", künstliche Beschränkungen oder Formzwänge. In der Geschichte generativer Künste ist der Oulipo die seltene Ausnahme einer künstlerischen Praxis, die die strukturelle Beschränktheit generativer Verfahren erkennt, benennt, reflektiert und zu ihrem Prinzip macht, und damit kritischere Medientheorien vorwegnimmt (wie z.B. Bernard Stieglers Theorie von Apparaten als *pharmakon*). Weil das McLuhan'sche und techno-hegelianische Meme der Technikentwicklung als Erweiterung nach wie vor lebt, ebenso wie sein negatives Spiegelbild des Kulturpessimismus, sind sowohl Kunstpraxen, als auch Medientheorien rar, die Erweiterung und Einschränkung, "extension" und "contrainte", dialektisch begreifen. 1968 schrieb Georges Perec für den Saarländischen Rundfunk das Hörspiel "Die Maschine", in dem ein simulierter Computer Goethes *Wanderers Nachtlied* mit diversen, im Oulipo kollektiv entwickelten "contraintes" prozessiert.[^6] Diese Verarbeitung nimmt teilweise vorweg, was die heutigen *digital humanities* als computergestützte Textanalyse praktizieren. Sie endet aber als nutz- und sinnlose Formübung der zwanghaften Filterung eines literarischen Texts. **Informator 5:** Seit 1959 und parallel zum Oulipo hatte die *Stuttgarter Schule* experimenteller Dichter und Poetiker um Max Bense, Helmut Heißenbüttel und Reinhard Döhl teilweise computergenerierte Poesie erstellt, die sie "künstliche Poesie" nannte.[^7] Die Sackgasse in Perecs *Maschine* wurde zur Sackgasse der künstlichen Poesie. Döhl zufolge demoralisierte Perecs Hörspiel die *Stuttgarter Schule* derart, dass sie ihre künstliche Poesie-Experimente einstellte: > \[E\]in Hörspiel, das \[...\] uns, die wir ja vom Text zum Computer > gekommen waren, wie ein vorläufiger Schlussstrich erschien. \[...\] > Wir haben diese Ansätze außer in Vorträgen und Diskussionen damals > nicht weiter verfolgt, sondern unser Interesse an künstlerischer > Produktion mit Neuen Medien und Aufschreibsystemen in andere > Richtungen ausgedehnt".[^8] In seinem Vortrag *Kybernetik und Gespenster* von 1967 sah das Oulipo-Mitglied Italo Calvino computergenerierte Literatur in einer ähnlichen formalistischen Sackgasse. Er kam zum Schluss, die Frage nach dem "Stil eines literarischen Automaten" lasse sich damit beantworten, "dass seine wahre Berufung der Klassizismus wäre", im Sinne von "traditionellen Werken, Gedichten mit geschlossenen metrischen Formen, Romanen, die allen Regeln folgen".[^9] Im selben Jahr kritisierte der amerikanische Romanschriftsteller John Barth experimentelle Poesie als eine Literatur der Erschöpfung ("literature of exhaustion"), die sich in der materiellen Niederschrift proteisch-instabiler Texte aufzehre, anstatt diese Proteik nur erzählerisch zu imaginieren. Sein Beispiel für Erstere war ein experimentelles Künstlerbuch des Mail-Art-Mitbegründers Ray Johnson, sein Beispiel für Letztere Jorge Luis Borges.[^10] **Informator 2:** Jonathan Swift könnte man noch hinzufügen. **Charlie (Informator 0):** Die Geschichte der Textautomaten und der generativen Poesie kann also nicht nur, sondern muss vielleicht als eine Geschichte von Sackgassen und Krisen erzählt werden. Oder, um eine Unternehmensberater-Theorie der heutigen Internetwirtschaft heranzuziehen, als "Hype-Zyklen", ausgelöst von einem "Technologie-Trigger", der einen "Gipfel überzogener Erwartungen" erzeugt, gefolgt von einer abfallende Kurve der "Desillusionierung" und schließlich einem Plateau tatsächlicher "Produktivität".[^11] Vom Zusammenbruch der ars combinatoria im frühen 18. Jahrhundert bis zur gescheiterten künstlichen Poesie der Stuttgarter Schule gab es mehrere solcher Hype- und Desillusionierungszyklen. Zu den jüngeren Beispielen gehören die Versuche und das frustrierte Scheitern der österreichischen Dichter Franz Josef Czernin und Ferdinand Schmatz in den 1990er Jahren, mit der experimentellen Sprachprozessor-Software "POE" computergestützt zu dichten,[^12] die Kurzlebigkeit verschiedener Schulen elektronischer Literatur seit der Erfindung des World Wide Web, darunter die deutschsprachige "Netzliteratur", die Anfang der 2000er Jahre unter anderem durch einen Literaturwettbewerb von "DIE ZEIT" und Radio Bremen angefacht wurde und danach wieder verschwand. **Informator 3:** Die heutige elektronische Literatur, die in der 1999 gegründete *Electronic Literature Organisation* (ELO) international vernetzt ist, leidet darunter, ein in sich geschlossenes akademisches Feld zu sein, ähnlich akademischer elektronischer Musik, die in Universitätsstudios produziert wird. Wie Álvaro Seica in einer quantitativen Analyse zeigte, wird diese Literatur nicht nur fast ausschließlich von universitären Wissenschaftlern geschrieben, sondern sind auch die Philologen elektronischer Literatur größtenteils identisch mit den Autoren und bilden so ein "Netzwerk von Selbstreferenzen".[^13] **Charlie (Informator 0):** Von der lullistischen ars combinatoria bis zur Maschinenlern-basierten, generativen künstlichen Intelligenz gibt es zwei oder drei Hauptformen - oder Techniken - generativer Literatur: 1) die *synthetische* Berechnung vorgegebener Elemente nach vorgegebenen (bzw. ins System fest eingeschriebenen) Regeln, vom 13. bis zum späten 20. Jahrhundert, von der mittelalterlichen Kabbalistik über die lullistische Kombinatorik bis hin zur sogenannten symbolischen künstlichen Intelligenz ("Symbolic AI"). Beispiele sind: frühneuzeitliche Wortpermutationsgedichte, die von Swift beschriebene Maschine, die generative Poesie des Oulipo einschließlich Queneaus *100.000 Milliarden Gedichte*, sowie maschinelle Übersetzungssysteme aus der Zeit *vor* der *machine-learning*-KI, wie z.B. der von 1997 bis 2012 populäre Internetdienst *Babelfish* (der auf der *symbolic AI*-Softwareder 1968 gegründeten Firma SYSTRAN basierte). ```{=html} ``` 1) die *analytische* Prozessierung beliebiger Eingabetexte durch vordefinierte Regeln oder Algorithmen, im 20. und 21. Jahrhundert. Sie begann im Jahr 1906 mit Andrei Markovs Erfindung der Markov-Ketten und seiner stochastischen Markov-Ketten-Prozessierung von Puschkins *Eugene Onegin*, umfasst Tristan Tzaras Anleitung von 1920, dadaistische Poesie durch Ausschneiden und zufälliges Mischen von Wörtern aus beliebigen Zeitungsartikeln zu schreiben, sowie Brion Gysins und William S. Burroughs' *Cut-Ups* in den 1950er bis 1980er Jahren sowie Literatur, die mit Hilfe von Markov-Ketten geschrieben wurde, wie Max Benses *Der Monolog der Terry Jo* (1968), Jackson Mac Lows "diastische" Gedichte (1980er Jahre), Charles O. Hartmans und Hugh Kenners *Sentences* (1995) und Ray Kurzweils Softwareprogramm *Cybernetic Poet* von 2001.[^14] ```{=html} ``` 1) als faktische Variante von 2: analytische Prozessierung beliebiger Eingabetexte durch Abgleich mit zuvor ausgewerteten und stochastisch gewichteten Daten in großen, auf Maschinenlernen basierten KI-Sprachmodellen - wie z.Zt. OpenAIs GPT-3/4, Googles Gemini und dem quelloffenen LLaMA. Man könnte diese Modelle, bzw. die generative Maschinenlern-KI, auch *Markov-Ketten auf Steroiden* nennen. **Informator 1:** Obwohl die Sprachcomputation mit jeder neuen Technik verfeinert wurde, blieb die Beschränkung aufs Remixing von vorgegebenem (Text-)Material. Unabhängig von der jeweils verwendeten Technik ist Remixing nicht nur Verfahren, sondern auch ästhetischer Selbstzweck generativer Künste, es sei denn, es wird für andere Ziele eingesetzt: wie etwa bei der computergenerativen Fälschung der Website der Welthandelsorganisation durch das aktivistische Künstlerduo Yes Men, das sich auf diese Weise Einladungen zu internationalen Wirtschaftskonferenzen erschwindelte,[^15] oder bei Spam-, Troll- und Propagandaoperationen. **Charlie (Informator 0):** Außerhalb solcher taktischen Anwendungen sind Beschränkungen, Erschöpfung und Sackgassen die ästhetische Alltagserfahrungen mit generativen und programmierten Systemen. Ihr Versprechen der Erweiterung wird durch real erlebte Begrenztheit konterkariert. Das Kaleidoskop mit seiner mathematisch beinahe endlosen, ästhetisch jedoch eingeschränkten Kombinatorik visueller Formen bietet sich auch deshalb als Sinnbild generativer Systeme an, weil seine technische Vorgeschichte Teil der ars combinatoria des 17. Jahrhunderts ist: Ein Prototyp des von David Brewster Anfang des 19. Jahrhundert offiziell erfundenen Kaleidoskops findet sich in der 1646 erschienenen *Ars Magna Lucis et Umbrae* ("Großen Kunst von Licht und Schatten") des lullistischen Universalgelehrten und späteren Quirinus Kuhlmann-Korrespondenten Athanasius Kircher. Die Geschichte generativer Poetiken ließe sich, in Finanzmarktsprache, als eine Geschichte schrittweiser quantitativer Lockerung ("quantitative easing", d.h. wirtschaftlicher Stimulierung durch massive ausgeschüttetes Zentralbankgeld) der kaleidoskopischen Beschränkung erzählen; als Überschüttung eines strukturellen Problems, das nicht weggehen will, durchs Draufschmeißen von immer mehr materiellen Ressourcen, in den generativen Künste der exponentiell wachsende Rechenaufwand, der bei großen KI-Modellen zum Umweltproblem wird.[^16] Seit dem Aufkommen und dem Mainstreaming computergenerativer Künste hat diese quantitative Lockerung, zumindest aus subjektiver Sicht, einen qualitativ - ästhetisch und hermeneutisch - zweifelhaften Gewinn übertüncht. Der MIT-Informatiker und KI-Experte Aleksander Mądry sieht das aus kognitiver Perspektive ähnlich, wenn er Maschinenlern-KI strukturell "denkfaul" nennt: "Stellen Sie sich vor, Sie wären ein fauler Student, der nicht wirklich für eine Prüfung lernen will. Stattdessen studiert er einfach alle Prüfungen der vergangenen Jahre und sucht nach Mustern. Anstatt zu versuchen, wirklich zu lernen, versucht er nur, die Prüfung zu bestehen. Und das ist genau die gleiche Art und Weise, in der die heutige KI denkfaul ist".[^17] **Informator 6:** Mit dem Durchbruch von auf maschinellem Lernen basierenden, generativen KI-Systemen wie dem Sprachmodell GPT und diversen, auf Textkommandoeingaben basierten KI-Bildgeneratoren im Jahr 2022/23 ist computergenerative Text-, Bild- und Tonerzeugung zum Massenmedium geworden. Als dieser Text geschrieben wurde, waren die führenden Textgeneratoren bzw. Sprachmodelle ChatGPT/GPT (von der Firma OpenAI und deren Haupteigentümer Microsoft), Gemini (Alphabet/Google) und LLaMA (Meta/Facebook), die führenden Bildgeneratoren Midjourney und Stable Diffusion, die Videogeneratoren Sora (OpenAI) und Runway, die führenden Musikgeneratoren Suno, Udio und Stable Audio. Sie alle stecken zur Zeit noch in den Kinderschuhen und könnten, wie die frühen Web-Suchmaschinen der 1990er Jahre, irgendwann von besseren Konkurrenten abgelöst werden. Auch wenn ihre Rechentiefe und ihr Datenmaterial dramatisch größer sind die einfacher Kombinatoriken, überwinden auch sie den Kaleidoskop-Effekt und den ästhetischen ennui nicht. Jedes praktische Experimentieren, das mit Staunen über die Möglichkeiten beginnt, endet in Langeweile, sobald sich Grenzen, Stereotypen und wiederholende Muster abzeichnen. Die vermeintliche Verbesserung generativer Systeme führt zu ästhetischem Mainstreaming: Statt abstrakter Kaleidoskopformen, experimenteller Montagepoesie und -töne sind glatte Prosatexte, fotorealistische Bilder und Chart-taugliche Musik das Resultat des exponentiell gesteigerten Rechenaufwands. Generative KI könnte man deshalb auch generische KI nennen. Sie folgt der Logik von "stock photography", "stock footage" und "library music" (also generischen Katalogbildern und -klängen, die als Illustration oder Untermalung lizenziert werden können) bzw. vorgefertigten Textbausteinen. Ziel der generisch-generativen KI ist glatte Aisthesis bei unsichtbarer Poiesis oder, mit Barthes, der maximal leserliche, zur Trivialliteratur perfektionierte Text: das Erkennen und unendliche Wiederkäuen von Mustern. Von der Wortpermutations-Kombinatorik und dem Cut-up über die Markov-Kette bis zu den neuronalen Netzen des maschinellen Lernens verflüchtigt sich die mit harten Schnitten gemachte Montage des Sprachmaterials in eine zunächst weiche und schließlich unsichtbare Montage. **Charlie (Informator 0):** Wenn also zum *kaleidoscope constraint* ein *stock photography constraint* hinzukommt, steigt die Vorhersagbarkeit der Ergebnisse sowie der schon von Calvino beklagte ästhetisch-strukturelle Konservatismus. War die Cut-Up-Montage noch Eisenstein, Vertov und Kurt Kren, ist die generative KI Vorabendserie, Arschgeweih, Bildschirmschoner und Fahrstuhl-Muzak. In ihren Glitches und Halluzinationen (wie z.B. zur Zeit noch: das häufige Scheitern von Bildgeneratoren, Hände mit nur fünf Fingern zu generieren), aber auch in ihren Klischees, ist sie günstigstensfalls Trash und surrealer Traumkitsch, und somit potentieller Materiallieferant für künftige Trashkultur und queeren Camp. Es ist vorhersagbar, dass ein Jess Franco der 2020er Jahre seine Sexploitation- und Splatter-Filme, aus Kostengründen, nicht mehr mit Kamera und Schauspielern dreht (die am Set oft nicht wussten, dass ihr Regisseur drei Filme zugleich drehte, weil er Altschulden bei Produzenten abbezahlen musste), sondern als Animationsfilme mit generativen AI-Prompts; ebenso, dass Romanheft-Serien bzw. preiswerte *genre fiction* aus Kosten- und Zeitgründen in Zukunft weitgehend von generativer KI erstellt wird und in automatisiert erzeugten, auf Webshops hochgeladenen e-books landet. Es ist Struktur-Konventionalismus, mit Trash als denkbarer Rettung. Er rührt nicht nur daher, dass alle generativen, auf maschinellem Lernen basierte KIs nichts tun, als antrainierte Daten zu recyceln; wobei die großen kommerziellen Mainstream-KI-Modelle bewusst risikoarm gehalten werden, sowohl im Datenmaterial, als auch im Recycling. Auch bei experimentellerem machine learning mit selbstgewählten Eingabedaten greift die Logik neuronaler Netze, nach dem Prinzip maximaler stochastischer Wahrscheinlichkeit, Kongruenz und Kontiguität Muster im Datenmaterial zu erkennen, auf ihrer Basis Zusammenhänge herzustellen und Output zu generieren, beziehungsweise zu remixen. Neuronale Netze, das auf ihnen basierte Maschinenlernen und die darauf basierten KI-Modelle sind Korrelationsmaschinen. Der unsichtbare, metonymische Schnitt und die möglichst ähnliche Anverwandlung des Outputs ans Input-Lernmaterial ist algorithmisches Strukturprinzip jeder solchen KI, unabhängig von den eingespeisten Daten. Dieses stochastische Mittelmaß ist daher weder Kinderkrankheit, noch nur einer selektiv-kommerziellen Verwendung der Technologie geschuldet, sondern Strukturprinzip des KI-Maschinenlernens. Die generative KI ist ein monströser Wiedergänger von Flauberts *Wörterbuch der Allgemeinplätze*. **Informator 6:** Als poeisis zum Zweck totaler aisthesis liegt die kulturelle und soziale Disruption generativer KI vermutlich in ihrem Potential als Filter und Universalinterface zu jeglicher Information. Dies zeichnet sich bereits auf ihrem heutigen technischen Stand ab, und heutige generative KI-Systeme sind dafür bereits geeignet. Übersetzungsbots wie DeepL und Google Translate sind bereits gut genug, um zu vermuten, dass das Lernen von Fremdsprachen drastisch zurückgehen wird. Heutige KI-Bot-Zusammenfassungen von Online-Texten und Online-Videos sind gut genug, um Standard-Zugangsschnittstellen für Texte, Töne und Bilder zu werden, so dass man z.B. Nachrichten, Bücher und Videos hauptsächlich in KI-generierten Zusammenfassungen rezipieren wird. Es ist nicht unwahrscheinlich, dass - auch in heutigen Schriftkulturen und Industriegesellschaften - Schreiben nur noch rudimentär gelernt und praktiziert werden wird, weil man die meisten Texte nur noch stichwortartig verfassen und von generativer KI ausformulieren lassen wird. **Charlie (Informator 0)** Was keine kulturpessimistische Dystopie ist, sondern eine nüchterne Erwartung. **Informator 4:** Als automatisierte Reader's Digests werden KI-Modelle im Wortsinn zu "contraintes" im Sinne Oulipos, zu universellen Filtern und kognitiven Brillen, die Informationen zweckdienlich reduzieren.[^18] Wenn Alltagstexte zum erheblichen Teil Produkte generativer KI sein werden, infiltriert generative KI unweigerlich Alltagssprache und literarische Sprache. Letztlich wird sie sich selbst infiltrierten, wenn die Lerndaten neuer KI-Modelle aus dem Output alter Modelle bestehen, was zur "Demenz" letzterer führen kann.[^19] Spätestens dann wird die Unterscheidung von konventioneller und computergenerierter Literatur hinfällig und Schreiben in einem noch umfassenderen Sinne postdigital sein als es heute bereits ist. (Dieser Text basiert auf einem Vortragsmanuskript für die Konferenz *Automation and Creativity: Praxis, Ästhetik und Rezeption des Digitalen in Musik und Literatur* der Technischen Universität Braunschweig aus dem Jahr 2020. Die letzten Abschnitte, über generative KI, wurden im April 2024 hinzugefügt. Dieser Text enthält außerdem Die Tödliche Doris und das Punk-Fanzine *Chainsaw* als Lerndatenmaterial.) [^1]: Swift, Gullivers Reisen, Frankfurt: Insel, 1984, S. 260f. [^2]: Becher, Johann Joachim. *Character pro notitia linguarum universali*. Frankfurt, 1661 [^3]: "\[T\]anta perfectione, ut nullus Mortalium librum edere posset, quem nostra Ars scribendi non comprehenderet", Quirinus Kuhlmann, *QUIRINI KUHLMANNI PRODOMUS*. Amsterdam: Lotho de Haes, 1674. [^4]: Queneau, Raymond. *Cent Mille Milliards de Poèmes*. Gallimard, 1961; englische Übersetzung in Mathews, Harry, and Alastair Brotchie, editors. *Oulipo Compendium*. Atlas Press, 1998 [^5]: McLuhan, Marshall. *Understanding Media: The Extensions of Man*. 1964. [^6]: Perec, Georges. *Die Maschine*. Stuttgart: Reclam, 1972. [^7]: Lutz, Theo. "Stochastische Texte." Augenblick, Bd. 4, Nr. 1, 1959, S. 3-9. [^8]: Döhl, Reinhard. "Vom Computertext zur Netzkunst. Vom Bleisatz zum Hypertext". *Liter@tur: Computer -- Literatur -- Internet*, Hansgeorg Schmidt-Bergmann and Torsten Liesegang (eds.), Bielefeld: Aisthesis, 2001, 27--50. [^9]: Calvino, Italo. "Kybernetik und Gespenster", 1984. [^10]: Barth, John. "The Literature of Exhaustion". *The Friday Book*, 1984, S. 62-76. [^11]: Gartner. "Gartner Hype Cycle Research Methodology". https://www.gartner.com/en/research/methodologies/gartner-hype-cycle. Abgerufen am 15.4.2024. [^12]: Czernin, Franz Josef, und Ferdinand Schmatz. *Teller und Schweiss. Gedichte aus POE*. Pakesch & Schlebrügge, 1991 [^13]: Seiça, Álvaro. "Digital Poetry and Critical Discourse: A Network of Self-References?" 2182-8830, Centro de Literatura Portuguesa Imprensa da Universidade de Coimbra, 2016. Viele Wissenschaftler, die früher zu elektronischer Literatur forschten, sind inzwischen in andere Disziplinen wie Medienwissenschaften, Computerspiel-Forschung und *digital humanities* abgewandert. - Auch die *ars combinatoria*-Dichtung des 17. Jahrhunderts wurde hauptsächlich von Wissenschaftlern geschrieben. [^14]: Hartman, Charles O., und Hugh Kenner, *Sentences*, Sun and Moon Press, 1995. [^15]: Mit der selbstgeschriebenen Software "Reamweaver", die die originale WHO-Website spiegelte, aber alle Kontaktdaten durch die der Yes Men ersetzte. Siehe auch: Bichlbaum, Andy, et al. *The Yes Men: The True Story of the End of the World Trade Organization*. Desinformation, 2004 [^16]: Derzeit benötigt die Berechnung eines großen KI-Modells etwa 1300 Megawattstunden, wobei der Stromverbrauch für die tägliche Ausführung noch nicht mitgerechnet ist. [^17]: "Think about being lazy as this kind of smart student who doesn't really want to study for an exam. Instead, what he does is just study all the past years' exams and just look for patterns. Instead of trying to actually learn, he just tries to pass the test. And this is exactly the same way in which current AI is lazy", zitiert nach: Nadis, Steve. "The Promise and Pitfalls of Artificial Intelligence Explored at TEDxMIT Event." *MIT News \| Massachusetts Institute of Technology*, 11 Jan. 2022, https://news.mit.edu/2022/promise-pitfalls-artificial-intelligence-tedxmit-0111. [^18]: Die Erfindung künstlicher neuronaler Netze und des Maschinenlernens in den späten 1950er Jahren, durch den Psychologen und Informatiker Frank Rosenblatt, bezweckte eigentlich das Gegenteil. Ihre Struktur basierte auf dem Modell der "spontanen Ordnung" des radikal-marktliberalen Ökonomen Friedrich Hayek. Als Perzeptions-"contraintes" drohen sie jedoch, wie Hayeks Wirtschaftslehre seit ihrer Umsetzung in Pinochets Chile, sich in eine neue *road to serfdom* zu verkehren, mit neuen kognitiven Diktaturen. [^19]: Shumailov, Ilia, et al. The Curse of Recursion: Training on Generated Data Makes Models Forget. arXiv:2305.17493, *arXiv,* 14 Apr. 2024. http://arxiv.org/abs/2305.17493.