Charlie (Informator 0):
Alle Verfahren der automatischen Erzeugung von Texten, Bildern, Tönen sind gepimpte Kaleidoskope. Mit ihnen generierte Texte, Bilder und Töne mögen eine gewisse Zeit lang interessant sein, vielleicht amüsieren, sogar fesseln, doch stellt sich ab einem Punkt Ennui ein. Der Fortschritt rechnerisch komplexer KI- (bzw. Machine-Learning-) Verfahren gegenüber einfacher Würfelkombinatoriken bestejt darin, diesen Punkt weiter hinauszuzögern. In Anlehnung an Platons Höhlengleichnis, John Searles chinesisches Zimmer und diverse zeitgenössische KI-Debatten könnte man zwar argumentieren, dass dieser Ennui sich ästhetisch und erkenntnistheoretisch neutralisiert, sobald sein Hinauszögern eine kritische Spanne - wie zum Beispiel ein Menschenleben - überdauert. Aber dies ändert nichts am Befund der kaleidoskopischen Beschränktheit generativer Systeme. Ihre strukturelle Begrenzung liegt darin, nichts anderes zu können als einmal gesampletes Datenmaterial - ihre Kaleidoskop-Farbscheiben - endlos zu remixen, in einer Poetik ewiger Wiederkehr des Gleichen, algorithmischer posthistoire kultureller Produktion und strukturalistischem Gefängnis textueller Selbstähnlichkeit; wobei - im Gegensatz zu herkömmlichen intertextuellen Poetiken und Recycling-Ästhetiken - die jeweiligen Remix-Verfahren (bzw. -Algorithmen) sich innerhalb eines Systems nicht weiterentwickeln, sondern wie in einem Leierkasten dieselben bleiben.
Informator 1:
Die kaleidoskopische Begrenztheit und der Leierkasten-Ennui verfolgen mich seit meiner Dissertation aus dem Jahr 2006, in der ich versuchte, eine Geschichte der programmierten und sich technisch selbst ausführenden Literatur von Ramon Llulls mittelalterlicher ars, der lullistischen ars combinatoria der frühen Neuzeit bis zu zeitgenössischer Netzkunst zu schreiben, einschließlich ihrer Vorläufer in antiker und mittelalterlicher Poesie und Mystik. Seitdem habe ich mich nur noch gelegentlich mit diesem Thema beschäftigt, denn meine Arbeit endete mit dem Befund einer Sackgasse: dass sich durch die zwar lange, aber meistens übersehene Geschichte dieser Literatur eine strukturelle Kluft zieht zwischen - einerseits - spekulativer Imagination unendlicher Kräfte und Potentiale automatisierter Spracherzeugung und - andererseits - den Ergebnissen ihrer Experimente, die diese Erwartungen enttäuschen. Von der Frühen Neuzeit bis zur Gegenwart endete noch jede generative Kunst als Leierkasten und entzauberte sich in ihrer kaleidoskopischen Begrenztheit.
Die Poetiken automatisierter Literatur sind deshalb oft interessanter als ihre Poesie. Mit Renate Lachmann las ich sie als phantastische Literatur, mit Gert Mattenklott als Teil einer literarischen Anthropologie spekulativen Denkens. Während Mattenklott sein Konzept an Ästhetizismen der Moderne entwickelt hatte, wandte ich es auf Poetizismen an, also auf Extremformen experimentellen Schreibens, beziehungsweise “schreiberlicher” [‘scriptible’] Texte im Sinne von Roland Barthes.
Die spekulative Qualität kombinatorisch-generativer Textautomaten-Poetiken lag zum Beispiel darin, dass eine simple Wortpermutation - d.h. die Vertauschung der Reihenfolge von Wörtern in einem Satz oder Gedichtvers - mit radikal unterschiedlichen Bedeutungen aufgeladen sein konnte, je nach Poetik oder Jahrhundert. Formal identische Wortumstellungen konnten mystizistisch oder rationalistisch sein, ekstatisch oder konstruktivistisch, Regelwerk oder Zufall, Regime oder Anarchie, satanisch oder christlich, klassizistisch oder antiklassizistisch.
Informator 2:
Eine Gelehrtensatire aus Jonathan Swifts Gullivers Reisen fasst die frühneuzeitliche ars combinatoria wie folgt zusammen:
“Der erste Professor, den ich sah, befand sich in einem sehr großen Zimmer und war von vierzig Schülern umgeben. Nach der Begrüßung bemerkte er, daß ich angelegentlich einen Rahmen betrachtete, der den größten Teil der Länge und Breite des Zimmers einnahm. […] Jedermann wisse, wie mühevoll die gewöhnliche Methode sei, Kenntnisse auf dem Gebiet der Geistes- und Naturwissenschaft zu erwerben; dagegen könne durch seine Erfindung auch die unwissendste Person mit mäßigem Kostenaufwand und ein bißchen körperlicher Arbeit auch ohne die geringste Hilfe von Begabung oder Studium Bücher über Philosophie, Poesie, Politik, Recht, Mathematik und Theologie schreiben. Dann führte er mich zu dem Rahmen, um dessen Seiten alle seine Schüler in Reihen standen. Er war zwanzig Fuß im Quadrat und stand in der Mitte des Zimmers. Die Oberfläche setzte sich aus verschiedenen Holzstücken von etwa der Größe eines Würfels zusammen, aber einige waren größer als andere. Sie waren alle durch dünne Drähte miteinander verbunden. Diese Holzstücke waren an jeder Seite mit Papier beklebt, und auf diese Papiere waren alle Wörter ihrer Sprache in ihren verschiedenen Modi, Tempora und Deklinationen geschrieben, aber ohne jede Ordnung. Der Professor bat mich dann achtzugeben, denn er wolle seinen Apparat in Betrieb setzen.”1
Diese Satire trifft, weil sie den frühneuzeitlichen Lullismus nicht etwa grotesk überzeichnet, sondern faktengetreu wiedergibt. Im 17. Jahrhundert hatte der deutsche Universalgelehrte Johann Joachim Becher einen nahezu identischen Apparat zur maschinellen Übersetzung aus dem Lateinischen in moderne Sprachen konstruiert.2 Der Dichter und Mystiker Quirinus Kuhlmann plante neunzehn kombinatorische und automatisierte Künste und Wissenschaften, darunter eine automatisierte “ars magna librum scribendi”, die “von solcher Vollkommenheit wäre, dass kein sterbliches Wesen ein Buch schreiben könnte, das nicht schon in unserer ars scribendi enthalten wäre”.3
Aus heutiger Sicht waren die Apparate der frühneuzeitlichen Lullisten technisch simple Vorläufer von KI-Übersetzungsautomaten wie Google Translate und DeepL sowie von generativen KI-Systemen wie ChatGPT, nur dass sie in der Vorstellungskraft von Becher, Kuhlmann und anderen bereits das leisteten, was heutige Systeme erst seit wenigen Jahren beherrschen. Die poetische und wissenschaftliche ars combinatoria des 17. Jahrhunderts scheiterte, weil ihre Automaten nie mehr als Konzeptskizzen und Prototypen waren, die rhetorisch mehr versprachen, als sie zu leisten vermochten - und auch deshalb in späteren Jahrhunderten “barock” genannt wurden.
Zu Beginn des 18. Jahrhunderts, als die Scholastik von den empirischen Wissenschaften abgelöst wurde und die Regelpoetik von der Ästhetik, war auch das lullistische Projekt an sein vorläufiges Ende gekommen. Swift musste es nur noch als Realsatire erzählen. In einem Paradigmenwechsel, im klassische Sinne Thomas Kuhns, wurde die “ars” marginalisiert und überlebte nur noch in den Nischen von Gesellschaftsspielen, Kinderbüchern, Humorismus und Okkultismus.
Informator 4
Raymond Queneaus Cent Mille Milliards de Poèmes belebten 1961 die literarische ars combinatoria wieder, im Sinne dieser Ludistik und Kinderspiele.4 Sie führten zur Gründung der Oulipo-Gruppe von Schriftstellern und Mathematikern, darunter Georges Perec und Italo Calvino. Formal war der Oulipo eine Sektion des Pariser Collège de Pataphysique, das Alfred Jarrys poetisch-absurde Wissenschaft der Pataphysik praktizierte. Die Oulipo-Renaissance der ars combinatoria wiederrief also Swifts Abgesang nicht, sondern entsprach seinem modernen framing literarischer Kombinatorik als organisierter Albernheit.
Der Oulipo begann seine kollektive Arbeit in denselben Jahren, in denen Marshall McLuhans Understanding Media erschien.5 McLuhan definierte Medien, faktisch synonym mit Technik, als “Erweiterungen des Menschen” (“extension of man”). Die Auffassung von neuen Technologien als fortschreitende Funktionserweiterungen dominiert seither, den spekulativen Projektemachern des 17. Jahrhunderts nicht unähnlich, den Diskurs neuer Medien. (Man könnte Projektemacher wie Johann Joachim Becher tatsächlich und ohne metaphorische Verrenkungen frühneuzeitliche Startup-Unternehmer und Vorläufer von Figuren wie Elon Musk nennen - der als Mitbegründer der ChatGPT-Firma OpenAI seine Finger auch in heutigen generativen Poetiken hat.)
Die Poetik des Oulipo besagte jedoch das Gegenteil: Sie verstand Techniken und Technologien, einschließlich Computern und Algorithmen, nicht als Erweiterungen, sondern als “contraintes”, künstliche Beschränkungen oder Formzwänge. In der Geschichte generativer Künste ist der Oulipo die seltene Ausnahme einer künstlerischen Praxis, die die strukturelle Beschränktheit generativer Verfahren erkennt, benennt, reflektiert und zu ihrem Prinzip macht, und damit kritischere Medientheorien vorwegnimmt (wie z.B. Bernard Stieglers Theorie von Apparaten als pharmakon). Weil das McLuhan’sche und techno-hegelianische Meme der Technikentwicklung als Erweiterung nach wie vor lebt, ebenso aber sein negatives Pendant des Kulturpessimismus, sind sowohl Kunstpraxen, als auch Medientheorien rar, die Erweiterung und Einschränkung, “extension” und “contrainte”, dialektisch begreifen.
1968 schrieb Georges Perec für den Saarländischen Rundfunk das Hörspiel “Die Maschine”, in dem ein simulierter Computer Goethes Wanderers Nachtlied mit diversen, im Oulipo kollektiv entwickelten “contraintes” prozessiert.6 Diese Verarbeitung nimmt teilweise vorweg, was die heutigen digital humanities als computergestützte Textanalyse praktizieren. Sie endet aber als nutz- und sinnlose Formübung der zwanghaften Filterung eines literarischen Texts.
Informator 5
Seit 1959 und parallel zum Oulipo hatte die Stuttgarter Schule experimenteller Dichter um Max Bense, Helmut Heißenbüttel und Reinhard Döhl teilweise computergenerierte Poesie erstellt, die sie “künstliche Poesie” nannte.7 Die Sackgasse in Perecs Maschine wurde zur Sackgasse der künstlichen Poesie. Döhl zufolge demoralisierte Perecs Hörspiel die Stuttgarter Schule derart, dass sie ihre künstliche Poesie-Experimente einstellte:
[E]in Hörspiel, das […] uns, die wir ja vom Text zum Computer gekommen waren, wie ein vorläufiger Schlussstrich erschien. […] Wir haben diese Ansätze außer in Vorträgen und Diskussionen damals nicht weiter verfolgt, sondern unser Interesse an künstlerischer Produktion mit Neuen Medien und Aufschreibsystemen in andere Richtungen ausgedehnt”.8
In seinem Vortrag Kybernetik und Gespenster von 1967 sah das Oulipo-Mitglied Italo Calvino computergenerierte Literatur in einer ähnlichen formalistischen Sackgasse. Er kam zum Schluss, die Frage nach dem “Stil eines literarischen Automaten” lasse sich damit beantworten, “dass seine wahre Berufung der Klassizismus wäre”, im Sinne von “traditionellen Werken, Gedichten mit geschlossenen metrischen Formen, Romanen, die allen Regeln folgen”.9 Im selben Jahr kritisierte der amerikanische Romanschriftsteller John Barth experimentelle Poesie als eine Literatur der Erschöpfung (“literature of exhaustion”), die sich in der materiellen Niederschrift proteisch-instabiler Texte aufzehre, anstatt diese Proteik nur erzählerisch zu imaginieren. Sein Beispiel für Erstere war ein experimentelles Künstlerbuch des Mail-Art-Mitbegründers Ray Johnson, sein Beispiel für Letztere Jorge Luis Borges; Jonathan Swift könnte man noch hinzufügen.10
Charlie (Informator 0)
Die Geschichte der Textautomaten und der generativen Poesie kann also nicht nur, sondern muss vielleicht als eine Geschichte von Sackgassen und Krisen erzählt werden. Oder, um eine Unternehmensberater-Theorie der heutigen Internetwirtschaft heranzuziehen, als “Hype-Zyklen”, ausgelöst von einem “Technologie-Trigger”, der einen “Gipfel überzogener Erwartungen” erzeugt, gefolgt von einer abfallende Kurve der “Desillusionierung” und schließlich einem Plateau tatsächlicher “Produktivität”.11 Vom Zusammenbruch der ars combinatoria im frühen 18. Jahrhundert bis zur gescheiterten künstlichen Poesie der Stuttgarter Schule gab es mehrere solcher Hype- und Desillusionierungszyklen. Zu den jüngeren Beispielen gehören die Versuche und das frustrierte Scheitern der österreichischen Dichter Franz Josef Czernin und Ferdinand Schmatz in den 1990er Jahren, mit der experimentellen Sprachprozessor-Software “POE” computergestützt zu dichten,12 die Kurzlebigkeit verschiedener Schulen elektronischer Literatur seit der Erfindung des World Wide Web, darunter die deutschsprachige “Netzliteratur”, die Anfang der 2000er Jahre unter anderem durch einen Literaturwettbewerb von “DIE ZEIT” und Radio Bremen angefacht wurde und danach wieder verschwand.
Informator 3
Die heutige, international durch die 1999 gegründete Electronic Literature Organisation (ELO) vernetzte elektronische Literatur leidet darunter, ein in sich geschlossenes akademisches Feld zu sein, ähnlich der akademischen elektronischen Musik. Wie Álvaro Seica in einer quantitativen Analyse zeigte, wird sie nicht nur fast ausschließlich von universitären Wissenschaftlern geschrieben, sondern sind auch die Philologen elektronischer Literatur größtenteils identisch mit den Autoren und bilden so ein “Netzwerk von Selbstreferenzen”.13
Charlie (Informator 0)
Von der lullistischen ars combinatoria bis zur Maschinenlern-basierten, generativen künstlichen Intelligenz gibt es zwei oder drei Hauptformen - oder Techniken - generativer Literatur:
synthetische Berechnung vorgegebener Elemente nach vorgegebenen (bzw. ins System fest eingeschriebenen) Regeln vom 13. bis zum 20. Jahrhundert, von der mittelalterlichen Kabbalistik über die lullistische Kombinatorik bis hin zur sogenannten symbolischen künstlichen Intelligenz (“Symbolic AI”). Beispiele sind frühneuzeitliche Wortpermutationsgedichte, die von Swift beschriebene Maschine, die generative Poesie des Oulipo einschließlich Queneaus 100.000 Milliarden Gedichte sowie maschinelle Übersetzungssysteme aus der Zeit vor der machine-learning-KI, wie z.B. der von 1997 bis 2012 populäre Internetdienst Babelfish (das auf den symbolic AI-Algorithmen der 1968 gegründeten Firma SYSTRAN beruhte).
analytische Prozessierung beliebiger Eingabetexte durch vordefinierte Regeln oder Algorithmen, im 20. und 21. Jahrhundert. Sie begann im Jahr 1906 mit Andrei Markovs Erfindung der Markov-Ketten und seiner stochastischen Markov-Ketten-Prozessierung von Puschkins Eugene Onegin, umfasst Tristan Tzaras Anleitung von 1920, dadaistische Poesie durch Ausschneiden und zufälliges Mischen von Wörtern aus beliebigen Zeitungsartikeln zu schreiben, sowie Brion Gysins und William S. Burroughs’ Cut-Ups in den 1950er bis 1980er Jahren sowie Literatur, die mit Hilfe von Markov-Ketten geschrieben wurde, wie Max Benses Der Monolog der Terry Jo (1968), Jackson Mac Lows “diastische” Gedichte (1980er Jahre), Charles O. Hartmans und Hugh Kenners Sentences (1995) und Ray Kurzweils Softwareprogramm Cybernetic Poet von 2001.14
als faktische Variante von 2: analytische Prozessierung beliebiger Eingabetexte durch Abgleich mit zuvor ausgewerteten und stochastisch gewichteten Daten in großen KI-Modellen - wie beim maschinellen Lernen -, mit großen (KI-)Sprachmodellen wie OpenAIs GPT-3/4, Googles Gemini und dem quelloffenen LLaMA. Man könnte diese Modelle, bzw. die generative Maschinenlern-KI, auch Markov-Ketten auf Steroiden nennen.
Informator 1
Obwohl die Sprachcomputation mit jeder neuen Technik verfeinert wurde, hat keine von ihnen die Beschränkung aufs Remixing von vorgegebenem (Text-)Material überwunden. Unabhängig von der jeweils verwendeten Technik ist Remixing nicht nur Verfahren, sondern auch ästhetischer Selbstzweck generativer Künste, es sei denn, es wird zu anderen Zwecken eingesetzt: wie etwa bei der computergenerativen Fälschung der Website der Welthandelsorganisation durch das aktivistische Künstlerduo Yes Men, das sich auf diese Weise Einladungen zu internationalen Wirtschaftskonferenzen erschwindelte.15
Charlie (Informator 0)
Außerhalb solcher taktischen Anwendungen sind Beschränkungen, Erschöpfung und Sackgassen ästhetische Alltagserfahrungen mit generativen und programmierten Systemen. Ihr Versprechen der Erweiterung widerspricht erlebter Begrenztheit. Das Kaleidoskop mit seiner mathematisch beinahe endlosen, ästhetisch jedoch eingeschränkten Kombinatorik visueller Formen bietet sich auch deshalb als Sinnbild generativer Systeme an, weil seine technische Vorgeschichte Teil der ars combinatoria des 17. Jahrhunderts ist: Ein Prototyp des von David Brewster Anfang des 19. Jahrhundert offiziell erfundenen Kaleidoskops findet sich in der 1646 erschienenen Ars Magna Lucis et Umbrae (“Großen Kunst von Licht und Schatten”) des lullistischen Universalgelehrten und späteren Quirinus Kuhlmann-Korrespondenten Athanasius Kircher.
Die Geschichte generativer Poetiken ließe sich, in Finanzmarktsprache, als eine Geschichte sukzessiver quantitativer Lockerung (“quantitative easing”, d.h. wirtschaftlicher Stimulierung durch massive ausgeschüttetes Zentralbankgeld) der kaleidoskopischen Beschränkung erzählen; als Überschüttung eines strukturellen Problems, das nicht weggehen will, durchs Draufschmeißen von immer mehr materiellen Ressourcen, in den generativen Künste der exponentiell wachsende Rechenaufwand, der bei großen KI-Modellen zum Umweltproblem wird.16 Seit dem Aufkommen und dem Mainstreaming computergenerativer Künste hat diese quantitative Lockerung, zumindest aus subjektiver Sicht, einen qualitativ - ästhetisch und hermeneutisch - zweifelhaften Gewinn übertüncht.
Informator 6
Mit dem Durchbruch von auf maschinellem Lernen basierenden, generativen KI-Systemen wie dem Sprachmodell GPT und diversen, auf Textkommandoeingaben basierten KI-Bildgeneratoren im Jahr 2022/23 ist computergenerative Text-, Bild- und Tonerzeugung zum Massenmedium geworden. Als dieser Text geschrieben wurde, waren die führenden Textgeneratoren bzw. Sprachmodelle ChatGPT/GPT (von der Firma OpenAI und deren Haupteigentümer Microsoft), Gemini (Alphabet/Google) und LLaMA (Meta/Facebook), die führenden Bildgeneratoren Midjourney und Stable Diffusion, die Videogeneratoren Sora (OpenAI) und Runway, die führenden Musikgeneratoren Suno, Udio und Stable Audio. Sie alle stecken zur Zeit noch in den Kinderschuhen und dürften, wie die frühen Web-Suchmaschinen der 1990er Jahre, von Konkurrenten abgelöst werden.
Auch wenn ihre Rechentiefe und ihr Datenmaterial dramatisch größer sind die einfacher Kombinatoriken, überwinden auch sie den Kaleidoskop-Effekt und den ästhetischen ennui nicht. Jedes praktische Experimentieren, das mit Staunen über die Möglichkeiten beginnt, endet in Langeweile, sobald sich Grenzen, Stereotypen und wiederholende Muster abzeichnen.
Die vermeintliche Verbesserung generativer Systeme führt zu ästhetischem Mainstreaming: Statt abstrakter Kaleidoskopformen, experimenteller Montagepoesie und -töne sorgt der exponentiell gesteigerte Rechenaufwand für glatte Prosatexte, fotorealistische Bilder und Chart-taugliche Musik. Generativer KI ist seitdem gleichbedeutend mit generischer KI, und folgt der Logik von “stock photography”, “stock footage” und “library music” (also generischen Katalogbildern und -klängen, die als Illustration oder Untermalung lizenziert werden können) bzw. vorgfertigten Textbausteinen. Ziel der generativen KI ist glatte Aisthesis bei unsichtbarer Poiesis oder, mit Barthes der maximal leserliche, zur Trivialliteratur perfektionierte Text. Von der Wortpermutations-Kombinatorik und dem Cut-up über die Markov-Kette bis zu den neuronalen Netzen des maschinellen Lernens verflüchtigt sich die mit harten Schnitten gemachte Montage des Sprachmaterials in eine zunächst weiche und schließlich unsichtbare Montage.
Charlie (Informator 0)
Wenn also zum kaleidoscope constraint noch ein stock photography constraint hinzukommt, steigt die Vorhersagbarkeit der Ergebnisse sowie der schon von Calvino beklagte ästhetisch-strukturelle Konservatismus. Während die Cut-Up-Montage noch Eisenstein, Vertov und Kurt Kren war, ist die generative KI Seifenoper, in ihren Glitches und Halluzinationen (wie z.B. zur Zeit noch: das häufige Scheitern von Bildgeneratoren, Hände mit nur fünf Fingern zu generieren) günstigstensfalls Trash und surrealer Traumkitsch, und daher potentieller Materiallieferant für künftige Trashkultur und queeren Camp.
Dieser Struktur-Konventionalismus rührt nicht nur daher, dass alle generativen, auf maschinellem Lernen basierte KIs antrainierte Daten recyceln und sowohl die Datensätze als auch deren Recycling in kommerziellen Mainstream-KI-Modellen bewusst konventionell gehalten werden. Auch bei experimentellerem machine learning mit selbstgewählten Eingabedaten greift die Logik neuronaler Netze, ausschließlich nach dem Prinzip maximaler stochastischer Wahrscheinlichkeiten, Kongruenz und Kontiguität Zusammenhänge im Datenmaterial herzustellen und auf dieser Basis Output zu generieren, beziehungsweise zu remixen. Neuronale Netze, das auf ihnen basierte Maschinenlernen und die darauf basierten KI-Modelle sind Korrelationsmaschinen. Der unsichtbare, metonymische Schnitt und die möglichst ähnliche Anverwandlung des Outputs an den Input ist algorithmisches Strukturprinzip jeder solchen KI, unabhängig von den eingespeisten Daten.
Das stochastisch berechnete Mittelmaß ist also weder Kinderkrankheit, noch nur einer selektiven, kommerzgesteuerten Verwendung der Technologie geschuldet, sondern Strukturprinzip des KI-Maschinenlernens. Die generative KI wird dadurch zum monströsen Wiedergänger von Flauberts Wörterbuch der Allgemeinplätze.
Informator 6
Als poeisis zum Zweck totaler aisthesis liegt die kulturelle und soziale Disruption generativer KI vermutlich in ihrem Potential als Filter und Universalinterface zu jeglicher Information. Dies zeichnet sich bereits auf ihrem heutigen technischen Stand ab, und heutige generative KI-Systeme sind dafür bereits geeignet. Übersetzungsbots wie DeepL und Google Translate sind bereits gut genug, um zu vermuten, dass das Lernen von Fremdsprachen drastisch zurückgehen wird. Heutige KI-Bot-Zusammenfassungen von Online-Texten und Online-Videos sind gut genug, um Standard-Zugangsschnittstellen für Texte, Töne und Bilder zu werden, so dass man z.B. Nachrichten, Bücher und Videos hauptsächlich in KI-generierten Zusammenfassungen rezipieren wird. Es ist nicht unwahrscheinlich, dass - auch in heutigen Schriftkulturen und Industriegesellschaften - Schreiben nur noch rudimentär gelernt und praktiziert werden wird, weil man Texte in der Regel stichwortartig verfassen und von generativer KI ausformulieren lassen wird.
Dies schreibe ich nicht als kulturpessimistische Dystopie, sondern nüchterne Erwartung.
Informator 4
Als automatisierte Reader’s Digests werden KI-Modelle im Wortsinn zu “contraintes” im Sinne Oulipos, zu universellen Filtern und kognitiven Brillen, die Informationen zweckdienlich reduzieren.17
Wenn Alltagstexte zum erheblichen Teil Produkte generativer KI sein werden, infiltriert generative KI unweigerlich Alltagssprache und literarische Sprache. Spätestens dann wird die Unterscheidung von konventioneller und computergenerierter Literatur hinfällig und Schreiben in einem noch umfassenderen Sinne postdigital als bereits heute.
(Dieser Text basiert auf einem Vortragsmanuskript für die Konferenz Automation and Creativity: Praxis, Ästhetik und Rezeption des Digitalen in Musik und Literatur der Technischen Universität Braunschweig aus dem Jahr 2020. Der letzte Abschnitt, über generative KI, wurde im Jahr 2024 hinzugefügt. Dieser Text enthält außerdem Die Tödliche Doris und das Punk-Fanzine Chainsaw als Lerndatenmaterial.)