Das subtile Verhältnis zwischen Maschinen und Sprache hat schon eine recht lange Geschichte hinter sich, doch jetzt beschleunigt es seine Evolution. Schon kurz nach dem Bau der ersten Computer wurden abstrakte Sprachen formuliert, um die inneren Mechanismen der Maschinen mit den von Menschen codierten Prozessen zu verbinden. Die Mensch-Maschine-Beziehung hat sich seitdem dramatisch weiterentwickelt, vor allem, weil diese Sprachen sowohl dazu dienen, der Maschine Anweisungen zu geben, als auch dazu, eine Beziehung zu ihr herzustellen. Heute haben Sprachen zweifelsohne eine Doppelrolle: Metawissen (Sprache, die zur funktionalen Beschreibung von Prozessen benutzt wird) und Inhalt (Sprache, die in unterschiedlichen Formen verarbeitet, am Ende aber auf einen lesbaren Text reduziert wird). Die heutige Digitalisierung aller Dinge durch Institutionen wie durch Privatunternehmen bringt nach und nach beeindruckende “Korpora” hervor, die in ihrer ätherischen digitalen Form wahre Goldminen für die Software neuronaler Netze darstellen können. So gibt es beispielsweise noch immer kaum ein Bewusstsein für die ausgeklügelten Strategien, die Online-Giganten konzipieren, um hochentwickelte künstliche Intelligenzen zu schaffen und neue Monopole bei strategischen Dienstleistungen zu erobern. Während Google also seinen Wissenskorpus durch das Scannen und Indizieren von Texten aus dem Online- und Printbereich konstant weiterentwickelt, ist Apple auf ähnliche Weise damit beschäftigt, NutzerInnen durch die Erhöhung der Glaubwürdigkeit (und Emotionalität) von Siri affektiv zu binden, während Facebook es darauf abgesehen hat, unser Entertainment-Umfeld in einer Weise auf uns zuzuschneiden, wie selbst enge FreundInnen es nicht könnten. Alles basiert auf Daten, und Texte und Worte zählen im Zuge einer sachgemäßen Kontextualisierung (einfach strukturiert und extrem bedeutungsvoll) zu den reinsten Daten, die man verwenden kann.
Es gibt einen kleinen Bestand an “Softwareliteratur”, die so gut wie keinen wahrnehmbaren “Maschinenakzent” hat, und zwar in ziemlich unterschiedlichen Formaten. Tweetbots (Software, die nach gewissen Strategien algorithmisch Tweets erstellt) müssen beispielsweise sehr synthetisch sein. Unter den literarischen Beispielen findet man “portmanteau_bot (@portmanteau_bot)”. Damit werden stündlich neue “Portmanteau-Wörter” geschaffen, mitunter sehr interessante. (“Portmanteau” ist eine Verschmelzung unterschiedlicher Worte/Wortteile, die von Lewis Carroll in seinem Buch Hinter den Spiegeln erfunden wurden.) Oder das geniale @Pentametron des Künstlers Ranjit Bhatnagar, das nach Tweets in Form von fünfhebigen Jamben sucht, um diese dann in Paarreimen zu retweeten. Die “menschliche Qualität” ist in diesen beiden Beispielen deutlich zu spüren. Zwar mag eine gewisse Redundanz sie immer noch ein wenig “distanziert” erscheinen lassen, doch die Vertrautheit mit der Struktur und auch die Resultate machen sie attraktiv. Wie bei jedem interessanten Content-Stream sind wir versucht, unser Vergnügen daran mit dem nächsten Resultat zu testen, und wenn Maschinen beteiligt sind, kann dieser Prozess endlos dauern.
Der Ansatz von Sarah Harmon, einer Doktorandin an der University of California, ist etwas komplexer. Ihre Software FIGURE8 schreibt keine vollständigen Gedichte, sondern einzelne Gleichnisse, die sich auf bildliche Sprache konzentrieren. Sie versucht, Ähnlichkeiten mit Unerwartetem zu kombinieren und trifft ihre Wahl anhand einer Datenbank aller frei verfügbaren Geschichten, die Harmon im Netz gefunden hat, um dann auch die kompatiblen Eigenheiten der Elemente und die Handlungen, die diese durchführen können, zu berücksichtigen. In diesem Fall sind die Ergebnisse differenzierter, da die Software gelernt hat, Regeln abzuleiten und sich so autonomer zu verhalten, indem sie beispielweise zwei oder drei Adjektive hintereinander verwendet. Erneut ist es die Art und Weise, wie Maschinen trainiert werden, die den Unterschied ausmacht, aber auch die verwendeten Wissensdatenbanken.
Eine davon, das am MIT entwickelte ConceptNet, ist eine frei zugängliche, auf Alltagswissen basierende Datenbank, die im Feld der textbasierten Argumentation von Nutzen ist. Sie findet auch Anwendung in Definitions von Bryan Ma, einer Installation, die aus 15 vernetzten und ConceptNet durchsuchenden LCDs besteht. Jeder Bildschirm zeigt anscheinend zufällig nacheinander ausgewählte Worte und beginnt mit einer neuen Abfolge, sobald das letzte Wort auf dem Bildschirm erschienen ist. Die Beziehungen zwischen den Worten sind semantisch, daher scheinen sie mitunter unerwartet und können potenziell unendlich sein. Auffallend ist nur, dass das erste und das letzte Wort immer “People” (Leute) und “Money” (Geld) sind. Sodann kreiert die Arbeit eine konkrete Geschichte, die von menschlichen und maschinellen Entscheidungen gestützt wird.
Man könnte meinen, Poesie sei einfacher zu handhaben als längere Texte, obwohl sie natürlich viel dichter ist. Fiktion (wie auch Sachliteratur) ist als literarische Form länger und “verdünnter”, hat aber die gleichen schwierig zu formalisierenden Eigenschaften, die wir wahrnehmen, wenn wir sie lesen. Eine davon sticht besonders heraus: der Stil.
In The Death of the Authors, 1941 edition haben An Mertens und Femke Snelting (Mitglieder des Constant-Kollektivs) mit großem Geschick Werke, deren Urheberrecht erloschen ist, innovativ bearbeitet: Sie schrieben eine generative Software, die einen Roman mit dem Titel The Death of the Authors produziert, der auf Texten von Virginia Woolf, James Joyce, Rabindranath Tagore, Elizabeth Von Arnim, Sherwood Anderson und Henri Bergson basiert und nach seiner Fertigstellung zum freien Download bereitsteht. All diese AutorInnen sind 1941 verstorben, das heißt ihre Werke sind seit dem 1. Januar 2012 urheberrechtsfrei. Diese literarische Geste ist das Ergebnis einer reinen Remix-Praxis, die dabei komplett softwaregesteuert ist. Die verschiedenen AutorInnen sind gewissermaßen inklusive ihres literarischen Stils in einer unveröffentlichten, unerwarteten und sich ständig ändernden Form der Zusammenarbeit zurückgekehrt. “Stylometry” ist in diesem Zusammenhang eine wissenschaftliche Disziplin, die den Sprachstil untersucht, um Autorschaft zuzuweisen und sich dabei statistischer Analyse, genetischer Algorithmen und (erneut) neuronaler Netze bedient. Die technische Infrastruktur für die Simulation oder Erschaffung von AutorInnen existiert also bereits.
So wird die Geste der Programmierung zu einer politischen Geste, die bestimmte Entscheidungen und somit gesellschaftliche Folgen impliziert. Dies ist wichtig in dem nicht-reversiblen Prozess, wie er gerade stattfindet: Die Menschen arbeiten hart daran, das Beste ihrer geschriebenen kulturellen Produktion aus ein paar Tausend Jahren in eine Form zu bringen, die von Maschinen verarbeitet werden kann, um sie dann physisch auf Medien zu speichern, die nicht größer sind als ein USB-Stick. Im Gegenzug erziehen Menschen Maschinen dazu, etwas über dieses Wissen zu “lernen”, das als ihre historisch gesehen höchste Errungenschaft gilt, die Schaffung neuen Wissens. Trotz alledem wird es wichtig sein, dass die menschengestützte Kritik in diesem Prozess nicht verloren geht, damit dieses neue Wissen zu etwas wird, das auch für die Menschen relevant ist.
Published 4 May 2016
Original in English
Translated by
Gaby Gehlen
First published by Springerin 2/2016 (German version); Eurozine (English version)
Contributed by Springerin © Alessandro Ludovico / Springerin Eurozine
PDF/PRINTNewsletter
Subscribe to know what’s worth thinking about.