Das Projekt setzt sich aus drei Bestandteilen zusammen. Den beiden interaktiven und non-linearen Projekten mit Korsakow ist ein Introfilm vorangestellt, in dem mit hoher Geschwindigkeit Bilder von der Entwicklung vernetzter Kommunikation und deren Infrastrukturen montiert sind. In “Memory for Digital Cultures” werden Ausschnitte zu Definitionen von digitalen Kulturen aus den Interviews herausgeschält und mit zusätzlichen Filmen aus dem Internet versehen, die laut der Überlegungen in den Interviews mit digitalen Kulturen eingespielt würde. In “Potenziale und Gefahren” werden Überlegungen zu Gefahren und Potenzialen digtialer Kulturen angeboten und durch thematisch entsprechende Filme aus dem Internet angereichert.
Martina Leeker, Oktober 2014
In so genannten digitalen Kulturen lassen sich Veränderungen in wissenschaftlicher Lehre und Forschung beobachten. Neben Texten werden nämlich auch andere Korpora der Forschung sowie der Veröffentlichung, z. B. in Gestalt von Videos gebräuchlich, die mit angemessenen digitalen Tools ausgewertet und untersucht werden müssen. Ein Beispiel für diese Veränderungen der Korpora sowie der damit verbundenen Suche nach Methoden sind die Research-Interviews Serie des DCRL: What are digital cultures? In diesen beantworten Wissenschaftlicher_innen aus unterschiedlichen geisteswissenschaftlichen Disziplinen in einem Zeitfenster von je circa zwei Minuten vier Fragen. Es geht um eine Definition digitaler Kulturen, die Erörterung von deren Potenzialen und Gefahren sowie schließlich um die Frage, ob es ein Jenseits digitaler Kulturen gäbe.
Ein Versuch, sich der wissenschaftlichen Auswertung der audio-visuellen Korpora zu nähern, fand im Sommersemester 2014 im Rahmen eines Seminars von Martina Leeker im Komplementärstudium der Leuphana Universität Lüneburg statt. Es wurde die für Webdokumentationen, auch i-Doc (interactive documentation) genannt, genutzte Software Korsakow eingesetzt. Denn sie ermöglicht es aufgrund der Erstellung einer nach Schlagworten geordneten Filmdatenbank, eine thematische Ordnung und Auswertung der Interviews vorzunehmen. Die vom steuernden Algorithmus ausgewählten Filmclips werden in einer je einmaligen Zusammenstellung auf einem Interface den Nutzer_innen angeboten. Aus diesem Angebot kann nach eigenen Entscheidungen ein Film gewählt und abgespielt werden. Die Auswahl beeinflusst das folgende Angebot und so fort, so dass jeder Besuch der Dokumentation eine eigene und so nicht wieder herstellbare Version erzeugt. Das Interface erlaubt es zudem, dass unterschiedliche Statements in einer so genannten räumlichen Montage nebeneinander erscheinen können.
Mit der Nutzung von Webdokumentationen für wissenschaftliche Forschung wurde ein verzweigtes medientechnisches und medientheoretisches Diskursfeld aufgerufen, mit dem sich konstituiert, wie sich Nutzer_innen zur algorithmischen Generierung und Verwaltung von Wissen verhalten können. Da sich die Tools der wissenschaftlichen Untersuchung deutlich in diese einmischten, stand im Laufe der Projektentwicklung nicht mehr allein die Auswertung der Video-Interviews im Vordergrund, z. B. im Hinblick auf den Stand der Forschung, was digitale Kulturen seien. Vielmehr ging es darum zu klären, wie Methoden der Forschung diese konfigurieren und gegebenenfalls auch an der Erzeugung dessen, was sie untersuchen und erkennen, in diesem Fall digitale Kulturen, mitwirken. So wurde deutlich, dass Webdokumentationen eine spezifische Art der Gouvernementalität ausbilden. Bezogen auf die Weise der Subjektivierung zeigt sich, dass die Nutzer_innen unter den Vorzeichen der Interaktion, Partizipation und Kooperation in einem medienökologischen Environment den Logiken von Datenbanken, Hypertexten und Algorithmen unterworfen und darin entsubjektiviert werden. In diesem Vorgang werden sie aber zugleich als Subjekte einer affektivierten Sinngebung hervorgebracht. Wissen und Sinn werden in den Webdokumentationen durch technologische Optionen und deren diskursive Ummantelungen als Assemblagen erzeugt, die aus anthropo-technischen Agenturen entstehen und auf Kontingenz, Wandelbarkeit und Flüchtigkeit beruhen. Die datenbankbasierten Ordnungen und Erforschungen von wissenschaftlichen Korpora können mithin als eine Praxis gesehen werden, mit der sich Menschen in algorithmisch verwaltete Daten einschreiben, um zugleich in diesem Vorgang illusioniert und geblendet zu werden.
Vor diesem Hintergrund galt es Methoden zu entwickeln, die diese Effekte der Forschung zu digitalen Kulturen lesbar und erfahrbar machen. Diese wurden in einer diskursanalytischen Ästhetik entwickelt, die die subjektivierenden, epistemologischen und gouvernementalen Strategien von Webdokumentationen als Wissens- und Sinngebung verdeutlichen soll, indem sie das darin entstehende ambivalente Subjekt sowie die Konstitution von Wissen und Regierung enttäuscht.
In “Sirigraphie. Memory for Digital Cultures” wurden Clips zu Definitionen von digitalen Kulturen aus den zur Verfügung stehenden Interviews herausgeschält. Diese wurde in Themengruppen eingeteilt und mit zusätzlichen Filmen aus dem Internet versehen, die laut der Überlegungen in den Interviews mit digitalen Kulturen eingespielt würden, wie z. B. Künstliche Intelligenz oder Partizipation. Der Clou dieser Arbeit besteht nun darin, dass den Nutzer_innen die Filme verdeckt angeboten wurden, so dass sie zwar interagieren, aber nicht erkennen können, womit sie es zu tun hatten. Diese Ästhetik der Verdeckung sollte die der Datenbanken und Algorithmen reproduzieren und erlebbar machen. In “Potenziale und Gefahren” wurden dagegen die Filme je sichtbar angeboten. Sie waren nach Überlegungen zu Gefahren und Potenzialen geordnet und durch thematisch entsprechende Filme aus dem Internet angereichert. Der medienreflexive Impetus stellt sich hier dadurch ein, dass die Nutzer_innen zwar durch farbliche Umrahmungen der Filmclips eine Ordnung vermuten, dieser aber nicht umstandslos folgen können. Schließlich ist den beiden interaktiven und non-linearen Projekten ein kurzer Film vorangestellt, in dem mit hoher Geschwindigkeit Bilder von der Entwicklung vernetzter Kommunikation und deren Infrastrukturen montiert sind. Die Betrachter_innen können den Bildern kaum folgen und kollidieren am Ende mit der Abschaltung des Internet.
In dieser Dokumentation wird das Projekt vorgestellt, in seinen technischen Bedingungen erläutert und medienwissenschaftlich kontextualisiert. Es empfiehlt sich gleichwohl vor der Lektüre zunächst ein unbedarftes Ausprobieren des nicht-linearen Projektes zur Frage: Was sind digitale Kulturen? Auf einem YouTube Channel sind zudem die zusätzlichen Filmclips, die im Projekt eingefügt wurden, veröffentlicht, so dass sie Versuchen an anderen Orten zur Verfügung stehen können.
Im Projekt wurden exemplarisch Technologien der Webdokumentation im Hinblick auf ihren Einsatz in wissenschaftlicher Lehre und Forschung getestet. Um das Projekt auszuwerten, ist nun nachzuzeichnen, welches Diskursfeld und welche technologische Lage mit Webdokumentationen aufgerufen werden. Denn erst aus dieser Untersuchung könnte eine aufgeklärte Praxis entwickelt werden, mithin eine, die reflektiert mit Methoden und Technologie umgeht.
Es entsteht mithin ein immer größer werdendes Netz der Verfolgbarkeit, je interaktiver und partizipativer eine Plattform oder Site werden. Oder, um Wendy Chun aus einem nicht veröffentlichen Vortrag zu paraphrasieren: Dein nächster Freund ist dein größter Feind, da die Anzahl der Freunde und Nachrichten die Verfolgbarkeit im Web erhöht und stabilisiert. Der Diskurs über die Technik der Webdokumentationen konstituiert sich zudem im Diskurs- und Praxisfeld so genannter freier und offener Software. Zugleich wird die Zugänglichkeit unterlaufen, da die Software zwar kostenlos ist und auf Plattformen mit offenen Quelltexten (open source) läuft, aber nicht frei ist dem Sinne, dass Nutzer_innen in sie eingreifen könnten. Derart wiederholen Webdokumentationen das Geschäftgebaren kommerzieller IT-Firmen (PDF) für die es bezogen auf Kosten und Arbeitskraft effizienter ist, auf offenen Plattformen Software zu entwickeln, diese aber dann zu schließen und zu vermarkten. Zudem kommt es zu einer Banalisierung von Technik und zu einer Gängelung der Nutzer_innen, da ob der einfachen Nutzung zwar jeder mittun kann und dadurch eine Explosion von kreativen Projekten, aber nicht von offenen Infrastrukturen erfolgt. Deshalb das Credo: “An authoring environment for making interactive video. No coding required.” (Siehe hier). Mit Alexander Galloway (PDF) ist mithin darauf aufmerksam zu machen, dass nicht ein Code oder Algorithmus allein den Nutzer_innen Kontrolle auferlegt, sondern diese vor allem durch politische und diskursive Entscheidungen oder ökonomische Interessen erzeugt und stabilisiert wird. Vor diesem Hintergrund wird das Verschließen des Freien in Webdokumentationen, die gleichwohl am Diskurs freier Software und offener Quellcode partizipieren, zur einer strategischen Pointe. Denn mit der leicht bedienbaren Software und den partizipatorischen, kollaborativen und kreativen Ergebnissen wird die Akzeptanz dafür trainiert, dass Technologie geschlossen ist. Softwareentwicklung ist zu einem Verlust des Codes und des Codierens zugunsten des Mashup von feststehenden und nicht einsehbaren Modulen geworden. “Frei” entspricht dem Zustand, nicht zugänglich zu sein. Aus der Community für freie Software wird eine Gemeinschaft kollaborativer und kooperierender Film-Produzierender.
Korsakow funktioniert auf der Grundlage einer Datenbank, in die ein- bis zweiminütige Filme eingebunden und nach Schlagwörtern verlinkt werden. Den Vorgang des Verlinkens bezeichnet Thalhofer als “Snuifying“, womit die Herstellung der Kopplung kleinsten narrativen Einheiten (Snu) gemeint ist. Soar beschreibt: “[…] the SNUs in a Korsakow film are not connected together with fixed paths. Rather, they are contextually articulated to one another using two sets of keywords (tags), […]: the ‘in’ keyword(s) describe the SNU itself, while its ‘out’ keyword(s) define what it will look for while it is playing.” (mattsoar.com [PDF]). Die Filme erscheinen geleitet von den Aktionen der Nutzer_innen und den Einstellungen der Produzent_innen aus der Datenbank im Interface des Programms in einer räumlichen Anordnung. Dabei können mehrere Filme gleichzeitig als Still angeboten werden. In einem zentralen Fenster auf der Oberfläche läuft je der aktuell abgespielte Film, der mit einer Timeline versehen sein kann, so dass man einen Einruck von der Dauer eines Beitrages erhält. Die Stills können angeklickt und damit aktiviert werden. Der jeweils aktuelle Film gelangt in den Player und die weitere Auswahl der Filme wird je nach Verschlagwortung neu angeboten. Wird einer ausgewählt, erscheinen neue Stills auf dem Interface.
Korsakow unterscheidet sich von anderen Programmen für Webdokumentationen dadurch, dass es auf einen lokalen Rechner herunter geladen werden muss und keine Filme aus dem Internet direkt einbinden kann (mattsoar.com [PDF]). Der entscheidende Clou von Korsakow stellt sich nun durch ein statistisches Verfahren innerhalb der Programmierung her. Auf diese Weise kann die Wertigkeit eines Filmclips festgelegt und darüber die Häufigkeit seines Auftauchens bestimmt werden. Auf diese Weise wird sich in einem Projekt nie die gleiche Reihefolge der Filme herstellen und die regelwerkgeleitete Datenbank wird zum “Partner” der Assemblage der Filme.
Soar spricht von einem “algorithmic editing”, das sich in Korsakow wie folgt herstelle:
“We can see now that creating a Korsakow film involves at least three different kinds of ‘editing’: first, the most familiar kind, in which video or digital film footage is selected and cut together to make the raw material for each SNU; second, algorithmic editing, or, the process of what we call ‘SNUifying’ (adding metadata to each short film including keywords, probability, lives, etc., and then refining this assemblage based on repeated viewing and test screenings); and third, editing involving the viewer, who chooses the next SNU (by selecting its preview) to advance the film, thereby creating a final, non-definitive version of the film in that specific encounter.”
Mit dem algorithmischen Editieren wird der Kern von Webdokumentationen berührt. Denn sie setzen in den algorithmischen Verwaltungen eine modifizierte Version menschlicher Narration gegen eine bloße Kreation der Datenbanken. Lev Manovich hat zuerst in Language of media (PDF) 2001 darauf hingewiesen, dass Datenbanken (PDF) die neue symbolische Form (PDF) seien, die in Ablösung der Zentralperspektive die Ordnung von Welt sowie das Sein ihn ihr organisieren würde. Diese neue symbolische Forme zeichne sich durch modulare Assemblagen und Listen aus, womit es zu einer zusammenhanglosen Anhäufung von Ideen käme. Mit Datenbanken sind dann modulare, assemblierte Filme zu machen. Ganz anders wäre dagegen die Welt der Erzählung strukturiert, in der eine Logik von Ursache und Wirkung die Ordnung von Elementen bestimme. Das neue Dispositiv wäre also eines der automatischen Assemblage. Manovich führt die Umsetzung einer Kunst der Datenbank wohl am radikalsten vor, wenn er statt Geschichten zu erzählen das zeigt, was Programme lesen und ausgeben können: Farben, Strukturen, Intensitäten sowie die Herrschaft der Algorithmen.
Die politischen, gouvernementalen Effekte von Datenbanken, in Gestalt von Suchmaschinen, beschreibt David Gugerli. Es entstehe ein Regime der Beschriftung, aus dem alles, was nicht vermerkt ist, heraus fällt. Effekte seien: Flexibilisierung von Erwartungen und der situativen Rekombination von Ressourcen, gesellschaftlicher Wandel als Normalzustand, Modus der situativen Rekombination sowie folgenschwere Entscheidungen länger offen halten (aufgelistet nach zkmb.de). Es geht mithin um eine grundlegende Umwälzung, die nicht nur das Filmemachen betrifft.
In Korsakow sind im Gegensatz zum algorithmischen Regime bei Manovich eine Reihe von Möglichkeiten im Programm eingeschrieben, mit denen sich der Autor in die automatischen Verrechnungen einmischen kann. Soar (PDF) widerspricht Manovich deshalb, dass allein die Algorithmen die Produktion übernähmen. Zudem widersprächen Datenbanken nicht a priori dem Prinzip der Narration:
“As it turns out, Manovich and Kratky’s algorithmic editing appears to rely, at least in part, on matching clips via their colour or type of motion. I’d argue that keywording should be less arbitrary, taking its cues from the meaning of the clips rather than (merely) their visual appearance. […] The implication here is that, in an ideal case, assembling (algorithmically editing) a database documentary in Korsakow can be understood as a motivated and consequential process, in which a contingent set of related meanings is created, and recreated, as the film is built, exported, tested, refined, re-exported and tested again before final export and publication.”
An der Existenz von Narration wird nicht gerüttelt. Sie wird neu gestylt. Sie besteht nicht mehr a apriori, sondern Bedeutung und Sinn konstituieren sich erst in der Assemblage von Teilen, an denen nicht nur die Maschine, sondern auch der Mensch beteiligt ist. Es entsteht mithin ein neues Dispositiv der Sinngebung aus Agenturen unterschiedlicher Agenten, nämlich Menschen, Filme, kulturelle Kontexte, Interfaces, Datenbanken, Technik, Geschichte(n). Sinngebung ist dann nicht fix, sondern immer anders und zudem kontingent. Sie hat aber immer mit dem Menschen zu tun und greift auf für ihn lesbare narrative Traditionen und Strategien zur Erzeugung von Bedeutung zurück. Diese Philosophie der Bedeutung, in der Kontingenz, Transformation nicht das Narrative ablösen, soll ihrer politischen Bedeutung entsprechen.
In dieser Lage stellt Antoinette Rouvroy eine Lösung für die Auseinandersetzung mit dem Regime der Algorithmen vor, indem sie sich auf die Konstitution des ansprechbaren und antwortenden “Subjektes des Gesetzes” bezieht. Die entscheidende Crux für die entstellten Subjekte des algorithmischen Regimes sei nämlich, dass diesem kaum mehr ein Außen oder Anderes zur Verfügung stünde. So plädiert Rouvroy dann dafür, dass der Homogenität und Konsistenz der algorithmischen Operationen, neben den “ansprechbaren Personen” des Gesetzes, Unterbrechungen sowie heterogene Räume entgegengesetzt werden müssten.
Werden die Ausführungen und Analysen von Antoinette Rouvroy zugrunde gelegt, dann wird deutlich, in welcher Regierung die Webdokumentationen stattfinden und wie sie diese verdecken. In einem technologischen Environment, in dem es keine subjektive Äußerungsmöglichkeit und keine persönliche Ansprache mehr gibt, erzeugen die Webdokumentationen Plattformen, in denen die verlorenen Vorgänge inszeniert werden. Dies allerdings nur, um wiederum eine Entmachtung vorzunehmen. Wo Daten nur Signale sind, werden sie in Webdokumentationen zu Zeichen. Wo Subjekte Datengeber sind, werden sie mit Webdokumentationen aufgerufen, in diesem Status Daten zu verteilen und zu vernetzen, als könnten durch die Narrationen Sinn und Subjektivität hergestellt werden. Webdokumentationen sind mithin Strategien einer kontrafaktischen, technisch und diskursiv erzeugten Subjektivierung, Sinnstiftung und Ordnung des Web, mit denen die algorithmische Gouvernementalität überlagert und verdeckt wird. Hinzu kommt, dass die Webdokumentationen zudem daran beteiligt sind, die Geschichte der frei zugänglichen Software zu unterwandern, die noch Hoffnung auf eine Wiederaneignung von Technik hätte sein können. Dies gilt insofern, als Webdokumentationen ihre Programme allen zur Verfügung stellen, sie aber vor den Zugriffen der Benutzer_innen abschotten.
Vor diesem Hintergrund steht in Frage, wie das Programm, das stellvertretend für die Technologien der Webdokumentation steht, für wissenschaftliche Lehre und Forschung eingesetzt werden könnte. Zum einen gab es der Forschung Verfahrensweisen und epistemische Logiken vor und erlegte Beschränkungen im Umgang mit dem Material auf. Zum anderen stellte sich die Frage, ob Aspekte der Konstitution digitaler Kulturen wie z. B. Intransparenz der Algorithmen, eine durch diese vorgegebene Organisation des Materials oder entsubjektivierende Partizipation und Kooperation auch das genutzte Programm mit konstituieren könnten. Vor diesem Hintergrund galt es, eine methodische Vorgehensweise zu finden, mit der zum einen die Interviews erforscht und zum anderen zugleich die Wirkung der Technologien der Erforschung bemerkbar werden konnten, um in Zukunft aus den gemachten Erfahrung andere Technologien oder Weisen der Reflexion der bestehenden zu entwickeln.
Zwei Möglichkeiten zum Umgang mit der algorithmischen Gouvernementalität können erwogen werden. Eine Kritik oder Aufklärung kann erstens bei der Offenlegung der Algorithmen ansetzen. Diese Lösung ist allerdings problematisch, da das Wirken von Algorithmen nach Alexander Galloway nicht dargestellt werden kann. Auch Manovichs Methoden des algorithmischen Editierens zeigen nicht die Algorithmen, sondern deren Wirken auf Oberflächen, denn mit Alexander Galloway:
“… Any visualization of data requires a contingent leap from the mode of the mathematical to the mode of the visual. This does not mean that aestheticization cannot be achieved. […] It simply means that any visualization of data must invent an artificual set of translation rules that convert abstract number to semiotic sign.”
Fazit ist mit Alexander Galloway, dass digitale Kulturen es mit einem Undarstellbaren (PDF) zu tun bekommen, weil Daten nicht bildlich sein können und die algorithmischen Kontrollgesellschaften zudem einem Regime einer Einheitlichkeit der Bilder unterliegen, denn: “… we have moved from a condition in which singular machines produce proliferations of images, into a condition in which mulitudes of machines produce singular images” (hier [PDF]).
Galloway bezieht sich nun für einen Lösungsansatz, die zweite Möglichkeit, auf das Konzept der kognitiven Kartierung (cognitive mapping) von Fredric Jameson, in dem mit der Methode der verschwörungstheoretischen (PDF) Allegorisierung Repräsentierbarkeit hergestellt werden soll. Jameson empfiehlt für die Kartierung die Methode einer verschwörungstheoretischen Allegorie (PDF). Diese ermögliche mit Arno Melteling eine: “[…] Darstellung des potenziell unendlichen Netzwerks plus einer plausiblen Erklärung für seine Unsichtbarkeit […]” (frame25.f-lm.de). Mit Stephan Gregory ist allerdings zu bedenken, dass: “[…] warum gerade die Paranoia in ihrer Tendenz zu Kurzschluss und Vereinfachung ein adäquates Erkenntnisinstrument für kompliziert vernetzte Verhältnisse bieten sollte” (bauhaus-uni.de [PDF]). Als Alternative kommt in Frage, was Gregory als kritische, unbedingt humorvolle Paranoia bezeichnet: “‘Kritische Paranoia’ bezeichnet nicht die Perspektive des Wahns selbst, der dadurch definiert ist, dass er in sich befangen bleibt, sondern den Gesichtspunkt eines Außenstehenden, der dem Spiel mit dem Wahnsinn eine bestimmte Form intellektueller Befriedigung abgewinnt” (bauhaus-uni.de [PDF]).
Die “Kritische Paranoia” ist deshalb von Interesse, weil sie es ermöglicht, statt eine Ordnung darzustellen, die immer nur Teil des umfassenden Systems der Kontrolle wäre, den Vorgang des Ordnens selbst zu evozieren und daran gleichsam Erkenntnispotenziale zu schulen. Es steht nunmehr in Frage, ob und wie Technologien der Webdokumentationen zu einer kritischen paranoiden Allegorie werden könnten. Dabei ist zu beachten, dass sie als Datenbanken sowie als Teil einer vernetzten Infrastruktur unter algorithmischer Verwaltung stehen und in dieser die Funktion haben, „menschliche“ Narrationen in diese einzubinden und eine Sinngebung des Automatischen und wenig am Menschen Interessierten zu ermöglichen. Im Umgang mit den in Korsakow eingebundenen Research-Interviews wurde versucht, diese Konstitution zu unterlaufen, indem das, und das ist die Pointe, Nichtdarstellbare verborgen wurde, um es ans Licht zu bringen. Damit stellte sich keine Darstellung her, aber doch eine Ahnung von den Wirkungen algorithmischer Kontroll- und Ordnungssysteme. Um dies zu erreichen, wurden die Benutzer_innen den verschwörungstheoretischen Aufladungen digitaler Kontrollgesellschaften ausgeliefert. Sie konnten mit den Webdokumentationen interagieren, sie aber nicht kontrollieren, verstehen oder arrangieren.
Humorvolle Paranoia gegen algorithmische Gouvernementalität
Die ersten Arbeitsschritte für die wissenschaftliche Aufarbeitung und Auswertung der Interview-Videos mit Korsakow bestanden darin, die Interviews im Hinblick auf mögliche thematische Kategorisierungen zu sichten und zu ordnen. Die ausgewählten Teile sollten zudem mit Hilfe von zusätzlichem Material aus dem Internet anschaulicher gemacht werden. Es entstanden zwei Arbeitsgruppen. Eine Gruppe befasste sich mit den unterschiedlichen Definitionen zu digitalen Kulturen und sichtete das Material mit der Frage, ob sich Muster von Definitionen ausfindig machen ließen, also Ähnliches mehrmals auftauche. Es entstanden Kategorien wie: (Digitale Kulturen als) strategischer Begriff, (Digitale Kulturen als) Werden sowie (Digitale Kulturen als) Vernetzung. Aus den ausgewählten Interviews wurden entsprechende Clips herausgeschnitten. Diesen Clips wurde in der Datenbank weiteres Filmmaterial hinzugefügt, das Aspekte digitaler Kulturen vermittelte (Abb. 1) wie z. B. Künstliche Intelligenz, Ubiquitous Computing, Smart Cities, Interaktion am Beispiel des SAGE mit light-sensing gun (PDF). Die Auswahl des zusätzlichen Materials sollte einer eigenen narrativen Logik folgen und nicht etwa die Aussagen in den Interviews illustrieren, sondern diese historisch und diskursiv kontextualisieren. Das zweite Projekt befasste sich mit den Fragen nach Potenzialen und Gefahren digitaler Kulturen und ordnete sie nach einer Sichtung nach Kategorien wie: Demokratie, Freiheit, Macht. Auch hier wurde wieder zusätzliches Material aus dem Internet gesucht, diesmal jedoch mit dem Ziel, die jeweiligen Themen zu veranschaulichen. Die vorbereiteten Clips sollten in das Programm Korsakow eingebunden werden, damit im Interface zu einem Thema unterschiedliches und widersprüchliches Material angeboten werden kann.
Die “Kritische Paranoia” wurde im Projekt “Sirigraphie. Memory for Digital Cultures” dadurch erzeugt, dass die Stills der angebotenen Filme auf dem Interface hinter an Memorykarten erinnernde Grafiken (siehe Abb. 2) gleichsam versteckt waren. Wurde eine Karte angeklickt, lief ein Film ab und die Karten mischten sich neu. Auf diese Weise sollte der Unmut der Benutzer_innen darüber erzeugt werden, dass sie technischen Vorgängen ausliefert waren, die nichts mit ihnen zu tun hatten und die sie nicht einsehen konnten. Im Unmut über die von Datenbanken sowie, im Hinblick auf die eingefügten Clips aus dem Internet, von Suchmaschinen verwalteten Filme, sollte eine Erkenntnis in die Funktionsweise von Webdokumentationen sowie der Produktion von Wissen durch sie ermöglicht werden. Die Forschung über digitale Kulturen mit Hilfe von Video-Interviews über sie wurde so zu einer der technologischen Bedingungen der Ordnung von Welt und Wissen in ersteren. Damit wurde den Interviews, die diskursiv an der Erzeugung digitaler Kulturen beteiligt sind, zugleich ein Spiegel vorgehalten und Aussagen durch die ästhetische Form entweder bestätigt oder konterkariert. Wird z. B. die Partizipation in techno-ökologischen Kulturen herausgehoben, in denen technische Dinge sich in Agenturen als Handelnde mit dem Menschen empfehlen, so wurde dieses kooperative Modell da ent-täuscht, wo die Dinge sich vor dem Menschen verbergen und ihn nicht involvieren. Die Nutzer_innen konnten unter Aufwendung von Ruhe und Geduld den Filmen folgen, sich von ihnen leiten lassen. Sie konnten auch einen Vorgang der Decodierung durchlaufen, da die Interviews sowie die Filme zu digitalen Kulturen aus dem Internet in ihrer Verschlagwortung einer eigenen Logik folgten. Damit wurde hervorgehoben, dass der Mensch in der Tat der Nicht-/Darstellung am Ende Sinn gibt. Es wurde aber nicht eine Ontologie der Assemblage als neue Weise von Sinn und Wissen in digitalen Kulturen propagiert. Vielmehr sollte spürbar werden, welche Wirkungen Assemblagen auf Subjektbildung, Wissen und Verortung in Welt haben. Von großer Wichtigkeit war schließlich die Einfügung von Filmen mit SIRI, in denen ein mit der App für Spracherkennung ausgerüstetes Smartphone “gefragt” wurde, was ein Begriff aus dem Bereich digitaler Kulturen bedeuten würde. SIRI suchte eine Datei im Internet und “las” diese vor. Erstaunlicherweise erschienen die von der Computerstimme vorgelesenen Artikel verbindlicher und stimmiger als die Ausführungen der in den Interviews befragten Wissenschaftler_innen. Diese Wirkung entsprach einer Enttäuschung der Stelle menschlicher Akteure in digitalen Kulturen. Die menschlichen Eskapaden der Sinngebung gerieten in eine Konkurrenz um Aufmerksamkeit mit dem weltweiten Netz, in der sie nur schwer Bedeutung und Relevanz erringen konnten. Gerade diese beiden Ent-täuschungen schienen aber die Voraussetzung dafür, sich auf die Interviews einzulassen, da ein Prozess der De-Illusionierung stattgefunden hatte und daran die Bereitschaft entstand, eine kontemplative Haltung einzunehmen und den Ausführungen in den Interviews sowie in den Filmen zu folgen. Es entstand mithin im Format der Webdokumentation eine kritisch paranoide Allegorie über Webdokumentationen, die die algorithmische Verwaltung von Wissen zwar nicht darstellte, aber doch implizit erlebbar machte.
Im zweiten Projekt “Potenziale und Gefahren” waren die wählbaren Filme im Still sichtbar und durch eine je farblich unterschiedliche Umrahmung (siehe Abb. 3) sowie eine textliche Auszeichnung einer geheimnisvollen Ordnung zugeteilt. Im Vergleich zum “Memory” standen Interviews und Filme aus dem Internet eher in einem abbildenden Verhältnis, da letztere Überlegungen der Wissenschaftler_innen veranschaulichen sollten. Die farblichen Auszeichnungen standen für die Verschlagwortung der Filme nach Themen, etwa Demokratie oder Emanzipation, die aus der Analyse der Interviews herausgearbeitet wurden. Die Auseinandersetzung mit den technologischen Bedingungen digitaler Kulturen fand in diesem Projekt auf einer das Erste komplementär ergänzenden Ebene statt. Hier wurde den Filmen eine klare Ordnung aufgezwungen und den Nutzer_innen der Eindruck vermittelt, dieser auch folgen zu können oder zu müssen. Damit wurden Diskurs und Praxis der Webdokumentationen unterlaufen, in denen hervorgehoben wird, dass in diesen eine subjektive, kontemplative und private oder persönliche Lesart der Nutzer_innen entstehen solle. Im Interview-Projekt mit Korsakow wurden die Nutzer_innen vielmehr dazu ermuntert, eine vorgegebene Ordnung zu erkennen und zu decodieren. An diesem Vorgang scheiterten sie wiederum auf Grund der statistischen Zufälligkeit, die als besonderes technisches Merkmal in Korsakow herausgearbeitet wurde. Auf diese Weise wurde das Projekt über die narrativ-logische und grafische Struktur zu einer Allegorie über den Zwangscharakter des algorithmischen Regimes, dem die Nutzer_innen nicht Herr werden können, da es einer eigenen und nicht darstellbaren Logik folgt.
Aus der Ausgangsidee, mit Webdokumentationen einen Beitrag zur geisteswissenschaftlichen Forschung zu leisten, wurde mithin aus guten Gründen ein ästhetisches Projekt über das Forschen mit audiovisuellen Korpora und datenbank- sowie webbasierten Technologien. Dazu wurden die von Soar beschriebenen Methoden genutzt, aber zugleich neu gewichtet. So wurde im Projekt die Assemblage nicht mit ontologischem Impetus eingesetzt, sondern um zu verdeutlichen, dass und mit welchen Wirkungen digitale Kulturen aus einer Gemengelage unterschiedlicher Diskurse entstehen. Ebenso wurde mit Affizierungen operiert, um eine Unterbrechung der Erzählungen zu ermöglichen und so einen Raum zu schaffen, in den Nutzer_innen reflektierend einschreiten können. Am Ende des Tages steht sicher nicht der Mensch, aber doch die Möglichkeit, einen Denk-, Vorstellungs- und Handlungshorizont zu eröffnen, in dem Techno-Logik fremd und darin anders denkbar wird.
Vor diesem Hintergrund können Möglichkeiten der Nutzung von Videoplattformen und Video im Internet für wissenschaftliche Forschung entworfen werden. Es handelt sich in Auseinandersetzung mit Stiegler um eine kollaborative Forschungsplattform, z. B. mit den Research-Interviews “What are digital cultures?”, auf der jede/r Interessierte die Forschung mit voranbringt. Ziel wäre es, die Auswertung der Videos im Hinblick auf Themen und Analysen handhabbar zu machen. Die Research-Interviews könnten in einer (1) Datenbank nach Schlagworten abgelegt werden und in einer (2) räumlichen Montage erscheinen. Es könnte unterstützend sein, wenn die Auswertung der Videos (3) automatisiert werden kann, so dass ein Algorithmus in den Filmen nach geeigneten Stellen sucht. Diese Suche müsste allerdings immer transparent und nachvollziehbar sein. Die Videos müssten (4) annotierbar sein, so dass Nutzer_innen interessante Stelle bezeichnen und sich über diese austauschen können. Es gibt bereits entsprechende Tools, die vor der Nutzung evaluiert werden sollten. Dazu zählen: Ligne de temps des Institut de Recherche et d’Innovation (IRI) von Bernard Stiegler, der Piece Maker aus dem Projekt Motion Bank mit der Forsythe Tanz Company sowie das Projekt Meta data in the Age of Ubiquitous Media. Culture Mining – Time-based Tagging, von Robert Zimmer, Kelli Dipple, Yuk Hui, Goetz Bachmann, Andrea Rota, Darren Williams des Goldsmiths Leverhulme Media Research Centre an der Goldschmith University in London. Während die ersten beiden Projekte auf die Annotation durch Texte neben dem Video setzen, wird das Video in Letzterem nach Intensitäten gegliedert. Schließlich wäre es denkbar, dass auf der Plattform verschiedene Formen der (5) kollaborativen Forschung möglich werden. Die Nutzer_innen könnten (a) eigene Montage/Assemblagen zusammenstellen. Algorithmen des Dataming, die zum Profiling zum Zwecke der Vorhersagen von Verkaufsverhalten genutzt werden, könnten für die kollaborative Forschung umgedeutet werden, um die (b) Such- und Ergebniswege anderer Forscher_innen erkennbar und einsetzbar zu machen. Bei allen Anwendungen wäre (6) herauszustellen, wie sie funktionieren und was sie ausschließen.
Die Forschung mit digitalen Tools würde teilweise das verändern, was bisher unter Forschen verstanden wurde. Zum einen müssten sich die Geisteswissenschaften an praktische Konzepte und Versuche wagen, wie dies z. B. exemplarisch und richtungsweisend am Institut de Recherche et d’Innovation (IRI) geschieht. Zum anderen müsste eine medienwissenschaftlich informierte, praktische Forschung und Erprobung geschehen, mit der das, was entwickelt wird, auch immer wieder auf seine gouvernementalen und epistemologischen Aspekte hin untersucht würde. Durch den letztgenannten Zugang würden sich die an dieser Stelle gemachten Überlegungen von den Theorien und Methoden am IRI unterscheiden. Denn auch eine andere Technik als die der Hyperindustrie würde ihre eigenen gouvernementalen Implikationen haben.
Die Empfehlung aus dem hier dokumentierten Projekt ist, ein Netz der Aufklärung zu ersinnen und umzusetzen. Methoden der Forschung könnten dabei Formen annehmen, die bisher in der geisteswissenschaftlichen Forschung wenig Platz hatten, wie z. B. Installationen, Performances, Lesungen, mit denen in einer diskursanalytischen Ästhetik Diskurse entlarvt werden können. Dabei geht es nicht um künstlerische Forschung als Erweiterung der Wissenschaft, sondern vielmehr um Methoden, mit denen Methoden kritisch reflektiert sowie Interventionen in bestehende Wissensordnungen und technologischen Bedingungen vorgenommen werden können. Diese wissenschaftlich-künstlerische Methodologie kann nur aus einer medienwissenschaftlichen Forschung entstehen. Denn es gilt, die zu bearbeitende Lage zu erfassen und aus der Analyse angemessene Vorgehensweisen zu entwickeln. Forschung und Praxis gehen mithin Hand in Hand, sind unabdingbar miteinander verwoben. Was zunächst abwegig erscheint, könnte ein notwendiges Format sein, um im Sinne des analytisch-kritischen Dazwischenkommens in apokalyptisch zu verschließenden medialen Umwelten überhaupt noch forschen zu können.
Die Projekte
Introvideo: Philip Czupras, Björn Görtz, Nicolas Jansen, Linda Postler, Sophia Wolf
Sirigraphie. Memory for Digital Cultures: Oona Braaker, Mariusz Bucki, Cornelius Gillner, Denis Koop, Patrick Meyer, Sina Wand
Potenziale und Gefahren: Robyn Byrt, Samar El-Qara, Monique Kopecky, Lenea Lott