adonnaM.mp3
Über die Ausstellung
Der Katalog zur Ausstellung
Franziska Nori: adonnaM.mp3 Filesharing - die vers
David Weinberger: Die Intimität von Peer-to-Peer
Massimo Ferronato [epidemic]: Goldene Ohren
Florian Cramer: Peer-to-Peer-Dienste: Entgrenzunge
Luca Lampo [epidemic]: Speichern als ...
Alessandro Ludovico: Peer-to-Peer: Das kollektive,
Zirkeltraining: Bootleg Objekt #1 – ReBraun
Gregor/Jesek/Schröder: Coverbox
J. Chris Montgomery: Präludium, Fuge und Allegro:
Ulrich Sieben: Ein vegetarischer Hund
Luigi Mansani: Legale Strategien
Eine MP3-Chronologie
Fotos der Ausstellung
Die Designarbeiten
I love you
origami digital - Demos without Restrictions
SMS museum guide
digitalcraft STUDIO

Florian Cramer

Peer-to-Peer-Dienste: Entgrenzungen des Archivs (und seiner Übel?)

--> Anmerkungen zum Text

Auf den Höhepunkten ihrer Popularität, und kurz bevor sie per Richterspruch abgeschaltet wurden, waren Napster und Audio Galaxy vermutlich die umfangreichsten öffentlichen Musikarchive aller Zeiten. Napster, die erste populäre Inkarnation der Peer-to-Peer Dateitausch-Dienste im Internet, war das erste globale Archiv, das aus nichts als einer Gesamtmenge temporär angedockter Privatarchive bestand, das keinen festen, sondern einen sekündlich wechselnden Bestand besaß und seinen Katalog synchron dazu aktualisierte und umschrieb. Während ältere Internet-Dienste wie das World Wide Web die konventionelle Topologie der Archive und Bibliotheken als Orte ("sites“) mit jeweils eigenen Organisationsschemata und Zugangscodes schlicht nachbildeten, vollzog sich in Peer-to-Peer-Diensten, was Jacques Derridas Aufsatz "Mal d’Archive“ bereits im Mai 1994 mit einem prophetischen Scharfsinn voraussah, der späteres Medientheorie-Geschwätz über das Internet alt aussehen ließ:

"Aber ich räume dem Beispiel E-Mail aus einem wichtigeren und offensichtlicheren Grund besondere Bedeutung ein: weil die elektronische Post heute, mehr noch als das Fax, im Begriff ist, den gesamten öffentlichen und privaten Raum der Menschheit umzuformen, und zwar zuerst die Grenze zwischen dem Privaten, dem (privaten oder öffentlichen) Geheimnis und der Öffentlichkeit oder dem Phänomenalen. Dies ist nicht nur eine Technik im gängigen und begrenzten Sinne des Begriffs: In einem ungekannten Rhythmus, auf quasi-augenblickliche Weise, muss diese instrumentale Möglichkeit der Produktion, des Drucks, der Bewahrung und der Zerstörung des Archivs unweigerlich rechtliche und damit politische Veränderungen mit sich ziehen. Diese betreffen nichts geringeres als das Eigentumsrecht und die Rechte von Publikation und Reproduktion.“(1)

Mehr noch als E-Mail zeigen heute Peer-to-Peer-Netze wie Napster, Gnutella, Kazaa und Freenet auf, wie radikal das Archiv sich durch digitale Übertragung und Speicherung von Daten transformiert. Die flüchtige und individuelle Punkt-zu-Punkt-Datenübertragung der E-Mail verbindet sich in ihnen mit der großvolumigen und global abrufbaren Datenaufbewahrung von FTP-Servern und dem World Wide Web. Den tradierten Ort und die tradierte Architektur des Archivs stellt dies so radikal in Frage wie keine andere Informationstechnologie zuvor, Ted Nelsons letztlich zentralistisches Konzept des "Hypertext“ eingeschlossen.(2)

Klassischerweise definiert sich das Archiv als ein Ort, an dem nach institutionell definierten Kriterien Artefakte und Dokumente aus einem externen Angebot selektiert, intern angeordnet und zueinander in Beziehung gesetzt werden. In anderen Worten: Jedes Archiv verwaltet erstens archivierte Daten und zweitens die Meta-Daten der Archivierung, etwa in der Form eines Katalogs. Weil die Daten in der Regel selbst schon Metadaten (bzw. Paratexte) enthalten, Bücher etwa Inhaltsverzeichnisse und Indizes, Bilder Signaturen, digitale Texte Markup-Codes und Header-Zeilen, weisen sie in sich bereits Mikrostrukturen der Archivierung auf, die wiederum in die Metadaten des Archivs integriert werden müssen. So sind die Metadaten der Archivierung potentiell grenzenlos komplex und in ihrer Schachtelung grenzenlos steigerbar, als endlose Kette der Metadaten von Metadaten von Metadaten, in Gestalt von Gesamtkatalogen, Konkordanzen, Suchmaschinen und Meta-Suchmaschinen. Wie jeder weiß, der einmal Datenbanken und Softwareschnittstellen programmiert hat, wächst die Komplexion der Metadaten und ihrer Codierung exponentiell, je perfekter, skalierbarer und vermeintlich benutzerfreundlicher der Datenzugriff sein soll. So wird die Archivierung zu einem zweiten Text, der das Archivierte zu überschreiben droht und die Differenz von Objekt- und Metadaten potentiell auslöscht. Jorge Luis Borges’ "Bibliothek von Babel“ enthält, laut der Spekulation ihres Ich-Erzählers, innerhalb eines kombinatorischen Rasters alle Bücher, somit auch alle ihre Deskriptionen und Kataloge, aber ebenso Gegenentwürfe und Widerlegungen dieser Deskriptionen und Kataloge; auch in der bloß imaginären Totalität bricht die Ordnung des Wissens zusammen. An Borges’ Erzählung lehnt sich Simon Biggs’ Software-Kunstwerk "Babel“ an, das die angloamerikanische Dewey-Signaturenklassifikation zu einem kartographischen Web-Browsing-System umprogrammiert und dadurch, wie der amerikanische Netzkunstkurator Steve Dietz schreibt, zu einer "conflation of cataloging and navigation - of metadata (the cataloging information) and data (the website itself)“ wird.(3) – Die Poetik und Ästhetik sich verselbstständigender Metadaten thematisierte ferner das "Periodical Journal of Bibliography“, das in den frühen 1990er Jahren von Grant Covell in Cambridge/Massachusetts herausgegeben wurde und ausschließlich fiktive Bücher verzeichnete.

Neben seinen Daten und Metadaten muss ein Archiv auch die Spielregeln seiner Nutzung festlegen. Es verschreibt sich Zugangscodes: Öffnungszeiten, Benutzerausweise und -kennungen, Hausordnungen, architektonische Grenzen und Schranken, im Internet auch Passwortsicherungen, Bandbreiten-Begrenzungen, Lizenzen. Mit der Migration der Zugänge in Datennetze verlagert sich die Codierung von Hausregeln und klassischer Architektur in die maschinenschriftliche Kontrollstruktur von Software-Algorithmen. Natürlich ist der verwehrte und verheimlichte Zugang zu einem Archiv ein solcher Zugangscode, ebenso wie der radikal offene. So löschte zum Beispiel die Anticopyright-Appropriation des abgeschotteten Netzkunst-Servers hell.com durch die Netzkunst-Plagiatoren 0100101110101101.org Zugangscodes nicht aus, sondern ersetzte nur sichtbare durch unoffensichtlichere Barrieren.

Also ist jedes Archiv mindestens dreifach codiert, erstens in seinen archivierten Daten, zweitens in seinen Metadaten und drittens in seinen Zugangsregeln. Derrida fragt nach den Schöpfern dieser Codes wenn er gleich zu Beginn von "Mal d’Archive“ feststellt, dass dem Archiv "seine Bedeutung, seine einzige Bedeutung, durch das griechische ,arkheion‘ zukommt: ursprünglich ein Haus, ein Wohnsitz, eine Adresse, der Sitz der obersten Magistraten, der Archonten, jener, welche die Befehle gaben.“(4) Er denkt also das Archiv nur als offiziöse Institution und übersieht dabei seine inoffiziellen Filiationen: das Privatarchiv als Ort gesammelter privater Obsessionen, aber auch Grenzgebiete des Offiziellen und Privaten wie das "Museum der Obsessionen“ Harald Szeemanns, das ihm zufolge zwar "keine Institution“ ist, sondern "eine Lebensaufgabe“, andererseits schon durch Szeemanns homonymen Merve-Band institutionalisiert wird.(5) Im Gegensatz zu Derridas Archonten-Archiv verbirgt erstens das Privatarchiv seinen Ort und seinen Diskurs und definiert zweitens das Museum der Obsession Ort und Diskurs zugleich negativ und widersprüchlich durch seinen Diskurs der Diskursverweigerung.(6) Es scheint aber auf alle Typen des Archivs zuzutreffen, dass, wie Derrida behauptet, im Archiv Dokumente nur "vermöge einer privilegierten Topologie verwahrt und klassifiziert“ werden(7); das Privatarchiv privilegiert seine Topologie schon dadurch, dass es seine Daten und Metadaten der Öffentlichkeit entzieht, und das Museum der Obsessionen trägt, da es nicht Obsessionen sammelt, sondern obsessiv sammelt, seine privilegierte Topologie schon im Titel. Auch die Geschichte des Internets ließe sich als Geschichte von Archivierungs-Topologien erzählen, und einer Verschiebung von Privilegien, mit der die Grenzen des Offiziellen, Privaten und Obsessiven stets neu gezogen worden sind. Zunächst sind alle Client-Server-Architekturen des Internets privilegierte Topologien im Sinne von Derridas Analyse des klassischen Archivs. Ihre Archonten heißen Systemadministratoren und, in der Führungsetage, Standardisierungsgremien wie die "Internet Engineering Taskforce“ (IETF), die "Internet Corporation for Assigned Names and Numbers“ (ICANN), das "World Wide Web Consortium“ (W3C) und das "Institute of Electrical and Electronics Engineers, Inc.“ (IEEE)(8). Die Infrastruktur der Netzwerkprotokolle des Internets, vor allem des Basisprotokolls TCP/IP, wäre nicht funktionsfähig ohne die zentrale Vergabe und Kontrolle von Netzwerk-Adressblöcken durch die ICANN und die zentrale Administration hierarchisch organisierter Datenbanken wie jene des Domain Name Systems (DNS), die z.B. den Namen "www.google.com“ der IP-Adresse 216.239.39.101 zuordnet. Das primäre Archiv des Internets ist somit das seiner selbst. Liest man IP-Adressen und Domain-Namen als primäre und sekundäre Titelsignaturen, so genügen sich diese Signaturen als ihre eigenen Objekt- und Metadaten selbst. Das Archivierungssystem präexistiert also als Selbstinhalt das, was vermeintlich in ihm abgelegt wird. Es ist den gespeicherten Daten gegenüber agnostisch, als es wiederum beliebige Zusatz-Transportschichten und Zugriffstopologien oberhalb der Basisinfrastruktur erlaubt. Zu diesen Schichten gehören E-Mail, Telnet, FTP, World Wide Web und erst neuerdings für PCs konzipierte Peer-to-Peer-Dienste.(9)

Zu den ältesten Diensten des Internets überhaupt gehören Telnet und FTP, mit deren Hilfe man Servercomputer per Terminal-Eingabe benutzen bzw. sich von ihnen Dateien herunterladen kann.(10) Beide funktionieren nach der Logik des archontischen Archivs, denn sie werden von Systemadministratoren zentral kontrolliert, besetzen mit ihren Netzadressen auch physisch lokalisierbare privilegierte Orte, ordnen Daten und Metadaten gemäß der hierarchischen Struktur von Dateisystemen an und verfügen über Nutzungscodes in Gestalt von Kennungen, Passwörtern und Datei-Zugriffsrechten. Das World Wide Web ist in dieser Hinsicht nicht anders strukturiert als FTP-Server, schafft aber auf der Ebene seines (zentral normierten) Dokumentformats und des URL-Adressierungsschemas eine dritte Abstraktionsebene oberhalb von TCP/IP und Dienst-Protokollzugriff, die dem Leser eine dezentrale Archivierung suggeriert, faktisch aber nur eine Meta-Indizierung in sich geschlossener Archivorte – "sites“ – schafft. Durch den administrativ kontrollierten Speicherort des Servers und die Tatsache, dass Dokumente in ihm normalerweise nur lesbar, nicht schreibbar abgelegt werden, kennt auch das World Wide Web eine topologische Unterscheidung von privatem Datenbesitz von öffentlicher Datenfreigabe. Sie manifestiert sich an der Grenze zwischen PC- und Serverfestplatte. 0100101110101101.org, die Künstler der systematischen Erkundung von Archiven und Grenzen des Privatem und Öffentlichem im Internet, machen auf dieses Limit durch Umstülpung bewusst, wenn sie in ihrer Arbeit "life_sharing“ alle ihre privaten Daten, einschließlich eingehender E-Mail, auf ihren öffentlichen Webserver verlagern.

Zwar definieren sich Peer-to-Peer-Netze in der Theorie als Gegenmodell von Client-Server-Architekturen, faktisch jedoch setzen alle Peer-to-Peer-Dienste im Internet erstens TCP/IP-Routingtabellen voraus, das Zentralarchiv des von der ICANN betriebenen "Root Server A“, und sie sind zweitens oft selbst auch Server-basiert. Die ältesten Beispiele sind das Usenet, das seit 1986 auf seiner eigenen Protokollschicht Diskussionsforen wie alt.artcom oder de.comp.os.unix anbietet und, seit 1988, der Chat-Dienst IRC.(11) Sowohl im Usenet, als auch im IRC besitzen eingespeiste Daten keinen fixierten Speicherort, sondern wandern im Eimerkettenverfahren von Server zu Server. Nutzer docken mit ihrer Client-Software – Newsreadern, IRC-Programmen – an einen dieser Server an, nehmen aber somit nur indirekt am Peer-to-Peer-Datentausch teil. Schon in den frühen 1990er Jahren zirkulierten über die Server des IRC und des Usenet Daten, die zehn Jahre später auch den Datenaustausch der Peer-to-Peer-Clients prägen sollten: pornographische Bilder und illegal kopierte Software.(12) Die Expansion solcher privater Sammlungen der Obsessionen zu öffentlichen Archive verhinderte jedoch die Architektur des Usenets, die temporäre Datenübertragung von lokalen Speicherungen entkoppelte und Server-Administratoren weitreichende Kontrollrechte ließ, zum Beispiel die Sperrung einzelner Bereiche, Nutzercodes für den Zugang zum Server und die nachträgliche Löschung von Nutzern eingespeister Daten.

Erst Napster, der erste für Einwahl-PCs konzipierte Peer-to-Peer-Dienst im Internet, änderte die Spielregeln. Napster machte Nutzern bewusst, dass jeder ins Netz eingewählte Heim-PC nicht bloß ein Web- und Mail-Terminal, sondern auch ein potentieller Server ist, denn Napster-Downloads nahmen nicht den Umweg über einen Server, sondern spielten sich direkt zwischen zwei Nutzer-PCs ab. Die Medienutopien Brechts und Enzensbergers, dass die Empfangsapparate gefälligst auch Sendeapparate werden sollten,(13) wurden durch Napster Realität. Doch auch Napster lag noch eine Client-Server-Architektur zugrunde. Alle von Nutzer-PCs ins Netz gestellten Dateien wurden auf einem zentralen Server indiziert. So bestand zwar das Napster-Archiv nur aus temporär angeschlossenen Privatarchiven, jedoch waren seine Daten und Metadaten entkoppelt, und der Katalog verblieb am symbolischen wie physischen Ort der Institution napster.com. Aus diesem Grund zeigt sich an Napsters Geschichte auch beispielhaft, weshalb die Kontrolle des Archivs nicht in der Kontrolle der Daten selbst besteht, sondern in der Kontrolle von Metadaten und Topologien. Von Beginn an war Napsters Download-Angebot eingeschränkt, dass der Katalog-Server von den eingestellten Dateien der Nutzer nur Audiodateien im mp3-Format berücksichtigte. Indem also der Katalog seine Metadaten künstlich auf die Dateiendung ".mp3“ restringierte, strich er alles, was in ihm nicht verzeichnet war, auch faktisch aus dem Netz. Durch Gerichtsverfahren, die man als Änderungen an Napsters Softwarecode durch Rückgriff auf einen übergeordneten Code des Gesetzes interpretieren kann,(14) setzte die Musik- und Rechteindustrie zuerst durch, dass Copyright-geschützte Musiktitel aus Napsters Index gelöscht wurden, und kurz darauf die Abschaltung des Katalogs selbst, die somit die Abschaltung des Netzdiensts Napster bedeutete.

Gnutella wurde zum nächsten erfolgreichen Internet-basierten Peer-to-Peer-Dienst nach Napster, wohl auch, weil in ihm Zentralserver radikal abgeschafft und die Unterscheidung von Client und Server aufgegeben wurden. Zwischen angeschlossenen Nutzer-PCs zirkulierten nun nicht mehr nur Daten, sondern auch Metadaten. Index- bzw. Katalog-Abfragen wurden nach dem Prinzip der Telefonkette zwischen allen eingewählten Rechnern weitergereicht und beantwortet. Gnutella kennt somit keinen "single point of failure“ mehr und kann nicht, wie Napster, zentral abgeschaltet werden. Diesen taktischen Vorteil erkauft sich die Gnutella-Softwarearchitektur allerdings durch die großen Datenmengen, die allein durch die Suchanfragen zwischen den verbundenen Rechnern entstehen. Mit Gnutella entfiel schließlich auch die Beschränkung des Peer-to-Peer-Dateiaustauschs auf MP3-Tonkonserven. Eine kurze, zufällige Stichprobe laufender Gnutella-Suchanfragen im November 2002 ergab folgendes:

“chasey lain fuck on the beach.mpeg
it.mpeg
all leisure suit larry games.zip
n64 emulator with 11 games.zip
hiphop - dead prez - hip hop.mp3
hiphop - das efx - real hip hop.mp3
cypress hill - insane in the brain.mp3
addict mp3
neon genesis evangelion - episode 05 - 06 avi
beach candy sextravaganza part 1.mpg
kama_sutra_lesson_2.mpg
leann rimes - life goes on (1)
perl 5 by example - ebook.pdf
animal passion avi
jackass the movie avi
formula51 - samuel l. jackson
sex pistols anarchy in the uk 1 mp3
harry potter 2 chamber of secrets avi”


Auch wenn dies eine Zufallsaufnahme ist, deckt es sich mit dem öffentlichen Image von Gnutella, dass sechs der achtzehn Suchanfragen sich auf Popsongs im mp3-Format bezogen, vier auf Porno-Videos, zwei auf in Videodateien umgewandelte Hollywood Mainstream-Filme, zwei auf Fernsehserien, zwei auf Computerspiele und eine auf ein Programmierhandbuch. Ordnet man die Hauptwörter der Liste alphabetisch – "addict anarchy animal beach brain candy chamber dead evangelion formula51 fuck games genesis hiphop insane jackass kama_sutra leisure life neon passion pistols real secrets sex sextravaganza“ –, ergibt sich ein Wörterbuch der Gnutella-Gemeinplätze, das zugleich eine kleine Alltagspoetik der Obsessionen ist. Und so bezieht die Software "minitasking“(15), die Gnutella-Netzknoten, -Suchanfragen und -ergebnisse auf dem Computerbildschirm visualisiert, ihre (wohl unfreiwillige) pataphysische Ironie aus ihrer Echtzeittopographie obsessiver Suchwörter. Das globale Museum der Obsessionen, das Gnutella durch seine Vereinigung der Privatarchive schafft, mag zwar auf den ersten Blick trivial anmuten. Doch entscheidet sich seine Trivialität weniger am Angebot, als am Zugriff. Im Sommer 2002 brachten Gnutella-Suchwortkombinationen zum Beispiel auch digitale Raubkopien von Jorge Luis Borges’ "Ficciones“ und von Romanen Vladimir Nabokovs und Thomas Pynchons zum Vorschein, nebst Tonaufnahmen d er Musik von Stockhausen und LaMonte Young, die es schon seit langem nicht mehr im Handel gibt. Obsessiv sind aber auch die in Gnutella eingestellten Privatarchive der Obsessionen jenseits von Hochkultur einerseits und Pop-, Kino-, TV- und Porno-Mainstream andererseits, die erst durch Dateisuchen sichtbar werden, die nicht nach Inhalten, sondern agnostisch nur nach Dateiformaten fragen. Die Suchkombination "DSC [und] MVC [und] jpg“ zum Beispiel, die schlicht Dateien an den Tag bringt, die von Sony-Kameras erzeugt und nicht umbenannt wurden, führt in ein oft surreales Gesamtarchiv digitaler Amateurfotographie, dessen ästhetische Spannbreite von Walker Evans bis Nobuyoshi Araki reicht. Gerade seine Obszönitäten sind überraschend unlangweilig und unpornographisch, wenn zum Beispiel, wie im reproduzierten anonymen Digitalbild "dsc010015.jpg“, ein Körper durch optische Entschärfung sexuell verschärft wird. Wenn aber die Einheit kleiner Archive der Obsessionen nicht mehr durch den individuellen Sammler und die Topologie der Sammlung gestiftet wird, sondern eine Momentaufnahme ist, die über zufällige Korrespondenzen von Suchwörtern und Dateinamen zustande kommt, so zeigt sich abermals die Türhüterfunktion der Metadaten für Peer-to-Peer-Archive.(16)

Dass solch ein Zugriff auf digitale Codes – gleich ob sie später als Schrift, Töne, Bilder ausgegeben oder als Algorithmen ausgeführt werden – eigene Kunstformen hervorbringen kann, zeigt das Musikgenre des "Bastard Pop“, ein Name, der sich für anonym produzierte digitale Verschneidungen von Mainstream-Popsongs eingebürgert hat. Charakteristisch für den Bastard Pop ist eine Ästhetik gezielter Panscherei und Verbindung von Gegensätzen, wie etwa in der Kombination von Whitney Houstons Singstimme mit dem Elektropop von Kraftwerk in "I wanna dance with numbers“ von Girls On Top. Dass Bastard Pop zeitgleich mit Internet-Peer-to-Peer-Diensten entstand, ist nicht zufällig; tatsächlich beziehen die anonymen Remixer ihr Tonmaterial, und übrigens auch ihre Musiksoftware, zu einem großen Teil aus Gnutella und Co. So ist Bastard Pop die erste populäre Musikform, die aus dem Internet und globalisierten Privatarchiven entstand, und deren Herkunft aus diesen Archiven sich reziprok in ihre Ästhetik des Plagiats einschreibt.

Am "Bastard Pop“ zeigt sich aber auch die politische Dialektik der Umrüstung der Empfangs- zu Sendeapparaten. Denn juristisch gesehen, sind Peer-to-Peer-Archivare keine Privatleute mehr, sondern Verleger, und ihre Datensammlungen keine Privatobsessionen mehr, sondern eine massenmediale Verbreitung urheberrechtlich geschützter Inhalte. Nicht nur juristisch, sondern auch technisch kollabiert in vernetzten Computern der Unterschied zwischen dem Akt des Speicherns und Hervorholens einerseits und massenmedialer Übertragung andererseits, es sei denn, man macht ihn willkürlich an Kabellängen fest. Derrida attestiert auch dem klassischen, örtlich noch klar umrissenen und von der klar definierten Autoritäten kontrollierten Archiv einen "institutionellen Übergang vom Privaten ins Öffentliche“,(17) bei den Peer-to-Peer-Archiven erweist er sich recht als ein Problem, das zunehmend schon auf der Ebene der algorithmischen Codierung von Softwarearchitekturen und Zugangstopologien reflektiert wird.

Die vielleicht nächste, zur Zeit noch experimentelle Evolutionsstufe Internet-basierter Peer-to-Peer-Dienste sind anonymisierte Architekturen wie Freenet und GNUnet, die ihre Nutzer anonymisieren und ihren Datenverkehr mit starker Kryptographie verschlüsseln. Darüber hinaus verschieben sie nicht nur, wie Gnutella, die Metadaten der Suchanfragen, sondern auch die eingestellten Daten selbst automatisch zwischen allen angeschlossenen Computern. So verflüssigt sich nicht nur das Archiv als Einheit eingestellter Daten und selbsterzeugter Metadaten, sondern auch die Speicherorte der Daten. Die Ausschaltung von Überwachung und Kontrolle durch Dritte ist dabei erklärte Absicht der Entwickler. Auf der Homepage von Freenet heißt es: "Freenet is free software designed to ensure true freedom of communication over the Internet. It allows anybody to publish and read information with complete anonymity. Nobody controls Freenet, not even its creators, meaning that the system is not vulnerable to manipulation or shutdown“(18), und die GNUnet-Entwickler definieren ihr Projekt als "anonymous censorship-resistant file-sharing“.(19) Lokale Provider-Administratoren können diese Dienste zwar sperren, indem sie ihre TCP/IP-Kanäle blockieren, doch selbst dies lässt sich mit Geschick umgehen, indem man den Freenet- oder GNUnet-Datenverkehr durch andere Netzprotkolle – etwa Webseiten-Aufrufe oder E-Mail-Transfers – steganographisch "tunnelt“.

Ist dies das Ende aller privilegierten Topologien des Archivs? Gewiss nicht. Zunächst privilegieren alle Peer-to-Peer-Archive bestimmte Information und Nutzungen dadurch, dass sie die klassische Synchronie des Archiv durch eine Diachronie ablösen, seine dem Ideal nach zeitlose Verräumlichung temporär aufgelesener Artefakte also durch eine radikale Momenthaftigkeit und Instabilität des Archivs ersetzen. Die Einheit individueller Museen der Obsessionen verflüchtigt sich im momentanen Zustand und in den Suchwortbenachbarungen des Netzwerks. Und auch neuere Peer-to-Peer-Architekturen ändern nichts an der Privilegierung der Metadaten – also: Dateinamen – als einzigem und zudem unzuverlässigem Zugriffsregister des Archivs. Die Versuche der Musik- und Rechteindustrie, Peer-to-Peer-Archive durch taktisch falsch benannte Müll-Dateien zu sabotieren, liefert einen Vorgeschmack auf künftige Probleme. Und schließlich bleibt die Architektur der Archive ein Privileg von Programmierer-Archonten, selbst dann, wenn sie (wie Freenet und GNUnet) freie Software unter dem GNU-Copyleft ist. Die Aussage "nobody controls Freenet, not even its creators“ ist deshalb ebenso naiv wie jede Annahme, bloß durch kryptographische "privacy“ eine Anonymität zu erzielen, die jedes Privatphoto wieder unterminiert, das versehentlich ins Netz gestellt wurde.

So migriert die faktische Grenzen des Öffentlichen und Privaten letztlich auf die Ebene der Dateisysteme von Personal Computern, genauer: die Grenze des Verzeichnisses (bzw. Dateiordners), dessen Inhalt mitsamt allen Unterverzeichnissen für Peer-to-Peer-Downloads freigeschaltet wird. Diese Grenze wird desto prekärer, je mehr Aufzeichnungs- und Gedächtnissysteme – vom Kalender, Fotoalbum bis zur Korrespondenz – der Computer in sich absorbiert, als Software neucodiert und verfeinert, und je mehr Aufzeichnungen dank des Wachstums von Speicherkapazität (dem gegenüber der Beschleunigung der Recheneinheiten nach Moore’s Law bisher zuwenig Aufmerksamkeit geschenkt worden ist) auf ein Speichermedium vereint werden können. Der PC wird dadurch zunehmend nicht nur zu einem Ablageort biografischer Spuren, sondern zur Biografie selbst im wörtlichen Sinne der Niederschrift eines Lebens. Festplatten werden zu Identitätsprotokollen, ihre Daten zu intimen Erzählungen. Aus Roberta Flacks Soul-Versen von 1973, "Telling my whole life with his words, / Killing me softly with his song“, könnte man heute nicht minder überzeugend, wenn auch unschöner "Telling my whole life with my files / Killing me softly with my hard disk“ dichten. Es ist absehbar, dass keine Künstler-Werkausgabe und -Biografie mehr möglich sein wird ohne einen Festplatten-"dump“, eine Bit-für-Bit-Kopie ihres Inhalts, wenn nicht defekt gewordene Speichertechnik und das Versäumnis von Sicherheitskopien Spuren zwischenzeitlich vernichtet und Teilbiografien sanft getötet hat. Dass solch ein "Headcrash“ ein mnemotechnischer Super-GAU ist, oft auch ein ökonomischer, mag sich herumgesprochen haben; dass er zum kulturellen Super-GAU wird, bislang weniger. Doch wo Dateisicherungssystematik scheitert, könnten Filesharing-Netze gerade wegen der Unsystematik ihrer Datentransfers künftig die Backup-Medien und der Underground des kulturellen Gedächtnisses werden.


--> Anmerkungen zum Text