Diskussion
-- Open Content
Moderation Florian
Cramer
Frank Rieger: Sie sagen, daß ihre Zukunft in diesen eBooks liegen wird. Das sehe ich genauso. Nur wenn ich mir die Sachen nicht im eBook-Format per FTP downloaden kann, dann brauche ich damit auch nichts anzufangen. Der größte Vorteil des amerikanischen Projekts Gutenberg ist für mich, ich kann mir den Text downloaden, ihn mir so formatieren, wie ich will, auf meinem Laserdrucker doppelseitig ausdrucken, heften und in der U-Bahn lesen oder auf dem Laptop. Wenn ich das jedesmal am Bildschirm machen muß, ist das extrem lästig. Das ist nichts, was tatsächlich dazu beiträgt, daß die Texte leben, und daß die Texte gelesen und benutzt werden. Denken Sie da noch mal drüber nach, daß umzustellen? Gunter Hille: Was im Moment machbar ist, ist daß die Texte vorformatiert werden und direkt in das eBook reingeladen werden können. Das ist machbar. Aber es ist ja eine Auswahl. Wenn Sie z.B. sagen: 'Ich möchte Liebesnovellen lesen,' dann muß jemand die für Sie auswählen. Wir haben zweihundert Liebesnovellen und Sie wollen nicht alle zweihundert haben. Irgendjemand muß sie für Sie zusammenstellen, und das wird gemacht. Publikum: Meine Frage bezog sich eher darauf, daß Sie sagten, daß im Gegensatz zum amerikanischen Projekt das deutsche Projekt derzeit für Lesen am Screen gedacht ist, also, daß man die Sachen direkt aus dem Internet auf dem Screen list. Wenn ich so gucke, wann die meisten Leute lesen, da ist derzeit schlicht und ergreifend kein Internet. In der U-Bahn, okay mit 9,6 ist das ein bißchen teuer auf Dauer, und auch nicht unbedingt das, was man haben möchte. Deswegen die Frage, wird sich das noch mal ändern. Wird das deutsche Projekt Gutenberg vielleicht auch dahin gehen und sagen: Okay, wir machen da Ein-File-Bücher draus und stellen die auf den FTP-Server. Der Aufwand ist so gigantisch eigentlich nicht. Ich mache solche Sachen auch in der Regel und das ist nicht wirklich problematisch. Gunter Hille: Es ist im Moment einfach aus Personalmangel nicht geplant, das auf den FTP-Server zu legen. Man muß auch bedenken, daß das Archiv sich verändert und zwar stetig. Das geht eigentlich nur, indem man an einer zentralen Stelle die Daten hat und dort z.B. die Korrekturen vornimmt. Die Arbeit würde sich einfach verdreifachen oder vervierfachen. Auch die Produktion für z.B. Printing-on-demand-Systeme oder auch für ein eBook kann eigentlich nur aus einer Quelle heraus erfolgen, sonst macht man sich tot. Man hat auch eine Kernel-Quelle und übersetzt die für die verschiedenen Zielplattformen. Aber man kann oder sollte nicht das für jede Zielplattform vorhalten, sondern aus einer Quelle heraus alles generieren können. Florian Cramer: Mich würde mal interessieren, unter welcher Lizenz die Gutenberg-Projekte eigentlich vertrieben werden. Gibt es dafür eine freie Software-Lizenz im Stil von BSD oder von GPL? Wie ist das geregelt? Es müßte ja theoretisch auch so sein, daß derjenige, der diesen Text erfaßt hat, also damit zum Herausgeber wird, eine Form von Copyright, ein Urheberrecht an diesem Text hat? Wie kann man damit verfahren? Kann ich diesen Text legal weiterdistributieren, zum Beispiel gegen Geld auf CD verkaufen? Ist es mir auch erlaubt, ihn zu modifizieren und in dieser modifizierten Form weiterzudistribuieren? Gunter Hille: Es gibt im Moment keine weiteren Richtlinien dazu, was mit den Texten genau gemacht werden kann. Ich habe mir das Small Print vom Projekt Gutenberg USA angeguckt. Das fand ich so schrecklich, daß ich das keinem zumuten wollte, vor jeder Seite zu lesen. Dort ist es ja wirklich in jeder Datei vorangestellt, und das sind ungefähr drei Din A4 Seiten. Sagen wir mal so, es ist sehr schwer, eine Kopie eines sehr gut hergestellten Textkorpus' als nicht selber eingescannt zu identifizieren. Bedenken Sie, wenn Sie einen fehlerfreien Text erzeugen, und jemand Zweites setzt sich hin und tippt den fehlerfreien Text, haben beide das Recht, diesen Text zu verwenden, weil der Autor frei von Rechten ist. Sie können eigentlich nur feststellen, daß jemand eine Kopie von meinem Text gemacht hat, wenn er die Fehler übernimmt, die ich gemacht habe. Es ist bei 400.000 Zeichen sehr, sehr unwahrscheinlich, daß er es an der gleichen Stelle macht. Obwohl die OCR-Software das schon an manchen Stellen macht und die Korrektur-Software wohl an manchen Stellen dieselben Fehler macht. Aber es ist trotzdem noch beliebig unwahrscheinlich, daß ein und der gleiche Fehler an zwei Stellen erscheint. Ich habe solche Fälle gehabt, wo Gutenberg-Material woanders lag. Ich habe es innerhalb von zehn Sekunden identifiziert als von uns stammend. Da jetzt Regeln anzugeben.... Das amerikanische Projekt Gutenberg sagt, 20% License Fee, wenn der andere sie komerziell verwendet. Projekt Gutenberg hat bisher noch nichts gesagt. Ich habe nur gesagt, die CD, wie sie jetzt ist, unterliegt natürlich dem Copyright, weil nach § 4 Urherberrechtsgesetz die Anordnung und Zusammenstellung von Copyright-freiem Material wiederum schützbar ist. Das ist das Beispiel, was ich mit der Novellensammlung gab. Dazu kommt jetzt allerdings die kleine Seitenbemerkung: Mal angenommen, ich habe von einem Autoren alle 49 Novellen, die er geschrieben hat, im Archiv Gutenberg. Und mal angenommen, die meisten Verleger haben bisher immer sechs Novellen genommen und daraus gemacht: 'Das Schönste von Max Dautendahl,' z.B. Dann könnte ich jetzt mit einem kleinen Programm, was ich schon fertig habe, sagen: 'Bitte schön, hier ist euer Form, tippt eine Sequenz ein von sechs Zahlen aus 49 und ihr habt das Copyright an dem Text, weil die Art der Zusammenstellung gehört euch dann.' Das sind nämlich genauso viel Möglichkeiten, sechs Novellen aus 49 Novellen zusammenzustellen, wie man Lottozettel braucht, um sechs Richtige zu erhalten, vorausgesetzt, wir reden nicht über die Reihenfolge der Texte im Buch, die auch noch schützbar wäre. Dann gäbe es noch mehr Möglichkeiten. Das heißt, sechs Novellen aus 49 macht 13 Millionen mögliche Copyrights für 13 Millionen mögliche Bücher. Ist das Bereitstellen des Programms im Internet jetzt schon mein geistiges Eigentum? Und habe ich jetzt das Copyright auf 13 Millionen Bücher? Ich weiß es nicht, aber wir sind in einem Grenzbereich. Publikum: Besteht noch Interesse an dem FTP-Archiv, an einem Mirror? Gunter Hille: Momentan nein. Publikum: Schade, aber wenn es wieder da sein sollte, bitte Bescheid sagen. Die nächste Frage: HTML war sicherlich ein Schritt in die richtige Richtung. Das begrüße ich auch sehr, aber welches Format wäre denn das bessere gewesen? Gunter Hille: Es wäre sicherlich SGML besser gewesen. Wir erwarten ja für die nächsten Jahre XML im Internet. SGML war damals schon verfügbar. HTML war ja nichts anderes als ein ganz kleines Schnippelchen von SGML, bloß das war damals nicht machbar. Es gab keinen Browser, der SGML hätte darstellen können. Jetzt mit dem Aufkommen von XML ist das möglich. Und ich denke, das gesamte Gutenberg Archiv wird -- ob SGML oder XLM ist eigentlich mittlerweile fast egal -- nochmal neu konvertiert in eine bessere Markierungssprache, die einem mehr Macht gibt zu markieren. Ich möchte einen Autor auch mit 'Autor' markieren und nicht mit 'Überschrift 2', weil das ist nicht 'Überschrift 2', sondern das ist der Autorname. Und deswegen, glaube ich, ist diese Konversion des Archives unabdingbar und muß ganz, ganz bald begonnen werden. Uns fehlen einfach die personellen Mittel. Ich habe mit 1.000 bis 2.000 Stunden Handarbeit gerechnet. Publikum: Es fehlt offensichtlich an Mitarbeitern. Gibt es ein Forum dafür? Ich weiß, es gibt eine Usenet Newsgroup über das Projekt Gutenberg, aber nicht speziell über das deutsche Gutenberg Archiv. Wird es so etwas geben? Gunter Hille: Eine Newsgroup war nicht geplant. Es gibt tatsächlich momentan nur per Email Kontakt, aber da kann sich jeder melden, und es steht auch auf den Gutenberg-Homepages drauf, an wen man sich da wendet. Publikum: Wie sieht es mit Illustrationen aus und dort mit den Rechten? Was ist die Gesellschaftsform von Projekt Gutenberg? Und wie finanziert sich das Projekt? Gunter Hille: Zum ersten: Es sind nur Illustrationen im Projekt Gutenberg, die aus Büchern stammen, die vor mehr als 100 Jahren gedruckt worden sind. Man muß da auch wieder aufpassen. Das ist das gleiche wie beim Übersetzer, der Illustrator muß entsprechend lange tot sein. Bei den Autorenbildern bin ich definitiv sicher, daß ich meine Hand nicht ins Feuer legen möchte. Es gibt hier in Berlin zwei wunderschöne Dinge. Das eine heißt Archiv für Kunst und Geschichte. Die haben einen Bestand von x-hunderttausend Bildern. Das andere heißt Bildarchiv Preußischer Kulturbesitz. Die haben x-hundertausend Bilder. Ich brauche nur die Autorenbilder bei Gutenberg, hauptsächlich. Und habe die 1995 oder '96 angefragt. Da haben sie mir die Preise genannt, die der Spiegel auch bezahlen muß und zwar dann pro Woche, weil der Spiegel ja auch pro Woche bezahlt für jedes Bild, das er dann wieder neu auflegt. Und dann habe ich dankend abgelehnt. Sollte also einer ein Bild als aus dem Archiv für Kunst und Geschichte entnommen identifizieren, so möchte er das bitte nicht melden. Aber manchmal möchten wir einfach den Autoren haben. Und wir haben bisher noch keinerlei Beschwerden bekommen. Projekt Gutenberg wird geduldet. Die Verlage knirschen die Zähne. Es gibt sehr viele Verlage, die sich ausschließlich mit Klassikern beschäftigen, und die sind natürlich besonderst stinkig und helfen dem Projekt natürlich auch nicht, indem sie ihr Archiv öffnen und Texte einsenden. Publikum: Ich habe Fragen und Anmerkungen, die sich auf Jeanette Hofmanns Beitrag beziehen. Herzlichen Dank. Sie haben ein bißchen Ernüchterung hier hereingebracht, daß nicht unbedingt Open Source, Open Community, Open Standards zu mehr Qualität führen, sondern umgekehrt auch ein Zurück hin zur Vermassung, Verwässerung, hin auch wieder zu Geheimgesellschaften. Ich denke, daß das Problem eben dadrin liegt, daß ich nicht einen Bereich gesellschaftlich abkoppeln kann aus der Vermarktung, also auch aus den Wertkategorien des Kapitalismus, sondern der quasi davon eingeholt wird. Und deshalb denke ich, sollten auch diejenigen, die sich mit Open Society, Open Betriebssystemen und offener Arbeit beschäftigen, auch Transformationen anstreben, auch überlegen, wie kann es dazu kommen, daß alle anderen Bereiche der Gesellschaft darin integriert werden. Sonst kann es passieren, daß eben all diese tollen Ansätze letztendlich wieder regressiv sich verändern und dann stagnieren. Das, was Sie als Problem beschrieben haben, das der Vermassung, ist eben auch eines der Grundprinzipien dieser Formen der Gesellschaft und die damit auch letztendlich durch die Masse Qualität wieder zerstampft. Und ich wollte jetzt mal fragen, was Sie sich dazu weiter gedacht haben, in welche Richtung die Community arbeiten kann, um genau dieser Regression zu wiederstehen. Jeanette Hofmann: Ich habe ja versucht, nicht so pessimistisch zu enden. Es ist schon richtig, wenn sich eine neue Technik gesellschaftlich durchsetzt, muß sie damit rechnen, daß diese Gesellschaft auf diese Technik einwirkt. Diese reine, kleine Bewegung kann man nur so lange wahren, wie man sich tatsächlich in einer Nische bewegt. Aber wenn man sich als offene Gemeinde versteht, muß man mit einkalkulieren, daß irgendwann auch alle mitreden. Aber trotzdem ist es schon so, daß das keine Einbahnstraße ist. Es ist nicht nur so, daß die Gesellschaft auf das Internet einwirkt und mit ihr die Unternehmen, die Regierungsorganisationen etc., sondern das Internet verändert diese Organisationen auch. Das war ja mein Ende und daß die Open Source-Bewegung wiederum etwas ist, was unmittelbar daran anknüpft. Und man kann jetzt schon sehen, daß von den Veteranen in der Internet-Gemeinde einige ausziehen und sagen: 'Das ist mir hier zu normal und zu blöd geworden. Ich fange was Neues an.' Ich glaube, das ist eher eine Frage von Generationen, und da entstehen wieder neue, offene Communities. Publikum: Ich wollte auch noch einmal auf den Vergleich zwischen der IETF und den Open Source-Projekten eingehen. Ich glaube, daß man diese Gefahr oder das, was man bei der IETF durchaus beobachten kann und was als 'Schuß vor den Bug' der Open Source-Gemeinde sicherlich wertvoll ist, jetzt doch noch einmal ein bißchen zurücknehmen muß. Ich glaube, daß die IETF das Problem hat, daß sie einfach ein riesiges Feld abdeckt. Letztlich wird alles, was über das Internet läuft, irgendwie durch die Standards der IETF koordiniert. Bei den Open Source-Projekten ist das gar nicht so etwas homogenes, nicht so ein Klotz, sondern, ich sage mal, bei großen Projekten wie z.B. GIMP sind an Entwicklern vielleicht 50 Leute wirklich regelmäßig dabei und dann grenzen 200 Leute, die sich sehr intensiv an der Entwicklung beteiligen, an und dann natürlich noch eine größere User-Basis, aber man hat nicht so dieses Problem der Vermassung, auch nicht das Problem, daß Leute verschiedene Interessen durchsetzen wollen. Von daher sehe ich nicht direkt diese Gefahr, daß letztendlich etwas ähnliches passiert wie bei der IETF. Jeanette Hofmann: Die Internetgemeinde hat fast zwanzig Jahre so vor sich hin gefrickelt, das darf man nicht vergessen. Das hat schon eine Weile gedauert, bis dieser Take Off stattgefunden hat. Und im übrigen ist es auch heute nicht so, daß die IETF alle Standards für das Internet betreut. Der ganze World-Wide-Web-Kram z.B. ist immer außerhalb der IETF entwickelt worden, und die wollen das auch gar nicht. Die sind schon froh, daß es neben ihnen noch rund zwanzig andere Konsortien gibt, die Standards für das Internet entwickeln, weil sie das gar nicht bewältigen könnten. Von daher würde ich nicht aus der Größe der jetzigen Open Source-Community darauf schließen wollen, wie die mal wird und wer da mitwirkt und wer da mitspricht. Das ist auch nicht nur eine Frage der Größe. Wie gesagt, das Skalierungsproblem ist eines, aber da gibt es eine ganze Reihe andere. Florian Cramer: Ich würde noch mal gerne zurückkommen auf das grundsätzliche Thema unseres Panels. Wir hatten ganz am Anfang die Lizenzseite von OpenContent.org hier auf unserem Bildschirm. Da geht es ja um etwas sehr Radikales. Es geht um die Übertragung des freien Software-Prinzips, des Copylefts, auf herkömmliche Texte. Das ist eine Frage, die auch gestern von Diskutaten mehrfach gestellt worden ist, ob das sinnvoll ist. Ich muß sagen, ich bin erstaunt über die Ergebnisse, oder das, was ich hier gehört habe von freien Software-Entwicklern. Richard Stallmann z.B., der radikale Verfechter der GPL, sagt, er möchte nicht einen Text von sich unter die GPL stellen, er möchte nicht, daß jemand anderes den verändert. Wir haben jetzt zwei Referate gehabt, die die Affinität von offenen Prozessen und wissenschaftlichen, zum Teil auch künstlerischen Diskursen und Communities dargelegt haben. Aber ist den wirklich die freie Software, die Open Source Definition in ihrer Radikalität wieder rückübertragbar auf nicht-ausführbaren Code? Z.B., wäre es denkbar, daß Romane oder auch in der Wissenschaft, wo wir dringend Dissertationen brauchen in Volltextdatenbanken... macht das Sinn, solche Texte unter die GPL zu stellen und zu sagen, jeder kann die patchen, jeder kann sie vertreiben, jeder kann hingehen, eine Dissertation auf CD-ROM brennen, sie für hundert Mark verkaufen, ohne an den Autor Gebühren zu zahlen, und kann auch sagen: 'Hier, an dieser Stelle, das gefällt mir nicht. Hier mache ich einen Bug Fix in der Dissertation.' Das wäre jetzt eine Frage, die ich gerne stellen würde sowohl an Jeanette Hofmann, wie auch an Herrn Kittler, ob Wissenschaft als Open Source-Prozeß nur metaphorisch zu verstehen ist oder wirklich im strengen Sinne der Open Source Definition, die genau diese Elemente der Redistribution zwingend fordert, damit man Open Source als Trademark verwenden kann? 19 Friedrich Kittler: Das weiß ich nicht. Ich würde mir das wünschen. Und ich denke, daß es im Mittelalter beispielsweise, über das ich viel zu lange geredet habe, auch so war, daß die Texte patchbar waren. Unter den gegenwärtigen Bedingungen ist es sicherlich undurchführbar. Ich weiß es nicht. Ich bin kein Jurist. Ich war kein Jurist. Ich werde nie zum Juristen geworden sein. Ich fand es nur vorhin ganz entsetzlich, hören zu müßen, daß bereits die Anordnung von copyright-freiem Material in einer anderen als der vorher vorliegenden Form ihrerseits schutzwürdig ist, wie Herr Hille gesagt hat. Und das war ja wohl Ihrerseits Spott und Hohn, als sie die Gesetze der Wahrscheinlichkeit und der Kombinatorik auf diese angeblich so schöpferische Tätigkeit angewendet haben. Das unterscheidet uns vielleicht, würde ich grob und philosophisch sagen, von solchen Delirien aus den Zeiten von John Locke und Johann Wolfgang von Goethe, daß Turing uns diesen Wahn des geistigen Eigentums an einem Beispiel, nämlich am Code abgewöhnt hat, das John Locke und Goethe aus sehr direkten Gründen beide positiv begründet haben, praktisch wie theoretisch. Und in anderen Bereichen der Kultur möge es bitte greifen. Also, ich würde mich freuen, wenn das, was ich z.B. geschrieben habe, einfach unter Copyleft stünde. [Applaus] Jeanette Hofmann: Ich habe da nicht viel beizutragen. Ich habe nur, erinnere ich mich, öfter mal gelesen, daß in der Malerei, das ja immer so gewesen ist, daß ganze Laboratorien an Bildern gemalt haben, weshalb viele auch heute nicht zweifelsfrei einzelnen Personen zuzuordnen sind. Das ist vor der gesellschaftlichen Modernisierungsphase, glaube ich, ganz üblich gewesen, daß nicht einmal individuelle Urheberrechte eine Bedeutung gespielt haben oder festgestellt wurden. Wenn ich mir allerdings überlege, daß ich über meine Texte die Change-Control verlieren würde, würde mich das, glaube ich, stören, zumindest dann, wenn sie noch mit meinem Namen in Verbindung gebracht werden. Ich verkaufe die ja nicht. Dadurch, daß ich in der Akademie tätig bin, kriege ich dafür sowieso nichts. Florian Cramer: Es ist offenbar nach wie vor ein Widerspruch, daß einerseits dieses wissenschaftliche Publizieren größtenteils keine Profite abwirft, aber andererseits auch nicht konsequent umgesetzt wird in digitale Datenbanken. Gut, das ist eine andere Frage. Detlef Borchers: Ich habe schon einige Erfahrung mit Open Content gemacht. Die Lizenzen interessieren mich auch. Nun bin ich ja als Journalist daran interessiert, Texte zu verkaufen. Die werden also von Verlagen verwertet. Im Regelfall ist es ja so, daß Verlage unter bestimmten Zwängen stehen, z.B. einen Artikel nur in einer bestimmten Länge bringen zu können. Da kann eine Open Content License nicht greifen, denn die besagt ja, genau wie die GPL, daß der Text ungekürzt in der Originalfassung weitergereicht werden muß. Anders sieht es aus, wenn man für Internet-Publikationen schreibt, die vom Medium her gesehen keiner Längenbeschränkung unterworfen sind. Dort habe ich schon mal versucht, Texte unter Open Content anzubieten. Das stößt in der Regel auf das Nichtwissen der Redakteure, die einfach nur ihre Seiten füllen wollen und sagen: 'Oh, das ist ganz klasse. Ist das denn auch alles kostenlos?' Das ist es ja dann auch nicht, weil ja noch mein Autoren-Copyright drauf ist. Open Content ist eigentlich zur Zeit nur dann sinnvoll zum Einsatz zu bringen, wenn man z.B. Texte hat, die für ganz andere Verwertungsstellen genommen werden. Bei mir passiert das mit Texten, die in Schulbücher kommen. Da muß man sowieso nach deutschem Recht zum Teil auf seine Urheberrechte und Lizenzrechte verzichten, man wird eingeschränkt. Da kann man auch sagen, diese Texte kann ich ins Internet stellen und dann unter Open Content legen. Das heißt im wesentlichen nur als Vorteil, daß der Text ungekürzt weitergegeben wird, und es passiert nach Möglichkeit nicht mehr all zu viel mit dem Text, was den ganzen Korpus verfälscht. Publikum: Ich wollte eine weitere Anmerkung zum Thema Copyright machen. Ich denke, es gibt da zwei verschiedene Herangehensweisen. Den einen geht es darum, Profit zu machen und das Copyright dafür zu benutzen und darauf zu achten, es nicht zu verlieren. Die haben natürlich ihre unglaublichen Ängste vor Linux usw. Die anderen, das ist dann der wissenschaftliche Diskurs. Und da kann ich auch diejenigen verstehen, die das nicht einfach weitergeben würden. Viele haben Angst, daß gegebenfalls das, was sie geschrieben oder entwickelt haben, sozusagen hinter ihrem Rücken gegen sie selbst verwendet wird oder zweckentfremdet wird, so daß der eigentliche Inhalt, das Motiv, warum das entwickelt wurde, plötzlich in eine ganz andere Richtung geht. Und ich denke, daß sich diejenigen untereinander austauschen, um das miteinander weiterzuentwickeln oder auch, -- das ist im wissenschaftlichen Diskurs wichtig --, an Widersprüchen -- manchmal kommt man bei einer gleichen Analyse trotzdem zu unterschiedlichen Aussagen -- weiterzuarbeiten, um sie zu überwinden. Insofern ist meine Frage in Bezug auf Wissenschaft und Open Source: Gibt es ein Ziel oder würden Sie sagen, wenn man ein Ziel anvisiert, ist es schon gar nicht mehr so open? Weil, ich sage, wer zu offen ist, ist nicht ganz dicht. Florian Cramer: Eine kurze Anmerkung dazu, gestern hat ja Sebastian Hetze von Lunetix das Beispiel der Zitier-GPL der Newsgroups genannt: daß genau wegen dieses Problems des entfremdeten oder verfälschten Zitierens verschiedene Newsgroups ihre Beiträge immer unter die GPL gestellt haben, mit dem Anhang in der Signatur, daß das jeweilige Posting der GPL unterliegt, und dementsprechend auch Änderungen kenntlich gemacht werden müssen und der Source Code intakt bleibt. Publikum: Was ja interessant ist an dieser Möglichkeit des unendlichen Kopierens und auch des Vertriebes über Internet z.B. von Texten ist ja, daß im Grunde auch ein anderer Schriftbegriff unmittelbar zugänglich wird. Copyright schreibt sich ja sicherlich her von einer gewissen Ideologie vom Autor und von Ideen bzw., daß die Unmittelbarkeit der Idee eigentlich aus dem Sprechen kommt und alle Schrift, alles Niederlegen sekundär ist und eben gefährlich, weil man verändern kann, weil der Sprecher nicht mehr unmittelbar dabei ist, um seine Idee zu schützen. Was ja uralt ist, Platon usw. Es gibt ja die Idee der offenen Quelle zumal bei literarischen Texten, auch unabhängig von Internet und dieser Technik. Wir haben das gesehen bei Borges, der massiv absichtlich oder auch unabsichtlich Texte falsch zitiert. Und es gibt ein bemerkenswertes Zusammenspiel, wenn dann der Herausgeber der Texte von Borges im Anhang die Quelle genau zitiert, die Borges, wie er meint, vergessen hat, sodaß man sieht, wie das Spiel von Quelle und Zitiertem ins Spiel kommt. Der Punkt ist ja, daß jetzt durch die Technik das einfach noch unmittelbarer zugreifbar oder realisierbar wird. Herr Kittler meinte, daß er gerne alles unter Copyleft stellen würde. Das Problem ist wahrscheinlich, daß Brinkmann & Bosse oder irgendwelche Verlage da nicht ohne weiteres mitmachen. Ansonsten frage ich mich, warum nicht eigentlich mal die Aufschreibesysteme scannen, vielleicht ohne Bilder und weniger schön, und sie zugänglich machen? Noch eine Beobachtung: Es ist skurril, wenn man ins Internet schaut, jedenfalls nach meinem Kenntnisstand, daß bisher das Vertreiben von copyright-geschützen Texten, weil die Autoren noch nicht lange genug tot sind, extrem selten vorkommen. MPEG 3 wird massiv eingesetzt und natürlich auch, ohne daß sich jemand um Copyright kümmert. Bei Texten ist das nicht so. Es gibt sicherlich einfache Gründe, daß die Intressengruppen bei Texten noch spezieller sind und daß es mehr Arbeit ist, sie ins Netz zu stellen. Trotzdem würde mich interessieren, ob jemand mehr Ahnung hat, ob es irgendwelche Server gibt, die in diese Richtung aktiv sind? Eine letzte Bemerkung: Wenn man einmal mit digitalisierten Texten gearbeitet hat, einfach als zweites Gleis neben einem gedruckten Text, das hat eine Fülle von Effekten, die ziemlich interessant sind. Wenn man einfach das Buch hat und nimmt dann noch mal den gescannten Text im Rechner, man kann einfach ganz anders mit dem Text umgehen, mit den Variationen beim Zitieren und Vervielfältigen, der Materialität des Textes. Allein, was der Scanner mit der Fehlerkennung macht, oder wenn die OCR nicht richtig funktioniert, was für Typen von Fehlern dort auftreten, was für Typen von Fehlern auftreten bei Rechtschreiberkennung, was für Fehler man selbst macht. Das ist ja eine ziemlich interessante Phänomenalität, die zusammenhängt mit der Offenheit von Text. Friedrich Kittler: Bei aller Zustimmung wollte ich einfach ironisch, nicht kritisch anmerken, daß diese Rekonstruktion des Glaubens an die Präsenz der Stimme und die Fälschbarkeit der Schrift natürlich schon theoretisch oder historisch auf Platon zurückgeht, so haben Sie ja, freiwillig oder auch nicht, Derrida korrekt referiert. Nur daß eben witzigerweise weder Platon noch irgendjemand anderes bis ins 18 Jahrhundert hinein von Urheberrechten oder Patenten oder Copyrights auf seine Texte, Theorien, Philosopien, Romane Anspruch erhoben hat. Es muß etwas viel Mieseres und Kleinkarierteres und Kurzfristigeres gewesen sein, was zwischen 1700 und 1800 zunächst in England das Patentrecht und, dann vor allem in Deutschland, das Urheberrecht eingeführt hat, das man nicht auf Platon und die gesamte europäische Tradition zurückführen kann. Hauptsächlich der Begriff des bürgerlichen Individuums eben bei Locke, und Goethes dringlicher Wunsch, daß die Ausgabe letzter Hand seinen Erben siebzig Jahre nach dem Tod Geld noch einbringt. So ist das alles in kürzester Zeit durchgesetzt worden und produziert dann unablässig schon seit dieser Zeit die Paradoxien und Probleme, über die wir heute noch angesichts von Software und GPL ringen. Was Sie über Borges gesagt haben, das ist ja wieder drastisch illustriert worden. Borges hat diese schöne Erzählung von Pierre Menard geschrieben, in der sich ein Verrückter dieses Jahrhunderts hinsetzt und einfach aus totaler Einführung in Cervantez und Don Quichote diesen Roman Wort für Wort identisch zu Papier bringt. Und vorhin sagte jemand in der Diskussion, die tapferen Menschen, die für Gutenberg.de die Romane in die Maschine tippen, die müßten doch eigentlich auch Copyright auf ihre Tätigkeit bekommen. Und da habe ich innerlich furchtbar lachen müssen und an Pierre Menard und auch an Jorge Luis Borges gedacht. Es gibt eine bestimmte Kopierbarkeit, auch dessen, was nicht Source Code ist, und man kann die Ansprüche auf geistiges Eigentum, wie in diesem Beispiel aus der Diskussion klar wurde, drastisch überziehen. Die Gründe hat ja die Diskutantin, die, ohne Karl Marx beim Wort zu nennen, ihn ins Feld führte, relativ deutlich gemacht. Ich denke, was meine kurze Intervention hier und jetzt angeht, abschließend, daß wir uns vielleicht über Open Content im Sinn dieser alten europäischen Inhalte Musik, Literatur, Malerei, Bild, nicht so viel Sorgen und Gedanken machen müßten, weil die Möglichkeit, daß durch Schreiben, nicht bloß bei Lesern Gedanken oder Eindrücke hervorgerufen werden, sondern in Maschinen physikalische Wirkungen, daß dieses neue Schreiben, was Turing begründet hat oder die Programmierer, also Grace Hopper usw. nach ihm, daß das eine derartige Steigerung der Macht des Schreibens im Vergleich zu aller historisch dagewesen Literatur ist, daß das Patent- und Copyright-Problem auf Programmen, auf Code viel drastischer, politischer und ökonomischer ist, als alles, was in diesen guten alten Zeiten seit Locke und Goethe passiert ist. Der Kampf muß darum gehen, den Code zu retten, und dann kann man auch noch an Literatur, Bilder oder Contents denken. [Applaus] Florian Cramer: I would like to address a question to Alexei Shulgin. We now had a discussion which was trying to bridge the gap between so called artists' and so called programmers' camps. What I have been wondering during this entire conference and also during your talk when you presented the Web Stalker by I/O/D was that there apparently is a gap in the use of software -- just speaking of basic tools -- if you take so called programmers' and so called artists' communities. The web artists' community for example hardly uses any free software except maybe for server scripting. When I talked to Richard Stallman I told him that there are these net artists who are working with notions of code on the Internet, and he said 'oh that's wonderful, if they are interested in free software maybe they can do the graphics for our website.' He really thought of them as people painting on screens. Also for the Web Stalker, you won't have much appreciation for this experimental web browser here in this community because it was developed with Macromedia Director and only runs on Windows and Mac, and the source code is not in a publicly available free language but it's in a proprietary system. And you said in your presentation the focus is on ideas not on code. Do you never think there's a problem with the tools and with communicating and bridging the gaps between these two camps? Alexei Shulgin: Yes, definitely it exists. People who are into programming, their aim is to create some perfect application that functions well and people can use it properly. But the aim of artists, especially those who work with computer technology is the contrary: the misuse of technology or to use it in a strange way. And this is where this misunderstanding comes from. It is very rare that artists really collaborate with programmers on an equal level. Publikum: Zu dem, was eben gerade gesagt wurde zur Wissenschaftlichkeit oder zur Ausgestaltung der wissenschaftlichen Diskurse im Zeitalter ihrer Digitalisierung: Was wahr ist, -- und wenn wir über Wissenschaft reden, dann geht es um eine Kommunikationsform, die Wahrheiten in den Mittelpunkt stellt -- wird innerhalb der Scientific Community festgelegt. Daß heißt also, es haben sich in den modernen Wissenschaften Verfahren entwickelt, die darüber befinden, ob ein Text, ob ein Dokument Beiträge zur Entwicklung weiterer Erkenntnisse leisten kann. Das sind Verfahren, da geht es um Zitierfähigkeit, da geht es darum, daß ein Autor erkennbar wird usw. Der Akzent, der eben gerade in der Diskussion auftauchte, war ganz klar ein rein rechtlich-ökonomischer. Es wurde über Urheberrecht usw. diskutiert. Das ist, meines Erachtens nach, nicht das Wesentliche. Das, was momentan das Wesentliche ist, damit wissenschaftlicher Diskurs sich den gegebenen Bedingungen angemessen verhalten kann, ist, daß es neue Institutionen gibt, Redaktionssysteme, daß Verfahren entwickelt werden, wie Texte organisiert werden können, wie Theorien dargestellt und repräsentiert werden können, wie die Anschlußfähigkeit an Texte sichergestellt werden kann. Und da muß man momentan feststellen, ist es ein relativ offenes Feld. Es müßte auch da so etwas stattfinden wie Standarisierung. Wobei ganz klar ist, daß hier die Naturwissenschaften in einer vorteilhafteren Position sind, weil sie Erkenntnisse produzieren, die im hohen Masse formalisierbar sind, im Gegensatz zur Kunst, Geistes- und Sozialwissenschaften. Publikum: Mir sind ein paar Gedanken durch den Kopf gegangen, die gar nicht direkt zu der Diskussion passen. Mir steht ein Bild vor Augen, die Frage: Wer hat eigentlich Zugang zu diesen offenen Quellen? Es ist gestern ein paar Mal rausgekommen, daß z.B. das Problem, das die Dritte Welt hat, nicht die Verfügbarkeit der Quellen ist, sondern das Wissen, wie man damit umgeht. Genauso fand ich es merkwürdig gestern, daß das Berufsbild eines Programmieres, der offene Programme schreibt, die Vermittlung seiner eigenen Quellen an die Wirtschaft ist. Er schreibt ein offenes Programm, was für jeden zugänglich ist, aber um es wirklich nutzen zu können, verkauft er seinen Service, daß er es einbaut z.B. auf einen Server. Das hat mich irgendwie beängstigt. Man macht irgendwas offen, was letzten Endes so komplex ist, daß doch nur wieder privilegierte Leute Zugang zu diesem Wissen haben. Florian Cramer: Ich hoffe, Sie sind mir nicht böse, wenn ich Sie einfach verweise auf unser nächstes Panel um 20 Uhr. Richard Stallmann wird sich genau um diese Frage kümmern. Das ist Thema seines Vortrages: Free Software and beyond. Was bedeutet das eigentlich, wenn man nicht nur freie Software zur Verfügung stellt, sondern welche Auswirkungen muß das auch haben auf die Vermittlung von Wissen. Welche Rolle spielt z.B. auch, daß die Dokumentation von freier Software auch frei ist? Inwiefern ist auch das Know-How selbst Teil dieses freien Prozesses? (Transkription
Katja Pratschke)
|