![]() Moderation Florian
Cramer
![]() Gunter Hille: Was im Moment machbar ist, ist daß die Texte vorformatiert werden und direkt in das eBook reingeladen werden können. Das ist machbar. Aber es ist ja eine Auswahl. Wenn Sie z.B. sagen: 'Ich möchte Liebesnovellen lesen,' dann muß jemand die für Sie auswählen. Wir haben zweihundert Liebesnovellen und Sie wollen nicht alle zweihundert haben. Irgendjemand muß sie für Sie zusammenstellen, und das wird gemacht. Publikum: Meine Frage bezog sich eher darauf, daß Sie sagten, daß im Gegensatz zum amerikanischen Projekt das deutsche Projekt derzeit für Lesen am Screen gedacht ist, also, daß man die Sachen direkt aus dem Internet auf dem Screen list. Wenn ich so gucke, wann die meisten Leute lesen, da ist derzeit schlicht und ergreifend kein Internet. In der U-Bahn, okay mit 9,6 ist das ein bißchen teuer auf Dauer, und auch nicht unbedingt das, was man haben möchte. Deswegen die Frage, wird sich das noch mal ändern. Wird das deutsche Projekt Gutenberg vielleicht auch dahin gehen und sagen: Okay, wir machen da Ein-File-Bücher draus und stellen die auf den FTP-Server. Der Aufwand ist so gigantisch eigentlich nicht. Ich mache solche Sachen auch in der Regel und das ist nicht wirklich problematisch. Gunter Hille: Es ist im Moment einfach aus Personalmangel nicht geplant, das auf den FTP-Server zu legen. Man muß auch bedenken, daß das Archiv sich verändert und zwar stetig. Das geht eigentlich nur, indem man an einer zentralen Stelle die Daten hat und dort z.B. die Korrekturen vornimmt. Die Arbeit würde sich einfach verdreifachen oder vervierfachen. Auch die Produktion für z.B. Printing-on-demand-Systeme oder auch für ein eBook kann eigentlich nur aus einer Quelle heraus erfolgen, sonst macht man sich tot. Man hat auch eine Kernel-Quelle und übersetzt die für die verschiedenen Zielplattformen. Aber man kann oder sollte nicht das für jede Zielplattform vorhalten, sondern aus einer Quelle heraus alles generieren können.
Gunter Hille: Es gibt im Moment keine weiteren Richtlinien dazu, was mit den Texten genau gemacht werden kann. Ich habe mir das Small Print vom Projekt Gutenberg USA angeguckt. Das fand ich so schrecklich, daß ich das keinem zumuten wollte, vor jeder Seite zu lesen. Dort ist es ja wirklich in jeder Datei vorangestellt, und das sind ungefähr drei Din A4 Seiten. Sagen wir mal so, es ist sehr schwer, eine Kopie eines sehr gut hergestellten Textkorpus' als nicht selber eingescannt zu identifizieren. Bedenken Sie, wenn Sie einen fehlerfreien Text erzeugen, und jemand Zweites setzt sich hin und tippt den fehlerfreien Text, haben beide das Recht, diesen Text zu verwenden, weil der Autor frei von Rechten ist. Sie können eigentlich nur feststellen, daß jemand eine Kopie von meinem Text gemacht hat, wenn er die Fehler übernimmt, die ich gemacht habe. Es ist bei 400.000 Zeichen sehr, sehr unwahrscheinlich, daß er es an der gleichen Stelle macht. Obwohl die OCR-Software das schon an manchen Stellen macht und die Korrektur-Software wohl an manchen Stellen dieselben Fehler macht. Aber es ist trotzdem noch beliebig unwahrscheinlich, daß ein und der gleiche Fehler an zwei Stellen erscheint. Ich habe solche Fälle gehabt, wo Gutenberg-Material woanders lag. Ich habe es innerhalb von zehn Sekunden identifiziert als von uns stammend.
Gunter Hille: Momentan nein. Publikum: Schade, aber wenn es wieder da sein sollte, bitte Bescheid sagen. Die nächste Frage: HTML war sicherlich ein Schritt in die richtige Richtung. Das begrüße ich auch sehr, aber welches Format wäre denn das bessere gewesen? Gunter Hille: Es wäre sicherlich SGML besser gewesen. Wir erwarten ja für die nächsten Jahre XML im Internet. SGML war damals schon verfügbar. HTML war ja nichts anderes als ein ganz kleines Schnippelchen von SGML, bloß das war damals nicht machbar. Es gab keinen Browser, der SGML hätte darstellen können. Jetzt mit dem Aufkommen von XML ist das möglich. Und ich denke, das gesamte Gutenberg Archiv wird -- ob SGML oder XLM ist eigentlich mittlerweile fast egal -- nochmal neu konvertiert in eine bessere Markierungssprache, die einem mehr Macht gibt zu markieren. Ich möchte einen Autor auch mit 'Autor' markieren und nicht mit 'Überschrift 2', weil das ist nicht 'Überschrift 2', sondern das ist der Autorname. Und deswegen, glaube ich, ist diese Konversion des Archives unabdingbar und muß ganz, ganz bald begonnen werden. Uns fehlen einfach die personellen Mittel. Ich habe mit 1.000 bis 2.000 Stunden Handarbeit gerechnet. Publikum: Es fehlt offensichtlich an Mitarbeitern. Gibt es ein Forum dafür? Ich weiß, es gibt eine Usenet Newsgroup über das Projekt Gutenberg, aber nicht speziell über das deutsche Gutenberg Archiv. Wird es so etwas geben? Gunter Hille: Eine Newsgroup war nicht geplant. Es gibt tatsächlich momentan nur per Email Kontakt, aber da kann sich jeder melden, und es steht auch auf den Gutenberg-Homepages drauf, an wen man sich da wendet.
Gunter Hille: Zum ersten: Es sind nur Illustrationen im Projekt Gutenberg, die aus Büchern stammen, die vor mehr als 100 Jahren gedruckt worden sind. Man muß da auch wieder aufpassen. Das ist das gleiche wie beim Übersetzer, der Illustrator muß entsprechend lange tot sein. Bei den Autorenbildern bin ich definitiv sicher, daß ich meine Hand nicht ins Feuer legen möchte. Es gibt hier in Berlin zwei wunderschöne Dinge. Das eine heißt Archiv für Kunst und Geschichte. Die haben einen Bestand von x-hunderttausend Bildern. Das andere heißt Bildarchiv Preußischer Kulturbesitz. Die haben x-hundertausend Bilder. Ich brauche nur die Autorenbilder bei Gutenberg, hauptsächlich. Und habe die 1995 oder '96 angefragt. Da haben sie mir die Preise genannt, die der Spiegel auch bezahlen muß und zwar dann pro Woche, weil der Spiegel ja auch pro Woche bezahlt für jedes Bild, das er dann wieder neu auflegt. Und dann habe ich dankend abgelehnt. Sollte also einer ein Bild als aus dem Archiv für Kunst und Geschichte entnommen identifizieren, so möchte er das bitte nicht melden. Aber manchmal möchten wir einfach den Autoren haben. Und wir haben bisher noch keinerlei Beschwerden bekommen. Projekt Gutenberg wird geduldet. Die Verlage knirschen die Zähne. Es gibt sehr viele Verlage, die sich ausschließlich mit Klassikern beschäftigen, und die sind natürlich besonderst stinkig und helfen dem Projekt natürlich auch nicht, indem sie ihr Archiv öffnen und Texte einsenden.
Jeanette Hofmann: Die Internetgemeinde hat fast zwanzig Jahre so vor sich hin gefrickelt, das darf man nicht vergessen. Das hat schon eine Weile gedauert, bis dieser Take Off stattgefunden hat. Und im übrigen ist es auch heute nicht so, daß die IETF alle Standards für das Internet betreut. Der ganze World-Wide-Web-Kram z.B. ist immer außerhalb der IETF entwickelt worden, und die wollen das auch gar nicht. Die sind schon froh, daß es neben ihnen noch rund zwanzig andere Konsortien gibt, die Standards für das Internet entwickeln, weil sie das gar nicht bewältigen könnten. Von daher würde ich nicht aus der Größe der jetzigen Open Source-Community darauf schließen wollen, wie die mal wird und wer da mitwirkt und wer da mitspricht. Das ist auch nicht nur eine Frage der Größe. Wie gesagt, das Skalierungsproblem ist eines, aber da gibt es eine ganze Reihe andere. Florian Cramer: Ich würde noch mal gerne zurückkommen auf das grundsätzliche Thema unseres Panels. Wir hatten ganz am Anfang die Lizenzseite von OpenContent.org hier auf unserem Bildschirm. Da geht es ja um etwas sehr Radikales. Es geht um die Übertragung des freien Software-Prinzips, des Copylefts, auf herkömmliche Texte. Das ist eine Frage, die auch gestern von Diskutaten mehrfach gestellt worden ist, ob das sinnvoll ist. Ich muß sagen, ich bin erstaunt über die Ergebnisse, oder das, was ich hier gehört habe von freien Software-Entwicklern. Richard Stallmann z.B., der radikale Verfechter der GPL, sagt, er möchte nicht einen Text von sich unter die GPL stellen, er möchte nicht, daß jemand anderes den verändert. Wir haben jetzt zwei Referate gehabt, die die Affinität von offenen Prozessen und wissenschaftlichen, zum Teil auch künstlerischen Diskursen und Communities dargelegt haben. Aber ist den wirklich die freie Software, die Open Source Definition in ihrer Radikalität wieder rückübertragbar auf nicht-ausführbaren Code? Z.B., wäre es denkbar, daß Romane oder auch in der Wissenschaft, wo wir dringend Dissertationen brauchen in Volltextdatenbanken... macht das Sinn, solche Texte unter die GPL zu stellen und zu sagen, jeder kann die patchen, jeder kann sie vertreiben, jeder kann hingehen, eine Dissertation auf CD-ROM brennen, sie für hundert Mark verkaufen, ohne an den Autor Gebühren zu zahlen, und kann auch sagen: 'Hier, an dieser Stelle, das gefällt mir nicht. Hier mache ich einen Bug Fix in der Dissertation.' Das wäre jetzt eine Frage, die ich gerne stellen würde sowohl an Jeanette Hofmann, wie auch an Herrn Kittler, ob Wissenschaft als Open Source-Prozeß nur metaphorisch zu verstehen ist oder wirklich im strengen Sinne der Open Source Definition, die genau diese Elemente der Redistribution zwingend fordert, damit man Open Source als Trademark verwenden kann?
Jeanette Hofmann: Ich habe da nicht viel beizutragen. Ich habe nur, erinnere ich mich, öfter mal gelesen, daß in der Malerei, das ja immer so gewesen ist, daß ganze Laboratorien an Bildern gemalt haben, weshalb viele auch heute nicht zweifelsfrei einzelnen Personen zuzuordnen sind. Das ist vor der gesellschaftlichen Modernisierungsphase, glaube ich, ganz üblich gewesen, daß nicht einmal individuelle Urheberrechte eine Bedeutung gespielt haben oder festgestellt wurden. Wenn ich mir allerdings überlege, daß ich über meine Texte die Change-Control verlieren würde, würde mich das, glaube ich, stören, zumindest dann, wenn sie noch mit meinem Namen in Verbindung gebracht werden. Ich verkaufe die ja nicht. Dadurch, daß ich in der Akademie tätig bin, kriege ich dafür sowieso nichts. Florian Cramer: Es ist offenbar nach wie vor ein Widerspruch, daß einerseits dieses wissenschaftliche Publizieren größtenteils keine Profite abwirft, aber andererseits auch nicht konsequent umgesetzt wird in digitale Datenbanken. Gut, das ist eine andere Frage.
Publikum: Ich wollte eine weitere Anmerkung zum Thema Copyright machen. Ich denke, es gibt da zwei verschiedene Herangehensweisen. Den einen geht es darum, Profit zu machen und das Copyright dafür zu benutzen und darauf zu achten, es nicht zu verlieren. Die haben natürlich ihre unglaublichen Ängste vor Linux usw. Die anderen, das ist dann der wissenschaftliche Diskurs. Und da kann ich auch diejenigen verstehen, die das nicht einfach weitergeben würden. Viele haben Angst, daß gegebenfalls das, was sie geschrieben oder entwickelt haben, sozusagen hinter ihrem Rücken gegen sie selbst verwendet wird oder zweckentfremdet wird, so daß der eigentliche Inhalt, das Motiv, warum das entwickelt wurde, plötzlich in eine ganz andere Richtung geht. Und ich denke, daß sich diejenigen untereinander austauschen, um das miteinander weiterzuentwickeln oder auch, -- das ist im wissenschaftlichen Diskurs wichtig --, an Widersprüchen -- manchmal kommt man bei einer gleichen Analyse trotzdem zu unterschiedlichen Aussagen -- weiterzuarbeiten, um sie zu überwinden. Insofern ist meine Frage in Bezug auf Wissenschaft und Open Source: Gibt es ein Ziel oder würden Sie sagen, wenn man ein Ziel anvisiert, ist es schon gar nicht mehr so open? Weil, ich sage, wer zu offen ist, ist nicht ganz dicht. Florian Cramer: Eine kurze Anmerkung dazu, gestern hat ja Sebastian Hetze von Lunetix das Beispiel der Zitier-GPL der Newsgroups genannt: daß genau wegen dieses Problems des entfremdeten oder verfälschten Zitierens verschiedene Newsgroups ihre Beiträge immer unter die GPL gestellt haben, mit dem Anhang in der Signatur, daß das jeweilige Posting der GPL unterliegt, und dementsprechend auch Änderungen kenntlich gemacht werden müssen und der Source Code intakt bleibt.
Noch eine Beobachtung: Es ist skurril, wenn man ins Internet schaut, jedenfalls nach meinem Kenntnisstand, daß bisher das Vertreiben von copyright-geschützen Texten, weil die Autoren noch nicht lange genug tot sind, extrem selten vorkommen. MPEG 3 wird massiv eingesetzt und natürlich auch, ohne daß sich jemand um Copyright kümmert. Bei Texten ist das nicht so. Es gibt sicherlich einfache Gründe, daß die Intressengruppen bei Texten noch spezieller sind und daß es mehr Arbeit ist, sie ins Netz zu stellen. Trotzdem würde mich interessieren, ob jemand mehr Ahnung hat, ob es irgendwelche Server gibt, die in diese Richtung aktiv sind? Eine letzte Bemerkung: Wenn man einmal mit digitalisierten Texten gearbeitet hat, einfach als zweites Gleis neben einem gedruckten Text, das hat eine Fülle von Effekten, die ziemlich interessant sind. Wenn man einfach das Buch hat und nimmt dann noch mal den gescannten Text im Rechner, man kann einfach ganz anders mit dem Text umgehen, mit den Variationen beim Zitieren und Vervielfältigen, der Materialität des Textes. Allein, was der Scanner mit der Fehlerkennung macht, oder wenn die OCR nicht richtig funktioniert, was für Typen von Fehlern dort auftreten, was für Typen von Fehlern auftreten bei Rechtschreiberkennung, was für Fehler man selbst macht. Das ist ja eine ziemlich interessante Phänomenalität, die zusammenhängt mit der Offenheit von Text. Friedrich Kittler: Bei aller Zustimmung wollte ich einfach ironisch, nicht kritisch anmerken, daß diese Rekonstruktion des Glaubens an die Präsenz der Stimme und die Fälschbarkeit der Schrift natürlich schon theoretisch oder historisch auf Platon zurückgeht, so haben Sie ja, freiwillig oder auch nicht, Derrida korrekt referiert. Nur daß eben witzigerweise weder Platon noch irgendjemand anderes bis ins 18 Jahrhundert hinein von Urheberrechten oder Patenten oder Copyrights auf seine Texte, Theorien, Philosopien, Romane Anspruch erhoben hat. Es muß etwas viel Mieseres und Kleinkarierteres und Kurzfristigeres gewesen sein, was zwischen 1700 und 1800 zunächst in England das Patentrecht und, dann vor allem in Deutschland, das Urheberrecht eingeführt hat, das man nicht auf Platon und die gesamte europäische Tradition zurückführen kann. Hauptsächlich der Begriff des bürgerlichen Individuums eben bei Locke, und Goethes dringlicher Wunsch, daß die Ausgabe letzter Hand seinen Erben siebzig Jahre nach dem Tod Geld noch einbringt. So ist das alles in kürzester Zeit durchgesetzt worden und produziert dann unablässig schon seit dieser Zeit die Paradoxien und Probleme, über die wir heute noch angesichts von Software und GPL ringen. Was Sie über Borges gesagt haben, das ist ja wieder drastisch illustriert worden. Borges hat diese schöne Erzählung von Pierre Menard geschrieben, in der sich ein Verrückter dieses Jahrhunderts hinsetzt und einfach aus totaler Einführung in Cervantez und Don Quichote diesen Roman Wort für Wort identisch zu Papier bringt. Und vorhin sagte jemand in der Diskussion, die tapferen Menschen, die für Gutenberg.de die Romane in die Maschine tippen, die müßten doch eigentlich auch Copyright auf ihre Tätigkeit bekommen. Und da habe ich innerlich furchtbar lachen müssen und an Pierre Menard und auch an Jorge Luis Borges gedacht. Es gibt eine bestimmte Kopierbarkeit, auch dessen, was nicht Source Code ist, und man kann die Ansprüche auf geistiges Eigentum, wie in diesem Beispiel aus der Diskussion klar wurde, drastisch überziehen. Die Gründe hat ja die Diskutantin, die, ohne Karl Marx beim Wort zu nennen, ihn ins Feld führte, relativ deutlich gemacht. Ich denke, was meine kurze Intervention hier und jetzt angeht, abschließend, daß wir uns vielleicht über Open Content im Sinn dieser alten europäischen Inhalte Musik, Literatur, Malerei, Bild, nicht so viel Sorgen und Gedanken machen müßten, weil die Möglichkeit, daß durch Schreiben, nicht bloß bei Lesern Gedanken oder Eindrücke hervorgerufen werden, sondern in Maschinen physikalische Wirkungen, daß dieses neue Schreiben, was Turing begründet hat oder die Programmierer, also Grace Hopper usw. nach ihm, daß das eine derartige Steigerung der Macht des Schreibens im Vergleich zu aller historisch dagewesen Literatur ist, daß das Patent- und Copyright-Problem auf Programmen, auf Code viel drastischer, politischer und ökonomischer ist, als alles, was in diesen guten alten Zeiten seit Locke und Goethe passiert ist. Der Kampf muß darum gehen, den Code zu retten, und dann kann man auch noch an Literatur, Bilder oder Contents denken. [Applaus] Florian Cramer: I would like to address a question to Alexei Shulgin. We now had a discussion which was trying to bridge the gap between so called artists' and so called programmers' camps. What I have been wondering during this entire conference and also during your talk when you presented the Web Stalker by I/O/D was that there apparently is a gap in the use of software -- just speaking of basic tools -- if you take so called programmers' and so called artists' communities. The web artists' community for example hardly uses any free software except maybe for server scripting. When I talked to Richard Stallman I told him that there are these net artists who are working with notions of code on the Internet, and he said 'oh that's wonderful, if they are interested in free software maybe they can do the graphics for our website.' He really thought of them as people painting on screens. Also for the Web Stalker, you won't have much appreciation for this experimental web browser here in this community because it was developed with Macromedia Director and only runs on Windows and Mac, and the source code is not in a publicly available free language but it's in a proprietary system. And you said in your presentation the focus is on ideas not on code. Do you never think there's a problem with the tools and with communicating and bridging the gaps between these two camps?
Publikum: Zu dem, was eben gerade gesagt wurde zur Wissenschaftlichkeit oder zur Ausgestaltung der wissenschaftlichen Diskurse im Zeitalter ihrer Digitalisierung: Was wahr ist, -- und wenn wir über Wissenschaft reden, dann geht es um eine Kommunikationsform, die Wahrheiten in den Mittelpunkt stellt -- wird innerhalb der Scientific Community festgelegt. Daß heißt also, es haben sich in den modernen Wissenschaften Verfahren entwickelt, die darüber befinden, ob ein Text, ob ein Dokument Beiträge zur Entwicklung weiterer Erkenntnisse leisten kann. Das sind Verfahren, da geht es um Zitierfähigkeit, da geht es darum, daß ein Autor erkennbar wird usw. Der Akzent, der eben gerade in der Diskussion auftauchte, war ganz klar ein rein rechtlich-ökonomischer. Es wurde über Urheberrecht usw. diskutiert. Das ist, meines Erachtens nach, nicht das Wesentliche. Das, was momentan das Wesentliche ist, damit wissenschaftlicher Diskurs sich den gegebenen Bedingungen angemessen verhalten kann, ist, daß es neue Institutionen gibt, Redaktionssysteme, daß Verfahren entwickelt werden, wie Texte organisiert werden können, wie Theorien dargestellt und repräsentiert werden können, wie die Anschlußfähigkeit an Texte sichergestellt werden kann. Und da muß man momentan feststellen, ist es ein relativ offenes Feld. Es müßte auch da so etwas stattfinden wie Standarisierung. Wobei ganz klar ist, daß hier die Naturwissenschaften in einer vorteilhafteren Position sind, weil sie Erkenntnisse produzieren, die im hohen Masse formalisierbar sind, im Gegensatz zur Kunst, Geistes- und Sozialwissenschaften.
Florian Cramer: Ich hoffe, Sie sind mir nicht böse, wenn ich Sie einfach verweise auf unser nächstes Panel um 20 Uhr. Richard Stallmann wird sich genau um diese Frage kümmern. Das ist Thema seines Vortrages: Free Software and beyond. Was bedeutet das eigentlich, wenn man nicht nur freie Software zur Verfügung stellt, sondern welche Auswirkungen muß das auch haben auf die Vermittlung von Wissen. Welche Rolle spielt z.B. auch, daß die Dokumentation von freier Software auch frei ist? Inwiefern ist auch das Know-How selbst Teil dieses freien Prozesses? (Transkription
Katja Pratschke)
|