die tageszeitung, Redaktionssystem  

Ralf Klever  
  

Ich will erstmal auf die historische Entwicklung des Einsatzes von freier Software bei der taz eingehen. Wir setzten schon seit etwa Ende der achtziger Jahre freie Software ein. Als erstes im Bereich Mail-, News- und Domain Name-Server, wie es wahrscheinlich viele gemacht haben. Dann fingen die größeren Projekte an, also, daß wir unser gesamtes, internes Volltextarchiv auf WAIS umgestellt haben und damit einen sehr guten Erfolg hatten. Selbstverständlich haben wir die gesamten GNU-Tools eingesetzt, vor allen Dingen den GCC und die weiteren Tools, um unserer Entwicklung voranzutreiben. Und dann wurden natürlich relativ schnell Web-Server bei uns eingesetzt, innerhalb unseres Intranets und als unsere externen Web-Server, wobei wir zuerst den CERN HTTPD eingesetzt haben und anschließend den Apache.  

Linux setzen wir seit 1995 ein. Zunächst als ISDN-Router und als Web-Server, das liegt auf der Hand. Und dann kam langsam die Notwendigkeit auf, eine Firewall einzusetzen. Ehe wir uns ein geschlossenes Produkt gekauft haben, wo wir nicht so richtig reingucken können, wie z.B. 'Firewall 1' von Sun, haben wir dann lieber Linux eingesetzt und wußten damit auch genau, wie die Filter funktionieren und was wir davon haben. Dann kamen ausgelagerte Arbeitsplätze, erst mal Entwicklerarbeitsplätze und andere. Und es wurden die Datenbanken für Bildticker, Agenturmeldungen usw. aufgebaut. In dem Zuge wurden auch die Entwickler- und Support-Arbeitsplätze zu reinen Linux-Arbeitsplätzen und anschließend die gesamten Arbeitsplätze innerhalb der Redaktion. So daß wir heute die Situation haben, daß bei der taz etwa 140 Linux-Workstations im Einsatz sind, worauf vornehmlich das Redaktionssystem läuft.  

Das ist ein System, was in der taz entwickelt worden ist, über das ich jetzt zwei, drei Stunden sprechen könnte. Das würde den Rahmen hier sprengen. In erster Linie läuft darauf ein Editor zur Eingabe der Texte, die gesamte Ablaufsteuerung, Zugriffskontrollen, Produktionsstati, wobei die alle als Intranet-Lösung realisiert worden sind, die als Modul von Apache laufen. Ansonsten läuft auf diesen Workstations das einzige kommerzielle Produkt, nämlich die Office-Software, da setzen wir Aplixware ein. Außerdem Web, Email und entsprechend auch Software-Arbeitsplätze, so daß sich die Software-Kosten für einen Arbeitsplatz bei uns auf etwa 70 DM belaufen. Die Linux-Server stellen letztendlich das zentrale System für das Redaktionssystem dar. Da laufen die Textdatenbanken drauf, die gesamte Zustandsverwaltung, die Steuerung der Produktion, wie eben schon gesagt, auf zwei Ebenen: einerseits innerhalb des Web-Servers für den Anwender und andererseits als Dämonen im Hintergrund, die dann entsprechend die Texte verwalten.  

Ansonsten setzen wir jetzt aktuell Linux für NIS-DNS-Mail ein, als Firewall, als Archivsystem -- das hatten wir ursprünglich auf Suns entwickelt -- und eben für die Tickeragenturmeldungen. Um ein paar Zahlen zu nennen, beispielsweise laufen pro Tag 2.000 Agenturmeldungen bei uns ein, die direkt indiziert und in die Redaktionen verteilt werden. Wir haben da mittlerweile ein Archiv von drei Jahren drauf. Und das Textarchiv von unserer eigenen Zeitung beinhaltet die Volltexte von, ich glaube, jetzt 11 Jahren, weil wir auch schon relativ früh damit angefangen haben, die Texte elektronisch zu archivieren. Die Fotodatenbank ist letztendlich auch ein Linux-System, hinter dem WAIS als Indizierer dient. Da laufen 500 Bilder pro Tag ein, plus die, die noch online von Agenturen kommen, plus Bilder von eigenen Fotografen, die darauf archiviert werden. Da müssen wir alle halbe Jahre ein paar Gigabyte an Platten reinstecken. Aber das System läuft ansonsten zuverlässig und rund um die Uhr für relativ wenig Geld -- außer unserer Entwicklungsarbeiter. Selbstverständlich spielen die Linux-Server vor allem als Web-Server eine ganz, ganz große Rolle bei uns. Die Softwarekosten pro Server belaufen sich bei uns in der Regel auf exakt Null Mark.  

Jetzt will ich mal dazu kommen, warum wir bei uns überhaupt freie Software einsetzen. Sicherlich der wichtigste Grund ist die Flexibilität, d.h., wir sind in der Lage die Quellen anzupassen auf unsere Bedürfnisse oder entsprechend zu erweitern. Dazu fällt mir ein Beispiel ein: Wir hatten das Problem, daß wir einen Radius-Server außerhalb unserer Firewall einsetzen wollten, aber dort auf gar keinen Fall Paßwörter in irgendeiner Form vorliegen, sondern die lieber auf eine spezielle Art und Weise gekryptet haben wollten, weil da eventuell Einbruchversuche möglich sind. Also nimmt man sich das Produkt, guckt sich an, wie arbeitet die Authentifizierung, und ändert das an der entsprechenden Stelle. Das kann ich eben nur dann, wenn ich die Sourcen vorliegen habe. Der nächste Punkt ist, daß ich eine sehr gute Verfügbarkeit habe, eine Testmöglichkeit. D.h., bevor ich eine Software kaufe, was ja bei kommerzieller Software nicht anders möglich ist, kann ich sie mir herunterholen, kann sie ausführlich testen und gucken, ob sie meinen Bedürfnissen entspricht, oder sie entsprechend anpassen oder sie verwerfen und nach etwas anderem suchen.  

Die Qualität: Dadurch, daß in der Regel die Software im Internet sehr weit verbreitet ist, daß sehr viele Leute einen Blick darauf haben, es also sehr viel Response gibt, bekommt man sehr schnell mit, was für Fehler darin vorhanden sind, wenn welche auftreten, was es für Patches gibt, und man kann sie unter Umständen auch selber beheben. Das gleiche gilt auch für die Sicherheit der eingesetzten Software, gerade bei Authentifizierungsproblemen. Die Rückmeldung gibt es in den News-Gruppen. Wenn irgendwas unsicher sein sollte, wird das meist sehr, sehr schnell bekannt, und durch regelmäßiges Studium bekommt man das auch sehr, sehr schnell mit. Ein Beispiel: Als wir den Imapd, also einen Mail-Daemon, für zu offen hielten, war es für uns ein leichtes, bestimmte Features einfach herauszunehmen und umzuändern, weil wir eben die Sourcen dafür hatten, um dadurch das System für uns sicherer zu machen.  

Der nächste Punkt, der für Open Source spricht, ist vor allen Dingen auch der Support. Man hat sehr schnelle Reaktionszeiten in den News oder auch, wenn man sich direkt an den Entwickler wendet, bekommt man in der Regel eine sehr kompetente Antwort auf sein Problem. Oder man findet Leute die vielleicht selber schon eine Erweiterung in der gesuchten Richtung geschrieben haben, so daß man das nicht selber machen muß, oder ähnliches.  

Das nächste ist, daß Open Source in der Regel nach internationalen Standards entwickelt wird. D.h., OSS setzt in der Regel auf das Posix-Interface auf, was sehr gut dokumentiert ist und was eigentlich die meisten Informatikstudenten schon kennen. D.h., man kann sich relativ schnell darin einarbeiten, um zu verstehen, wie so etwas funktioniert. Im Gegensatz dazu hatten wir z.B. das Problem, daß wir unser NT-Netzwerk vernünftig backupen wollten und feststellten, daß wir überhaupt keine vernünftige Dokumentation darüber bekommen, wie ich das jetzt eigentlich machen kann. Man muß ein Non-Disclosure Agreement unterschreiben und bekommt dann unter Umständen die Hinweise -- das weiß man vorher gar nicht genau. Und wenn man dann daraus etwas entwickelt, kann ich das noch nicht einmal weitergeben.  

Zu den Kosten: Ich würde behaupten, daß die Wartung und Installation letztendlich weniger kostet, als bei vergleichbaren kommerziellen Produkten, zumindest, wenn wir das bei dem vergleichen, was wir im Einsatz haben. Am Anfang ist es sicherlich so, daß man sich sehr stark in die verschiedenen Produkte -- nehme ich mal Sendmail, ein schönes Beispiel dafür -- einarbeiten muß, aber danach habe ich wesentlich weniger Aufwand durch ein höheres Maß an Verständnis von dem, was da eigentlich wirklich abgeht. Und ich bekomme entsprechende Unterstützung dafür. Das bedeutet letztendlich, daß ich eine ziemlich hohe Investitionssicherheit habe. D.h., wenn ich ein Produkt einmal einsetze, kann ich meine Plattform wechseln, meine Hardware wechseln. Ich kann dieses Produkt mit den Kenntnissen, die ich darüber gewonnen habe, so weiterverwenden. Und das führt dann auch dazu, daß ich eine Unabhängigkeit von Herstellern habe. Ich muß nicht, wenn ich eine Plattform oder das Betriebssystem-Release wechsle, eine neue Lizenz vom Software-Hersteller kaufen oder habe Beschränkungen, wie sie z.B. bei Sun-Maschinen sehr üblich sind, daß sie abhängig sind von einem Motherboard und die Software nur auf dem Board läuft. Wenn der Rechner kaputt geht, habe ich ein Problem und muß erst einmal zwei, drei Wochen hin und her faxen, bis ich eine neue Lizenz bekomme. Oder ein anderes Beispiel: Ein Hersteller von ISDN-Routing-Software teilte uns mit, als wir von Sun-OS auf Solaris umgestiegen sind, daß wir unsere gesamten ISDN-Karten neu kaufen müßten, weil die alten Karten nicht mehr von ihrer Software gepflegt werden. Dabei ging es um Investitionskosten in Höhe von 100.000 DM. Da hätte ich, wenn ich die Sourcen gehabt hätte, gerne jemanden darauf angesetzt, der das für mich analysiert und dann entsprechend die Anpassung gemacht hätte.  

Die Basis von unserem ganzen System ist Open Software, wie der Apache, Linux und ähnliches. Und entsprechende Aufsätze, auf den Webserver z.B., ermöglichen dann eine jeweilige Umsetzung oder das Verschieben der Texte.  
 

(Transkription: Katja Pratschke)