ver 0.8, Dezember 1998



Die Synchronisation ohne eine zentrale Instanz erfordert, daß vieles
anders als in traditionellen Betriebssystemen erledigt wird.

(Andrew S. Tanenbaum 1995: 566)

 


Die Rechenwerkzeuge der Gründergeneration verfügten nicht über ein OS. Die frühesten OS- artigen Software-Gebilde am Ende der 50er Jahre wurden IOCS (Input/Output Control System) oder Monitor genannt. Das 1962 von IBM entwickelte OS/360 gilt als das erste ‘echte' OS. Seine wichtigste Neuerung war Multiprogramming (im partitionierten Arbeitsspeicher warteten jeweils mehrere Jobs darauf, abgearbeitet zu werden). Immer ging es darum, die knappe, kostspielige Ressource Prozessor optimal auszulasten. Dieses ökonomische Motiv stand auch hinter dem erstmals 1959 von Christopher Strachey vorgeschlagenen Konzept des Time-Sharing. Time-Sharing war ein wichtiger Wendepunkt in der Evolution des Computers vom ‘numerischen Werkzeug' zu einer ‘Gesellschaft von intelligenten Agenten'.

Computerhersteller und die meisten Vertreter des Informatik-Establishments waren der Ansicht, daß Time-Sharing eine ineffiziente Verwendung von Computer-Ressourcen darstelle und nicht weiter verfolgt werden solle. Dagegen war das Argument von J.C.R. Licklider, des Architekten des MIT Projekts MAC (Multiple-Access Computer aka Machine-Aided Cognition aka Man And Computer), daß Rechner für eine Echtzeit-Interaktion   für "kooperatives Denken mit einem Menschen"   zu schnell und zu kostspielig seien, weshalb sie ihre Zeit zwischen vielen Nutzern aufteilen müßten.

Robert Fano und Fernando Corbató von MITs Computation Center entwickelten Anfang der 1960er das Compatible Time-Sharing System (CTSS). Ihr Fazit nach drei Jahren Erfahrung mit der neuen Art des Computergebrauchs: "Most striking is the way the users have built on one another's work... More than half of the commands now written into the system were developed by the users... Whereas in conventional computer installations one hardly ever makes use of a program developed by another user, because of the difficulty of exchanging programs and data, here the ease of exchange has encouraged investigators to design their programs with an eye to possible use by other people.... It is now easy to envision the use of the system for education or for real-time collaboration between the members of a research team... The coupling between such a utility and the community it serves is so strong that the community is actually a part of the system itself." (1966)

Eine ressourcen-ökonomisch motivierte Betriebssystems-Innovation führte zur Verwandlung des Computers in ein Medium und seiner Nutzer in eine Community. In der technischen Informatikliteratur der Zeit beginnen Begriffe wie Kommunikation und Kooperation aufzutauchen. Es ist die Rede von Mensch-Maschine Symbiose (Licklider), Synergie (Ulam, Engelbart 1963), Echtzeit-Interaktivität, Dialog zwischen Maschine und Nutzer und zwischen den Nutzern untereinander vermittels der Maschine (Fano/Corbato 1966).

In dieselbe Zeit fällt die Verschiebung vom leitungsorientierten zum paketvermittelten Paradigma in der Telekommunikation. Als 1969 zwei Großrechner der Universitäten von Kalifornien und Utah miteinander verbunden wurden, begann die Geschichte des Internet. Die Vernetzung von Rechnern verschiedener Hersteller machte plattformübergreifende, offene OSs erforderlich. Mit dem Release von UNIX 4.2BSD 1983 und der Integration von TCP/IP hatte das Netz sein OS. In den frühen 1980ern proklamierte Sun das Motto "The network is the computer", eine Vision, die Oracle-Chef Larry Ellison in den 1990ern in Form des festplattenlosen, Java-gestützten Netz-Computers (NC) neuformulierte. Heute beobachten wir, wie Rechner, Netz und die in elektrischen Geräten (Robotern, Autos, Reiskochern, Handys, Armbanduhren usw.) eingebetteten Mikroprozessoren zu einer verteilten, heterogenen, interoperierenden digitalen Umwelt zusammenwachsen.

Die Genealogie der OS-Paradigmen verzeichnet vier Arten, die OS-Software zu organisieren: monolitische Systeme (Unix, MS-DOS), geschichtete Systeme (Multics), virtuelle Maschinen (VMS) und Client-Server-Modelle (Plan 9, Amoeba, Mach, TRON). Die Verbreitung von Mikroprozessoren und LANs Mitte der 1980er leitete den Übergang zu verteilten Systemen mit mehreren Prozessoren und Client-Server-Strukturen ein. Verteilte Systeme haben zahlreiche Vorteile gegenüber zentralisierten. Daß beim Ausfall einzelner Komponenten nicht das Gesamtsystem funktionsunfähig wird, war nicht zuletzt eine Designvorgabe der DARPA für das Internet. Auch Leistungs- und Wirtschaftlichkeitsgründe sprechen für sie.

Die Bewegung weg von einem monolithischen Software-Block hin zu kleinen kommunizierenden Einheiten speist sich aus Entwicklungen in verschiedenen Bereichen der Informatik. Im Programmiersprachen-Design ist es der Wechsel von der top-down Strategie des strukturierten Programmierens hin zum bottom-up der Objektorientierung. Als Urheber dieses Konzepts gilt der norwegische Informatiker Kristen Nygaard, der zusammen mit Dahl u.a. Simula67 vorlegte, die erste objektorientierte Sprache. Wirklich zum Tragen kam die neue Denkweise bei Smalltalk von Adele Goldberg (Xerox PARC). C++ machte den Ansatz weithin bekannt. In Netzwerken ist es die von sternförmig angeordneten, leitungsvermittelten "dummen" Terminals hin zu paketvermittelten Client-Server-Architekturen. In der KI ist es die von regelbasierten Wissensrepräsentationen (z.B. Expertensysteme) zum Konnektionismus (z.B. neuronale Netzwerke). Im Interface-Design vollzieht sich derzeit die Entwicklung von dem im Xerox PARC entwickelten WIMP-Paradigma (Windows, Icons, Menus, Point and click) zu dialogischen Agenten-Systemen, von Manipulation zu Delegation.

Und in Betriebssystemen ist es eben der Wechsel von monolithischen zu verteilten Modellen. Als frühe Exemplare der neuen Denkweise sind hier Oberon von Niklaus Wirth (ETH Zürich) und Plan 9 von Dennis Ritchie, Ken Thompson usw. (Bell Labs), den ursprünglichen Autoren von Unix, zu nennen. Heute zeigen verteilte OSs wie Tron, Java-OS, Amoeba, GNU Hurd und Inferno (der Nachfolger von Plan 9) die Richtung an.

Moderne Konzeptionen von OSs sind sicherlich Teil von - Reflex auf und Impulsgeber für - weitergehende soziale und epistemische Vorstellungen von Dialogizität und Verteiltheit. Auch in anderen Wissensbereichen läßt sich dieses Umdenken aufzeigen. Wichtig war z.B. die Ökologie mit ihren Netzwerken von autonomen, aber interdependenten, heterogenen Elementen. Auch die Management- und Organisationstheorien sprechen heute von "flachen Hierarchien" und "dezentralen, selbstorganisierenden Einheiten".

Es wird eine Revolution von den Ausmaßen der PC-Revolution und der Netz- Revolution prophezeit. IBM-Chef Lou Gerstner (dessen Unternehmen einen neuen NC auf den Markt brachte) hat gerade wieder einmal den PC für tot erklärt. Das Konzept von "intelligenten" Gebäuden und "intelligenter" Stadt, wie es jüngst auf dem Potsdamer Platz zelebriert wurde, ist ebenso Teil dieser Bewegung zu verteilten Systemen, wie die Rede von semi-intelligenten, semi-autonomen Software-Agenten. Viele Vektoren weisen in dieselbe Richtung. Die Herausforderung heute ist es, ein verteiltes Betriebssystem zu entwickeln für die verteilte und heterogene Dingwelt, wie sie sich in Wechselwirkung mit den verteilten und heterogenen sozialen Systemen entwickelt.

Ein OS und seine Design-Philosophie "exert an extremely strong influence on the technical cultures that grow up around its host machines", heißt es im Motto. Um OSs entstehen leidenschaftliche Anhängerschaften, Kulte, die mit nachgerade religiösem Eifer betrieben und verteidigt werden. Als Umberto Eco Mac-OS als katholisch und DOS als evangelisch bezeichnete, löste er damit einen kleinen Religionskrieg aus. "Technische Kulturen" meint zunächst die Kulturen von Technikern. Allgemeiner sind jedoch Kulturen insgesamt, die auf Medien beruhen, immer auch technische. Es ließe sich gar mit Grund argumentieren, daß das Phänomen Gesellschaft nichts als einen Effekt medientechnischer Verschaltungen darstellt.

Der zweite Tag will sich der schwierigen Frage nach der Beziehung zwischen den OSs technischer Systeme und dem, was in nicht-trivialer Analogie OSs von sozialen Systemen genannt werden könnte, annähern. Techniksoziologie, Technikfolgeforschung und ähnliche Ansätze haben gelehrt, daß eine Dichotomisierung von Technik und Kultur nicht aufgeht.

In das Design eines technischen Artefakts wie eines OS gehen auf vielschichte Weise nicht-technische Aspekte ein: die Kultur der Informatiker innerhalb einer Wissenschaftskultur; die Formen sozialer Organisation, unter denen Informatiker arbeiten; die allgemein umlaufenden Management- und Organisationstheorien; breitere epistemische Verschiebungen; die Strukturen des Gegenstandsbereichs, über den und in dem die Software operieren soll; Modelle der verschiedenen Nutzer der Software (Systemadministrator, Programmierer, Anwender - jeder erhält über seine jeweilige Schnittstelle zum OS einen Systemplatz zugewiesen) usw. Die so in das Design eingegangenen Aspekte werden in der Form des Artefakts wiederum in die sozialen Systeme zurückgespeist und dort wirkungsmächtig.

Das User-Interface - vom Desktop bis zu Systemen für CSCW (Computer Supported Cooperative Work) oder Groupware - ist das zentrale Scharnier, über das psychische und soziale Systeme in technische vermittelt werden und umgekehrt. Der avancierteste Ansatz für das Interface zwischen Menschen und Maschinen, genauer: zwischen Menschen und digitaler Information sind Agentensysteme, in denen die Nutzerin ein lernfähiges Softwaremodul nach ihren Wünschen trainiert. "Dies impliziert ein zweiseitiges Kopplungsverhältnis: Zum Training des user models muß sich der Mensch im Agenten veräußern; sein inneres Wertesystem muß (zumindest in Form von Beispielen) explizit vergegenständlicht werden. Umgekehrt fungiert der phantasmagorische Agent als verdinglichtes Selbstbild. Er verobjektiviert, wie man sich wahrnimmt, indem er regelt, was einem begegnet und somit, was man (von sich) weiß." [Pflüger 97: 447 f.] Deutlicher läßt sich nicht formulieren, wie innig die beiden Seiten der reziproken Konstitution verwoben sind. Und wie problematisch damit eine Haltung von Kulturwissenschaftlern, die den Computer nur als Schreibmaschine verwenden und denken.

Umgekehrt referieren soziale Systeme in ihrer Selbstbeschreibung auf OSs. Thomas Wulffen hat den Begriff "Betriebssystem Kunst" in die Welt gesetzt (Kunstforum Bd.125). Dabei handelt es sich um eine flache Analogisierung, die eher an die ‘Funktionssysteme' der soziologischen Systemtheorie als an die Informatik anschließt. Gemeint sind Sammlung, Museum, Galerie, Kunsthochschule und Kunstzeitschriften, also Elemente, die unterhalb der Vielfalt möglicher "Anwendungen" das gesamte System Kunst definieren und in Betrieb halten. Würde man die Analogie weiterdenken, beruhte jede Institutionalisierung oder Ausdifferenzierung eines sozialen Funktionssystems auf der Herausbildung eines OS, also eines Bündels von Funktionalität, wie Ressourcenverwaltung, Scheduling und Input-Output (die institutionalisierte Kommunikation mit anderen Funktionssystemen), das die Grundlage eines sozialen Systems abgiebt. Wäre das Recht als ‘OS der Gesellschaft' anzusehen? Oder ‘Kommunikation'? Oder Geld? Ließe sich das Kapital als das Betriebssystem sozialer Systeme begreifen, mit der Hardware, auf der es kompiliert ("lauffähig") gemacht wird, mit seinen Grundoperationen, seiner Anwender-Software und seinen Schnittstellen zu anderen Systemkomponenten?

Aus einer dichten, tiefen Zusammenschau von technischen und sozialen Systemen ließe sich wertvolle Erkenntnis gewinnen. Die Aktor-Netzwerk-Theorie (Latour, Callon, Law) scheint auf den ersten Blick ein Vokabular anzubieten, mit dem sich gerade verteilte, objektorientierte Systeme beschreiben lassen. Die Diskursanalyse technischer Systeme (Kittler) erlaubt es, eine subjektzentrierte Blindheit zu vermeiden. Auch die Systemtheorie (Luhmann) und ihre Vorstellung von Funktionssystemen, die bestimmte Aufgaben für die Gesellschaft wahrnehmen, scheint anschlußfähig für eine Beobachtung der Grundoperationen, die Systeme in Betrieb halten. Oder erweist sich letztlich ein marxistischer Ansatz, eine Kapitalanalyse des Marktes und seiner Checks-and-Balances, als hinreichend erklärungsfähig?

Signifikant ist in jedem Fall, daß der Begriff "Betriebssystem" den Bereich der Informatik verlassen hat und zur Selbstbeschreibung sozialer Systeme herangezogen wird. Dies allein schon läßt Aufschlüsse über die Konstruktion von Systemidentitäten im digitalen Medienzeitalter zu.

Informatiker, die sich sozialer Modelle bedienen, und Kulturwissenschaftler, die Anleihen bei informatischen Modellen machen - im Feld dazwischen öffnen sich weitere Fragen. Fragen nach Reichtum und Armut (die hinter der jüngsten Entscheidung der mexikanischen Regierung stehen, in 140.000 Grund- und Mittelschulen GNU-Linux zu installieren), bildungspolitische Fragen (werden Kinder im Computer-Unterricht in eine MS- Welt hineinsozialisiert?) und nicht zuletzt machtpolitische Fragen (wer hat worauf Lesezugriff und/oder Schreibzugriff? - die sich bei jedem Multi-User- und somit sozialen System stellen).

Die Zielvorstellung für diesen Tag ist nicht so ambitioniert, die Beziehung zwischen ‘Gesellschaft' und ‘Technik' umfassend klären zu wollen. Es würde hinreichen aufzuzeigen, daß es da eine Beziehung gibt, das OS aus dem Hintergrund in den Fokus der Aufmerksamkeit zu stellen und anzureißen, daß dieser ‘Grund' soziale, psychologische, kognitive, weltkonstituierende Aspekte hat. Skizzierte der 1. Tag, daß uns die Paradigmenschwelle der OSs in ein offenes, entscheidungsfähiges Feld führt, so soll am 2. Tag aufgezeigt werden, daß es sich dabei um Entscheidungen handelt, die alle Medienbetroffenen angehen.
 

Microsoft hat sein Monopol von IBM geerbt. Noch die nicht-IBM-PCs wurden in den 1980ern durch die schiere Masse des Kolosses zu ‘IBM Compatibles'. Und damit zu MS-DOS- Rechnern. Das US-Justizministerium ermittelte 13 Jahre lang wegen Monopol-Vergehen gegen IBM, doch seine allesbeherrschende Stellung verlor das Unternehmen nicht durch staatliche Marktwächter, sondern weil es die PC-Revolution verschlief. Das Muster könnte sich im aktuellen Verfahren gegen MS wiederholen: die gerichtlichen Auflagen könnten sich als zahnlos erweisen (wie es sich in der richterlichen Genehmigung der Auslieferung von MS- Windows98 mit integriertem Browser ankündigte), während zugleich das Unternehmen von einer neuen Technologie-Generation und einem neuen Organisations-Paradigma einfach links liegen gelassen wird. Einer der wenigen publizistischen Gegner des Kartellverfahrens schreibt, die Rede von einem Mißbrauch von MS's Dominanz in Betriebssystemen verfehle den Punkt: "Microsoft is desparately trying to keep its operating system from becoming irrelevant." [Hume in Thierer, Nov. 97]

Das neue Organisations-Paradigma entsprang weder einer soziologischen Theorie noch einem Think-Tank. Der vielbesungene sharing spirit des Internet hat eine seiner Wurzeln in der OS-Innovation des Time-Sharing. "Sharing" bedeutete offenen Quellcode - für die Hacker als fundamentales Element ihrer Ethik, für AT&Ts Bell Labs als Ergebnis der Antimonopol-Auflagen: da sie Unix nicht vermarkten durften, verschenkten sie es an Universitäten. An den Unis wiederum trafen die technischen und urheberrechtlichen Möglichkeitsbedingungen mit dem akademischen Imperativ "Publish or perish!" sowie mit dem Geist der Hippie-Subkultur zusammen. Der Netzhistoriker David Bennahum weist darauf hin, daß es kein Zufall war, daß sowohl Unix wie der Vorläufer des Internet gerade 1968 das Licht der Welt erblickten.

Nicht als lauthals verkündete revolutionäre Bewegung, sondern eher beiläufig war die Gabentausch-Ökonomie aus den Ethnologiebüchern eines Levi-Strauss in die Software- Entwicklung eingewandert. Heute macht sie der klassischen politischen Ökonomie Konkurrenz. Mit den Kommunikationsprotokollen UUCP (Unix to Unix Copy) und TCP/IP wurde das Netz integraler Bestandteil von Unix, und die Usenet Newsgroups wurden integraler Bestandteil der Community, die es entwickelte. Aus Widerstand gegen die Schließung von Unix durch das jetzt deregulierte AT&T rief Richard Stallman vom MIT 1984 das Projekt eines Freeware-Unix namens GNU ins Leben. Mit dem Editor Emacs und dem OS Hurd schuf Stallmans Free Software Foundation selbst wichtige Produkte, vor allem aber setzte sie mit der GNU Public License (GPL) das weitverbreitete Modell für Copyleft-geschützte freie Software. Zur Erfolgsliste der Open-Source-Software zählen ferner GNU-Linux (das am weitesten verbreitete Unix für PCs), Apache (die am weisten verbreitete Internet-Server-Software), PERL (die Standard-Skriptsprache im Intenet), BIND (die Basis des Internet Domain-Name-Systems), Sendmail (die am weisten verbreitete Mail-Übermittlungs-Software) und Majordomo (der am weisten verbreitete Mailinglisten-Server, geschrieben in PERL). Nicht zufällig leben alle genannten Software-Projekte nativ im Netz.

Philosophen und Evangelisten gab es auch früher, doch ihr ‘Manifest' erhielt die Open- Source-Bewegung Anfang 1998 mit Eric Raymonds "The Cathedral and the Bazaar". Darin beschreibt er die Faustregeln für eine verteilte, offene, locker gekoppelte Zusammenarbeit am selben komplexen Software-Projekt durch Tausende von Menschen in der ganzen Welt. Sein Paradebeispiel für den Erfolg einer solchen unwahrscheinlichen Organistationsform ist das von Linus Torvalds initiierte Linux. "In fact, I think Linus's cleverest and most consequential hack was not the construction of the Linux kernel itself, but rather his invention of the Linux development model." [Raymond, C&B] Open Source stellt die konventionelle Logik auf den Kopf: verteilte Gruppen von Gleichen sind effizienter als Chef-geleitete, hierarchische Systeme. Wer die Früchte seiner Arbeit verschenkt, hat mehr davon. Eigennutz und Anerkennung motivieren effektiver als Geld.

Zu den spektakulären Entwicklungen dieses Jahres gehören Netscapes Freigabe des Quellcodes für seinen Browser und der Deal zwischen IBM und der Apache-Gruppe für IBMs Server-Paket "WebSphere". Die Wellen schlugen so hoch, daß selbst MS eine hausinterne Expertise über Open Source in Auftrag gab. Durch die Enthüllung dieses vetraulichen, sog. Halloween-Dokuments wurde sichtbar, daß MS Open-Source-Software als direkte und kurzfristige Bedrohung seines Profits und seiner Plattform ansieht. Mehr noch sieht der Autor im freien Austausch von Ideen einen Vorteil, der von MS nicht repliziert werden könne, und deshalb eine langfristige Bedrohung seines Mindshare bei den Software-Entwicklern darstelle. Zur Abwehr der Gefahr empfiehlt er u.a. eine Strategie, die MS bereits gegen Java einsetzt: MS erweitert offene Standards um proprietäre Funktionen, die durch Marktsättigung als "de facto"-Standard durchgesetzt werden. Die im Halloween Document empfohlene  Privatisierung solchen öffentlichen Gutes wie TCP/IP, HTTP, Linux oder Apache dürfte MS kaum gelingen, doch genau genau darauf zielen diese Anstrengungen, nicht "irrelevant" zu werden.

Als selbst Forbes Magzine im August 1998 das Loblied von Open Source und Hackern sang, mußte man sich fragen, ob das Ende des Kapitalismus nah sei. Oder ist umgekehrt Open Source als das überlegene Software-Entwicklungsmodell bestens kompatibel mit einem post-dogmatischen, flexibilisierten Kapitalismus? Ist Open Source die Entsprechung zum Dritten Sektor in der politischen Debatte und zum biologistischen Growingstatt Building in verschiedenen wissenschaftlichen Disziplinen? Geht es nur um die im Vergleich zur geschlossenen Software-Entwicklung größere Effizienz und ein anderes Business-Modell oder läßt sich ein starker Begriff von "öffentlichem Gut" etablieren? Ist die Idee so abwegig, daß die grundlegende Infrastruktur unseres Lebens, wie Luft, Parks, Wasserfronten, Bibliotheken, Museen und Betriebssysteme gemeinfrei (public domain) sein sollten? Zeichnet sich in der offenen kollaborativen Entwicklung in einem weiteren Sinne eine neue Wissensordnung ab?

In den frühen Jahren der Eisenbahn in England legten die einzelnen Unternehmen Schienen von unterschiedlicher Spurweite - bis die Beteiligten begriffen, daß ein einheitlicher Standard im Intresse aller lag: dem von Schienenherstellern, Betreibern von Transportdiensten und  Fahrgästen. Solche technischen Standards bilden sich auf verschiedenen Wegen. Sie können staatlich vermittelt werden, wie im Falle der europäischen Posten, Eisenbahnen, Telekommunikation, Stromversorgung usw. Sie können sich auf dem sog. freien Markt durch die Monopolmacht eines Aktoren durchsetzen, wie bei der Schreibmaschinentastatur, VHS, MS-Windows usw. Oder sie können durch kollaborative Entwicklung in metastaatlichen Kommissionen entstehen. Solche Gremien können zwischenstaatlich (ISO, CCITT), berufsständisch (IEEE), industrieweit (W3-Konsortium) oder vollständig offen (IETF) organisiert sein.

Das erste Modell ist außer Mode, das zweite in Diskredit geraten. Wollte man die Entwicklung eines Betriebssystems-Standards für eine globalisierte, vielfältige, verteilte und feinmaschig vernetzte Welt vorschlagen, käme einem wohl als erstes in den Sinn, sie bei der International Standards Organization (ISO) anzusiedeln. Die ISO wurde über den nationalen Standardsetzungbehörden errichtet, die Delegierte in die Arbeitsgruppen entsenden. Konflikte werden durch Abstimmung gelöst, weshalb das Vertretungsrecht kritisch ist. Jeder Schritt im Entwicklungsprozeß muß mit den nationalen Gremien und deren Klientel abgestimmt werden, jedes Interesse im Endprodukt vertreten sein. Im Falle von OSI (Open Systems Interconnection) zeigt sich, daß dieses Verfahren mit der rasanten Entwicklung der Technologie nicht Schritt halten kann. Überdies sind ISO-Standards zwar offen, d.h. die Spezifikationen sind für jeden (gegen einen Preis) verfügbar, aber nicht frei, d.h. frei von Linzenzgebühren an die Unternehmen oder Forschungseinrichtungen, die im laufe der Standardisierung Patente erworben haben.

Ein anderes Standardisierungsverfahren ist das der Internet Engineering Task Force (IETF), die die Grundlagentechnologie des Internet unterhält. Ihre Arbeitsgruppen stehen jedem Arbeitswilligen offen. Da keine Autorität delegiert wird, gibt es keine Abstimmungen, sondern pragmatische Konsensentscheidungen. Das Ziel ist - anders als bei der ISO - nicht, einen möglichst universellen und vollständigen, rückwärtskompatiblen und zukunftssicheren Standard zu entwickeln, sondern "to scratch an itch" (Raymond): ein auf der Hand liegendes Problem möglichst einfach und schnell zu lösen. Die einzelnen Schritte werden in RFCs (Request For Comment) dokumentiert, die ebenso wie die Email-Diskussionen der Beteiligten jedem Interessierten im Netz offen stehen. Da der Quellcode des Software-Standards einsehbar und modifizierbar ist, wird er von einer ungleich größeren Zahl von Entwicklern getestet, als im ISO-Prozeß. Auch Unternehmen stellen Angestellte für die Mitarbeit in IETF- AGs frei, nicht weil sie sich Patentrechte davon versprechen, sondern weil sie für einen frei zugänglichen, stabilen und vielbefahrenen Superhighway Autos und Raststätten verkaufen wollen.

Auch in der Unix-Welt und in der Subwelt von GNU-Linux gibt es seit einiger Zeit Bestrebungen zur Standardisierung. Das Linux Kernel Project unterhält bereits von Anfang an einen für die gesamte Linux-Welt verbindlichen OS-Kern. Die Linux Standard Base (LSB) soll nun nach dem gleichen Modell eine Kompatibilität der Applikationen über die verschiedenen Distributionen hinweg sichern. Mit der Standardisierung entsteht eine einheitliche Unix-Welt, die es für Software-Hersteller attraktiv macht, ihre Produkte auf Unix zu portieren, und für Hardware-Hersteller, Treiber dafür zu schreiben.

Der David Linux hat heute eine Aufmerksamkeit und Akzeptanz ("Mindshare") erlangt, die Goliath Microsoft das Fürchten lehrt. Doch wenn die Analyse vom Paradigmenwechsel von zentralistischen zu verteilten sozialen Prozessen korrekt ist, und dieser seine "natürliche" Entsprechung im Paradigmenwechsel von monolithischen zu verteilten OSs hat, dann muß auch Unix sich wandeln. Tatsächlich gibt es bereits Ansätze dazu, Unix um verteilte Eigenschaften (z.B. Beowulf-Cluster) und Echtzeitfähigkeit zu erweitern.

Sie würden in das hier vorgeschlagene Projekt einer OS-Entwicklung nach dem IETF- Modell ebenso eingehen, wie alle bisherigen Ansätze zu verteilten OSs (Plan9, Java, Tron, Amoeba etc.) und die Entwicklungen in der TCP/IP-Welt. Da weder Kapital noch Masse in diesem Prozeß eine Rolle spielen, könnten selbst MS-Entwickler ohne die Gefahr daran teilnehmen, daß das Untenehmen den Entwicklungsprozeß dominiert. Ferner besteht Grund zu der Annahme, daß sich in einem solchen offenen Prozeß ohne direkte pekuniäre Interessen die Technologie, die von den meisten als überlegen anerkannt ist, als Standard durchsetzt, und nicht - wie im sprichwörtlich gewordenen Fall von VHS vs. Beta - die Technologie des stärksten Aktors im Markt.

Anders als Eisenbahnschienen ist ein OS kein Produkt sondern ein fortlaufendes Verfahren. Eine der bemerkenswertesten Einsichten im Halloween Document ist, daß es MS bei Open Source nicht mit einem anderen Unternehmen zu tun hat, sondern mit einem Prozeß. Wichtiger, als sich auf einen bestimmten Standard zu einigen ist es, ein Verfahren für die Weiterentwicklung der dynamischen Grundlage unserer Medienexistenz zu finden, die den größten Nutzen aller verspricht.


Am 1. Tag wurde aufgezeigt, daß OSs heute an einer Paradigmenschwelle, an einem Neuanfang stehen. MS ist im Bereich verteilter OSs aktiv, doch hat es keine den PC- OSs vergleichbare Dominanz. Es besteht somit die Chance, es in dieser Runde besser zu machen als bei den letzten Malen.

Am 2. Tag wurde deutlich, daß Designentscheidungen von OSs keine ‘außer- soziale', ‘außer-kulturelle', ‘rein technische' Frage sind, sondern eine zutiefst politische, die jede Computerbenutzerin - und sei es auch nur durch ihre Kaufentscheidungen - mitbestimmt. Es liegt somit an uns, die Chance zu nutzen.

Nachdem am 3. Tag Closed-Source und Open-Source kontrastiert und die Vor- und Nachteile der verschiedenen Standardsetzungs-Modelle dargestellt wurden, soll auf dem Abschluß-Panel gefragt werden, ob es sinnvoll und möglich ist, eine IETF- artige Arbeitsgruppe ins Leben zu rufen, die den OS-Standard der nächsten Generation entwickelt. Sollte sich ein solches Projekt in der Diskussion als wünschenswert erweisen, würde es als krönender Abschluß des Events feierlich ins Leben gerufen.
 

maintained by vgrass@rz.hu-berlin.de
last updated 98/12/13