Der
Erfolg offener Standards und seine Nebenwirkungen am Beispiel der
IETF:
Das Internet und seine Gemeinde sind in der Normalität angekommen Das
Open Source-Projekt stellt die Machtfrage, und siehe da: Sie lehrt die
Großkopferten der Softwareindustrie das Fürchten. Etwas ähnliches
hat sich unlängst schon einmal ereignet. Auch das Internet verdankt
seinen Erfolg einer frei verfügbaren, offenen Netzarchitektur, die
sich wider alle Erwartungen gegen ein wirtschaftlich wie politisch umworbenes
Konkurrenzmodell durchgesetzt hat. Dieses Modell hieß OSI und gilt
heute als Reinfall. Einiges spricht dafür, daß das Konzept des
freien Quellcode eine ähnliche Karriere durchläuft wie einst
die offenen Internetstandards: Am Anfang nimmt die im Ehrenamt entwickelte
Technik kaum jemand ernst, und die Fangemeinde bastelt mehr oder minder
im Stillen vor sich hin. Dann beginnt die Installationsbasis der offenen
Software zu wachsen und nach und nach auch im kommerziellen Bereich Fuß
zu fassen. Die ersten Triumphe gegenüber urheberrechtlich geschützter
Technik stellen sich ein, und eine euphorische Stimmung macht sich breit.
Man weiß sich technisch überlegen und wähnt sich auf der
Siegerseite.
Anhand des Siegeszuges der Internet-Standards läßt sich erkennen, wie dieser Erfolg auf die Bedingungen zur Entwicklung offener Standards zurückwirkt. Um einen Einwand gleich vorwegzunehmen: Standards, das heißt, die schriftlichen Spezifikationen einer Technik, sind natürlich nicht das Gleiche wie Quellcode. Dennoch ähneln sich die Auswirkungen, die ihre weltweite Verbreitung auf die Voraussetzungen ihrer Entwicklung haben. Die Entwicklungstradition offener Internet-Standards Die Realisierung der für das Internet charakteristischen Paketvermittlungstechnik ist von Beginn an ein kollektives Projekt gewesen. Begünstigt wurde das durch die akademische Umgebung, in der das Netz 1969 das Licht der Welt erblickt hat. Eine Gruppe von Studenten an der UCLA probierte so lange herum, bis der Datenfluß in Gang kam. Sogar Gedichte zeugen von diesem für alle Beteiligten überwältigenden Ereignis:
Nicht nur die Ergebnisse dieser
Arbeit waren offen, sondern auch die Gruppe selbst. Die Väter des
Internets (von Müttern ist nichts bekannt) verstanden sich als offene
Gemeinde, zu der sich nach und nach auch Interessierte anderer Universitäten
mit Netzanschluß hinzugesellten. Von ihrem informellen Flair hat
sich die Gemeinde bis heute viel bewahrt. Dies gilt auch für die Regeln,
die sich die Internet Engineering
Task Force (IETF) im Laufe ihres Bestehens gegeben hat. Zu den wichtigsten
Grundsätzen kollektiver Standardentwicklung gehören:
1987 verzeichnete die IETF auf ihren Treffen erstmals mehr als 100 Menschen. Danach stiegen die Teilnehmerzahlen sprunghaft an. In diesem Wachstum spiegelt sich zum einen die Ausbreitung des Internets wider, zum anderen aber auch die Entstehung einer neuen Branche. Die Netztechnik entwickelte sich zu einem lukrativen Markt, und immer mehr Hersteller suchten den Zugang zu dessen Quelle. Und noch bevor sie es so richtig realisiert hatte, war die IETF zur zentralen Standardisierungsinstanz fürs offene Datennetz avanciert. Die IETF - und mit ihr die offenen Standards - konnte damit einen doppelten Triumph verbuchen. Sie hatte der Internationalen Standardisierungsorganisation, ISO, dem großen Gegner aller echten Geeks, gleich in zweifacher Hinsicht den Rang abgelaufen. Zum einen konnte das Internet eine größere Installationsbasis als jedes andere Datennetz aufweisen, zum anderen etablierte sich die Graswurzelgemeinde all ihrer basisdemokratischen Organisationsregeln zum Trotz als reguläre Standardisierungsorganisation. Der Erfolg der offenen Standards und ihrer offenen Gemeinde ist nicht ohne Auswirkungen auf die Arbeitsweise der IETF geblieben. Einige dieser Nebenwirkungen scheinen mir symptomatisch für das Dilemma, in dem sich nicht nur die Internetcommunity, sondern das Projekt kollaborativer, offener Technikentwicklung insgesamt bewegt. Um die geht es im folgenden: 1. Skalierungsprobleme: "Wegen Überfüllung geschlossen" Nicht nur die offene Netzarchitektur, auch ihre Entwicklergemeinde ächzt unter den Folgen des weltweiten Andrangs. Mit den Händen zu greifen sind die sich daraus ergebenden organisatorischen Skalierungsprobleme während der Tagungen der IETF. Aus den 50 bis 100 Teilnehmern in den 80er Jahren sind in der zweiten Hälfte der 90er Jahre 2000 bis 3000 Leute geworden. Hatten sich die einzelnen Arbeitsgruppen früher um einen Tisch eines abgelegenen Universitätsraums gruppiert, benötigen die wirtschaftlich relevanten unter ihnen heute die Ballsäle der großen internationalen Konferenzhotels, um alle Teilnehmer unterzubringen. Unter solchen Bedingungen will sich die einstmals dichte Arbeitsatmosphäre nicht mehr einstellen. An die Stelle von den Debatten, an denen sich noch alle Anwesenden aktiv beteiligten, sind heute Präsentationen getreten. Im Rahmen einer zumeist rigiden Tagesordnung berichten Experten einem überwiegend schweigenden Publikum in wenigen Minuten über den aktuellen Sachstand eines Entwicklungsprojekts. Darauf gibt es in der Regel ein paar schüchtern-kritische Nachfragen, dann folgt die nächste Präsentation. In Folge ihres Wachstums haben die Arbeitsgruppen der IETF einen Bedeutungswandel durchlaufen. Nicht mehr der kooperative Entwicklungsprozeß steht im Vordergrund, sondern die Informationsvermittlung. Die eigentliche Arbeit aber ist ausgewandert. Die findet nicht mehr in den Arbeitsgruppen statt, sondern immer häufiger in sogenannten Designteams. Das sind kleine geschlossene Gruppen mit einer konkreten Aufgabenstellung, deren Mitglieder üblicherweise vom Chair einer Arbeitsgruppe kooptiert werden. Bezeichnenderweise arbeiten Designteams nicht öffentlich. Im Gegenteil, der Ausschluß der Öffentlichkeit gilt als Voraussetzung, um überhaupt arbeitsfähig zu werden. Designteams sind bloß die sichtbare, institutionalisierte Form einer allgemeinen Tendenz zur Unterhöhlung der Öffentlichkeit im Namen der Rettung von Effizienz. Die erste Lektion, die sich daraus lernen läßt, lautet: Das Projekt offener, kollektiver Technikentwicklung stößt an organisatorische Grenzen, wenn zu viele daran teilhaben oder gar aktiv mitwirken wollen. Irgendwann hängt dann das Schild "Wegen Überfüllung geschlossen" an der Tür, hinter der die praktische Entwicklungsarbeit eben jenen exklusiven Charakter annimmt, gegen den man einst voller Emphase angetreten ist. 2. Balanceakte: Zwischen Gemeinwohl und ökonomischer Konkurrenz Seit den späten 80er Jahren hat sich der Anteil akademischer Mitglieder in der IETF stetig verringert - und das nicht nur, weil die Zahl der Unternehmen immer mehr anstieg, sondern auch, weil immer mehr Gründungsmitglieder in die Wirtschaft wechselten. Seither hat die IETF ein Problem am Hals, das jede herkömmliche Standardisierungsorganisation auch irgendwie bewältigen muß: In den Arbeitsgruppen sitzen sich nicht mehr nur querköpfig und besserwisserisch argumentierende Geeks gegenüber, sondern auch konkurrierende Unternehmen. Daraus ergibt sich die Notwendigkeit, zwischen dem Internet als kollektivem Allgemeingut auf der einen und dem Internet als einzelwirtschaftlichem Absatzmarkt auf der anderen Seite zu balancieren. Dieser individuelle und zugleich kollektive Balanceakt gelingt unterschiedlich gut und - glaubt man den kritischen Stimmen in der IETF - in der letzten Zeit eher schlechter. Befragt man die Netzveteranen zu diesem Thema, scheint man es mit einem None-issue zu tun zu haben. Für die Gründergeneration des Internet ist es eine Frage der professionellen Ehre und Verantwortung, dem Wohl des Netzes und seiner Community Vorrang einzuräumen. Die Reputation der Internetväter beruht gerade auf der Intelligenz und Unbestechlichkeit ihres Urteils, die sie bei technisch strittigen Fragen immer wieder aufs Neue unter Beweis stellen können. Hinzukommt, daß die meisten Netzveteranen ihren Arbeitgeber im Laufe der Jahre so oft gewechselt haben, daß sie gegenüber einzelnen Unternehmen kaum das Maß an Verbundenheit entwickeln, das die Internetgemeinde traditionell zusammenhält. Auf die nächste Generation von Netztechnikern - so jedenfalls sehen die "Alten" das - treffen alle diese Voraussetzungen nicht mehr oder nur noch eingeschränkt zu. Entsprechend scheint das allgemeine Unterscheidungsvermögen zwischen dem, was dem Arbeitgeber nützt und dem, was gut fürs Internet sein mag, gelegentlich an Trennschärfe zu verlieren. Inzwischen gibt es in der IETF Arbeitsgruppen, in denen die verschiedenen Vorstellungen zu einem Standard ganz offen mit den konkurrierenden Produkten einzelner Unternehmen assoziiert werden. "Wenn man sich vor Augen hält", so beschrieb ein Betroffener die Lage, "daß die Positionierung eines einzelnen Bits in diesem Standard über das Schicksal eines gesamten Unternehmens entscheiden kann", verwundert es dann noch, daß die kooperative Entwicklungskultur der Community unter Druck gerät und Auflösungserscheinungen zeigt?" Die zweite Lektion, die sich aus dem Erfolg offener Internet Standards lernen läßt, besagt, daß das wirtschaftliche Gewicht, das auf diesen lastet, eine wesentliche Voraussetzung ihrer bisherigen Überlegenheit gegenüber anderen Datennetzen zu unterlaufen droht: das kollektive Streben nach der bestmöglichen Lösung. 3. Technische und organisatorische Versteinerungen Solange das Internet eine randständige Rolle innerhalb der Kommunikationsnetze spielte, schien der Spielraum für technisch Neues schier unendlich und der Bedarf an formalen Regelungen untereinander minimal. Im Windschatten der hegemonialen Telefonwelt konnte die IETF einen Entwicklungsstil kultivieren, der die Bereitschaft zum permanenten Wandel zum Programm erhob:
Es sei erstens die Größe der Community, die einer jeden neuen Idee so viele Kompromisse abverlangt, daß sie irgendwann verwässert und kaum mehr wiederzuerkennen ist. Der Zwang zum Konsens, der dem Projekt kollektiver Standardentwicklung zugrundeliegt, privilegiere jeweils den kleinsten gemeinsamen Nenner. In den Worten eines Frustrierten:
Und drittens trägt schließlich auch die wachsende Installationsbasis zur Versteinerung der Netzarchitektur bei. Standardisiert werden kann nur mehr, was sich nachweislich problemlos in die bestehende Netzumgebung einfügt. Die Tendenz zur technischen Versteinerung geht einher mit einer zunehmenden Formalisierung und Verrechtlichung der Verfahren zur Standardentwicklung. Nicht nur verschriftlicht und standardisiert die IETF nun auch die Regeln, entlang derer Standards entwickelt werden, diese Standards werden auch juristischen Prüfungen unterzogen. Drohende Konflikte um Urheberrechte oder Wettbewerbsverstöße, aber auch wiederkehrende längliche Debatten um die Implikationen offener Standards sind die Ursachen dafür. Seit einigen Jahren gibt es in der IETF eine Arbeitsgruppe, die sich ausschließlich mit der Kodifizierung von einst mündlich weitergegebenen Traditionen und Prinzipien beschäftigt. POISSON heißt sie. Der jüngste Akt in diesem Prozeß der Formalisierung und Verrechtlichung des Internet ist die Gründung von ICANN, der Internet Corporation for Assigned Names and Numbers, die die Kontrolle über so grundlegende Verwaltungsbereiche wie das Domainnamensystem und die Rootserver übernehmen wird. Selbstredend dürfen auch hier wieder alle mitmachen - mit welchem Ergebnis wird sich zeigen. FAZIT (statt noch einer Lektion) Das Internet und seine Gemeinde sind in der Normalität angekommen. Irgendwann werden sich die Väter unter der wachsenden Zahl gleichberechtigter Mitglieder verloren haben - und mit ihnen ein Teil der Ideen und Prinzipien, die die Entstehung des Internet umgaben. Manche schließen daraus, daß die IETF heute nicht mehr der geeignete Ort ist, um das Projekt globaler Konnektivität weiterzutreiben. Hat der gesellschaftliche Erfolg das Internet mitsamt seiner Gemeinde also um die Voraussetzungen für diesen Erfolg gebracht? Es ist naheliegend sentimental
zu werden und die Durchsetzung offener Standards als eine Enteignungsgeschichte
zu beschreiben, in der ihre Anerkennung zugleich eine Unterwanderung und
allmähliche Zerstörung eben der Kultur bewirkt, die sie erst
möglich gemacht hat. Dem sollte man vermutlich entgegenhalten, daß
die Normalisierung der kollektiven Standardentwicklung kein einseitiger
Vorgang ist, denn das Internet wirkt ja auch zurück auf das, was jeweils
als gesellschaftliche und wirtschaftliche Normalität empfunden wird.
Das Open Source-Konzept ist ein gutes Beispiel dafür. Sollte sein
Erfolg anhalten, wird es auch irgendwann Teil gesellschaftlicher Norm sein.
(siehe
auch Telepolis,
23.07.99)
Dr. Jeanette Hofmann ist Politikwissenschaftlerin und wissenschaftliche Mitarbeiterin am Wissenschaftszentrum Berlin. Letzte Veröffentlichungen zum Thema Internet/IETF: "Am Herzen der Dinge - Regierungsmacht im Internet", in: Winand Gellner & Fritz von Korff (Hg) Demokratie und Internet, Nomos 1998, S. 55 -77. "Let a thousand
proposals bloom - Mailinglisten als Forschungsquelle", in: Bernad Batinic
et al (Hg): Online Research, Hogrefe 1999, S. 179 - 199.6
|