Sicherheitsfragen
von freier Software
Ingo Ruhmann
Black Box vs. Open
Source
Das zweite, was immer als Einwand gebracht wird, ist das Mißtrauen gegen die Entwickler. Das übliche Beispiel ist: 'Wie kann ich diesen langhaarigen Leuten trauen, die mir den Bug Fix schicken?' Nun, richtig ist, ich weiß in der Tat nicht, wer die Leute sind, die Open Source-Software entwickeln. Sie haben eine Email-Adresse, aber ich habe sie nie kennengelernt. Dasselbe gilt aber auch für kommerzielle Produkte. Ich weiß genauso wenig, wer bei Microsoft oder SAP derjenige ist, der die Software entwickelt, aber ich kann versuchen, gegen die entsprechenden Firmen einen Prozeß zu führen. Hier wird also versucht, Sicherheit durch die Möglichkeit des Rechtsweges herzustellen. Das Problem an der Sache ist aber: Wieviele Fälle von Prozeßen gegen solche Firmen werden überhaupt geführt? Die Kriminalstatistik sagt, daß es jenseits von Kreditkartenbetrug allenfalls ein bis zwei Dutzend Fälle von Computerkriminalität gibt, die vor Gericht landen. Das rührt einfach daher, daß keine Analyse der Systeme möglich ist. Das heißt, wenn ein Fehler auftritt, kann ich mich effektiv nicht mit einiger Sicherheit an die Firma wenden, die für diesen Fehler verantwortlich ist. Wir kennen es, wenn man eine Hotline befragt, dann wird meistens gesagt: 'Das könnte ja auch noch den und den Grund haben. Es könnte der Treiber von irgendeinem Hardwareteil sein.' Solange die Sourcen nicht wirklich offenliegen, hat der Anbieter eines prorietären Systems natürlich die Möglichkeit abzustreiten, daß der Fehler bei ihm liegt. Und ich habe keine Möglichkeit, das herauszufinden. Bei Black-Box-Systemen ist eine Fehlererkennung nur durch einen Funktionsfehler im Betrieb möglich, bei Open Source-Systemen aber eine konkrete Analyse, woran dieser Fehler liegen könnte. Das heißt, effektiv ist erst in dem Fall, daß ich Open Source-Software einsetze, überhaupt die Möglichkeit gegeben, daß ich diesen Rechtsweg -- den viele bei prorietären Systemen für gegeben halten -- mit einiger Aussicht auf Erfolg beschreiten kann. Hinzu kommt sogar, daß ich, wenn ich bei bestimmten proprietären Systemen eine Analyse mache und herausfinde, daß der zur Sicherheit benutzte Mechanismus extrem schwach ist, da oftmals sogar rechtlich besonders schlechte Karten habe, weil der Schutz gegen Datenmißbrauch auch einen ausreichenden technischen Hintergrund voraussetzt. Das heißt, sind die technischen Mechanismen schwach, habe ich rechtlich auch gar keine Möglichkeiten. Das Ganze zu überprüfen ist rechtlich ausgesprochen schwierig, und möglich ist es nur bei Open Source-Systemen. Es sollte eben deswegen schon gar nicht zu solchen Sicherheitsproblemen kommen, weil wir vorher analysieren könnten, ob die Systeme sicher sind oder nicht. Dasselbe gilt in der Betrachtung der systematischen Kontrolle der Funktionstüchtigkeit. Eine derartige systematische Kontrolle ist bei diesen Black Box-Systemen definitiv unmöglich. Allerdings, wenn man sich jetzt die Open Source-Systeme ansieht, wird man sehen, daß man hier durchaus ein bißchen differenzieren muß. Wie Frank eben erzählte, gibt es nur sehr wenige, die sich PGP insgesamt angeguckt haben. Ich glaube, es gibt auch sehr wenige, die sich Open Source-Systeme insgesamt angeguckt haben. Diese Systeme haben mittlerweile eine Komplexität erreicht, daß sie nur für wenige Experten durchschaubar sind. Und gleichzeitig gehen sie in den allgemeinen Massenmarkt. D.h., wir bekommen es hier mit einer Dichotomie zu tun zwischen dieser Minderheit von Experten und der Mehrheit von Benutzern, die zwar im Prinzip die Möglichkeit hat, Open Source-Systeme zu überprüfen, effektiv hat sie die aber nicht. D.h., für eine Mehrheit ist auch hier das Funktionsprinzip von IT-Sicherheit einfach nur der Glaube, daß es funktioniert. Der Mehrheit ist es nur möglich, andere Leute zu fragen: 'Ist es denn wirklich sicher? Was kann ich hier verbessern?' Das heißt, es müssen irgendwelche Experten her. Und nur Experten sind in der Lage, das wirklich selber zu überprüfen. Wenn wir uns die Fehlerbehebung angucken, so ist ja bei diesen Black Box-Systemen noch nicht einmal überprüfbar, ob dieser Fehler effektiv behoben oder ob nur ein untauglicher Patch abgeliefert wurde. Bei Open Source-Systemen lassen sich immerhin Softwareentwickler anheuern, die das machen. Und für die Experten dieser Systeme ist immerhin vollständig überprüfbar, ob dieser Patch vernünftig war oder nicht. Zum Punkt Kenntnisunsicherheitsschwächen: Ich denke, da haben wir nun genügend Beispiele gehört. Ich will noch ein anderes Beispiel aus dem Bereich der Bundesregierung einführen. 1997 hat die Bundesregierung erklärt, daß im Bereich der Bundesbehörden 65.000 PCs mit Microsoft-Betriebssystemen im Einsatz sind. Heute werden es einige Tausend mehr sein. Keiner dieser PCs läßt sich auf Sicherheitsmängel überprüfen, ob er jetzt im Berlin-Bonn-Verkehr eingesetzt wird oder nicht. Im übrigen wurde die genutze Krypto-Hardware im Bonn-Berlin-Verkehr von einer Firma geliefert, die nachdem der Kaufentschluß gefallen war, von der südafrikanischen Firma Persetel Q Holdings gekauft wurde, die während der Zeiten des Boykotts gegen Südafrika großgeworden sind, mit besonders guten Kontakten zum südafrikanischen Militär. Im Herbst 1999 wurde dieser Firmenteil immerhin von der deutschen Firma UtiMaco gekauft. Für Black Box-Systeme ist daran wichtig: Das Know-How um die Kyptomodule war für einige Zeit für Beteiligte offengelegt, deren Vertrauenswürdigkeit niemand geprüft hat. Hier gibt es also einige Probleme, die dadurch nicht besser werden, wenn wir uns auf große kommerzielle Anbieter verlassen. Zum Thema Verbesserung: Wenn ich mir ein kleineres Sicherheitsproblem der letzten Wochen und Monate angucke, wird offenbar, daß Verbesserungen im Sicherheitszusammenhang immer wieder notwendig sind, und zwar im laufenden Betrieb. Die US-Navy hat festgestellt, daß Schiffe in der Adria im Kosovo-Krieg Mails senden und empfangen konnten und daß ihre Soldaten ziemlich blauäugig nicht nur Mails anderer Leute gelesen, sondern auch sensitive Informationen per Mail an ihnen unbekannte Leute weitergegeben haben. Was war die Lösung? Eingehende Mails wurden erlaubt, ausgehende nicht. Das funktioniert mit schlecht anpassbaren Systemen nur auf diese Art und Weise. Man hätte sich natürlich auch andere Wege überlegen können, diese Systeme ein wenig besser der neuen Situation anzupassen. Eine solche Anpassung ist natürlich bei Black Box-Systemen schlichtweg unmöglich. Bei Open Source-Systemen kann ich entsprechende Veränderungen jederzeit einbringen, wenn ich die Leute kenne oder selbst dazu in der Lage bin. Das heißt, die Anpassung gerade unter IT-Sicherheitsaspekten für spezifische Verhältnisse eines Unternehmens, sofort bei Einrichtung eines Systems oder wenn die Sicherheitslage oder die äußeren Umstände sich geändert haben, ist immer eine akute Notwendigkeit. Und hier zeigt sich einer der größten Schwächen dieser Black-Box-Systeme. Soweit die Auseindersetzung mit den Gegenargumenten. Ich möchte noch einmal darauf eingehen, daß diese Differenzierung zwischen Mehrheit und Minderheit in dem Maße notwendig ist, wie sich Open Source-Systeme mehr und mehr in den allgemeinen Markt hinein entwickeln. Ich denke, auf dieser Ebene wird am ehesten deutlich, warum es immer noch Vorbehalte einerseits und mangelnden Rückhalt andererseits gegenüber Open Source-Systemen gibt, weil nämlich für die Mehrheit der Nutzer der Glaube in die Effektivität der Verfahren immer noch der einzige für sie handhabbare Aspekt ist. Und wenn es für beide Systeme derselbe Mechanismus ist, dann denke ich, muß man hier auch den Hebel ansetzen, um es zu verändern. Wir hatten eben schon das alte Argument: Nicht alle kennen alle Features, nicht jeder kann die Effektivität einer IT-Sicherheitsmaßnahme beurteilen. Gerade PGP ist so komplex geworden, daß nicht jeder den Source Code insgesamt gelesen hat. Das heißt, wenn es um IT-Sicherheit geht, erst recht wenn es um kryptographische Verfahren geht, ist Offenheit der Systeme und Verfahren für die höhere Qualität und Sicherheit absolut effektiv notwendig. Nur, wenn sich Open Source-Systeme dem Otto-Normal-User nähern, sind hier eben andere Mechanismen erforderlich. Man kann daraus ein paar Schlußfolgerungen ziehen: Diese Sicherheitsbedenken gegen Open-Source-Systeme werden so lange anhalten, wie die Vorteile einfach nicht für die Mehrheit erkennbar sind. Notwendig für Otto-Normal-User ist eben nicht das Know-How von Open Source-Systeme -- es ist keine Bildungsfrage --, sondern die Herstellung von Vertrauen in diese Systeme. Denn die Überprüfbarkeit, die kann und will Otto-Normal-User nicht leisten. Das kann man auch nicht voraussetzen. Vertrauenswürdige Instanzen
Kernpunkt dieser Idee ist, daß Sicherheit in Open Source-Systemen, im Gegensatz zu diesen Black Box-Systemen, nachweisbar ist, aber jemand muß dafür bezahlen und das organisieren. Wer zahlt, ist nach den herkömmlichen Modellen auch wieder klar. Wenn das BSI, wie es vor wenigen Wochen erklärt hat, Open Source-PGP für so wichtig hält, daß hier eine Evaluation von Seiten des BSI angestoßen wird, und das BSI auch die Kosten für diesen Prozeß übernehmen will, dann zahlt eben der Staat. Wenn die Anwender ein Interesse daran haben, dann können sie es entweder selbst bezahlen oder als Anwendergruppe Geld zusammenschmeissen, dann bezahlt die Privatwirtschaft. Oder, wenn die Experten schon in diesen Entwicklungsprozeß einberufen werden -- das ist die zwar sinnvollste, aber von der Finanzierung her die wackeligste Variante --, dann müssen dafür Ressourcen her. Das ist nun eines der Probleme, die man hier noch diskutieren kann. "Stiftung Software-Test"
IT-Sicherheitskultur
Schließlich das, was
Frank Rieger eben auch schon angeführt hat: das Thema IT-Sicherheitskultur.
Ich denke, daß ist ein noch relativ vager Begriff, der im Kern eigentlich
nur besagt, daß das Bewußtsein um IT-Sicherheit steigen muß;
daß es kein Kostenfaktor ist, sondern ein erheblicher Nutzenfaktor;
und daß der Grad der Panik aus Unwissenheit bei irgendwelchen Problemen
dadurch herabgesetzt werden muß, daß die Leute auf der einen
Seite einfach kompetenter mit IT umgehen können und auf der anderen
Seite ein kompetenteres Beratungsangebot zur Verfügung haben. Auch
hier gibt es also strukturell einige Verbesserungen, die notwendig sind.
Qualität sollte nicht vom Glauben abhängig sein, sondern von
überprüfbaren Kriterien. Das ist bei Open Source-Software möglich.
Das heißt nicht, daß herkömmliche Zulassungsverfahren
so einfach auf die IT-Branche übertragbar sind. Davor möchte
ich noch einmal warnen, weil das immer so gerne als Gegenfrage kommt. Die
Zulassung von IT-Systemen ist ein zeitraubender Prozeß, um den es
hierbei eigentlich nicht gehen kann. Es müßte stattdessen darum
gehen, die Leute, die für die Mehrheit der Nutzer das Vertrauen in
die Systeme symbolisieren, das sie brauchen, weil sie selber nicht in der
Lage sind, sie zu kontrollieren, schon in die Entwicklung zu integrieren.
Ich denke, daß diese ganze Auseinandersetzung um IT-Sicherheitsfragen,
wie jetzt z.B. bei PGP, die momentan nur als Dichotomie gesehen wird von
Security by Obscurity, die niemand überprüfen kann, versus
Offenheit, die jeder überprüfen kann, eigentlich nur ein erster
Schritt ist. Dieser erste Schritt wird dazu führen, daß wir
eine Infrastruktur von Überprüfbarkeit und von vertrauenswürdigen
Instanzen brauchen, die das auch beglaubigen kann, was wir im offenen Code
lesen können. Insofern denke ich, daß die Diskussion, die wir
heute führen werden, nur ein Anfang ist.
(Transkription
Katja Pratschke)
|