Feed on
Posts
Comments

München steigt aus Linux aus und geht wieder zurück zu Microsoft! Schlagzeilen dieser Art las man im Frühjahr 2017 nicht nur in Technikzeitschriften, sondern auch in überregionalen Tageszeitungen und großen Nachrichtenmagazinen. Warum wurde dieses Thema diesmal so groß? Und was wird da eigentlich verhandelt?

 

Unboxing Open Source

München hat seit 2003 seine Verwaltungssoftware von Microsoft auf Open-Source-Software umgestellt. Dieses Projekt, die öffentliche Verwaltung einer westlichen Großstadt von Microsoft auf Linux umzustellen, war das größte Open-Source-Projekt der öffentlichen Hand in Europa. Open-Source- oder Freie Software1 wird von einigen bewusst genutzt, erscheint aber den allermeisten nach wie vor – auch innerhalb der Linken – letztlich als ein Feld von Technik-Geeks, freekigen Programmierern, bestenfalls Piraten. Dabei ist im Jahr 2016 alleine schon Linux (ein Betriebssystem auf Open-Source-Basis) so weit verbreitet, dass praktisch jeder und jede Linux-Anwender ist, privat wie beruflich, wie das Fachmagazin c’t anlässlich des 25. Geburtstags von Linux hervorhebt.

Den meisten ist nicht klar, dass sie Open Source einsetzen, wenn sie mit ihrem Android-Smartphone telefonieren bzw. alles mögliche machen, mit der Konfigurationsoberfläche des Routers ihre Internetverbindung verwalten2, in ihrem WordPress-basierten Blog schreiben oder mit Firefox oder Chrome surfen. Die Eigentumsverhältnisse der digitalen Gegenstände, mit denen wir Tag für Tag hantieren, bleiben uns meist verborgen, interessieren uns nicht weiter. Dabei sollten sie. Wir interessieren uns ja auch dafür, auf der Basis welcher Eigentumsverhältnisse unser Trinkwasser aus dem Hahn kommt, denn wir wissen: Der Privatanbieter von kommunaler Wasserversorgung neigt dazu, gutes lokales Wasser so lange mit Dreckwasser zu panschen, bis der Grenzwert gerade noch eingehalten ist und füllt den ungepanschten Rest in Flaschen ab, um ihn uns für das Vielfache zu verkaufen. Mit Software arbeiten wir, wir verwalten unser Leben damit und organisieren unsere Produktion (auch die ganz materielle), auch die IT-Systeme in linken Parteien, Gewerkschaften usw.: All das sind streng genommen kritische Infrastrukturen, ohne die wir nicht leben oder für ein besseres Leben kämpfen können. Auch hier sollte uns also interessieren, was „drin“ ist. Dass die in die Eigentumsverhältnisse solcher Infrastrukturen eingeschriebene Kontroll- und Verfügungsmacht allgemein zum technischen Nerd-Thema erhoben, damit zur Black Box reduziert und beiseite geschoben (statt aufgehoben) wird, ist Ausdruck und Erfolg von Herrschaftspraxis durch gesellschaftliche Arbeitsteilung und beraubt uns unserer Souveränität in den betroffenen Lebens- und Arbeitsbereichen.

Dementsprechend ist das Projekt „Linux in München“ auch keine thematische Eintagsfliege. Technopolitisch aufgeklärte Progressive lagen in den vergangenen 15 Jahren im Stellungskrieg mit den Vertretern des Großkonzerns: die Verfechter des Prinzips „Freie Software“ und damit der digitalen Allmende gegen die Vertreter des exklusiven und auf Profitmaximierung orientierten digitalen Kapitalismus. Für beide Lager bildete die Softwareausstattung Münchens das Symbol der je eigenen Überlegenheit, Stichwort „Leuchtturm“, wie es von einigen Befürwortern der Linuxlösung für München hieß. Vordergründig geht es allen um billiger, besser, kompatibler, sicherer und natürlich ums Gemeinwohl. Auf allgemeinerer Ebene tobt hier jedoch ein ungleicher Kampf um die Privatisierung von immaterieller Verwaltungsinfrastruktur und von Verwaltungswissen, denn Microsoft und Linux sind keine ebenbürtigen Konkurrenten. Es handelt sich um Systeme aus zwei völlig unterschiedlichen Welten hinsichtlich der Art und Weise der Produktion der Software. Um diese beiden Fragen (Warum das Thema? Was wird verhandelt?) auch auf der Ebene der Produktionsweise etwas ausführlicher beantworten zu können, will ich den Umweg über die Frage gehen: Was ist überhaupt dieses Linux, wo kommt das her und was soll das eigentlich?

 

Die Geschichte von GNU/Linux: Freie Software für alle

Hippies und Großrechner

Es war einmal eine Zeit, da gab es ganz wenige Computer. Sie waren groß und schwer, standen in Universitäten, großen Technikkonzernen und Militärforschungsabteilungen und konnten so gut wie nichts. Die Helden dieser Zeit waren die Programmierer, die Programme für diese Computer schrieben, damit sie überhaupt etwas machten: Aus einer Eingabe nach der programmgesteuerten Verarbeitung eine Ausgabe. Für Eingabe und Ausgabe gab es ursprünglich Lochkarten, später Magnetbänder, Tastatur und Monitor, Disketten und irgendwann die Speichermedien, die wir heute noch kennen, laserbeschriebene Plastikscheiben („CD“, „DVD“ etc.) und mobile Halbleiterspeichermodule („USB-Sticks“). Die Programmierer programmierten für ihre Computer Betriebsprogramme und ließen sie damit für ihre jeweiligen Zwecke rechnen: wissenschaftliche Simulationen, Geschäftskalkulationen und Raketenflugbahnen. Sie nannten diese Programme „Betriebssysteme“.

Für unsere Geschichte wichtig ist das Betriebssystem UNIX.3 Es wurde 1969 in den Bell Laboratories, der Forschungsabteilung von Western Electric und AT&T, zweier Elektronik- und Telekommunikationskonzerne, an der US-amerikanischen Ostküste geschrieben und sollte die Entwicklung aufgabenspezifischer Anwendungsprogramme erleichtern. Unix war ein Programm zur Erleichterung der Entwicklung von Programmen. Als solches war es in der Programmierergemeinschaft von Anfang an sehr attraktiv. Unix entstand zufälligerweise als gerade 1968 war und auch die Programmierer vom grassierenden Hippietum nicht unverschont geblieben waren. Auch weil sie mit ihrer Arbeit nicht immer wieder von vorne anfangen wollten und weil sie sich alle kannten, egal ob sie für die Wissenschaft, die Konzerne oder das Militär arbeiteten, tauschten sie ihre Betriebssysteme untereinander und verwendeten die gelungenen Teile ihrer Kollegen, um selbst dazu zu lernen und ihren eigenen Code zu verbessern. Das Konzept des „Geistigen Eigentums“ an Programmcode hätten sie zunächst gar nicht verstanden und dann höchst irritiert zurückgewiesen: Wie soll man da vernünftig arbeiten, wenn man seinen Programmcode nicht mal schnell weitergeben kann, fremden einbauen kann, weil die Code-Schnippsel den Firmen gehören? Absurd.

Der PC als technologischer Ausdruck der neoliberalen Reaktion

In den 1980er Jahren hatte sich der Wind gedreht. Die Neoliberalen waren auf dem Weg zur Weltherrschaft, die Hippies durften gerade mal noch ihren Style auf den Markt der Identitäten tragen und Software wurde von Oben, von den Geschäftsführungen, angeeignet und eingemauert. Zwischen den von den Konzernführern errichteten Copyright-Burgen fanden die Unix-Wars statt: Jede Firma versuchte, ihre eigene Unix-Variante zum Produkt umzugestalten und mittels eigener, geheimer Schnittstellen und Formate als Standard am Markt durchzusetzen. Da begann Richard Stallman, ein universitärer Programmierer, verärgert über diese Proprietarisierung4 von Unix, mit der Arbeit an einem eigenen, unixoiden Betriebssystem und verankerte die Freiheit, Code auszutauschen und wiederzuverwenden in einem Manifest. Sein Unix nannte er GNU, Gnu is Not Unix. Aus dem Manifest entstand später mit Hilfe eines Anwalts die GNU GPL, die GNU General Public Licence, eine Copyright-Lizenz zum Schutz dieser Freiheit vor der Aneignung durch die Verfechter exklusiver geistiger Eigentumsrechte auf juristischem Weg. Die GPL hat diese Freiheit bis heute in vielen Gerichtsverfahren geschützt. Sie bildet eine schräge Anomalie im bürgerlichen Eigentumsregime: Sie schützt das Nicht-Eigentum mit den juristischen Mitteln des Zivilrechts, das eigentlich historisch entstanden und zweckbestimmt ist zur Durchsetzung (nicht Verhinderung) des individuellen Privateigentums. Stallman ist bis heute der Evangelist der Bewegung für Freie Software, das GNU-Manifest und die GPL sind ihre kanonischen Schriften.

Während die festangestellten Programmierer in Universitäten, Konzernen und beim Militär sich also darum stritten, wer jetzt welches UNIX auf welchem Großrechner benutzen darf, trieben ehemalige Garagenbastler von der US-Westküste ihre Kleinrechner (PC: „Personal Computer“) zur Marktreife und begannen, einen Massenmarkt damit zu versorgen. Für Apple und Microsoft war die Lizenzfrage keine Frage. Sie steckten Zeit in die Entwicklung von Hard- und Software und wollten mit dem Verkauf ihrer Geräte in erster Linie Geld verdienen (und nicht wissenschaftliche Fragen lösen, ihre eigentlichen Produkte entwickeln oder Raketen steuern). Apple setzte auf den Verkauf seiner Hardware und mauerte eigentumstechnisch schon auf dieser Ebene: Nur Apple stellte Apple-Computer her, die Software war voraufgespielt und im Bündel mit der Hardware zu erwerben. Microsoft verschaffte sich den entscheidenden Konkurrenzvorteil auf diesem Markt durch eine geniale Idee: Sie legten die Hardware-Spezifikationen für den Nachbau kompatibler Rechner offen, so dass jeder Hardwarehersteller einen „Microsoft-PC“ bauen konnte. Er musste nur eine Herstellerlizenz für die Software, das Betriebssystem und die zentralen Programme wie Office, bei Microsoft bezahlen und konnte die Kosten ja an seine Endkunden weitergeben. Das führte dazu, dass die PCs immer billiger produziert wurden und Anfang der 1990er Jahre sich sogar ein finnischer Informatikstudent namens Linus Torvalds die Anzahlung für einen PC leisten konnte.

GNU/Linux, die Anomalie im Regime des Geistigen Eigentums

Torvalds genügten weder das mitgelieferte Microsoft-DOS-Betriebssystem, noch das in seiner Vorlesung verwendete Übungs-UNIX namens Minix, das er mit einer freien Lizenz als Fachbuchbeilage bekommen hatte. Vorlesungsbegleitend ergänzte er Minix um die Elemente, die er für seine Zwecke brauchte, um sich mit dem Universitäts-Netzwerk zu verbinden, Emails zu lesen und Dateien hoch- und runterzuladen. Da er über die Minix-Mailingliste Fragen und Antworten zu seiner Arbeit austauschte, wurden andere darauf aufmerksam, dass Torvalds im Prinzip einen eigenen Betriebssystem-Kernel produzierte – genau das, was dem GNU-Projekt zu diesem Zeitpunkt als zentrales Element noch fehlte: Ein Kernel (englisch für Kern) ist der zentrale Bestandteil eines Betriebssystems. Er schafft die Grundlagen für die Prozess- und Datenorganisation, mit der alle anderen Betriebssystemelemente und die Anwendungsprogramme arbeiten können. Der Kernel bildet die unterste Softwareschicht und hat direkten Zugriff auf die Hardware: Eingabe- und Ausgabegeräte, Arbeitsspeicher („RAM“) und Recheneinheit („Prozessor“, „CPU“). Einige von denen, die über die Mailingliste von Torvalds‘ Projekt erfahren hatten, übernahmen die letzten Raten für seinen neuen PC und verschafften ihm Online-Speicherplatz für die öffentliche Weiterentwicklung seines Kernels, so dass Menschen weltweit seine Arbeit verfolgen konnten und bald eine eigene Mailingliste zur Kernelentwicklung losging. Ziemlich genau ein Jahr, nachdem er seinen PC angezahlt hatte, stellte er den Linux-Kernel unter die GPL-Lizenz. Damit war GNU/Linux als freies unixoides Betriebssystem komplett. Mit der Vermassung von PCs im laufenden Jahrzent verbreitete sich auch GNU/Linux massenhaft unter fortgeschrittenen Computernutzern und -nutzerinnen.

Knapp 10 Jahre später, zu Beginn der 2000er Jahre, gab es ausgereifte vorgefertigte, auf CD oder DVD erhältliche oder im Internet downloadbare Installationspakete („Distributionen“) für GNU/Linux, leistungsfähige Plattformen für die dezentrale, nicht-lineare Weiterentwicklung von Gnu/Linux selbst5 und ein Ökosystem kleinerer Dienstleistungsfirmen rund um den PC- und Netzwerkbetrieb auf GNU/Linux-Basis. Damit war dieses Betriebssystem auch für fortgeschrittene Heimanwender und progressive Entscheider in Verwaltung und Wirtschaft zur ernstzunehmenden Option neben den kommerziellen Angeboten der großen IT-Konzerne, damals allen voran Microsofts Windows, geworden. In dieser Situation entschied die Stadt München, als 2003 sowieso ein kosten- und arbeitsaufwendiges Software-Update angestanden hätte, ihre Verwaltungssysteme auf ein für ihre speziellen Zwecke angepasstes GNU/Linux umzustellen. Diese strategische Entscheidung wurde damals von großen Teilen der Bewegung für Freie Software sehr euphorisch aufgenommen. Das Münchener Linux mit dem Namen „LiMux“ wurde als „Leuchtturm-Projekt“ für die Verwendung Freier Software bejubelt.

Der erste Versuch einer Linuxmigration in Berlin scheiterte übrigens 2006 am rot-roten Senat. Über den entsprechenden Fachausschuss wurde das Migrationsanliegen des Hauptausschusses des Abgeordnetenhauses beerdigt. Eine erfolgreiche Machbarkeitsstudie aus Tempelhof-Schöneberg wurde dabei übergangen und infamerweise das Vergaberecht in Anschlag gebracht: als ob Linux sich gegenüber Windows auschließlicher verhalten würde als umgekehrt. Schließlich krönte der zuständige Staatssekretär die Debatte mit einer dreisten Lüge, indem er das Scheitern der Migration in München behauptete – zu einem Zeitpunkt als diese gerade einmal ernsthaft angelaufen war.6

In den Glaubenskriegen zwischen den Befürworter_innen des einen und des anderen Betriebssystems musste das Münchener LiMux seitdem immer wieder herhalten als „Beweis“ dafür, dass man mit Freier Software eine öffentliche Verwaltung betreiben kann oder eben nicht. Ein näherer Blick auf den konkreten Fall München zeigt allerdings, dass an dem Beispiel tatsächlich nur ablesen lässt: Diese Streitfrage lässt sich unter den gegebenen Herrschaftsbedingungen nicht von der Technik her (dem Gebrauchswert) entscheiden. Die Leistungsfähigkeit der eingesetzten (Freien) Software ist in den Argumenten der verschiedenen Interessenvertreter*innen und den dahinter wirkenden Lobbies immer nur Mittel zur Durchsetzung der eigenen Ziele. Es geht nicht um die Sache selbst. Dass es aber auch nicht um das öffentliche Interesse geht, bzw. dass sich dieses als das ideologische Terrain herausstellt, auf dem der Interessenkampf ausgetragen wird, versuche ich im Folgenden mit einem genaueren Blick auf das Münchener Beispiel zu zeigen.7

 

Anlass und Beweggründe für den Umstieg auf ein Linux-basiertes System

Anlass für die Migration in München war das Ende des Supports für Windows NT 4 durch Microsoft Ende 2003; dadurch war eine Ablösung der bis dahin genutzten proprietären Betriebssystemversion nötig. Der Automatismus wäre das Upgrade auf eine neuere Windows-Version gewesen, die aber mit erheblichem Anpassungsaufwand verbunden gewesen wäre. In dieser Situation bewies der damalige Oberbürgermeister Ude (SPD) seine Offenheit für vernünftige Vorschläge und ließ einen Gedanken zu, der auf den ersten Blick zwar wagemutig aussieht, bei weiterer Überlegung aber selbstverständlich sein sollte bei der Verausgabung öffentlicher Gelder: Warum nicht, wenn schon sowieso ein größerer IT-Umbau ansteht, systematisch rangehen und andere Systeme/Anbieter ebenfalls in Betracht ziehen und auf ihre Verwendbarkeit prüfen? Vor diesem Hintergrund ließ der Münchener Stadtrat in einer Vorstudie fünf mögliche Konfigurationen der Verwaltungsdesktops unter drei Gesichtspunkten (Wirtschaftlichkeit, Technik, Strategie) untersuchen, von reinen Microsoft-basierten Lösungen bis hin zu reinen Open-Source-Lösungen. Die Studie ergab letztendlich einen Gleichstand zweier Alternativen.8 Die politischen Aspekte der Entscheidungsfrage waren schließlich die ausschlaggebenden: Die Mehrheit des Münchener Stadtrates votierte für die Lösung, die im Bereich „Strategie“ die vorteilhaftere sei, um damit die auf Herstellerunabhängigkeit ausgelegte IT-Strategie der Stadtverwaltung zu stützen und langfristig den Mittelabfluss selbst bestimmen zu können (= Kostenreduzierung). Der Grund der Münchener Migration bestand also in einer Orientierung auf kommunale Souveränität im Hinblick auf die Gestaltung und die Kosten ihrer IT-Infrastrukturen. Der Münchener Stadtratsbeschluss stellte de facto eine Rekommunalisierung dar und war auch als solche gedacht.

Der Beschluss besagte nicht, dass fortan ausschließlich Open-Source-Software eingesetzt, sondern nur, dass diese bevorzugt werde. Als wesentlichen Punkt enthielt der Beschluss die Maßgabe, dass zukünftig zu entwickelnde oder öffentlich auszuschreibende Fachverfahren webbasiert implementiert werden sollen. Gerade dies sollte eine zu starke Kopplung von Betriebssystem, Officesuite und Fachsoftware verhindern.9 Das Schlagwort hieß „Lock-In vermeiden!“ und verweist auf beschaffungspolitische Sachzwänge, die daraus resultieren, dass eine erste Investition die betriebswirtschaftlichen und technischen Entscheidungsspielräume bei folgenden Investitionen, die u.U. sachlich mit der Erstinvestition gar nichts zu tun haben, verringert oder gar beseitigt.10

Infrastruktur-Souveränität: Lock-in vermeiden

Microsoft versucht, über sein Betriebssystem festzulegen, welche Anwendungsprogramme auf den Rechnern zum Einsatz kommen und in welche Richtungen also weitere Lizenzzahlungen fließen. Apple beherrscht die Geräte und Arbeitsweisen seiner Kund_innen über seine Anwendungsdownloadfunktion („App Store“). Facebook vertritt offensiv die Strategie, das Internet außerhalb seines eigenen Netzangebots mittelfristig abzuschalten.11 Aus Konzernperspektive werden Lock-In-Konstellationen mit Sicherheits- und Komfortargumenten gerechtfertigt, bzw. wie von Facebook-Chef Zuckerberg sinngemäß: Besser eingeschränkten Netzzugang als gar keinen. Die Lock-In-Problematik wird mittlerweile breit diskutiert. Im April 2017 macht die Berliner Tageszeitung Der Tagesspiegel groß auf: „Europas Abhängigkeit von Microsoft“. In dem Artikel warnt Dietmar Harhoff, Direktor des Max-Planck-Instituts für Innovation und Wettbewerb in München, davor, dass Staaten wegen des „Lock-In“ mit Microsoft den Anschluss verlören:

Es ist noch nicht empirisch belegt, aber es ist logisch anzunehmen, dass die Abhängigkeit von dem einen Anbieter den technischen Fortschritt im öffentlichen Sektor bremst.“ Wenn etwa die Kommunen ihre vielen hundert Fachprogramme auf Open-Source-Basis entwickeln würden, dann könnte jede Innovation sofort von allen anderen Stadtverwaltungen ohne zusätzliche Kosten genutzt werden. „Dieses Potenzial für die öffentliche Hand ist enorm“, meint Harhoff.12

System- und Datensicherheit: Stabilität und Security

Aber nicht nur aus Kosten- und Innovationsgründen lohnt die Pfadentscheidung zugunsten Open Source/Linux: Unixoide Betriebssysteme gelten als vergleichsweise sicher. Diese Systemsicherheit steckt bei Linux et.al. schon in der Architektur und muss nicht erst im Nachhinein durch spezielle Programme (Antiviren-Software, Firewalls) hergestellt werden. Ein grundlegendes Architekturprinzip ist die konsequente Trennung von Benutzer- und Administrator-Konto („root“, „sudo“). Ein zweites ist die Modularität des Codes auf der Basis öffentlich dokumentierter interner Schnittstellen: Dadurch lassen sich Teile des Codes getrennt vom Rest und in verteilten Zuständigkeiten autonom warten, weiterentwickeln, entfernen und hinzufügen. Dabei ist die Quelloffenheit entscheidend: Jeder kann den Programmcode studieren, untersuchen und anpassen. Dies führt unter anderem auch dazu, dass sich die Dokumentation und die Meldung von Fehlern und Abstürzen lohnt: Dokumentierte Probleme führen zu kollektiver Fehlersuche am zugänglichen Code und oft werden Fehler schnell behoben, Fehlerlösungen („Patches“) mit Anleitung veröffentlicht und in das nächste Update-Paket integriert. Dieser Prozess läuft (sei es aus dem Sicherheitsinteresse einer Institution oder eines Unternehmens heraus oder aus „privatem“ Anwenderinteresse) potentiell unter der Beteiligung von wesentlich mehr Menschen ab, als dies bei proprietären Programmen der Fall sein kann, wo nur ausgewählte Mitarbeiter überhaupt Einblick in den Code haben. In profitorientierten Unternehmen sind die Ressourcen für Fehlerbehebung und Sicherheitspatches, ist das Produkt erst verkauft, personalmäßig beschränkt und auf willkürlich durch die Firmen festgelegte Versionszyklen zeitlich eingegrenzt. Daher fallen im Open-Source-Kosmos Sicherheitslücken nicht nur schneller auf, sondern werden in der Regel auch schneller und reibungsloser behoben.

Hier spielt ein weiteres grundlegendes Architekturprinzip von Linux herein: Die freie Natur von Linux-Systemen in Verbindung mit der Modularität ermöglicht ein intelligenteres, weil für alle Betriebssystem- und Programmkomponenten einheitliches, gleichzeitig modulbasiertes Aktualisierungssystem. Neben den Systemkomponenten bringt eine sogenannte Paketverwaltung13 sämtliche installierten Programme automatisch auf den neuesten Stand. Die Paketverwaltung garantiert darüber hinaus mit kryptographischen Mitteln die Integrität der Installationsquellen im Netz und die Kompatibilität aller installierten Pakete untereinander, was sich sehr positiv auf die Stabilität des Gesamtsystems auswirkt: Betriebssystemabstürze aufgrund fehlerhafter oder inkompatibler Treiber oder Anwendungen kommen so gut wie nicht vor. „Kalten Neustart“ als Fehlerbearbeitungsstrategie bei „eingefrorenen System“ gibt es nicht. Und anstatt mit einem Antivirenprogramm nach Schadsoftware suchen zu lassen, die bekannte Sicherheitslücken in Systemkomponenten oder in installierten Programmen ausnutzt, werden solche Lücken bereits über Sicherheitsaktualisierungen geschlossen.14 Die Aktualisierungen („Updates“) sind kostenlos. Auch der ggf. angestrebte Wechsel („Upgrade“) zu einer neueren Version der jeweiligen Linux-Variante („Distribution“) verläuft in den größeren Distributionen seit einigen Jahren weitestgehend automatisch und ebenfalls kostenlos. Vergleichbare Update-Funktionen existieren zwar auch bei anderen gängigen Betriebssystemen, erfassen dort aber nicht alle bereitgestellte Software, funktionieren nicht durchgehend automatisch oder sind nicht kostenlos. Diese Vorzüge werden bei der Abwägung zwischen Linux und proprietären Systemen auch gar nicht ernsthaft in Frage gestellt, sondern bilden eher die Voraussetzung dafür, dass vollständige Linux-Migrationen überhaupt ernsthaft erwogen werden und Linuxsysteme im Serverbereich sogar den Standard bilden.

Die aus eben diesen Architekturprinzipien resultierenden Vorzüge, die Linux auch hinsichtlich der Datensicherheit (Transport- und Dateiverschlüsselung, Anonymisierungsmöglichkeiten, Backup-Anwendungen, Hintertürfreiheit) und -sparsamkeit vorzuweisen hat, spielten zur damaligen Zeit, vor den Veröffentlichungen Snowdens zur NSA und Wikileaks zur CIA, nur eine nachgeordnete Rolle. In der aktuellen Diskussion15 sind sie ins Zentrum gerückt, weil klar ist, dass nicht nur Microsoft selbst, sondern auch die US-Regierung jederzeit auf alle Daten zugreifen kann, die nicht von US-Bürgern stammen: Am 25. Januar 2017 hat der neu gewählte US-Präsident eine Anordnung unterzeichnet, der zufolge die Geltung des Privacy Acts für Personen, die keine US-amerikanischen Staatsangehörigen oder keine ständigen rechtmäßigen Einwohner der USA sind, ausgeschlossen sei.16 Damit setzt er noch den pro-forma-Schutz des aktuellen Datenschutz-Deals namens Privacy Shield außer Kraft und macht deutlich, dass von einem „angemessenen Datenschutzniveau“ für EU-Bürger in einem Geschäfts- und Dienstleistungsverhältnis mit einer in den USA ansässigen Firma nicht mehr ausgegangen werden kann. Schon 2014 formulierte Federico Heinz, ein lateinamerikanischer Programmierer und Software-Aktivist, im von der Heinrich-Böll-Stiftung mitherausgegebenen Band „COMMONS – Für eine neue Politik jenseits von Markt und Staat
“ unter der Überschrift „Öffentliche Verwaltung braucht freie Software„:

Eine öffentliche Verwaltung aber, die der ganzen Gesellschaft verpflichtet ist, kann es sich nicht leisten, die Kontrolle ihrer Infrastruktur Einzelpersonen oder Organisationen zu überlassen, die andere Interessen vertreten. Sie verwaltet Daten, deren Sicherheit – also Zuverlässigkeit und Verfügbarkeit – das Leben jedes Bürgers in erheblichem Maße beeinflusst. Deswegen ist es unverantwortlich, diese Daten mit Software zu verarbeiten, für die von den Herstellern lediglich eine begrenzte Nutzungserlaubnis zu restriktiven Bedingungen erworben werden kann.“

Der EuGH hatte 2015 im sog. Safe-Harbor-Urteil Kriterien für den Datenschutz in transatlantischen Geschäftsbeziehungen festgelegt. Mit seinen Datensicherheitsbedenken steht der EuGH nicht alleine: In einer Behördenmitteilung hatte die chinesische Regierung bereits Anfang 2014 angekündigt, dass sie 200 Millionen Windows-XP-Rechner auf Ubuntu Kylin umrüsten werde. Aus Sicherheitsgründen wurde eine Migration zu Windows 8 sogar gleich ganz verboten.17

 

Benutzerfreundlichkeit und Kompatibilität: Schwachstellen des Systemwechsels in München

Im Mai 2013, circa zehn Jahre nach Projektbeginn, hatte der Projektleiter von LiMux die Fertigstellung bekanntgegeben.18 Was waren die tatsächlichen Probleme mit LiMux, als damals der heute amtierende Oberbürgermeister Dieter Reiter (SPD) sich bereits als Wirtschaftsreferent daran beteiligte, den Firmensitz von Microsoft Deutschland von Unterschleißheim in den „eigenen“ Steuereinzugsbereich, nach München zu holen, was 2016 vollzogen wurde?

Benutzerbefindlichkeiten

Ende Juli 2015 kritisierte ein Antrag19 zweier CSU-Stadträte, der die mangelnde Alltagstauglichkeit der 2014 für die Stadträte neu angeschafften Notebooks mit vorinstalliertem LiMux hervorhob: Umständliche Bedienung, Inkompatibilitäten und fehlende Benutzerrechte seien der Grund, warum diese nur sehr eingeschränkt nutzbar seien. Konkret wird bemängelt, dass Programme wie Skype nicht selbst installiert werden können, was einen „normalen Gebrauch“ verhindere, weshalb ein großer Teil der angeschafften Geräte „ungenutzt vor sich hin altere“. Die beiden Stadträte beantragten, Windows-Lizenzen und Office-Pakete für die Notebooks anzuschaffen und „die Stadträte auch mit den nötigen Benutzerrechten auszustatten“.

In der Berichterstattung kursieren Zahlen über die Auswüchse des digitalisierten Verwaltungssystems: 10.000 Vorlagen und 130 Makros werden zwar immer wieder genannt, aber nirgendwo ernsthaft begründet als Problem benannt. Für die Verwaltung einer Stadt von der Größe Münchens scheint es sich um normale Dimensionen der Differenzierung bürokratischer Alltagsabbildung zu handeln. Angebotsseitig konnte der Leiter des internen IT-Dienstleisters it@M denn auch schon 2014 anläßlich einer Debatte um LiMux im Zusammenhang mit dem damaligen Münchener Kommunalwahlkampf erklären, ihm seien keine Beschwerden oder Störungen bekannt, die über das normal zu erwartende Maß in einer Verwaltung dieser Größenordnung hinausgingen.20 Diese Linie vertritt er auch noch 2017 angesichts des beschlossenen Linux-Ausstiegs.21

Grundsätzlich ist zu betonen, dass mit Linux eine sehr weitgehende Anpassung von Benutzeroberfläche und Computerumgebung an individuelle Bedürfnisse möglich ist, denn die Einstellungsmöglichkeiten sind umfassend und in menschenlesbaren Dateien zugänglich und bearbeitbar abgelegt. Daher ist derzeit GNU/Linux gerade in kleineren Sprachgemeinschaften, für die sich eine Sprachvariante für die kommerziellen Softwarehersteller nicht lohnt, besonders beliebt. Die eigene Sprachcommunity selbst kann sich den Wunsch erfüllen und die Lokalisierung des Betriebssystems und der Programme so anpassen, dass es möglich wird in der Muttersprache zu arbeiten. Für den deutschen Behördenbetrieb können die gängigen Linux-Anwendungen und -Oberflächen so konfiguriert werden, dass sie wie unter Windows arbeiten und aussehen, wodurch Anwendern ein Systemwechsel erleichtert wird. Und da die Technologien für graphische Benutzerschnittstellen immer mehr ausreifen, werden revolutionäre neue Features, wie es Fenster und Mauspfeil einst waren, immer seltener. Das führt dazu, dass sich Look&Feel auf den verschiedenen Plattformen derzeit sowieso eher aneinander angleichen und einen gleich gerichteten Ausreifungsprozess durchlaufen.

Strategische und taktische Probleme

Ein entscheidender Fehler auf strategischer Ebene bei der Einführung von Linux in München Anfang der Nuller Jahre war es, in einem Zuge den Wildwuchs bei den Referaten und Anwendungen bereinigen zu wollen und zugleich auf ein neues technisches System umzustellen. Die Linuxeinführung wurde von einigen Fürsprechern als Verwaltungsreform verkauft. Das große Geschrei der Anwender resultiert bis heute nicht daher, dass der Unterbau nach Linux gewechselt wurde, sondern dass im Zuge der Umstellung auch die Rechteverwaltung auf Vordermann gebracht wurde, Rechte zweckbezogen vergeben wurden und eine Abkehr von selbstgebastelten Office-Makros und anderem verwaltungspraktischem Wildwuchs stattfand. Da alles gleichzeitig geschah, war in der Wahrnehmung der Anwender_innen an jedem Problem „Linux schuld“. Mit Abstand besehen war dies zwar die richtige Entscheidung, denn die Alternative wäre gewesen, erst den Wildwuchs zu roden, dann Office und die restlichen Applikationen zu wechseln und am Schluss dann alles von Linux aus zu starten. Das hätte aber zehn Jahre länger gedauert, viel mehr gekostet und das Argument für die Linux-Verfechter war zu verlockend: Wir lösen mit Linux Eure Verwaltungsprobleme gleich mit. Auf lange Sicht ein Schuss ins eigene Knie, wie sich jetzt zeigt.

Auch auf „taktischer“ Ebene, bei der Umsetzung, gab es Fehler: Als solcher wäre die Erstellung einer eigenen, privaten Distribution zu sehen. Es gelang nicht (oder wurde gar nicht versucht), den Umstieg auf der Ebene der Kooperation mit anderen Städten zu begleiten. So lassen sich die Vorteile Freier Software nicht nutzen, keine Entwicklungsergebnisse teilen und Synergien nutzen. Schon das Grundsystem zu warten wird teuer und aufwändig. Es bleibt kaum Zeit, selbst zu entwickeln. Die Entwickler-Community hat kaum Wachstumsperspektiven. Es fehlte das Marketing und die Bereitschaft der Verwaltungsspitze, ihren Beschluss systematisch und offensiv über die eigenen Grenzen hinaus im Rahmen „interkommunaler Zusammenarbeit“ zu bewerben. Ganz zu schweigen von den Kommunen, die schon seit Jahren Outsourcingverträge mit Privaten und gar keine eigenen IT-Strateg_innen mehr im Stellenplan haben, um sich auf einen solchen Prozess einzulassen. Und die kommunalen ITler, die es gibt, dürfen nicht, wie Betroffene berichten:

Das ist im Grundsatz schwierig. Es ist ja nicht Aufgabe der Verwaltung „unternehmerisch“ am Markt tätig zu werden. Tut das ein Regiebetrieb, dann wird er gleich einen juristischen Kreuzfeuer unterzogen, weil dieser Unternehmerisch und mit Steuergeldern subventioniert der Privatwirtschaft Konkurrenz macht. Wir (IT-Abteilung, ebenfalls in einem Regiebetrieb, einer kreisfreien Stadt) dürfen z.B. auch kein aktives Marketing machen. Dann bekommen wir direkt ein Schreiben von der Aufsichtsbehörde, dass wir unsere Kompetenzen überschreiten.22

So gesehen verliert die Kompatibilitätsfrage ihren rein technischen Charakter (Welches Format ist das beste und am weitesten verbreitet?) und wird zu einer sozialen Angelegenheit, die politisch blockierbar und aber auch gestaltbar ist. Wenn beide Seiten eines Kommunikations- oder Datenaustauschverhältnisses sich nicht nur über den Inhalt ihres Austauschs verständigen, sondern auch über die Form, dann verliert die Kompatibilitätsfrage ihren Sachzwangcharakter und Netzwerk- bzw. Plattformeffekte23 lassen sich abschwächen bzw. aushebeln. Kompatibilität ist keine Eigenschaft eines einzelnen Dings sondern eines Verhältnisses zwischen zwei oder mehr Dingen. Zwischen öffentlichen Verwaltungen verschiedener Regionen oder Hierarchien sollten offene Protokolle, Schnittstellenstandards und Dateiformate als Option für den Austausch schon alleine aus Sicherheits- und Souveränitätsgründen selbstverständlich sein, wie das in beispielhafter Weise der Landesrechnungshof Mecklenburg-Vorpommern, der selbst Anfang der 2000er Jahre zu Open Source migrierte24, in seinem Jahresbericht 2015 unter der Überschrift „Feststellungen und Empfehlungen“ (S. 63ff, insb. 65) begründet.

Der Diskurs: LiMux als Sündenbock für allgemeines Verwaltungsknirschen

Verstärkt wurden die beim Umstieg in München wahrgenommenen Probleme durch einen grundsätzlichen Mechanismus der Digitalisierung von Verwaltungsabläufen. Bürokratien bekommen mit Computerhilfe die Rechenpower, auch noch extrem ineffiziente, mangelhaft durchdachte oder sogar widersprüchliche Prozesse bis zu einem sehr weit gehenden Implementationsgrad durchzuziehen. Auf Papier stören solche Abläufe nicht, weil man schnell genug miteinander sprechen kann, um Unstimmigkeiten zu verstehen und live auszuräumen. Sollen solche Abläufe aber auf eine Rechnerumgebung abgebildet und automatisiert werden, dann steigt mit zunehmender Überdifferenzierung die Wahrscheinlichkeit von Fehlern in der Umsetzung, die dann aber nur noch spezialisiertes technisches Personal korrigieren kann. Gleichzeitig sind die Performance-Erwartungen an ein IT-unterstütztes System größer, d.h. Personal wird eher reduziert als hinzugenommen.

Wenn ein technischer Wechsel verknüpft wird mit Hoffnungen auf eine qualitative Verbesserung von Verwaltungsarbeit (für Arbeitende und Verwaltete) und weil Computerisierung die bürokratischen Abläufe nicht per se verbessert, sondern bestehende Ineffizienzen sogar verstärkt, kommt es zu mehr Unzufriedenheit, als wenn ein gewohntes System mit seinen Reibungsverlusten einfach fortgeschrieben wird.25 Daher schwingt das Stimmungspendel jetzt mit allem Schwung frustrierter Verwaltungsbetroffener in Richtung Microsoft und „alles soll wieder so sein wie früher“. Die Populisten und Opportunisten der großen Koalition leiten aus dieser Stimmung ihre neue IT-Politik ab.

Es ließe sich zuspitzen: München hat LiMux aufgezogen wie ein klassisches, internes IT-Projekt, genauso wie z.B. ein Upgrade auf die neueste Windows-Version oder eine SAP-Einführung. Freie und Open Source Software („FOSS“) lebt jedoch vom Community-Gedanken, dazu hätte besser gepasst, wenn München sich geöffnet hätte, eigene Schwierigkeiten und Erfahrungen offener kommuniziert hätte, oder auch bei der Distribution enger mit Upstream26 oder Interessierten zusammen gearbeitet hätte. Dann hätte der Funke von LiMux vielleicht auch auf andere Städte und Gemeinden überspringen können.

Eine Person aus einem städtischen Archiv kommentiert denn auch den beschlossenen Ausstieg aus LiMux:

Nicht Limux an sich ist gescheitert, sondern der Wille, es mit genügend Personal und Ressourcen so umzusetzen, dass der Nutzer am Client gar nicht mitbekommt, dass sich viel geändert hat. Wenn aber die örtlichen Servicestellen chronisch unterbesetzt sind und statt den aktuellen Basisclient ausrollen zu können, die Sonderwünsche von Stadträten bedienen müssen, dann kann es nicht klappen.
Nachdem seit etwa zwei Jahren [2015] auch IT@M endlich seine Struktur gefunden hat und Workflows wie die IT-Security endlich greifen, mit dem auch die Freigabe von notwendige (nicht-linux) Software möglich wird, ärgert es mich unsäglich, dass nun alles wieder über den Haufen geworfen wird.27

 

Was tun? Wie helfen?

Menüerweiterung!

Wo besteht Entwicklungsbedarf und wie läßt sich der von jenseits Münchens und von außerhalb der technischen Sphäre unterstützen? Nicht einmal der globale Unternehmensberatungs- und Outsourcing-Konzern Accenture rät in seinem von der Münchener großen Koalition in Auftrag gegebenen, aus öffentlichen Geldern bezahlten, aber bisher nicht veröffentlichten28 Gutachten zum kompletten Ausstieg aus LiMux – auch wenn das von fast allen so kolportiert wird.29

Das Accenture-Gutachten empfiehlt vielmehr den Einstieg in eine Menüerweiterung, so berichtet heise.de:

Die Referate und Eigenbetriebe sollen die Wahl haben, welches Betriebssystem und welche Bürokommunikation „für ihren Einsatzbereich die passende ist“. Jede größere Verwaltungseinheit könnte damit also selbst entscheiden, ob sie Microsoft oder Open-Source-Produkte verwenden möchte. „Abhängig von der Entwicklung der Verbreitung der Client-Varianten“ sollte den Experten nach zu einem späteren Zeitpunkt überprüft werden, „ob der Einsatz von Linux als Client-Betriebssystem weiterhin wirtschaftlich sinnvoll ist“.“

Laut einer Umfrage der Universität Maastricht von 200530 arbeiteten bereits knapp die Hälfte aller öffentlichen Verwaltungen in Europa mit freier Software. Allerdings meist in kleinerem Umfang und teilweise, ohne sich darüber im Klaren zu sein, etwa auf ihren apache-Webservern mit Content Management Systemen wie typo3 oder WordPress. Hilfreich wäre also eine IT-Strategie, die nicht auf die Verteufelung des einen oder anderen setzt, sondern eine Menüerweiterung anstrebt, damit die Wahlfreiheit nach Verwendungszwecken ermöglicht und Interoperabilität zwischen verschiedenen Setups sicherstellt. Allerdings dürfte das Klima hierfür in München vergiftet sein, die Einschätzung eines Heise-Foristen hat einiges für sich:

Admins und Entwickler kriegen nämlich nicht nur gute Jobs, sondern sie werden kaum bis auf den letzten Drücker warten mit der Suche nach neuer Beschäftigung. […] Aus ungekündigter Stellung sucht es sich einfach entspannter, vor allem, wenn man genau weiß, dass es demnächst eh nicht weitergeht. Wer ist so doof und wartet da noch auf die Kündigung? Dementsprechend kann es leicht passieren, dass ihnen [der Stadtverwaltung München; ME] in ein paar Monaten die IT-Betriebsmannschaft heftig zusammenschnurrt und nur noch ein Notbetrieb aufrechterhalten werden kann. Dann auch noch eine Migration stemmen, wenn diejenigen, die sich mit den Prozessen und ihrer Organisation auf IT-Ebene auskennen, alle weg sind, wird ein Heidenspaß. Dann kann man locker nochmal ganz von vorne anfangen… das bindet Ressourcen quer durch alle Abteilungen. Aber klar, hinterher ist wieder Linux schuld…“31

Ein Pilotprojekt in Rheinland-Pfalz zielte genau auf eine derartige Menüerweiterung: Ab 2009 migrierten elf Grundschulen zu Skolelinux/EduLinux, einer auf der Distribution Debian basierenden, für den Schulgebrauch optimierten Linux-Variante. Ziel des Pilotprojekts war es, die Schulen später zwischen MNS+, einer windows-basierten Lösung, und einer Linux-Umgebung wählen lassen zu können.32 Über die überwiegend positiven Erfahrungen mit dem zweigleisigen Betrieb an Österreichs Schulen berichtet das Open-Source-Jahrbuch 2007, S.355ff.

Positive Effekte sichtbar machen und einrechnen

Der klassische Industrieschornstein externalisiert negative Effekte: Weder die durch Luftverschmutzung ruinierte Volksgesundheit, noch die Kosten für die Reinigung der Luft (Pflege von Parks und Wäldern) schlagen für den Schornsteinbetreiber zu Buche. Wird ihm selbst die Luft zu dick, baut er einen noch höheren Schornstein. Die fundamentale Erfahrung der Arbeit mit Freier Software ist die gegenteilige: Codeschnippsel oder ganze Programme, die auf Kooperationsplattformen wie Github veröffentlicht werden, werden Teil einer digitalen Allmende. Sie stehen allen Interessierten zur Benutzung und Weiterentwicklung zur Verfügung. Öffentliches Geld, das zur Produktion Freier Software eingesetzt wird, kommt nicht nur dem unmittelbaren Anwendungszusammenhang zugute, für den es verhaushaltet war, sondern auch jedem identischen oder verwandten Vorhaben anderswo und/oder in der Zukunft: Die kooperative Peer-Produktion freier Software externalisiert positive Effekte!

Das LiMux-Projekt hat initial sehr viel Geld gekostet: Häufig kursiert die Zahl 14 Millionen Euro über 13 Jahre gegenüber 11 Millionen, die es bei Microsoft gekostet hätte. Die einzigen offiziellen Zahlen sind von 2012, einem Jahr vor Fertigstellung der Migration, und stellen das umgekehrte Verhältnis dar:

Die aktuellen haushaltswirksamen Kosten für das LiMux-Projekt betragen 11,7 Mio (Stand Ende Dezember 2011). Im Beschluss des VPA vom 16. Juni 2010 (Vorlage Nr. 08-14/V 04284) ist eine Alternativberechnung der Aufwände für eine dem damaligen Leistungsumfang des LiMux-Projektes vergleichbare Betriebserhaltung von Windows Systemen dargestellt. […] Ein dem Leistungsumfang des LiMux-Projekt vergleichbarer Ausbau auf der Basis von Windows hätte damit bislang kalkulierte Kosten in Höhe von mindestens 15,52 Mio Euro verursacht.“33

Abgesehen davon, dass unklar bleibt was genau den jeweiligen Kalkulationen zu Grunde liegt und was nicht, wären Mehrkosten von 3 Millionen Euro (oder deutlich weniger als 30%) ja durchaus zu rechtfertigen, wenn sie durch das Erreichte gerechtfertigt sind, z.B. eine für Behörden optimierte Linux-Distribution. Die Aufwände für Weiterentwicklung und die Pflege sind meist geringer als die wiederkehrenden Lizenzkosten für ein proprietäres Betriebssystem und (neuerdings) Abo-Kosten für ein proprietäres Office. Ein Produkt aus Freier Software steht ohne weitere Lizenzkosten anderen öffentlichen Verwaltungen zur Verfügung, die sich das Münchener Experiment vielleicht erst einmal von außen angesehen haben.

Herstellerunabhängigkeit eröffnet ganz andere Möglichkeiten, Geld in der Zukunft einzusparen. Erpressungsfrei kann man beispielsweise deutlich günstiger in moderne Cloud-Infrastrukturen investieren. Microsoft hingegen zwingt einen stets in Richtung seiner eigenen Cloud-Angebote, Office 365 und Azure, und die sind wieder teuer. Will oder braucht man aus Windows heraus eine Nicht-Microsoft-Cloud mit besserem Datenschutz, wird es noch teurer. Bei Linux ist man frei, kann seine eigene Cloud aufbauen oder einen lokalen Mitbewerber wählen, hat damit deutlich mehr Spielraum, strengere Datenschutzvorgaben zu niedrigeren Kosten zu realisieren. Selbstverständlich sollte nicht alles von Verwaltungsangestellten selbst gemacht werden. Im Rahmen einer vernünftigen FOSS-Strategie ginge das öffentliche Geld zwar auch an private Dienstleister, aber tendenziell eben eher an Vertreter des lokalen und regionalen Mittelstands – die zahlen mit Sicherheit einen höheren Steueranteil als Microsoft34 und das Know-How wird vor Ort akkumuliert.35 Im Grunde ist finanziell gesehen viel eher eine volkswirtschaftliche Rechnung angebracht als die übliche betriebswirtschaftliche. Denn nur so lässt sich wenigstens ein Teil der positiven Effekte fassen, die bei der Nutzung und Entwicklung von FOSS auftreten, aber betriebswirtschaftlich gesehen „externalisiert“ werden.

Münchener Grüne und Piraten kritisieren die Ausstiegspläne und verweisen z.B. auf die 60 bis 70 kommunalen Linux-Programmierer. Millionen, die in den letzten Jahren an Lizenzgebühren eingespart werden konnten, gehen in die Arbeit dieser Menschen. Die Arbeitsergebnisse wiederum stehen nicht nur der Stadt München offen, sondern nach dem Prinzip Freier Software allen interessierten Nutzer*innengruppen, z.B. in anderen Kommunen mit Linux in der Verwaltung und umgekehrt, denn auch die anderen haben ihre Linuxfachleute, die lokal Probleme lösen und ihre Problemlösungen gemäß der commons-basierten Peer-Produktionsweise auch wieder global zur Verfügung stellen.36

Digitale Verwaltungspraxis verallgemeinern statt privatisieren

Die Kampagne „Public Money/Public Software“ der FSFE Europe, die für den Sommer 2017 geplant ist, setzt hier an. Wenn so ein Umdenken in den Reihen von Rechnungshöfen zu Druck auf die öffentlichen Verwaltungen aus dieser Richtung führen würde, dann wären die Rahmenbedingungen für konzertierten Linux-Betrieb über föderale Ebenen und regionale Grenzen von Verwaltungseinheiten hinweg plötzlich ganz andere. Freie-Software-Mainstreaming wäre die entsprechende politische Forderung für Parteien und Politiker_innen, die sich der Materie annehmen wollen: „Open Source, wo möglich und kommerzielle Software, wo nötig.“ Jede öffentliche Ausschreibung und Beschaffung ist nicht nur auf Geschlechtergerechtigkeit, Wettbewerbs-, Umwelt- und Sozialstandards zu prüfen, sondern auch darauf, ob es einen Bewerber oder eine Anbieterin gibt, die den gleichen Dienst, die gleiche Software, das gleiche Geräte auf der Basis Freier Hard- und Software und offener technischer Standards anbietet.37 In Peru gilt seit 2005 ein entsprechendes Gesetz und könnte als Vorbild dienen.38

  • Keine staatliche Organisation darf Hardware anschaffen, auf der nur freie oder nur proprietäre Software lauffähig ist.
  • Proprietäre Software ist keinesfalls ausgeschlossen, jedoch dürfen Lizenzen proprietärer Software nur nach eingehender Prüfung angeschafft werden, die eine vergleichende Analyse der auf dem Markt befindlichen Software und eine Aufstellung von Kosten und Nutzen für die gesamte Einsatzzeit der Software einschließt.
  • Schulungen sollen technologieneutral gehalten werden.

Mehrkosten in angemessenem Rahmen sollten dabei angesichts der Gemeinnützigkeit der Investitionen keinen Ausschlussgrund darstellen, und oft kommt es sogar zu Einsparungen durch einen Umstieg auf Freie Software, die wiederum in das Sponsoring öffentlicher Sicherheits- und Stabilitätsüberprüfungen („Audits“) und Belohnung für das Auffinden von Fehler („Bug Bounties“) zu investieren wären. Gerade aus kleineren Städten wie Schwäbisch Hall39, Göppingen, Isernhagen, Leonberg und Gummersbach, wo sogar der in München entwickelte Client WollMux zum Einsatz kommt, aber auch aus Leipzig kommen positive Berichte von der Verwaltungsarbeit mit Freier Software.40

Neben der langen Reihe gelungener und weniger gelungener Beispiele der Hin- und Her-Migration jenseits des Beispiels München gibt es bereits heute Querschnitts-Institutionen, die am gesellschaftlichen Einstieg in den Ausstieg aus der Lock-In-Falle der Anbieter proprietärer Software arbeiten. Richard Stallman, Erfinder der bekanntesten Lizenz für Freie Software, der GNU-Lizenz, und Programmierer in diversen wichtigen Projekten, skizziert die Maßnahmen, die Regierungen ergreifen können, um Freie Software zu fördern. In diesem Sinne sorgt die EU mit dem bei der Kommission angesiedelten Open Source Observatory (OSOR) für

exchanging information, experiences and best practices around open source solutions for use in public administrations. We help you find open source software made available by other public administrations, and solve issues related to development. (Selbstdarstellung)

Auf Bundesebene existiert das Kompetenzzentrum Open Source41 und ist für die Förderung des Einsatzes von Open-Sour­ce-Soft­ware (OSS) in der Bundesverwaltung zuständig. Ein 543-seitiger „Migrationsleitfaden“ aus dem Bundesinnenministerium bietet neben technischen Vergleichen und Leitfäden (allerdings leider auf dem Stand von 2008) auch verwaltungsspezifische Themen mit deutlich längerer Halbwertzeit wie Haftungs- und Vergaberecht. Ebenfalls immer noch wertvoll, gerade in der Frühphase von Migrationserwägungen: die knapp 20seitige Zusammenfassung des Migrationsleitfadens im Open-Source-Jahrbuch 2004, S.259ff: „Erfolgsfaktoren bei der Einführung von Linux in Unternehmen“. Spiegelstrichförmig listet der Text die wichtigsten Fragen und Schritte der Planung und Durchführung einer Migration im Betrieb und erläutert sie knapp.

 

Fazit

Linux in öffentlichen Verwaltungen ist keine technische Frage, sondern eine politische: Es geht um die Souveränität bei der kommunalen Datenverarbeitung und gegen die Verschwendung Privatisierung öffentlicher Gelder zum Zwecke der Profitmaximierung privater Lizenzinhaber-Konzerne. Mit Linux in der öffentlichen Verwaltung produzieren öffentliche Gelder öffentliche Software zum Wohle der Allgemeinheit, also „common goods“. Wer sich in der Frage Offene/Freie Software oder proprietäre Lizenzware positioniert oder gar als Entscheider*in agiert, entscheidet sich für die eine oder die andere Seite. Wer sich für den Einstieg in den Umstieg entscheidet, steht nicht alleine da und ist in Zukunft nicht mehr so sehr von der Geschäftsstrategie weniger Großkonzerne abhängig sondern beginnt, die praktischen Probleme selbst zu lösen – in weltweiter Kooperation mit anderen, die an den gleichen oder ähnlichen Problemen arbeiten.42

Moralische Apelle allerdings, die auf die Verbreitung von Freier Software zielen, sind nicht nur vergebene Liebesmüh’. Sie können sogar kontraproduktiv wirken, indem sie von der eigentlichen Arbeit, der Entwicklung guter, menschengemäßer und sachdienlicher Software ablenken. Einige Freie Software-Entwickler bilanzieren den Fall München denn auch so: Seht Ihr, wir waren von Anfang an gegen die Stilisierung Münchens als „Leuchtturm“ der Anwendung Freier Software durch eine größere Einrichtung. Freie Software braucht keine Leuchttürme. Die Arbeit am besseren Produkt geschieht Schritt für Schritt, und so setzen sich die Erzeugnisse unserer Arbeit auch durch – so etwa der Präsident der Free Software Foundation Europe, Matthias Kirschner.43

Allgemein gesprochen: Ein Produktivkraftfortschritt, der in der Lage ist, die Produktionsverhältnisse zu revolutionieren (Stichwort: „Keimform“), der braucht weder Leuchttürme noch Apelle zu seiner Durchsetzung. Die polit-ökonomischen Kräfte jedoch, die Produktivkraftfortschritte hinsichtlich ihres revolutionären Potentials44 treffender einschätzen als andere, dürften im Zuge produktivkraftentwicklungsbedingter Transformationen der Produktionsverhältnisse ihre Ziele denn auch erfolgreicher verfolgen, die Transformation selbst vielleicht sogar prägen können, als andere und den Fortschritt damit in ihrem Sinne weitertreiben. Zunächst verläuft dieser Prozess unterschwellig und hinterrücks. Irgendwann erfolgt ein qualitativer Umschlag, das neue Verhältnis setzt sich durch, wird hegemonial und damit auch zum neuen „alten“, aus dem heraus und gegen das sich wieder etwas neues ergibt. Auch der Übergang von feudalistischer, auf Landwirtschaft basierender Gesellschaft zur auf der Ausbeutung von Lohnarbeit basierenden Fabrikgesellschaft lässt sich so beschreiben. Im Moment verhalten sich nicht nur die großen IT-Konzerne, sondern die IKT-Branche insgesamt so, als ob sie das verstanden hätten: Sie produzieren selbst in großem Umfang auf Freier Software (Server, Versionsverwaltungssysteme, Datenbanken, Sicherheitstechnologie etc.), ihre Kunden jedoch halten sie in der Abhängigkeit ihrer proprietären Produkte. Industrie 4.0 verallgemeinert diese Strategie.

 

 

  1. Es handelt sich dabei nicht um Synonyme. Freie Software ist das strengere, weniger beliebige Konzept, das darauf Wert legt, dass nicht nur der Quellcode einsehbar sein muss (Open Source: Offene Quelle), sondern auch weitere Freiheiten im Umgang mit dem Quellcode garantiert sind: die freie Verwendung, Abwandlung und Weitergabe etwa. Weiterführend: Open-Source-Jahrbuch 2007, S.1ff. Das Open-Source-Jahrbuch, auf dessen diverse einschlägige Artikel aus den Jahren 2003 bis 2007 ich ausführlich verweise, war ein umfangreiches wissenschaftliches Kompendium zum Thema Open Source und wurde an der TU Berlin im mittlerweile ebenfalls abgewickelten Bereich „Informatik und Gesellschaft“ produziert. []
  2. vgl. zu Linux in elektronischen Kleingeräten, sog. embedded systems, den Artikel „Die industrielle Nutzung und Entwicklung von Open-Source-Software: Embedded Linux“ im Open-Source-Jahrbuch 2005, S.123ff []
  3. Eine Geschichte des Internets insgesamt schreibt kurzgefasst, kenntnisreich, wohlstrukturiert und damit vorbildlich Susanne Lang in der Prokla: „Eine kurze Geschichte des Internets. Die Inkorporation des Internets in kapitalistische Verhältnisse ist keinesfalls abgeschlossen und noch immer umkämpft“ []
  4. Proprietäre Software (lateinisch propriē „eigentümlich“, „eigen“, „ausschließlich“) bezeichnet eine Software, die das Recht und die Möglichkeiten der Wieder- und Weiterverwendung sowie Änderung und Anpassung durch Nutzer und Dritte stark einschränkt. Es gibt einige Mechanismen, die eine Software „proprietär“ machen und halten können: durch Softwarepatente, das Urheberrecht, Lizenzbedingungen (EULAs), das Aufbauen der Software auf herstellerspezifischen, nicht veröffentlichten Standards und die Behandlung des Quelltextes als Betriebsgeheimnis (englisch closed source). []
  5. Git ist eine solche paradigmatische Plattform. Die Theoretisierung der Arbeits- und Kooperationsweise auf Systemen wie Git hat zum Konzept der „Commons-basierten Peer-Produktion“ geführt und wird mitunter als „Keimform“ einer neuen Produktionsweise diskutiert, die noch im Schoß der alten entsteht, aber das Potential hat, sich und die mit ihr entstehende neue Gesellschaft aus dieser heraus und über diese hinaus zu entwickeln. []
  6. Die Episode ist gut dargestellt im Open-Source-Jahrbuch 2007, S.234ff. Die einschlägigen Dokumente zu dem damaligen Vorgang sind bei netzpolitik.org geleakt. []
  7. Vgl. den Übersichtsartikel zum Thema bei heise.de. []
  8. Die technische Qualität verschiedener Softwareansätze lässt sich anhand einer Reihe „harter“ Kriterien gegeneinander abwägen. Dabei geht es um Verlässlichkeit, Wartbarkeit, Benutzerfreundlichkeit, Sicherheit und Flexibilität. Vor einer Abwägung ist zu klären, welche Rolle die jeweiligen Kriterien für die eigenen Bedürfnisse und Anwendungsszenarien spielen. In allgemeinen Begriffen und daher bis heute gültig dekliniert das ein Beitrag aus dem Open-Source-Jahrbuch 2007 (S.217ff) am Beispiel der jeweiligen Vorzüge von Windows und Linux durch. []
  9. Daraufhin reiste im Winter 2003 Steve Ballmer, der damalige Chef von Microsoft, nach München, um mit Oberbürgermeister Christian Ude über das Angebot seiner Firma in Höhe von 36,6 Millionen US-Dollar und die Nachteile eines Abschieds von Microsofts Betriebssystem zu sprechen. Er senkte den Preis zunächst auf 31,9 und dann auf 23,7 Millionen — sein Angebot wurde jedoch abgelehnt; Details dazu im Open-Source-Jahrbuch 2007, S.226ff. []
  10. Vgl. dazu Embrace, Extend, and Exterminate, die gemäß US-Justizministerium offizielle, inoffizielle Microsoft-Geschäftsstrategie. US-amerikanische Landwirte sehen sich von einer ganz ähnlichen Restriktion bedroht: Die Geschäftsbedingungen der Landmaschinenhersteller illegalisieren sie als Hacker, sobald sie ihren eigenen Traktoren selbst mit Werkzeug auf den Leib rücken. Daher müssen sie jetzt für ein „Right to repair“ kämpfen. []
  11. Vgl. das Facebookangebot „Internet.org„, das nach Protesten in Indien immerhin verboten wurde. []
  12. www.tagesspiegel.de/weltspiegel/it-in-der-oeffentlichen-verwaltung-europas-fatale-abhaengigkeit-von-microsoft/19628246.html []
  13. Das Betriebssystem und seine notwendigen und optionalen Bestandteile selbst und alle Programme sind in Paketen organisiert und können auch gegenseitig aufeinander und auf gemeinsam benötigte weitere Pakete zurückgreifen. []
  14. Die existierenden Antivirenprogramme für Linux dienen daher dem Zweck, Datei- und E-Mail-Server auf Viren für andere Betriebssysteme zu untersuchen. []
  15. Die neue Stoßrichtung im Frühjahr 2017 bildet z.B. eine Hintergrundrecherche der Journalistengruppe Investigate Europe gut ab. []
  16. Executive Order: Enhancing Public Safety in the Interior of the United States. In: whitehouse.gov. 25. Januar 2017, whitehouse.gov []
  17. China excludes Windows 8 from government computers. Xinhua, 20. Mai 2014 []
  18. Markus Feilner: Auf den Punkt 10 Jahre: Limux „ist fertig“. linux-magazin.de. 28. Mai 2013 []
  19. Stadträtin Sabine Pfeiler, Stadtrat Otto Seidl: Notebooks und Tablets für den alltäglichen Gebrauch tauglich machen! (PDF) In: CSU. RIS München. 28. Juli 2015. []
  20. Heise online: LiMux: Linux in München unter politischem Beschuss, Stefan Krempl, 2014-07-115. []
  21. www.heise.de/newsticker/meldung/Muenchner-IT-Leiter-zu-LiMux-Es-gibt-keine-groesseren-technischen-Probleme-3644868.html []
  22. www.heise.de/forum/heise-online/News-Kommentare/LiMux-Aus-in-Muenchen-Opposition-wettert-gegen-katastrophale-Fehlentscheidung/Re-Warum-sind-eigentlich-keine-anderen-Staedte-aufgesprungen/posting-29937932/show/ []
  23. Netzwerk- bzw. Plattformeffekt: Das einzelne Subjekt denkt und muss denken: Die überwiegende Mehrheit ist dort, da muss ich auch hin, habe gar keine Wahl, denn überall woanders wäre ich alleine. []
  24. vgl. den Migrationsbericht eines Rechnungshofmitarbeiters im Open-Source-Jahrbuch 2004 []
  25. www.heise.de/forum/heise-online/News-Kommentare/LiMux-Aus-in-Muenchen-Opposition-wettert-gegen-katastrophale-Fehlentscheidung/Re-Entscheider-muss-man-ueberzeugen-nein-das-ist-nicht-meine-Aufgabe/posting-29943265/show/ []
  26. „Upstream“ sind im Kosmos der Produktion Freier Software diejenigen, von denen man sich seinen Ausgangs-Code besorgt hat und denen man eigene Code-Überarbeitungen oder -Ergänzungen („Commits“) zurückspielen oder von denen man Unterstützung oder sogar die Umsetzung von Feature-Wünschen erbitten kann, wenn man selbst nicht weiter kommt. []
  27. www.heise.de/forum/heise-online/News-Kommentare/LiMux-Aus-in-Muenchen-Opposition-wettert-gegen-katastrophale-Fehlentscheidung/Immer-diese-Vorurteile-gegen-Archive/posting-29941046/show/ []
  28. Öffentlich ist nur ein 129-seitiges Papier einer Münchener Fachabteilung, nicht jedoch das 450-seitige Gutachten selbst. []
  29. An dieser Stelle möge man sich vergegenwärtigen, dass Microsoft und von Microsoft lizensierte Schulungsunternehmen Millionen in Werbung für ihre Systembetreuungs-Kurse stecken, die nicht nur an Online-Redaktionen, sondern gerade auch an die gleichen Fachmagazine gehen, die sich ausführlicher zum Thema melden. Aber Werbeteil und redaktioneller Teil operieren ja unter den gegebenen Bedingungen von „Konzentration und Homogenisierung“ – so die Überschrift des einschlägigen Kapitels bei Thomas Schuster: Staat und Medien. Über die elektronische Konditionierung der Wirklichkeit, Frankfurt a. M. (Fischer) 1995 – bekanntlich völlig unabhängig voneinander. Vgl. auch Noam Chomsky: Manufacturing Consent, Dokumentarfilm 1992. An dieser Stelle fehlt im Satz leider das Zeichen für Ironie/Sarkasmus. []
  30. Die Hälfte der EU-Ämter arbeitet mit freier Software, Meldung auf pro-linux.de, 25. Oktober 2005. []
  31. https://www.heise.de/forum/heise-online/News-Kommentare/LiMux-Aus-in-Muenchen-Opposition-wettert-gegen-katastrophale-Fehlentscheidung/Re-Um-die-Entwickler-braucht-man-sich-keine-Sorgen-zu-machen/posting-29937203/show/ []
  32. Skolelinux für Schulen in Rheinland-Pfalz, iX Nachricht
  33. Presse- und Informationsamt der Landeshauptstadt München: Rathausumschau – Ausgabe 054 (pdf) S. 12-13. 19. März 2012. Zitiert nach wikipedia, da die Original-Datei zwar downloadbar, aber „beschädigt“ ist (11.4.2017). []
  34. Laut Schätzungen zahlt der Konzern nur etwa 3% Steuern auf seine Gewinne und „sparte“ so seit 2015 rund 45 Milliarden US-Dollar, vgl. www.wienerzeitung.at/nachrichten/wirtschaft/international/912348_Microsoft-erneut-wegen-Steuertricks-in-der-Kritik.html. []
  35. Südkorea gestaltet derart seine Wirtschaftsförderung: Südkorea: Linux-Migration für die Wirtschaftlichkeit – FSPA-Newsletter, 21. Februar 2006. Auch die französische Regierung geht diesen Weg: Frankreich: Open-Source-Einsatz in der Verwaltung nimmt zu. Heise-Online, 26. April 2012 []
  36. Theorieproduktion zur commons-basierten Peer-Produktion z.B. bei keimform.de. []
  37. Vgl. das Wahlkampfprogramm 2013 der Partei Die Piraten und den Entwicklungsprozess für das Programm 2017 dazu. []
  38. Peru erlässt Gesetz für freie Software – Meldung auf bundestux.de, 26. September 2005 []
  39. vgl. die Fallstudie im Open-Source-Jahrbuch 2005, S.37ff []
  40. Vgl. die gelungenen und weniger gelungenen Beispiele auf der Wikipedia-Liste „Open-Source-Software in öffentlichen Einrichtungen„ []
  41. mehr dazu im Open-Source-Jahrbuch 2005, S.21 []
  42. Für eine Reihe von Beispielen siehe die preisgekrönten Verwaltungskörperschaften des Wettbewerbs „Sharing & Reuse“ der Europäischen Kommission. []
  43. www.youtube.com/watch?v=lPd5N2Y5nuM und www.pietcast.com/folge-0026-limux/ []
  44. In der RLS-Analyse „Digitalisierung, Klassenkampf, Revolution“ fasst Stephan Kaufmann den derzeitigen Rationalisierungsschritt als in erster Linie technischen, erörtert die Frage, ob es sich dabei um eine „digitale Revolution“ handele und legt ein „nein“ nahe (S. 14/15). Ich vertrete hier dagegen, dass es sich bei der sozialen Art und Weise, wie freie Software produziert wird, um einen Produktivkraftfortschritt mit dem Potential handelt, die Eigentums– und damit Produktionsverhältnisse umzustülpen – entweder von oben, durch Rationalisierung oder von unten durch Aneignung und Vergesellschaftung zunächst wenigstens der software-förmigen Produktionsmittel. Letzteres bleibt umkämpft und bildet den klassenkämpferischen Kern von z.B. Urheberrechts- und Privatkopie-Debatten. Aber auch die klassischen Formen der Auseinandersetzung im Kampf zwischen abhängiger Arbeit Unterworfenen und über Kapital Verfügenden bleiben aktuell. Das arbeitet Stephan Kaufmann sehr treffend heraus. []

Diesen Artikel drucken Diesen Artikel drucken

Leave a Reply