1
Ein Beitrag von Oliver Heins, der in der Internet-Zeitschrift „Sozialistische Positionen“ erschienen ist, hat mich davon überzeugt, dass in der weltweiten Internet-Gemeinschaft tatsächlich schon Spuren jener Assoziation freier Individuen sichtbar geworden sind, die wir uns als Verfassung der Anderen Gesellschaft erträumen (Freie Software – eine Gegen-Ökonomie?).
Es handelt sich um all die Menschen, die an der Entwicklung des Betriebssystems LINUX / GNU teilnehmen. Dessen Quelltext ist frei zugänglich. Freilich muss man mit der Programmiersprache umgehen können. Wer diese Bildung aber hat, braucht sich nur in die GNU General Public License einzuschreiben und bekommt sogleich die entwickeltste Version des Systems. Er kann mit ihr machen, was er will, das heißt er wird, wie Heins hervorhebt, zu ihrem individuellen Eigentümer. Der Witz ist aber, man kann voraussehen, was er wollen wird: entweder mit dem System Software für den Verkauf herstellen oder es selbst weiterentwickeln oder beides. Die einzige Gegenleistung, die von ihm erwartet wird, ist die Bereitschaft zur Verteilung seiner Weiterentwicklung an die ganze LINUX-Gemeinschaft.
Eine bessere Veranschaulichung des Unterschieds von abgesondertem Privateigentum und solidarischem Individualeigentum würde man sich gar nicht ausdenken können. Diese Einrichtung gibt es schon, sie ist real! Aber viel mehr noch, sie löst modellhaft ein zentrales Problem gesellschaftlicher ökonomischer Planung.
Stellen wir uns vor, solche Planung würde durch „Marktwahlen“ erreicht, wie ich sie in einer früheren Notiz vorgestellt habe. Die Gesellschaft hätte also darüber entschieden, welche Grundlinien der Produktion in, sagen wir, den nächsten zehn Jahren gelten sollen. Infolgedessen würde sich die Investitionsgüterindustrie an die Herstellung des entsprechenden Maschinenparks machen. Im Unterschied zu heute könnte sie in recht sicherer Erwartung der künftigen Marktentwicklung produzieren. Aber ein schwerer Unsicherheitsfaktor bliebe, nämlich die Möglichkeit einer technischen Revolution während der Zehn-Jahres-Periode, die den in ihrem Anfang angeschafften Maschinenpark teilweise oder völlig entwerten könnte.
Wie wir jetzt sehen, besteht diese Gefahr nur so lange, wie die Unternehmen „privat“ statt „individuell“ produzieren. Bei privater Produktion kommt die technische Revolution nur dem Unternehmen zugute, in dem sie erfolgt ist, alle anderen werden niederkonkurriert. Das LINUX-Modell kennt kein solches Problem. Es besteht ja einfach darin, dass alle revolutionären Fortschritte unverzüglich allen verfügbar gemacht werden, und es zeigt, wie leicht sich so etwas organisieren ließe. Die Unternehmen wären dann immer noch frei, sie würden auch konkurrieren, aber nur mit ihren Produkten, nicht mit dem technischen Grundwissen.
Man bräuchte also nur die Verfassung, die sich die LINUX-Gemeinde gegeben hat, auf sämtliche Produktionszweige auszudehnen, und hätte schon die Aussicht auf eine krisenfreie Wirtschaftsentwicklung. Zugleich wäre auch die Frage beantwortet, wie man sich im Industriesystem ein Verhältnis von Individualeigentum und „Allmende“ vorstellen kann. Freilich: Alles müsste damit anfangen, dass erst einmal das bereits vorhandene technische Wissen, das jetzt so vielen Privateigentümern gehört, einer Behörde übergeben wird, die es von da an in Analogie zum LINUX-Modell verwaltet. Und wie das geschehen soll, ist auf dem derzeitigen Zwischenstand unserer Reflexion ganz unerfindlich.
2
Rätselhaft genug erscheint es da, wie denn das LINUX-Modell selber mitten im Kapitalismus entstehen konnte. Die Antwort ist auch tatsächlich spannend. Die erste Voraussetzung war der Kalte Krieg und das Interesse des Pentagon. Man hatte dort zum einen nach Wegen gesucht, wie das Land im Atomkrieg handlungsfähig bleiben könnte, und war auf die Idee gekommen, einer möglichen Enthauptung der eigenen Verteidigungsstruktur durch Selbstenthierarchisierung zuvorzukommen. Das hieß, man legte die vorhandene Rechnerkapazität in eine Reihe autonomer Knotenrechner auseinander, vier davon, von denen jeder über das ganze Wissen verfügte, stationierte man 1969 an Universitäten. Damit war das Internet geboren, es brauchte sich nur noch auszudehnen. Der Angriff gegen ein solches Netz konnte nur erfolgreich sein, wenn sämtliche Knoten getroffen würden. Aber das war nicht alles. Das Pentagon wollte auch das wissenschaftliche Potential einbinden und forderte die Universitäten zur Systementwicklung auf, zum Mitdenken. Heins unterstreicht hier, dass die US-Militärs sich der Kräfte freier Individualisten in einer Weise bedienen konnten, wie es nur im Westen möglich war.
Ebenso interessant ist sein anderer Hinweis, dass die teilnehmenden Wissenschaftler das Netz nicht für Militärisches, sondern für „persönliche Mitteilungen“ nutzten. Es bleibt dabei etwas unklar, wie persönlich die Kommunikation wirklich gewesen ist. Als Beispiel wird häufiger Austausch über „science fiction“ genannt, ja ein ganzes System für „SF-Lovers“ wurde eingerichtet. Ich werde unten darauf zurückkommen, um zu zeigen, dass hier eher eine Gegenstrategie im Spiel sein könnte. Doch bleiben wir bei den Strukturfragen. Das Netz funktionierte bereits so, wie oben beschrieben: Forschungsergebnisse der Teilnehmer wurden frei ausgetauscht. Hier sehen wir nun aber etwas Zusätzliches: Alle sind schön gleichberechtigt und -beteiligt, jeder kann das gemeinsame Wissen nutzen, um beispielsweise „ein Produkt herzustellen“ – ja, und zu diesen Teilnehmern gehören die Militärs, deren Produkte Nuklearwaffen sind. Die Sache kann so abgebildet werden, dass das Pentagon sich mit der Netzidee einen Kreis unbezahlter Zulieferer besorgt hat.
Außerdem ist das wie bei einem richtigen Fischernetz: Erst wird es ausgeworfen, und wenn dann die Fische drin sind, zieht man es zu. So wurde es hier tatsächlich gemacht. Irgendwann hatte die Gemeinschaft wohl genug Nützliches geschaffen. Die Praxis kostenloser Verteilung wurde von der Regierung beendet, der Quelltext kommerzialisiert. Die Sache ging freilich weiter. Einige universitäre Teilnehmer ärgerten sich über die Entwicklung und hielten sich einen Bereich frei, in dem sie weiter wie bisher verfuhren. Das war die Geburt von LINUX. Ohne bis zum heutigen Tag kommerzialisiert worden zu sein, war und blieb LINUX all seinen kommerziellen Konkurrenten technisch überlegen. Wiederum, auch das ist ein Netz, das später zugezogen werden könnte. Heins sagt es selbst: Die Bereitschaft der Teilnehmer, ihr Wissen für andere mitzuentwickeln, kann an den gemeinsamen Boom gebunden sein, den sie mit ihren Verkaufsprodukten jetzt noch gemeinsam erleben. Ist es erst dazu gekommen, dass die Gemeinschaft in Winner und Loser zerfällt, wird es mit ihrer schönen Solidarität wohl vorbei sein. Dann ergreift die Kommerzialisierung auch von diesem Refugium Besitz.
3
Es sind noch ganz andere Entwicklungen möglich. Wie gesagt, die universitären Teilnehmer des ursprünglichen Netzes tauschten sich gern über science fiction aus. Das berichtet uns Heins. Und wir erfahren etwas von der Vita des großen LINUX-Pioniers, Richard Stallman mit Namen, der das Massachusets Institute of Technology (MIT) verließ, er hatte dort einer Forschungsgruppe zur Künstlichen Intelligenz angehört, um sein Leben ganz der Utopie der „freien Software“ zu widmen. Gerade auch dieser Herr Stallman hat für science fiction etwas übrig – hören wir nur, wie er zu seiner Gemeinde spricht: „Die Menschen werden frei sein, sich Aktivitäten zu widmen, die Freude machen, zum Beispiel Programmieren, nachdem sie zehn Stunden pro Woche mit notwendigen Aufgaben wie Verwaltung, Familienberatung, Reparatur von Robotern und der Beobachtung von Asteroiden verbraucht haben.“
Zehn Stunden pro Woche, wie kommunistisch das klingt! Aber die Arbeit, auf die es ankommt, ist doch das Programmieren – und die soll unbezahlt in der Freizeit gemacht werden, aus Spaß an der Freude? Interessanter aber noch, was in der bezahlten Arbeitszeit anfällt: Asteroiden beobachten. Gut, man kann das als science fiction abtun. Aber dann muss man beide Augen davor verschließen, was an einigen US-amerikanischen Universitäten geschieht, namentlich auch am MIT.
Im renommierten Piper-Verlag sind mehrere Bücher eines texanischen Physikprofessors erschienen, der „ausgerechnet“ hat, wie man eine Auferstehung der Menschheit in Szene setzen könne (zuerst Die Physik der Unsterblichkeit, München Zürich 1994): Man schickt einen Computer zum erdnächsten Stern, der imstande ist, diesen in Teile zu zerlegen, also zu sprengen, und sich mittels der Sternteile nachzuerschaffen und zu vervielfältigen. Wir erfahren, dass solche Computer, zu deren Erfindung übrigens die NASA aufgerufen hatte (wie uns André Gorz mitteilt in Wissen, Wert und Kapital, Zürich 2004, S. 108), heute schon problemlos hergestellt werden könnten. Die so entstandene Armada von Computern fliegt zu entsprechend vielen Sternen weiter, sprengt diese auf dieselbe Weise und mit demselben Zweck, und so immer weiter, bis das ganze Weltall vernichtet ist und die energetischen Bedingungen für den Endsieg geschaffen sind. Zuletzt nämlich fügen sich all die vielen Computer zu einem einzigen „Omegapunkt“ zusammen, welcher die Menschheit virtuell wieder erstehen lässt. Frank Tipler, so heißt der Mann, spricht nicht näher davon, wie sich diese Computer koordinieren, aber die Sache ist ja auch klar, durchs Internet natürlich.
Während Tipler noch den Eindruck zu erwecken sucht, er arbeite an der Zukunft der Menschheit, obwohl es nur eine Zukunft der Maschinen wäre – den „Auferstehungs“-Unsinn einmal beiseite gelassen -, gibt es eine ganze Reihe anderer wohlbestallter Wissenschaftler, die ganz offen eine neue Evolutionstheorie vertreten, derzufolge die Menschheit dazu da sei, eine mit Künstlicher Intelligenz ausgestattete Maschinenpopulation hervorzubringen, um dann ihrerseits zu verschwinden. Sie sagen auch einen Krieg zwischen diesen Maschinen und der Menschheit voraus, in dem letztere nur unterliegen könne. Und manche Wissenschaftler, die fortschrittlich sein wollen, fügen hinzu, man müsse sich dann auf die Seite der Maschinen stellen, ähnlich wie es in der Französischen Revolution Priester und Adlige gegeben hat, die sich mit dem revolutionären Bürgertum verbündeten. Solche Zukunftsentwürfe hat Gorz vorgestellt (in Wissen, Wert und Kapital, letztes Kapitel), um zu zeigen, dass die Computerisierung nicht nur Emanzipationsräume eröffnet, sondern auch zur grauenhaftesten Barbarei einlädt. Das Thema wurde kürzlich auch in einem Aufsatz der Deutschen Zeitschrift für Philosophie behandelt (Werner Kogge, Perspektiven der Technikphilosophie, Heft 6/2008).
4
Man würde nun gern erfahren, welches genau die science fiction-Phantasien des Herrn Stallman sind. Ich nehme an, sie sind ganz harmloser Natur. Doch gerade dann, und auch durch seine demonstrative Trennung vom MIT, kann er nützlich sein für die Barbarei. Es gibt jedenfalls auch sonst Beispiele von Leuten, die sich im Versuch, die Barbarei hegemoniefähig zu machen, an soziale Utopien anhängen. Georg Jesco von Puttkamer, der jahrelang Programmdirektor der NASA war, hat es zweifellos ganz bewußt getan. Er sei Ökologe, erzählte er, doch „die Ökologie des 21. Jahrhunderts“ müsse im Weltall stattfinden, in künstlichen Sonden, nicht auf der Erde, denn diese begegne dem Menschen feindlich, sie lasse ja den Verbrauch der Energiemengen nicht zu, die der Mensch benötige (vgl. Hermann Scheer, Sonnenstrategie. Politik ohne Alternative, München 1993, S. 77).
Wenn wir von hier aus zurückblicken auf die Entstehungsgeschichte des Internets, die den Militärs aus der Hand geglitten sei, weil die teilnehmenden Wissenschaftler es „lieber für persönliche Mitteilungen nutzten“, sehen wir die Notwendigkeit einer Ergänzung. Persönliche Mitteilungen? Die ganze Geschichte der Raumfahrt ist so gelaufen, dass science fiction-Phantasten wie Wernher von Braun sich den Militärs ihrer Länder andienten, um auf der Basis der ihnen zur Verfügung gestellten Ressourcen ihr eigenes Zukunftssüppchen zu kochen. Es ist denkbar, dass dergleichen auch nach der militärischen Initiative zum Internet geschehen ist. Deshalb mag gelten, dass in jener Gemeinschaft freier Programmierer nicht nur, wie ich sagte, unter allen, die das gemeinsame Wissen nutzen, auch das Pentagon ist, „dessen Produkte Nuklearwaffen sind“, sondern es gibt einen weiteren beunruhigenden Teilnehmer, die Strategen der Künstlichen Intelligenz. Wer heute kostenlos Programmiererfolge weitergibt, ist auch ihr Zulieferer.
Das Modell der gemeinsamen Nutzung von Wissen wird deshalb nicht fragwürdig. Es bleibt ein Hoffnungszeichen für die Assoziation freier Individuen. Aber man sieht die Gefahr barbarischer Trittbrettfahrer. Hängt deren Existenz mit den Basisstrukturen unserer Gesellschaft zusammen? Wenn der Kapitalbegriff eingeführt ist, werde ich auf die Frage zurückkommen müssen.