header


  

ESSAY

ESSAY Druckversion  |  Schrift: vergrößern verkleinern 

Walther Ch. Zimmerli:
Zimmerli: Kolonialisierung – neu betrachtet. Aspekte einer Philosophie der technologischen Zivilisation

Der Felsen, an den unser Denken geschmiedet ist

Wenn es um das Verhältnis von Kolonialisierung und Aufklärung geht, gibt im 20. Jahrhundert der bekannte Eröffnungssatz der Dialektik der Aufklärung den Ton an: „Seit je hat Aufklärung im umfassendsten Sinn fortschreitenden Denkens das Ziel verfolgt, von den Menschen die Furcht zu nehmen und sie als Herren einzusetzen, aber die vollends aufgeklärte Erde strahlt im Zeichen triumphalen Unheils.“ Hier geht es von allem Aufklärungsanfang an um Kolonialisierung, und zwar gleichsam um eine gut gemeinte Kolonialisierung. Wir haben nämlich vergessen, dass der Begriff „Kolonialisierung“ in seinem ursprünglichen Kontext eine ausgesprochen positive Konnotation hatte, und zwar, bis die unbeabsichtigten unerwünschten Nebenfolgen der Kolonialisierung bemerkt wurden.

Dieser ursprünglich positiv gemeinte Kolonialisierungsbegriff verkehrt sich nun aber durch seinen Erfolg ins Gegenteil. Das ist die Struktur, die insbesondere die Dekonstruktivisten in Bezug auf die wissenschaftlich oder „logozentrisch“ (Derrida) verstandene Aufklärung analysieren, und diesen Befund gilt es weiter zu differenzieren. Wir erleben, so behaupte ich, heute insofern eine zweite Dialektik der Aufklärung, als wir bemerken, dass alle Versuche, die erste Dialektik ihrerseits zu überwinden, das höchst interessante Charakteristikum der Unhintergehbarkeit aufweisen, das man als „transzendental“ bezeichnen kann. Selbst der vehemente Protest von Derrida gegen logozentrische Rekonstruktionen wird seinerseits logozentrisch. Man kann immer wieder beobachten, dass noch der entschiedenste Versuch, konstruktivistisch oder kulturalistisch eine vor- oder außersprachliche Kommunikation zu identifizieren, selber nur sprachlich kommunizierbar ist und sich deswegen der Fesseln oder der Grenzen der sprachlichen Kommunizierbarkeit nicht entschlagen kann. Rationalität – so will ich knapp und thesenhaft formulieren – bleibt der Felsen, an den unser Denken prometheisch geschmiedet bleibt, selbst wenn wir dieser Bindung zu entrinnen versuchen. Gewiss, man kann immer den Ausweg in die Irrationalität wählen; das aber wäre keine Lösung, und vor allen Dingen keine philosophische! Stattdessen gilt es, den erhobenen Befund zunächst einmal genauer zu differenzieren. Was meinen wir denn eigentlich, wenn wir von dieser Figur einer zweiten Selbstreflexion der ihrerseits selbst dialektisch reflektierten Aufklärung sprechen? Wir meinen damit, dass die Prinzipien der Moderne dadurch, dass sie kritisiert werden, nicht schwächer, sondern umgekehrt gerade stärker werden. Die Kritik des Logozentrismus bewirkt nicht eine Abschwächung des Logozentrismus, sondern umgekehrt dessen Intensivierung. Je massiver die Kritik ist, der er unterzogen wird, desto heller lodert er auf. Ob es sich dabei um ein Strohfeuer oder um eine nachhaltige Renaissance der Vernunft handelt, sei allerdings vorläufig dahingestellt.

Jedenfalls gilt fraglos: Wir sind weit davon entfernt, die Moderne ad acta gelegt zu haben, und das Aufklärungskonzept hat durch die mit der reflexiven Wendung einhergehenden Globalisierung de facto sogar eine Ausweitung erfahren. Das gilt auch auf dem Hintergrund einer stärker fundamentalistisch gefärbten, sich säkular oder missionarisch gerierenden Religionslandschaft. Selbst hier zeigt sich, dass die Globalisierung technologisch greift. Kurz und paradox: Es gäbe keine Al Kaida, wenn es kein Internet gäbe, jedenfalls keine erfolgreiche Al Kaida. Noch der Versuch, der Moderne zu entrinnen, funktioniert nur auf der Grundlage der technologischen Erfolge der westlichen Modernisierung. Noch die Suche nach einer Loslösung von der wissenschaftlichen Rationalität der Moderne ist selbst wissenschaftlich.

Die virtualisierte Technologie und die Kreativität des Denkens

Wo finden, so kann man fragen, denn eigentlich die bahnbrechenden Entwicklungen in den Wissenschaften, etwa in der Molekularbiologie, heute statt? Wo geschieht die Sequenzierung und Dekodierung der Genome von Lebewesen? Rein lebensweltlich und ohne Kenntnis des Wissenschaftssystems würden wir vermuten, dass das in Reagenzglas und Petrischale, jedenfalls aber in irgendeinem Kontext, der etwas mit Chemie oder Biowissenschaften zu tun hat, geschieht. Die Antwort ist aber: Nein, all das ereignet sich zum überwiegenden Teil auf dem Rechner, und das ginge auch aufgrund der erforderlichen Datenmenge und Kombinatorik gar nicht anders. Das heißt, die Weltrevolution der Molekularbiologie, die mit der Identifikation der Doppelhelixstruktur der DNA durch Watson und Crick begann, ist unterdessen längst eine nach Standardverfahren der Informationstechnologie millionenfach reproduzierte Weltrevolution.

Mit anderen Worten: Hier wird das Experiment und die damit zusammenhängende Idee einer empirischen Bewährung wissenschaftlicher Hypothesen z. T. virtualisiert und durch Produkte der virtualisierenden Technologie selbst übernommen, die auf diese Weise ihrerseits selbst als Beweise gelten. Kurz und pointiert formuliert: Die Lauffähigkeit eines Computerprogramms gilt gleichsam als der Beweis, den wir suchen, wenn wir nach empirischen Beweisen fragen. Man kann auch anders formulieren: Der Logozentrismus hat sich hinter dem Rücken der handelnden Akteure aufgrund der durch ihn entwickelten Modellierungs- und Simulationstechnologien als siegreich erwiesen. Das aber ist die Ablösung des platonischen Modells, das wir bis dahin von den Wissenschaften hatten und dem zufolge Theorien gleichermaßen als Kopfgeburten modelliert werden, die dann irgendwo in der Welt der Phänomene ihre lebensweltlich umsetzbare praktikable Bestätigung oder ihre Widerlegung finden.

Informationstechnologie als Fähigkeit des Umgangs mit Computern hat heute den Status einer Kulturtechnik erreicht. Alphabetisierung heißt aber nicht nur Computerfähigkeit, sondern Fähigkeit des Umgangs mit dem Netz, weswegen heute auch zu Recht von „Net Literacy“ die Rede ist. Neben der mündlichen Kommunikation und dem Rechnen sowie der verschriftlichten Form von Kommunikation und Rechnen als den Kulturtechniken, die unsere kulturelle Dynamik im engeren Sinne in Gang gesetzt haben, sind wir unterdessen in den Zustand der Entwicklung einer vierten Kulturtechnik eingetreten, die ebenso wie die Schrift und die mündliche Kommunikation auch das Rechnen überformt und in eine neue Leistungsdimension katapultiert hat.

Bei Lichte besehen haben wir mit der Kulturtechnik der „Net Literacy“ etwas Fantastisches geschaffen, nämlich die Möglichkeit, die Routinen unserer Denkprozesse von Maschinen abarbeiten zu lassen, wodurch dann im Mensch-Maschine-Tandem eigentlich ein gewaltiges Kreativitätspotential freigesetzt werden müsste. Denn wir Menschen haben in dieser Kombination ja nun Zeit, da wir nicht mehr wie früher in 7 Durchschlägen radieren und dauernd in Bibliotheken auf die Fernleihen warten müssen, weil wir eben buchstäblich nun „the knowledge of the world at our fingertips“ haben. Das würde uns Menschen eigentlich ungemein viel Zeit geben, das zu tun, was wir besser können als Maschinen, nämlich eben gerade nicht die fehlerfreie Abarbeitung von Programmen, sondern die Entwicklung kreativer Ideen. Fakt ist allerdings, dass es sich nicht so verhält. Die Summe der menschlichen Kreativität scheint irgendwie konstant zu bleiben, gleichgültig, wie viel man sich bei seiner Arbeit von Maschinen abnehmen lässt – das allerdings ist keine empirisch gestützte These, sondern eine intuitive Behauptung.

Was aber ist es, was die Kreativität des menschlichen Denkens ausmacht? Es ist das, was ich gerne das „ungenaue Denken“ nenne. Wir haben uns ja in der Philosophie angewöhnt, Argumente im akademischen Diskurs nicht so sehr daraufhin zu gewichten und zu prüfen, ob sie plausibel oder wirkungsvoll oder gar erfolgreich sind, sondern danach, ob sie den Regeln einer aus vielen tausend Jahren Argumentationspraxis erst abstrahierten formalen Logik, also der analytischen Transformierbarkeit, entsprechen. Das allerdings hat zur Folge, dass wir, sobald wir diese Argumente außerhalb des philosophischen Seminars, also lebensweltlich, verwenden, immer wieder hören: Das mag ja sein, aber es ist völlig uninteressant, ob es logisch konsistent ist oder nicht. Was sollte eigentlich lebensweltlich problematisch an logischer Inkonsistenz sein? Logische Konsistenz ist – und das ist ein Gedanke der von Friedrich Nietzsche und dem Pragmatismus stark gemacht worden ist – eine eher moralische Forderung der Zuverlässigkeit, und diese hat der Kolonialisierung durch logische Quertechnologie gleichsam den Weg gebahnt: Alles, was logisch konsistent sein muss, können wir über unsere Rechnerprogramme prüfen lassen, dazu bedarf es eigentlich nicht der menschlichen Intelligenz. Was hingegen interessant ist, sind die zündenden Ideen, die innovativ sind, weil sie nicht der Aufarbeitung logischer Folgungsmengen entspringen.

Hierhin gehört zum Beispiel die ungeheure Bedeutsamkeit von Metaphern. Auch hier wiederum muss allerdings eingewandt werden, dass wir den Gebrauch von Metaphern und damit die Schulung von Metaphernfähigkeit eher verteufeln als befördern. Damit minimieren wir aber systematisch die Chance, den semantischen Reichtum unserer Zeichensysteme auszuschöpfen. Neben Metaphern sind es Analogieschlüsse, die durch unsere formale Logik eher unterdrückt als gefördert werden; das Mittelalter wusste es besser und hat die Analogien, nicht zuletzt auch aus theologischen Motiven, systematisch untersucht.

Kurz: Wir hätten eigentlich die Chance, all dieses kreative Potential weiter zu entwickeln, aber wir tun es nicht, oder jedenfalls nicht in dem Maße, in dem wir es tun könnten. Dabei sollten wir es schon aus einfachen informationstheoretischen Gründen stärker versuchen. Denn: „Net Literacy“ heißt eben auch zu verstehen, dass weder Computer noch Netze allein Informationen prozessieren, sie prozessieren nur Daten, und diese werden, wie der Name schon sagt („Datum“ = Gegebenes) gegeben; Informationen entstehen dagegen erst bei dem, dem gegeben wird oder der gibt, also bei der Input- oder Outputoberfläche. Damit es in einem Rechner überhaupt zu Informationen kommt, muss dasselbe gegeben sein wie zwischen einem Buch und einem Leser oder zwischen einem Sprecher und einem Hörer. Von Lichtenberg stammt bekanntlich die schöne Formulierung, dass, wenn ein Buch und ein Kopf zusammenstoßen und es hohl klingt, es nicht unbedingt am Buch zu liegen braucht. Dasselbe gilt – mutatis mutandis – für Nutzer und Rechner oder für Nutzer und Netz. Die Vorstellung, dass die Technologie irgendwo in der Welt sozusagen nutzerunabhängig automatisierte Information generieren und überbringen könnte, ist falsch, und die Fehlerhaftigkeit dieser Annahme eröffnet eine Chance, nämlich diejenige, die Fähigkeit unseres plastischen Denkens, das nicht auf die formalen Transformationen analytischer Art reduziert ist, ins Spiel zu bringen. Das ist die Moral von der Geschichte der Kolonialisierung der Wissenschaft durch die Net Literacy-Quertechnologie.

Die Kolonialisierung der Lebenswelt

Mit dem Gedanken, dass wir mit der Lebenswelt eine sozusagen systemunabhängige Größe vor uns hätten, liegen wir insofern zugleich richtig und falsch, als er zwar zutrifft, aber sich historisch in jeder Situation neu formieren muss. Auch die dem Gedankengang zu Grunde liegende Diagnose von Jürgen Habermas, „die Lebenswelt“ sei durch „das System“ kolonialisiert worden, erweist sich, so betrachtet, als zugleich zutreffend und irreführend. Im Grundsatz trifft zu, dass System und Lebenswelt in Konkurrenz zueinander stehen, aber wenn wir heute fragen, wie denn die derzeitige Lebenswelt systemisch überformt ist, dann kommen wir nicht umhin, den Aspekt, den ich gerade angesprochen habe, näher anzuschauen: dass und wie sich nämlich die heutige Lebenswelt, die sich nicht transzendieren lässt, selber schon gleichsam imprägniert erweist durch das, was man in einer analytischen Vorstufe „System“ nennen könnte.

Seit zwei Jahrzehnten lässt sich so etwas wie eine Hochkonjunktur des Denkens nicht mehr in Informations-, sondern in Netzwerkbegriffen konstatieren. Gewiss, das scheint zunächst einmal nur Rhetorik zu sein, aber diese Rhetorik hat einen interessanten Hintergrund, den man theoriehistorisch aufrollen kann. Wenn man sich fragt, wie denn diese Netzwerkmodellierung in unser lebensweltliches Weltverständnis kommt, sieht man folgendes: Im 10-Jahres-Abstand lassen sich neue Eroberungsfelder der Netzwerkmetapher in Bezug auf wissenschaftliche Disziplinen beobachten. In den 60er Jahren kommt der Begriff des semantischen Netzwerks als Rekonstruktion von Erinnerungsleistungen über Netzwerkmodellierungen auf. In den 70er Jahren wird das auf soziale Kontexte übertragen: Netzwerke sind Träger derjenigen kommunikativen Strukturen, die sich vorher schwer identifizieren ließen und die nun „soziale“ und „ökonomische Netzwerke“ heißen. In den 80er Jahren zieht die Metapher in die Debatte um die Künstliche Intelligenz ein: An die Stelle der klassischen „starken“ KI-These der symbolischen Repräsentation treten nun plastische Modelle der neuronalen Netze; ich brauche nicht daran zu erinnern, dass dazu auch neurobiologische und neurophysiologische Inputs erforderlich waren. In den 90er Jahren schließlich finden wir die Übertragung der Netzwerkmetapher im Zusammenhang der Globalisierung auf ganze Gesellschaften.

Aber erst seit den 90er Jahren hat diese in der wissenschaftlichen Diskussion zu konstatierende Konjunktur der Netzwerkmetapher ihren faktischen Siegszug in der Lebenswelt begonnen, und die Begründung dafür ist die technologische Realität des World Wide Webs (WWW): Erst durch die Existenz eines weltweit realen und in der geschilderten Bedeutung der Quertechnologie sich überall durchsetzenden Netzes kann die Netzwerkmetapher ihre lebensweltliche Plausibilität gewinnen. Natürlich beginnt das – „polemos pater panton“, wie Heraklit sagt – im militärischen Sektor: das ARPANET ist das erste, gleichsam geheime Internet, bei dem die Großrechner von Universitäten in den USA miteinander verknüpft wurden. Dabei handelte es sich um ein Experiment des Pentagon, das dazu dienen sollte, das US-amerikanische militärische Informationsübertragungsnetz durch Dezentralisierung der Gefahr einer Ausschaltung durch einen atomaren Erstschlag der Sowjets zu entziehen. Dies ist sozusagen die geheime Form des real existierenden Netzes; lebensweltlich be-deutsam aber wird dieses erst seit den 90er Jahren. Die Virtualisierung unserer Welt als Lebenswelt beruht in der Tat auf einer ganz gewaltigen, einer revolutionären Durchsetzung der Informationstechnologie als Quertechnologie. Schon Karl Marx hat im berühmten Kapitel 16 des ersten Bandes des Kapital festgehalten, dass es die Technik selbst ist, die revolutionär wirkt. Das lässt sich auch an der Virtualisierung unserer Welt zeigen. Und erneut eröffnet sich hier eine andere Möglichkeit: Wenn, was ja unterdessen faktisch bereits der Fall ist, das World Wide Web noch intensiver mit individuellen Informations- und Kommunikationstechniken, etwa den Handys, gekoppelt wird, zeigt sich, dass hier noch einmal ein gewaltiger Schub wartet, weil die einzige Technologie, die sich lebensweltlich noch schneller als die Vernetzung von Rechnern durchgesetzt hat, die Verwendung von Handys ist. Fraglos wird sich hier eine weitere Bewährung des Moore`schen Verdopplungsgesetzes finden, die unsere Lebenswelt von den Füßen auf den Kopf stellen wird, um ein Marxsches Diktum zu variieren.

Natur als Kulturprodukt

Dadurch ist ein weiterer Bereich der Kolonialisierung erreicht. Dass die Technologie die Wissenschaft kolonialisiert hat, ist im Zusammenhang mit der Natur besonders deutlich im Bereich der Molekularbiologie und Gentechnologie zu sehen. Hier wird deutlich, dass die Natur Kulturprodukt wird. Unabhängig davon war Natur allerdings immer schon – und das wird gegenwärtig immer deutlicher – selbst Kulturprodukt. Das lässt sich durch empirische, erfahrungsgesättigte Befunde phänomenologisch unterlegen. Es lässt sich zeigen, dass (und warum) jeder Versuch von Menschen, unberührte Natur zu finden, – eine Absicht, die die Menschen in einer technologischen Zivilisation umtreibt – misslingen muss. Gesetzt den Fall, man hätte irgendeine Art von Naturreservat identifiziert, in dem einige Ureinwohner noch zivilisationsunberührt leben, müsste man trotzdem desillusioniert sagen, dass man es technologieunabhängig weder identifizieren noch erreichen könnte. Das lässt sich an einem anderen Beispiel klar machen: Man möge nur an die ungeheuren Schwierigkeiten denken, die Kamerateams haben, technologiefreie Situationen zu filmen, wenn man vortechnologische Zivilisation darstellen will, und es gibt kaum eine Möglichkeit, dies anachronismusfrei zu realisieren. Kurz: Es gibt keine Natur. Wer das bezweifelt, soll nur einmal versuchen, alle domestizierten Nutztiere freizulassen, um festzustellen, was passiert, wenn diese gezüchtete Form der Natur in der Natur überleben müsste. Sie würden alle in Kürze tot sein, weil sie für dieses Leben in einer nicht technologisch überformten Natur untauglich sind.

Natur ist eben ein Kulturprodukt, das wissen wir längst, und die Frage ist nicht, wie wir die Natur retten können, sondern wie wir die natürliche Umwelt so konstruieren können, dass sie dabei nicht völlig zerstört wird. Das ist der Ansatzpunkt für einen nachhaltigen Umgang mit Natur. Es gibt niemanden, der freiwillig zugeben würde, dass er nicht für ökologische, für nachhaltige Formen des Umgangs mit Natur einträte, aber die Wenigsten überlegen sich dabei, was das eigentlich bedeutet. Denn es bedeutet eben nicht Rettung oder auch nur Wiederherstellung, sondern Herstellung von Natur. Wie bauen wir eine nachhaltige Natur? muss die Frage lauten und nicht: Wie kommen wir zurück zur Natur? Es gilt hier sozusagen ein Unumkehrbarkeitsprinzip der zivilisatorischen Thermodynamik: Eine Umkehr der technologischen Entwicklung ist unmöglich. Das zeigt ein einfaches Gedankenexperiment: Jeder Versuch, die technologische Zivilisation in Richtung auf einen wie auch immer gearteten Naturzustand zu verlassen, macht seinerseits mehr Technologie erforderlich. Allen Propheten asketischer Moral zum Trotz gibt es keine Möglichkeit, das durch Entsagung zu bewerkstelligen.

Dazu kommt ein weiterer Punkt, der mit einer Hybridisierung der Kolonialisierungsbereiche zusammenhängt: Das, was wir heute konstruktiv als Natur verstehen, ist nicht nur im Sinne der Technik der Veränderung von Organismen, sondern auch im Sinne der Technik des Informationstransports technologisch gekoppelt. In dem Maße, in dem man bemerkt, dass Lebensprozesse Informationsübertragungsprozesse sind, geschieht nämlich plötzlich eine Art inverser Domestizierung oder besser: Kolonialisierung der wissenschaftlich strukturierten Natur durch Hermeneutik. Hans-Georg Gadamer hatte in seiner Rezeption der Thesen von Thomas S. Kuhn darauf bereits hingewiesen: Wir reden wie selbstverständlich – und meinen es nicht nur metaphorisch – vom „Buch der Natur“. Heute allerdings sind wir etwas bescheidener geworden, wir reden von Textstücken oder noch genauer: von Buchstaben der Natur. Aus vier Buchstaben können wir das Alphabet der Natur zusammensetzen, und der Kontext, in dem dies alles erst Bedeutung annimmt, ist die Ebene der Expression von Genen, also die Ebene der Phänomene der lebensweltlich sichtbaren Effekte. Wenn wir etwa an die Debatte um gentechnisch veränderte Nutzpflanzen denken, stellen wir fest, dass das atomistische Informationsübertragungsmodell scheitert. Es verhält sich eben nicht so, dass die Informationen kontextfrei übertragen würden, sondern auch die gentechnische Veränderung von Organismen ergibt erst im Kontext ihren Sinn. Außerdem überleben diese Veränderungen in der Regel nicht mehr als drei oder vier Generationen. Mit anderen Worten: Der Kontext des Gesamtsystems muss berücksichtigt werden. Man kann sich vorstellen, dass sich das so ähnlich verhält wie beim Lesen eines Buches. Auch hier ergibt das einzelne Element erst Sinn im Kontext des Ganzen, der seinerseits sich erst aus dem Sinn des Einzelnen erschließt. Und dieser „hermeneutische Zirkel“ erstreckt sich wiederum weiter auf den Kontext der geistesgeschichtlichen und realgeschichtlichen Entstehung sowie der Rezeptionsgeschichte.

Hier öffnet sich das riesige „Buch der Natur“, das nach dem Muster der Informationstheorie und Informationstechnologie verstanden wird: das „Buch der Natur“ lesen wir auf dem Rechner, und auf dem Rechner wird die Bedeutung des einzelnen Elements in seinen Kontext gerückt. Wir sprechen deswegen zu Recht auch heute, ähnlich wie in der Chemie, von einer „synthetischen Biologie“, also von der Herstellung von Organismen und der Herstellung von Naturprodukten und damit von einer Einlösung des Vico-Axioms. Nach Vico kann man nur das, was man selber gemacht hat, richtig verstehen, nur das ist eigentlich richtige Wissenschaft. Damit hatte er sich gegen die gesamte epistemologische Tradition gestellt und wurde so zum Ahnvater der Selbstlegitimation der modernen Geisteswissenschaften. Aber dieses Vico-Axiom erhält, wenn man es gleichsam selbstreferenziell in dem hier entwickelten Kontext liest, eine ganz andere Bedeutung, nämlich: Die Herstellbarkeit von etwas ist das Wahrheitskriterium der Theorie über etwas. In Bezug auf die Technik wussten wir allerdings bereits, dass „verum ipsum factum“ zuweilen historisch gesehen auch in der umgekehrten Reihenfolge auftaucht: Die Technikgeschichte ist eine Erfolgsgeschichte von gelingendem instrumentellem Handeln, das erst nachträglich wissenschaftlich erklärt werden kann; im 19. Jahrhundert mit der dann einsetzenden Tendenz, Wissenschaft, wie es im Sozialismus hieß, als „Produktivkraft“ einzusetzen, fängt es an, sich zu wenden. Erst von da an entsteht wissenschaftlich geleitete Technik.

Das Resultat ist, wie bereits angedeutet, synthetische Biologie, und diese fällt interessanterweise nicht schon als solche der Technologie- und Kolonialisierungskritik zum Opfer. Gentechnisch veränderte Organismen etwa, so stark sie im Prinzip auch in der Kritik stehen, werden in dem Moment anders gewertet, in dem sie zur Unterstützung von Gesundheit und Bekämpfung von Krankheit verwendet werden. Bürgerbewegungsartige Proteste gegen gentechnisch veränderte Organismen zur Insulinproduktion etwa sind völlig undenkbar, es gibt gar keine Debatte darüber. Das zeigt, dass die Kolonialisierung der Lebenswelt an dieser Stelle deutliche lebensweltliche Argumentationsdifferenzen aufweist: Wenn es darum gehen soll, Hybriden herzustellen, sieht die Diskussion anders aus, als wenn es darum geht, Insulin zu produzieren, dessen Nützlichkeit für die Menschen außer Frage steht. Dann verschwindet auch der Widerstand. Das erinnert in der Rückschau an den Verlust der Popularität der Argumente Joseph Weizenbaums. Weizenbaum hat eine, wenn auch nicht weltweit, so doch zumindest in Deutschland sehr wirkungsvolle Kampagne gegen die flächendeckende Einführung von Computern lanciert und dabei verschiedene, zum Teil interessante Argumente ins Spiel gebracht. Aber diese ganze Debatte ist heute nur noch von historischem Interesse; ihre lebensweltliche Bedeutung ist wie ein letzter Spuk verschwunden. Das heißt, die Kolonialisierung der Lebenswelt durch die Informationstechnologie hat dafür gesorgt, dass kritische Stimmen wie die von Weizenbaum zwar nicht argumentativ widerlegt, aber einfach verstummt sind. Darin lässt sich ein weiteres Indiz für das Zutreffen der These der sich durch Kolonialisierung selbst verkehrenden zweiten Dialektik der Aufklärung sehen.

Die Kolonialisierung des Transzendentalen

Die Metapher, von der wir bei der Kolonialisierung des Transzendentalen auszugehen haben, ist die vom „Schöpfer Mensch“. Dabei geht es um die Selbstschöpfung des Menschen durch die Schöpfung der Welt. Auch hieran lässt sich wiederum die kreative Bedeutung von Metaphern erkennen. Gewiss, die Selbstschöpfung des Menschen ist eine übertriebene Metapher, trotzdem ist sie aber so ganz abwegig nicht. Die Frage ist nämlich die, ob wir hinter unsere eigenen rationalen Argumentationsmuster zurückgehen können. Anders und in der Sprache der Evolutionstheorie formuliert: ob das Individualapriori ein Gattungsaposteriori ist.

Zwar ist die Frage in dieser Weise falsch gestellt, weil es selbstverständlich sein kann, dass etwas in einer Beschreibungsebene oder in einem Beschreibungssprachstil als unhinterfragbare transzendentale Voraussetzung verstanden werden muss, in einer anderen Beschreibungsebene und in einem anderen Sprachstil sich aber durchaus als evolutionär oder evolutionsbiologisch überlebenstauglich erweisen kann. Aber damit ist die eigentlich bewegende Frage noch nicht angesprochen, nämlich die Frage, ob wir mit den Argumenten, die uns etwa die Evolutionsbiologie freizügig liefert, irgendetwas Hilfreiches für die Unterstützung unserer transzendentalen Argumentationsstruktur finden können. Machen wir uns nichts vor: Die Transzendentalphilosophie, so groß und so prägend ihre Geschichte für uns zumindest in unserem Teil der Welt gewesen sein mag, beruht auf einer ganz einfachen logischen Figur, nämlich auf derjenigen der notwendigen Bedingungen oder der schwachen Kausalität. Es wird in der transzendentalen Frage nicht nach der Bedingung der Wirklichkeit oder nach den Ursachen, sondern nach der Bedingung der Möglichkeit gefragt. Das heißt: Ist etwas widerspruchsfrei denkbar oder nicht? Und schon die Widerspruchsfreiheit ist in Klammern zu setzen, weil sie allein als Ausschlusskriterium offenbar nicht ausreicht. Es geht also um die Frage: Wer sind wir eigentlich in der 1. Person-Perspektive angesichts der in der 3. Person-Perspektive gerade angesprochenen Befunde der Kolonialisierung der Lebenswelt durch Technologie, die auch eine Kolonialisierung der Wissenschaft durch Technologie ist?

Die Antwort lässt sich überall finden; sie ist nicht nur naturalistisch, sie ist sogar technologisch oder technologistisch. Wenn wir uns ansehen, wie die Neurobiologen unsere Natur verstehen, so stellen wir fest, dass sie erstaunlicherweise nicht nur jeweils immer den aktuellen Stand der Wissenschaft als dasjenige, worauf die Evolution hinauslaufen muss, ausweisen, sondern noch schlimmer: den jeweils aktuellen Stand der Technik. Bis etwa in die 70er und 80er Jahre werden Gehirne in der Neurologie, aber dann auch in der Neurobiologie wie selbstverständlich nach dem Vorbild von Computern modelliert. Und seit dem Siegeszug der Netzwerkmetapher werden sie wie selbstverständlich nach dem Modell von Netzen modelliert. Die Aktivierungspotentiale, die auf Netzen laufen, werden wie Knoten modelliert, und die Synapsenfunktionen werden mit denjenigen der Knoten in unserer Kommunikations- und Informationstechnologie identifiziert. Mit anderen Worten: Es sieht so aus, als ob dieses Apriori der Modellierung bei der Wissenschaft seinerseits ein technologisches Aposteriori ist, so dass jeweils immer die letzte Form der Entwicklung der technologischen Mode sich in den Modellierungen von Natur findet. Und da drängt sich natürlich die Frage auf, die zunächst noch durchaus kontrafaktisch erscheint, aber vielleicht gar nicht mehr so lange kontrafaktisch sein muss, es sei denn, man tue etwas dagegen, nämlich die Frage: Wie versteht sich der Mensch als Homo sapiens, wenn er zugleich als Homo sapiens auch ein Homo faber ist, der den Homo sapiens selbst verändert? Und damit meine ich nicht marginal, sondern essentiell verändert, das heißt durch genetische Modifizierung als genetisches Doping. Die Frage ist: Was spricht eigentlich dagegen außer elementaren moralischen Intuitionen?

Als der südafrikanische Chirurg Christiaan Barnard die erste Herztransplantation vornahm, wurden analoge Argumente laut, die sagten, hier werde das Zentrum des Menschseins tangiert. Kulturhistorisch lässt sich leicht aufklären, warum man so argumentiert hat und warum das biologischer Unfug war, aber trotzdem war es eine sozusagen transzendentale Abwehrreaktion, die auf natürlichen moralischen Intuitionen beruhte. Was sollte uns nun daran hindern, eine genetische Veränderung, eine Veränderung sozusagen der inneren natürlichen Programmierung wenn nicht unserer, so doch der nächsten Generation vorzunehmen?

Die Antwort darauf ist relativ einfach: Daran hindert uns nichts, außer dass wir merken, dass wir hinter uns als Subjekt auch dadurch nicht zurückgehen können. Gewiss, wir könnten uns als Knoten im Netz modellieren, wir könnten auch im Reagenzglas oder im Rechner uns selber modellieren, und es gibt dazu faszinierende Texte, die allerdings mehr Fiction als Science sind – es sei etwa auf Galouyes „Welt am Draht“ verwiesen, eine wunderbare Science-Fiction-Modellierung, bei der die Menschen nichts anderes als Teile eines großen Gesamtprogramms sind, und zwar inklusive der Meinungen und Ansichten über ihre eigene Körperlichkeit. Das alles lässt sich kontrafaktisch modellieren, aber die Frage ist, ob dadurch das cartesianische Modell, dieses, als was ich dabei immer in der 1. Person auftauche, hintergehbar wird? Und die Antwort auf die erste Frage: Was können wir eigentlich dagegen einwenden, dass wir die Menschen, dass wir uns selbst genetisch verändern?, lautet: Wir können nur versuchen, dagegen zu sein, es gibt aber keine Argumente; wohl gibt es plausible Warnungen wie etwa das „Wehret den Anfängen!“ als „slippery-slope-Argument“ oder den Hinweis auf historische Parallelen in einer etwas simpleren sozial-darwinistischen Denkweise. Aber letztlich gibt es nur das Nein dagegen, und insofern steht am Schluss unserer Überlegungen doch wieder, dass das Ich unhintergehbar bleibt. Aber wenn wir verhindern wollen, dass wir mit diesem Ich Dinge anstellen, die den Menschen, also die 3. Person-Perspektive verändern, dann müssen wir ohne weitere Argumente dagegen sein. Unhintergehbar in der Argumentation bleibt das Ich aber allemal.

UNSER AUTOR:

Walther Ch. Zimmerli ist beurlaubter Professor für Philosophie an der Philipps-Universität Marburg und Präsident der Technischen Universität Cottbus.

Vortrag auf dem Deutschen Kongress für Philosophie in Essen. Von der Redaktion gekürzte Fassung. Die Originalfassung mit allen Belegen erscheint in:
Gethmann, C.F. (Hrsg.): Lebenswelt und Wissenschaft, Deutsches Jahrbuch für Philosophie, Band 2, 2010, Felix Meiner, Hamburg.










Bestellen Sie das Einzelheft oder abonnieren Sie die Zeitschrift.




© Information Philosophie     Impressum     Kontakt