ESSAY
ESSAY |
Druckversion
|
Schrift:
![]() ![]() |
Kanitscheider, Bernulf: Grenzen der Erkenntnis? Naturwissenschaft und Metaphysik |
|
Bernulf Kanitscheider: Grenzen der Erkenntnis? Naturwissenschaft und Metaphysik
Man kann das Verhältnis von Metaphysik und Wissenschaft auf verschiedene Weise angehen, einmal in dem Sinne, wie dies in der jüngeren Philosophiegeschichte geschehen ist, nämlich durch Etablierung von Abgrenzungskriterien, die ausdrücken, wie die beiden Erkenntnisbereiche zu konstituieren sind. Diesen methodologischen Zugang ha-ben in der Vergangenheit der Logische Em-pirismus und der Kritische Rationalismus gewählt. Beide Strömungen der analytischen Philosophie haben sich bemüht, Kontrollkriterien auszuarbeiten, die es ermöglichen, eine Aussage oder einen kontextualen Zusammenhang als metaphysisch oder als wissenschaftlich zu diagnostizieren. Die generelle Tendenz des methodologischen Ansatzes zeigt eine starke Libera-lisierung auf, man ist heute sehr tolerant geworden in der Einführung unbeobachtbarer Entitäten, man verlangt eigentlich nur mehr, daß die nicht sichtbaren Elemente der Naturbeschreibung eine echte Erklärungs-kraft besitzen, d.h. daß damit eine größere Kohärenz im nomologischen Netz der Phänomene erzeugt wird. Nun kann man aber auch anders vorgehen und von den Einzelwissenschaften her fragen, welche Bereiche der Realität denn eigentlich noch Kandidaten für einen nichtwissenschaftlichen, also metaphysischen Zugang zur Welt sein könnten. So glaubte Du Bois-Reymond 1872 das Problem der Materie, worin er die Verein-barkeit von atomistischer Teilbarkeit und substantieller Raumerfüllung verstand, als unlösbar erkannt zu haben. Darüber hinaus meinte er, daß die Entstehung des Bewußtseins ein permanentes Rätsel bleiben würde. 1880 fügte er noch weitere grundsätzlich unüberwindliche Schwierigkeiten hinzu wie den Ursprung der Bewegung und das Problem der Willensfreiheit. Die Entstehung des Lebens, die scheinbar teleologische Verfassung der Natur und den Ursprung von Sprache und Denken hingegen rechnete er zu den ungelösten, aber langfristig lösbaren Fragen. Sieht man sich seine Begründung an, so wird schnell klar, daß die angeblichen Unmöglichkeiten allesamt in bestimmten Annahmen der klassischen Physik fußen wie dem Teilchenkonzept und der Existenz von bestimmten Kräften. Es handelt sich also um relative Unmöglichkeiten, die nicht lo-gischer Natur sind, sondern nur in bezug auf den klassischen Theorienbestand gelten. Es ist sehr lehrreich, sich die Verschiebungen zu vergegenwärtigen, die 120 Jahre später in bezug auf diese Klassifikation in lösbare und prinzipiell unlösbare Probleme eingetreten sind. Die Reichweite der Mechanik Die Physik hatte seit dem Siegeszug der Newtonschen Mechanik ihre paradigmati-sche Rolle innerhalb der Naturwissenschaf-ten ungeheuer stärken können. Sogar für Disziplinen aus dem Bereich der Sozialwissenschaften wie die Ökonomie versuchte Adam Smith noch mechanische Modelle zu erstellen, und Joseph Priestley bemühte sich, eine philosophische Anwendung new-tonscher Ideen für eine Lösung des Freiheitsproblems zu finden. Philosophen wie Immanuel Kant bestätigten, daß ein wesentlicher Zug der Mechanik, nämlich die Mathematisierung, die Reife und Aussage-kraft einer Wissenschaft ganz generell bestimmen, Chemie und Biologie bemühten sich, Newtons Vorbild vor Augen, mit wach-sendem Erfolg den Status einer quantitativ formulierten Wissenschaft zu erreichen. Auch wo dies nicht gleich möglich war, etwa bei Darwins Evolutionstheorie, stand kausalmechanistisches Denken als Leitbild im Hintergrund. Modellbildung im Sinne der klassischen Mechanik schloß damals eine anschauliche raumzeitlich verfolgbare Rekonstruktion der Naturprozesse ein. Prototypisch für das Ideal der Begriffsbildung in der Zeit vor der Quantenwende hat es Lord Kelvin in seinen "Baltimore Lectures" ausgedrückt: "Nur eine Erklärung, die die Form eines mechanischen Modells besitzt, kann als echte Erkenntnis betrachtet werden." Die Mechanik besaß damals eine so starke Vorbildfunktion, daß man auch den elektromagnetischen Vorgängen mechanistische Prozesse unterlegte. Erst gegen Ende des 19. Jahrhunderts setzte sich die Auffassung durch, daß das elektromagnetische Feld eigene dynamische Freiheitsgrade besitzt und einen selbständigen Teilnehmer in einer physikalischen Ontologie darstellt. Dies passierte übrigens einige Jahrzehnte später auch mit dem metrischen Feld, das die Struktur der Raumzeit beschreibt. Auch dieses Feld, das zuerst nur als Lückenbüßer für die Fernwirkungen der Newtonschen Gravitationstheorie angesehen worden war, wurde mit der Zeit eine autonome Entität der Physik. Das war allerdings eine Entwicklung, die im 20. Jahrhundert stattfand. Im 19. Jahrhundert stand auch die Thermodynamik unter dem Leitbild der Mechanik. Ludwig Boltzmann betrachtete es als sein Lebensziel, auch die irreversiblen makroskopischen Phänomene mittels einer im Sin-ne der Wahrscheinlichkeitstheorie gedeute-ten Mikromechanik zu verstehen. Sicherlich nicht Newton selbst, aber die späteren Protagonisten seines Forschungsprogrammes wie etwa Laplace hatten das Zukunftsbild einer vollständig mechanisch beschreibbaren Natur mit Einschluß der Besonderheiten aller komplexen Systeme, darunter auch des Menschen, entworfen. Philosophiehistorisch betrachtet, ist der Gedanke einer umfassenden Naturbeschrei-bung genaugenommen schon durch den ontologischen Ansatz Descartes' nahegelegt. Unter dem philosophischen Aspekt ist die Natur res extensa, in modernen Termen würden wir einfach Raum sagen und dann mit einem Blick auf die spezielle Relativitätstheorie Raumzeit. Die res cogitans, bei Descartes noch säuberlich davon geschieden, umfaßt einen so kleinen Teil aller Prozesse, daß die Reduktionsidee sich ge-wissermaßen aufdrängt. David Armstrong hat der Frage die suggestive Wendung gegeben: Warum soll man aus der gewöhnlichen naturwissenschaftlichen Behandlung jene winzige Klasse von Prozessen ausnehmen, die doch nur einen kleinen Oberflächeneffekt auf dem dritten Planeten eines sonst nicht weiter ausgezeichneten Sonnensystems darstellt? Unterstützung für eine einheitliche mechanische Verfassung des ganzen Weltgebäudes, wie es Kant ausgedrückt hat, kam auch von der Biologie her. Darwins Entwicklungsmodell von 1859, obwohl nicht quanti-tativ formuliert, war im Grundansatz mechanistisch. Die Ausdehnung dieser Theorie auf den Menschen brachte 1871 die entscheidende Erweiterung, und obwohl Darwin es nur in Briefen ausgedrückt hat, kann es als seine Überzeugung angesehen werden, daß auch der menschliche Geist nicht von der Evolution ausgenommen sein kann, ohne daß seine Theorie grundsätzlich gefährdet wäre. Innerphysikalisch betrachtet, gewann gegen Ende des 19. Jahrhunderts der Feldgedanke mehr und mehr an Bedeutung. Max Abra-ham, H.A. Lorentz, Henri Poincaré und Wilhelm Wien versuchten eine einheitliche feldtheoretische Beschreibung der Materie. Auf der Basis von Lorentz' elektromagne-tischer Feldtheorie sprach man bereits von einem elektromagnetischen Weltbild. Außer-physikalisch, also in bezug auf die angrenzenden naturwissenschaftlichen Disziplinen und die Geisteswissenschaften, war es nicht wesentlich, ob letztendlich die Theorie der Materie oder eine Theorie des Äthers die Oberhand gewinnen würde, entscheidend war, daß von der Physik her eine einheitliche Naturbeschreibung angeboten wurde. So gesehen mehrten sich gegen Ende des 19. Jahrhunderts von verschiedenen Seiten her die Indizien, daß der Weg der Naturwissenschaft eigentlich nur konsequent weitergegangen werden müßte, um ein korrektes, umfassendes Bild der Natur mit Einschluß des Menschen und seiner kulturellen Aktivitäten zu erhalten. Ausdruck dieser optimistischen wissenschaftlichen Weltauffassung ist David Hilberts berühm-tes Wort aus dem Jahre 1930: "Der wahre Grund, warum es Comte nicht gelang, ein unlösbares Problem zu finden, besteht meiner Meinung nach darin, daß es ein unlösbares Problem überhaupt nicht gibt. Statt des törichten Ignorabimus heiße im Gegenteil unsere Losung 'Wir müssen wissen und wir werden wissen'." Dabei spielt Hilbert auf Auguste Comtes Behauptung von 1830 an, daß der chemi-sche Aufbau der Sterne uns Menschen immer ein Rätsel bleiben muß. Bereits 1859 konnten Kirchhoff und Bunsen über die Spektralanalyse Elemente der Sternatmosphären entschlüsseln. Fast zur gleichen Zeit wie Hilbert schreibt Einstein die selbstbewußten Worte: "Wir wollen nicht nur wissen, wie die Natur ist und wie ihre Vorgänge ablaufen, sondern wir wollen nach Möglichkeit das vielleicht utopisch und anmaßend erscheinende Ziel erreichen zu wissen, warum die Natur so und nicht anders ist." Damit umreißt er bereits das Programm einer vollständigen physikalischen Theorie, in der es keine zufälligen, frei wählbaren Elemente mehr gibt. Das Eindringen der Naturwissenschaften in fremde Bereiche In den Geisteswissenschaften und der Philosophie konnte sich nie dieser Erkenntnisoptimismus ausbreiten. Hier war immer etwas von der Ambivalenz der Aufklärung zu spüren. Einerseits kann man einer erkannten, in ihrer Funktionsweise durchschauten Natur furchtlos begegnen, sie verändern, sie zum eigenen Nutzen wenden; auf der anderen Seite tritt aber auch eine gewisse Ernüchterung ein, manche Phänomene verlieren ihren Zauber, wenn man sie verstanden hat. Max Weber hat das Wort von der Entzauberung der Welt geprägt. Nicht nur Philosophen wie Wittgenstein, sondern auch Naturwissenschaftler haben immer wieder versucht, ein Refugium des Unsagbaren, des Unlösbaren und des Mystischen aufrechtzuerhalten. Darum sollten auch Phänomene wie Subjektivität, Emotionalität, menschliche Freiheit und die Gründe für moralisches Handeln von den analytischen Verfahren der Naturwissenschaft verschont bleiben. Forscher, die diese lebensweltliche Sphäre nicht respektieren, die die wissenschaftli-chen Methoden ohne Begrenzung angewandt haben wollen, werden gefürchtet und zumeist abgelehnt. In gewissem Sinne leben wir in einer geistigen Welt, die von bizarren Gegensätzlichkeiten geprägt ist: Die besten Theoretiker der mathematischen Physik ver-suchen das zu konstruieren, was man im Amerikanischen schlicht T.O.E. nennt, "the theory of everything", sei es nun in Form von einer supergravity, einer superstring, einer twistor theory oder als pregeometry. Auf der anderen Seite gibt es theoretische Physiker, die das Ende des naturwissenschaftlichen Zeitalters verkünden und eine neue idealistische Bewußtseinsphilosophie in Bewegung setzen. Die Geisteswissenschaften, die seit Windelbands berühmter Typisierung der Methodologien in ideographische und nomothetische zumeist ihre methodologische Autonomie betonen, verstärken ihrerseits die Anstrengungen, ihre Eigenständigkeit zu behaupten. Ihre Befürchtungen werden in gewissem Sinne verständlich, wenn man ihr Paradebeispiel, die Philosophie, betrachtet, die sozusagen im Zentrum der Geisteswissenschaften steht. Die Philosophie, in der älteren griechischen Zeit die Mutterwissenschaft aller Fächer schlechthin, mußte nach und nach ihre Kinder entlassen. Viele ka-men zu hohen Ehren, unter ihnen auch die empirischen Naturwissenschaften. Der Abspaltungsvorgang ist nicht etwa auf die griechische Antike beschränkt. Eine der jüng-sten Verselbständigungen eines alten Zweiges der Philosophie betrifft die physikalische Kosmologie. So geschehen im Jahre 1917. Durch Einsteins Entdeckung der Zylinderlösung seiner Feldgleichungen wurde erstmals ein konsistentes Modell der Welt im Großen geschaffen, das frei von Paradoxa war und das den Anspruch erhob, alles physikalisch Existierende zu umfassen. Damit kam auch du Bois‑Reymond's zweites ignorabimus‑Beispiel in die Reichweite der wissenschaftlichen Rationalität: der Ursprung der Bewegung. Neben der Überführung von Teilen der Philosophie in empirisch testbare naturwis-senschaftliche Theorien kennen wir eine Reihe von wissenschaftsgeschichtlichen Fällen, wo ältere apriorische, rein begriffliche Wissenszweige unter den Einfluß physikalischer und damit letztlich empirischer Methoden gerieten. Ein älteres Beispiel ist die Geometrie, wo durch die Entdeckung der nichteuklidischen Geometrien um die Wende vom 18. zum 19. Jahrhundert ein empirisches Entscheidungsproblem entstand, welche Geometrie rechtens zur Wiedergabe der Struktur unseres Erfahrungsraumes dienen könnte. In jüngerer Zeit hat die Logik, zu Zeiten des Aristoteles eine philosophische Apriori‑ Disziplin, eine ähnliche Aposteriorisierung erfahren. Im 19. Jahrhundert wurde die Logik durch die Bemühungen von Frege und Russell mit der Mathematik verbunden. Die Quantenmechanik brachte die Frage ins Spiel, ob die Logik so ähnlich wie die Geo-metrie nicht nur eine mathematische Diszi-plin, sondern auch ein Teil der Physik werden könnte. Als man die Logik in Begriffen empirischer Operationen deutete, erhielt sie eine neue Semantik, aber auch einen neuen methodologischen Status. Die Wende zur Quantenlogik kam 1936. Garret Birkhoff und Johann von Neumann versuchten, die logischen Strukturen zu entdecken, die hinter physikalischen Theorien wie der Quantenmechanik verborgen sind und die nicht mit der klassischen Logik übereinstimmen. Sie wagten die Be-hauptung, daß die Quantenphysik eine nichtaristotelische Logik erfordert, nämlich einen Aussagekalkül, der einem orthokom-plementären modularen Verband entspricht. Dies war der Beginn einer innerphysikalisch wie auch wissenschaftstheoretisch geführten Debatte über den Status der physikalischen Logik. Vordem unstellbare Fragen wurden nun im Prinzip beantwortbar: Warum hat die Erfahrungswelt eine fast euklidische Struktur? Warum ist die Algebra der Ereignisse der grobsinnlichen Welt gleich einer klassischen Logik? Diese drei Beispiele von Kosmologie, Geo-metrie und Logik lassen die Befürchtungen verstehen, daß die Naturwissenschaft mit ihren spezifischen Methoden auch weiterhin in fremde Bereiche eindringen wird, um neue Fragenbereiche zu erschließen. Die Furcht vor einer Hegemonie der Naturwissenschaften gründet in erster Linie in der Abneigung gegen die begriffliche Transfor-mation, die mit dem naturwissenschaftlichen Denkstil verbunden ist. Dies läßt sich wie-derum gut am Beispiel der physikalischen Kosmologie studieren. Diese Disziplin expandiert gegenwärtig in Bereiche hinein, die bis vor kurzem ausschließlich der Metaphy-sik vorbehalten waren. Wenn jemand bis vor wenigen Jahren den Ausdruck Eschatologie gebrauchte, so meinte er wahrscheinlich einen theologischen Kontext oder er dachte, wenn er philosophiehistorisch gebildet war, an Kants Abhandlung von 1794, Das Ende aller Dinge. Im Jahre 1969 führte der bekannte Astro-physiker Martin Rees die Bezeichnung "physikalische Eschatologie" zum erstenmal für eine Analyse der Entwicklung der kos-mischen Strukturen zu sehr späten Zeiten ein. Zehn Jahre später bemühte sich Free-man Dyson, die methodologischen Voraus-setzungen der physikalischen Eschatologie zu klären und diesen Newcomer im Verband der Physik als strenge Wissenschaft zu etablieren. Durch Arbeiten von John Barrow und Frank Tipler wurden auch die Konsequenzen der Quantenmechanik und Quantenfeldtheorie für das späte Universum reflektiert, so etwa die Instabilität des Protons, die quantenmechanischen Tunneleffek-te und der Strahlungszerfall schwarzer Löcher. Der Eingriff der Quantenmechanik veränderte auch das Bild der Frühzeit des Universums. Und wieder stößt die Physik in alte Bereiche der Metaphysik vor. In seriösen Abhandlungen über Quantenkosmologie taucht heute die Frage nach der Entstehung des Universums auf. Im Rahmen erster An-sätze einer Theorie der Quantengravitation eröffnet sich die begriffliche Möglichkeit eines sich selbst erzeugenden Universums, in dem Raumzeit und Materie spontan als Ergebnis von Quanteneffekten auftauchen. Die Motivation der Physiker wie etwa Alexander Vilenkin zur Konstruktion einer sogenannten "complete cosmology" lag nicht in ungebremsten Hegemoniebestre-bungen, sondern darin, daß das Standardmo-dell der Kosmologie immer noch eine Reihe von willkürlichen Anfangsbedingungen ent-hielt, die man nicht aus tieferen Prinzipien verstehen konnte. Es ist die Eigendynamik der theoretischen Entwicklung bzw. der Sachzwang physikalischer Erklärungen selbst, der diese Ausgriffe in klassische Probleme der Philosophie steuert. Dies gilt auch für das neue Modell der Quantenkos-mologie von Stephen Hawking und Jim Hartle. Das Ziel dieses Vorschlages für die Wellenfunktion des Universums liegt nicht in den metaphysischen und theologischen Konsequenzen, sondern in der Beseitigung der Unvollständigkeit der klassischen relativistischen Beschreibung. Wenn man die Methode der Euklidischen Wegintegrale verwendet und das Wahrscheinlichkeitsmaß nur für die Klasse der kompakten Metriken definiert, erhält man ein physikalisch geschlossenes Modell. Kompakte Metriken haben keine unbeobachtbaren asymptotischen Bereiche, keine Ränder der Raumzeit im Unendlichen oder Singularitäten, wo von außen die Randbedingungen vorgegeben werden könnten. Das Universum wäre in diesem Fall "completely self contained", d.h. vollständig durch die Gesetze der Physik bestimmt. Dies ist der Sinn des vielzitierten Satzes von Hawking: "The boundary condition of the Universe is that it has no boundary:" Die "no boundary condition" ist natürlich eine Hypothese, die von ihrer Voraussage-kraft für das beobachtbare Universum lebt; und keine apriori‑Behauptung. Über den Anschluß an das inflationäre Szenarium oder die Berechnung des Wertes der l‑ Konstante könnte die "keine Grenzen Bedingung" falsifiziert werden. Alle jene, die diese Entwicklung mit Miß-trauen verfolgen, weisen bei ihrer Kritik in erster Linie auf die Transformation hin, die die Physik an den älteren Problemstellungen vornimmt. Bis zu einem gewissen Grade ist dieser Einwand verständlich. Eine metaphysische Idee erfährt, wenn sie zu einer metrisch quantitativen Hypothese umgestaltet wird, eine semantische Verschiebung, wodurch sicher nicht mehr die gesamte ursprüngliche Intuition erfaßt wird. Physikalisierung bedeutet Einengung, Ausblendung emotionaler Nebenbedeutungen, Vereinfachung auf mathematisch Handhabbares. Je-de Rationalisierung ist, da sie übersetzen muß, zweifellos mit einem gewissen Maß an Unbestimmtheit verbunden. Der Weg von einer metaphysischen Vortheorie zu einer quantitativ formulierten physikalischen Hypothese ist kein rein logischer Schritt, sondern ein Rekonstruktionsübergang, wo-bei der Rekonstrukteur sich bemüht, die Kernbedeutung des Problems in sprachlich neuer Form beizubehalten. Die mit dem Übergang verbundene semantische Verschiebung ist sehr gut an dem schon erwähnten kosmogonischen Problem zu studieren. Bei der spontanen Entstehung des Universums spielt das quantenfeldtheore-tische Vakuum eine entscheidende Rolle. Dieser Nachfolgebegriff zum leeren Raum der klassischen Atomisten, mathematisch als lokales oder globales Minimum der Energie bestimmt, hat eine innere Struktur, eine Aktivität; das Quantenvakuum kann wegen der Unschärferelation nicht die völlig inaktive Leere sein. Diese Mikrostruktur des Vakuums, die unvermeidlichen Schwankungsprozesse, bilden jenes Substrat, von dem die kosmogonischen Spekulationen An-fang der 70er Jahre ausgingen. Inzwischen haben Zel'dovich, Gott u.a. auch mit schwächeren Voraussetzungen Szenarien entworfen, wo Raumzeit und Materie als einziges Quantenereignis entstehen und wo dann ein Embryokosmos in Planck‑Dimensionen über einen Inflationsmechanismus an die Friedmann‑Welt unserer heutigen Erfahrung angeschlossen wird. Man ist sicherlich gut beraten, skeptisch zu sein gegenüber diesen kühnen Entwürfen, und viele von ihnen werden vermutlich die nächste Dekade nicht erleben. Aber dennoch ist es wissenschaftstheoretisch erstaunlich, daß Fragen, von denen man bis vor kurzem dachte, daß sie im naturalistischen Paradigma weder formulierbar noch behandlungsfähig seien, so semantisch transformiert werden können, daß dabei zumindest mathematisch formulierbare physikalische Aussagen entstehen, auch wenn diese gegenwärtig von einer empirischen Kontrolle noch sehr weit entfernt sind. Als einer der Gründe für den Widerstand gegen die Ausweitung der naturwissenschaftlichen Domäne wird immer wieder der den Naturwissenschaften inhärente Reduktionismus angeführt. Sicher verdankt die moderne Naturwissenschaft zum großen Teil ihren Erfolg der Praxis, daß sie von einer höheren Organisationsebene von Systemen zu deren Detailstruktur analytisch fortschreitet. In einem bestimmten Sinne bringt diese Methode, komplexe Systeme aus einfachen Bestandteilen und ihren Wechselwirkungen zu verstehen, auch heute noch erstaunliche Erfolge. Dieses atomistische Verfahren liegt auch dem Standardmodell des Aufbaus der Materie zugrunde. Dort gibt es eine tiefste Beschreibungsebene, nämlich die der Quarks und Leptonen, welche unter der charakteristischen Wirkung von drei Kräften und unter Befolgung bestimmter Symmetrien die makroskopischen Strukturen der sichtbaren Welt aufbauen. Dem Forschungsprogramm, eine große einheitliche Theorie aller Kräfte zu finden, liegt die letztlich atomistische Strategie zugrunde, bestimmte Basisentitäten, entweder Punktteilchen in der Supergravitation oder schwingungsfähige, saitenähnliche Gebilde in den Superstringtheorien, hypothetisch anzusetzen, um daraus in einer langen Kette von Deduktionen die Phänomene der sichtbaren Natur zu erklären. Dabei ist darauf zu achten, daß das Denken in elementaren Konstituenten nicht gleichbedeutend ist mit der Vernachlässigung emergenter Systemeigenschaften, die sich auf einer bestimmten Ebene der Komplexität manifestieren. Jene Quantenfeldtheorien, welche heute so erfolgreich den Aufbau der Materie regieren, stellen eine konsequente Weiterführung der ursprünglichen Quantenmechanik dar. Diese hat, wie wir seit Schrödingers Arbeit von 1936 wissen, durchaus holistische Züge. Durch den Nachweis der EPR‑Korrelationen ist dies auch empirisch eindrucksvoll bestätigt worden. Holismus in der Quantenmechanik ist nun gar nichts Gespenstisches. Man kann sogar umgekehrt argumentieren, daß es gerade die Quantenmechanik war, die dem Holismus einen klaren Sinn gegeben hat. In vielen metaphysischen Kontexten wurde von dem Satz Gebrauch gemacht, daß das Ganze mehr als die Summe der Teile sei. Jedoch blieb es meist der Analyse unzugänglich, worin dieses "Mehr" bestehen könnte. Es war gerade die Quantenmechanik, die durch den Begriff des verschränkten Systems und der nicht faktorisierbaren Wellenfunktion eine Explikation des Holismus lieferte. Eine Idee, die von den Ganzheitspsychologen, Vitalisten und in organologischen Kategorien denkenden Biologen verwendet wurde, erhielt nach ihrer Transformation in einen physikalischen Kontext mittels der mathematischen Sprache des Hilbert‑Raum‑Formalismus eine klare Gestalt. Reduktion muß also nicht unbedingt antithetisch zu systemtheoretisch orientiertem ganzheitlichem Denken stehen. Auch wenn alle Systeme, die anorganischen, die lebendigen und die mentalen, ontologisch letztlich nur aus einer auf der Elementarteilchenebene festzumachenden Trägersubstanz bestehen sollten, bedeutet dies nicht die Elimination von Systemeigenschaften, die dann und nur dann auftreten, wenn viele Teilchen in Wechselwirkung stehen. Der Terminus "Reduktionismus" wurde im vorstehenden nur in der bescheidenen Form verwendet, wonach es eine materiale Grundsubstanz in der Natur gibt, die Träger aller komplexen Prozesse höherer Organisation ist. Das Schlagwort "Reduktionismus" taucht in vielen Verwendungen auf. So wurde er gelegentlich auch mit dem stärkeren Erkenntnisanspruch verbunden, daß Makrotheorien immer von Theorien mit mikroskopischen Elementen ableitbar sein müßten. Bei allen bekannten Fällen, etwa bei dem Verhältnis von phänomenologischer Thermodynamik und statistischer Mechanik oder von Quantenchemie und Quantenmechanik stellte sich bei näherem Zusehen heraus, daß eine starke epistemologische Reduktion ohne wesentliche Zusatzannahmen nicht zu rechtfertigen ist. Man könnte meinen, daß man mit dem im vorstehenden skizzierten schwachen ontologischen Reduktionismus, der ja relativ wenig, eigentlich nur rein spiritualistische Entitäten ausschließt, einen gemeinsamen Nenner gefunden hätte, auf den sich Natur- und Geisteswissenschaften einigen könnten. Es wäre eine Position, die man mit dem Schlagwort charakterisieren könnte: Einheit in der Trägersubstanz, Pluralität in den emergenten Strukturen. Die Vielfalt der Welt wäre danach in der Hierarchie der Organisationsniveaus ihrer Systeme begründet. Ein Fragenkomplex, der 1872 völlig außerhalb der Sichtweite der klassischen Naturwissen-schaft lag, die komplexe Hierarchie alles Seienden zu verstehen, rückte damit einer Lösung näher. Ein Argumentationsstrang mit dem Ziel, die Bereiche von Natur‑ und Geisteswissenschaften enger aneinander heranzuführen, wurzeln im Forschungsprogramm eines evo-lutionären Weltbildes. Man kann heute eine relativ gut etablierte Kette von Entwicklungsschritten aufweisen, die von einem symmetrischen, heißen, schnell expandierenden, strukturlosen Universum zu dessen reichhaltigen Untersystemen führt. Galaktische, stellare und planetare Entwicklungsstufen lösen sich ab und liefern letzten Endes die Basen für die biologische und neuronale Evolution im engeren Sinne. De-ren Produkte sind unsere Ideen über die Welt selber. In dieser Sichtweise kann Ideation als innere Repräsentation von bestimmten äußeren Strukturen der Natur gefaßt werden. Erkenntnis ist danach ein später Evolutionsschritt der Natur selbst. Zweifelsohne umfaßt eine solche Hierarchie von Evolutionsvorgängen eine große Zahl von Entwicklungsmechanismen verschiedenster Dynamik. Das Hauptziel eines evolutionären Weltbildes muß es sein, das Ineinandergreifen, die Verschränkung der verschiedenen Evolutionsmechanismen zu verstehen, um zu klären, wann und unter welchen Bedingungen ein Universum Erkenntnis seiner selbst hervorbringen kann. Es ist wichtig, sich zu vergegenwärtigen, daß eine solche Konstruktion nicht nur von der Naivität ungehemmter naturwissenschaftlicher Spekulation lebt, sondern wesentlich auch von der professionellen Philosophie getragen wird. Willard Van Orman Quine hat aus einer Kritik des empiristischen Begründungsprogrammes heraus zu dem Ergebnis gefunden, daß es grundsätzlich nur eine Gesamttheorie der Natur geben kann, innerhalb deren das Wissen über die Welt als ein Teil derselben zu führen ist. Wenn die Ideen über die Natur nicht aus der Natur herausfallen sollen, bedarf es einer Theorie, die die Entstehung, Entwicklung und Aufrechterhaltung von neuronalen Systemen beschreibt, die der Ideation fähig sind und in deren Rahmen Gedanken einen Status innerhalb der Welt besitzen. Eine solche Theorie kann natürlich in Einklang mit dem früher über Reduktion und Emergenz Gesagten nicht einfach eine physikalische Theorie sein, obwohl sie durchaus naturwissenschaftlichen Charakter tragen kann. Ansätze zu einem solchen Entwurf wurden bereits vorgelegt. Charles J. Lumsden und Edward O. Wilson haben, um nur ein Beispiel zu nennen, einen Ansatz zu einer Naturgeschichte des Denkens eingebracht, bei dem die intellektuellen Fähigkeiten des Menschen als Wechselwirkungsprodukte einer biologisch‑kulturellen Koevolution verstanden werden. Hier wird zwar von der biologischen Trägerbasis der Intellektualität Gebrauch gemacht, dennoch wird die Autonomie des Kulturellen betont und die Fähigkeit der mentalen Ebene zur Interaktion mit dem organischen Träger eingesetzt. Bereits an dieser Theorie einer naturhistorischen Rekonstruktion von Intellektualität, die den bemerkenswerten Titel Genes, Mind, and Culture trägt, kann man sehen, was gebraucht wird, um den Hiatus zwischen naturwissenschaftlicher und literarischer Kultur zu überwinden. Nicht eine eli-minative Reduktion der mentalen, sozialen und geistigen Kategorien auf die physikalische Ebene, also eine Art Wegerklären kul-tureller Realitäten, ist der rechte Weg, sondern man braucht Brückendisziplinen, die die Autonomie emergenter Systemeigenschaften des Kulturellen anerkennen und die Dynamik der Ideen als natürliche Prozesse verstehen lassen. Dazu ist kein Bruch mit dem naturalistischen Grundverständnis der Realität notwendig, also mit der Annahme, daß der Aufbau auch der komplexesten Systeme ge-setzesartig und im Prinzip intelligibel und rekonstruierbar ist. In mehreren Bereichen, die früher eine reine Domäne der Geisteswissenschaften, respektive der Philosophie waren, wie etwa das menschliche Sozialverhalten und dessen moralisches Regelsystem, haben Brückenwissenschaften wie z.B. die Soziobiologie bedeutsame und bedenkenswerte Erklärungsangebote gemacht. Der na-turalistische Ansatz in der Soziologie und Ethik eliminiert nicht die kulturellen Spezifika des Menschen, sondern erinnert nur daran, daß jede Aktivität des Menschen, einschließlich seines bewußten Handelns, sozialen Interagierens und seiner kulturellen Leistungen, eine materielle Basis besitzt. Diese Basis ist nicht gesetzlos oder strukturell amorph, sondern besitzt die Fähigkeit zur Selbstorganisation. Die Kulturgüter, die Menschen geschaffen haben, hängen auch mit deren genetischer Konstitution zusammen, die wiederum mit der Umgebung in Wechselwirkung steht. Wenn man nach einer Erklärung der heute anerkannten Regeln des Handelns sucht, wird man die materielle Basis des moralischen Empfindens nicht vernachlässigen können. Die Einsicht in den kausalen Zusammenhang der Genese unserer moralischen Verhaltensregeln ist nicht nur von intellektuellem Interesse. Normensysteme werden ja nicht als reine Spiele erfunden, sondern sie sollen an realen Biopopulationen durchgesetzt werden. Die Individuen dieser Populationen müssen von ihrem natürlichen genetischen Programm her die moralischen Anforderungen auch erfüllen und durchhalten können. Es ist nicht sinnvoll, vehement gegen bestehende Verhaltensdispositionen zu normieren. Eine solche Forderung, die die Aufstellung einer Norm erst sinnvoll macht, hat den Charakter eines Brückenprinzips. Es verbindet deskriptive Sätze der Naturwissenschaft mit normativen Zielen der Regelung des Sozialverhaltens großer Gruppen von kooperativen Lebewesen. Das Bestreben, Brücken zwischen der menschlichen Domäne des Geistes und der von der Naturwissenschaft verwalteten Domäne der belebten und unbelebten Materie zu schlagen, wird heute allenthalben sichtbar. Der harte Antagonismus, wie er noch im 19. Jahrhundert existierte, zwischen einem Naturalismus, der sich meist mit einem eliminativen Materialismus verband, und einem metaphysischen Spiritualismus, der Existenzweise, Ursprung und Wechsel-wirkung mit der übrigen Realität im Dunkeln ließ, erwies sich als eine vorschnelle Simplifikation. Daraus erklärt sich auch die Erkenntnisskepsis von du Bois‑Reymond. Neue Disziplinen, wie etwa die Ungleichgewichtsthermodynamik von llya Prigogine und P. Glansdorff oder die Synergetik, haben sich zwischen die Fronten geschoben. Aus ihnen kann man entnehmen, daß die Anerkennung neuartiger Eigenschaften von Systemen durchaus in Einklang damit steht, daß der Prozeß der Entstehung dieser spezifischen Qualitäten kausal erklärbar ist. Solche Selbstorganisationstheorien nehmen den komplexen Gebilden den Charakter der Rät-selhaftigkeit und der Undurchdringlichkeit, bewahren auf der anderen Seite aber die Autonomie und die Realität der höheren Or-ganisationsformen. Prigogine versteht seine Theorie explizit als Vorschlag zur Vermittlung zwischen Physik und Metaphysik mit dem Ziel, daß der Mensch nicht mehr notwendig aus dem Anwendungsbereich der Naturwissenschaft ausgeschlossen ist. "Es ist wichtig einzusehen, daß Leben mit seinen biologischen und soziokulturellen Aspekten nicht länger eine Ausnahme von den Naturgesetzen darstellt ...", "diese Aspekte des Lebens sind in Einklang mit diesen Ge-setzen, wenn man die wichtigen Momente des 'Ungleichgewichtes' und der 'Nichtlinearität' in Rechnung stellt." Wenn man angesichts dieser Erkenntnissituation zu Ende des 20. Jahrhunderts und der Trendanalyse an Hand der historischen Beispiele die Frage nach den Erkenntnisgrenzen stellt, so drängt sich die Antwort auf, daß es im Sinne Hilberts absolut unlösbare Probleme überhaupt nicht gibt. Zu je-dem Zeitpunkt werden eine Zahl von ungelösten Fragen vorhanden sein, die mit den Mitteln dieser Zeit unlösbar sind. Der Frage‑Horizont wird sich immer weiter verschieben, alle Fragen werden nie beantwortet sein, aber alles spricht dafür, daß jede Frage beantwortbar ist. UNSER AUTOR:
Bernulf Kanitscheider ist Professor für Philosophie am Zentrum für Philosophie und Grundlagen der Wissenschaft an der Justus-Liebig-Universität Gießen. |
Bestellen Sie das Einzelheft oder abonnieren Sie die Zeitschrift.