PhilosophiePhilosophie

ESSAY

Kanitscheider, Bernulf: Grenzen der Erkenntnis? Naturwissenschaft und Metaphysik

Bernulf Kanitscheider:

Grenzen der Erkenntnis?

Naturwissenschaft und Metaphysik

 

Man kann das Verhältnis von Metaphysik und Wissenschaft auf verschiedene Weise angehen, einmal in dem Sinne, wie dies in der jüngeren Philosophiegeschichte gesche­hen ist, nämlich durch Etablierung von Abgrenzungskriterien, die ausdrücken, wie die beiden Erkenntnisbereiche zu konstituieren sind. Diesen methodologischen Zugang ha-ben in der Vergangenheit der Logische Em-pirismus und der Kritische Rationalis­mus gewählt. Beide Strömungen der analyti­schen Philosophie haben sich bemüht, Kon­trollkri­terien auszuarbeiten, die es er­mögli­chen, eine Aussage oder einen kontex­tualen Zu­sammenhang als metaphysisch oder als wissen­schaftlich zu diagnostizieren.

 Die generelle Tendenz des methodologi­schen Ansatzes zeigt eine starke Libera-lisierung auf, man ist heute sehr tolerant geworden in der Einführung unbeobachtbarer Entitäten, man verlangt eigentlich nur mehr, daß die nicht sichtbaren Elemente der Naturbeschreibung eine echte Erklärungs-kraft besitzen, d.h. daß damit eine größere Kohärenz im nomologischen Netz der Phä­nomene erzeugt wird.

Nun kann man aber auch anders vorgehen und von den Einzelwissenschaften her fra­gen, welche Bereiche der Realität denn eigentlich noch Kandidaten für einen nichtwissenschaftlichen, also metaphysi­schen Zugang zur Welt sein könnten.

So glaubte Du Bois-Reymond 1872 das Problem der Materie, worin er die Verein-barkeit von atomistischer Teilbarkeit und substantieller Raumerfüllung verstand, als unlösbar erkannt zu haben. Darüber hinaus meinte er, daß die Entstehung des Bewußtseins ein permanentes Rätsel bleiben würde. 1880 fügte er noch weitere grundsätzlich unüberwindliche Schwierigkeiten hinzu wie den Ursprung der Bewegung und das Problem der Willensfreiheit. Die Entstehung des Lebens, die scheinbar teleologische Verfassung der Natur und den Ursprung von Sprache und Denken hingegen rechnete er zu den ungelösten, aber langfristig lösbaren Fragen.

Sieht man sich seine Begründung an, so wird schnell klar, daß die angeblichen Un­möglichkeiten allesamt in bestimmten An­nahmen der klassischen Physik fußen wie dem Teilchenkonzept und der Existenz von bestimmten Kräften. Es handelt sich also um relative Unmöglichkeiten, die nicht lo-gischer Natur sind, sondern nur in bezug auf den klassischen Theorienbestand gelten. Es ist sehr lehrreich, sich die Verschiebun­gen zu vergegenwärtigen, die 120 Jahre später in bezug auf diese Klassifikation in lösbare und prinzipiell unlösbare Probleme eingetreten sind.

Die Reichweite der Mechanik

Die Physik hatte seit dem Siegeszug der Newtonschen Mechanik ihre paradigmati-sche Rolle innerhalb der Naturwissenschaf-ten ungeheuer stärken können. Sogar für Disziplinen aus dem Bereich der Sozialwissenschaften wie die Ökonomie versuchte Adam Smith noch mechanische Modelle zu erstellen, und Joseph Priestley bemühte sich, eine philosophische Anwendung new-tonscher Ideen für eine Lösung des Freiheitsproblems zu finden. Philosophen wie Immanuel Kant bestätigten, daß ein wesentlicher Zug der Mechanik, nämlich die Mathematisierung, die Reife und Aussage-kraft einer Wissenschaft ganz generell be­stimmen, Chemie und Biologie bemühten sich, Newtons Vorbild vor Augen, mit wach-sendem Erfolg den Status einer quan­titativ formulierten Wissenschaft zu er­reichen. Auch wo dies nicht gleich möglich war, etwa bei Darwins Evolutionstheorie, stand kausalmechanistisches Denken als Leitbild im Hintergrund. Modellbildung im Sinne der klassischen Mechanik schloß damals eine anschauliche raumzeitlich ver­folgbare Rekonstruktion der Naturprozesse ein.

Prototypisch für das Ideal der Begriffsbildung in der Zeit vor der Quantenwende hat es Lord Kelvin in seinen "Baltimore Lectures" ausgedrückt: "Nur eine Erklärung, die die Form eines mechanischen Modells besitzt, kann als echte Erkenntnis betrachtet werden." Die Mechanik besaß damals eine so starke Vorbildfunktion, daß man auch den elektromagnetischen Vorgängen mecha­ni­stische Prozesse unterlegte. Erst gegen Ende des 19. Jahrhunderts setzte sich die Auffas­sung durch, daß das elektromagnetische Feld eigene dynamische Freiheitsgrade besitzt und einen selbständigen Teilnehmer in einer physikalischen Ontologie darstellt.

Dies passierte übrigens einige Jahrzehnte später auch mit dem metrischen Feld, das die Struktur der Raumzeit beschreibt. Auch dieses Feld, das zuerst nur als Lückenbüßer für die Fernwirkungen der Newtonschen Gravitationstheorie angesehen worden war, wurde mit der Zeit eine autonome Entität der Physik. Das war allerdings eine Ent­wicklung, die im 20. Jahrhundert stattfand.

Im 19. Jahrhundert stand auch die Thermo­dynamik unter dem Leitbild der Mechanik. Ludwig Boltzmann betrachtete es als sein Lebensziel, auch die irreversiblen makro­skopischen Phänomene mittels einer im Sin-ne der Wahrscheinlichkeitstheorie gedeu­te-ten Mikromechanik zu verstehen. Sicher­lich nicht Newton selbst, aber die späteren Pro­ta­gonisten seines Forschungsprogram­mes wie etwa Laplace hatten das Zukunfts­bild einer vollständig mechanisch beschreib­baren Natur mit Einschluß der Besonderhei­ten aller komplexen Systeme, darunter auch des Menschen, entworfen.

Philosophiehistorisch betrachtet, ist der Gedanke einer umfassenden Naturbeschrei-bung genaugenommen schon durch den ontologischen Ansatz Descartes' nahegelegt. Unter dem philosophischen Aspekt ist die Natur res extensa, in modernen Termen würden wir einfach Raum sagen und dann mit einem Blick auf die spezielle Relativitätstheorie Raumzeit. Die res cogitans, bei Descartes noch säuberlich davon geschieden, umfaßt einen so kleinen Teil aller Prozesse, daß die Reduktionsidee sich ge-wissermaßen aufdrängt. David Armstrong hat der Frage die suggestive Wendung gegeben: Warum soll man aus der gewöhnlichen naturwissenschaftlichen Behandlung jene winzige Klasse von Prozessen ausnehmen, die doch nur einen kleinen Oberflächeneffekt auf dem dritten Planeten eines sonst nicht weiter ausgezeichneten Sonnensystems darstellt?

Unterstützung für eine einheitliche mechanische Verfassung des ganzen Weltgebäudes, wie es Kant ausgedrückt hat, kam auch von der Biologie her. Darwins Entwicklungsmodell von 1859, obwohl nicht quanti-tativ formuliert, war im Grundansatz mecha­nistisch. Die Ausdehnung dieser Theorie auf den Menschen brachte 1871 die entscheidende Erweiterung, und obwohl Darwin es nur in Briefen ausgedrückt hat, kann es als seine Überzeugung angesehen werden, daß auch der menschliche Geist nicht von der Evolu­tion ausgenommen sein kann, ohne daß seine Theorie grundsätzlich gefährdet wäre.

Innerphysikalisch betrachtet, gewann gegen Ende des 19. Jahrhunderts der Feldgedanke mehr und mehr an Bedeutung. Max Abra-ham, H.A. Lorentz, Henri Poincaré und Wilhelm Wien versuchten eine einheitliche feldtheoretische Beschreibung der Materie. Auf der Basis von Lorentz' elektromagne-tischer Feldtheorie sprach man bereits von einem elektromagnetischen Weltbild. Außer-physikalisch, also in bezug auf die angrenzenden naturwissenschaftlichen Disziplinen und die Geisteswissenschaften, war es nicht wesentlich, ob letztendlich die Theorie der Materie oder eine Theorie des Äthers die Oberhand gewinnen würde, entscheidend war, daß von der Physik her eine einheitli­che Naturbeschreibung angeboten wurde.

So gesehen mehrten sich gegen Ende des 19. Jahrhunderts von verschiedenen Seiten her die Indizien, daß der Weg der Naturwissenschaft eigentlich nur konsequent weitergegangen werden müßte, um ein korrektes, umfassendes Bild der Natur mit Einschluß des Menschen und seiner kultu­rellen Aktivitäten zu erhalten. Ausdruck dieser optimistischen wissenschaftlichen Weltauffassung ist David Hilberts berühm-tes Wort aus dem Jahre 1930:

"Der wahre Grund, warum es Comte nicht gelang, ein unlösbares Problem zu finden, be­steht meiner Meinung nach darin, daß es ein unlösbares Problem überhaupt nicht gibt. Statt des törichten Ignorabimus heiße im Gegenteil unsere Losung 'Wir müssen wissen und wir werden wissen'."

Dabei spielt Hilbert auf Auguste Comtes Behauptung von 1830 an, daß der chemi-sche Aufbau der Sterne uns Menschen im­mer ein Rätsel bleiben muß. Bereits 1859 konnten Kirchhoff und Bunsen über die Spektralanalyse Elemente der Sternatmo­sphären entschlüsseln.

Fast zur gleichen Zeit wie Hilbert schreibt Einstein die selbstbewußten Worte: "Wir wollen nicht nur wissen, wie die Natur ist und wie ihre Vorgänge ablaufen, sondern wir wollen nach Möglichkeit das vielleicht utopisch und anmaßend erscheinende Ziel erreichen zu wissen, warum die Natur so und nicht anders ist." Damit umreißt er bereits das Programm einer vollständigen physikalischen Theorie, in der es keine zufälligen, frei wählbaren Elemente mehr gibt.

Das Eindringen der Naturwissenschaften in fremde Bereiche

In den Geisteswissenschaften und der Philosophie konnte sich nie dieser Erkenntnis­optimismus ausbreiten. Hier war immer etwas von der Ambivalenz der Aufklärung zu spüren. Einerseits kann man einer erkann­ten, in ihrer Funktionsweise durchschauten Natur furchtlos begegnen, sie verändern, sie zum eigenen Nutzen wenden; auf der ande­ren Seite tritt aber auch eine gewisse Er­nüchterung ein, manche Phänomene verlie­ren ihren Zauber, wenn man sie verstan­den hat. Max Weber hat das Wort von der Entzauberung der Welt geprägt. Nicht nur Philosophen wie Wittgenstein, sondern auch Naturwissenschaftler haben immer wieder versucht, ein Refugium des Unsag­baren, des Unlösbaren und des Mysti­schen aufrechtzu­erhalten. Darum sollten auch Phänomene wie Subjektivität, Emotio­nalität, menschli­che Freiheit und die Gründe für moralisches Handeln von den analyti­schen Verfahren der Naturwissenschaft verschont bleiben.

 Forscher, die diese lebensweltliche Sphäre nicht respektieren, die die wissenschaftli-chen Methoden ohne Begrenzung ange­wandt haben wollen, werden gefürchtet und zumeist abgelehnt. In gewissem Sinne leben wir in einer geistigen Welt, die von bizarren Gegensätzlichkeiten geprägt ist: Die besten Theoretiker der mathematischen Physik ver-suchen das zu konstruieren, was man im Amerikanischen schlicht T.O.E. nennt, "the theory of everything", sei es nun in Form von einer supergravity, einer super­string, einer twistor theory oder als pregeo­metry. Auf der anderen Seite gibt es theore­tische Physiker, die das Ende des naturwis­senschaftlichen Zeitalters verkünden und eine neue idealistische Bewußtseinsphiloso­phie in Bewegung setzen.

Die Geisteswissenschaften, die seit Windelbands berühmter Typisierung der Methodologien in ideographische und nomothetische zumeist ihre methodologische Autonomie betonen, verstärken ihrerseits die Anstren­gungen, ihre Eigenständigkeit zu behaup­ten. Ihre Befürchtungen werden in gewis­sem Sinne verständlich, wenn man ihr Para­de­beispiel, die Philosophie, betrachtet, die sozusagen im Zentrum der Geisteswissen­schaften steht. Die Philosophie, in der älte­ren griechischen Zeit die Mutterwissenschaft aller Fächer schlechthin, mußte nach und nach ihre Kinder entlassen. Viele ka-men zu hohen Ehren, unter ihnen auch die empirischen Naturwissenschaften. Der Ab­spaltungsvorgang ist nicht etwa auf die griechische Antike beschränkt. Eine der jüng-sten Verselbständigungen eines alten Zwei­ges der Philosophie betrifft die physikali­sche Kosmologie. So geschehen im Jahre 1917. Durch Einsteins Entdeckung der Zylinderlösung seiner Feldgleichungen wurde erstmals ein konsistentes Modell der Welt im Großen geschaffen, das frei von Parado­xa war und das den Anspruch erhob, alles physikalisch Existierende zu umfassen. Damit kam auch du Bois‑Reymond's zwei­tes ignorabimus‑Beispiel in die Reichweite der wissenschaftlichen Rationalität: der Ursprung der Bewegung.

Neben der Überführung von Teilen der Philosophie in empirisch testbare naturwis-senschaftliche Theorien kennen wir eine Reihe von wissenschaftsgeschichtlichen Fällen, wo ältere apriorische, rein begriffli­che Wissenszweige unter den Einfluß physi­kalischer und damit letztlich empirischer Methoden gerieten. Ein älteres Beispiel ist die Geometrie, wo durch die Entdeckung der nichteuklidischen Geometrien um die Wende vom 18. zum 19. Jahrhundert ein empirisches Entscheidungsproblem ent­stand, welche Geometrie rechtens zur Wie­dergabe der Struktur unseres Erfahrungs­raumes dienen könnte.

In jüngerer Zeit hat die Logik, zu Zeiten des Aristoteles eine philosophische Apriori‑ Disziplin, eine ähnliche Aposteriorisierung erfahren. Im 19. Jahrhundert wurde die Logik durch die Bemühungen von Frege und Russell mit der Mathematik verbunden. Die Quantenmechanik brachte die Frage ins Spiel, ob die Logik so ähnlich wie die Geo-metrie nicht nur eine mathematische Diszi-plin, sondern auch ein Teil der Physik werden könnte. Als man die Logik in Begriffen empirischer Operationen deutete, erhielt sie eine neue Semantik, aber auch einen neuen methodologischen Status.

Die Wende zur Quantenlogik kam 1936. Garret Birkhoff und Johann von Neumann versuchten, die logischen Strukturen zu entdecken, die hinter physikalischen Theorien wie der Quantenmechanik verborgen sind und die nicht mit der klassischen Logik übereinstimmen. Sie wagten die Be-hauptung, daß die Quantenphysik eine nichtaristotelische Logik erfordert, nämlich einen Aussagekalkül, der einem orthokom-plementären modularen Verband entspricht. Dies war der Beginn einer innerphysika­lisch wie auch wissenschaftstheoretisch geführten Debatte über den Status der phy­sikalischen Logik. Vordem unstellbare Fra­gen wurden nun im Prinzip beantwortbar: Warum hat die Erfahrungswelt eine fast­ euklidische Struktur? Warum ist die Alge­bra der Ereig­nisse der grobsinnlichen Welt gleich einer klassischen Logik?

Diese drei Beispiele von Kosmologie, Geo-metrie und Logik lassen die Befürchtungen verstehen, daß die Naturwissenschaft mit ihren spezifischen Methoden auch weiterhin in fremde Bereiche eindringen wird, um neue Fragenbereiche zu erschließen. Die Furcht vor einer Hegemonie der Naturwissenschaften gründet in erster Linie in der Abneigung gegen die begriffliche Transfor-mation, die mit dem naturwissenschaftlichen Denkstil verbunden ist. Dies läßt sich wie-derum gut am Beispiel der physikali­schen Kosmologie studieren. Diese Disziplin ex­pandiert gegenwärtig in Bereiche hinein, die bis vor kurzem ausschließlich der Metaphy-sik vorbehalten waren. Wenn jemand bis vor wenigen Jahren den Ausdruck Eschato­logie gebrauchte, so meinte er wahrschein­lich einen theologischen Kontext oder er dachte, wenn er philosophiehistorisch gebil­det war, an Kants Abhandlung von 1794, Das Ende aller Dinge.

Im Jahre 1969 führte der bekannte Astro-physiker Martin Rees die Bezeichnung "physikalische Eschatologie" zum erstenmal für eine Analyse der Entwicklung der kos-mischen Strukturen zu sehr späten Zeiten ein. Zehn Jahre später bemühte sich Free-man Dyson, die methodologischen Voraus-setzungen der physikalischen Eschatologie zu klären und diesen Newcomer im Ver­band der Physik als strenge Wissenschaft zu etablieren. Durch Arbeiten von John Bar­row und Frank Tipler wurden auch die Konsequenzen der Quantenmechanik und Quantenfeldtheorie für das späte Universum reflektiert, so etwa die Instabilität des Pro­tons, die quantenmechanischen Tunneleffek-te und der Strahlungszerfall schwarzer Lö­cher. Der Eingriff der Quantenmechanik veränderte auch das Bild der Frühzeit des Universums. Und wieder stößt die Physik in alte Bereiche der Metaphysik vor. In seriö­sen Abhandlungen über Quantenkosmologie taucht heute die Frage nach der Ent­stehung des Universums auf. Im Rahmen erster An-sätze einer Theorie der Quantengravita­tion eröffnet sich die begriffliche Möglich­keit eines sich selbst erzeugenden Univer­sums, in dem Raumzeit und Materie spon­tan als Ergebnis von Quanteneffekten auf­tauchen. Die Motivation der Physiker wie etwa Ale­xander Vilenkin zur Kon­struktion einer sogenannten "complete cos­mology" lag nicht in ungebremsten Hege­moniebestre-bungen, sondern darin, daß das Standardmo-dell der Kosmologie immer noch eine Reihe von willkürlichen An­fangsbedingungen ent-hielt, die man nicht aus tieferen Prinzipien verstehen konnte. Es ist die Eigendynamik der theoretischen Entwicklung bzw. der Sachzwang physikali­scher Erklärungen selbst, der diese Ausgrif­fe in klassische Probleme der Philosophie steuert. Dies gilt auch für das neue Modell der Quantenkos-mologie von Stephen Haw­king und Jim Hartle. Das Ziel dieses Vor­schlages für die Wellenfunktion des Univer­sums liegt nicht in den metaphysischen und theologischen Konsequenzen, sondern in der Beseitigung der Unvollständigkeit der klas­sischen relati­vistischen Beschreibung. Wenn man die Methode der Euklidischen Wegin­tegrale verwendet und das Wahrscheinlich­keitsmaß nur für die Klasse der kompakten Metriken definiert, erhält man ein physika­lisch ge­schlossenes Modell. Kompakte Metriken haben keine unbeobachtbaren asymptotischen Bereiche, keine Ränder der Raumzeit im Unendlichen oder Singularitä­ten, wo von außen die Randbedingungen vorgege­ben werden könnten. Das Univer­sum wäre in diesem Fall "completely self contained", d.h. vollständig durch die Geset­ze der Phy­sik bestimmt. Dies ist der Sinn des viel­zitierten Satzes von Hawking: "The boun­dary condi­tion of the Universe is that it has no boun­dary:"

Die "no boundary condition" ist natürlich eine Hypothese, die von ihrer Voraussage-kraft für das beobachtbare Universum lebt; und keine apriori‑Behauptung. Über den Anschluß an das inflationäre Szenarium oder die Berechnung des Wertes der l‑ Kon­stante könnte die "keine Grenzen Be­din­gung" falsifiziert werden.

Alle jene, die diese Entwicklung mit Miß-trauen verfolgen, weisen bei ihrer Kritik in erster Linie auf die Transformation hin, die die Physik an den älteren Problemstellungen vornimmt. Bis zu einem gewissen Grade ist dieser Einwand verständlich. Eine metaphy­sische Idee erfährt, wenn sie zu einer me­trisch quantitativen Hypothese umgestaltet wird, eine semantische Verschiebung, wo­durch sicher nicht mehr die gesamte ur­sprüngliche Intuition erfaßt wird. Physikali­sierung bedeutet Einengung, Ausblendung emotionaler Nebenbedeutungen, Vereinfa­chung auf mathematisch Handhabbares. Je-de Rationalisierung ist, da sie übersetzen muß, zweifellos mit einem gewissen Maß an Unbestimmtheit verbunden. Der Weg von einer metaphysischen Vortheorie zu einer quantitativ formulierten physikalischen Hypothese ist kein rein logischer Schritt, sondern ein Rekonstruktionsübergang, wo-bei der Rekonstrukteur sich bemüht, die Kernbedeutung des Problems in sprachlich neuer Form beizubehalten. Die mit dem Übergang verbundene semantische Ver­schiebung ist sehr gut an dem schon er­wähnten kosmogonischen Problem zu stu­dieren. Bei der spontanen Entstehung des Universums spielt das quantenfeldtheore-tische Vakuum eine entscheidende Rolle. Dieser Nachfolgebegriff zum leeren Raum der klassischen Atomisten, mathematisch als lokales oder globales Minimum der Energie bestimmt, hat eine innere Struktur, eine Aktivität; das Quantenvakuum kann wegen der Unschärferelation nicht die völlig inak­tive Leere sein. Diese Mikrostruktur des Vakuums, die unvermeidlichen Schwan­kungsprozesse, bilden jenes Substrat, von dem die kosmogonischen Spekulationen An-fang der 70er Jahre ausgingen.

Inzwischen haben Zel'dovich, Gott u.a. auch mit schwächeren Voraussetzungen Szenarien entworfen, wo Raumzeit und Materie als einziges Quantenereignis entste­hen und wo dann ein Embryokosmos in Planck‑Dimensionen über einen Inflations­mechanismus an die Friedmann‑Welt unse­rer heutigen Erfahrung angeschlossen wird. Man ist sicherlich gut beraten, skeptisch zu sein gegenüber diesen kühnen Entwürfen, und viele von ihnen werden vermutlich die nächste Dekade nicht erleben. Aber dennoch ist es wissenschaftstheoretisch erstaunlich, daß Fragen, von denen man bis vor kurzem dachte, daß sie im naturalistischen Paradig­ma weder formulierbar noch behandlungsfä­hig seien, so semantisch transformiert wer­den können, daß dabei zumindest mathema­tisch formulierbare physikalische Aussagen entstehen, auch wenn diese gegenwärtig von einer empirischen Kontrolle noch sehr weit entfernt sind.

Als einer der Gründe für den Widerstand gegen die Ausweitung der naturwissen­schaftlichen Domäne wird immer wieder der den Naturwissenschaften inhärente Reduk­tionismus angeführt. Sicher verdankt die moderne Naturwissenschaft zum großen Teil ihren Erfolg der Praxis, daß sie von einer höheren Organisationsebene von Sy­stemen zu deren Detailstruktur analytisch fortschreitet.

In einem bestimmten Sinne bringt diese Methode, komplexe Systeme aus einfachen Bestandteilen und ihren Wechselwirkungen zu verstehen, auch heute noch erstaunliche Erfolge. Dieses atomistische Verfahren liegt auch dem Standardmodell des Aufbaus der Materie zugrunde. Dort gibt es eine tiefste Beschreibungsebene, nämlich die der Quarks und Leptonen, welche unter der charakteristischen Wirkung von drei Kräften und unter Befolgung bestimmter Symme­trien die makroskopischen Strukturen der sichtbaren Welt aufbauen. Dem Forschungs­programm, eine große einheitliche Theorie aller Kräfte zu finden, liegt die letztlich atomistische Strategie zugrunde, bestimmte Basisentitäten, entweder Punktteilchen in der Supergravitation oder schwingungsfähi­ge, saitenähnliche Gebilde in den Super­string­theorien, hypothetisch anzusetzen, um daraus in einer langen Kette von Deduktio­nen die Phänomene der sichtbaren Natur zu erklä­ren. Dabei ist darauf zu achten, daß das Denken in elementaren Konstituenten nicht gleichbedeutend ist mit der Vernach­lässigung emergenter Systemeigenschaften, die sich auf einer bestimmten Ebene der Kom­plexität manifestieren. Jene Quanten­feld­theorien, welche heute so erfolgreich den Aufbau der Materie regieren, stellen eine konsequente Weiterführung der ur­sprüngli­chen Quantenmechanik dar. Diese hat, wie wir seit Schrödingers Arbeit von 1936 wissen, durchaus holistische Züge. Durch den Nachweis der EPR‑Korrelationen ist dies auch empirisch eindrucksvoll bestä­tigt worden. Holismus in der Quantenme­chanik ist nun gar nichts Gespenstisches. Man kann sogar umgekehrt argumentieren, daß es gerade die Quantenmechanik war, die dem Holismus einen klaren Sinn gege­ben hat. In vielen metaphysischen Kontex­ten wurde von dem Satz Gebrauch gemacht, daß das Ganze mehr als die Summe der Teile sei. Jedoch blieb es meist der Analyse unzu­gänglich, worin dieses "Mehr" bestehen könnte. Es war gerade die Quantenmecha­nik, die durch den Begriff des verschränkten Systems und der nicht faktorisierbaren Wellenfunktion eine Explikation des Holis­mus lieferte. Eine Idee, die von den Ganz­heits­psychologen, Vitalisten und in organo­logi­schen Kategorien denkenden Biologen ver­wendet wurde, erhielt nach ihrer Trans­for­mation in einen physikalischen Kontext mittels der mathematischen Sprache des Hilbert‑Raum‑Formalismus eine klare Ge­stalt. Reduktion muß also nicht unbedingt antithetisch zu systemtheoretisch orientier­tem ganzheitlichem Denken stehen. Auch wenn alle Systeme, die anorganischen, die lebendigen und die mentalen, ontologisch letztlich nur aus einer auf der Elementarteil­chenebene festzumachenden Trägersubstanz bestehen sollten, bedeutet dies nicht die Elimination von Systemeigenschaften, die dann und nur dann auftreten, wenn viele Teilchen in Wechselwirkung stehen.

Der Terminus "Reduktionismus" wurde im vorstehenden nur in der bescheidenen Form verwendet, wonach es eine materiale Grund­substanz in der Natur gibt, die Träger aller komplexen Prozesse höherer Organisation ist. Das Schlagwort "Reduktionismus" taucht in vielen Verwendungen auf. So wurde er gelegentlich auch mit dem stärke­ren Erkenntnisanspruch verbunden, daß Makrotheorien immer von Theorien mit mikroskopischen Elementen ableitbar sein müßten. Bei allen bekannten Fällen, etwa bei dem Verhältnis von phänomenologischer Thermodynamik und statistischer Mechanik oder von Quantenchemie und Quanten­mechanik stellte sich bei näherem Zusehen heraus, daß eine starke epistemologische Reduktion ohne wesentliche Zusatzannah­men nicht zu rechtfertigen ist. Man könnte meinen, daß man mit dem im vorstehenden skizzierten schwachen ontologischen Reduk­tionismus, der ja relativ wenig, eigentlich nur rein spiritualistische Entitäten aus­schließt, einen gemeinsamen Nenner gefun­den hätte, auf den sich Natur- und Geistes­wissenschaften einigen könnten. Es wäre eine Position, die man mit dem Schlagwort charakterisieren könnte: Einheit in der Trä­gersubstanz, Plu­ralität in den emergenten Strukturen. Die Vielfalt der Welt wäre danach in der Hierar­chie der Or­ganisations­niveaus ihrer Systeme begründet. Ein Fra­genkomplex, der 1872 völlig außer­halb der Sichtweite der klassi­schen Natur­wis­sen-schaft lag, die komplexe Hierarchie alles Seienden zu verstehen, rückte damit einer Lösung näher.

Ein Argumentationsstrang mit dem Ziel, die Bereiche von Natur‑ und Geisteswissen­schaften enger aneinander heranzuführen, wurzeln im Forschungsprogramm eines evo-lutionären Weltbildes. Man kann heute eine relativ gut etablierte Kette von Ent­wick­lungsschritten aufweisen, die von einem symmetrischen, heißen, schnell ex­pandieren­den, strukturlosen Universum zu dessen reichhaltigen Untersystemen führt. Galakti­sche, stellare und planetare Entwick­lungs­stufen lösen sich ab und liefern letzten Endes die Basen für die biologische und neuronale Evolution im engeren Sinne. De-ren Produkte sind unsere Ideen über die Welt selber. In dieser Sichtweise kann Idea­tion als innere Repräsentation von bestimm­ten äußeren Strukturen der Natur gefaßt werden. Erkenntnis ist danach ein später Evolutionsschritt der Natur selbst. Zweifels­ohne umfaßt eine solche Hierarchie von Evolutionsvorgängen eine große Zahl von Entwicklungsmechanismen verschiedenster Dynamik. Das Hauptziel eines evolutionären Weltbildes muß es sein, das Ineinandergrei­fen, die Verschränkung der verschiedenen Evolutionsmechanismen zu verstehen, um zu klären, wann und unter welchen Bedin­gungen ein Universum Erkenntnis seiner selbst hervorbringen kann.

Es ist wichtig, sich zu vergegenwärtigen, daß eine solche Konstruktion nicht nur von der Naivität ungehemmter naturwissen­schaftlicher Spekulation lebt, sondern we­sentlich auch von der professionellen Philo­sophie getragen wird. Willard Van Orman Quine hat aus einer Kritik des empiristi­schen Begründungsprogrammes heraus zu dem Ergebnis gefunden, daß es grundsätz­lich nur eine Gesamttheorie der Natur geben kann, innerhalb deren das Wissen über die Welt als ein Teil derselben zu führen ist. Wenn die Ideen über die Natur nicht aus der Natur herausfallen sollen, bedarf es einer Theorie, die die Entstehung, Entwick­lung und Aufrechterhaltung von neuronalen Systemen beschreibt, die der Ideation fähig sind und in deren Rahmen Gedanken einen Status innerhalb der Welt besitzen. Eine solche Theorie kann natürlich in Einklang mit dem früher über Reduktion und Emer­genz Gesagten nicht einfach eine physikali­sche Theorie sein, obwohl sie durchaus naturwissenschaftlichen Charakter tragen kann. Ansätze zu einem solchen Entwurf wurden bereits vorgelegt. Charles J. Lums­den und Edward O. Wilson haben, um nur ein Beispiel zu nennen, einen Ansatz zu einer Naturgeschichte des Denkens einge­bracht, bei dem die intellektuellen Fähigkei­ten des Menschen als Wechselwirkungspro­dukte einer biologisch‑­kulturellen Koevolu­tion verstanden werden. Hier wird zwar von der biologischen Trä­gerbasis der Intellektua­lität Gebrauch ge­macht, dennoch wird die Autonomie des Kulturellen betont und die Fähigkeit der mentalen Ebene zur Interak­tion mit dem organischen Träger eingesetzt. Bereits an dieser Theorie einer naturhistori­schen Re­konstruktion von Intellektualität, die den bemerkenswerten Titel Genes, Mind, and Culture trägt, kann man sehen, was ge­braucht wird, um den Hiatus zwi­schen naturwissenschaftlicher und literari­scher Kultur zu überwinden. Nicht eine eli-minati­ve Reduktion der mentalen, sozia­len und geistigen Kategorien auf die physi­kali­sche Ebene, also eine Art Wegerklären kul-turel­ler Realitäten, ist der rechte Weg, son­dern man braucht Brückendisziplinen, die die Autonomie emergenter Systemeigen­schaften des Kulturellen anerkennen und die Dyna­mik der Ideen als natürliche Prozesse ver­stehen lassen.

Dazu ist kein Bruch mit dem naturalisti­schen Grundverständnis der Realität not­wendig, also mit der Annahme, daß der Aufbau auch der komplexesten Systeme ge-setzesartig und im Prinzip intelligibel und rekonstruierbar ist. In mehreren Bereichen, die früher eine reine Domäne der Geistes­wissenschaften, respektive der Philosophie waren, wie etwa das menschliche Sozialver­halten und dessen moralisches Regelsystem, haben Brückenwissenschaften wie z.B. die Soziobiologie bedeutsame und bedenkens­werte Erklärungsangebote gemacht. Der na-turalistische Ansatz in der Soziologie und Ethik eliminiert nicht die kulturellen Spezi­fika des Menschen, sondern erinnert nur daran, daß jede Aktivität des Menschen, einschließlich seines bewußten Handelns, sozialen Interagierens und seiner kulturellen Leistungen, eine materielle Basis besitzt. Diese Basis ist nicht gesetzlos oder struktu­rell amorph, sondern besitzt die Fähigkeit zur Selbstorganisation. Die Kulturgüter, die Menschen geschaffen haben, hängen auch mit deren genetischer Konstitution zusam­men, die wiederum mit der Umgebung in Wechselwirkung steht. Wenn man nach einer Erklärung der heute anerkannten Re­geln des Handelns sucht, wird man die materielle Basis des moralischen Empfin­dens nicht vernachlässigen können. Die Einsicht in den kausalen Zusammenhang der Genese unserer moralischen Verhaltens­regeln ist nicht nur von intellektuellem Interesse. Normensysteme werden ja nicht als reine Spiele erfunden, sondern sie sollen an realen Biopopulationen durchgesetzt werden. Die Individuen dieser Populationen müssen von ihrem natürlichen genetischen Programm her die moralischen Anforderun­gen auch erfüllen und durchhalten können. Es ist nicht sinnvoll, vehement gegen beste­hende Verhaltensdispositionen zu normie­ren. Eine solche Forderung, die die Aufstel­lung einer Norm erst sinnvoll macht, hat den Charakter eines Brückenprinzips. Es verbindet deskriptive Sätze der Naturwis­senschaft mit normativen Zielen der Rege­lung des Sozialverhaltens großer Gruppen von kooperativen Lebewesen.

Das Bestreben, Brücken zwischen der menschlichen Domäne des Geistes und der von der Naturwissenschaft verwalteten Domäne der belebten und unbelebten Mate­rie zu schlagen, wird heute allenthalben sichtbar. Der harte Antagonismus, wie er noch im 19. Jahrhundert existierte, zwischen einem Naturalismus, der sich meist mit einem eliminativen Materialismus verband, und einem metaphysischen Spiritualismus, der Existenzweise, Ursprung und Wech­sel-wirkung mit der übrigen Realität im Dun­keln ließ, erwies sich als eine vor­schnelle Simplifikation. Daraus erklärt sich auch die Erkenntnisskepsis von du Bois‑­Reymond. Neue Disziplinen, wie etwa die Ungleichge­wichtsthermodynamik von llya Prigogine und P. Glansdorff oder die Synergetik, haben sich zwischen die Fronten geschoben. Aus ihnen kann man entnehmen, daß die Anerkennung neuartiger Eigenschaf­ten von Systemen durchaus in Einklang damit steht, daß der Prozeß der Entstehung dieser spezi­fischen Qualitäten kausal erklär­bar ist. Sol­che Selbstorganisationstheorien nehmen den komplexen Gebilden den Cha­rakter der Rät-selhaftigkeit und der Undurch­dringlich­keit, bewahren auf der anderen Seite aber die Autonomie und die Realität der höheren Or-ganisationsformen. Prigogine versteht seine Theorie explizit als Vorschlag zur Vermitt­lung zwischen Physik und Meta­physik mit dem Ziel, daß der Mensch nicht mehr not­wendig aus dem Anwendungsbe­reich der Naturwissenschaft ausgeschlossen ist. "Es ist wichtig einzusehen, daß Leben mit sei­nen biologischen und soziokulturellen As­pekten nicht länger eine Ausnahme von den Naturgesetzen darstellt ...", "diese As­pekte des Lebens sind in Einklang mit diesen Ge-setzen, wenn man die wichtigen Momen­te des 'Ungleichgewichtes' und der 'Nichtli­nearität' in Rechnung stellt."

Wenn man angesichts dieser Erkenntnissi­tuation zu Ende des 20. Jahrhunderts und der Trendanalyse an Hand der historischen Beispiele die Frage nach den Erkenntnis­grenzen stellt, so drängt sich die Antwort auf, daß es im Sinne Hilberts absolut unlös­bare Proble­me überhaupt nicht gibt. Zu je-dem Zeit­punkt werden eine Zahl von unge­lösten Fragen vorhanden sein, die mit den Mitteln dieser Zeit unlösbar sind. Der Fra­ge‑Hori­zont wird sich immer weiter ver­schieben, alle Fragen werden nie beant­wor­tet sein, aber alles spricht dafür, daß jede Frage beantwortbar ist.

UNSER AUTOR:

 

Bernulf Kanitscheider ist Professor für Philosophie am Zentrum für Philosophie und Grundlagen der Wissenschaft an der Justus-Liebig-Universität Gießen.