Grenzen der physikalischen Erklärung

Unser Alltag ist voller Phänomene, deren Zustandekommen durch die Gesetze der physik erklärt wird – die Wurfparabel, die ein Stein beschreibt; die konzentrischen Wellen, die der Stein erzeugt, wenn er ins Wasser fällt; optische Naturerscheinungen wie der Regenbogen; der Sachverhalt, dass ein Jahr, das kein Schaltjahr ist, 365 Tage dauert; der Stromverbrauch der technischen Geräte, die wir täglich verwenden; oder die Funktionsweise medizinischer Diagnostikverfahren wie der Kern-Spin-Tomographie.

Erklärungen sind Antworten auf Warum-Fragen. Sie geben die Gründe und Ursachen dafür an, warum ein Sachverhalt so ist, wie er ist, oder warum etwas so geschieht, wie es geschieht. Warum wird es hell im Raum? Weil ich den Lichtschalter betätigt habe; weil der elektrische Strom nicht abgeschaltet ist; weil der Glühdraht in der Glühbirne intakt ist; weil der Strom den Glühdraht so stark erhitzt, dass dessen Atome Lichtquanten    emittieren. Warum gibt es nach dem Regen manchmal einen Regenbogen? Weil die Sonne manchmal wieder scheint, während es zugleich noch regnet; weil Sonnenstrahlen dabei in einem bestimmten Winkel auf Regentropfen treffen und das weiße Licht durch Brechung daran so in die Spektralfarben zerlegt wird, dass konzentrische farbige Kreisringe entstehen.

Physikalische Erklärungen geben Gründe und Ursachen an, die man auf die Gesetze der Physik zurückführt. Oft erzählen sie kausale Geschichten, in denen Aussagen über konkrete Sachverhalte oder Geschehnisse unter physikalische Gesetze subsumiert werden. Dies tun sie aber, wie Nancy Cartwright gezeigt hat, im allgemeinen nicht nach dem DN-Schema der wissenschaftlichen Erklärung (Cartwright 1983). Die logische Struktur physikalischer Erklärungen ist nicht so transparent, wie die Klassiker der Wissenschaftstheorie behaupteten. Die kausalen Geschichten der Physik entfalten meist recht komplizierte Bedingungsgefüge (Cartwright 1993; Falkenburg und Schnepf 1998; Mackie 1980). Sie verweisen auf Mechanismen wie die Lichtbrechung; auf Kräfte wie die Gravitation oder den Elektromagnetismus und ihr Zusammenwirken; auf mikroskopische Eigenschaften der materiellen Dinge wie die Magnetisierbarkeit des Spins von Atomkernen; auf Gesetze wie die Maxwell-Gleichungen, das Ohmsche Gesetz, die Plancksche Strahlungsformel; und auf die Anwendungsbedingungen solcher Gesetze, die im allgemeinen nur angenähert erfüllt sind. Diese Erklärungsinstanzen liefern im Normalfall keine lückenlose Deduktion des zu erklärenden Geschehens.

 Die Physik zielt auf Objektivierung, auf die Angabe von Gründen und Ursachen, die unabhängig von unserem Eingriff ins Geschehen sind und die in der Natur der Sache selbst liegen. Dabei sieht man vom Einfluß menschlicher Handlungen ab. Dass ich den Lichtschalter betätige, spielt in der physikalischen Erklärung dafür, warum es im Raum hell wird, keine Rolle. Solche Objektivierung wird seit Galilei dadurch erreicht, dass die Naturerscheinungen mathematisiert und technisiert werden. Physiker bauen sich Beobachtungsinstrumente; sie benutzen Messverfahren, denen standardisierte Maßeinheiten und -systeme zugrundeliegen; sie führen unter kontrollierten Bedingungen Experimente mit reproduzierbaren Ergebnissen durch. Messungen und Experimente sind wiederum die Kontrollinstanzen für physikalische Gesetze; und diese drücken funktionale Zusammenhang zwischen physikalischen Größen wie Ort, Zeit, Masse, Energie, Ladung oder Temperatur aus. Jeder Wert einer physikalischen Größe wie „Masse“ entspricht einer Klasse von standardisierten Phänomenen – etwa der Klasse aller Körper, die bei Messung mit der Balkenwaage gleich schwer sind.

 In den verschiedenen Teilgebieten der Physik gibt es für Größen wie die Masse unterschiedliche Messverfahren, deren Anwendungsbereiche sich überlappen. Dies ermöglicht die (uneinheitliche) operationale Definition physikalischer Größenskalen für Länge, Zeit, Masse, Energie, Temperatur und andere Größen anhand von Ketten solcher Messverfahren. Physikalische Erklärungen reichen damit im Prinzip so weit wie die Sprache der physikalischen Größenskalen; und diese beruht auf mathematischen Methoden hier und Messverfahren dort.

 Bisher habe ich recht unspezifisch von Gründen und Ursachen als Erklärungsinstanzen in physikalischen Erklärungen gesprochen. Es gibt aber natürlich verschiedenartige Antworten auf Warum-Fragen, und mit ihnen unterschiedliche Erklärungstypen. Für die Physik sind drei traditionelle Arten von Erklärungsinstanzen oder Gründen typisch:

Die Angabe von Ursachen, oder: die Rekonstruktion einer kausalen Geschichte, auf die ein Ereignis eines bestimmten Typs zurückzuführen ist. So wird die Entstehung   einer Teilchenspur in einer Nebelkammer wie folgt erklärt: Ein geladenes Teilchen ionisiert einzelne Wasserdampf-Moleküle; diese werden zu Kondensationskernen für Tröpfchen; so entsteht eine Sequenz benachbarter Wassertröpfchen. Hier ist eine Ereignissequenz das Explanandum, seine kausale Geschichte ist das Explanans. Die Ereignissequenz (bzw. ein Foto davon) ist beobachtbar; die kausale Geschichte wird mittels physikalischer Gesetze rekonstruiert. – Anders als die Philosophen haben Physiker eine ontologische Sicht des Explanandum: sie betrachten nicht Propositionen, sondern Sachverhalte als das, was zu erklären ist. Dem zu erklärenden Sachverhalt entspricht eine kontingente Aussage als Explanandum im wissenschaftstheoretischen Sinne.

Die ontologische Reduktion, oder: die Angabe der Komponenten, aus denen etwas besteht. Zum  Beispiel besteht weißes Licht aus farbigen Spektralkomponenten; der Nebel in der Nebelkammer besteht aus Wasserdampf-Molekülen; Moleküle bestehen aus Atomen; Atome bestehen aus Elektronen und Atomkernen. Hier ist ein physikalisches Phänomen wie weißes Licht oder Nebel das (wiederum ontologisch verstandene) Explanandum, und seine Bestandteile fungieren als ontologisches Explanans; es handelt sich dabei um die Relate einer Teile-Ganzes-Beziehung. Die ontologische Reduktion kann iteriert werden. Moleküle werden ihrerseits zum Explanandum; man nimmt Atome und deren Konstituenten als Explanans hinzu   (Elektronen; Protonen, Neutronen; Quarks). Der quantitative Aspekt der ontologischen Reduktion sind Erhaltungssätze und Summenregeln für physikalische Größen wie die Ladung. Sie besagen, inwieweit sich die    Eigenschaften eines physikalischen Systems aus denjenigen seiner Bestandteile erklären; sie sind experimentell überprüfbar.

Die theoretische Reduktion, oder: die Einbettung von physikalischen Gesetzen in eine axiomatische Theorie. Zum Beispiel lassen sich Galileis Fallgesetz und die Keplerschen Gesetze näherungsweise als Spezialfälle in Newtons Gravitationstheorie einbetten. Hier ist das Explanans ein physikalisches Gesetz, das Explanandum ein umfassenderes Gesetz. Die Theorienreduktion zielt auf Erklärung im Sinne von theoretischer Vereinheitlichung (Friedman 1974), oder: auf die „Tieferlegung der Fundamente“ im Sinne von Hilberts axiomatischer Methode (Hilbert 1918). – Bei der Theorienreduktion sind Explanandum und Explanans physikalische Gesetze; auch dieser Fall entspricht allerdings nicht dem DN-Schema der Erklärung (vgl. Scheibe 1976 [=2001, 324 ff.]; 1997, 23 ff.)

Die Erklärungen der Physik bestehen also nicht einfach darin, kontingente Aussagen unter Gesetzesaussagen zu subsumieren. Sie zielen auf etwas weitaus Komplizierteres, nämlich auf die Rekonstruktion eines gesetzmäßigen Bedingungsgefüges, das im konkreten Naturgeschehen am Werk ist. Da schon aufgrund der Nicht-Abschirmbarkeit der Gravitation im Naturzusammenhang letztlich alle Vorgänge miteinander verschränkt sind, verträgt sich dieses Ziel nicht wirklich mit der wissenschaftstheoretischen Standardauffassung, dass physikalische Theorien aus gesetzesartigen Aussagen bestehen, die über nicht-korrelierte gleichartige Einzelfälle generalisieren (vgl. Scheibe 2001, Teil IV). Physikalische Theorien liefern dynamische Systembeschreibungen, die das konkrete Bedingungsgefüge erfassen sollen, welches in einem spezifischen physikalischen Geschehen im Einzelfall am Werk ist. Dieses Bedingungsgefüge gilt es in separate Bedingungen zu entfalten; hierauf zielen die experimentelle Analyse von Naturerscheinungen unter Laborbedingungen und die mathematische Analyse der experimentellen Ergebnisse. Wenn Physiker eine Erklärung für einen konkreten Sachverhalt oder einen theoretischen Zusammenhang suchen, so gehen sie nicht deduktiv-nomologisch, sondern analytisch vor – sie analysieren einen gegebenen Problemkomplex mit ihren experimentellen und theoretischen Methoden. Dabei befolgen sie im wesentlichen die Regeln, die schon Descartes im Discours de la Méthode aufgestellt hatte: Sie zerlegen ein Problem in so viele leichter lösbare Teilprobleme wie möglich und nötig; sie lösen die Teilprobleme der Reihe nach und setzen komplexe Lösungen aus einfachen zusammen; sie zielen auf eine möglichst vollständige Erklärung, die möglichst umfassend und allgemein anwendbar sein soll.

Das problemanalytische Vorgehen der Physiker steht in der naturphilosophischen Tradition einer Analyse und Synthese der Phänomene. Man sieht dies noch am Sprachgebrauch von Physikern wie Niels Bohr, der in der Quantenphysik Grenzen der experimentellen Analyse und Synthese diagnostizierte. Die oben genannten Erklärungstypen sind nichts für moderne hartgesottene Logiker und Empiristen. Sie wurzeln in der neuzeitlichen Erkenntnistheorie; sie sind mehr oder weniger deckungsgleich mit Varianten der resolutiv-kompositiven Methode, die schon Galilei und Newton im Einklang mit den Regeln des Cartesischen Discours benutzten, um die neuzeitliche Physik zu begründen (Losee 1993). Galileis experimentelle Methode zielt auf eine Zerlegung physikalischer Phänomene in Komponenten wie Wurf- und Fallbewegung; in Schwerebewegung und Bremsung durch den Luftwiderstand; in zu untersuchenden Effekt und vernachlässigbare Störung. Die Zerlegung der Phänomene zielt auf Identifikation der kausal relevanten Faktoren, die in die Rekonstruktion der kausalen Geschichte eines Geschehens eingehen. Newton wiederum forderte, in der Physik auf die „wahren Ursachen“ der Phänomene zu schließen und gleichartige Wirkungen durch gleichartige Ursachen zu erklären (Newton 1726, Buch III, Regulae). Beides zielt auf theoretische Vereinheitlichung der Phänomene – wobei die „Phänomene“ für ihn das waren, was wir heute präziser phänomenologische Gesetze nennen, nämlich die Kepler-Gesetze der Planetenbewegungen  und Galileis Fallgesetz.

Bis heute kombiniert man in der Physik die genannten Erklärungsinstanzen typischerweise miteinander. Kausale Geschichten rekurrieren oft auf mikroskopische Materiekonstituenten und deren Wechselwirkungen; die Gesetze der subatomaren Wechselwirkungen werden dabei so weit wie möglich theoretisch vereinheitlicht. Wo die theoretische Reduktion nicht gelingt, etwa im Schnittfeld der gegenwärtigen Quantenfeldtheorien der Elementarteilchen und der allgemein-relativistischen Kosmologie, unterstellt man, sie könne gelingen. Nach diesem Vertrauensprinzip untersucht man derzeit in der Teilchenastrophysik die kosmische Strahlung mit den experimentellen und theoretischen Methoden der Teilchenphysik. Dabei hat man extrem hochenergetische Teilchen gefunden, von denen man vermutet, dass sie aus fernen Regionen des Universums stammen, und will nun ihre Herkunft klären. Die Grundidee ist dabei heute wie im 17. Jahrhundert, möglichst umfassende kausale, ontologische und theoretische Erklärungen zu gewinnen – und mit ihnen umfassende Einsicht in die Gesetze, denen das vergangene, gegenwärtige und künftige Naturgeschehen unterliegt. Die Theorien des 20. Jahrhunderts lehren allerdings, dass die Erklärungskraft der Physik ihre Grenzen hat.

Erklärungsgrenzen

Eine Erklärung ist vollständig, wenn sie den zu erklärenden Sachverhalt relativ zu irgendwelchen Ursachen oder Gründen, die wir nicht mehr für erklärungsbedürftig halten, lückenlos erklärt. Beim gegenwärtigen Wissenstand kann die Physik erschöpfende Auskunft auf viele Warum-Fragen geben. In vielen Fällen sind physikalische Erklärungen bei näherem Besehen allerdings leider nicht lückenlos. Die oben genannten Erklärungsinstanzen können kausale, ontologische und grundlagentheoretische Defizite aufweisen. Physikalische Erklärungen reichen faktisch letztlich doch nicht so weit, wie eingangs im Prinzip über sie behauptet wurde – nämlich so weit wie die Sprache der Physik, die auf mathematischen Methoden hier und Messverfahren dort beruht. Was die axiomatischen Grundlagen physikalischer Begriffe betrifft, ist diese Sprache nicht einheitlich – obwohl man für Größenbegriffe wie Länge, Masse, Zeit erfolgreich physikalische Grössenskalen konstruiert, die über die bestehenden Inkommensurabilitäten hinweg tragen.

Schon innerhalb der klassischen Physik gibt es Grenzen der Erklärung. Sie betreffen insbesondere den thermodynamischen Zeitpfeil und das deterministische Chaos. Im ersten Fall gelingt zwar die ontologische Reduktion der Wärme auf molekulare Bewegung; die Temperatur eines (idealen) Gases entspricht der mittleren kinetischen Energie der Gasmoleküle. Die theoretische Reduktion der Thermodynamik auf die kinetische Theorie gelingt jedoch nicht so weitgehend, dass damit auch die Richtung des Zeitpfeils erklärt wäre. Im zweiten Fall genügen winzige Differenzen in den Anfangsbedingungen eines chaotischen Systems, um zu extrem unterschiedlichen Systementwicklungen zu führen. Da die Entwicklung komplexer physikalischer Systeme den Gesetzen des deterministischen Chaos unterliegt und die äußeren physikalischen Bedingungen, unter denen sie steht, nie exakt bekannt sind, lässt sich die künftige Entwicklung komplexer Systeme im allgemeinen nicht vorhersagen; umgekehrt lässt sich ihr gegenwärtiger Zustand auch nicht eindeutig aus vergangenen Zuständen erklären. Das Erklärungsdefizit beruht hier „nur“ auf Unkenntnis der exakten Anwendungsbedingungen von Gesetzen, die im Prinzip deterministisch sind. Die kausalen Geschichten, die man für klassische chaotische Systeme rekonstruiert, weisen dennoch irreduzible kausale Lücken auf.

Die gravierendsten Erklärungsdefizite hängen mit der Quantenphysik zusammen. Atome und ihre Bestandteile unterliegen der Quantenmechanik oder einer anderen Quantentheorie,  und damit der Heisenbergschen Unschärferelation. Man kann den Ort und Impuls subatomarer Teilchen nicht in ein-und-demselben Experiment scharf messen; nach einer Ortsmessung weisen die Werte einer Impulsmessung eine erhebliche Streuung auf, und umgekehrt. Im Gegensatz zu den klassischen Theorien der Physik kann eine Quantentheorie die Ergebnisse von Messungen prinzipiell nicht erklären. Sie liefert keinen kausalen Mechanismus, der wenigstens grundsätzlich Auskunft darüber gibt, wie ein bestimmtes Messresultat zustande kommt. Stattdessen enthält sie neben den üblichen Bewegungsgleichungen einer physikalischen Dynamik zusätzlich ein Postulat (das Projektionspostulat), das den Anschluss an eindeutige, objektive Messresultate und an die Sprache der klassischen Physik ad hoc herstellt. Für viele Größen macht die Quantenmechanik nur Aussagen über die Wahrscheinlichkeit von Messergebnissen; das einzelne Messresultat ist typischerweise nicht vorhersagbar. Sie ist eine irreduzibel probabilistische Theorie. Ihre zentrale theoretische Größe, die Wellenfunktion y, hat keine direkte physikalische Deutung, sie liefert nur abstrakte Wahrscheinlichkeitsdichten für die möglichen Messwerte physikalischer Größen. Dabei ist sie nicht mit der klassischen Ignoranzdeutung der Wahrscheinlichkeit vereinbar, wie man zeigen kann.

Im einzelnen lassen die Erklärungsinstanzen der Physik bei der Quantentheorie folgendes zu wünschen übrig:

Die kausalen Geschichten, die uns die Quantentheorie allein oder zusammen mit der klassischen Physik über die Entstehung physikalischer Phänomene erzählt, sind meist unvollständig. Sie geben u. a. keine Auskunft, warum ein radioaktives Atom zu einem bestimmten Zeitpunkt zerfällt. Auch die quantentheoretische Erklärung von Teilchenspuren ist lückenhaft. Man kann nachträglich rekonstruieren, wie eine konkrete Teilchenspur entstand und welche quantentheoretischen Prozesse sich entlang der Spur zugetragen haben. Die Quantentheorie erklärt uns aber nicht, warum im Einzelfall exakt diese und keine andere Spur zustande kam (Falkenburg 1995).

Die ontologische Reduktion der materiellen Dinge auf subatomare Materiebestandteile, die den Gesetzen der Quantentheorie unterliegen, hat ebenfalls ihre Schönheitsfehler. Sie erklärt die Zusammensetzung eines       Atoms aus quantisierten Größen, aber sie erlaubt es nicht, die Träger dieser physikalischen Eigenschaften zu individuieren. Subatomare Teilchen sind ununterscheidbar.     Elektronen, Protonen, Neutronen oder Quarks haben keine Raum-Zeit-Bahnen, sie lassen sich nur durch ihre dynamischen Erhaltungsgrößen als Materiekonstituenten nachweisen. Die ontologische Reduktion materieller Dinge auf ihre subatomaren Bestandteile stößt hier auf Grenzen der Separierbarkeit. Dazu kommt eine gravierende Erklärungslücke im gesamten ontologischen Reduktionsprogramm. Die Quantentheorie kann nicht erklären, warum Atome in materiellen Dingen lokalisiert sind.

Die theoretische Reduktion gelingt bei alledem nur bruchstückweise. Die Quantenphysik beruht auf einem uneinheitlichen Konglomerat von klassischen und nicht-klassi-schen Gesetzen. Mit „Quantenphysik“ meine ich hier nicht die gegenwärtigen Quantentheorien per se, sondern deren Verwendung in der physikalischen Praxis – den Gebrauch, den man von ihnen in der Atom-, Kern- und Teilchenphysik oder in der Festkörperphysik macht. Dabei wendet man quantentheoretische Gesetze auf Quantenphänomene an, die in Messgeräten und Experimentierapparaturen lokalisiert sind und objektive Werte für klassische Messgrößen wie Ort, Impuls, Masse etc. aufweisen – mit Messfehlern, die viele Größenordnungen über der Heisenbergschen Unschärferelation liegen. Die betreffenden Messtheorien haben keine kohärente axiomatische Basis. Aus einer Quantentheorie lassen sich per se weder lokalisierte Phänomene noch objektive Messresultate herleiten; darum sind klassische Messgesetze unverzichtbar für die Analyse der experimentellen Phänomene. Um die verwendeten quantentheoretischen Gesetze an eine klassische Messtheorie anzuschließen, benutzt man eine Vielzahl quasi-klassischer Grenzfälle und semi-klassischer Modelle, deren Konstruktion auf dem stillschweigenden Gebrauch von Brückenprinzipien wie dem Bohrschen Korrespondenzprinzip beruht.

All diese Sachverhalte sind grundsätzlich gut bekannt; ich stelle sie hier nur überblickshalber zusammen. Grundsätzlich neu daran ist gegenüber den Erklärungsdefiziten der klassischen Physik, (1) dass die kausalen Erklärungslücken nicht mehr mit der Annahme von Unwissen-plus-Determinismus vereinbar sind, (2) dass die ontologische Reduktion an entscheidenden Stellen ins Wanken gerät und (3) dass aus diesem Grund nun die theoretischen Inkohärenzen mit semantischen Inkonsistenzen einherkommen – in der Form, dass die Quantentheorie ihre Anwendungsbedingungen nicht nur nicht erklärt, sondern ohne das Projektionspostulat mit ihnen sogar unvereinbar ist. Der Versuch, den Messprozess im Rahmen einer einheitlichen Quantentheorie der Messung zu begründen, verletzt die Bedingung der semantischen Konsistenz, wie Peter Mittelstaedt  gezeigt hat. Während die formale Quantentheorie ohne Projektionspostulat mit der probabilistischen Deutung der Wellenfunktion semantisch konsistent ist, besteht eine semantische Inkonsistenz zwischen der quantentheoretischen Beschreibung des Messprozesses und der Annahme, dass objektive Messergebnisse eintreten können (Mittelstaedt 1995, 1997, 2000).

Das Skandalon der Quantentheorie ist danach gerade nicht ihr probabilistischer Charakter, sondern die Nicht-Objektivierbarkeit der Messergebnisse. Gegenüber der klassischen Physik haben sich damit die Erklärungsdefizite drastisch verschärft. Immer liegt das Problem darin, dass man die dynamische Entwicklung eines Systems zwar relativ zu gegebenen Anfangsbedingungen vollständig erklären kann, aber dennoch nicht weiß, warum sich das System gerade so und nicht anders entwickelt. Im Fall des deterministischen Chaos ist dies noch ganz harmlos, die kontingenten Anwendungsbedingungen der physikalischen Dynamik sind nur unbekannt. Im Fall des thermodynamischen Zeitpfeils wird es schon etwas ernster; hier sind die korrekten Anwendungsbedingungen der kinetischen Theorie dafür, dass die Entropie wie erwartet wächst, extrem unwahrscheinlich. Im Fall des quantentheoretischen Messergebnisses wird es vollends mysteriös, denn aus der Dynamik eines Quantensystems folgt, dass objektive Messergebnisse unmöglich sind. In allen drei Fällen muss man sich mit einer unvollständigen Erklärung des Systemverhaltens zufrieden geben.

Das gegenwärtige Theoriengefüge der Physik ist also lückenhaft und uneinheitlich. Es erinnert an die postmoderne Architektur; klassische Bauten stehen neben nicht-klassischen Konstruktionen; teils sind sie ordentlich ineinander verfugt, teils nur lose verknüpft. Die Bruchstellen darin können durch Theorienreduktion derzeit nicht vollständig geschlossen werden. Wie Erhard Scheibe in seinem Werk zur Reduktion physikalischer Theorien zeigt, benötigt man zum philosophischen Verständnis dieser Architektonik eine Theorie der Reduktion, die selbst uneinheitlich ist. Sie umfasst sehr unterschiedliche Reduktionstypen, die oft kombiniert auftreten – Verallgemeinerung, Äquivalenz, Verfeinerung, Erweiterung sowie diverse Varianten der approximativen Reduktion (Scheibe 1997, 1999). Die Brüche zwischen klassischen und quantentheoretischen Systembeschreibungen lassen sich am schwersten überbrücken – wen wundert es angesichts der indizierten ontologischen und semantischen Probleme, die zu nicht-eliminierbaren Inkommensurabilitäten im Sinne von Thomas Kuhn führen. Wie die nicht-enden-wollende Debatte um die Quantentheorie lehrt, stößt man hier auf hartnäckige Erklärungsgrenzen. Die Ansätze zu  einer theoretischen und ontologischen Vereinheitlichung, die man seit Jahrzehnten in unterschiedliche Richtungen verfolgt, kamen bislang stets mit neuen Erklärungsdefiziten und Frakturen einher.

Dennoch gelingt es, die physikalischen Grössenskalen für Länge, Zeit und Masse mit großem empirischem Erfolg über die bestehenden Inkommensurabilitäten hinweg zu konstruieren. Sie reichen vom subatomaren Gebiet bis in den kosmologischen Bereich, und sie begründen die Anwendungen der physikalischen Grundlagenforschung in Wissenschaft und Technik unbeschadet der aufgezeigten Erklärungsgrenzen. Die gegenwärtigen Quantentheorien sind die empirisch erfolgreichsten und präzisesten Theorien der Physik überhaupt. Beispielsweise liefert die Quantenelektrodynamik eine Übereinstimmung zwischen Theorie und Experiment bis auf 8 Stellen hinter dem Komma. Und quantenmechanische Modelle werden von der Halbleiter-Physik bis zur Nanotechnologie benutzt, ohne dass die exotischen Züge des quantentheoretischen Messprozesses auch nur im Geringsten stören würden. Im Gegenteil scheitert der Bau von Quantencomputern bislang nur daran, dass Quantenphänomene durch Dekohärenz noch viel zu leicht und schnell in klassisches Verhalten umkippen.

Darum ist nun zu fragen: Wen eigentlich quälen die innerphysikalischen Erklärungsdefizite? Was hängt denn ab von lückenlosen kausalen Geschichten, ordentlicher Ontologie und vollständiger Reduktion in der Physik? Mir fallen hierzu zwei Antworten ein – eine ganz alltägliche und eine philosophiegeschichtliche. Zum einen ist es immer unbefriedigend, wenn die Warum-Fragen von neugierigen Kindern, Physikern oder Philosophen mit der bequemen Erwachsenen-Antwort „Das ist eben so“ abgewürgt werden. Die weißen Flecken und unüberwindbaren Grenzen in der Landkarte der Physik sind terra incognita; und diese gilt es zu erforschen. Verbote stacheln da nur weiter an. Zum anderen bedeuten die hartnäckigen Hindernisse in dieser terra incognita jedoch, dass nun das alte rationalistische Erkenntnisideal an seine Grenzen stößt, welches der Physik seit Galilei, Descartes und Newton zugrunde liegt: das Ideal einer vollständigen Entzifferung der mathematischen Lettern, in denen das Buch der Natur geschrieben ist. Vor allem die Quantentheorie – bzw.  die physikalischen Sachverhalte, die ihr zugrunde liegen –, aber nicht nur sie errichtet Barrieren für unser Verständnis dessen, was die Welt im Innersten zusammenhält.

Die kausalen, ontologischen und theoretischen Erklärungsdefizite der modernen Physik indizieren prinzipielle Schranken für die Anwendbarkeit der resolutiv-kompositiven Methode, auf der die oben genannten Typen physikalischer Erklärung beruhen. Dies hat vor allem Niels Bohr bemerkt. Er gründete seine Komplementaritätsphilosophie auf diesen Gedanken (Bohr 1927) und diagnostizierte später, dass man im Gebiet der Quantentheorie auf Grenzen der experimentellen Analyse und Synthese stößt (Bohr 1955, 130 u. 135; vgl. auch Chevalley 1991, 373 ff.). Die kausalen und ontologischen Defizite der Quantenphysik brachte er immer wieder damit in Verbindung, dass das Plancksche Wirkungsquantum eine natürliche Schranke für die experimentelle Zerlegung der subatomaren Phänomene in immer kleinere Komponenten bedeutet: (i) Nach Einsteins Lichtquantenhypothese gibt es kleinste Energieportionen der Größe E=hn; (ii) nach Heisenbergs Unschärferelation lassen sich Ort und Impuls vereint nicht genauer messen als bis auf Streuungen ihrer Messwerte von der Größe DpDq ³ h/2; (iii) für subatomare Prozesse, bei denen Wirkungen von der Grössenordnung der Planckschen Konstante übertragen werden, ist die Wechselwirkung zwischen untersuchtem System und Messapparatur nicht mehr vollständig analysierbar.

Bohr hat mit dieser Diagnose letztlich nur den status quo der Quantentheorie beschrieben und keine Erklärung dafür gegeben, warum dies so ist. Man kann seinen Gedanken dennoch weiterspinnen, indem man sagt, dass die resolutiv-kompositive Methode der Physik – oder die physikalische Analyse und Synthese der Phänomene – dort an prinzipielle Grenzen stößt, wo die endlichen Werte der Naturkonstanten eine Rolle spielen. Dies gilt auch für die Lichtgeschwindigkeit. Sie setzt der Informationsübertragung zwischen Prozessen, die sich räumlich entfernt von einander abspielen, eine Schranke; denn Signale können sich nicht schneller als mit Lichtgeschwindigkeit ausbreiten. Dies begrenzt nicht nur den Ereignishorizont des Universums im Großen, sondern auch die Möglichkeiten einer Signalübertragung im Gebiet der Quantentheorie und damit auch die kausale Analyse der nicht-lokalen Korrelationen im EPR-Experiment.

Bohrs Gedanke, dass es natürliche Grenzen der experimentellen Analyse und Synthese gibt, die durch die endlichen Werte der Naturkonstanten bestimmt sind, wurde in der Philosophie der Physik bislang kaum aufgegriffen. Vertreter der empiristischen Wissenschaftstheorie wie van Fraassen ziehen die Grenzen der Naturerkenntnis traditionellerweise ohnehin viel enger, sie machen sie an der empirischen Beobachtungsbasis von Theorien in einem sehr striktem Sinne fest. In der rationalistischen Tradition wiederum ist die Vorstellung ziemlich unpopulär, es könne überhaupt prinzipielle Grenzen unserer Erkenntnis geben, die es unmöglich machen, die Naturgesetze vollständig zu erkennen. Bohrs Gedanke greift die Kantische      Idee auf, dass es Erkenntnisgrenzen gibt, die durch unsere Erkenntnismöglichkeiten bedingt sind. Diese Erkenntnisgrenzen sind im Fall der Quantentheorie aber kontingent und nicht durch irgendwelche Erkenntnisbedingungen a priori in Kants Sinne festgelegt.

Barrieren sind dazu da, überwunden zu werden

Wie geht man nun in der physikalischen Grundlagenforschung mit den quantentheoretischen Grenzen der kausalen Analyse und der ontologischen Reduktion um? Offenkundig stellen sie keine unüberwindlichen Forschungsbarrieren dar. Sie haben weder die erfolgreiche Suche nach immer kleineren subatomaren Materiekonstituenten behindert, noch haben sie dazu geführt, dass man nun künftig alle theoretischen Vereinheitlichungsversuche im Schnittfeld von Teilchenphysik und Kosmologie, bzw. Quantenfeldtheorie und Einsteinscher Theorie der Gravitation unterließe. Im subatomaren Gebiet werden zwar die Kriterien für die Separabilität von Materiebestandteilen sowie die Unterscheidungsmerkmale für Teilchen und Felder mehr und mehr aufgeweicht (vgl. Falkenburg 1995), und dies mag Philosophen stören, die Schwierigkeiten haben, sich von den Denkschemata einer klassischen Ontologie zu lösen – die Physiker stört es bei ihrer weiteren Erkundung der terra incognita nicht. Mit Grenzen kann man leben, wenn man weiß, wie man sie umgehen kann.

In der physikalischen Grundlagenforschung gibt es mehrere Strategien, die theoretische Vereinheitlichung unbeschadet aller kausalen und ontologischen Erklärungsdefizite der Quantentheorie voranzutreiben. An dieser Stelle kommt das physikalische Gegenstück zur analytischen Vorgehensweise beim Problemelösen ins Spiel, nämlich das synthetische Vorgehen bei der Konstruktion einheitlicher Theorien. Es beruht eigentlich darauf, nach Strategien zu suchen, wie man die theoretischen Lösungen kombinieren kann, die sich in den disparat nebeneinander stehenden Teilgebieten der Physik bislang bewährt haben. Dabei geht es um die Konstruktion neuer Theorien und Modelle nach möglichst allgemeinen physikalischen Prinzipien. An dieser Stelle möchte ich zwei grundsätzlich verschiedene Strategien herausheben, die sehr unterschiedlichen Allgemeinheitsgrad haben. Sie zielen auf die Universalität physikalischer Theorien in einem schwächeren bzw. stärkeren Sinne.

Eine physikalische Theorie ist universell gültig im schwächeren Sinne, wenn ihre Gesetze überall innerhalb des Universums gültig sind, für jedes konkrete Einzelsystem. Dies ist sozusagen eine „lokale“ Sicht der Allgemeingültigkeit. Daneben gibt es noch eine „globale“ Sicht der Allgemeingültigkeit, nämlich die Anwendbarkeit der physikalischen Gesetze auf das Universum insgesamt. Im ersten Fall geht es um die Beschreibung von physikalischen Systemen innerhalb des Universums, im zweiten Fall um die Beschreibung des Universums als eines physikalischen Systems. Die gegenwärtigen Ansätze zur Begründung einer Theorie der Quantengravitation entsprechen dem ersten Fall; die Versuche, Quantenkosmologie zu betreiben, entsprechen dem zweiten.

Die erste Sicht, d.h. die lokale Auffassung von universeller Gültigkeit, ist hier um einiges bescheidener. Sie entspricht der Strategie, die physikalischen Begriffe einer Theorie auf begrenzte Systeme anzuwenden, die zum Gegenstandsbereich einer anderen Theorie gehören. Die physikalischen Größenskalen werden so in Gebiete ausgedehnt, in denen der Gebrauch der bewährten Größenbegriffe eigentlich nicht mehr abgesichert ist. Dies geschah in der Theorienentwicklung der Physik immer wieder, und es hat sich als extrem fruchtbar für die Entwicklung neuer Theorien erwiesen – von der Begründung der Quantentheorie bis zur heutigen Thermodynamik schwarzer Löcher und zum Konzept der Hawking-Strahlung. Hawking übertrug thermodynamische Begriffe wie Temperatur und Entropie auf schwarze Löcher, also auf Objekte der allgemeinen Relativitätstheorie, und das quantentheoretische Konzept der Energiefluktuationen auf die thermodynamische Strahlung solcher Gebilde.

Zur selben Strategie gehören die verschiedenen neueren Ansätze zur Begründung der Quantengravitation (Smolin 2000). Sie zielen auf eine Gravitationstheorie, die lokal universell gültig ist, und das heißt: bei der eine gekrümmte Raumzeit lokal quantisiert wird, oder bei der umgekehrt quantentheoretische Systembeschreibungen nicht mehr an die übliche (pseudo-) euklidische Hintergrundmetrik geknüpft sind. Neben den dynamischen Größen der Physik werden dafür auch Raum und Zeit quantisiert. Dies greift letztlich Bohrs Gedanken auf, dass die fundamentalen Naturkonstanten natürliche Grenzen für die physikalische Analyse setzen. Die Ansätze zur Vereinheitlichung von Gravitations- und Quantentheorie sind nämlich mit der Annahme verknüpft, dass es in der Physik keine

kleineren Längen, Massen und Zeiten als die Größeneinheiten gibt, welche die sogenannte Planck-Skala begründen. Die Planck-Länge, Planck-Masse und Planck-Zeit sind natürliche Größeneinheiten, die sich aus der Lichtgeschwindigkeit, dem Planckschem Wirkungsquantum und der Gravitationskonstante berechnen lassen. Die Planck-Skala liegt jedoch weit unterhalb der Schwelle des derzeit experimentell Verfügbaren. Die Planck-Länge beträgt etwa 10-33 cm. Sie ist um 20 Größenordnungen kleiner als der Protonradius – und damit relativ zu den Quarks im Proton so winzig, wie diese relativ zu uns. Bis Experimente zeigen können, ob diese theoretischen Ansätze Sinn machen, darf der rationalistische Traum von der vollständigen Analyse und Synthese der Phänomene noch eine Weile weitergeträumt werden. Vielleicht wird er ja eines Tages dadurch erfüllt, dass man in dieser Größenordnung tatsächlich auf unhintergehbare Grenzen der Teilung von Raum und Zeit stößt!

Die zweite Sicht, also die globale Auffassung der universellen Gültigkeit, ist noch weitaus spekulativer. Sie führt zum Versuch, Quantenkosmologie zu betreiben, d.h. unter Einschluss der Quantentheorie eine Entwicklungsgeschichte des Universums zu entwerfen. Die Ansätze zur Quantenkosmologie sind allesamt mit extremen begrifflichen Schwierigkeiten beladen – vom Zeitbegriff, der in der Quantentheorie die Rolle eines ausgezeichneten Parameters spielt und in der allgemeinen Relativitätstheorie nicht, über den quantentheoretischen Messprozess bis zum Konzept einer quantenmechanischen Wellenfunktion des Universums. Dieses starke Konzept der universellen Gültigkeit physikalischer Gesetze verträgt sich nicht gut mit dem Charakteristikum physikalischer Erklärungen, Bedingungsgefüge zu explizieren, die in einem konkreten Zusammenhang gegeben sind und im Hinblick auf ihre kausal relevanten Einzelelemente analysiert werden. Das schwächere Konzept der universellen Gültigkeit physikalischer Gesetze ist im Einklang mit dieser Sicht der physikalischen Erklärung, das stärkere nicht. Dass die Ansätze zur Quantenkosmologie an viel gravierenderen konzeptuellen Problemen leiden als die zur Quantengravitation, verwundert aus diesem Blickwinkel nicht.

Grenzen des Physikalismus

Wenn man bedenkt, wie lückenhaft das Theoriengebäude der Physik derzeit ist und wie uneinheitlich selbst die zugehörige Theorie der Reduktion ausfällt, nehmen sich die genannten Vereinheitlichungsversuche als mutig, wenn nicht unerschrocken aus. Die Geschichte der neuzeitlichen Physik lehrt allerdings, wie stark solche Versuche die theoretische Naturerkenntnis immer wieder vorangebracht haben. Man muss hier nur an die Komplimente erinnern, die sich Einstein und Bohr gegenseitig bezüglich ihres artistischen Geschicks bei der Begründung der Quanten- bzw. Relativitätstheorie machten! Einstein sprach Bohr „höchste Musikalität auf dem Gebiete des Gedankens“ zu, während Bohr umgekehrt Einsteins „Meisterschaft der Koordinierung anscheinend sich widersprechender Erfahrungen“ bewunderte (Einstein 1955, 17; Bohr 1955, 119).

Angesichts der Erklärungsdefizite, die sich schon innerhalb der Physik zeigen, ist dennoch große Vorsicht bezüglich der Verallgemeinerbarkeit physikalischer Erklärungen außerhalb der Physik geboten. Physikalische Erklärungen weisen grundsätzlich kausale, ontologische und theoretische Lücken auf; und dies liegt letztlich daran, dass die Anwendungsbedingungen physikalischer Gesetze teils unbekannt und teils unverstanden sind. Bei den Versuchen, diese Erklärungslücken zu stopfen, stößt man auf sehr grundsätzliche konzeptuelle Probleme, und diese hängen engstens mit den unverstandenen Anwendungsbedingungen der betreffenden Theorien zusammen. Die derzeitige Tendenz vieler Naturwissenschaftler und Philosophen zu einer physikalistischen Weltsicht, oder: der gegenwärtig vorherrschende Naturalismus, ist durch diese lückenhafte Erklärungsbasis meines Erachtens nicht gerechtfertigt.  Lassen Sie mich deshalb abschließend noch eine Warnung bezüglich der Verallgemeinerung physikalischer Erklärungen auf außerphysikalische Gebiete aussprechen.

Die größten Erklärungsdefizite und die unsichersten Prognosen gibt es heute innerhalb wie außerhalb der Physik auf dem Gebiet der komplexen Systeme, etwa in der Klimaforschung. Dies liegt daran, dass man das Bedingungsgefüge, in dem ein komplexes System steht, nicht genau kennt und auch nicht kennen kann. Die möglichen physikalischen Mechanismen sind  in vielen Hinsichten klar und gut erforscht; aber ihre Grade und die Art und Weise ihres Zusammenwirkens sind oft höchst unklar. Genauso unklar ist die Grenze zwischen den Gültigkeitsbereichen der klassischen Physik und der Quantentheorie. Quantenphänomene lassen sich nicht einsperren; sie können ziemlich groß sein; wie groß sie genau sind und wann und wo ihre Kohärenzbedingungen erfüllt sind, weiß man nicht. Es wurden erfolgreich Interferenzexperimente mit Fullerenen durchgeführt; und in EPR-Experimenten hat man schon über eine Distanz von mehreren Kilometern hinweg Spin-Korrelationen an Photonenpaaren gemessen, die sich in Glasfaserkabeln ausbreiten. Die nicht-lokalen und indeterministischen Züge der Quantentheorie sowie die Besonderheiten des Messprozesses sind also nicht unbedingt nur exotische Spezialprobleme, die sich aus anderen Gebieten der Physik säuberlich heraushalten lassen.

Man sollte sich insbesondere vor weitreichenden Schlüssen bezüglich der grundsätzlich deterministischen Natur makroskopischer Prozesse hüten, auch wenn die Physik komplexer Systeme aus guten Gründen heute das Modell des deterministischen Chaos zugrunde legt. Was die Anwendungsbedingungen dieses Modells sind und wie gut sie bei den untersuchten Systemen erfüllt sind, ist nur teilweise bekannt. Die Behauptung, so ein komplexes System wie beispielsweise unser Gehirn verhalte sich klassisch, seine Funktionsweise lasse sich mittels der Gesetze der Physik grundsätzlich erklären, und seine Zustandsentwicklung sei einschließlich unserer Bewusstseinszustände im Prinzip vollständig durch „die Naturgesetze“ bestimmt, ist nicht mehr – und nicht weniger – als eine spekulative Arbeitshypothese innerhalb eines konkreten naturwissenschaftlichen Forschungsprogramms.

Literatur
 Klassische Arbeiten

 Niels Bohr: The quantum postulate and the recent development of atomic theory. Vortrag Como 1927; modifizierte Version in: Nature 121 (1928), 580–590. (Beide Versionen in: Collected Works, Bd. 6, 109–158.)

Niels Bohr: On the notions of causality and complementarity. In: Dialectica 2 (1948), 312–318 (Nachdruck in: Collected Works, Bd. 7).

Niels Bohr: Diskussion mit Einstein über erkenntnistheoretische Probleme in der Atomphysik. In: Paul A.Schilpp (Hrsg.), Albert Einstein als Philosoph und Naturforscher. Stuttgart: Kohlhammer 1955, 115–150.

Niels Bohr, Atomic Physics and Human Knowledge, New York: J.Wiley & Sons 1958 (Nachdruck in: Collected Works, vol. 7). Dt.: Atomphysik und menschliche Erkenntnis, Braunschweig: Vieweg 1958.

René Descartes: Discours de la Méthode. 1634. Dt.: Von der Methode des richtigen Vernunftgebrauchs und der wissenschaftlichen Forschung.

Albert Einstein: Autobiographisches. In: Paul A.Schilpp Übers. und hrsg. von Lüder Gäbe, Vii, 125 S., Lk, PhB 261, € 9.80, 1978, Meiner, Hamburg. (Hrsg.), Albert Einstein als Philosoph und Naturforscher. Stuttgart: Kohlhammer 1955, 1–35.

David Hilbert: Axiomatisches Denken. In: Mathematische Annalen 78 (1918), 405–415. Nachdruck in: Gesammelte Abhandlungen III, Berlin: Springer 1935, 378–387

Isaac Newton: Philosophiae naturalis principia mathematica. 3rd edition, London 1726. Ed. by A.Koyré and I.B.Cohen, Cambridge: At the University Press 1972.

Überblicke

 John Losee: A Historical Introduction to the Philosophy of Science. 300 p., pbk. £ 15.--,  3rd edition 1993, Oxford Unversity Press.

Physikalische Erklärung

 Nancy Cartwright: Nature’s Capacities and Their Measurement. X, 268 p., £ 16.--, 1989, Clarendon Press, Oxford.

Catherine Chevalley, Glossaire: Analyse et Synthèse, in: Niels Bohr: Physique atomique et connaissance humaine, ed. par Catherine Chevalley, 1991, Gallimard, Paris.

Brigitte Falkenburg: The analysis of particle tracks: a case for trust in the unity of physics. In: Studies in the History and Philosophy of Modern Physics 27 (1996), 337–371.

Brigitte Falkenburg: Bohr’s Principles of Unifying Quantum Disunities, in: Philosophia naturalis 35 (1998), 95–120.

Brigitte Falkenburg und Robert Schnepf: Kausalität in Metaphysik und Physik, in: Brigitte Falkenburg und Detlev Pätzold (Hrsg.), Verursachung. Repräsentationen von Kausalität. DIALEKTIK 1998/2, Hamburg: Felix Meiner, 27–48.

Michael Friedman: Explanation and Scientific Understanding. In: Journal of Philosophy 71 (1974).

Thomas S. Kuhn: The Structure of Scientific Revolutions. Deutsche Ausgabe: Die Struktur wissenschaftlicher Revolutionen. 240 S., stw 25, € 10.--, Suhrkamp, Frankfurt.

John L.Mackie, The Cement of the Universe. Study of the Causation. 318 p., pbk., £ 15.--, 1st edition 1974, 1980, Clarendon Press, Oxford.

Peter Mittelstaedt: Die wechselseitigen Beziehungen zwischen der Quantentheorie und ihrer Interpretation. In: Physik, Philosophie und die Einheit der Wissenschaften. Spektrum Akademischer Verlag: Heidelberg 1995, 97–117.

Erhard Scheibe: Gibt es Erklärungen von Theorien? In: Allgemeine Zeitschrift für Philosophie 1 (1976), 26–45.

Erhard Scheibe: Die Reduktion physikalischer Theorien.

Teil 1: Grundlagen und elementare Theorie. Xii, 230 S., Ln., € 54.--.

Teil 2: Inkommensurabilität und Grenzfallreduktion. Vii, 250 S., Ln., € 74.95, Springer, Heidelberg.

Erhard Scheibe: Between Rationalism and Empiricism. Selected Papers in the Philosophy of Physics. Viii, 627 p., cloth, £ 80.25,  2001, New York.

Erklärungsgrenzen

Zur Realitätsauffassung in Wissenschaftsphilosophie und Mikrophysik. 1995, Spektrum Akademischer Verlag, Heidelberg (im Buchhandel vergriffen).

Peter Mittelstaedt: The Interpretation of Quantum Mechanics and the Measurement Process. 150 p., cloth, 1997, $ 60.-- Cambridge: Cambridge University Press .

Peter Mittelstaedt: What if quantum mechanics is universally valid? In: Evandro Agazzi and Jan Faye (eds.), The Problem of the Unity of Science, World Scientific, Singapore 2001, 177-188.

Überwindung von Barrieren

 Lee Smolin: Three Roads to Quantum Gravity. 176 p., cloth £ 17.--, pbk. £ 9.--, 2000, Weidenfeld & Nicolson, London.

Autor

Brigitte Falkenburg ist Professorin für Philosophie der Wissenschaften und der Technik an der Universität Dortmund. Von der Redaktion gekürzter Text. Die Originalfassung erscheint in: Grenzen und Grenzüberschreitungen. XIX. Deutscher Kongress für Philosophie 23.-27. September 2002 in Bonn. Kolloquien und Festvorträge, Akademie-Verlag, Berlin. Weitere Veröffentlichung: " und "