Unser Alltag ist voller Phänomene, deren Zustandekommen
durch die Gesetze der physik erklärt wird – die Wurfparabel, die ein Stein
beschreibt; die konzentrischen Wellen, die der Stein erzeugt, wenn er ins Wasser
fällt; optische Naturerscheinungen wie der Regenbogen; der Sachverhalt, dass
ein Jahr, das kein Schaltjahr ist, 365 Tage dauert; der Stromverbrauch der
technischen Geräte, die wir täglich verwenden; oder die Funktionsweise
medizinischer Diagnostikverfahren wie der Kern-Spin-Tomographie.
Erklärungen sind Antworten auf
Warum-Fragen. Sie geben die Gründe und Ursachen dafür an, warum ein Sachverhalt
so ist, wie er ist, oder warum etwas so geschieht, wie es geschieht. Warum wird
es hell im Raum? Weil ich den Lichtschalter betätigt habe; weil der elektrische
Strom nicht abgeschaltet ist; weil der Glühdraht in der Glühbirne intakt ist;
weil der Strom den Glühdraht so stark erhitzt, dass dessen Atome Lichtquanten emittieren. Warum gibt es nach dem Regen
manchmal einen Regenbogen? Weil die Sonne manchmal wieder scheint, während es
zugleich noch regnet; weil Sonnenstrahlen dabei in einem bestimmten Winkel auf
Regentropfen treffen und das weiße Licht durch Brechung daran so in die
Spektralfarben zerlegt wird, dass konzentrische farbige Kreisringe entstehen.
Physikalische Erklärungen geben Gründe
und Ursachen an, die man auf die Gesetze der Physik zurückführt. Oft erzählen
sie kausale Geschichten, in denen Aussagen über konkrete Sachverhalte oder
Geschehnisse unter physikalische Gesetze subsumiert werden. Dies tun sie aber,
wie Nancy Cartwright gezeigt hat, im allgemeinen nicht nach dem
DN-Schema der wissenschaftlichen Erklärung (Cartwright 1983). Die logische Struktur
physikalischer Erklärungen ist nicht so transparent, wie die Klassiker der
Wissenschaftstheorie behaupteten. Die kausalen Geschichten der Physik entfalten
meist recht komplizierte Bedingungsgefüge (Cartwright 1993; Falkenburg und
Schnepf 1998; Mackie 1980). Sie verweisen auf Mechanismen wie die
Lichtbrechung; auf Kräfte wie die Gravitation oder den Elektromagnetismus und
ihr Zusammenwirken; auf mikroskopische Eigenschaften der materiellen Dinge wie
die Magnetisierbarkeit des Spins von Atomkernen; auf Gesetze wie die
Maxwell-Gleichungen, das Ohmsche Gesetz, die Plancksche Strahlungsformel; und
auf die Anwendungsbedingungen solcher Gesetze, die im allgemeinen nur
angenähert erfüllt sind. Diese Erklärungsinstanzen liefern im Normalfall keine
lückenlose Deduktion des zu erklärenden Geschehens.
Die Physik zielt auf Objektivierung,
auf die Angabe von Gründen und Ursachen, die unabhängig von unserem Eingriff
ins Geschehen sind und die in der Natur der Sache selbst liegen. Dabei sieht
man vom Einfluß menschlicher Handlungen ab. Dass ich den Lichtschalter
betätige, spielt in der physikalischen Erklärung dafür, warum es im Raum hell
wird, keine Rolle. Solche Objektivierung wird seit Galilei dadurch erreicht, dass
die Naturerscheinungen mathematisiert und technisiert werden. Physiker
bauen sich Beobachtungsinstrumente; sie benutzen Messverfahren, denen
standardisierte Maßeinheiten und -systeme zugrundeliegen; sie führen unter
kontrollierten Bedingungen Experimente mit reproduzierbaren Ergebnissen durch.
Messungen und Experimente sind wiederum die Kontrollinstanzen für physikalische
Gesetze; und diese drücken funktionale Zusammenhang zwischen physikalischen
Größen wie Ort, Zeit, Masse, Energie, Ladung oder Temperatur aus. Jeder Wert
einer physikalischen Größe wie „Masse“ entspricht einer Klasse von
standardisierten Phänomenen – etwa der Klasse aller Körper, die bei Messung mit
der Balkenwaage gleich schwer sind.
In den verschiedenen Teilgebieten der
Physik gibt es für Größen wie die Masse unterschiedliche Messverfahren, deren
Anwendungsbereiche sich überlappen. Dies ermöglicht die (uneinheitliche)
operationale Definition physikalischer Größenskalen für Länge, Zeit, Masse,
Energie, Temperatur und andere Größen anhand von Ketten solcher Messverfahren.
Physikalische Erklärungen reichen damit im Prinzip so weit wie die Sprache der
physikalischen Größenskalen; und diese beruht auf mathematischen Methoden hier
und Messverfahren dort.
Bisher habe ich recht unspezifisch von Gründen und Ursachen
als Erklärungsinstanzen in physikalischen Erklärungen gesprochen. Es gibt aber
natürlich verschiedenartige Antworten auf Warum-Fragen, und mit ihnen
unterschiedliche Erklärungstypen. Für die Physik sind drei traditionelle Arten
von Erklärungsinstanzen oder Gründen typisch:
Die Angabe von Ursachen, oder: die Rekonstruktion einer
kausalen Geschichte, auf die ein Ereignis eines bestimmten Typs zurückzuführen
ist. So wird die Entstehung einer Teilchenspur
in einer Nebelkammer wie folgt erklärt: Ein geladenes Teilchen ionisiert einzelne
Wasserdampf-Moleküle; diese werden zu Kondensationskernen für Tröpfchen; so
entsteht eine Sequenz benachbarter Wassertröpfchen. Hier ist eine Ereignissequenz
das Explanandum, seine kausale Geschichte ist das Explanans. Die Ereignissequenz
(bzw. ein Foto davon) ist beobachtbar; die kausale Geschichte wird mittels physikalischer
Gesetze rekonstruiert. – Anders als die Philosophen haben Physiker eine ontologische
Sicht des Explanandum: sie betrachten nicht Propositionen, sondern Sachverhalte
als das, was zu erklären ist. Dem zu erklärenden Sachverhalt entspricht eine kontingente
Aussage als Explanandum im wissenschaftstheoretischen Sinne.
Die ontologische Reduktion, oder: die Angabe der Komponenten,
aus denen etwas besteht. Zum Beispiel
besteht weißes Licht aus farbigen Spektralkomponenten; der Nebel in der
Nebelkammer besteht aus Wasserdampf-Molekülen; Moleküle bestehen aus Atomen;
Atome bestehen aus Elektronen und Atomkernen. Hier ist ein physikalisches
Phänomen wie weißes Licht oder Nebel das (wiederum ontologisch verstandene)
Explanandum, und seine Bestandteile fungieren als ontologisches Explanans; es
handelt sich dabei um die Relate einer Teile-Ganzes-Beziehung. Die ontologische
Reduktion kann iteriert werden. Moleküle werden ihrerseits zum Explanandum; man
nimmt Atome und deren Konstituenten als Explanans hinzu (Elektronen; Protonen, Neutronen; Quarks).
Der quantitative Aspekt der ontologischen Reduktion sind Erhaltungssätze und Summenregeln
für physikalische Größen wie die Ladung. Sie besagen, inwieweit sich die Eigenschaften eines physikalischen Systems
aus denjenigen seiner Bestandteile erklären; sie sind experimentell
überprüfbar.
Die theoretische Reduktion, oder: die Einbettung von
physikalischen Gesetzen in eine axiomatische Theorie. Zum Beispiel lassen sich
Galileis Fallgesetz und die Keplerschen Gesetze näherungsweise als Spezialfälle
in Newtons Gravitationstheorie einbetten. Hier ist das Explanans ein physikalisches
Gesetz, das Explanandum ein umfassenderes Gesetz. Die Theorienreduktion zielt
auf Erklärung im Sinne von theoretischer Vereinheitlichung (Friedman 1974),
oder: auf die „Tieferlegung der Fundamente“ im Sinne von Hilberts axiomatischer
Methode (Hilbert 1918). – Bei der Theorienreduktion sind Explanandum und
Explanans physikalische Gesetze; auch dieser Fall entspricht allerdings nicht
dem DN-Schema der Erklärung (vgl. Scheibe 1976 [=2001, 324 ff.]; 1997, 23 ff.)
Die Erklärungen der Physik bestehen
also nicht einfach darin, kontingente Aussagen unter Gesetzesaussagen zu
subsumieren. Sie zielen auf etwas weitaus Komplizierteres, nämlich auf die
Rekonstruktion eines gesetzmäßigen Bedingungsgefüges, das im konkreten
Naturgeschehen am Werk ist. Da schon aufgrund der Nicht-Abschirmbarkeit der
Gravitation im Naturzusammenhang letztlich alle Vorgänge miteinander verschränkt
sind, verträgt sich dieses Ziel nicht wirklich mit der
wissenschaftstheoretischen Standardauffassung, dass physikalische Theorien aus
gesetzesartigen Aussagen bestehen, die über nicht-korrelierte gleichartige
Einzelfälle generalisieren (vgl. Scheibe 2001, Teil IV). Physikalische Theorien
liefern dynamische Systembeschreibungen, die das konkrete Bedingungsgefüge
erfassen sollen, welches in einem spezifischen physikalischen Geschehen im
Einzelfall am Werk ist. Dieses Bedingungsgefüge gilt es in separate Bedingungen
zu entfalten; hierauf zielen die experimentelle Analyse von Naturerscheinungen
unter Laborbedingungen und die mathematische Analyse der experimentellen
Ergebnisse. Wenn Physiker eine Erklärung für einen konkreten Sachverhalt oder
einen theoretischen Zusammenhang suchen, so gehen sie nicht
deduktiv-nomologisch, sondern analytisch vor – sie analysieren einen
gegebenen Problemkomplex mit ihren experimentellen und theoretischen Methoden.
Dabei befolgen sie im wesentlichen die Regeln, die schon Descartes im Discours
de la Méthode aufgestellt hatte: Sie zerlegen ein Problem in so viele
leichter lösbare Teilprobleme wie möglich und nötig; sie lösen die Teilprobleme
der Reihe nach und setzen komplexe Lösungen aus einfachen zusammen; sie zielen
auf eine möglichst vollständige Erklärung, die möglichst umfassend und
allgemein anwendbar sein soll.
Das problemanalytische Vorgehen der Physiker
steht in der naturphilosophischen Tradition einer Analyse und Synthese der
Phänomene. Man sieht dies noch am Sprachgebrauch von Physikern wie Niels
Bohr, der in der Quantenphysik Grenzen der experimentellen Analyse und
Synthese diagnostizierte. Die oben genannten Erklärungstypen sind nichts
für moderne hartgesottene Logiker und Empiristen. Sie wurzeln in der neuzeitlichen
Erkenntnistheorie; sie sind mehr oder weniger deckungsgleich mit Varianten der
resolutiv-kompositiven Methode, die schon Galilei und Newton im Einklang mit
den Regeln des Cartesischen Discours benutzten, um die neuzeitliche
Physik zu begründen (Losee 1993). Galileis experimentelle Methode zielt auf
eine Zerlegung physikalischer Phänomene in Komponenten wie Wurf- und
Fallbewegung; in Schwerebewegung und Bremsung durch den Luftwiderstand; in zu
untersuchenden Effekt und vernachlässigbare Störung. Die Zerlegung der
Phänomene zielt auf Identifikation der kausal relevanten Faktoren, die in die
Rekonstruktion der kausalen Geschichte eines Geschehens eingehen. Newton
wiederum forderte, in der Physik auf die „wahren Ursachen“ der Phänomene zu
schließen und gleichartige Wirkungen durch gleichartige Ursachen zu erklären
(Newton 1726, Buch III, Regulae). Beides zielt auf theoretische
Vereinheitlichung der Phänomene – wobei die „Phänomene“ für ihn das waren, was
wir heute präziser phänomenologische Gesetze nennen, nämlich die Kepler-Gesetze
der Planetenbewegungen und Galileis
Fallgesetz.
Bis heute kombiniert man in der
Physik die genannten Erklärungsinstanzen typischerweise miteinander. Kausale
Geschichten rekurrieren oft auf mikroskopische Materiekonstituenten und deren
Wechselwirkungen; die Gesetze der subatomaren Wechselwirkungen werden dabei so
weit wie möglich theoretisch vereinheitlicht. Wo die theoretische Reduktion
nicht gelingt, etwa im Schnittfeld der gegenwärtigen Quantenfeldtheorien der
Elementarteilchen und der allgemein-relativistischen Kosmologie, unterstellt
man, sie könne gelingen. Nach diesem Vertrauensprinzip untersucht man
derzeit in der Teilchenastrophysik die kosmische Strahlung mit den experimentellen
und theoretischen Methoden der Teilchenphysik. Dabei hat man extrem
hochenergetische Teilchen gefunden, von denen man vermutet, dass sie aus fernen
Regionen des Universums stammen, und will nun ihre Herkunft klären. Die
Grundidee ist dabei heute wie im 17. Jahrhundert, möglichst umfassende kausale,
ontologische und theoretische Erklärungen zu gewinnen – und mit ihnen
umfassende Einsicht in die Gesetze, denen das vergangene, gegenwärtige und
künftige Naturgeschehen unterliegt. Die Theorien des 20. Jahrhunderts lehren
allerdings, dass die Erklärungskraft der Physik ihre Grenzen hat.
Eine Erklärung ist vollständig, wenn
sie den zu erklärenden Sachverhalt relativ zu irgendwelchen Ursachen oder
Gründen, die wir nicht mehr für erklärungsbedürftig halten, lückenlos
erklärt. Beim gegenwärtigen Wissenstand kann die Physik erschöpfende Auskunft
auf viele Warum-Fragen geben. In vielen Fällen sind physikalische Erklärungen
bei näherem Besehen allerdings leider nicht lückenlos. Die oben
genannten Erklärungsinstanzen können kausale, ontologische und
grundlagentheoretische Defizite aufweisen. Physikalische Erklärungen reichen
faktisch letztlich doch nicht so weit, wie eingangs im Prinzip über sie behauptet
wurde – nämlich so weit wie die Sprache der Physik, die auf mathematischen
Methoden hier und Messverfahren dort beruht. Was die axiomatischen Grundlagen
physikalischer Begriffe betrifft, ist diese Sprache nicht einheitlich –
obwohl man für Größenbegriffe wie Länge, Masse, Zeit erfolgreich physikalische Grössenskalen
konstruiert, die über die bestehenden Inkommensurabilitäten hinweg tragen.
Schon innerhalb der klassischen Physik
gibt es Grenzen der Erklärung. Sie betreffen insbesondere den thermodynamischen
Zeitpfeil und das deterministische Chaos. Im ersten Fall gelingt zwar die
ontologische Reduktion der Wärme auf molekulare Bewegung; die Temperatur eines
(idealen) Gases entspricht der mittleren kinetischen Energie der Gasmoleküle.
Die theoretische Reduktion der Thermodynamik auf die kinetische Theorie gelingt
jedoch nicht so weitgehend, dass damit auch die Richtung des
Zeitpfeils erklärt wäre. Im zweiten Fall genügen winzige Differenzen in den
Anfangsbedingungen eines chaotischen Systems, um zu extrem unterschiedlichen
Systementwicklungen zu führen. Da die Entwicklung komplexer physikalischer
Systeme den Gesetzen des deterministischen Chaos unterliegt und die äußeren
physikalischen Bedingungen, unter denen sie steht, nie exakt bekannt sind, lässt
sich die künftige Entwicklung komplexer Systeme im allgemeinen nicht
vorhersagen; umgekehrt lässt sich ihr gegenwärtiger Zustand auch nicht
eindeutig aus vergangenen Zuständen erklären. Das Erklärungsdefizit beruht hier
„nur“ auf Unkenntnis der exakten Anwendungsbedingungen von Gesetzen, die im
Prinzip deterministisch sind. Die kausalen Geschichten, die man für klassische
chaotische Systeme rekonstruiert, weisen dennoch irreduzible kausale Lücken
auf.
Die gravierendsten Erklärungsdefizite
hängen mit der Quantenphysik zusammen. Atome und ihre Bestandteile unterliegen
der Quantenmechanik oder einer anderen Quantentheorie, und damit der Heisenbergschen
Unschärferelation. Man kann den Ort und Impuls subatomarer Teilchen nicht in
ein-und-demselben Experiment scharf messen; nach einer Ortsmessung weisen die
Werte einer Impulsmessung eine erhebliche Streuung auf, und umgekehrt. Im
Gegensatz zu den klassischen Theorien der Physik kann eine Quantentheorie die
Ergebnisse von Messungen prinzipiell nicht erklären. Sie liefert keinen
kausalen Mechanismus, der wenigstens grundsätzlich Auskunft darüber gibt, wie
ein bestimmtes Messresultat zustande kommt. Stattdessen enthält sie neben den
üblichen Bewegungsgleichungen einer physikalischen Dynamik zusätzlich ein Postulat
(das Projektionspostulat), das den Anschluss an eindeutige, objektive Messresultate
und an die Sprache der klassischen Physik ad hoc herstellt. Für viele
Größen macht die Quantenmechanik nur Aussagen über die Wahrscheinlichkeit von Messergebnissen;
das einzelne Messresultat ist typischerweise nicht vorhersagbar. Sie ist eine irreduzibel
probabilistische Theorie. Ihre zentrale theoretische Größe, die
Wellenfunktion y, hat keine direkte physikalische Deutung, sie liefert nur abstrakte
Wahrscheinlichkeitsdichten für die möglichen Messwerte physikalischer Größen.
Dabei ist sie nicht mit der klassischen Ignoranzdeutung der Wahrscheinlichkeit
vereinbar, wie man zeigen kann.
Im einzelnen lassen die
Erklärungsinstanzen der Physik bei der Quantentheorie folgendes zu wünschen
übrig:
Die kausalen Geschichten, die uns die Quantentheorie allein
oder zusammen mit der klassischen Physik über die Entstehung physikalischer
Phänomene erzählt, sind meist unvollständig. Sie geben u. a. keine
Auskunft, warum ein radioaktives Atom zu einem bestimmten Zeitpunkt zerfällt.
Auch die quantentheoretische Erklärung von Teilchenspuren ist lückenhaft. Man
kann nachträglich rekonstruieren, wie eine konkrete Teilchenspur entstand und
welche quantentheoretischen Prozesse sich entlang der Spur zugetragen haben.
Die Quantentheorie erklärt uns aber nicht, warum im Einzelfall exakt diese und keine andere Spur zustande kam (Falkenburg 1995).
Die ontologische Reduktion der materiellen Dinge auf subatomare
Materiebestandteile, die den Gesetzen der Quantentheorie unterliegen, hat
ebenfalls ihre Schönheitsfehler. Sie erklärt die Zusammensetzung eines Atoms aus quantisierten Größen, aber sie
erlaubt es nicht, die Träger dieser physikalischen Eigenschaften zu
individuieren. Subatomare Teilchen sind ununterscheidbar. Elektronen, Protonen, Neutronen oder
Quarks haben keine Raum-Zeit-Bahnen, sie lassen sich nur durch ihre dynamischen
Erhaltungsgrößen als Materiekonstituenten nachweisen. Die ontologische
Reduktion materieller Dinge auf ihre subatomaren Bestandteile stößt hier auf
Grenzen der Separierbarkeit. Dazu kommt eine gravierende Erklärungslücke im
gesamten ontologischen Reduktionsprogramm. Die Quantentheorie kann nicht
erklären, warum Atome in materiellen Dingen lokalisiert sind.
Die theoretische Reduktion gelingt
bei alledem nur bruchstückweise. Die Quantenphysik beruht auf einem
uneinheitlichen Konglomerat von klassischen und nicht-klassi-schen Gesetzen.
Mit „Quantenphysik“ meine ich hier nicht die gegenwärtigen Quantentheorien per
se, sondern deren Verwendung in der physikalischen Praxis – den Gebrauch,
den man von ihnen in der Atom-, Kern- und Teilchenphysik oder in der
Festkörperphysik macht. Dabei wendet man quantentheoretische Gesetze auf
Quantenphänomene an, die in Messgeräten und Experimentierapparaturen
lokalisiert sind und objektive Werte für klassische Messgrößen wie Ort, Impuls,
Masse etc. aufweisen – mit Messfehlern, die viele Größenordnungen über der
Heisenbergschen Unschärferelation liegen. Die betreffenden Messtheorien haben
keine kohärente axiomatische Basis. Aus einer Quantentheorie lassen sich per
se weder lokalisierte Phänomene noch objektive Messresultate herleiten;
darum sind klassische Messgesetze unverzichtbar für die Analyse der experimentellen
Phänomene. Um die verwendeten quantentheoretischen Gesetze an eine klassische Messtheorie anzuschließen, benutzt man eine Vielzahl quasi-klassischer Grenzfälle
und semi-klassischer Modelle, deren Konstruktion auf dem stillschweigenden Gebrauch
von Brückenprinzipien wie dem Bohrschen Korrespondenzprinzip beruht.
All diese Sachverhalte sind
grundsätzlich gut bekannt; ich stelle sie hier nur überblickshalber zusammen.
Grundsätzlich neu daran ist gegenüber den Erklärungsdefiziten der klassischen
Physik, (1) dass die kausalen Erklärungslücken nicht mehr mit der
Annahme von Unwissen-plus-Determinismus vereinbar sind, (2) dass die
ontologische Reduktion an entscheidenden Stellen ins Wanken gerät und (3) dass
aus diesem Grund nun die theoretischen Inkohärenzen mit semantischen
Inkonsistenzen einherkommen – in der Form, dass die Quantentheorie ihre
Anwendungsbedingungen nicht nur nicht erklärt, sondern ohne das
Projektionspostulat mit ihnen sogar unvereinbar ist. Der Versuch, den Messprozess
im Rahmen einer einheitlichen Quantentheorie der Messung zu begründen, verletzt
die Bedingung der semantischen Konsistenz, wie Peter Mittelstaedt gezeigt hat. Während die formale
Quantentheorie ohne Projektionspostulat mit der probabilistischen Deutung der
Wellenfunktion semantisch konsistent ist, besteht eine semantische Inkonsistenz
zwischen der quantentheoretischen Beschreibung des Messprozesses und der Annahme,
dass objektive Messergebnisse eintreten
können (Mittelstaedt 1995, 1997, 2000).
Das Skandalon der Quantentheorie ist danach
gerade nicht ihr probabilistischer Charakter, sondern die Nicht-Objektivierbarkeit
der Messergebnisse. Gegenüber der klassischen Physik haben sich damit die
Erklärungsdefizite drastisch verschärft. Immer liegt das Problem darin, dass
man die dynamische Entwicklung eines Systems zwar relativ zu gegebenen Anfangsbedingungen
vollständig erklären kann, aber dennoch nicht weiß, warum sich das System gerade
so und nicht anders entwickelt. Im Fall des deterministischen Chaos ist
dies noch ganz harmlos, die kontingenten Anwendungsbedingungen der
physikalischen Dynamik sind nur unbekannt. Im Fall des thermodynamischen
Zeitpfeils wird es schon etwas ernster; hier sind die korrekten Anwendungsbedingungen
der kinetischen Theorie dafür, dass die Entropie wie erwartet wächst, extrem
unwahrscheinlich. Im Fall des quantentheoretischen Messergebnisses wird es
vollends mysteriös, denn aus der Dynamik eines Quantensystems folgt, dass
objektive Messergebnisse unmöglich sind. In allen drei Fällen muss man
sich mit einer unvollständigen Erklärung des Systemverhaltens zufrieden geben.
Das gegenwärtige Theoriengefüge der Physik
ist also lückenhaft und uneinheitlich. Es erinnert an die postmoderne
Architektur; klassische Bauten stehen neben nicht-klassischen Konstruktionen;
teils sind sie ordentlich ineinander verfugt, teils nur lose verknüpft. Die
Bruchstellen darin können durch Theorienreduktion derzeit nicht vollständig
geschlossen werden. Wie Erhard Scheibe in seinem Werk zur Reduktion physikalischer
Theorien zeigt, benötigt man zum philosophischen Verständnis dieser Architektonik
eine Theorie der Reduktion, die selbst uneinheitlich ist. Sie umfasst sehr unterschiedliche
Reduktionstypen, die oft kombiniert auftreten – Verallgemeinerung, Äquivalenz,
Verfeinerung, Erweiterung sowie diverse Varianten der approximativen Reduktion
(Scheibe 1997, 1999). Die Brüche zwischen klassischen und quantentheoretischen
Systembeschreibungen lassen sich am schwersten überbrücken – wen wundert es
angesichts der indizierten ontologischen und semantischen Probleme, die zu
nicht-eliminierbaren Inkommensurabilitäten im Sinne von Thomas Kuhn führen. Wie
die nicht-enden-wollende Debatte um die Quantentheorie lehrt, stößt man hier
auf hartnäckige Erklärungsgrenzen. Die Ansätze zu einer theoretischen und ontologischen Vereinheitlichung, die man
seit Jahrzehnten in unterschiedliche Richtungen verfolgt, kamen bislang stets
mit neuen Erklärungsdefiziten und Frakturen einher.
Dennoch gelingt es, die physikalischen
Grössenskalen für Länge, Zeit und Masse mit großem empirischem Erfolg über die
bestehenden Inkommensurabilitäten hinweg zu konstruieren. Sie reichen vom
subatomaren Gebiet bis in den kosmologischen Bereich, und sie begründen die
Anwendungen der physikalischen Grundlagenforschung in Wissenschaft und Technik
unbeschadet der aufgezeigten Erklärungsgrenzen. Die gegenwärtigen
Quantentheorien sind die empirisch erfolgreichsten und präzisesten Theorien der
Physik überhaupt. Beispielsweise liefert die Quantenelektrodynamik eine
Übereinstimmung zwischen Theorie und Experiment bis auf 8 Stellen hinter dem
Komma. Und quantenmechanische Modelle werden von der Halbleiter-Physik bis zur
Nanotechnologie benutzt, ohne dass die exotischen Züge des quantentheoretischen
Messprozesses auch nur im Geringsten stören würden. Im Gegenteil scheitert der
Bau von Quantencomputern bislang nur daran, dass Quantenphänomene durch Dekohärenz
noch viel zu leicht und schnell in klassisches Verhalten umkippen.
Darum ist nun zu fragen: Wen eigentlich
quälen die innerphysikalischen Erklärungsdefizite? Was hängt denn ab von
lückenlosen kausalen Geschichten, ordentlicher Ontologie und vollständiger
Reduktion in der Physik? Mir fallen hierzu zwei Antworten ein – eine ganz
alltägliche und eine philosophiegeschichtliche. Zum einen ist es immer
unbefriedigend, wenn die Warum-Fragen von neugierigen Kindern, Physikern oder
Philosophen mit der bequemen Erwachsenen-Antwort „Das ist eben so“
abgewürgt werden. Die weißen Flecken und unüberwindbaren Grenzen in der
Landkarte der Physik sind terra incognita; und diese gilt es zu erforschen.
Verbote stacheln da nur weiter an. Zum anderen bedeuten die hartnäckigen
Hindernisse in dieser terra incognita jedoch, dass nun das alte
rationalistische Erkenntnisideal an seine Grenzen stößt, welches der Physik
seit Galilei, Descartes und Newton zugrunde liegt: das Ideal einer vollständigen
Entzifferung der mathematischen Lettern, in denen das Buch der Natur
geschrieben ist. Vor allem die Quantentheorie – bzw. die physikalischen Sachverhalte, die ihr zugrunde liegen –, aber
nicht nur sie errichtet Barrieren für unser Verständnis dessen, was die Welt im
Innersten zusammenhält.
Die kausalen, ontologischen und theoretischen Erklärungsdefizite der modernen Physik indizieren prinzipielle Schranken für die Anwendbarkeit der resolutiv-kompositiven Methode, auf der die oben genannten Typen physikalischer Erklärung beruhen. Dies hat vor allem Niels Bohr bemerkt. Er gründete seine Komplementaritätsphilosophie auf diesen Gedanken (Bohr 1927) und diagnostizierte später, dass man im Gebiet der Quantentheorie auf Grenzen der experimentellen Analyse und Synthese stößt (Bohr 1955, 130 u. 135; vgl. auch Chevalley 1991, 373 ff.). Die kausalen und ontologischen Defizite der Quantenphysik brachte er immer wieder damit in Verbindung, dass das Plancksche Wirkungsquantum eine natürliche Schranke für die experimentelle Zerlegung der subatomaren Phänomene in immer kleinere Komponenten bedeutet: (i) Nach Einsteins Lichtquantenhypothese gibt es kleinste Energieportionen der Größe E=hn; (ii) nach Heisenbergs Unschärferelation lassen sich Ort und Impuls vereint nicht genauer messen als bis auf Streuungen ihrer Messwerte von der Größe DpDq ³ h/2; (iii) für subatomare Prozesse, bei denen Wirkungen von der Grössenordnung der Planckschen Konstante übertragen werden, ist die Wechselwirkung zwischen untersuchtem System und Messapparatur nicht mehr vollständig analysierbar.
Bohr hat mit dieser Diagnose letztlich nur den status quo der Quantentheorie beschrieben und keine Erklärung dafür gegeben, warum dies so ist. Man kann seinen Gedanken dennoch weiterspinnen, indem man sagt, dass die resolutiv-kompositive Methode der Physik – oder die physikalische Analyse und Synthese der Phänomene – dort an prinzipielle Grenzen stößt, wo die endlichen Werte der Naturkonstanten eine Rolle spielen. Dies gilt auch für die Lichtgeschwindigkeit. Sie setzt der Informationsübertragung zwischen Prozessen, die sich räumlich entfernt von einander abspielen, eine Schranke; denn Signale können sich nicht schneller als mit Lichtgeschwindigkeit ausbreiten. Dies begrenzt nicht nur den Ereignishorizont des Universums im Großen, sondern auch die Möglichkeiten einer Signalübertragung im Gebiet der Quantentheorie und damit auch die kausale Analyse der nicht-lokalen Korrelationen im EPR-Experiment.
Bohrs Gedanke, dass es natürliche
Grenzen der experimentellen Analyse und Synthese gibt, die durch die endlichen
Werte der Naturkonstanten bestimmt sind, wurde in der Philosophie der Physik
bislang kaum aufgegriffen. Vertreter der empiristischen Wissenschaftstheorie
wie van Fraassen ziehen die Grenzen der Naturerkenntnis traditionellerweise
ohnehin viel enger, sie machen sie an der empirischen Beobachtungsbasis von
Theorien in einem sehr striktem Sinne fest. In der rationalistischen Tradition
wiederum ist die Vorstellung ziemlich unpopulär, es könne überhaupt
prinzipielle Grenzen unserer Erkenntnis geben, die es unmöglich machen, die
Naturgesetze vollständig zu erkennen. Bohrs Gedanke greift die Kantische Idee auf, dass es Erkenntnisgrenzen gibt,
die durch unsere Erkenntnismöglichkeiten bedingt sind. Diese Erkenntnisgrenzen
sind im Fall der Quantentheorie aber kontingent und nicht durch
irgendwelche Erkenntnisbedingungen a priori in Kants Sinne festgelegt.
Wie geht man nun in der physikalischen
Grundlagenforschung mit den quantentheoretischen Grenzen der kausalen Analyse
und der ontologischen Reduktion um? Offenkundig stellen sie keine
unüberwindlichen Forschungsbarrieren dar. Sie haben weder die erfolgreiche Suche
nach immer kleineren subatomaren Materiekonstituenten behindert, noch haben sie
dazu geführt, dass man nun künftig alle theoretischen Vereinheitlichungsversuche
im Schnittfeld von Teilchenphysik und Kosmologie, bzw. Quantenfeldtheorie und
Einsteinscher Theorie der Gravitation unterließe. Im subatomaren Gebiet werden
zwar die Kriterien für die Separabilität von Materiebestandteilen sowie die
Unterscheidungsmerkmale für Teilchen und Felder mehr und mehr aufgeweicht (vgl.
Falkenburg 1995), und dies mag Philosophen stören, die Schwierigkeiten haben,
sich von den Denkschemata einer klassischen Ontologie zu lösen – die Physiker
stört es bei ihrer weiteren Erkundung der terra incognita nicht. Mit
Grenzen kann man leben, wenn man weiß, wie man sie umgehen kann.
In der physikalischen
Grundlagenforschung gibt es mehrere Strategien, die theoretische Vereinheitlichung
unbeschadet aller kausalen und ontologischen Erklärungsdefizite der Quantentheorie
voranzutreiben. An dieser Stelle kommt das physikalische Gegenstück zur analytischen
Vorgehensweise beim Problemelösen ins Spiel, nämlich das synthetische Vorgehen
bei der Konstruktion einheitlicher Theorien. Es beruht eigentlich darauf, nach
Strategien zu suchen, wie man die theoretischen Lösungen kombinieren
kann, die sich in den disparat nebeneinander stehenden Teilgebieten der Physik
bislang bewährt haben. Dabei geht es um die Konstruktion neuer Theorien und
Modelle nach möglichst allgemeinen physikalischen Prinzipien. An dieser Stelle
möchte ich zwei grundsätzlich verschiedene Strategien herausheben, die sehr unterschiedlichen
Allgemeinheitsgrad haben. Sie zielen auf die Universalität physikalischer
Theorien in einem schwächeren bzw. stärkeren Sinne.
Eine physikalische Theorie ist
universell gültig im schwächeren Sinne, wenn ihre Gesetze überall innerhalb des
Universums gültig sind, für jedes konkrete Einzelsystem. Dies ist sozusagen
eine „lokale“ Sicht der Allgemeingültigkeit. Daneben gibt es noch eine „globale“
Sicht der Allgemeingültigkeit, nämlich die Anwendbarkeit der physikalischen Gesetze
auf das Universum insgesamt. Im ersten Fall geht es um die Beschreibung von
physikalischen Systemen innerhalb des Universums, im zweiten Fall um die
Beschreibung des Universums als eines physikalischen Systems. Die
gegenwärtigen Ansätze zur Begründung einer Theorie der Quantengravitation
entsprechen dem ersten Fall; die Versuche, Quantenkosmologie zu betreiben,
entsprechen dem zweiten.
Die erste Sicht, d.h. die lokale
Auffassung von universeller Gültigkeit, ist hier um einiges bescheidener. Sie
entspricht der Strategie, die physikalischen Begriffe einer Theorie auf
begrenzte Systeme anzuwenden, die zum Gegenstandsbereich einer anderen
Theorie gehören. Die physikalischen Größenskalen werden so in Gebiete
ausgedehnt, in denen der Gebrauch der bewährten Größenbegriffe eigentlich nicht
mehr abgesichert ist. Dies geschah in der Theorienentwicklung der Physik immer
wieder, und es hat sich als extrem fruchtbar für die Entwicklung neuer Theorien
erwiesen – von der Begründung der Quantentheorie bis zur heutigen Thermodynamik
schwarzer Löcher und zum Konzept der Hawking-Strahlung. Hawking übertrug
thermodynamische Begriffe wie Temperatur und Entropie auf schwarze Löcher, also
auf Objekte der allgemeinen Relativitätstheorie, und das quantentheoretische
Konzept der Energiefluktuationen auf die thermodynamische Strahlung solcher
Gebilde.
Zur selben Strategie gehören die
verschiedenen neueren Ansätze zur Begründung der Quantengravitation (Smolin
2000). Sie zielen auf eine Gravitationstheorie, die lokal universell gültig
ist, und das heißt: bei der eine gekrümmte Raumzeit lokal quantisiert wird,
oder bei der umgekehrt quantentheoretische Systembeschreibungen nicht mehr an
die übliche (pseudo-) euklidische Hintergrundmetrik geknüpft sind. Neben den
dynamischen Größen der Physik werden dafür auch Raum und Zeit quantisiert. Dies
greift letztlich Bohrs Gedanken auf, dass die fundamentalen Naturkonstanten
natürliche Grenzen für die physikalische Analyse setzen. Die Ansätze zur
Vereinheitlichung von Gravitations- und Quantentheorie sind nämlich mit der Annahme
verknüpft, dass es in der Physik keine
kleineren Längen, Massen und Zeiten als
die Größeneinheiten gibt, welche die sogenannte Planck-Skala begründen. Die
Planck-Länge, Planck-Masse und Planck-Zeit sind natürliche Größeneinheiten, die
sich aus der Lichtgeschwindigkeit, dem Planckschem Wirkungsquantum und der
Gravitationskonstante berechnen lassen. Die Planck-Skala liegt jedoch weit unterhalb
der Schwelle des derzeit experimentell Verfügbaren. Die Planck-Länge beträgt
etwa 10-33 cm. Sie ist um 20 Größenordnungen kleiner als der Protonradius
– und damit relativ zu den Quarks im Proton so winzig, wie diese relativ zu
uns. Bis Experimente zeigen können, ob diese theoretischen Ansätze Sinn machen,
darf der rationalistische Traum von der vollständigen Analyse und Synthese der
Phänomene noch eine Weile weitergeträumt werden. Vielleicht wird er ja eines
Tages dadurch erfüllt, dass man in dieser Größenordnung tatsächlich auf
unhintergehbare Grenzen der Teilung von Raum und Zeit stößt!
Die zweite Sicht, also die globale
Auffassung der universellen Gültigkeit, ist noch weitaus spekulativer. Sie
führt zum Versuch, Quantenkosmologie zu betreiben, d.h. unter Einschluss der
Quantentheorie eine Entwicklungsgeschichte des Universums zu entwerfen. Die
Ansätze zur Quantenkosmologie sind allesamt mit extremen begrifflichen
Schwierigkeiten beladen – vom Zeitbegriff, der in der Quantentheorie die Rolle
eines ausgezeichneten Parameters spielt und in der allgemeinen
Relativitätstheorie nicht, über den quantentheoretischen Messprozess bis zum
Konzept einer quantenmechanischen Wellenfunktion des Universums. Dieses starke
Konzept der universellen Gültigkeit physikalischer Gesetze verträgt sich nicht
gut mit dem Charakteristikum physikalischer Erklärungen, Bedingungsgefüge zu
explizieren, die in einem konkreten Zusammenhang gegeben sind und im
Hinblick auf ihre kausal relevanten Einzelelemente analysiert werden. Das
schwächere Konzept der universellen Gültigkeit physikalischer Gesetze ist im Einklang
mit dieser Sicht der physikalischen Erklärung, das stärkere nicht. Dass die
Ansätze zur Quantenkosmologie an viel gravierenderen konzeptuellen Problemen
leiden als die zur Quantengravitation, verwundert aus diesem Blickwinkel nicht.
Wenn man bedenkt, wie lückenhaft das Theoriengebäude der
Physik derzeit ist und wie uneinheitlich selbst die zugehörige Theorie der
Reduktion ausfällt, nehmen sich die genannten Vereinheitlichungsversuche als mutig,
wenn nicht unerschrocken aus. Die Geschichte der neuzeitlichen Physik lehrt
allerdings, wie stark solche Versuche die theoretische Naturerkenntnis immer
wieder vorangebracht haben. Man muss hier nur an die Komplimente erinnern, die
sich Einstein und Bohr gegenseitig bezüglich ihres artistischen Geschicks bei
der Begründung der Quanten- bzw. Relativitätstheorie machten! Einstein sprach
Bohr „höchste Musikalität auf dem Gebiete des Gedankens“ zu, während Bohr
umgekehrt Einsteins „Meisterschaft der Koordinierung anscheinend sich widersprechender
Erfahrungen“ bewunderte (Einstein 1955, 17; Bohr 1955, 119).
Angesichts der Erklärungsdefizite, die sich schon innerhalb der Physik zeigen, ist dennoch große Vorsicht bezüglich der Verallgemeinerbarkeit physikalischer Erklärungen außerhalb der Physik geboten. Physikalische Erklärungen weisen grundsätzlich kausale, ontologische und theoretische Lücken auf; und dies liegt letztlich daran, dass die Anwendungsbedingungen physikalischer Gesetze teils unbekannt und teils unverstanden sind. Bei den Versuchen, diese Erklärungslücken zu stopfen, stößt man auf sehr grundsätzliche konzeptuelle Probleme, und diese hängen engstens mit den unverstandenen Anwendungsbedingungen der betreffenden Theorien zusammen. Die derzeitige Tendenz vieler Naturwissenschaftler und Philosophen zu einer physikalistischen Weltsicht, oder: der gegenwärtig vorherrschende Naturalismus, ist durch diese lückenhafte Erklärungsbasis meines Erachtens nicht gerechtfertigt. Lassen Sie mich deshalb abschließend noch eine Warnung bezüglich der Verallgemeinerung physikalischer Erklärungen auf außerphysikalische Gebiete aussprechen.
Die größten Erklärungsdefizite und die unsichersten Prognosen gibt es heute innerhalb wie außerhalb der Physik auf dem Gebiet der komplexen Systeme, etwa in der Klimaforschung. Dies liegt daran, dass man das Bedingungsgefüge, in dem ein komplexes System steht, nicht genau kennt und auch nicht kennen kann. Die möglichen physikalischen Mechanismen sind in vielen Hinsichten klar und gut erforscht; aber ihre Grade und die Art und Weise ihres Zusammenwirkens sind oft höchst unklar. Genauso unklar ist die Grenze zwischen den Gültigkeitsbereichen der klassischen Physik und der Quantentheorie. Quantenphänomene lassen sich nicht einsperren; sie können ziemlich groß sein; wie groß sie genau sind und wann und wo ihre Kohärenzbedingungen erfüllt sind, weiß man nicht. Es wurden erfolgreich Interferenzexperimente mit Fullerenen durchgeführt; und in EPR-Experimenten hat man schon über eine Distanz von mehreren Kilometern hinweg Spin-Korrelationen an Photonenpaaren gemessen, die sich in Glasfaserkabeln ausbreiten. Die nicht-lokalen und indeterministischen Züge der Quantentheorie sowie die Besonderheiten des Messprozesses sind also nicht unbedingt nur exotische Spezialprobleme, die sich aus anderen Gebieten der Physik säuberlich heraushalten lassen.
Man sollte sich insbesondere vor weitreichenden
Schlüssen bezüglich der grundsätzlich deterministischen Natur makroskopischer
Prozesse hüten, auch wenn die Physik komplexer Systeme aus guten Gründen heute
das Modell des deterministischen Chaos zugrunde legt. Was die Anwendungsbedingungen
dieses Modells sind und wie gut sie bei den untersuchten Systemen erfüllt sind,
ist nur teilweise bekannt. Die Behauptung, so ein komplexes System wie
beispielsweise unser Gehirn verhalte sich klassisch, seine Funktionsweise lasse
sich mittels der Gesetze der Physik grundsätzlich erklären, und seine
Zustandsentwicklung sei einschließlich unserer Bewusstseinszustände im Prinzip
vollständig durch „die Naturgesetze“ bestimmt, ist nicht mehr – und nicht
weniger – als eine spekulative Arbeitshypothese innerhalb eines konkreten
naturwissenschaftlichen Forschungsprogramms.
Niels
Bohr: The quantum postulate and the recent development of atomic theory. Vortrag Como
1927; modifizierte Version in: Nature
121 (1928), 580–590. (Beide Versionen
in: Collected Works, Bd. 6,
109–158.)
Niels Bohr: On the notions of
causality and complementarity. In: Dialectica 2 (1948), 312–318
(Nachdruck in: Collected Works, Bd. 7).
Niels
Bohr: Diskussion mit Einstein über erkenntnistheoretische Probleme in der Atomphysik.
In: Paul
A.Schilpp (Hrsg.), Albert Einstein als Philosoph und Naturforscher. Stuttgart:
Kohlhammer 1955, 115–150.
Niels Bohr, Atomic Physics and Human Knowledge, New York: J.Wiley & Sons 1958 (Nachdruck
in: Collected Works, vol. 7). Dt.: Atomphysik
und menschliche Erkenntnis, Braunschweig: Vieweg 1958.
René
Descartes: Discours de la Méthode. 1634. Dt.: Von der Methode des richtigen Vernunftgebrauchs
und der wissenschaftlichen Forschung.
Albert
Einstein: Autobiographisches. In:
Paul A.Schilpp Übers. und hrsg. von Lüder
Gäbe, Vii, 125 S., Lk, PhB 261, € 9.80, 1978, Meiner, Hamburg. (Hrsg.), Albert
Einstein als Philosoph und Naturforscher. Stuttgart: Kohlhammer 1955, 1–35.
David
Hilbert: Axiomatisches Denken. In: Mathematische Annalen 78
(1918), 405–415. Nachdruck in: Gesammelte Abhandlungen III, Berlin:
Springer 1935, 378–387
Isaac Newton: Philosophiae naturalis principia mathematica. 3rd edition, London 1726. Ed. by A.Koyré and I.B.Cohen, Cambridge: At the University Press 1972.
John Losee: A Historical Introduction to the Philosophy
of Science. 300 p., pbk. £ 15.--, 3rd edition 1993, Oxford Unversity Press.
Nancy Cartwright: Nature’s Capacities and Their Measurement.
X, 268 p., £ 16.--, 1989, Clarendon Press, Oxford.
Catherine Chevalley, Glossaire: Analyse et Synthèse,
in: Niels Bohr: Physique atomique et connaissance humaine,
ed. par Catherine Chevalley, 1991, Gallimard, Paris.
Brigitte Falkenburg: The analysis of particle tracks: a case for trust in the unity of physics. In: Studies in the History and Philosophy of Modern Physics 27 (1996), 337–371.
Brigitte Falkenburg: Bohr’s
Principles of Unifying Quantum Disunities, in: Philosophia naturalis
35 (1998), 95–120.
Brigitte
Falkenburg und Robert Schnepf: Kausalität in Metaphysik und Physik, in: Brigitte Falkenburg
und Detlev Pätzold (Hrsg.), Verursachung.
Repräsentationen von Kausalität. DIALEKTIK 1998/2, Hamburg: Felix
Meiner, 27–48.
Michael Friedman: Explanation
and Scientific Understanding. In: Journal
of Philosophy 71 (1974).
Thomas S. Kuhn: The Structure of Scientific Revolutions. Deutsche
Ausgabe: Die Struktur wissenschaftlicher Revolutionen. 240 S., stw 25, € 10.--, Suhrkamp, Frankfurt.
John L.Mackie, The Cement of the Universe. Study of
the Causation. 318 p., pbk., £ 15.--, 1st edition 1974,
1980, Clarendon Press, Oxford.
Peter
Mittelstaedt: Die wechselseitigen Beziehungen zwischen der Quantentheorie und ihrer
Interpretation. In: Physik, Philosophie und
die Einheit der Wissenschaften. Spektrum Akademischer Verlag: Heidelberg
1995, 97–117.
Erhard
Scheibe: Gibt es Erklärungen von Theorien? In: Allgemeine Zeitschrift für Philosophie
1 (1976), 26–45.
Erhard
Scheibe: Die Reduktion physikalischer
Theorien.
Teil 1: Grundlagen und elementare Theorie.
Xii, 230 S., Ln., € 54.--.
Teil 2: Inkommensurabilität und Grenzfallreduktion.
Vii,
250 S., Ln., € 74.95, Springer, Heidelberg.
Erhard Scheibe: Between
Rationalism and Empiricism.
Selected Papers in the Philosophy of Physics. Viii, 627
p., cloth, £ 80.25, 2001, New York.
Zur Realitätsauffassung in Wissenschaftsphilosophie und Mikrophysik.
1995,
Spektrum Akademischer Verlag, Heidelberg (im Buchhandel vergriffen).
Peter Mittelstaedt: The Interpretation of Quantum Mechanics and
the Measurement Process. 150 p., cloth, 1997, $ 60.-- Cambridge: Cambridge University
Press .
Peter Mittelstaedt: What if quantum
mechanics is universally valid? In:
Evandro Agazzi and Jan Faye (eds.),
The Problem of the Unity of Science, World Scientific, Singapore 2001,
177-188.
Lee Smolin: Three Roads to Quantum Gravity.
176 p., cloth £ 17.--, pbk. £ 9.--, 2000,
Weidenfeld & Nicolson, London.
Brigitte Falkenburg ist Professorin für Philosophie der Wissenschaften und der Technik an der Universität Dortmund. Von der Redaktion gekürzter Text. Die Originalfassung erscheint in: Grenzen und Grenzüberschreitungen. XIX. Deutscher Kongress für Philosophie 23.-27. September 2002 in Bonn. Kolloquien und Festvorträge, Akademie-Verlag, Berlin. Weitere Veröffentlichung: " und ""