PhilosophiePhilosophie

ESSAY

Paul Hoyningen-Huene:
Sagt die Physik die Wahrheit?

aus: Heft 1/2021, S. 8-17
 
Hinsichtlich des Themas, das Physik und Wahrheit in Beziehung setzt, kann man verschiedene Fragen stellen. Für Philosophen ist es naheliegend zu fragen, was man denn in der Physik unter Wahrheit versteht. Diese Frage werde ich nicht behandeln, weil ich unterstelle, dass die Physik unter Wahrheit das Gleiche versteht wie wir im Alltag, und dass in beiden Bereichen der Wahrheitsbegriff meist problemlos funktioniert. Das heißt, dass wir wissen, was es bedeutet, dass eine Aussage wahr (oder falsch) ist. Etwas ganz anderes ist die Feststellung der Wahrheit einer Aussage, das ist oft alles andere als problemlos. So kann man fragen: Erreicht die Physik die Wahrheit, d. h. gibt uns die Physik wahre Aussagen? Falls sie das tut, wie schafft sie das? Und falls sie die Wahrheit nicht erreicht, was liefert sie uns dann?
 
Realismus und Instrumentalismus
 
Eine Position, die behauptet, dass die Physik die Wahrheit zumindest approximativ er­reicht, wird „realistisch“ genannt. Dabei gibt es eine Reihe von Varianten, die sich vor allem darin unterscheiden, hinsichtlich welcher Aspekte der Welt die Physik die Wahrheit erreichen soll. Der „wissenschaftliche Realismus“ behauptet, dass in der Physik die Wahrheit über die physischen Bestandteile des Universums erreicht wird, während der „strukturelle Realismus“ behauptet, dass man die Wahrheit über die (mathematische) Struktur des Universums herausfinden kann. Den Streit innerhalb des realistischen Lagers, welche Variante die eigentlich richtige Version des Realismus ist, lasse ich hier auf sich beruhen.
 
Zu den „antirealistischen“ Gegenpositionen gehört der Instrumentalismus, der physikalische Theorien nicht als etwas ansieht, dessen Zweck es ist, die Wahrheit über das Universum zu artikulieren, und die entsprechend wahr oder falsch sein können, je nachdem, ob das gelingt oder nicht. Vielmehr sagt der Instrumentalismus, dass Theorien lediglich Instrumente sind, mit denen man bekannte Beobachtungsdaten systematisieren und Vorhersagen von neuen Beobachtungsdaten erzeugen kann. Ein Instrument ist aber weder wahr noch falsch, vielmehr erfüllt es seinen Zweck oder eben nicht. In dieser Sicht sind alle wissenschaftlichen Theorien bloße Modelle der Realität, ohne den geringsten Anspruch, diese Realität irgendwie wahrheitsgetreu abzubilden. Zugespitzt ist in dieser Sicht die Frage nach der Wahrheit oder Falschheit von Theorien sogar falsch gestellt, weil nicht sachangemessen, wie die Frage, ob Primzahlen eigentlich grün sind oder nicht.
 
Beobachtbares vs. Unbeobachtbares
 
Die Unterscheidung von Beobachtbarem und Unbeobachtbarem ist in diesem Kontext wichtig, weil Wahrheitsansprüche, die durch direkte Beobachtung eingelöst werden können, weniger problematisch sind als solche, bei denen das nicht der Fall ist. Kontrastieren wir z. B. die Aussage „Am 21. 8. 2017 gab es in Stayton OR, USA um 10:17 eine totale Sonnenfinsternis“ mit der Aussage „Vor ca. 13,78 Mio. Jahren begann unser Universum mit dem sog. Big Bang, dem ‚Urknall‘“. Die Aussage über die Sonnenfinsternis bezieht sich auf ein direkt und unproblematisch beobachtbares Ereignis; ihre Wahrheit (oder Falschheit) lässt sich daher durch Beobachtung unmittelbar feststellen. Die Aussage über die Existenz des Urknalls bezieht sich dagegen auf ein vergangenes, grundsätzlich unbeobachtbares Ereignis, und entsprechend ist es nicht offensichtlich, wie man die Wahrheit (oder Falschheit) dieser Aussage feststellen kann.
 
Der Kontrast dieser beiden Beispiele kann den Eindruck erwecken, als seien Aussagen über Beobachtbares in den Wissenschaften unproblematisch. Das stimmt aber nicht, denn in den Wissenschaften werden nicht nur Aussagen über beobachtbare Einzelereignisse gemacht, wie die über eine ganz bestimmte Sonnenfinsternis, sondern auch über allgemeine Sachverhalte, z. B. „Unter Normalbedingungen friert Wasser immer bei 0 Grad Celsius“. Zwar ist jeder einzelne Fall von Wassergefrieren bei 0 Grad Celsius unproblematisch beobachtbar (falls man in das Wassergefäß hineinschauen kann), aber dass das immer der Fall ist, lässt sich nicht wirklich beobachten. Diese Aussage umfasst nämlich potenziell unendlich viele Fälle in Vergangenheit und Zukunft, die nicht alle überprüft werden können. Dieses Problem ist unter dem Namen „Induktionsproblem“ bekannt. Es sieht so aus, dass man einen „Induktionsschluss“ von endlich vielen beobachtbaren Fällen auf potenziell unendlich viele andere benötigt, und wie das genau geschehen soll, ist umstritten. Klar ist lediglich, dass Induktionsschlüsse manchmal gelingen – oder zumindest zu gelingen scheinen! –, während sie manchmal sicher scheitern. Wenn beispielsweise jemand bei einem unfreiwilligen Fall von einem Hochhaus nach Passieren von zwanzig, dreißig oder vierzig Stockwerken annimmt, dass es auch weiterhin gut gehen wird, so ist diese unbeschränkte Verallgemeinerung zum Scheitern verurteilt.
 
Unbeobachtbares
 
In den Naturwissenschaften, speziell der Physik, werden vielfach Aussagen über Unbeobachtbares gemacht. Dabei handelt es sich oft um Dinge, die anscheinend prinzipiell unbeobachtbar sind. Ein Ereignis wie der Urknall, der in der Vergangenheit liegt, ist prinzipiell ebenso unbeobachtbar wie etwa das Aussterben der Dinosaurier. In einem strikten Sinn sind aber auch z.B. Felder, Gravitationswellen, dunkle Materie, dunkle Energie, oder Elektronen unbeobachtbar, weil wir eigentlich nur ihre Wirkungen beobachten können. So können wir beispielsweise die Spur eines Elektrons in einer Nebelkammer beobachten, aber diese Spur ist nicht das Elektron selbst, sondern kleine Bläschen, die der Vorbeiflug des Elektrons erzeugt hat. Allerdings kann sich die Grenze zwischen „beobachtbar“ und „unbeobachtbar“ verschieben, wenn beispielsweise etwas, was zu klein oder zu groß ist, um mit unseren Sinnesorganen oder Instrumenten erfasst zu werden, durch neuartige Instrumente sinnlich zugänglich wird. Beispielsweise gab es im 19. Jahrhundert eine lange und kontroverse theoretische Diskussion über die Existenz von Atomen. Lange, nachdem diese Diskussion dann zugunsten der Existenz der Atome entschieden war, konnte man Atome mit dem Rasterelektronenmikroskop auch direkt sichtbar machen; damit hatte sich auch die Grenze zwischen beobachtbar und unbeobachtbar verschoben. Aber wie hatte man sich davor, ohne direkte Beobachtung, von der Existenz der Atome überzeugt? Letzten Endes geschah das ebenfalls auf der Grundlage von Beobachtungen und Experimenten, denn schließlich sind die Naturwissenschaften empirische Wissenschaften. Das bedeutet ja, dass die Empirie, d. h. die (Sinnes-)Erfahrung, fundamental bei der Verteidigung von Wissensansprüchen beteiligt ist. Aber die empirische Stützung von theoretischen Postulaten, wie die der Existenz von Atomen, geschieht auf indirekte Weise. Eine solche empirische Stützung ist wissenschaftliche unabdingbar, denn sonst blieben theoretische Postulate Spekulationen mit einem hohen Grad an Beliebigkeit.
Ein Schema für Unterstützungen für Aussagen über Unbeobachtbares
 
Nachstehendes (grobes) Schema von fünf Schritten gibt anhand von Beispielen aus der Kosmologie an, wie in den Naturwissenschaften Aussagen über Unbeobachtbares indirekt durch Beobachtbares gestützt werden. Das Schema ist grob, d. h. es trifft nicht in allen Details auf alle historischen Fälle zu.
 
1. Gegeben sei ein bestimmtes (beobachtbares) Phänomen P. Im Beispielsfall sei dies die Expansion des Universums, die in den 1920er Jahren über den Doppler-Effekt, d. h. die Rot-verschiebung des Lichts von Galaxien gemessen wurde. Natürlich stellt sich sofort die Frage, was die Ursache dieses Phänomens sein könnte. Dies führt zum 2. Schritt.
 
2. Erfinde etwas Unbeobachtbares U, dass die Ursache von P sein könnte und daher P erklären könnte. Im Beispiel war das der sogenannte Urknall, am Anfang etwas spöttisch der „Big Bang“ genannt, den der Astronom (und Theologe) Georges Lemaître 1931 zur Erklärung der Expansion des Universums vorgeschlagen hatte. Nun ja, das ist natürlich eine mögliche Erklärung, aber ist es auch die wirkliche Erklärung? Dies führt zum 3. Schritt.
 
3. Erfinde alternative mögliche Ursachen U* von P, die ebenfalls P erklären könnten. Im Beispiel war das das sogenannte steady-state Modell des Universums. Dieses Modell nahm an, dass die Expansion des Universums schon unendlich lange läuft, die dabei erfolgende Verdünnung der Materie aber durch eine kontinuierliche Neuschöpfung von Materie kom­pensiert wird. Das klingt natürlich verrückt, aber ist das wirklich verrückter als die Annahme des Big Bang? Jedenfalls wurde das steady-state Modell von den drei britischen Kosmologen Fred Hoyle, Thomas Gold und Hermann Bondi 1948 vorgeschlagen. Nun haben wir also zwei sich widersprechende Hypothesen für die Erklärung der Expansion des Universums, und das führt zum 4. Schritt.
 
4. Finde Beobachtbares, das eine Entscheidung zwischen U und U* herbeiführen kann. Das macht man typischerweise so, dass man theoretisch untersucht, welche empirisch prinzipiell beobachtbaren Konsequenzen U und U* haben, und wo sich diese Konsequenzen von U und U* voneinander unterscheiden. Im Falle der beiden kosmologischen Modelle hatte man bereits 1948 vorhergesagt, dass der Big Bang ein Überbleibsel hinterlassen würde, das in einem steady-state Universum nicht da sein könnte. Es handelt sich um die sogenannte 3 Kelvin Mikrowellen-Hintergrundstrahlung, die sich ziemlich isotrop, d.h. in allen Richtungen gleich, im ganzen Universum befinden müsste. Tatsächlich wurde die 3 Kelvin Hintergrundstrahlung 1965 durch zwei amerikanische Forscher, Arno Penzias und Robert Wilson, empirisch entdeckt. Diese Strahlung ist mit der steady state Kosmologie nicht kompatibel und sie ist zugleich ein positives Indiz für die Existenz des Big Bang. Nun ist die Sache mit der Ausschaltung einer Alternative zum Big Bang natürlich noch nicht endgültig entschieden, und darum benötigen wir einen fünften und letzten Schritt.
 
5. Finde zusätzliches Beobachtbares, mit dem U weiter getestet und genauer charakterisiert werden kann. Im Fall der Kosmologie hat man herausgefunden, dass das ganz frühe Universum zu fast 75% aus Wasserstoff und zu fast 25% aus Helium bestanden hat. Das Big Bang Modell hat ergeben, dass kurz nach dem Big Bang während weniger Minuten die sogenannte „primordiale Nukleosynthese“ stattgefunden hat, die gerade zu einer solchen prozentualen Verteilung von Wasserstoff und Helium führt. Dies ist erneut ein Indiz für die Existenz des Big Bang. Und natürlich hat man auch versucht, das Alter des Universums zu bestimmen, genauer die Zeit seit dem Big Bang, und da ist man heute bei 13,78 ± 0,02 Milliarden Jahren. Verschiedene Methoden der Altersbestimmung stimmen in diesem Wert ziemlich gut überein.
 
Diese Ergebnisse sind derart überzeugend, dass heute in der Kosmologie weitgehender Konsens über die Existenz des Big Bang besteht. Das genannte Verfahren der Physik erscheint vernünftig und umsichtig. Aber wird damit die Wahrheit erreicht? Denn um einen mit der gleichen Strenge wie in der Mathematik geführten Beweis handelt es sich nicht. Es handelt sich hierbei um eine Frage, die eine radikale Infragestellung des Wahrheitsanspruchs der Physik betrifft. Es geht also nicht um die Frage, wie gut diese oder jene Behauptung über unbeobachtbare Gegenstände gestützt ist. Vielmehr geht es um die Frage, ob überhaupt physikalische Aussagen über Unbeobachtbares zu Recht Wahrheit beanspruchen können. In jedem Einzelfall haben die Wissenschaftler sehr genau abgewogen, ob es die postulierten unbeobachtbaren Dinge wirklich gibt oder nicht. Warum sollte man nun dieses Verfahren insgesamt in Frage stellen?
 
Die pessimistische Metainduktion
 
In der Physik wurden schon öfters postulierte unbeobachtbare Dinge, von deren Existenz man aufgrund empirischer Argumente überzeugt war, später wieder aufgegeben. Das skeptische Argument der „pessimistischen Metainduktion“ lautet nun: Wenn das in der Vergangenheit mit postulierten theoretischen Entitäten geschehen ist, warum sollte das in der Zukunft nicht mit den heute postulierten theoretischen Entitäten ebenfalls geschehen, wie z.B. mit dem Big Bang oder mit Quarks? Es handelt sich um eine „Metainduktion“, weil das Argument sich nicht, wie die Induktion sonst, auf Theorienstützung durch Daten bezieht, sondern auf der Metaebene auf eine These über Theorien. Und der Pessimismus bezieht sich natürlich auf die Aussichten des Realismus.
 
Ein besonders spektakuläres Beispiel aus der Physikgeschichte illustriert die Überzeugungskraft der pessimistischen Metainduktion. Im Jahr 1864 hat der britische Physiker James Clerk Maxwell die Existenz elektromagnetische Wellen vorausgesagt; wir ken-nen sie heute beispielsweise als Radiowellen, Licht, oder Röntgenstrahlung. Der deutsche Physiker Heinrich Hertz hat dann 1887 die Existenz elektromagnetischer Wellen experimentell nachgewiesen; sie sind natürlich nicht direkt beobachtbar, sondern machen sich nur durch ihre Wirkungen bemerkbar. Die technische Anwendung ließ nicht lange auf sich warten: der italienische Physiker Guglielmo Marconi verwendete sie bereits 1896, um Funksprüche per Morse Alphabet zu versenden und zu empfangen. Was sind diese elektromagnetischen Wellen? Ganz allgemein gilt, dass Wellen die Ausbreitung einer Schwingung in einem Medium sind. Beispielsweise sind Wasserwellen sogenannte transversale Welle im Medium Wasser, was bedeutet, dass die Schwingungsrichtung senkrecht zur Ausbreitungsrichtung der Welle steht. Schallwellen sind beispielsweise longitudinale Wellen im Medium Luft; hier ist die Schwingungsrichtung identisch mit der Ausbreitungsrichtung. Ganz offensichtlich ist in jedem Fall die Existenz eines Mediums als Träger der Welle absolut notwendig; gäbe es kein Medium, so könnte nichts schwingen, und ergo gäbe es keine Welle. Heinrich Herz hat ebenfalls schon 1887 experimentell zeigen können, dass elektromagnetische Wellen transversale Wellen sind, weil sie polarisierbar sind, also eine ausgezeichnete, aber drehbare Schwingungsrichtung haben.
 
Die Frage, die sich mit den elektromagnetischen Wellen sofort stellte, ist: Was ist das zugehörige Medium, das der Träger der Schwingung ist? Das kann nicht Luft sein, weil z. B. das Licht der Sonne uns auch durch den leeren planetarischen Raum erreicht. Weiter muss das Medium, wie das für uns sichtbare Sternenlicht zeigt, im ganzen Weltall gleichmäßig präsent sein. Zudem muss das Medium elastisch sein, weil nur elastische Medien die Existenz und Ausbreitung von Schwingungen zulassen. Das steht in einer gewissen Spannung zu einer weiteren notwendigen Eigenschaft des Mediums, dass es nämlich keine Reibung erzeugt, wenn die Planeten in ihrem Weg um die Sonne es durchlaufen. Würde das Medium Reibung erzeugen, so würden die Planetenbahnen immer enger werden und die Planeten schließlich in die Sonne stürzen; das aber ist offenbar nicht der Fall.
 
Man nannte das Medium den „elektromagnetischen Äther“ in Anlehnung an die Bezeichnung des fünften Elements, das man in der Antike als die Materiesorte identifiziert hatte, aus denen die Himmelskörper bestehen würden, den Äther (das hat nichts mit dem Äther der Chemiker zu tun). James Clerk Maxwell nannte die Ätherhypothese die am besten bestätigte Hypothese über Unbeobachtbares, die die Naturwissenschaften je hervorgebracht hätten. Wenn man sich den vorher beschriebenen Zusammenhang zwischen Wellen und Trägermedium vergegenwärtigt, dann scheint die Ätherhypothese in der Tat unausweichlich. Tatsächlich aber gab es ab 1905 einen wachsenden Konsens der Physiker, dass ein elektromagnetischer Äther nicht existiert; dabei spielte das berühmte Michelson-Morley Experiment von 1887 eine wichtige Rolle. Es setzte sich eine neue und revolutionäre Auffassung durch: Felder können sich im leeren Raum ohne ein Trägermedium ausbreiten. Das ist auch heute noch eine Vorstellung, die eigentlich schwer zu schlucken ist, sie wurde aber letztlich durch den Befund der Experimente erzwungen.
 
Was ist die Moral dieser Geschichte? Es ist nicht ausgeschlossen, dass auch die Existenz der bestbegründeten unbeobachtbaren Dinge im Laufe der nachfolgenden Physikgeschichte aufgegeben werden muss. Wenn man diesen Befund in die Zukunft extrapoliert, dann muss man sich fragen, ob das nicht auch heute bzw. morgen wieder passieren könnte, also z. B. mit dem Big Bang oder den Quarks? Es bringt nichts, darauf hinzuweisen, wie absolut überzeugend die Argumente für den Big Bang oder Quarks heute sind, denn das Gleiche galt auch für den Äther oder die anderen im Laufe der Physik aufgegebenen postulierten Gegenstände.
 
Die Unterbestimmtheit von Theorien
 
Lässt sich dieses Scheitern auch der bestabgesicherten Postulate über die Existenz von Unbeobachtbarem verstehen? Ja, das ist der Fall. Offensichtlich, das lehrt die Geschichte, schützt auch die Berücksichtigung der besten Daten nicht davor, dass eine Theorie, die von diesen Daten gestützt wird, später aufgegeben werden muss. Der Grund ist, so die einschlägige Hypothese, die „Unterbestimmtheit von Theorien durch Daten“. Diese Hypothese besagt, dass mit jeder endlichen Menge von empirischen Daten viele verschiedene Theorien verträglich sind, die sehr Unterschiedliches über unbeobachtbare Dinge behaupten. Anders gesagt legen empirische Daten nicht eindeutig die unbeobachtbaren, also theoretischen Entitäten fest, die für sie erklärungskräftig sind. So sind beispielsweise heute alle Daten aus dem Bereich der Mikrophysik, die von der Quantentheorie erklärt werden sollen, mit sehr verschiedenen Versionen der Quantenmechanik verträglich. Die Verschiedenheit dieser Versionen bezieht sich insbesondere darauf, was sie ontologisch behaupten, was diese verschiedenen Versionen der Quantenmechanik also als (unbeobachtbare) Realität postulieren.
 
Man kann diese Unterbestimmtheit mit einer Analogie aus der elementaren Mathematik illustrieren. Es gibt dort das Problem der Kurvenanpassung an Datenpunkte. Gegeben sei­en eine endliche Anzahl von Datenpunkten, und die Aufgabe ist, eine Kurve durch diese Datenpunkte zu legen. Es ist schon anschaulich ganz offensichtlich, dass bei endlich vielen Datenpunkten sehr viele unterschiedliche Kurven durch sie gelegt werden können. Liegen die Datenpunkte beispielsweise auf einer geraden Linie, dann kann natürlich eine Gerade durch sie gelegt werden. Aber man kann auch eine Kurve, die eine Schwingung beschreibt, durch diese Punkte legen. Die Datenpunkte legen also nicht nur eine einzige Kurve fest, durch sie gelegt werden kann. Ganz analog legen auch endlich viele gemessene Datenpunkte nicht eine nur eine Theorie fest, die mit ihnen verträglich ist; genau dies sagt die These von der Unterbestimmtheit von Theorien durch Daten.
 
Die Konsequenz der Unterbestimmtheitsthese ist demnach, dass man auch den bestbestätigten Theorien hinsichtlich ihrer Behauptungen über unbeobachtbare Dinge nicht trauen kann. Der Grund ist, dass es zu diesen Theorien alternative Theorien geben kann, die durch dieselben Daten ebenso gut bestätigt werden, die aber hinsichtlich der unbeobachtbaren Realität ganz andere Aussagen machen. Dabei ist irrelevant, ob wir uns diese alternativen Theorien tatsächlich zugänglich sind, d. h. ob wir sie uns ausdenken können. Das sieht man sofort an historischen Beispielen. Zu den Daten, die Newton hinsichtlich Gravitationsphänomenen zur Verfügung standen, hätte auch die allgemeine Relativitätstheorie gepasst. Aber Newton hatte keinen Zugang zu dieser Theorie, weil beispielsweise die einschlägige Mathematik noch unbekannt war. Die Tatsache, dass man zu einer empirisch erfolgreichen Theorie keine ebenso erfolgreiche Alternative finden kann, ist also kein Argument für die Alternativlosigkeit dieser Theorie und damit die Wahrheit ihrer Postulate über die unbeobachtbare Realität.
 
Der Gegenzug: Das Wunderargument
 
Nun sind für viele Wissenschaftler und Philosophen die oben genannten Argumente, die
den Erfolg der Wissenschaften in theoretischer Hinsicht zu relativieren scheinen, sehr suspekt. Gegen diese instrumentalistische Sichtweise ist in den letzten Jahrzehnten ein ausgeklügeltes Argument entwickelt worden, das belegen soll, dass die realistische Interpretation der besten naturwissenschaftlichen, insbesondere physikalischen Theorien doch gerechtfertigt ist. Das bedeutet, dass wir die Aussagen dieser Theorien über Unbeobachtbares als zumindest approximativ wahre Aussagen über die Realität bewerten dürfen. Oder in anderen Worten: dass die Physik die Wahrheit zumindest annähernd erreicht. Dieses Argument trägt den Namen „Wunderargument“ (miracle argument); es wird von vielen Realisten als so schlagkräftig angesehen, dass es das „ultimative Argument“ für den Realismus genannt wurde.
 
 Es beginnt mit der unkontroversen Feststellung, dass physikalische Theorien empirisch enorm erfolgreich sind. Dieses Faktum allein rechtfertigt aber nicht ihre realistische Interpretation, denn auch ontologisch falsche Theorien können empirisch sehr erfolgreich sein. Das Argument nimmt nun eine spezielle Klasse von Erfolgen von Theorien in den Blick, nämlich die immer wieder auftretende Fähigkeit von Theorien, erfolgreiche neuartige Vorhersagen zu machen. Mit „neuartigen Vorhersagen“ sind hier Vorhersagen von solchen Daten gemeint, die nicht in die Konstruktion der Theorie eingegangen sind. Dabei spielt keine Rolle, ob diese Daten vorher schon bekannt waren, aber für die Theoriekonstruktion nicht verwendet wurden, oder aber gänzlich unbekannt waren. Ein Beispiel sind die Gravitationswellen. Nach der Vollendung der Allgemeinen Relativitätstheorie im Jahre 1915 entdeckte Einstein 1916, dass aus seiner Theorie mathematisch folgt, dass Gravitationswellen existieren können. Dieses Phänomen war damals gänzlich unbekannt, und es sollte genau hundert Jahre dauern, bis nach jahrzehntelangen theoretischen und praktischen Anstrengungen Gravitationswellen tatsächlich nachgewiesen wurden. Die interessante Frage ist nun: Wie ist es möglich, dass eine Theorie, die sozusagen am grünen Tisch auf der Grundlage bestimmter Daten ausgedacht wurde, ganz anders geartete Daten, eben „neuartige“ Daten, vorhersagen kann? Das scheint an ein Wunder zu grenzen.
 
Das ist kein Wunder, sagen die Verteidiger einer realistischen Auffassung der Wissen­schaften, denn sie glauben die spezifische Vorhersagekraft erfolgreicher Theorien für neuartige Daten erklären zu können. Wirklich erfolgreiche Theorien zeichnen sich dadurch aus, dass sie die tatsächlich existierenden, aber unbeobachtbaren Elemente der Welt zumindest annähernd richtig erfassen, d. h. zumindest annähernd wahr sind. Auf der Basis dieses fundamentalen „Treffers“ können sie nun weitere Eigenschaften dieser Objekte erfolgreich vorhersagen. Das ist wie beim Spiel „Schiffe versenken“: Ein Treffer (ohne „Schiff versenkt“) sagt mir, dass es weitere Treffermöglichkeiten im Umkreis gibt, während ein „Nicht-Treffer“ mich über die Umgebung im Dunklen lässt. Die realistische Interpretation von Theorien macht also die Möglichkeit neuartiger Vorhersagen plausibel, und das genügt im Kontext des Arguments.
 
Anders bei einer nicht-realistischen, also instrumentalistischen Interpretation. In dieser Interpretation sind Theorien nur Modelle, die die (unbeobachtbare) Realität in keiner Weise abbilden; sie sind nur Instrumente für die Vorhersage von empirischen Daten. Nun kann auch ein solches Modell empirisch erfolgreich sein in dem Sinn, dass sich eine bestimmte Art von Daten, für die es konstruiert wurde, aus ihm ableiten lassen. Es ist aber äußerst unwahrscheinlich, dass sich eine andere Art von Daten, nämlich solche, für die das Modell nicht konstruiert wurde (also „neuartige Daten“), aus ihm ableiten lassen. Das wäre ein Wunder, und das gibt dem Argument seinen Namen. Das Wunderargument für den Realismus besagt also: Eine realistische Interpretation der Wissenschaft macht die Möglichkeit neuartiger Vorhersagen durch erfolgreiche Theorien verständlich, während solche Vorhersagen für eine instrumentalistische Interpretation ein unerklärliches Wunder sind. Und weil es neuartige Vorhersagen erfolgreicher Theorien, aber keine Wunder gibt, hat der Realismus Recht – so sagt er jedenfalls.
 
Fazit
 
Das Wunderargument plädiert für die Entdeckbarkeit der Wahrheit in der Physik, die pessimistische Metainduktion und das Unterbestimmtheitsargument dagegen. Der Status jedes einzelnen dieser drei Argumente ist kontrovers: Jedes der Argumente wird von Manchen für absolut überzeugend, von Anderen aber als gänzlich ohne Durchschlagskraft, ja als Scheinargument bewertet, und natürlich gibt es zwischen diesen beiden Extremen auch ein Kontinuum an Zwischentönen. Noch schlimmer wird es, wenn man sich fragt, was nun das Gesamtresultat der Diskussion ist, wo doch die Argumente in unterschiedliche Rich­tungen zerren: Was soll man nun glauben, erreicht die Physik die Wahrheit oder nicht?
 
Die ernüchternde Antwort auf diese Frage lautet: Wir wissen es nicht. Keine Gruppe von Argumenten hat bis heute die Physiker oder die Philosophen so überzeugen können, dass eine gewisse Einigkeit in der Einschätzung der Physik bezüglich ihres Erreichens der Wahrheit besteht. In der Phase der klassischen Physik von etwa 1730 bis 1890 waren die meisten Physiker davon überzeugt, dass mit der klassischen Physik die Wahrheit über die Natur tatsächlich erreicht wurde; die Philosophen haben sich diesem Urteil in der Regel angeschlossen. Aber mit dem Umsturz der Grundlagen der klassischen Physik durch Relativitätstheorie und Quantenmechanik im ersten Drittel des 20. Jahrhunderts ist eine völlig neue Situation entstanden, die wir noch nicht so recht beurteilen können. Zeigt das Scheitern der klassischen Physik, dass wir in der Physik die Wahrheit überhaupt nicht erreichen können? Oder können wir daraus ableiten, dass wir zwar etwas weniger optimistisch sein müssen als die klassischen Physiker, die ja glaubten, die Wahrheit zu besitzen, etwa so: wir sind immerhin auf dem Weg zur Wahrheit, wir nähern uns ihr an?
 
Vielleicht kann man hier etwas aus einem analogen Fall lernen, nämlich der Mathema­tik. Die Mathematik befand sich seit der Erfindung des Beweises im alten Griechenland in einem verhältnismäßig ruhigen Fahrwasser. Mathematische Einsichten, die durch Beweise gedeckt waren, schienen dadurch einen überzeitlichen Charakter zu bekommen. Das galt insbesondere für die Geometrie, die durch Euklid nach jahrhundertelanger Vorarbeit axiomatische Form annahm, und seitdem das Paradebeispiel sicherer, von Menschen erreichbarer Erkenntnis war. Es gab nur eine Geometrie, das war die Wissenschaft vom Raum, und weil es nur einen Raum gibt, gibt es nur eine Geometrie, so die über mehr als zwei Jahrtausende absolut selbstverständliche nnahme. Mit der Entdeckung der nichteuklidischen Geometrien in den 1830er Jahren war diese Annahme nun in Frage gestellt, und es dauerte ein knappes Jahrhundert, bis sich ein neues Verständnis von Mathematik weitgehend durchgesetzt hatte, das sogenannte formalistische Verständnis der Mathematik. Dies muss nicht unbedingt das letzte Wort in Sachen Mathematik sein, aber im Verhältnis zu der chaotisch unklaren Lage seit der Entdeckung der nichteuklidischen Geometrien hat sich die Lage erheblich geklärt. Es könnte sein, dass wir in der Physik in einer ähnlichen Lage sind wie die Mathematik zum Beispiel irgendwann in der zweiten Hälfte des 19. Jahrhunderts, wo man zwischen verschiedenen Möglichkeiten, die Mathematik zu verstehen, noch nicht argumentativ überzeugend entscheiden konnte. Im Moment können wir die unglaublichen Fortschritte der Physik über die letzten Jahrhunderte, trotz der vielen Unklarheiten in den Fundamenten der Physik, nur staunend zur Kenntnis nehmen. Aber wir können nicht wirklich behaupten, dass wir verstehen würden, was dieser Fortschritt genau ist.
 
UNSER AUTOR:
 
Paul Hoyningen-Huene ist emeritierter Professor für Theoretische Philosophie an der Universität Hannover. Von ihm ist 2018 zum Thema erschienen: “Are There Good Arguments Against Scientific Realism?”. In Philosophy of Science: Between the Natural Sciences, the Social Sciences, and the Humanities, hg. von A. Christian, D. Hommen, N. Retzlaff and G. Schurz. Cham: Springer International Publishing, pp. 3-22.