PhilosophiePhilosophie

BERICHT

Martin Carrier:
Wissenschaft im Wandel: Ziele, Maßstäbe, Nützlichkeit

 

In den Zeitdiagnosen der Gegenwart werden die post-industriellen Gesellschaften gern auch als „Wissensgesellschaften“ bezeichnet. Das soll nicht besagen, dass wir alle sehr viel wissen, sondern dass Wissen von großer Bedeutung in Gesellschaften ist, einer Bedeutung, die vordem den alten Industrien zukam. Gemeint ist, dass wissenschaftliches Wissen wesentlich für Wohlstand und Wirtschaftswachstum ist, und es ist diese Annahme der ökonomischen Fruchtbarkeit wissenschaftlicher Forschung, die ihrer vergleichsweise üppigen Förderung aus öffentlichen Kassen zugrunde liegt. Unabhängig von ihrem praktischen Nutzen wird die Wissenschaft aber auch als einer der Grundpfeiler der westlichen Zivilisation betrachtet. Die Wissenschaftliche Revolution und das Zeitalter der Aufklärung werden oft (zusammen mit der Reformation) als die Schlüsselelemente der kulturellen Entwicklung Europas genannt.

Zwar wird die Wissenschaft seit Neuerem in mehrerlei Hinsicht mit größerem Misstrauen betrachtet; aber trotz aller Kritik im Einzelfall wird wissenschaftliche Erkenntnis weithin als verlässlich und von einigen sogar als näherungsweise richtig akzeptiert. Auf die Frage, was wissenschaftliches Wissen eigentlich auszeichnet, ist eine Mehrzahl von Antworten möglich (z. B. Hoyningen-Huene, Heft 1/2008). Die Antwort, der ich im Folgenden nachgehen will, zielt auf die Praxis der Prüfung und Bestätigung von Hypothesen sowie die Verfahren, die für die Einschätzung der Glaubwürdigkeit von Wissensansprüchen herangezogen werden.

Drei erkenntnisstrategische Innovationen der Wissenschaftlichen Revolution haben die Wissenschaft über Jahrhunderte hinweg methodologisch geprägt und prägen sie bis heute, nämlich die Konzentration auf Naturgesetze, die Betonung der Mathematik für die Naturbeschreibung und der Rückgriff auf das Experiment. Ihren Ausdruck fanden diese in der Methodologie des Induktivismus, welcher im Verlauf des 19. Jahrhunderts durch die hypothetisch-deduktive Methodologie weitgehend beiseite gestellt wurde. Letztere warf zwei Herausforderungen für die empirische Geltungsprüfung in den Wissenschaften auf: Duhem-Quine-Unterbestimmtheit und Kuhn-Unterbestimmtheit. Beide Herausforderungen rücken die Bedeutsamkeit nicht-empirischer Ansprüche und Maßstäbe in der Wissenschaft ins Zentrum und tragen zur Klärung der Beschaffenheit wissenschaftlicher Erkenntnis bei. In jüngster Zeit tritt die Frage in den Vordergrund, ob und gegebenenfalls wie die gegenwärtige Kommerzialisierung der Forschung Erkenntnisanliegen und Erkenntnisleistungen der Wissenschaft überformen.

Erkenntnisziele der Wissenschaftlichen Revolution

Die Wissenschaftliche Revolution reicht von der Entdeckung der heliozentrischen Struktur des Planetensystems bis zur Formulierung der klassischen Mechanik. Sie ist mit entscheidenden Veränderungen in den Erkenntniszielen und -mitteln der Wissenschaft verbunden.

Erstens bringt die Annahme von Naturgesetzen eine neue Hervorhebung des Regelmäßigen mit sich. In Antike und Mittelalter war die Aristotelische Ansicht weit verbreitet, dass auf der Erde bloße Tendenzen vorherrschten, nicht strenge Regelmäßigkeiten. Stattdessen beschreiben Naturgesetze, wie sich Prozesse ausnahmslos entfalten. Der Begriff des Naturgesetzes wurde im 17. Jahrhundert von Francis Bacon und René Descartes konzipiert und beinhaltete die Vorstellung universeller und invarianter Eigenschaften im vielgestaltigen Wandel der Phänomene.

Zweitens gewann gegen die Aristotelischen Bedenken die Mathematik eine zentrale Rolle in der Naturwissenschaft. Aristoteles hatte der diesbezüglichen Tragweite der Mathematik enge Grenzen gesetzt; sie vermöge wegen ihrer Abstraktheit die konkrete Materie nicht zu erfassen. Die meisten Pioniere der Wissenschaftlichen Revolution übernahmen jedoch die Platonische Vorstellung einer mathematisch strukturierten Natur, die dann durch eine mathematisch formulierte Naturwissenschaft zu erfassen sei. Galilei proklamierte, das Buch der Natur sei in mathematischer Sprache verfasst, Kepler trat dafür ein, dass die Platonischen Körper, die regelmäßigen Vielflächner, der Struktur des Planetensystems zugrunde lägen. Die Mathematisierung der Naturwissenschaft war mit einer neuen Wertschätzung der Genauigkeit verknüpft, die einen markanten Gegensatz zu der nachlässigen Haltung bildete, die der historische Platonismus den Erfahrungstatsachen gegenüber an den Tag gelegt hatte.


Drittens ist der Einsatz des Experiments ein Kennzeichen der wissenschaftlichen Methode. Dieser Einsatz verlangte eine grundlegende Umorientierung in der Naturphilosophie. Der mittelalterliche Aristotelismus hatte eine kategorische Unterscheidung zwischen dem Natürlichen und dem Künstlichen eingeführt. Natürliche Bewegung läuft von selbst ab, künstliche Bewegung benötigt anhaltende äußere Einwirkung. Schwere Körper fallen von Natur aus abwärts, künstliche Vorrichtungen wie Hebel und Pumpen heben sie aufwärts gegen ihr natürliches Streben. Vor diesem begrifflichen Hintergrund stören experimentelle Eingriffe den natürlichen Gang der Natur und können daher keinen Aufschluss über diesen geben. Experimentieren im Dienst der Naturerkenntnis setzte ein neues Verständnis von Technik voraus: technische Wirkungen stehen im Einklang mit der Natur und laufen ihr nicht zuwider. Experimentelle Eingriffe und die Wirkungen technischer Geräte bleiben innerhalb des Ursachengefüges der Natur. Nach der neuen Vorstellung von der Universalität der Naturgesetze ist es ohnedies ausgeschlossen, der Kausalordnung zu entweichen. Natur kann nur besiegt werden, indem man ihren Gesetzen gehorcht, wie Bacon es ausdrückte.

Wir sehen bis heute Wissenschaft durch die genannten Ambitionen charakterisiert: Wissenschaft strebt nach Reproduzierbarkeit, Präzision und technischer Verwendbarkeit. Aber der Wandel der Wissenschaft spart auch diese Ebene keineswegs zur Gänze aus. So wurde im 18. Jahrhundert das Erkenntnisziel aufgegeben, die Durchschaubarkeit des Universums aufzuweisen. Eine der zentralen Festlegungen der mechanischen Philosophie in der frühen Neuzeit war es, die gesamte Natur auf der Grundlage von Undurchdringlichkeit und Bewegung verstehbar werden zu lassen. Diese Durchschaubarkeit war das große Versprechen der mechanischen Philosophie gegen die zunehmend als dunkel empfundenen Aristotelischen Erklärungen durch manifeste und okkulte Qualitäten. Allerdings blieb dieses Versprechen bereits durch die Newtonsche Gravitationskraft uneingelöst, für die kein Übertragungsmechanismus angegeben werden konnte und die daher die Grenzen des mechanischen Ansatzes sprengte. Als neues Erkenntnisziel trat in der Mitte des 19. Jahrhunderts der Einbezug von Zufall und Wahrscheinlichkeit in das System des Wissens hinzu. Statistische Methoden sollten dem Einfluss des Zufalls auf Beobachtungen ebenso Rechnung tragen wie Schwankungen in den Phänomenen. Die Ziele der Wissenschaft verändern sich in der Auseinandersetzung mit der Natur: man erkennt, dass bestimmte Zwecke nicht sinnvoll zu verfolgen sind, dafür treten andere in den Kreis des Verwirklichbaren ein.

Methodologische Übergänge: Induktive und hypothetisch-deduktive Prüfung

Erkenntnisziele drücken aus, welche Art von Wissen für wissenswert gehalten wird, methodologische Maßstäbe setzen solche Ziele bei der Beurteilung von Hypothesen praktisch um. Der dominante methodologische Ansatz des 17. und 18. Jahrhunderts war der Induktivismus, der systematisch von Bacon formuliert worden war. Wissenschaft gibt die Phänomene sachangemessen wieder, ohne sie durch subjektive Einflüsse wie Vorlieben zu entstellen. Der Beseitigung solcher Vorurteile dient ein zweistufiges Prüfungsverfahren, das einen regelgeleiteten Prozess von Beobachten und Experimentieren vorsieht. Dieser Prozess des induktiven Aufstiegs soll sicherstellen, dass die gebildete Hypothese ausschließlich auf Tatsachen beruht. Der ergänzende Schritt des deduktiven Abstiegs beinhaltet die Ableitung von Beobachtungen, die sich von denen unterscheiden, die zuvor die Formulierung der Hypothese angeleitet haben. Die Hypothese wird beurteilt, indem die Konsequenzen mit der Erfahrung verglichen werden.

Hypothetisch-deduktive Prüfung

Im Verlauf des 19. Jahrhunderts wurde der Induktivismus allmählich von einem hypothetisch-deduktiven Verständnis empirischer Geltungsprüfung abgelöst. Der induktive Schritt wird aufgegeben: Anforderungen an die Hypothesenbildung werden keine mehr erhoben. Methodologische Bedingungen kommen erst bei der fertig vorliegenden Hypothese zum Tragen. Hypothetisch-deduktive Prüfung nimmt von einer versuchsweise angenommenen Hypothese ihren Ausgang und beurteilt diese durch Vergleich ihrer empirischen Folgen mit der Erfahrung.

Die hypothetisch-deduktive Methode wurde zuerst von Pierre Duhem als einzig legitimes Prüf- und Bestätigungsverfahren betrachtet und später von Karl Popper, Carl Hempel, Hans Reichenbach und anderen verteidigt. Ein wesentliches Motiv für diesen Wechsel der methodologischen Orientierung bestand darin, dass man im Verlauf des 19. Jahrhunderts zunehmend gewahr wurde, dass sich die Wissenschaft keineswegs auf Hypothesen beschränkt hatte, die durch Beobachtungen nahe gelegt worden waren. Vielmehr griffen Theorien der Optik, Elektrodynamik oder Thermodynamik auf Größen wie Lichtwellen oder molekulare Bewegung zurück, denen ein direkter Beobachtungsbezug fehlt und die stattdessen Prozesse jenseits des Beobachtbaren wiedergeben.

Diese Umorientierung kommt in Reichenbachs breit rezipierter Unterscheidung zwischen Entdeckungs- und Rechtfertigungszusammenhang zum Ausdruck. Jener umfasst die Wege zu einer Vermutung und bleibt ohne Auswirkung auf deren Tragfähigkeit. Die stützenden Gründe sind dagegen Teil des Rechtfertigungszusammenhangs, der die Argumente oder Erfahrungsbefunde enthält, auf der die Gültigkeit der Hypothese beruht. Ein Beispiel für die Stichhaltigkeit dieser Unterscheidung bietet die Entdeckungsgeschichte Amerikas. Die abenteuerliche Fahrt des Christoph Columbus im Herbst des Jahres 1492 wurde nämlich erst durch die im Frühjahr des gleichen Jahres gelungene Eroberung Granadas durch die Spanier ermöglicht. Wenn es sogar gelungen war, so die Sichtweise des spanischen Hofs, den Arabern die als uneinnehmbar geltende Festung Granada zu entreißen, dann war offenbar nichts unmöglich, und selbst das abseitige Projekt des Columbus besaß eine Erfolgschance. Obwohl diese Vorgeschichte Teil des Entdeckungszusammenhangs Amerikas ist, trug sie doch in der Sache nichts zur Stützung von Columbus’ waghalsigem Vorhaben bei.

Eine solche Trennung von Genese und Geltung wird oft als Kennzeichen neuzeitlicher Rationalität angesehen; sie gehört jedoch in einen hypothetisch-deduktiven Rahmen und bleibt im Induktivismus ohne Basis. Für den Induktivismus müssen neue Ideen das Anrecht auf empirische Prüfung zunächst erwerben, eben durch den Nachweis der Erfahrungsbindung ihrer Formulierung.

Die Unverzichtbarkeit von Hypothesen

Der vom Induktivismus vorgesehene exklusiv erfahrungsgestützte Aufstieg zu wissenschaftlichen Hypothesen ist tatsächlich gar nicht durchführbar. Dafür sind zwei Gründe maßgeblich, die Rolle von Hypothesen bei der Strukturierung von Daten und das Eingehen von Theorien in die Prozesse der Datengewinnung.

Hypothesen strukturieren Daten, indem sie die wichtigen Größen hervorheben und dadurch eine Figur-Grund-Unterscheidung nahe legen, ohne die die Wahrnehmung scheinber offenkundiger Beziehungen in den Daten scheitern kann. Ein Beispiel ist die sog. Brownsche Bewegung, eine 1830 von dem Botaniker Robert Brown entdeckte anhaltende Zitterbewegung von kleinen Objekten in Wasser. Dieses Phänomen zog große Aufmerksamkeit auf sich; insbesondere war es für die kinetische Wärmetheorie von Interesse. Diese führte die Brownsche Bewegung auf Fluktuationen der thermischen Bewegung der Wassermoleküle zurück, die eine wechselnde Gesamtkraft auf die schwebenden Objekte erzeugen sollten. Allerdings scheiterten die frühen Versuche der Umsetzung dieses im Kern zutreffenden Erklärungsansatzes. Es gelang nicht, aus der kinetischen Theorie empirisch prüfbare Relationen abzuleiten. Auch die empirische Untersuchung förderte keine charakteristischen Abhängigkeiten zu Tage.

Erst Albert Einstein 1905 und Maryan Smoluchowski 1906 führten den Nachweis, dass aus der kinetischen Theorie neue, empirisch prüfbare Vorhersagen über die Eigenschaften der Brownschen Bewegung folgten. Deren erfolgreiche Bestätigung trug wesentlich zur Stützung der kinetischen Wärmetheorie und damit des Atomismus in der Physik bei. Erst die theoretische Analyse identifizierte Kenngrößen, zwischen denen aussagekräftige Beziehungen bestehen. Es gab gerade solche einfachen Zusammenhänge zwischen Beobachtungsgrößen, die alle Welt zu finden versucht hatte, aber diese wurden erst entdeckt, nachdem die theoretische Analyse sie in den Blick gerückt hatte.

Der zweite Zug ist die mensurelle Theoriebeladenheit der Beobachtung. Danach werden Theorien herangezogen, um Messverfahren und Beobachtungsprozesse zu erklären, die ihrerseits die Erfahrungsgrundlage der Wissenschaft bereitstellen. Dass eine bestimmte Zeigerstellung eine bestimmte theoretische Größe wiedergibt, lässt sich am besten durch theoretischen Nachvollzug des Gangs des Signals durch das Gerät rechtfertigen.

Ergebnis ist, dass Theorien dazu beitragen, die Datengrundlage der Wissenschaft zu gestalten. Umgekehrt wird die Geltung von Theorien anhand von Daten beurteilt. Theorie und Erfahrung hängen also wechselseitig von einander ab. Dieses Verhältnis passt zum Hypothetico-Deduktivismus, sprengt aber den Rahmen des Induktivismus mit seiner einseitigen Abhängigkeit der Theorien von den Erfahrungen.

Duhem-Quine-Unterbestimmtheit

Eine Folge dieser methodologischen Umorientierung ist eine Absenkung der Geltungsansprüche an Hypothesen. Diese müssen nicht länger von den Daten nahe gelegt sein. Dadurch wird das Spektrum zulässiger Hypothesen stark erweitert, was eine Schwierigkeit schafft oder verschärft, die als Duhem-Quine-Unterbestimmtheit bekannt ist. Diese Unterbestimmtheitsthese besagt, dass jede gegebene Menge von Erfahrungsbefunden durch unterschiedliche, begrifflich unvereinbare Erklärungsansätze wiedergegeben werden kann. Quine stützt diese These darauf, dass hypothetisch-deduktive Prüfung den logischen Fehlschluss von der Bestätigung der Konsequenz auf die Richtigkeit der Prämisse beinhaltet. Diese Fehlschlüssigkeit offenbart sich dadurch, dass alternative Annahmen auf die gleichen Folgen führen können. Angenommen, man wolle empirisch unter Beweis stellen, dass Kaffee Erkältungen zu heilen vermag. Diese Heilkraft sollte sich durch Therapieerfolge dokumentieren lassen. Eine mögliche Folge eines solchen Kausaleinflusses wäre, dass eine Erkältung bei allen Kaffeetrinkern nach eine angemessenen Zeitspanne wieder abgeklungen ist. Diese Konsequenz lässt sich in der Erfahrung bestätigen, was im hypothetisch-deduktiven Rahmen die Vermutung der Heilkraft von Kaffee stützt.

Scheinbestätigungen dieser Art stammen daraus, dass unterschiedliche Hypothesen übereinstimmende Erfahrungsfolgen besitzen können. So sollten zwar bei Voraussetzung einer gesundheitsfördernden Wirkung von Kaffee Erkältungen nach angemessener Frist wieder verschwunden sein. Die gleiche Vorhersage erhält man jedoch unter der alternativen Voraussetzung, dass Erkältungen auch ohne medikamentöse Assistenz wieder abklingen. Hypothetisch-deduktive Bestätigung kann nicht sicherstellen, dass Hypothesen mit zutreffenden Erfahrungsfolgen gültig sind.

Die beiden bekanntesten Beispiele für Duhem-Quine-Unterbestimmtheit stammen aus der physikalischen Geometrie und der Quantenmechanik. Die so genannte Konventionalität der physikalischen Geometrie sieht vor, dass alternative Raum-Zeit-Strukturen angegeben werden können, die mit den gleichen Messungen von Raum-Zeit-Größen vereinbar sind. In der Quantenmechanik hat die auf David Bohm zurückgehende Alternative zur üblichen Quantenmechanik Beachtung gefunden. Diese Theorie greift auf sog. verborgene Parameter zurück, welche die Eigenschaften von Quantensystemen über das in der Quantenmechanik vorgesehene Maß hinaus festlegen. Das naturphilosophische Bild hinter Bohms Theorie weicht von dem der Standard-Quantenmechanik deutlich ab; gleichwohl sind beide hinsichtlich ihrer Beobachtungskonsequenzen nicht zu unterscheiden.

Bei Duhem-Quine-Alternativen muss es sich keineswegs um ernsthafte Konkurrenten handeln. Vielmehr hob gerade Quine hervor, dass viele solcher Gegenentwürfe unplausibel oder unsinnig scheinen mögen. Trotzdem bringt die Betrachtung solcher Alternativen eine erkenntnistheoretische Lehre mit sich. Deutlich hervor tritt nämlich, dass Logik und Erfahrung allein nicht einen einzigen Denkansatz als gerechtfertigt oder wahr auszeichnen und dass zusätzliche Maßstäbe für die Auswahl eines solchen Ansatzes aus der Klasse empirisch äquivalenter Alternativen erforderlich sind. Historische Tatsache ist, dass die wissenschaftliche Gemeinschaft nicht unentschieden zwischen Duhem-Quine-Alternativen schwankt, sondern eine davon akzeptiert. Dies schließt die erwähnten Beispiele von physikalischer Geometrie und Quantenmechanik ein. Die Theoriewahl sprengt damit das einfache hypothetisch-deduktive Schema.

Nicht-empirische Ansprüche und Kuhn-Unterbestimmtheit

Die Auswahl von Theorien aus dem Spektrum empirisch äquivalenter Alternativen muss nicht-empirische Ansprüche heranziehen. Gleiches gilt jedoch ebenfalls, wenn sich die Erfahrungsfolgen alternativer Theorien zwar unterscheiden, diese ihre Stärken und Schwächen aber in verschiedenen Bereichen und verschiedenen Hinsichten offenbaren. Wenn sich Theorienkonkurrenten empirisch unterscheiden, ist nämlich keineswegs offenkundig, wie mit diesen Abweichungen umzugehen ist. Wie die empirischen Leistungen und Lücken einer Theorie deren Glaubwürdigkeit beeinflussen, hängt von der Beschaffenheit und Bedeutsamkeit der nicht-empirischen Beurteilungskriterien ab, die man für maßgeblich hält.

Listenmodelle der Bestätigung

Diese Sachlage ist zuerst von Thomas Kuhn im Rahmen sog. Listenmodelle der Bestätigung untersucht worden. Eine Hypothese wird danach anhand von Maßstäben beurteilt, die nicht-empirische Ansprüche umreißen. Die wissenschaftsphilosophischen Listenmodelle ziehen vor allem epistemische Ansprüche heran, also solche, die Erkenntnisziele der Wissenschaft zum Ausdruck bringen. Kuhn nennt Genauigkeit, Widerspruchsfreiheit (innerhalb einer Theorie und mit Bezug auf andere akzeptierte Theorien), Breite des Anwendungsbereichs, Einfachheit (oder eigentlich Erklärungskraft) und Fruchtbarkeit (die Fähigkeit, neue Entdeckungen zu stimulieren) (Kuhn 1977, 321-322). Andere Philosophen stellen andere Listen vor, aber alle diese Maßstäbe beziehen sich auf die Qualität des Wissens oder auf Erklärungsleistungen, nicht hingegen auf Faktoren wie gesellschaftliche Interessen oder ästhetische Vorlieben. Schließlich besagt unser Verständnis von wissenschaftlicher Erkenntnis unter anderem, dass eine Theorie einem großen Bereich von Phänomenen auf präzise Weise Rechnung tragen und mit anderen Elementen des Systems des Wissens zusammenpassen soll. Obwohl es sich um nicht-empirische Ansprüche handelt, haben sie doch eine epistemische Tragweite und sind mit den Erkenntniszielen der Wissenschaft verknüpft.

Kuhn vertritt die These, dass selbst wenn man nicht-empirische, aber epistemische Kriterien zusätzlich zur Übereinstimmung mit der Erfahrung in Betracht zieht, die Theoriewahl immer noch nicht eindeutig festliegt. Diese „Kuhn-Unterbestimmtheit“ ergibt sich aus der Mehrzahl von Beurteilungsmaßstäben und ihrem Mangel an begrifflicher Präzision. Ihre Mehrzahl beschwört Konflikte bei der Anwendung auf besondere Theoriewahlentscheidungen herauf. So könnte eine Theorie zukunftsweisende Fragen aufwerfen, eine andere für eine größere Zahl von Phänomenen zutreffen. Sollen solche Kriterien die Theoriewahl eindeutig leiten, so müssen sie gewichtet und präzisiert werden. Kuhns Argument ist, dass subtile Anpassungen dieser Art nicht durch Anwendung allgemeiner Regeln durchgeführt werden können. Tatsächlich treten solche Spielräume der Einschätzung nicht allein bei Kuhns Liste in Erscheinung; Kuhn-Unterbestimmtheit ist eine generelle Eigenschaft wissenschaftlicher Bestätigung (Carrier 2008a).

Ein Beispiel für Kuhn-Unterbestimmtheit

Ein Beispiel ist die Konkurrenz zwischen Hendrik Lorentz’ klassischer Elektronentheorie und Einsteins spezieller Relativitätstheorie. Die Elektronentheorie wurde zum Teil von der Relativitätstheorie überflügelt, zum anderen Teil später von der Quantenmechanik. Die Relativitätstheorie trat das Erbe der Elektronentheorie in der Elektrodynamik bewegter Körper an, enthielt aber nichts zu Wechselwirkungen zwischen elektrischen Ladungen und Feldern. Solchen Effekten wurde in Lorentz’ Theorie Rechnung getragen; sie fanden später eine andersartige Erklärung in der Quantenmechanik. Aber wie ist die Sachlage um 1910 einzuschätzen, als die Quantenmechanik noch außer Sichtweite war? Wenn man sich auf diejenigen Bereiche konzentriert, die von Elektronentheorie und Relativitätstheorie gemeinsam behandelt wurden, dann schneidet diese in Sachen Einfachheit oder Erklärungskraft besser ab. Lorentz’ Erklärungen sind oft von gleichsam konspirativer Natur: ein Effekt wird angenommen, dessen Auswirkung aber durch einen zusätzlich eingeführten Mechanismus wieder neutralisiert. Dagegen verzichtet Einstein zugleich auf den Effekt und seine Kompensation und erreicht entsprechend das gleiche empirische Ergebnis mit einer geringeren Zahl von Prämissen. Beurteilt man hingegen die Angemessenheit beider Rivalen anhand der Größe ihres Anwendungsbereichs, dann erscheint die Elektronentheorie überlegen. Sie schließt Phänomene ein, zu denen die spezielle Relativitätstheorie keinen Zugang fand. Die methodologische Gesamteinschätzung hängt entsprechend davon ab, wie man diese gegensätzliche Leistungsbilanz beurteilt.

Gleicher Umgang mit beiden Formen von Unterbestimmtheit

Das Kriterium der Einfachheit oder Erklärungskraft kann den genannten Entscheidungen zwischen Duhem-Quine-Alternativen Rechnung tragen. Die abweichenden Fassungen von physikalischer Geometrie und Quantenmechanik enthalten die Annahme zusätzlicher Mechanismen, denen eine klare empirische Tragweite fehlt und deren Auswirkungen im Allgemeinen durch Gegenmechanismen neutralisiert werden. Ihre Erklärungskraft ist entsprechend geringer. In diesem Zugang zum Bestätigungsproblem verliert Duhem-Quine-Unterbestimmtheit ihre Sonderstellung. Wenn nicht-empirische Ansprüche als Teil des Beurteilungsverfahrens anerkannt werden, kann die Bevorzugung einer Theorie vor ihren empirisch äquivalenten Alternativen entlang der gleichen Linien behandelt werden wie die Theoriewahl generell. Die scheinbare Sonderstellung jener stammte aus der fehlgehenden Voraussetzung, dass Logik und Erfahrung allein über Wissensansprüche entscheiden. Aber wir verlangen mehr von wissenschaftlichem Wissen als Übereinstimmung mit den Tatsachen, und die nicht-empirischen Werte, die wir für konstitutiv für solches Wissen halten, sind geeignet, mit epistemischen Gründen auch zwischen empirisch äquivalenten Alternativen zu entscheiden.

Allerdings macht Kuhn-Unterbestimmtheit deutlich, dass Hypothesenbeurteilung und Theoriewahl auch in den eher typischen Fällen empirischer Verschiedenheit konkurrierender Ansätze häufig kein unzweideutiges Resultat haben. Hier ist oft Urteilskraft und die Kunst des Abwägens vonnöten. Gleichwohl liegen in diesen Beurteilungskriterien zusammen mit den genannten Erkenntniszielen die Besonderheit und Exzellenz wissenschaftlicher Erkenntnis. Die Ziele geben Aufschluss darüber, was für eine Art von Wissen wir anstreben und schätzen, und die Kriterien lassen diese epistemischen Ansprüche konkret und fassbar werden. Eine der Herausforderungen der Wissenschaftsphilosophie besteht darin, diese Erkenntnisziele und Beurteilungsmaßstäbe, wie sie der Praxis der Theoriewahl zugrunde liegen, herauszuarbeiten und explizit zu machen. Diese Ziele und Maßstäbe stellen dar, um was es bei wissenschaftlicher Erkenntnis geht und was für eine Art von Wissen wir in der Wissenschaft anstreben.

Wissenschaft im Anwendungskontext

In der Gegenwart sind Wissenschaft und Technik eng miteinander verflochten. Zwar hat sich die Wissenschaft schon in der Wissenschaftlichen Revolution auf das doppelte Ziel verpflichtet, den Naturlauf zu entschlüsseln und die Stellung des Menschen in der Natur zu verbessern. Allerdings blieb die Befruchtung des technischen Fortschritts durch wissenschaftliche Forschung und die Ankündigung eines neuen Zeitalters wissensbasierten Wohlstands für lange Zeit eine bloße Vision ohne praktische Einlösung. Die Dampfmaschine wurde in langen Reihen von Versuch und Irrtum entwickelt und ohne Beteiligung der wissenschaftlichen Theorie.

Aber dies hat sich grundlegend geändert. Heute wird die Wissenschaft als wesentlich anwendungsorientiertes Unternehmen betrachtet. Wissenschaft wird in den Dienst wirtschaftlicher, gesellschaftlicher und politischer Interessen genommen, was sowohl die Erkenntnisziele als auch die Beurteilungsmaßstäbe der Wissenschaft beeinflussen könnte.

Erkenntnisziele und Beurteilungsstandards in angewandter Forschung

Mit Blick auf die Erkenntnisziele fällt auf, dass die Suche nach Naturgesetzen ihre frühere Zentralstellung verloren hat. Forschung befasst sich heute überwiegend mit spezifischen Mechanismen (wie der Resistenzbildung gegen Antibiotika) oder technischen Fertigkeiten (wie der Manipulation einzelner Atome in der Nanoforschung). Die Betonung des Universellen ist der Erforschung des Besonderen gewichen. Aber aus welchem Grund? Denkbar ist, dass die Suche nach ersten Prinzipien zum Abschluss gekommen ist. Die Entwicklung der Teilchenphysik stagniert seit inzwischen mehr als drei Jahrzehnten, und die einzigen Herausforderungen an die Grundlagen des Wissens entstammen eher entfernten Bereichen der Kosmologie. Es wäre also vorstellbar, dass die Wissenschaft die Überzahl der ersten Prinzipien des Universums aufgeklärt hat. Die Jagd nach neuen Naturgesetzen hat aufgehört, weil es kaum noch welche gibt in der freien Natur. Eine alternative Erklärung ist, dass sich das Interesse von der Entdeckung neuer Prinzipien auf das Ausleuchten der Konsequenzen der bekannten Prinzipien verschoben hat. Dahinter könnte das Urteil stehen, dass solche stärker fassbaren Konsequenzen für praktische Fragen von größerer Bedeutung sind als die überwölbenden Grundsätze. Danach beobachteten wir einen Wandel in den Erkenntnisansprüchen der Wissenschaft, der mit der Betonung des praktischen Nutzens der Wissenschaft zu tun hätte.

Nicht allein die Erkenntnisziele könnten sich in der praktischen Wende der Wissenschaft wandeln, sondern auch die Beurteilungsstandards. Besorgte Stimmen warnen, dass die Gewichtung des kurzfristigen Nutzens oder der wirtschaftlichen Verwendbarkeit einen Konflikt mit den anspruchsvollen Beurteilungsstandards der erkenntnisorientierten Forschung heraufbeschwört. Forschung wird als Investition betrachtet, die ohne Verzögerung Dividenden liefern soll. Die Befürchtung lautet, dass eine solche kurzatmige und pragmatisch geprägte Zugangsweise uninspirierte Denkansätze und oberflächliche Resultate begünstigt.

Erkenntnisleistungen angewandter Forschung

Allerdings spricht die Untersuchung der Wissenschaft im Anwendungskontext eher gegen solche Befürchtungen. Wesentlich ist, dass oberflächlich geprüfte und nicht in das System des Wissens eingebundene Beobachtungszusammenhänge den technischen Fortschritt nur unzulänglich anzuleiten vermögen. Angewandte Forschung drängt oft zu den Grundlagen, weil deren vertieftes Verständnis die Aussichten einer technologischen Nutzung verbessert. Die Einbettung einer empirisch gefundenen Relation in eine übergreifende Theorie erleichtert die Identifikation derjenigen Stellen einer Ursachenkette, an denen ein zielführender, gegen Störeinflüsse abgesicherter und nebenwirkungsarmer technischer Eingriff ansetzen kann.

Diese anhaltende Verpflichtung der anwendungsorientierten Forschung auf anspruchsvolle Beurteilungsmaßstäbe findet man zumindest dann, wenn die sog. Produzenten- und Konsumentenrisiken nicht deutlich auseinanderfallen. Solche Unterschiede treten unter Umständen bei der Wirksamkeitsprüfung von Medikamenten in Erscheinung. Haben nämlich neue Wirkstoffe Nebenwirkungen, lastet das Risiko zunächst auf den Kranken, also bei den Konsumenten. Häufig lassen sich solche Nebenwirkungen nicht eindeutig einem medizinischen Präparat zuordnen. Unbestimmte gesundheitliche Auswirkungen können im Grundsatz auf einer Vielzahl von Ursachen beruhen und sind daher einem bestimmten Medikament daher nur schwer zuzurechnen. Die irrtümliche Marktzulassung eines tatsächlich nebenwirkungsreichen Medikaments ist eher ein Konsumentenrisiko, weniger ein Produzentenrisiko. Umgekehrt ist die irrige Zurückweisung eines tatsächlich wirksamen Medikaments eher ein Produzentenrisiko, da in einem solchen Fall die Nutzung eines typischerweise mit hohem finanziellen Einsatz entwickelten Medikaments fälschlich abgelehnt wird. Bei der klinischen Prüfung von Medikamenten sind also die Risiken ungleich verteilt – und tatsächlich findet sich hier die Überzahl von Beispielen für den Einfluss von Sponsorengeldern auf die Annahme von Hypothesen.

Dies ist in anderen Bereichen technischer Entwicklungen anders. Wenn eine neue Festplatte nicht richtig funktioniert, verkauft sie sich schlecht. Unter solchen Umständen fallen Produzenten- und Konsumentenrisiko weitgehend zusammen – und tatsächlich stellen sich dann klare Parallelen zwischen industrieller Anwendungsforschung und akademischer Forschung ein (Wilholt 2006, 70-71). Insbesondere lassen sich keine Versuche der Sponsoren von Untersuchungen finden, auf die Ergebnisse Einfluss zu nehmen. Tatsächlich wäre dies auch kaum in deren Interesse, denn ein unzuverlässiger Forschungsbefund ist für die Auftraggeber nachteilig. Industrieforschung setzt auf robuste Zusammenhänge, die sich in der Praxis bewähren, nicht auf Wunschdenken, das sofort an der Komplexität der Lebenswelt und der Realität des Marktes scheitert. Ein solches Scheitern einer technischen Innovation in der Praxis ist zugleich ein Produzenten- und ein Konsumentenrisiko.

In der Summe ist die enge Verflechtung von Wissenschaft und Wirtschaft ein ambivalentes Phänomen, das durchaus nicht in jeder Hinsicht negativ zu werden ist. Zudem gibt, generell gesehen, bei anwendungsorientierter Forschung weniger die Erkenntnisleistung Grund zur Sorge. Der angewandten Forschung insgesamt wohnt kein Hang zur Oberflächlichkeit inne, und ihre Innovativität braucht oft keinen Vergleich mit akademischer Forschung zu scheuen. Vom Standpunkt des Gemeinwohls liegt der Grund für Bedenken eher in einer einseitigen Auswahl von Forschungsproblemen, die von kurzfristigen Profitinteressen geleitet sind. Auf einigen Feldern bedarf die privat finanzierte angewandte Forschung der Ergänzung durch Forschung im öffentlichen Interesse (Carrier 2008b).

UNSER AUTOR:

Martin Carrier ist Professor für Wissenschaftsphilosophie an der Universität Bielefeld. Seine jüngsten Veröffentlichungen zum Thema:

Carrier, Martin (2008a)
“The Aim and Structure of Methodological Theory,” in: L. Soler, H. Sankey & P. Hoyningen-Huene (eds.), Rethinking Scientific Change and Theory Comparison: Stabilities, Ruptures, Incommensurabilities?, Dordrecht: Springer, 273-290.

Carrier, Martin (2008b)
„Wissenschaft im Griff von Wirtschaft und Politik? Kommerzialisierung, Politisierung und Erkenntnisanspruch“, in: A. Schavan (ed.), Keine Wissenschaft für sich. Essays zur gesellschaftlichen Relevanz von Forschung, Hamburg: edition Körber-Stiftung, 92-104.

Weitere im Text genannte Literatur:

Kuhn, Thomas S. (1977)
„Objektivität, Werturteil und Theoriewahl“, in: ders., Die Entstehung des Neuen, ed. L. Krüger, Frankfurt: Suhrkamp, 1978, 421-445.
Wilholt, Torsten (2006)
“Design-Rules: Industrial Research and Epistemic Merit,” Philosophy of Science 73, 66-89.