BERICHT
Logik: Das nichtmonotone Schliessen | |
Gerhard Schurz: Das nichtmonotone Schließen und seine wissenschaftsphilosophische Bedeutung
Die meisten Gesetzeshypothesen, mit denen wir es im praktischen Alltag und in den Wissenschaften zu tun haben, sind nicht streng deterministischer Natur, sondern lassen Ausnahmen zu. Solche Gesetze ha-ben daher nicht die logische wenn‑dannForm: Alle As sind Bs. Ihre natursprachliche Form lautet statt dessen: As sind normalerweise Bs. Die deduktive Logik gibt keine Auskunft darüber, wie solche Gesetze zu repräsentieren sind und wie mit ihnen zu schließen ist. Ich nenne solche Gesetze in Anlehnung an Scriven normische (normalfallbezogene) Gesetze und gebe das "wenn, dann normalerweise" durch einen Doppelpfeil wieder: A => B (die Indivi-duenvariable x wird zu A und B hinzu gedacht).
Die Entdeckung und Verkennung normi-scher Gesetzeshypothesen in der Erklä-rungskontroverse
Normische Gesetzeshypothesen wurden be-reits in den 50er Jahren entdeckt, als Geschichtswissenschafter das damals wichtigste Vorzeigemodell der analytischen Wis-senschaftstheorie diskutierten: Hempels deduktiv‑nomologisches Erklärungsmodell. Dieses von Popper gleichfalls vertretene Modell lehrte, daß wissenschaftliche Erklärungen oder Voraussagen sich immer auf allgemeine Gesetzeshypothesen stützen müssen. Denn Erklären bzw. Voraussagen heißt, aus Gesetzen (G) und den singulären Antezedensbedingungen (A) ein Explanandum oder Prognoszendum (E) deduktions-logisch abzuleiten ‑ z.B. (G) alle Metalle leiten Strom, (A) dieser Gegenstand ist aus Metall, daher (E): dieser Gegenstand leitet den Strom.
Zu Recht haben Geschichts‑ und Humanwissenschafter bezweifelt, daß es in ihrem Bereich solch streng allgemeine Gesetze überhaupt gibt. Den Anstoß zur Kontroverse gab Dray mit seinem berühmten Beispiel vom Ludwig den XIV. Wenn Historiker dessen Unpopularität erklären, so müßten sie gemäß dem deduktionslogischen Modell ein streng allgemeines Gesetz folgender Art annehmen: "Alle Herrscher, die ihr Land in Kriege verwickeln und dem Volk schwere Belastungen aufbürden, werden unpopulär".
Jeder Historiker weiß, daß ein solches Gesetz nie ausnahmslos gültig sein kann ‑ selbst dann nicht, wenn man seine Wenn‑ Bedingung durch weitere Konjunktionsglieder verstärkt. Was Historiker bei solchen Erklärungen dagegen wirklich im Kopf haben, war Dray zufolge folgende Normalfallhypothese:
"Herrscher bzw. Regierungen, die die und die Bedingungen erfüllen, werden normalerweise (üblicherweise, zumeist) unpopulär."
Als Gegenvorschlag zum deduktionslogischen Modell hatte Dray sein Modell der rationalen Erklärung entwickelt, demgemäß die Erklärung historischer Handlungen dar-auf basieren müsse, diese im Lichte der Ziele und Glaubenseinstellungen ihrer Akteure als (zweck)rational zu erweisen. Dray betonte, daß auch rationale Erklärungen auf folgendem sehr allgemeinen Normalfallprinzip beruhen:
(R) Personen handeln normalerweise zweckrational; d.h., wenn Akteur a Ziel Z hat und glaubt, Handlung H sei ein geeignetes Mittel für die Erreichung von Z, dann wird a normalerweise H zu realisieren versuchen.
Typische Ausnahmen des Gesetzes (R) sind z.B. innere Zwänge oder unbewußte Motive, die die Psychoanalyse behandelt. Leider wurde die positive Analyse normischer Ge-setze damals verabsäumt. Stattdessen wurden sie zum Angelpunkt des philosophischen Lagerstreites zwischen Einheitswissenschaftern und Methodendualisten. Rückblickend ist es eine Ironie der Geschichte, daß der Irrtum nicht in dem lag, worüber sich die beiden Lager stritten, sondern darin, worin sich die beiden Lager einig waren: daß nämlich normischen Gesetzen der Status wissenschaftlicher Gesetzeshypothesen gänzlich abzusprechen sei. Denn normische Gesetze ‑ so lautete das Argument ‑ sind nicht falsifizierbar. Indem wir die Gegenbeispiele zum Ausnahmefall erklären, können wir ein normisches Gesetz vor mög-licher Falsifikation jederzeit schützen. Nichtfalsifizierbare Gesetze aber haben keinen empirischen Gehalt ‑ gemäß dem Popperschen Abgrenzungskriterium. Ergo seien normische Gesetze quasianalytische Aussagen ‑"Binsenwahrheiten", wie Scriven sagte.
Dray und Scriven war diese Konsequenz willkommen. Sie vertraten ja die antieinheitswissenschaftliche Gegenposition, die im 19. Jahrhundert von Dilthey und Windelband begründet wurde, in unserem Jahrhundert von Gadamer, Apel und anderen weitergeführt wurde und die folgenden Methodendualismus lehrte: in den Naturwissenschaften erklären wir gemäß dem deduktiv‑nomologischen Modell, in den Geisteswissenschaften dagegen verstehen wir, wobei das Verstehen rein auf das Individuelle abzielt, (scheinbar) ohne jeden Bezug auf allgemeine Gesetze.
Den einheitswissenschaftlich orientierten Wissenschaftstheoretikern andererseits war diese Konsequenz sehr unwillkommen. Doch sie standen vor einem Dilemma. Man sah damals (im wesentlichen) nur zwei Alternativen, aus normischen Pseudogesetzen "echte" wissenschaftliche Gesetze zu machen:
n Erstens ihre deterministische Vervollkommnung, so wie dies z.B. Albert forderte. Doch die Ausnahmen, deren Auftreten man im Gesetzesantezedens jeweils verbieten müßte, sind im Regelfall unüberschaubar und durch keine endliche Liste aufzählbar ‑ eine deterministischer Vervollkommnung ist somit unmöglich.
n Die zweite Möglichkeit zur Entnormifizierung normischer Gesetze wurde von Hempel in seinem induktiv‑statistischen Erklärungsmodell beschritten und bestand darin, aus ihnen numerisch‑statistische Gesetze folgender Form zu machen: die Wahrscheinlichkeit von B, gegeben A, ist so und so hoch, z.B. 90%.
Aber auch hier stand man vor schweren Hindernissen. Erstens kann kein Geschichtswissenschaftler exakte oder auch nur unge-fähre Häufigkeiten über Ereignistypen wie das Unpopulärwerden von Herrschern ange-ben, weil man keine homogene Zufallsstichprobe von Herrschern, die ihr Land in Kriege verwickeln, ziehen kann. Der zweite große Hemmschuh war, daß selbst wenn man vage Wahrscheinlichkeitswerte kennen würde, man keine Logik für unsichere Generalisierungen hatte, die einem sagen konnte, wie man aus unsichere Gesetzen rational schließen kann. Nachdem Toulmins früher Versuch eines Regelsystems normischen Schließens von Hempel 1960 der Inkonsistenz überführt wurde, breitete sich Skepsis aus. Weder deduktive Logik noch klassische (algebraische) Wahrscheinlichkeitstheorie gaben hierauf eine Antwort. Toulmin selbst zog die (aus heutiger Sicht) überzogene Schlußfolgerung, daß es eine formale Logik normischer Gesetze gar nicht geben könne: normisches Schließen sei unentrinnbar inhaltsgebunden.
In der Philosophie wurde normisches Schließen bis heute stiefmütterlich behandelt. Ausnahmen sind die Arbeiten von Adams und Pollock in den 70er Jahren. Systematisch wurde das Thema aber erst in der Künstlichen Intelligenzforschung erarbeitet. Im Zuge der Entwicklung von Expertensystemen (z.B. MYCIN von Buchanan und Shortliffe) war man auch hier ständig mit unsicheren bzw. normischen Gesetzen bzw. Regeln konfrontiert. Nach anfänglichen Mißerfolgen ging man ab den 80er Jahren systematisch daran, eine Logik für solche normischen Gesetze zu entwickeln, die sich nichtmonotone Logik oder default logic nannte, und deren Entwicklung noch in vollem Gang ist. Leider ist die wechselseitige Kommunikation zwischen analytischer Philosophie und Künstlicher Intelligenzforschung noch heute, bis auf Ausnahmen, kaum vorhanden ‑ zu beiderseitigem Nachteil.
Rehabilitierung normischer Gesetze und die Grundidee nichtmonotonen Schliessens
Der große Hemmschuh, normischen Gesetzen wissenschaftliche Dignität zuzusprechen, war Poppers These von der Asymme-trie von Verifikation und Falsifikation und die sich von daher begründende Gleichsetzung von Falsifizierbarkeit mit empirischem Gehalt. Diese Asymmetrie gilt jedoch nur bei strengen, nicht bei normischen Generalisierungen. Das deterministische Gesetz Alle As sind Bs wird bereits durch ein Gegenbeispiel Aa & nicht Ba definitiv widerlegt. Doch es wird durch keine noch so große Li-ste von positiven Beispielen Aa & Ba endgültig verifiziert, sondern immer nur mehr oder weniger gut bestätigt. Daher die Asymmetrie.
Bei einem normischen As sind normalerweise Bs gilt dasselbe für die Widerlegung: keine noch so große Anzahl von Ausnahme-fällen Aa & nicht Ba führt zu einer definitive Widerlegung, aber wenn die Anzahl der Ausnahmen im Verhältnis zu den Normalfällen immer größer wird, wird das Gesetz immer mehr geschwächt, und irgendwann werden wir es aufgeben. Im Gegensatz zu deterministischen Gesetzen liegt bei normischen Gesetzen also eine grundsätzliche Symmetrie zwischen Bestätigung und Schwächung vor. Allerdings ist die Tatsache, daß normische Gesetze nicht falsifizierbar, sondern bloß schwächbar sind, kein Grund, ihnen den empirischen Gehalt gänzlich abzusprechen ‑ zumal dasselbe auch auf alle numerisch‑exakten statistischen Hypothesen zutrifft. Statt dessen sollte man vielmehr einräumen, daß die Popper‑Gleichung Falsifizierbarkeit = empirischer Gehalt = Abgrenzungskriterium eine begrenzte, nämlich auf deterministischer Gesetze eingeschränkte Gültigkeit hat.
Normische Gesetze sind damit "rehabili-tiert". Wie läßt sich nun mit ihnen rational schließen? Die philosophisch bedeutsamste Eigenschaft normischer Schlüsse ist ihre Nichtmonotonie. Die Monotonie deduktionslogischer Schlüsse ist folgende Eigenschaft: Ist ein deduktiver Schluß korrekt, so bleibt er auch korrekt, wenn man beliebige neue Prämissen hinzufügt. Ist man sich der Wahrheit der Prämissen einmal sicher, so kann man daher getrost von der Wahrheit der Konklusion ausgehen, ohne sich um das zu kümmern, was man sonst noch weiß. Bei normativen Schlüssen liegt die Sache anders. Ein Beispiel: Solange wir über ein bestimmtes Tier nichts anderes wissen, als daß es ein Säugetier ist, nehmen wir per default an, daß es sich um ein normales Säugetier handelt und schließen, daß es nicht fliegen kann ‑ der untenstehende Doppelstrich steht für nichtmonotone Folgerung. Aufgrund die-ses Prinzips wurde die nichtmonotone Logik auch default logic genannt: in Ermangelung gegenteiligen Wissens nehmen wir immer den Normalfall an. Sobald wir aber zusätzliche gegenteilige Evidenz erwerben ‑ im untenstehenden Beispiel, daß dieses Tier eine Fledermaus ist ‑ wird das Normalfallgesetz G1 durch das Ausnahmegesetz G2 zusammen mit G3 blockiert. Durch Hinzufügung zusätzlicher Prämissen (G2, G3, A2) wird also der ursprüngliche (linksstehende) Schluß inkorrekt ‑ nun ist der rechtsstehende Schluß korrekt. Genau das ist die Nichtmonotonie.
Abb. 1
Die Funktion des "normalerweise" in normischen Gesetzen ist relativ: A => B spricht über das, was beim Vorliegen von A der Normalfall ist, nicht über Normalität in absolutem Sinn. Man kann mit normischen Hypothesen auch Ausnahmeverhalten beschreiben. Was als Normalfall und was als Ausnahme zählt, ist nicht einem isolierten normischen Gesetz allein anzusehen, sondern nur dem ganzen System normischer Gesetze über den gegebenen Bereich, welches eine normische Theorie bildet.
Normische Hypothesensysteme lassen sich wie folgt hierarchisieren: Gegeben der Gegenstandsbereich A, so hat man zunächst Normalfallgesetze im eigentlichen Sinn von der Form wenn A, dann normalerweise B, dann Ausnahmegesetze 1. Stufe von der Form wenn A&X, dann normalerweise nicht B sondern C, dann Ausnahmegesetze 2. Stufe wenn A&X&Y, dann normalerweise nicht C sondern D usw. In unserem Beispiel wären Ausnahmen 2. Stufe z.B. Fledermäuse mit gebrochenen Flügeln, usw. Zwischen diesen Ebenen gilt die Spezifitätsregel: die Gesetze mit dem spezifischeren Antezedens, d.h. mit dem höheren Ausnahmegrad, blockieren im Konfliktfall die weniger spezifischen.
Nicht allerdings lassen sich normische Gesetze mit logisch unverträglichen Dann‑Gliedern in das Verhältnis von Normalfall‑ und Ausnahmegesetz setzen: dann nämlich nicht, wenn keines der beiden Wenn‑Glieder spezifischer ist als das andere. Ein einfaches Beispiel wäre die Prämissenmenge {A => B, C => nicht‑B, Aa, Ca}. Wie mit konfligierenden Prämissen ohne Spezifitätsrelation inferentiell umzugehen ist, ist das vermutlich schwierigste Problem nichtmonotonen Schließens.
Die Bedeutung des Verstehens des Einzelfalls
Eine tiefliegende Konsequenz des nichtmonotonen Schließens ergibt sich für die Rolle, die das Verstehen des Einzelfalls darin spielt. Erläutert sei dies am Beispiel einer Handlungserklärung: der Wiederkandidatur des Politikers X.
Im Fall 1 kann X aufgrund fortschreitender Alzheimererkrankung nicht mehr zum Präsidentenamt kandidieren. Hier haben wir ein deterministisches Gesetz. Im Fall 2 bezweifeln wir die Wiederkandidatur aufgrund fortwährender Herzbeschwerden. Hier verfügen wir nur über ein normisches Gesetz. Im deterministischen Fall müssen wir, außer daß X Alzheimer hat, nichts über X wissen, um die Konklusion, daß er nicht mehr kandidieren wird, zu erschließen. Neu hinzukommendes Wissen ist hier nur dann relevant, wenn es an unserer bestätigenden Evidenz für X's Alzheimerkrankheit etwas ändert. Es liegt, in anderen Worten, nur lokale Kontextabhängigkeit vor: solange wir sicher sind, daß X Alzheimer hat, können wir die Prognose vom Rest des Wissens, den "Teil" vom "Ganzen" abspalten.
Ganz anders im Fall 2. Hier liegt globale Kontextabhängigkeit vor: jedes neue Wissen über X kann den bisherigen Schluß zunichte machen, ohne die Wahrheit von X's Herzbeschwerden zu tangieren. Wenn wir z.B. erfahren, daß X bereits bei der letzten Kandidatur ebenso starke Herzbeschwerden hat-te und dennoch kandidierte, so werden wir bezweifeln, daß seine Herzbeschwerden ein ausreichendes Motiv für seine Nichtkandidatur abgeben; erfahren wir weiter, daß X die Landespolitik längst anödet und X sich weltpolitische Verdienste erwerben möchte, werden wir erneut ein Motiv für X's Nichtkandidatur erblicken, usw. Jedes neue Fakt über X kann möglicherweise relevant werden: um X's Nichtkandidatur begründet vorauszusagen, um zu wissen, welche normischen Gesetze auf X angewandt werden dürfen und welche nicht, müssen wir möglichst alles Relevante über a wissen ‑ wir müssen, wie man auch sagen kann, X's Situation wirklich verstehen. Genau das ist im deterministischen Fall nicht so: wir müssen den armen X nicht verstehen, um sein Nichtkandidieren aufgrund seiner Alz- heimerkrankheit begründet vorauszusagen.
Die nichtmonotone Logik erlaubt es somit, einen gewissen Aspekt der geisteswissenschaftlichen Theorie des Verstehens rational nachzuzeichnen - nämlich die Wichtigkeit des Verstehens des individuellen Falls. Um zu wissen, was wir für den Einzelfall mithilfe unserer normischen Gesetze erschließen dürfen, müssen wir unser gesamtes Wissen um diesen Einzelfall berücksichtigen. Wir können das Einzelne nur im Licht des Ganzen deuten, wie man in der Hermeneutik sagt, was logisch‑prozedural bedeutet, daß jeder Folgerungsschritt der nichtmonotonen Logik im Lichte aller anderen Fakten auf mögliche Blockierung durch konfligierende Folgerungen geprüft werden muß. In der Tat scheint hier ein inferentieller Zirkel vorzuliegen, der dem hermeneutischen Zirkel durchaus ähnlich ist, den man in der nichtmonotonen Logik je-doch durch das Zusammenspiel verschiedener Arten von Regeln auflöst.
Zwei Semantiken und die drei Regelmodule des nichtmonotonen Schließens
Was soll als das Korrektheitskriterium für Schlüsse aus normischen Gesetzen ‑ kurz: normische Schlüsse ‑ gelten? In der deduktiven Logik ist dies das semantische Kriterium der strikten Wahrheitserhaltung: die Wahrheit der Prämissen impliziert mit Sicherheit die Wahrheit der Konklusion. Das ist bei normischen Schlüssen nun gerade nicht der Fall. Man benötigt also eine andere semantische Grundidee. Es gibt bis dato zwei semantische Grundideen:
n In der normale-Welten-Semantik (auch "preferred model" oder "ranked model" semantics) gilt ein normischer Schluß als korrekt, wenn er die Wahrheit in jenen Welten erhält, die maximal normal in Bezug auf die Prämissen sind.
n In der Wahrscheinlichkeitssemantik gilt ein normischer Schluß als korrekt, wenn er die Wahrheit in den meisten Anwendungsfällen erhält.
Die Regeln normischen Schließens lassen in drei Modulen zusammenfassen.
Modul 1 ist das Prinzip der totalen Evidenz Danach darf man erstens eine singuläre Konklusion Ka nur erschliessen, wenn im Antezendens Fakt(a) alle bekannten Fakten über den Einzelfall a berücksichtigt wurden. Zweitens wird durch das totale Evidenzprinzip die Folgerung von Singularsätzen aus normischen Gesetzen und Fakten zurückge-führt auf die Folgerungsrelation zwischen normischen Gesetzen untereinander, und zwar durch folgende Festlegung: Ka folgt aus der Gesetzesmenge Ges und der Faktenkonjunktion Fakt(a) genau dann, wenn das normische Gesetz "wenn Fakt(x), dann normalerweise Kx" ‑ das sogenannte Totalevidenzgesetz ‑ seinerseits aus der Menge Ges folgerbar ist.
Modul 2 ist eine monotone Kernlogik für das Schließen mit normischen Konditionalen, das sogenannte System P (preferential entallment). Über diese Kernlogik besteht heute größtenteils Einigkeit. Die Regeln für das normische wenn‑dann sind schwächer als die deduktionslogischen Regeln für das strikte wenn‑dann. Das normische wenn‑dann (=>) ist nichtmonoton, lediglich die Herleitbarkelt (½--p) im System P ist monoton; ½-- steht für klassisch-logi-sche Herleitbarkeit.
Abb 2.
Modul 1 und 2 machen normisches Schließen nichtmonoton bezüglich neuen Faktenwissens, während die Monotonie bezüglich neuen Gesetzeswissens hier noch gewahrt bleibt. Die erstaunlichste Eigenschaft des Regelsystems P ist seine Korrektheit und Vollständigkeit bezüglich dreier Semantiken: die normale‑Welten-Semantik, die infinitesimale und die noninfinitesimale Wahrscheinlichkeitssemantik. Mit jedem normischen Gesetz A => B wird die (im Regelfall unbekannte) bedingte statistische Wahrscheinlichkeit von B gegeben A, p(B/A), assoziiert. In der infinitesimalen Semantik deutet man den Begriff "hohe Wahrscheinlichkeit" als "Streben gegen Wahrscheinlichkeit 1". In der noninfinitesimalen Semantik betrachtet man nicht infinitesimal hohe, sondern bloß praktisch hohe Wahrscheinlichkeiten (z.B. 0,9 usw.). Dies ermöglicht es, dem normischen Schließen eine probabilistische Reliabilitäts- komponente hinzuzufügen.
Modul 3 schließlich ist ein Mechanismus von Default Irrelevanzannahmen. Wenn wir beispielsweise aus dem Gesetz A => B und dem Fakt Aa in der Gegenwart weiterer Fakten Ca, Da die Konklusion Ba erschließen, so nehmen wir per default an, daß die weiteren Fakten C, D für das normische Gesetz A => B nicht negativ relevant sind, solange in der Wissensbasis keine gegenteilige Information vorhanden ist. Diese Irrelevanzannahme rechtfertigt den Default‑Zwischenschritt von A => B zu A&C&D => B, was zusammen mit Aa, Ca, Da gemäß dem Totalevidenzprinzip die singuläre Konklusion Ba liefert. Irrelevanz‑ annahmen sind ebenfalls global kontextabhängig. Sie machen das Schließen nichtmonoton bzgl. neuen normischen Gesetzeswissens. Vor alledem liefern sie eine Heuristik, die es ermöglicht, die wahrscheinlichkeitslogischen Folgerungen der normischen Prämissengesetze zu einem Totalevidenzgesetz auszubauen. Denn man kann ja nicht "wörtlich" alle bekannten Fakten über den Einzelfall a berücksichtigen: jene Fakten, die in keinem bekannten Zusammenhang stehen, schirmt man damit ‑ vorläufig ‑ als irrelevant ab. Die eleganteste semantische Realisierung des Moduls 3 beruht darauf, sich auf maximal normale Weltenmodelle zu beschränken ‑ das sind solche Modelle, in denen die Summe der Ausnahmegrade der Welten minimal ist (System Z, Rational Closure).
Abschließend sei betont, daß die nichtmonotone Logik weder mit der deduktiv-monotonen Logik noch mit der numerischen Wahrscheinlichkeitstheorie bzw. Statistik in Konkurrenz steht, sondern einerseits mit beiden etwas gemeinsam hat und andererseits eine Lücke füllt, die beide offenlassen. Mit der deduktiven Logik hat sie die Idee des regelgeleiteten Schließens gemeinsam, mit der numerischen Wahrscheinlichkeitstheorie die Nichtmonotonie. Normische Informationen sind statistisch gesehen Constraints über die möglichen Wahrscheinlichkeitsverteilungen. Weder die deduktive Logik noch die Statistik sagen uns, wie wir solche normischen Informationen zu einem Totalevidenzgesetz ausbauen und damit auf den Einzelfall anwenden können. Eben das versucht die nichtmonotone Logik zu leisten.
Anwendungen
Ceteris-Paribus-Gesetze:In der Wissen- schaftstheorie wurden Ceteris-Paribus- Klauseln, kurz CP-Klauseln, fast ausnahms- los im Sinne von Joseph's "Ceteris-Absentibus"-Klauseln interpretiert. Ein CP- Gesetz der Form "CP: wenn A, dann B" wird danach als unvollständige Gesetzes-hypothese betrachtet, die den Implikationszusammenhang von A auf B nur unter der Annahme behauptet, daß andere Faktoren keinen störenden Einfluß ausüben. So prognostiziert die Newtonische Physik eine Planetenbahn nur unter der CP‑Annahme, daß außer der Gravitationskraft der Sonne keine weiteren Kräfte den Planeten beeinflussen, und die Frustrationstheorie der Aggression behauptet den Zusammenhang von Frustration und Aggression nur unter der CP‑Annahme der Abwesenheit anderer Faktoren wie Depression etc. Über semantischen und methodologischen Status von CP‑Gesetzen bestand allerdings Uneinigkeit. Während etliche Autoren sie als gehaltleere Tautologien bezeichnet haben, weil sie nicht empirisch falsifizierbar seien, haben andere sie als Spezialfall von deduktionslogischen Wenn-Dann‑Sätzen aufgefaßt.
Die deduktionslogische Rekonstruktion von CP‑Gesetzen bringt eine Reihe von Schwierigkeiten mit sich, die durch eine nichtmonotone Rekonstruktion behoben werden: CP‑Gesetze werden dabei als normische Gesetze interpretiert - CP: wenn A, dann B ist eine Paraphrase für A => B. Die CP-Klausel ist nun Bestandteil des normischen Wenn‑Dann und kein separates Antezedensglied.
Deterministische Gesetze in der Physik: Können wir zumindest im Bereich der Physik den normischen Gesetzen entkommen und zu genuin deterministische Gesetze gelangen? Nur im Bereich der Theorie, der theoretischen Situationsbeschreibung.
Illustriert sei dies am Beispiel der Prognose einer Planetenbahn durch die Newtonische Theorie und gewissen Anfangsbedingungen. Die adäquate Formulierung des zweiten Newtonschen Axioms enthält den Begriff der Gesamtkraft: Gesamtkraft = Masse mal Beschleunigung. Dieser Begriff enthält implizit eine Vollständigkeitsannahme bzw. Abgeschlossenheitsannahme ‑ er besagt, daß alle auf das fraglichen Objekt, den Planeten, wirkende Kräfte erfaßt wurden. Dies ist deshalb nicht gehaltleer, weil die physikalische Theorie tatsächlich eine Klassifikation aller Kraftarten bietet und damit einen Vollständigkeitsanpruch verbindet. Hat man einmal die theoretische Anteze-densbeschreibung des Planeten als Zweikörperproblem Sonne‑Planet akzeptiert (also die Gesamtkraft auf den Planeten mit der Kraft der Sonne identifiziert), so ist die weitere Schlußprozedur rein deduktiv und deterministisch; die Lösung des Zweikörperproblems ergibt zwingend eine bestimmte Planetenbahn.
Allein, das Normalfallproblem hat sich dadurch nicht ganz aufgelöst, sondern nur auf eine andere Stelle verschoben ‑ nämlich auf den Schluß von der empirischen Antezedensbeschreibung ‑ dem, was man etwa im Teleskop sieht ‑ auf die theoretische Antezedensbeschreibung: Gesamtkraft = Kraft der Sonne. Dieser Schluß bleibt weiterhin normisch, denn eine vollständige Auflistung aller möglicher Störfaktoren auf der empirischen Ebene, in der empirischen Sprache, ist unmöglich ‑ man müßte hierzu alle Winkel des Universums untersuchen.
Im Gegensatz dazu sind in den nichtphysikalischen Disziplinen auch die Theorien selber normisch strukturiert. Sie können aufgrund der Komplexität der von ihnen beschriebenen Systeme niemals alle relevanten Kausalfaktoren in die Theorie integrieren und bleiben daher notwendig unvollständig. Ein Beispiel ist die Frustrationstheorie der Aggression. Dieselbe Situation liegt auch in der Biologie und in qualitativen Bereichen der Chemie vor. Zusammengefaßt läßt sich damit folgender Unterschied ausmachen:
Gerhard Schurz
physikalische Disziplinen sind nur im Bereich der empirischen Operationalisierung normisch, nichtphysikalische Disziplinen sind dies darüber hinaus auch im Bereich ihrer Theoriebildung.
Theorienschutz durch Hilfshypothesen: Poppers Falsifikationsmodell wurde von Kuhn, Quine und insbesondere Lakatos einer mittlerweile bekannten Kritik unterzogen. Auch Lakatos verwendete das physikalische Planetenbeispiel und argumentierte wie folgt: Angenommen ein Physiker prognostiziert mithilfe des Theoriekomplexes der klassischen Physik T und empirischen Anfangsbedingungen A die Bahn eines neu entdeckten Planeten P, doch die Beobachtungen B ergeben eine Abweichung von der vorausgesagten Bahn. Gemäß Poppers Schema müßte der Physiker, wenn wir annehmen die Anfangsdaten seien gesichert, nun die Theorie T verwerfen. In der Tat aber, so Lakatos, tut er das mitnichten, er postuliert vielmehr eine Hilfshypothese H, derzufolge der Planet durch einen kleinen bisher nicht beobachteten Planeten gestört, von seiner Bahn abgelenkt wird. Derartiges ist in der Geschichte der Astronomie mehrmals vorgekommen (so haben Adams und Leverrierca. 1820 den Planeten Neptun postuliert, um damit die Abweichung des Uranus von der newtonisch vorausgesagten Planetenbahn zu erklären).
Wie aber schon Coffa 1968 betont hat, ist eine Falsifikationsvermeidung durch Hilfshypothesenaddition im deduktiven Fall un-möglich ‑ denn die deduktive Logik ist monoton: Wenn aus T und A eine falsche Prognose deduktiv folgt, so folgt sie auch nach Hinzufügung von H. Lakatos' Vorschläge, diesen Konflikt zu lösen, laufen darauf hinaus, daß wir beim Theorienschutz nicht bloß eine Hilfshypothese hinzufügen, sondern irgendein Element in der Peripherie von T ändern. Dadurch wird der Theorienschutz mit dem deduktivistischen Falsifikationsmodell wieder vereinbar. Plausibler scheint es jedoch anzunehmen, daß der Physiker mit dem Postulat des Störplaneten überhaupt nichts an seiner Theorie modifiziert, sondern nur sein praktisches Umgehen mit der Theorie ändert. Im deduktiven Fall ist eine solche Rekonstruktion unmöglich, da sie zu Wiedersprüchen führt, im nichtmonotonen Fall ist dies nicht nur möglich, sondern sogar sehr häufig anzutreffen.
Wir unterscheiden zwischen der Wissens-basis, kurz Basis ‑ bestehend aus Fakten und Gesetzen bzw. Theorien ‑ und den daraus erschlossenen Folgerungen, die Folgerungshülle, kurz Hülle. Im deduktiven Fall ist der dynamische Zusammenhang von Basis und Hülle monoton; wenn die Basis wächst, etwa durch Hinzufügung einer neuen Hypothese H, kann die Hülle nur wachsen, beispielsweise durch eine neue Konsequenz Q. Will man die unerwünschte Prognose P eliminieren, also die Hülle zum Schrumpfen bringen, so muß man auch die Basis schrumpfen, also falsifizieren. Der sogenannte Holismus der Theorienfalsifi-kation besteht dabei darin, daß man die Basis auf unterschiedliche Weisen schrump-fen kann, in dem man dieses oder jenes Element der Basis eliminiert.
Im nichtmonotonen Fall kann genau das Umgekehrte eintreten. Durch Anwachsen der Basis können nun tatsächlich Elemente der Hülle eliminiert werden, indem ehemalige Folgerungen durch instantiierte Ausnahmegesetze blockiert werden. In unserem Beispiel steht A für die Anfangsdaten des gegebenen Planeten und P für Prognose der Planetenbahn nach der Zweikörpermechanik. T besteht aus der Newtonschen Theorie und dem (im nichtmonotonen Fall normischen) Anwendungsgesetz der Zweikörpermechanik. H besteht aus dem (im nichtmonotonen Fall normischen) Ausnahmegesetz für die Dreikörpermechanik und der singulären Hypothese über den störenden Nachbarplanet. Durch Erweiterung der Basis von verschwindet P aus der Hülle, denn das normische Anweundungsgesetz der Zweikörpermechanik wird durch Hinzufügung von H blockiert.
Ethik: Dies ist ein weiteres wichtiges Anwendungsgebiet der nichtmonotonen Logik. Denn fast alle ethischen Gebote lassen Ausnahmen zu. In diesem Sinn hatte bereits 1930 Ross den Begriff der prima facie Pflicht eingeführt, der an Kants Begriff der unvollkommenen Pflicht anschließt. Erst in jüngster Zeit hat man begonnen, die nichtmonotone Logik explizit auf die Ethik und deontische Logik anzuwenden. Verfahrensweisen zur Behandlung konfligierender Ge-bote (z.B. strenge Präferenz, Konfliktvermeidung, Güterabwägung) sind dabei besonders bedeutsam.
Evolutionstheoretische Begründung: Normische Gesetze als Systemgesetze.
Sind normische Hypothesen mehr als bloß akzidentelle, oder gar von der vereinfa- chenden menschlichen Sichtweise zurechtgemachte statistische Majoritätsbe- ziehungen? Gibt es einen objektiven Grund dafür, warum wir in den nichtphysikalischen Disziplinen so häufig normische Gesetze vorfinden - warum wir sie überhaupt vorfin- den? Anders gefragt - gibt es eine tiefere theoretische Begründung der Gesetzesartig- keit normischer Gesetze?
Eine Erhellung bringt die Unterscheidung zwischen Naturgesetzen und Systemgesetzen. Die Naturgesetze der Physik sprechen über das, was im Ganzen des Universums gilt. Die Biologie, Psychologie, Soziologie spricht jedoch über spezifische Systeme - "lebende" Systeme. Wir betreten hnier das Gebiet der System- und Evolutionstheorie. Lebende Systeme sind offene Systeme - d.h. sie befinden sich in ständigem Austausch mit ihrer Umgebung. Und sie sind selbstregulativ - d.h. sie besitzen gewissen Sollzustände, welche annähernd einzuhalten für sie überlebenswichtig sind, sowie eine Reihe von Regulationsmechanismen, die bei Abweichung vom Sollzustand schnell dafür sorgen, daß die Abweichung ausgeglichen und der Sollzustand wieder erreicht wird. Diesen Regulationsmechanismen ist es zu verdanken, daß gewisse Zustände von einem solchen System normalerweise eingehalten werden - würde es diese nicht einhalten, würde das System bald aussterben. Aus diesem Grund sind die Gesetze, die solche Systeme be- schreiben, im Regelfall normischer Natur. Normische Gesetze sind also Systemgesetze. Sie beschreiben das Resultat der Evolution selbstregulativer Systeme - darin liegt ihre objektive Fundierung. Und darin liegt auch der tiefere Grund, warum es diesen eigentümlichen Zusammenhang von statisicher Normalität und idealtypischer Normalität überhaupt gibt. Der für das System idealtypische, weil überlebenswichtige Normalfall muß auch der statistische Normalfall sein, denn andernfalls würde das System langfristig aussterben und könnte dann aus diesem Grund nicht die statistische Oberhand gewinnen. Kurz gesagt: die Nor-malfallstatistik ist mit der Idealnorm durch das evolutionstheoretische Selektionsgesetz verknüpft.
LITERATUR ZUM THEMA
Aufgrund der Neuheit und Interdisziplinarität des Themas ist Literatur verstreut und schwer aufzufinden. Einführungen in nichtmonotones Schließen geben:
Brewka, G.: Nonmonotonic Reasoning. From Theoretical Foundation to Efficient Computation. 1991, £ 24.95, Cambridge University Press.
Zur wahrscheinlichkeitstheoretischen Fundierung siehe:
Adams, E.: A Primer of Probability Logic. 450 p., pbk., $ 69.85, Lecture Notes Series 68, CSLI-Publications, Stanford.
Ausführliche Literarhinweise finden sich in zwei im Prepublication Stadium befindliche Arbeiten des Autors, die auf seiner Internet Homepage unter http://www.sbc.ac.at/phs/people/schurz.htm (downloadable papers 29, 30) abgerufen werden können.
UNSER AUTOR:
Gerhard Schurz ist Professor für Philosophie an der Universität Salzburg.
|