PhilosophiePhilosophie

BERICHT

Logik: Das nichtmonotone Schliessen

Gerhard Schurz:

Das nichtmonotone Schließen und seine wissenschaftsphilosophische Bedeutung

 

 

 

Die meisten Gesetzeshypothesen, mit denen wir es im praktischen Alltag und in den Wissenschaften zu tun haben, sind nicht streng deterministischer Natur, sondern lassen Ausnahmen zu. Solche Gesetze ha-ben daher nicht die logische wenn‑dann­Form: Alle As sind Bs. Ihre natur­sprach­liche Form lautet statt dessen: As sind nor­malerweise Bs. Die deduktive Logik gibt keine Auskunft darüber, wie solche Gesetze zu repräsentieren sind und wie mit ihnen zu schließen ist. Ich nenne solche Gesetze in Anleh­nung an Scriven nor­mische (nor­malfallbezogene) Gesetze und gebe das "wenn, dann norma­lerweise" durch einen Doppelpfeil wieder: A => B (die In­divi-duenvariable x wird zu A und B hinzu gedacht).

 

Die Entdeckung und Verkennung normi-scher Gesetzeshypothesen in der Erklä-rungskontroverse

 

Normische Gesetzeshypothesen wurden be-reits in den 50er Jahren entdeckt, als Ge­schichtswissenschafter das damals wich­tigste Vorzeigemodell der analytischen Wis-senschaftstheorie diskutierten: Hempels deduktiv‑nomologisches Erklä­rungsmodell. Dieses von Pop­per gleichfalls vertretene Modell lehrte, daß wissenschaft­liche Erklä­rungen oder Voraussagen sich immer auf allgemeine Gesetzeshypo­thesen stützen müssen. Denn Erklären bzw. Vor­aussagen heißt, aus Gesetzen (G) und den singulären Antezedensbedingungen (A) ein Explanan­dum oder Prognoszendum (E) deduk­tions-logisch abzuleiten ‑ z.B. (G) alle Me­talle leiten Strom, (A) dieser Gegenstand ist aus Metall, daher (E): dieser Gegenstand leitet den Strom.

 

Zu Recht haben Ge­schichts‑ und Human­wissenschafter be­zweifelt, daß es in ihrem Bereich solch streng allgemeine Gesetze überhaupt gibt. Den Anstoß zur Kontro­verse gab Dray mit seinem be­rühmten Beispiel vom Ludwig den XIV. Wenn Historiker dessen Unpopularität erklären, so müßten sie gemäß dem deduktionslogischen Modell ein streng allgemeines Gesetz folgender Art annehmen: "Alle Herrscher, die ihr Land in Kriege verwickeln und dem Volk schwere Bela­stun­gen aufbür­den, wer­den unpopulär".

 

Jeder Historiker weiß, daß ein solches Ge­setz nie ausnahmslos gültig sein kann ‑ selbst dann nicht, wenn man seine Wenn‑ Bedin­gung durch weitere Kon­junktions­glie­der verstärkt. Was Historiker bei solchen Erklärun­gen dagegen wirklich im Kopf haben, war Dray zufolge fol­gende Nor­mal­fallhypothese:

 

"Herrscher bzw. Regierungen, die die und die Bedingungen erfüllen, werden normaler­weise (üblicherweise, zumeist) unpopulär."

 

Als Gegenvorschlag zum deduktionslogi­schen Modell hatte Dray sein Modell der rationalen Erklärung entwickelt, demgemäß die Erklärung historischer Handlungen dar-auf basieren müsse, diese im Lichte der Ziele und Glaubenseinstellungen ihrer Ak­teure als (zweck)rational zu erweisen. Dray betonte, daß auch ratio­nale Erklärungen auf folgendem sehr allge­meinen Normalfallprin­zip beruhen:

 

(R) Personen handeln normalerweise zweck­rational; d.h., wenn Akteur a Ziel Z hat und glaubt, Handlung H sei ein geeignetes Mit­tel für die Erreichung von Z, dann wird a normaler­weise H zu realisieren versuchen.

 

Typische Ausnahmen des Gesetzes (R) sind z.B. innere Zwänge oder unbewußte Motive, die die Psychoanalyse behandelt. Leider wurde die positive Analyse normi­scher Ge-setze damals verabsäumt. Stattdessen wur­den sie zum Angelpunkt des philosophi­schen Lagerstreites zwischen Einheitswis­senschaftern und Methoden­dua­listen. Rück­blickend ist es eine Ironie der Geschichte, daß der Irrtum nicht in dem lag, worüber sich die beiden Lager stritten, sondern da­rin, worin sich die bei­den Lager einig wa­ren: daß nämlich normi­schen Ge­setzen der Status wissenschaftli­cher Ge­setzeshypothe­sen gänzlich ab­zusprechen sei. Denn nor­mische Gesetze ‑ so lautete das Argument ‑ sind nicht fal­sifizierbar. Indem wir die Gegen­beispiele zum Ausnahmefall erklären, kön­nen wir ein normisches Ge­setz vor mög-li­cher Fal­sifikation jederzeit schützen. Nicht­fal­sifizierbare Gesetze aber haben keinen em­pirischen Gehalt ‑ gemäß dem Popperschen Abgren­zungs­krite­rium. Ergo seien nor­mische Gesetze quasi­analyti­sche Aussagen ‑"Bin­senwahrhei­ten", wie Scriven sagte.

 

Dray und Scriven war diese Konsequenz willkommen. Sie vertraten ja die anti­ein­heitswissenschaftliche Gegenposition, die im 19. Jahrhundert von Dil­they und Windel­band begründet wurde, in unserem Jahrhun­dert von Gada­mer, Apel und anderen wei­tergeführt wurde und die fol­genden Metho­dendualis­mus lehrte: in den Naturwis­sen­schaften erklären wir gemäß dem deduk­tiv‑nomolo­gischen Modell, in den Geistes­wissen­schaf­ten dage­gen verstehen wir, wobei das Ver­stehen rein auf das In­divi­duelle ab­zielt, (scheinbar) ohne jeden Bezug auf allgemei­ne Gesetze.

 

Den ein­heitswissen­schaftlich orientierten Wis­senschaftstheoretikern andererseits war diese Konse­quenz sehr unwillkommen. Doch sie standen vor einem Dilemma. Man sah da­mals (im wesentlichen) nur zwei Alter­nativen, aus normischen Pseudogeset­zen "echte" wissenschaftliche Gesetze zu ma­chen:

 

n Erstens ihre deterministische Vervoll­komm­nung, so wie dies z.B. Albert for­derte. Doch die Aus­nahmen, deren Auf­tre­ten man im Gesetzes­antezedens je­weils verbieten müßte, sind im Regelfall unüber­schaubar und durch keine endliche Liste aufzählbar ‑ eine deterministi­scher Ver­vollkommnung ist somit un­möglich.

 

n Die zweite Möglichkeit zur Ent­normi­fizierung normischer Gesetze wurde von Hempel in seinem induktiv‑statistischen Erklärungsmodell beschritten und bestand darin, aus ihnen numerisch‑­statistische Ge­setze folgender Form zu machen: die Wahr­scheinlichkeit von B, gegeben A, ist so und so hoch, z.B. 90%.

 

Aber auch hier stand man vor schweren Hindernissen. Erstens kann kein Ge­schichts­wissenschaftler exakte oder auch nur un­ge-fähre Häufig­keiten über Ereignis­typen wie das Un­populärwerden von Herrschern an­ge-ben, weil man keine homogene Zufalls­stich­probe von Herrschern, die ihr Land in Krie­ge ver­wickeln, ziehen kann. Der zweite große Hemmschuh war, daß selbst wenn man vage Wahrscheinlichkeits­werte kennen würde, man keine Logik für unsichere Ge­neralisie­rungen hatte, die einem sagen konn­te, wie man aus unsichere Gesetzen rational schließen kann. Nachdem Toulmins früher Versuch eines Regelsystems normischen Schließens von Hempel 1960 der Inkon­sistenz über­führt wurde, breitete sich Skep­sis aus. Weder deduktive Logik noch klas­sische (al­gebrai­sche) Wahrscheinlich­keits­theorie gaben hierauf eine Antwort. Toul­min selbst zog die (aus heutiger Sicht) überzogene Schluß­folgerung, daß es eine formale Logik normi­scher Ge­setze gar nicht geben könne: nor­mi­sches Schließen sei unentrinnbar in­halts­ge­bunden.

 

In der Philosophie wurde normisches Schließen bis heute stiefmütterlich behan­delt. Ausnahmen sind die Arbeiten von Adams und Pollock in den 70er Jahren. Systematisch wurde das Thema aber erst in der Künstlichen Intelligenzforschung erar­beitet. Im Zuge der Entwicklung von Exper­tensystemen (z.B. MYCIN von Buchanan und Shortliffe) war man auch hier ständig mit unsicheren bzw. normischen Gesetzen bzw. Regeln konfrontiert. Nach anfängli­chen Miß­erfolgen ging man ab den 80er Jahren syste­matisch daran, eine Logik für solche nor­mischen Gesetze zu ent­wickeln, die sich nichtmonotone Logik oder default logic nannte, und deren Ent­wicklung noch in vollem Gang ist. Lei­der ist die wechsel­seitige Kommuni­kation­ zwischen analyti­scher Philosophie und Künstlicher Intel­ligenzforschung noch heute, bis auf Ausnah­men, kaum vorhanden ‑ zu beider­seitigem Nachteil.

 

Rehabilitierung normischer Gesetze und die Grundidee nichtmonotonen Schlies­sens

 

Der große Hemmschuh, normischen Ge­setzen wissenschaftliche Dignität zuzu­spre­chen, war Poppers These von der Asymme-trie von Verifikation und Falsi­fikation und die sich von daher begründende Gleich­set­zung von Falsifizier­barkeit mit empiri­schem Gehalt. Diese Asymmetrie gilt je­doch nur bei stren­gen, nicht bei normischen Gen­erali­sierungen. Das deterministische Gesetz Alle As sind Bs wird bereits durch ein Ge­genbei­spiel Aa & nicht Ba definitiv wi­derlegt. Doch es wird durch keine noch so große Li-ste von posi­tiven Beispielen Aa & Ba end­gültig verifi­ziert, sondern immer nur mehr oder we­niger gut bestätigt. Daher die Asym­metrie.

 

Bei einem normischen As sind normaler­weise Bs gilt dasselbe für die Widerlegung: keine noch so große Anzahl von Ausnahme-fällen Aa & nicht Ba führt zu einer defini­tive Widerlegung, aber wenn die An­zahl der Ausnahmen im Verhältnis zu den Normal­fällen immer größer wird, wird das Gesetz immer mehr geschwächt, und ir­gendwann werden wir es aufgeben. Im Gegensatz zu deterministischen Gesetzen liegt bei normi­schen Gesetzen also eine grundsätzliche Symmetrie zwi­schen Bestäti­gung und Schwächung vor. Allerdings ist die Tatsa­che, daß normische Gesetze nicht falsifizier­bar, sondern bloß schwächbar sind, kein Grund, ihnen den empirischen Gehalt gänz­lich abzu­sprechen ‑ zumal dasselbe auch auf alle numerisch‑­exakten statisti­schen Hypo­thesen zutrifft. Statt dessen sollte man viel­mehr einräumen, daß die Popper‑Glei­chung Falsifizierbarkeit = empi­rischer Ge­halt = Abgren­zungskriterium eine begrenzte, näm­lich auf deterministi­scher Gesetze ein­ge­schränkte Gültigkeit hat.

 

Normische Gesetze sind damit "rehabili-tiert". Wie läßt sich nun mit ihnen rational schlie­ßen? Die philosophisch be­deutsamste Eigen­schaft normischer Schlüsse ist ihre Nicht­mo­notonie. Die Monotonie deduktions­logischer Schlüsse ist folgende Eigen­schaft: Ist ein deduktiver Schluß kor­rekt, so bleibt er auch korrekt, wenn man belie­bige neue Prämissen hinzufügt. Ist man sich der Wahrheit der Prämissen einmal si­cher, so kann man daher getrost von der Wahrheit der Konklusion ausgehen, ohne sich um das zu kümmern, was man sonst noch weiß. Bei nor­mativen Schlüs­sen liegt die Sache an­ders. Ein Beispiel: Solan­ge wir über ein be­stimmtes Tier nichts anderes wis­sen, als daß es ein Säuge­tier ist, nehmen wir per default an, daß es sich um ein normales Säugetier handelt und schließen, daß es nicht fliegen kann ‑ der untenstehende Doppelstrich steht für nicht­monotone Fol­gerung. Aufgrund die-ses Prin­zips wurde die nichtmono­tone Logik auch default logic genannt: in Er­mange­lung gegenteiligen Wissens neh­men wir immer den Normalfall an. Sobald wir aber zusätz­liche gegenteilige Evidenz erwer­ben ‑ im unten­stehenden Beispiel, daß die­ses Tier eine Fledermaus ist ‑ wird das Normalfall­gesetz G1 durch das Ausnah­megesetz G2 zusam­men mit G3 bloc­kiert. Durch Hinzu­fügung zusätzlicher Prämissen (G2, G3, A2) wird also der ur­sprüngliche (linksste­hende) Schluß inkorrekt ‑ nun ist der rechts­stehen­de Schluß korrekt. Genau das ist die Nicht­mo­notonie.

 

 

 

 

 

 

Abb. 1

 

 

 

 

 

 

Die Funktion des "normalerweise" in normi­schen Gesetzen ist relativ: A => B spricht über das, was beim Vorliegen von A der Normalfall ist, nicht über Normalität in

absolutem Sinn. Man kann mit nor­mischen Hypothesen auch Ausnahmeverhal­ten be­schreiben. Was als Normalfall und was als Ausnahme zählt, ist nicht einem isolier­ten normischen Gesetz allein an­zusehen, son­dern nur dem ganzen System normi­scher Gesetze über den gegebenen Bereich, wel­ches eine normische Theorie bildet.

 

Normische Hypo­thesensysteme lassen sich wie folgt hierar­chisieren: Gegeben der Ge­gen­standsbereich A, so hat man zunächst Normal­fallgesetze im eigentlichen Sinn von der Form wenn A, dann normalerweise B, dann Aus­nah­megesetze 1. Stufe von der Form wenn A&X, dann normalerweise nicht B sondern C, dann Ausnahmegesetze 2. Stufe wenn A&X&Y, dann normaler­weise nicht C sondern D usw. In unserem Beispiel wären Ausnah­men 2. Stufe z.B. Fleder­mäuse mit gebr­ochenen Flü­geln, usw. Zwi­schen diesen Ebenen gilt die Spe­zifitäts­regel: die Gesetze mit dem spezifi­scheren Antezedens, d.h. mit dem höheren Ausnah­megrad, blockieren im Konfliktfall die weniger spezifischen.

 

Nicht allerdings lassen sich nor­mische Ge­setze mit logisch unverträglichen  ­Dann‑Gliedern in das Verhältnis von Nor­mal­fall‑ und Ausnahmegesetz setzen: dann nämlich nicht, wenn keines der beiden Wenn‑Glieder spezifischer ist als das an­dere. Ein einfaches Beispiel wäre die Prä­missen­menge {A => B, C => nicht‑B, Aa, Ca}. Wie mit konfligierenden Prämissen ohne Spezifitätsrelation inferentiell um­zuge­hen ist, ist das vermutlich schwierigste Problem nichtmonotonen Schließens.

 

Die Bedeutung des Verste­hens des Einzel­falls

 

Eine tiefliegende Konsequenz des nicht­monotonen Schließens ergibt sich für die Rolle, die das Verstehen des Einzelfalls darin spielt. Erläutert sei dies am Beispiel einer Handlungs­erklärung: der Wiederkandi­datur des Politikers X.

 

Im Fall 1 kann X aufgrund fort­schrei­tender Alzheimererkran­kung nicht mehr zum Präsi­dentenamt kan­didieren. Hier haben wir ein deterministi­sches Gesetz. Im Fall 2 be­zwei­feln wir die Wiederkan­didatur aufgrund fortwäh­render Herzbe­schwerden. Hier ver­fügen wir nur über ein normisches Gesetz. Im determini­sti­schen Fall müssen wir, außer daß X Alzheimer hat, nichts über X wissen, um die Konklusion, daß er nicht mehr kan­didieren wird, zu er­schließen. Neu hinzu­kommendes Wissen ist hier nur dann rele­vant, wenn es an unserer be­stätigenden Evidenz für X's Alzheimer­krankheit etwas ändert. Es liegt, in anderen Worten, nur lokale Kon­textab­hängigkeit vor: solange wir sicher sind, daß X Alz­heimer hat, können wir die Prognose vom Rest des Wissens, den "Teil" vom "Gan­zen" abspalten.

 

Ganz anders im Fall 2. Hier liegt globale Kon­textabhängigkeit vor: jedes neue Wissen über X kann den bisherigen Schluß zunichte machen, ohne die Wahrheit von X's Herz­beschwerden zu tangieren. Wenn wir z.B. erfahren, daß X bereits bei der letzten Kan­didatur ebenso starke Herzbeschwerden hat-te und dennoch kan­didierte, so werden wir bezweifeln, daß seine Herzbeschwerden ein ausreichendes Motiv für seine Nichtkand­i­datur abgeben; erfahren wir weiter, daß X die Landespolitik längst anödet und X sich weltpolitische Verdienste erwerben möchte, werden wir erneut ein Motiv für X's Nicht­kandidatur erblicken, usw. Jedes neue Fakt über X kann möglicherweise relevant wer­den: um X's Nichtkandi­datur begründet voraus­zusagen, um zu wissen, welche nor­mi­schen Gesetze auf X angewandt wer­den dürfen und welche nicht, müssen wir mög­lichst alles Relevante über a wissen ‑ wir müssen, wie man auch sagen kann, X's Situation wirklich ver­stehen. Genau das ist im deter­ministischen Fall nicht so: wir müssen den armen X nicht verstehen, um sein Nichtkandidieren aufgrund seiner Alz- heimerkrankheit begründet vorauszusagen.

 

Die nichtmonotone Logik erlaubt es somit, einen gewissen Aspekt der geisteswis­senschaftlichen Theorie des Verstehens rational nachzuzeichnen - nämlich die Wich­tigkeit des Verstehens des in­dividuel­len Falls. Um zu wissen, was wir für den Ein­zel­fall mithilfe unserer normi­schen Ge­setze er­schließen dürfen, müssen wir unser ge­sam­tes Wissen um diesen Ein­zelfall be­rück­sichtigen. Wir können das Einzelne nur im Licht des Ganzen deuten, wie man in der Hermeneutik sagt, was logisch‑proze­dural bedeutet, daß jeder Fol­gerungsschritt der nicht­monotonen Logik im Lichte al­ler an­deren Fakten auf mögliche Blockierung durch konfli­gierende Folgerun­gen ge­prüft werden muß. In der Tat scheint hier ein inferentieller Zirkel vorzuliegen, der dem hermeneutischen Zirkel durchaus ähn­lich ist, den man in der nichtmonotonen Logik je-doch durch das Zusammenspiel verschiede­ner Arten von Regeln auflöst.

 

Zwei Semantiken und die drei Regel­module des nichtmonotonen Schließens

 

Was soll als das Korrekt­heitskriterium für Schlüsse aus normischen Gesetzen ‑ kurz: normische Schlüsse ‑ gelten? In der deduk­tiven Logik ist dies das semantische Krite­rium der strik­ten Wahrheitserhaltung: die Wahr­heit der Prämissen impliziert mit Si­cherheit die Wahr­heit der Konklusion. Das ist bei nor­mischen Schlüs­sen nun gerade nicht der Fall. Man benötigt also eine an­dere seman­tische Grundidee. Es gibt bis dato zwei semantische Grundideen:

 

n In der normale-Welten-Semantik (auch "preferred model" oder "ranked model" semantics) gilt ein normischer Schluß als korrekt, wenn er die Wahrheit in jenen Welten erhält, die maximal normal in Bezug auf die Prämissen sind.

 

n In der Wahrscheinlichkeitssemantik gilt ein normischer Schluß als korrekt, wenn er die Wahrheit in den meisten Anwen­dungsfällen erhält.

 

Die Regeln normischen Schließens lassen in drei Modulen zusammenfassen.

 

Modul 1 ist das Prinzip der totalen Evidenz Danach darf man erstens eine singuläre Konklusion Ka nur erschliessen, wenn im Antezendens Fakt(a) alle be­kannten Fakten über den Einzelfall a be­rücksichtigt wurden. Zweitens wird durch das totale Evi­denzprin­zip die Fol­gerung von Singular­sätzen aus normischen Gesetzen und Fakten zurück­ge-führt auf die Folgerungsrelation zwischen normischen Gesetzen untereinan­der, und zwar durch folgende Festlegung: Ka folgt aus der Ge­setzesmenge Ges und der Fak­tenkonjunktion Fakt(a) genau dann, wenn das nor­mische Gesetz "wenn Fakt(x), dann nor­malerweise Kx" ‑ das sogenannte Total­evi­denzgesetz ‑ seinerseits aus der Menge Ges folgerbar ist.

 

Modul 2 ist eine monotone Kernlogik für das Schließen mit normischen Konditio­nalen, das sogenannte System P (preferen­tial en­tallment). Über diese Kernlogik ­be­steht heute größten­teils Einigkeit. Die Re­geln für das normi­sche wenn‑dann sind schwächer als die deduk­tionslogischen Regeln für das strikte wenn‑­dann. Das nor­mische wenn‑dann (=>) ist nichtmo­noton, lediglich die Herleit­bar­kelt (½--p) im System P ist mono­ton; ½-- steht für klas­sisch­-logi-sche Herleit­barkeit.

 

 

Abb 2.

 

 

 

 

 

Modul 1 und 2 machen normisches Schließen nichtmonoton bezüglich neuen Faktenwissens, während die Monotonie bezüglich neuen Gesetzeswissens hier noch gewahrt bleibt. Die erstaunlichste Eigen­schaft des Regelsystems P ist seine Korrekt­heit und Vollständigkeit bezüglich dreier Se­mantiken: die normale‑Welten­-Se­mantik, die infinitesimale und die nonin­finitesimale Wahrscheinlichkeitssemantik. Mit jedem normischen Gesetz A => B wird die (im Regelfall unbekannte) bedingte statistische Wahrscheinlichkeit von B gegeben A, p(B/A), assoziiert. In der infi­nitesi­malen Semantik deu­tet man den Be­griff "hohe Wahrschein­lich­keit" als "Stre­ben gegen Wahrscheinlich­keit 1". In der nonin­finite­simalen Se­mantik be­trach­tet man nicht infinitesimal hohe, sondern bloß praktisch hohe Wahr­schein­lich­keiten (z.B. 0,9 usw.). Dies ermöglicht es, dem normischen Schließen eine probabilistische Reliabilitäts- komponente hinzuzufügen.

 

Modul 3 schließlich ist ein Mechanis­mus von Default Irrelevanzannahmen. Wenn wir beispielsweise aus dem Gesetz A => B und dem Fakt Aa in der Gegenwart weiterer Fakten Ca, Da die Konklusion Ba er­schließen, so nehmen wir per default an, daß die weiteren Fakten C, D für das nor­mische Gesetz A => B nicht ne­gativ rele­vant sind, solange in der Wis­sensbasis keine gegentei­lige Information vorhanden ist. Diese Irrele­vanzannahme rechtfertigt den Default‑Zwi­schenschritt von A => B zu A&C&D => B, was zu­sam­men mit Aa, Ca, Da gemäß dem Total­evidenz­prinzip die singulä­re Konklu­sion Ba liefert. Irrelevanz‑ annahmen sind ebenfalls glo­bal kon­textab­hängig. Sie mac­hen das Schließen nichtmo­noton bzgl. neuen normi­schen Ge­setzeswis­sens. Vor alledem liefern sie eine Heuristik, die es ermöglicht, die wahr­schein­lich­keitslogi­schen Folgerun­gen der normis­chen Prämis­senge­setze zu einem Totale­videnzge­setz auszu­bauen. Denn man kann ja nicht "wört­lich" alle bekannten Fakten über den Einzel­fall a berücksich­tigen: jene Fakten, die in kei­nem bekann­ten Zusam­menhang stehen, schirmt man damit ‑ vor­läufig ‑ als irrele­vant ab. Die eleganteste semantische Realisierung des Moduls 3 beruht darauf, sich auf max­imal normale Weltenmodelle zu be­schrän­ken ‑ das sind solche Modelle, in denen die Summe der Ausnahmegrade der Welten minimal ist (System Z, Rational Closure).

 

Abschließend sei betont, daß die nichtmono­tone Logik weder mit der deduktiv-­mono­tonen Logik noch mit der numerischen Wahrscheinlichkeitstheorie bzw. Statistik in Konkurrenz steht, sondern einerseits mit beiden etwas gemeinsam hat und anderer­seits eine Lücke füllt, die beide offenlassen. Mit der deduktiven Logik hat sie die Idee des regelgeleiteten Schließens gemeinsam, mit der numerischen Wahrscheinlich­keits­theorie die Nichtmonotonie. Normische Informationen sind sta­tistisch gesehen Con­straints über die mögli­chen Wahrscheinlich­keitsverteilungen. Weder die deduktive Logik noch die Stati­stik sagen uns, wie wir solche normischen Informationen zu einem Totalevidenzgesetz ausbauen und damit auf den Einzelfall anwenden können. Eben das versucht die nichtmonotone Logik zu lei­sten.

 

Anwendungen

 

Ceteris-Paribus-Gesetze:In der Wissen- schaftstheorie wurden Ceteris-Paribus- Klauseln, kurz CP-Klauseln, fast ausnahms- los im Sinne von Joseph's "Ceteris-Ab­sentibus"-Klauseln interpretiert. Ein CP- Gesetz der Form "CP: wenn A, dann B" wird danach als un­vollständige Ge­setzes-hypothe­se betrachtet, die den Implik­ations­zusam­men­hang von A auf B nur unter der An­nahme behauptet, daß andere Fakto­ren keinen störenden Einfluß ausüben. So pro­gnosti­ziert die New­tonische Physik eine Planeten­bahn nur unter der CP‑Annah­me, daß außer der Gravita­tionskraft der Sonne keine weite­ren Kräfte den Planeten be­ein­flussen, und die Fru­stra­tionstheorie der Agg­ression be­hauptet den Zusammenhang von Frustra­tion und Aggres­sion nur unter der CP‑Anna­hme der Ab­wesenheit anderer Faktoren wie Depres­sion etc. Über seman­tischen und metho­do­logi­schen Status von CP‑Gesetzen be­stand aller­dings Uneinigkeit. Während etli­che Autoren sie als ge­halt­leere Tautolo­gien bezeichnet ha­ben, weil sie nicht em­pirisch falsifizierbar seien, haben andere sie als Spezial­fall von deduktionslogischen Wenn-­Dann‑­Sätzen aufgefaßt.

 

Die deduktionslogische Rekonstruktion von CP‑Gesetzen bringt eine Reihe von Schwie­rigkeiten mit sich, die durch eine nicht­mo­notone Re­konstruktion behoben werden: CP‑Gesetze werden dabei als normische Gesetze interpre­tiert - CP: wenn A, dann B ist eine Paraphrase für A => B. Die CP­-Klau­sel ist nun Be­standteil des normischen Wenn‑Dann und kein separates Anteze­dens­glied.

 

Deterministische Gesetze in der Physik: Können wir zumindest im Bereich der Phy­sik den normischen Gesetzen ent­kommen und zu genuin deterministische Gesetze ge­lan­gen? Nur im Bereich der Theorie, der theo­retischen Situationsbe­schreibung.

 

Illustriert sei dies am Beispiel der Pro­gnose einer Plane­tenbahn durch die New­tonische Theo­rie und gewissen An­fangs­bedingun­gen. Die adäquate For­mulierung des zweiten New­tonschen Axioms enthält den Begriff der Gesamt­kraft: Ge­samtkraft = Masse mal Be­schleuni­gung. Dieser Begriff enthält implizit eine Voll­stän­digkeitsan­nahme bzw. Abgeschlos­senheits­annahme ‑ er besagt, daß alle auf das fragli­chen Ob­jekt, den Planeten, wir­kende Kräfte erfaßt wur­den. Dies ist des­halb nicht gehalt­leer, weil die physika­lische Theorie tat­sächlich eine Klassi­fikation aller Kraftarten bietet und damit einen Vollstän­digkeits­anpruch verbin­det. Hat man einmal die theoretische An­teze-densbeschreibung des Planeten als Zwei­körperproblem Sonne­‑­Planet akzep­tiert (also die Gesamtkraft auf den Planeten mit der Kraft der Sonne iden­tifiziert), so ist die weitere Schluß­prozedur rein deduktiv und deterministisch; die Lö­sung des Zweikör­perproblems ergibt zwin­gend eine bestimm­te Planetenbahn.

 

Allein, das Normalfallproblem hat sich da­durch nicht ganz aufgelöst, sondern nur auf eine andere Stelle verschoben ‑ nämlich auf den Schluß von der empirischen An­teze­densbe­schreibung ‑ dem, was man etwa im Teleskop sieht ‑ auf die theoreti­sche An­tezedensbeschrei­bung: Gesamtkraft = Kraft der Sonne. Dieser Schluß bleibt weite­rhin normisch, denn eine vollständige Auflistung aller mögli­cher Störfak­toren auf der empiri­schen Ebene, in der empiri­schen Sprache, ist unmöglich ‑ man müßte hierzu alle Win­kel des Universums untersuchen.

 

Im Gegensatz dazu sind in den nichtphysi­kali­schen Disziplinen auch die Theorien selber normisch strukturiert. Sie können auf­grund der Komple­xität der von ihnen be­schriebenen Systeme niemals alle relevan­ten Kausalfaktoren in die Theorie inte­grieren und bleiben daher notwen­dig unvollständig. Ein Beispiel ist die Frustrationstheorie der Aggression. Dieselbe Situation liegt auch in der Biologie und in qualitativen Bereichen der Chemie vor. Zusam­mengefaßt läßt sich damit folgender Unter­schied aus­machen:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Gerhard Schurz

 

phy­sikali­sche Disziplinen sind nur im Be­reich der empiri­schen Operationa­lisie­rung normisch, nicht­physikalische Dis­ziplinen sind dies darüber hinaus auch im Bereich ihrer Theo­riebil­dung.

 

Theorienschutz durch Hilfshypo­thesen: Poppers Falsifikationsmodell wurde von Kuhn, Quine und insbesondere Lakatos einer mittlerweile bekannten Kritik unter­zogen. Auch Lakatos verwendete das physi­kalische Planetenbeispiel und argumentierte wie folgt: Ange­nommen ein Physiker pro­gnosti­ziert mit­hilfe des Theoriekomplexes der klassischen Physik T und empirischen Anfangsbedingungen A die Bahn eines neu ent­deckten Plane­ten P, doch die Beob­ach­tun­gen B ergeben eine Ab­weichung von der vorausgesag­ten Bahn. Gemäß Pop­pers Sche­ma müßte der Physi­ker, wenn wir anneh­men die Anfangsdaten seien gesi­chert, nun die Theorie T verwer­fen. In der Tat aber, so Lakatos, tut er das mitnich­ten, er postuliert vielmehr eine Hilfs­hypo­these H, derzufolge der Planet durch einen klei­nen bisher nicht beo­bachteten Pla­neten gestört, von seiner Bahn abgelenkt wird. Derartiges ist in der Geschichte der Astro­no­mie mehrmals vor­gekommen (so haben Adams und Lever­rier­­ca. 1820 den Plane­ten Neptun po­stu­liert, um damit die Ab­weichung des Uranus von der newtonisch vorausgesagten Pla­neten­bahn zu erklären).

 

Wie aber schon Coffa 1968 betont hat, ist eine Falsifikationsvermeidung durch Hilfs­hypothe­senaddition im deduktiven Fall un-möglich ‑ denn die deduktive Logik ist monoton: Wenn aus T und A eine falsche Prognose deduktiv folgt, so folgt sie auch nach Hinzufügung von H. Lakatos' Vor­schläge, diesen Konflikt zu lösen, laufen darauf hinaus, daß wir beim Theorien­schutz nicht bloß eine Hilfshypo­these hin­zufügen, son­dern irgendein Element in der Peripherie von T ändern. Da­durch wird der Theo­rien­schutz mit dem deduk­tivistischen Fal­sifikationsmodell wie­der verein­bar. Plau­sibler scheint es jedoch anzuneh­men, daß der Phy­siker mit dem Postulat des Störpla­neten überhaupt nichts an seiner Theo­rie modifiziert, sondern nur sein prak­tisches Um­gehen mit der Theorie än­dert. Im deduk­tiven Fall ist eine solche Rekonstruktion unmöglich, da sie zu Wiedersprüchen führt, im nicht­mo­noto­nen Fall ist dies nicht nur möglich, sondern sogar sehr häufig an­zutreffen.

 

Wir unter­scheiden zwischen der Wis­sens-basis, kurz Basis ‑ bestehend aus Fakten und Gesetzen bzw. Theorien ‑ und den daraus erschlossenen Fol­gerungen, die Fol­gerungshülle, kurz Hülle. Im dedukti­ven Fall ist der dynamische Zusam­men­hang von Basis und Hülle monoton; wenn die Basis wächst, etwa durch Hinzufügung einer neuen Hypothese H, kann die Hülle nur wachsen, bei­spiels­weise durch eine neue Kon­se­q­uenz Q. Will man die uner­wünschte Pro­gnose P eliminieren, also die Hülle zum Schrumpfen bringen, so muß man auch die Basis schrump­fen, also fal­sifizieren. Der soge­nannte Holismus der Theo­rienfal­sifi-kation besteht dabei darin, daß man die Basis auf unterschiedliche Weisen schrump-fen kann, in dem man dieses oder jenes Element der Basis eliminiert.

 

Im nichtmonotonen Fall kann genau das Um­gekehrte eintreten. Durch Anwachsen der Basis können nun tatsächlich Elemente der Hülle eliminiert werden, indem ehema­lige Folgerun­gen durch instantiierte Ausnah­megesetze bloc­kiert wer­den. In unserem Beispiel steht A für die An­fangsdaten des gege­benen Planeten und P für Prognose der Planetenbahn nach der Zweikörpermecha­nik. T besteht aus der New­tonschen Theorie und dem (im nicht­monotonen Fall normi­schen) Anwen­dungsgesetz der Zwei­körper­mechanik. H besteht aus dem (im nicht­monotonen Fall normischen) Ausnah­mege­setz für die Dreikörpermechanik und der singulären Hypothese über den stören­den Nach­barplanet. Durch Erweiterung der Basis von

verschwindet P aus der Hülle, denn das normische Anweundungsgesetz der Zwei­körpermechanik wird durch Hinzufügung von H blockiert.

 

Ethik: Dies ist ein weiteres wichtiges An­wendungsgebiet der nichtmonotonen Logik. Denn fast alle ethischen Gebote lassen Ausnahmen zu. In diesem Sinn hatte bereits 1930 Ross den Begriff der prima facie Pflicht eingeführt, der an Kants Begriff der unvollkommenen Pflicht anschließt. Erst in jüngster Zeit hat man begonnen, die nicht­monotone Logik explizit auf die Ethik und deontische Logik anzuwenden. Verfahrens­weisen zur Behandlung konfligierender Ge-bote (z.B. strenge Präferenz, Konfliktver­meidung, Güterabwägung) sind dabei beson­ders bedeutsam.

 

 

 

 

Evolutionstheoretische Begründung: Nor­mische Gesetze als Systemgesetze.

 

Sind normische Hypothesen mehr als bloß akzidentelle, oder gar von der vereinfa- chenden menschlichen Sichtweise zu­rechtgemachte statistische Majoritätsbe- ziehungen? Gibt es einen objektiven Grund dafür, warum wir in den nichtphysikalischen Disziplinen so häufig normische Gesetze vorfinden - warum wir sie überhaupt vorfin- den? Anders gefragt - gibt es eine tiefere theoretische Begründung der Gesetzesartig- keit normischer Gesetze?

 

Eine Erhellung bringt die Unterscheidung zwischen Naturgesetzen und Systemge­setzen. Die Naturgesetze der Physik spre­chen über das, was im Ganzen des Univer­sums gilt. Die Biologie, Psychologie, Sozio­logie spricht jedoch über spezifische Syste­me - "lebende" Systeme. Wir betreten hnier das Gebiet der System- und Evolutionstheo­rie. Lebende Syste­me sind offene Systeme - d.h. sie befinden sich in ständigem Aus­tausch mit ihrer Um­gebung. Und sie sind selbstregulativ - d.h. sie besitzen gewissen Sollzustände, welche annähernd einzuhalten für sie überlebens­wichtig sind, sowie eine Reihe von Regulationsmechanismen, die bei Abweichung vom Sollzustand schnell dafür sorgen, daß die Abweichung aus­geglichen und der Soll­zustand wieder er­reicht wird. Diesen Regulationsmechanis­men ist es zu verdanken, daß gewisse Zu­stände von einem sol­chen Syste­m normalerweise eingehal­ten werden - würde es diese nicht einhalten, würde das System bald ausster­ben. Aus diesem Grund sind die Gesetze, die solche Systeme be- schreiben, im Regel­fall normi­scher Natur. Normische Gesetze sind also Systemgesetze. Sie beschreiben das Resultat der Evolution selbstregulativer Systeme - darin liegt ihre objektive Fun­dierung. Und darin liegt auch der tiefere Grund, warum es diesen eigen­tümlichen Zusammenhang von statisicher Normalität und idealtypischer Normalität überhaupt gibt. Der für das System idealtypische, weil über­lebenswich­tige Normalfall muß auch der statistische Normalfall sein, denn andern­falls würde das System langfristig ausster­ben und könn­te dann aus diesem Grund nicht die statisti­sche Oberhand ge­winnen. Kurz gesagt: die Nor-malfallstatis­tik ist mit der Idealnorm durch das evolu­tions­theoretische Selek­tionsgesetz verknüpft.

 

 

LITERATUR ZUM THEMA

 

Aufgrund der Neuheit und Interdisziplinari­tät des Themas ist Literatur ver­streut und schwer aufzufinden. Einführun­gen in nicht­monotones Schließen geben:

 

Brewka, G.: Nonmonotonic Reasoning. From Theoretical Foundation to Efficient Computation. 1991, £ 24.95, Cambridge University Press.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Zur wahrscheinlichkeitstheoretischen Fun­dierung siehe:

 

Adams, E.: A Primer of Probability Logic. 450 p., pbk., $ 69.85, Lecture Notes Series 68, CSLI-Publications, Stanford.

 

Ausführliche Literarhinweise finden sich in zwei im Prepublication Stadium befindliche Arbeiten des Autors, die auf seiner Internet Homepage unter

http://www.sbc.ac.at/phs/people/schurz.htm

(downloadable papers 29, 30) abgerufen werden können.

 

 

UNSER AUTOR:

 

Gerhard Schurz ist Professor für Philosophie an der Universität Salzburg.