Hegel und die analytische Philosophie

In der Philosophie gibt es seit längerem zwei Lager: das der analytischen und das der kontinentalen Philosophie. Seit Beginn des zwanzigsten Jahrhunderts hatte sich die Trennung vorbereitet, seit Mitte des Jahrhunderts ist sie etabliert. Die analytische Philosophie, die in den anglo-amerikanischen Ländern dominiert, ist nach vorne gewandt, sie will - auf dem Weg logischer oder sprachlicher Analyse - Probleme lösen. Die kontinentale Philosophie, die auf dem europäischen Festland vorherrscht, setzt die philosophische Arbeit traditionellen Stils fort; nicht Klarheit und Lösung, sondern Tiefe und Originalität gelten ihr als Nobelprädikate. Von diesem Gegensatz - und vom Verdikt der analytischen Philosophie über die kontinentale - war kein Denker stärker betroffen als Hegel. "Hegel und die analytische Philosophie", das ist wie Feuer und Wasser. Lange Zeit galt Hegel den analytischen Philosophen als Inbegriff kontinental-spekulativer Geistesverwirrung.

Moores und Russells Angriff auf den Neo-Hegelianismus

Das Verdikt über Hegel gehört zum Gründungsakt der analytischen Philosophie. Ende 1898 bliesen die 25- bzw. 26jährigen Cambridge-Studenten George Edward Moore und Bertrand Russell zum Angriff auf den damals in der britischen Philosophie dominierenden Neo-Hegelianismus.

Moore meinte, Hegels Beitrag zur Philosophie habe vor allem darin bestanden, der Auffassung, man könne sowohl eine Sache wie ihr Gegenteil vertreten, einen wohlklingenden Namen zu verleihen - "Dialektik" - und diese irrige Anschauung zum philosophischen Prinzip zu erheben. Die analytische Philosophie ist von Anfang an - und bis in ihren Leitterminus "analytisch" hinein - gegen Hegel gerichtet. Profilbildend ist dabei der Gegensatz zu dem "holistischen" Vorgehen, wie es Francis Herbert Bradley im Anschluß an Hegel vertreten hatte.

Schon in seiner Dissertation von 1898 wandte sich Moore gegen Bradleys Monismus, demzufolge unsere Erfahrung als einheitliches Ganzes zu begreifen sei. 1903, in den Principia Ethica, setzte er derlei "organischem" Denken das Seziermesser der Analyse entgegen. Er wollte dadurch dem Einfluss Hegels, den er als Quelle dieser Ganzheitsphantasien ansah, ein Ende machen. Die Hegelianische Lehre "dass ein Teil 'keinen Sinn oder keine Bedeutung unabhängig von seinem Ganzen' haben kann, muss entschieden zurückgewiesen werden".

Russells Angriffspunkt war der gleiche. Er wandte sich gegen Hegels These vom internen Charakter der Relationen - eine Sache ist nicht aus sich, sondern durch ihre Beziehungen bestimmt -, und setzte dem die These vom externen Charakter der Relationen entgegen. Sofern nun Relationen den Relationsgliedern bloß äußerlich sind, können sie zurückgestellt werden und gilt es, "alles, was auf irgendeine Weise komplex ist", durch Analyse auf die "einfachen Dinge" zurückzuführen, aus denen es besteht. Analytisches Vorgehen ist genau insofern geboten, als Hegelianisch ganzheitliches Vorgehen falsch ist.

Vor ihrer analytischen Rebellion waren Russell und Moore allerdings begeisterte Hegelianer gewesen. Russell hat später bekannt: "Ich war damals ein ausgewachsener Hegelianer... Wo immer Kant und Hegel in Konflikt waren, ergriff ich die Partei Hegels."

Die Wiederkehr Hegels in der neueren analytischen Philosophie

Seit einigen Jahren ist eine emphatische Wiederkehr des Verdrängten zu beobachten. Hegel steht plötzlich wieder auf der Agenda der analytischen Philosophie - und zwar als neuer Inspirator. Es begann mit Quine, der 1951 in Two Dogmas of Empiricism die Unumgänglichkeit einer holistischen Wissenschaftsbetrachtung darlegte. Er vermied die namentliche Erwähnung Hegels noch, aber in den anschließenden Diskussionen tauchte Hegels Name bald auf, und später hat Quine selbst auf idealistische Entsprechungen zu seinem Ansatz hingewiesen und seiner Zuversicht Ausdruck gegeben, Hegels Botschaft erfasst und gewürdigt zu haben. 1956 hat sich Wilfrid Sellars in "Empiricism and the Philosophy of Mind" Hegels Kritik an Unmittelbarkeit zu eigen gemacht und seine Überlegungen ausdrücklich als "Méditations Hegeliènnes" gekennzeichnet.

Gegenwärtig kehrt Hegel bei zwei führenden Köpfen der analytischen Philosophie wieder, bei Bob Brandom und John McDowell, deren 1994 erschienene Bücher "Making It Explicit" und "Mind and World" derzeit weltweit zu den meistdiskutierten Werken zählen. Brandom bekennt, dass er die entscheidenden Ansatzpunkte sowohl seiner Pragmatik wie seiner Semantik (den Anerkennungs- wie den Inferenzgedanken) der Lektüre Hegels verdankt. Ähnlich sagt McDowell, seine Hauptthese von der Unbegrenztheit des Begrifflichen sei Hegel geschuldet. Er beklagt, daß die analytische Tradition von Hegel zu wenig Notiz genommen habe und möchte sein Buch geradezu als "Prolegomenon" zu einer Lektüre von Hegels Phänomenologie des Geistes verstanden wissen.

Hegels Wiederkehr als Ergebnis der analytischen Philosophie

Wichtig ist festzuhalten, dass die Wiederannäherung der analytischen Philosophie an Hegel sich nicht etwa aufgrund von Hegel- Lektüre vollzog - wie sollte sie auch, war Hegel doch eben der verfemte Philosoph par excellence -, sondern die analytische Philosophie ist von sich aus, durch sukzessive selbstkritische Reflexion ihrer Grundlagen zu Einsichten gelangt, die denen gleichen, wie sie zweihundert Jahre zuvor Hegel (in freilich ganz anderer Sprache und Reflexionsart) entwickelt hatte.

Von Anfang an hatte sich die analytische Philosophie durch eine in der akademischen Philosophie ganz ungewöhnliche Bereitschaft und Fähigkeit zur Selbstkritik ausgezeichnet. Darin - nicht in einzelnen Thesen, die sich bald als Dogmen erweisen mochten - ist sie bewundernswert und vorbildlich geblieben. Die fortgesetzte selbstkritische Prüfung und Weiterentwicklung führte dazu, daß die analytische Philosophie in der zweiten Hälfte des 20. Jahrhunderts nicht mehr ist, was sie in der ersten gewesen war. Tragende Grundvorstellungen erwiesen sich spätestens seit Quines "Two Dogmas" als unhaltbar - beispielsweise die starre Trennung zwischen logischen und empirischen Wahrheiten, die Ausnahmestellung der Logik, das empiristische Sinnkriterium oder die Vorstellung einer alle Wissenschaften umfassenden Einheitswissenschaft auf physikalistischer Basis. Im Gefolge solcher Entwicklungen kommt es nun zu einer Wiederannäherung an Hegel, dem Antipoden von einst. Man könnte versucht sein, darin eine Ironie der Philosophiegeschichte zu sehen. Ich will dieser überraschenden Kongruenz - die im übrigen ein starken Zutreffendheitsindiz darstellen könnte - im Folgenden jedoch in systematischer Perspektive nachgehen.

Drei Kongruenzgesichtspunkte in der theoretischen Philosophie

Der erste Punkt betrifft die Kritik an Unmittelbarkeit und, darauf fußend, den Zusammenbruch diverser Hoffnungen, unser Wissen auf isoliert fassbare atomare Sätze (Russell), auf Gewissheiten des common sense (Moore) oder auf empirisch verifizierbare Basissätze (Carnap) gründen zu können. Der zweite Punkt gilt, nach dem Scheitern solcher Elementarismen, dem Übergang zu einem wissenschaftlichen Holismus. Drittens soll es um Realität gehen. Was ist Wirklichkeit, und welchen Anteil hat unser Denken und Sprechen an ihr? Warum ist der Idealismus im Recht - aber so, dass auch der common sense ein Recht behält?

1. Unmittelbarkeit

Eine von Hegels zentralen Thesen besagt, dass jede Unmittelbarkeit in Wahrheit auf Vermittlungen beruht. Paradigmatisch hat er dies im 1. Kapitel der Phänomenologie des Geistes anhand der sinnlichen Gewissheit dargelegt. Die sinnliche Gewißheit hält sich für das "wahrhafteste" und "reichste" Wissen. Nun will uns Hegel die sinnlichen Gewissheiten nicht einfach nehmen, aber er hält uns dazu an, sie anders zu verstehen, als wir das gemeinhin tun. Er zeigt, dass sie keineswegs unmittelbar sind, sondern auf mannigfachen Vermittlungen beruhen. Zur sinnlichen Gewissheit gehören vier Determinanten: die zeitliche des Jetzt, die räumliche des Hier, die inhaltliche von Sachbestimmungen und die personale eines Ich, dem diese sinnlichen Sachverhalte jeweils erschlossen sind. Diese Determinanten sind aber ihrerseits nicht von einfacher, sondern komplexer Natur; zudem sind sie nicht von singulärem, sondern von generellem Gebrauch. Von komplexer Natur sind sie, sofern jede dieser Bestimmungen auf andere bezogen ist: "hier" heißt zugleich nicht "dort"; "jetzt" bedeutet "nicht vorhin" oder "nicht gestern" oder "morgen"; "dieses" impliziert "nicht jenes"; "hell" bedeutet: der Skala der Helligkeitsprädikate (im Unterschied etwa zu Geschmacks- oder Geruchsprädikaten) zugehörend und dabei im Kontrast zu "dunkel", "zwielichtig" etc. stehend; und "für mich" bedeutet "nicht für einen anderen" oder möglicherweise auch für "jedermann an meiner Stelle". Zudem sind diese Determinanten von generellem Gebrauch, denn sie können offenbar auf beliebige Gegenstände - keineswegs nur auf den einen jetzt gerade präsenten - angewandt werden.

Somit erfordert die Verwendung dieser Determinanten einiges: erstens ein Verständnis ihres jeweiligen Prädikatenprofils (Orts-, Zeit-, Sach-, Personbestimmungen) und zweitens der Weise, wie sich mit Hilfe dieser Determinanten Singularisierungen vornehmen lassen - wie sich durch sie ein Einzelnes auszeichnen lässt. Denn nur mittels solch allgemeiner Strukturen können wir uns überhaupt auf Einzelnes beziehen. Unsere Zielausdrücke (wie "dieses"), durch welche wir ein Einzelnes direkt herauszupicken scheinen, besitzen diese Auszeichnungsfunktion nur innerhalb eines Bestimmungsnetzes, das eine Reihe weiterer Termini sowie eine Reihe von Verwendungsregeln umfasst.

Insofern ist die Bestimmung von Einzelnem selbst schon von begrifflicher Natur und erfordert begriffliche Prozesse. Daher ist die Selbstauffassung der sinnlichen Gewissheit - die auf Unmittelbarkeit ihres Wissens pocht - im Irrtum. Sie ignoriert die begriffliche Vermitteltheit eines jeden Zugriffs auf Einzelnes. Unmittelbarkeit ist in Wahrheit nur ein Vordergrundseffekt vor dem Hintergrund allgemeiner, begrifflicher Strukturen. Jede Berufung auf unmittelbares Wissen ist epistemologisch naiv.

Hegels Kritik der Unmittelbarkeit hat eine besondere und sehr moderne Pointe darin, daß er als Zeugen für seine Auffassung die Sprache ins Feld führt. Er sagt: "wir sprechen schlechthin nicht, wie wir es in dieser sinnlichen Gewissheit meinen." Sondern in der Sprache (die Hegel "das Wahrhaftere" nennt) "widerlegen wir selbst unmittelbar unsere Meinung". In der Tat sprechen wir ja vom Einzelnen auf eine allgemeine Weise, indem wir Ausdrücke wie "dieses", "jetzt". oder "hier" zu seiner Bezeichnung verwenden; deren indexikalische Funktion beruht ja auf ihrem allgemeinen, keineswegs nur auf diesen zufälligen Gegenstand hier und jetzt zutreffenden, sondern auf beliebige Gegenstände dieser Art anwendbaren Charakter. Insofern hat der Blick auf die Sprache aufklärende Funktion: Die Sprache verrät uns, dass wir für die Bezugnahme auf Einzelnes des Allgemeinen bedürfen, dass das scheinbar Unmittelbare begrifflich vermittelt ist.

Nun sah sich die analytische Philosophie in ihren diversen Rekursen auf Unmittelbarkeit sukzessiv gezwungen, Argumenten der von Hegel vorgebrachten Art Rechnung zu tragen und die eigene Position dementsprechend zu modifizieren oder schließlich ganz aufzugeben.

Russell suchte - ob seiner Rebellion gegen Hegel nicht verwunderlich - auf die vermeintliche Unmittelbarkeitsstruktur sinnlicher Gewissheit zurückzugreifen. Seine erste Phase - von ihm später selbst bespöttelt - war die des "naiven Realisten", der sich an dem Gedanken erfreut, "dass das Gras in Wirklichkeit eben doch grün ist".

In einer zweiten Phase, ab 1912, waren für Russell nicht mehr Gegenstände wie das grüne Gras, sondern "Sinnesdaten" das unmittelbar Gegebene. Sein Paradigma dafür lautete "roter Flecken (patch) hier jetzt". Von solchen Sinnesdaten, meinte Russell, haben wir direktes "Wissen durch Bekanntschaft" ("knowledge by acquaintance"), "ohne Vermittlung durch irgendeinen Vorgang des Schließens oder irgendein Wissen von Wahrheiten". Sinnesdaten sind "Dinge, ... die mir genau so, wie sie sind, unmittelbar bekannt sind". Damit re-kurrierte Russell auf die Reinform der von Hegel kritisierten sinnlichen Gewissheit. Aber damit war seine Position auch den von Hegel vorgebrachten Einwänden ausgesetzt. Wenn Russell sagt, die Bezugnahme auf Sinnesdaten erfolge gänzlich isoliert und voraussetzungslos und verleihe ein vollkommenes Wissen dieser Sinnesdaten, so hat er dabei erstens die für derlei Bezugnahmen erforderlichen Singularisierungs- und Identifizierungsleistungen ausgeblendet und zweitens vorschnell Bekanntschaft mit Wissen gleichgesetzt. Kurzum: Er hat die begrifflichen Vermittlungen der Bezugnahme auf Einzelnes ignoriert.

Russell will die Dinge eben auch andersherum sehen als Hegel: er möchte das Wissen allgemeiner Strukturen auf Elementargewissheiten aufbauen - während laut Hegel die vorgeblichen Elementargewissheiten bereits einen Apparat allgemeiner Wissensstrukturen voraussetzen.

Parallel zu Russell hat auch Moore seit 1910 eine Theorie der Sinnesdaten vertreten. Bei Moore hatte sie den Sinn, der in seiner Widerlegung des Idealismus von 1903 erhobenen Forderung Rechnung zu tragen, dass man zwischen der Wahrnehmung und den von dieser unabhängig existierenden Gegenständen (allgemein: zwischen dem Erkennen und den Gegenständen der Erkenntnis) unterscheiden müsse. Da haben Sinnesdaten nun eben den Vorteil, zwar Wahrgenommenes zu sein, die Frage des Gegenstandes aber offenzulassen. Wie Russell schreibt auch Moore den Sinnesdaten eine privilegierte epistemische Rolle zu. Ihm zufolge soll unser gesamtes Wissen von materiellen Gegenständen auf Sinnesdaten basieren, und diese sollen wir direkt und unmittelbar erfassen.

Moores Theorie ist den gleichen Schwierigkeiten ausgesetzt wie die Russells. Nicht nur der Wissenscharakter der Sinnesdatenkenntnis ist fraglich, sondern zuvor und vor allem schon ihre behauptete Direktheit bzw. Unmittelbarkeit. Die spätere analytische Philosophie hat die Sinnesdatentheorie denn auch rundweg hart kritisiert - vorerst sei dafür nur auf den Oxforder Philosophen John Austin hingewiesen, der die Theorie der Sinnesdaten seit den vierziger Jahren einer scharfen Kritik unterzog.

Ab 1918 hat Russell seine Theorie der Sinnesdaten mit einem anderen berühmten Konzept verbunden, mit dem des "logischen Atomismus". Russell will eine "logisch perfekte Sprache" entwickeln, in der jeder einfache Gegenstand durch ein einziges Wort ausgedrückt werden soll. Die denkbar einfachsten Tatsachen haben Russell zufolge die Form "dieses ist weiß" - wiederum also sollen Sinnesdaten als elementare Tatsachen fungieren. Russell bezeichnet diese einfachen Tatsachen als "atomare Tatsachen" bzw. "Einzeldinge" ("particulars"). Sie sollen ihm zufolge "gänzlich alleine stehen und sich völlig genügen", ohne auf irgendeine Weise von anderen Einzeldingen logisch abhängig zu sein. Aus diesen isolierten Elementartatsachen soll dann die ganze Welt aufgebaut werden - daher die Bezeichnung "Atomismus".

Wie stellt man es nun an, sich sprachlich auf eine Elementargegebenheit, auf ein Einzelding im logischen Sinn zu beziehen? Das ist nur durch Ausdrücke möglich, die tatsächlich exklusiv auf das jeweilige Einzelding referieren, also wie Eigennamen fungieren - als Eigennamen nicht, wie gewöhnlich, für Personen, sondern für Elementargegebenheiten. Welche Ausdrücke sind dazu imstande? Russell zufolge nur ein einziger: "dieses". Er erklärt: Wenn man "dieses ist weiß" sagt, so gebraucht man 'dieses' dabei als logischen Eigennamen; er identifiziert ein Einzelding, von dem man im Moment Kenntnis hat. Russell macht also von dem Ausdruck 'dieses' (dessen naives Verständnis Hegel in der Phänomenologie des Geistes so ironisch behandelt hatte) emphatischen Gebrauch.

Allerdings räumt Russell auch ein, dass der Ausdruck 'dieses' eine Eigenart besitzt, die für die Eigennamensfunktion misslich ist. Der Ausdruck "bezeichnet selten zwei Momente später noch dasselbe, und für den Sprecher und den Hörer bezeichnet er gar nicht dasselbe". Daher gibt Russell zu, daß 'dieses' "ein mehrdeutiger Eigenname" ist ("an ambiguous proper name"). Nur: Ist das für einen logischen Eigennamen nicht geradezu ruinös - wo er doch ganz allein aus eigener Kraft eine atomare Tatsache bezeichnen soll? Russell aber bleibt standhaft und erklärt, 'dieses' sei trotz seiner Mehrdeutigkeit ein Eigenname - es sei geradezu der einzige Ausdruck, den er sich als korrekten und logischen Eigennamen denken könne. Russell blendet den Umstand aus, dass die identifizierende Funktion des 'dieses' von der jeweiligen Verwendungssituation abhängig ist. Eben weil die Situation sich ändern kann, bezeichnet 'dieses' oftmals "zwei Momente später" schon etwas anderes. Zudem ist nicht leicht sicherzustellen, dass es in der gleichen Verwendungssituation für Sprecher und Hörer dasselbe bezeichnet. Wenn ich "dieser dort" sage und in Richtung eines Schuhs zeige, ist dadurch allein noch lange nicht klar, ob ich mich auf den Schuh, den Schnürsenkel, den Käfer auf der Schuhspitze oder den Polierlappen hinter dem Schuh beziehe. Zudem gibt es keine Bezugnahme auf Einzelnes ohne ein Verfü-gen über Allgemeinbegriffe, keine Verwendung von Eigennamen ohne den Horizont von Universalien. Dass Russell all diese Bedingungen ausblendet, verurteilt seinen Ansatz zum Scheitern. Wie die zuvor diskutierten Versionen der Sinnesdaten-Theorie, so erweist sich auch der logische Atomismus gerade dort als unhaltbar, wo er sich der von Hegel aufgewiesenen konstituiven Vermitteltheit des scheinbar Unmittelbaren zu entziehen sucht. - Hegels Argumente scheinen reichlich stark und auf Dauer unausweichlich zu sein.

Die schärfste Kritik der Sinnesdatentheorie und des logischen Atomismus im Bereich der analytischen Philosophie wurde 1956 von Wilfrid Sellars in "Empiricism and the Philosophy of Mind" vorgetragen. Seine Attacke auf den "Mythos des Gegebenen" ist berühmt geworden; in ihr hat er einige Argumente Hegels - den er dort als "den großen Widersacher der Unmittelbarkeit" bezeichnete - analytisch reformuliert. Sellars' Kritik scheint mir durchschlagend. Nicht einmal Sinnesdaten, so zeigt er, lassen sich ohne die Verwendung begrifflicher Raster identifizieren. Er schreibt: "... man könnte kein Beobachtungswissen von irgendeiner Tatsache haben, ohne gleichzeitig viele andere Dinge zu wissen". Das benennt die Crux aller Sensualismen, die begriffsfrei durchzukommen suchen. Zugleich markiert es die Misere eines auf Sinnesdaten aufbauen wollenden logischen Atomismus. Dadurch aber wird - und das ist schließlich Sellars' knock-down-Argument - die empiristische Begründungsidee insgesamt aus den Angeln gehoben. Sie beruht ja auf der Vorstellung, daß wir zuerst Wissen von einer Reihe von Einzeltatsachen erlangen könnten, um von da aus erst zu allgemeinem Wissen zu gelangen. In Wahrheit aber verhält es sich genau umgekehrt: Einzelwissen setzt (wie Hegel gezeigt hatte) Allgemeinwissen bereits voraus. Damit bricht die empiristische Begründungsidee und jeder Versuch einer Begründung auf vorgebliche Unmittelbarkeit zusammen.

Das Programm des zweiten, des in Wien erblühten Zweiges der analytischen Philosophie, des Logischen Empirismus und insbesondere Rudolf Carnaps war es, durch "Protokollsätze" zu gesichertem Wissen zu gelangen. Protokollsätze sind schriftliche Protokolle beispielsweise von physikalischen Versuchsanordnungen oder von Wahrnehmungen, die nichts anderes als "unmittelbar beobachtbare Sachverhalte" enthalten. Carnap betrachtete solche Protokollsätze als "Sätze, die selbst nicht einer Bewährung bedürfen, sondern als Grundlage für alle übrigen Sätze der Wissenschaft dienen." Die von ihm vormals (im Logischen Aufbau der Welt den "Elementarerlebnissen" zugeschriebene Aufgabe kommt jetzt also den Protokollsätzen zu. Sie haben die Funktion von Basissätzen. Sie sind in physikalischer Sprache formuliert oder in diese übersetzbar, und die physikalische Sprache gilt als "universale Sprache" - als "die Sprache der Wissenschaft".

Aber schon bald wies Otto Neurath - der interessanteste Kopf unter den Kreismitgliedern - auf schwerwiegende Probleme hin: Erstens kann es keine ganz sauberen Protokollsätze geben, weil wir uns "selbst auf dem Boden strengster Wissenschaftlichkeit" nicht einer Sprache bedienen können, die von den unpräzisen Termini der Alltagssprache völlig gereinigt wäre. Die Vorstellung "einer aus sauberen Atomsätzen aufgebauten idealen Sprache" ist eine metaphysische Fiktion. "Man kann nicht von endgültig gesicherten, sauberen Protokollsätzen ausgehen."

Zweitens können Sätze überhaupt nicht mit Tatsachen, sondern nur mit Sätzen verglichen werden, weshalb die Idee einer Übereinstimmung mit Tatsachen sinnlos ist. Die Protokollsätze bieten daher keine Wirklichkeitsgarantie, sie stellen keine an der Wirklichkeit verankerten Basissätze dar, sondern haben in erster Linie, wie alle anderen Sätze der Wissenschaft auch, Forderungen der Kohärenz zu genügen.

Dies nötigt drittens, die gesamte Ausrichtung der Wissenschaft von Korrespondenz- Hoffnungen auf Kohärenz-Gewährleistung umzustellen. Nicht eine vermeintliche Eichung an der Wirklichkeit, sondern die Widerspruchsfreiheit des Gesamtsystems der Sätze bildet das Wahrheitskriterium der Wissenschaft. Und dabei ist im Prinzip jeder Satz, auch jeder Basissatz, revidierbar.

Zudem brachte Karl Popper drei schlagende Argumente vor: erstens kann, da man die möglichen Prüfungen von Basissätzen nicht zu erschöpfen vermag, kein Basissatz je als schlechthin gesichert gelten; zweitens vermag kein Basissatz wirklich elementar (oder, wie Russell gesagt hatte, "atomar") zu sein, denn ein jeder enthält Bezüge auf zumindest einige andere Sätze und Sachverhalte; und drittens gibt es schließlich auch keine reinen Beobachtungen oder Beschreibungen, sondern eine jede ist "von Theorien durchsetzt".

Der Rekurs auf vorgeblich elementare Basissätze ("Protokollsätze") scheitert also an einer ganzen Reihe von Einwänden. - Hegels Kritik elementaristischer Unmittelbarkeitsvorstellungen - sein Hinweis auf deren unumgängliche begriffliche Vermitteltheit - mag lange brauchen, bis sie sich durchsetzt, aber sie scheint auch einen langen Atem zu haben.

Atomistische Singularisierungsversuche und empiristische Elementarisierungsversuche erleiden gleichermaßen Schiffbruch am Ver-mittlungscharakter dessen, was sie als unmittelbar oder elementar wähnen. Zugleich aber hat sich ein möglicher Ausweg abgezeichnet. Neurath und Popper hatten die Achse der Wahrheit von der externen Korrespondenz mit Wirklichkeit zur internen Kohärenz der Theorie hin verschoben. So mündet die Kritik an Logischem Atomismus und Empirismus in die Entwicklung einer holistischen Wissenskonzeption. Damit scheint die analytische Philosophie - nachdem sie auf dem Wege einer Jahrzehnte währenden Selbstkritik Hegels Einspruch gegen Unmittelbarkeit und Elementarismus wiederholt hat - nun ein positives Pendant zu Hegel zu schaffen.

2. Holismus

Quines Aufsatz "Two Dogmas of Empiricism" von 1951 setzte dem ursprünglich antiholistischen Pathos und der atomistisch- elementaristischen Ausrichtung der analytischen Philosophie definitiv ein Ende. Quine zeigte, dass empirische Bedeutung sich nur auf der Ebene der Wissenschaft als ganzer bestimmen lässt. Die alte "Annahme, dass jede Aussage unabhängig und isoliert von anderen Aussagen bestätigt bzw. geschwächt" werden könne, ist deshalb verfehlt, weil "unsere Aussagen über die Außenwelt nicht als einzelne Individuen, sondern als ein Kollektiv vor das Tribunal der sinnlichen Erfahrung treten". Diese Einsicht erzwingt den Übergang von Atomismus und Elementarismus zu Holismus. Es gibt keine Eins-zu-eins-Zuordnung zwischen empirischen Befunden und Sätzen der Theorie. Empirische Tests sagen uns nur, ob überhaupt etwas in der Theorie zu ändern ist, nicht aber, was genau zu ändern ist. Wir haben stets "eine breite Auswahl, welche Aussagen wir angesichts einer beliebigen individuellen dem System zuwiderlaufenden Erfahrung neu bewerten wollen." "Jede beliebige Aussage kann als wahr aufrechterhalten werden ... Umgekehrt ist ebenso keine Aussage unrevidierbar." Sogar die logischen Gesetze sind davon nicht ausgenommen. Quines Beispiel: "Die Revision selbst des logischen Gesetzes des ausgeschlossenen Dritten wurde vorgeschlagen, um damit eine Vereinfachung der Quantenmechanik zu erreichen".

Unsere Theorien und Deutungssysteme bleiben also prinzipiell empirisch unterbestimmt. Die Wissenschaft als ganze schwebt gleichsam über ihrer Erfahrungsgrundlage. Sie kann nicht durch empirische Verankerung, sondern nur durch Gewährleistung ihrer inneren Kohärenz stark und stabil gemacht werden. Die Undurchführbarkeit des Eins-zu-eins-Verifikationismus nötigt, die Kohärenz der Gesamttheorie zum Wahrheitskriterium zu erheben.

Während Quines Holismus sich gegen Carnap und die Russell-Tradition wandte, richtete sich Wittgensteins Holismus in erster Linie gegen Moore. Moore hatte alltägliche Gewissheiten des common sense verteidigt. Sätze wie "Hier ist eine Hand" oder "Die Erde bestand lange Zeit vor meiner Geburt" hielt er für unerschütterlich gewiss. Dergleichen wisse man einfach mit Sicherheit. Wittgenstein jedoch widerspricht - zwar nicht diesen Gewissheiten, aber Moores Verständnis derselben. Derlei Gewissheiten, sagt Wittgenstein, sind nicht kognitive Errungenschaften, sie stellen kein Wissen dar, sondern sie gehören zur Struktur unseres Weltbildes. Und dieses haben wir nicht durch einzelne Wissensschritte aufgebaut, sondern es ist als fragloser und tragender Hintergrund aller einzelnen Wissensschritte wirksam: "... mein Weltbild habe ich nicht, weil ich mich von seiner Richtigkeit überzeugt habe; auch nicht, weil ich von seiner Richtigkeit überzeugt bin. Sondern es ist der überkommene Hintergrund, auf welchem ich zwischen wahr und falsch unterscheide." "Das System ist das Lebenselement der Argumente".

Von da aus ist Wittgensteins Antwort auf Moore klar. Wenn dieser von "unerschütterlichen Überzeugungen" spricht, so bedeutet das nicht, daß er "bewusst durch bestimmte Gedankengänge" zu diesen Überzeugungen gelangt wäre, sondern dass die betreffenden Überzeugungen so sehr in all seinen "Fragen und Antworten verankert" sind, dass er gar "nicht an sie rühren kann". Kurzum: Moores unerschütterliche Gewissheiten sind nicht Wissenssätze, sondern Glaubensbestände.

Hegels Holismus

Hegels Hauptargument für den Holismus habe ich schon angeführt. Was wir ein 'Einzelnes', ein 'Einfaches' oder einen 'Teil' nennen, beruht auf komplexeren Bedingungen, als wir gemeinhin annehmen. Indem wir etwas als 'Einzelnes' oder 'Einfaches' bezeichnen, suggerieren wir (auch uns selbst), dass es für sich stehe und allein aus sich begriffen werden könne. Damit unterschlagen wir die Vermittlungsleistungen, die für seine Konturierung in Wahrheit unerlässlich und in seine Bestimmung als 'Einzelnes' oder 'Einfaches' schon eingegangen sind. Es gibt, sagt Hegel, weder in der Wirklichkeit noch im Denken ein Einfaches, wie man es sich gewöhnlich vorstellt.

'Einfachheit' ist ebenso wie 'Einzelheit' eine Kontrastbestimmung; mit ihr sind zugleich andere Bestimmungen wie 'Komplexität', 'Abgegrenztheit', 'Anzahl' und dergleichen im Spiel. Nur im Verbund solcher Bestimmungen - also gerade nicht einfach, nicht einzeln - kann etwas überhaupt als 'Einfaches' oder 'Einzelnes' bestimmt werden. Zweitens sind Einfachheit und Einzelheit allgemeine Bestimmungen - sie treffen offenbar auf vielerlei zu. Mithin kann ein Einfaches oder Einzelnes diese Bestimmungen allenfalls erfüllen, nicht aber erzeugen oder ausschöpfen. Somit bedarf es, um von diesem Einfachen oder Einzelnen sprechen zu können, zusätzlicher Begriffsraster, um dieses von anderem Einfachem oder Einzelnem abheben zu können. Etwas als 'einfach' zu bestimmen, ist ein reichlich komplexer Akt. Das anscheinend Einfache kann nur in einem vielmaschigen Bestimmungsnetz als solches vorkommen.

Auf ähnliche Weise problematisiert Hegel die Form des Aussagesatzes. Ein Subjekt soll durch ein Prädikat bestimmt werden - aber es wird immer nur in einer gewissen Hinsicht, also einseitig, nicht umfassend bestimmt. In dieser einen Bestimmung geht das Subjekt also nicht auf, es weist über sie hinaus. Also, so meint man, muss man zu seiner vollständigen Bestimmung wohl noch weitere Sätze herbeiziehen. Aber lässt sich ein Gegenstand überhaupt durch eine - sei's auch noch so große - Anzahl von Sätzen vollständig bestimmen? Schwerlich. Denn was vom Gegenstand gilt, wiederholt sich auf der Ebene der Prädikate noch einmal.

Die Bestimmungsleistung eines Prädikats hängt von dessen Stellung zu anderen Prädikaten ab und erfolgt im Verbund mit diesen. Ein Prädikat zu verwenden, heißt zugleich einen ganzen Schwarm anderer Prädikate ins Spiel zu bringen. Lässt sich eine Grenze dieser Komplexifizierungsdynamik erreichen? Pragmatiker versuchen das. Sie raten, die Kette der Klärungen abzubrechen, wenn in der Verständigung keine Probleme mehr auftreten. Hegel aber steht solch pragmatischer Bequemlichkeit fern. Er ist ein eminent theoretischer Philosoph, der das Begreifen so weit treiben will wie nur irgend möglich; unter dem Maß der vollen Wahrheit mag er sich nicht zufrieden geben (und vielleicht ist es erlaubt, heutige Philosophen daran zu erinnern). 

Wenn nun aber jede Bestimmung konstitutiv mit einer Serie weiterer Bestimmungen verknüpft ist, dann ist die volle Wahrheit nur durch eine Klärung des Ganzen zu erreichen. Das ist der nüchterne Sinn von Hegels Diktum "Das Wahre ist das Ganze". Aber lässt sich eine vollständige Bestimmung des Ganzen überhaupt erreichen? Das scheint schon deshalb unmöglich, weil die Mannigfaltigkeit der Gegenstände andauernd in Entwicklung und Bewegung begriffen ist. Wie sollte sich da ein komplettes System ihrer Beziehungen aufstellen lassen? - Aber so ist Hegels Holismus auch gar nicht gemeint. Hegel hat nicht eine umfassende Ausbuchstabierung des Beziehungsgeflechts weltlicher Gegenstände im Sinn. Und damit komme ich erst zum entscheidenden Punkt in Hegels Verständnis der Totalität, oder zu Hegels "Dreh".

Was war es denn eigentlich, was zum Hinausgang ins Ganze nötigte? Es war nicht die Mannigfaltigkeit der weltlichen Gegenstände als solche, sondern die komplexe Architektur ihrer begrifflichen Bestimmung. Einen Gegenstand zu bestimmen, verlangte nicht nur, auch andere Gegenstände zu berücksichtigen, sondern vor allem, auf die begrifflichen Strukturen solchen Bestimmens zu achten und sich auf ihre Komplexität einzulassen. Nur die vollständige Reihe der Gegenstände ins Auge zu fassen, wäre also doppelt ungenügend. Erstens vermöchte man so gar nicht zum wirklichen Begreifen dieser Gegenstände zu gelangen, und zweitens hätte man, indem man sich bloß auf die Gegenstände kaprizieren wollte, noch gar nicht den ganzen Bereich des Bewusstseins, des Verstehens und Begreifens berücksichtigt, man würde also allenfalls die halbe, die objektiv-gegenständliche Totalität anzielen, darüber aber die andere Seite, die des Bewusstseins, vergessen haben und so den Anspruch auf Totalität eklatant verfehlen.

Wirkliche Totalität muss beides, muss Objektives und Subjektives umfassen. Nur dann hat sie nichts mehr außer sich, kann sie wirkliche Totalität sein.

Nun ist letztlich eine Trennung von Gegenstandserkenntnis und Bewusstseinsthematisierung ohnehin nicht möglich. Bewusstseinsleistungen sind den Gegenständen schon eingeschrieben. Diese Einsicht ermöglicht es Hegel, das zu tun, was man tun muss, um wirkliche Totalität zu erreichen: das Insgesamt der Korrelationen von Gegenstandsweisen und Bewusstseinsformen in den Blick zu nehmen, die Rekonstruktion des Systems der Gegenstände ineins mit der Rekonstruktion der entsprechenden Bewusstseinsformen vorzunehmen. Insofern dreht Hegel die Achse der Betrachtung weg von der horizontalen Vollständigkeit nur der Gegenstandsmannigfaltigkeit hin zur umfassenden Thematisierung der Korrelationen von Bewusstsein und Gegenstand. Genau dadurch wird ein Begreifen des Ganzen möglich.

Im einzelnen sind zur Durchführung dieses Vorhabens drei Elemente erfordert. Hegels Ausgangspunkt ist die strikte Korrelation von Bewusstsein und Gegenstand: zwischen Bewusstseins- und Gegenstandstypik besteht stets eine Entsprechung. Gegenstände einer bestimmten Art gibt es nur für ein Bewusstsein der korrespondierenden Art.

Zweitens stehen die Bewusstseinsformen sowohl in einer generativ-sukzessiven Beziehung wie in einem bewahrenden Verhältnis zueinander. Die nachfolgende Stufe stellt jeweils die Lösung eines auf der vorangegangenen Stufe unlösbar gebliebenen inneren Widerspruchs dar. Hier hat Hegels berühmte Rede von "Aufhebung" ihren Ort: frühere Stufen sind in den nachfolgenden "aufgehoben".

Drittens muss eine Vollendungsform der Erkenntnis-Gegenstands-Korrelation denkbar und realisierbar sein. Hegel zufolge ist dies der Fall. Die höchste Form wird dort erreicht, wo die zuvor nur latente Entsprechung von Bewusstseins- und Gegenstandsform vollkommen transparent wird. Dies geschieht, indem das Bewusstsein erkennt, dass es in all seiner Befassung mit Fremdartigem in Wahrheit mit sich selbst befasst war und ist, wo es sich also als Selbstbewusstsein begreift. Damit, sagt Hegel, ist das eigentlich "begreifende Wissen" erreicht, das alles umfasst und darum weiß. Über dieses Wissen hinaus ist kein höheres mehr denkbar, denn in ihm ist die wechselweise Entsprechung von Gegenstand und Begriff vollständig realisiert und die Reihe aller vorherigen Stufen aufbewahrt. Dieses Wissen repräsentiert die vollendete Totalität.

Hegels Holismus im Verhältnis zu dem Quines und Wittgensteins

Quine hat herausgestellt, dass Bedeutung nur im Zusammenhang der Sätze der Gesamttheorie festzumachen ist. Dem würde Hegel zustimmen. Wissenschaft hängt auch für ihn an der Interdependenz und integralen Schlüssigkeit der Sätze und damit an der Systemform. Wittgenstein hatte ebenfalls betont, dass sich im System "Folgen und Prämissen gegenseitig stützen". Wenn er sagte, dass "das Einzelne den Wert, den wir ihm beilegen", "nur in diesem System hat", so hatte Hegel ganz analog erklärt, dass jeder Teil "Sinn und Bedeutung ... nur durch seinen Zusammenhang mit dem Ganzen" besitzt.

Gleichwohl geht Hegels Totalitätsgedanke über diese analytischen Versionen hinaus. Hegels Pointe war, dass Totalität nur erreichbar ist, indem die Kongruenz von Erkenntnis und Gegenstand vollkommen transparent wird. Von daher ist erstens die Betonung nur der Interdependenz von Sätzen und eines gesamtheitlichen Charakters der Theorie bei weitem zu wenig. Die Einsicht in die tiefere Entsprechungsstruktur von Wissen und Gegenständlichkeit fehlt. Zweitens würde Hegel Quines Dualismus kritisieren. Quine hatte gemeint, die Theorie sei eines, das "Sperrfeuer sinnlicher Reize" ein anderes; ein Holismus der Theorie sei gerade deshalb geboten, weil die Kluft zwischen Theorie und Sinnesreizen nicht geschlossen werden könne. Aber ist diese Rede von einer Welt, die uns nichts anderes als Sinnesreizungen liefert, nicht selber ein Stück Theorie - während Quine sie wie eine theorie-exempte Voraussetzung aller Theorie hinstellen möchte? Kann man einen solchen Dualismus, der Holismus nur für die eine Seite behauptet, als einen veritablen Holismus ansehen? Gerade in diesem Punkt haben analytische Nachfolger Quines - insbesondere Davidson und McDowell - diesen scharf kritisiert. Drittens würde Hegel auch Wittgensteins Rede von einem "System" - auch wenn sie sich auf Lebensformen bezieht und auf Praktiken als das "Lebenselement" der Theorie abhebt - als noch immer zu einseitig überzeugungs- bzw. satzbezogen kritisieren. Von Hegel aus gesehen, fehlt auch bei Wittgenstein die Durchführung der Kongruenz von Überzeugungs- und Gegenstandsstruktur. Zudem würde Hegel Wittgensteins These der Unhintergehbarkeit des Systemrahmens als objektivistisch beargwöhnen und aufzubrechen suchen.

3. Erkennen und Wirklichkeit

Ich komme zum dritten Kongruenzpunkt, zum Verhältnis von Erkennen und Wirklichkeit. Seit dem linguistic turn sagt man in der analytischen Philosophie: Was immer es ist, worauf wir uns beziehen, es muss in irgendeiner Weise sprachlich verfasst sein. Wie gelangt man zu dieser Auffassung? Oft kann man eine Begründung folgender Art hören: Worüber wir auch sprechen mögen - Häuser, Stimmungen, Bombenopfer -, es muss sprachlich deshalb verfasst sein, weil wir sonst ja gar nicht darüber reden könnten. Aber diese Begründung ist (wenn sie überhaupt mehr als eine Tautologie sein soll) allzu trivial und unzureichend. Selbstverständlich können wir nur mittels der Sprache über etwas sprechen. Aber daraus folgt keineswegs, dass das Worüber dieses Sprechens selber etwas Sprachliches sein müsste. Ein Floh, dessen ich nur mittels einer Pinzette habhaft werden kann, ist deswegen auch noch nicht eine Pinzette.

Zudem nimmt das Argument offenbar seine eigene Behauptung nicht ernst. Indem es unser Reden als ein 'Sprechen über Gegenstände' auffasst, tut es ja so, als existierten diese Gegenstände zunächst einmal unabhängig von unserem Sprechen. Immerhin soll unser Sprechen diese Gegenstände ja nicht erzeugen. Die Trivialform des Arguments operiert also selbst noch mit einer Dualität von Sprache einerseits und Gegenstand andererseits. Hegel hätte demgegenüber darauf hingewiesen, dass man nicht einerseits einen konstitutiven Sprachcharakter der Gegenstände behaupten und andererseits den Gegenständen zugleich eine gewisse Sprachunabhängigkeit reservieren kann. Hegel dachte auf eine vollständige Entsprechung von Begriff und Gegenstand hinaus - und wenn er mit diesem für seine Philosophie zentralen Gedanken recht hat, dann kann es letztlich eine Sprachunabhängigkeit der Gegenstände nicht geben.

Gewiss kennt auch Hegel Verhältnisse, wo eine Deckung von Begriff und Gegenstand noch nicht vorliegt. Das natürliche Bewusstsein gilt ihm als Paradebeispiel dafür. Aber Hegel glaubt, dass derlei Verhältnisse eben wegen dieser Nichtentsprechung von Begriff und Gegenstand über sich hinausgetrieben werden, bis eine Bewusstseinsform entsteht, die durch die volle Äquivalenz von Begriff und Gegenstand gekennzeichnet ist. Die Frage ist nur, von welcher Art ein Begriff sein muss, damit eine solche Entsprechung tatsächlich besteht, Begriff und Gegenstand koextensiv und kointensiv sind.

Unsere gewöhnlichen Begriffe sind nicht von dieser Art. Sprechen wir von einem Baum, so meinen wir diesen gerade als unabhängig von unseren Vorstellungen und Begriffen existierend; selbst wenn wir Menschen gar nicht von Bäumen sprächen, gäbe es die Bäume doch. So denkt das natürliche Bewusstsein. Und daran ist nichts Falsches - aber etwas Wahres, woran dieses Bewusstsein nicht denkt. Dass natürliche Gegenstände unabhängig von unseren Vorstellungen und Begriffen existieren, gehört offenbar zu unserem Verständnis natürlicher Gegenstände. Also, so Hegels einfache Schlussfolgerung, steht die Unabhängigkeit der Gegenstände in Wahrheit nicht im Kontrast zum Begriff, sondern ist unserem Begriff natürlicher Gegenstände inhärent. Die Unterscheidung zwischen Begriff und Gegenstand fällt in den Begriff selbst. Somit stellt die Unabhängigkeit der natürlichen Gegenstände gerade kein Argument gegen eine Entsprechung von Begriff und Gegenstand dar. Der volle Begriff des natürlichen Gegenstandes schließt diese Unabhängigkeit ein.

Was ist damit gezeigt? Dass Hegels Entsprechungsthese sich selbst an dem Fall als zutreffend herausstellt, der ihr zunächst am hartnäckigsten zu widerstreiten schien. Das natürliche Bewusstsein freilich ist sich dieser Kongruenz nicht bewusst. Es muss über die ihm latent innewohnende Entsprechung erst aufgeklärt werden - oder (das ist Hegels Version) es wird über kurz oder lang in den Widerspruch zwischen seinem beschränkten Begriffsverständnis und seinem vollen Begriff geraten und dadurch über sich hinausgetrieben werden.

Lässt sich Hegels Einsicht analytisch nachbuchstabieren? Zunächst anscheinend nicht. Richard Rorty beispielsweise hat den begriffsunabhängigen Rest, der in der Standardversion des linguistic turn verbleibt, gerade auf die umgekehrte Weise wie Hegel loszuwerden versucht: durch Austreibung jeglicher Rede von Entsprechung. Rorty hat daraus, "dass sprachliche Bestände niemals irgendwelche nichtsprachlichen Bestände repräsentieren" können, die Empfehlung abgeleitet, wir sollten es einfach aufgeben, uns über eine korrekte Erfassung der Wirklichkeit Gedanken zu machen. Ironischerweise kehrt allerdings die Entsprechung, die Rorty auf diese Weise als epistemologische elegant verabschiedet, sogleich als pragmatische wieder, denn offenbar müssen unsere Handlungsgewohnheiten, um ein Zurechtkommen mit der Wirklichkeit zu erlauben, ja irgendwie auf diese passen. - 'Entsprechung' scheint ein Stehaufmännchen zu sein, das man nicht so leicht los wird.

Die Idee einer Wirklichkeit außerhalb und unabhängig von unseren Bezugnahmen und Deutungen ist letztlich die treibende Kraft hinter jeder Form von Realismus. Man mag zwar meinen, eine solche Idee zu haben - man kann es aber gar nicht. Weshalb? Weil die Idee einer solchen Wirklichkeit vor, außerhalb und unabhängig von jeglicher Deutung ihrerseits schon hochgradig deutungsbeladen ist. Man schreibt ja der Wirklichkeit dabei den denkbar primärsten Status zu, versteht sie als tragend für all unsere nachfolgenden Deutungen und glaubt von ihr gar zu wissen, daß sie jegliche Deutung von sich weise. Damit aber ist diese Idee in sich eklatant widersprüchlich: die vorgebliche Deutungsunabhängigkeit, die ihren Kern ausmacht, stellt selber schon eine bestimmte Deutung dar. Und anders denn als Deutung kann die Idee einer solchen Wirklichkeit gar nicht auftreten. Dadurch löst sich die Idee einer schlechthin deutungsexempten Wirklichkeit in nichts auf.

Warum ist alles, worauf wir uns beziehen, sprachlich verfasst? Weil selbst die Konturen von etwas, das sprachtranszendent ist, sprachlich bzw. begrifflich bestimmt sein müssen. Anders gesagt: Wohl gibt es Sprachtranszendentes. Natürliche Gegenstände beispielsweise bezeichnen wir (im Unterschied zu ihren Beschreibungen) mit gutem Recht als sprachtranszendent. Aber wir können das nur tun, weil wir sie so verstehen, dass sie in den Rahmen der sprachlichen Kategorie 'sprachtranszendent' gehören; und indem wir sie sprachtranszendent nennen, geben wir dieser Kategorie Bedeutung und den Gegenständen Sinn; anders als in einem solchen begrifflichem Rahmen aber kann von natürlichen Gegenständen gar nicht die Rede sein, können sie nicht vorkommen.

Also sind derlei Gegenstände in einem Sinne sprachtranszendent und in einem anderen nicht sprachtranszendent. Sie sind sprachtranszendent im Sinn ihrer Positionierung: als außerhalb der Sprache befindlich, nicht einen Teil der Sprache darstellend; aber sie sind nicht sprachtranszendent im Sinn just dieser ihrer Bestimmung. Und nur im Kontext einer derartigen sprachlichen Bestimmung lässt sich von ihnen überhaupt sagen, dass sie sprachtranszendent positioniert seien. In diesem Sinn übergreift die (linguistische) Sprachimmanenz des Prädikats 'sprachtrenszendent' die (objektive) Sprachtranszendenz der so qualifizierten Gegenstände. So gesehen, ist die Sprache also inklusiv. Aber das ist etwas anderes als zu sagen, wir könnten aus der Sprache nicht herauskommen. Wir können vielmehr just innerhalb der Sprache über sie hinaus.

Ich will diese Auffassung verdeutlichen, indem ich sie mit einer Aussage von Putnam kontrastiere. Putnam hält es für richtig zu sagen, "dass wir keinen Zugang zu einer nichtkonzeptualisierten Wirklichkeit' haben". Das ist in meinen Augen eine halbherzige und zumindest halb falsche Redeweise. Die Rede von "Zugang" suggeriert, es gebe eine Wirklichkeit jenseits unserer Begriffe, nur sei diese uns unzugänglich, wir könnten uns ihr nicht nähern und nichts von ihr wissen. Das bleibt unter dem Niveau des linguistic turn. Dessen Pointe liegt eben darin, dass die Vorstellung einer Wirklichkeit entweder sprachlich haltbar - dann aber der Zugang zu dieser Wirklichkeit elementar schon vollzogen ist; oder dass sie unhaltbar ist - dann aber ist nicht etwa ein Zugang verwehrt, sondern die Zielvorstellung nichtig und daher Zugang gar keine Frage.

Meine These lautet daher: Ein Dualismus von Sprache und Wirklichkeit ist prinzipiell verfehlt. Vielmehr besteht zwischen Sprache und Wirklichkeit ein Verhältnis der Inklusion. Diese Auffassung stellt in einem gewissen Sinn eine sprachbezogene Reformumulierung von Hegels These einer grundsätzlichen Kongruenz von Begriff und Gegenstand dar. Allerdings kommt sie ohne die Annahme einer notwendigen Stufenreihe des Bewusstseins und deren Vollendung in einem "absoluten Wissen" aus. Einen Dualismus von Sprache und Wirklichkeit hatte auch Donald Davidson abgelehnt: die Rede von einem uninterpretierten Inhalt außerhalb von Sprache und Begrifflichkeit ist ihm zufolge sinnlos - allenfalls ein Spiel mit Worten. Die Konsequenz, die sich daraus ergibt, lautet bei Davidson: "Indem wir den Dualismus von Schema und Welt fallenlassen, geben wir nicht die Welt preis, sondern stellen die direkte Verbindung mit den vertrauten Gegenständen wieder her."

Das mag überraschend klingen. Schließlich wird damit nicht weniger behauptet, als dass wir die Dinge so erkennen würden, wie sie an sich sind. Das scheint jedoch allem zu widersprechen, woran das philosophische Standardbewusstsein seit zweihundert Jahren glaubt - es klingt wie ein Rückfall hinter Kants Widerlegung der Möglichkeit einer Erkenntnis der Dinge an ihnen selbst. Aber wenn dieser Eindruck richtig wäre, dann hätte schon Hegel ein Vorkantianer sein müssen. Seine These einer prinzipiellen Kongruenz von Begriff und Gegenstand lief ja auf die Möglichkeit einer An-sich-Erkenntnis hinaus. Nun hat Hegel diese Auffassung aber just auf dem Weg einer Kritik Kantischer Dualismen entwickelt. Ganz analog verlief auch der Weg der analytischen Philosophie. Daher ist es vielleicht nich verwunderlich, wenn analytische Philosophen heute Erklärungen dafür anzubieten suchen, dass wir die Dinge durchaus so erkennen, wie sie an sich sind.

In "Mind and World" von 1994 knüpft John McDowell an Davidsons Ausblick an, wonach die Überwindung des "Dualismus von Schema und Welt ... die direkte Verbindung mit den vertrauten Gegenständen" wieder herzustellen erlaube. McDowells eigener Vorschlag dürfte nach dem Vorangegangenen nicht überraschen. Er sagt: Unsere Erfahrung bewegt sich von den Sinneseindrücken an bereits im Bereich von Begriffen. Das impliziert zweierlei: erstens ist die Sphäre des Begrifflichen ohne Grenzen - nichts steht außerhalb ihrer (eben schon nicht, wie man in der Tradition oft annahm, die Sinneseindrücke oder die Anschauung); zweitens verbindet sich unsere Erfahrung als begriffsgeprägte bruchlos mit der logischen Sphäre des Denkens, Begründens und Rechtfertigens.

Rückblick und Ausblick

Ich bin drei Kongruenzen zwischen Hegels Denken und der neueren analytischen Philosophie nachgegangen: der Kritik an Unmittelbarkeit und Elementarismus, der Zuwendung zu Holismus und der grundlegenden Korrelation von Sprache und Wirklichkeit. Neben Übereinstimmungen waren dabei auch Unterschiede zu verzeichnen. Horror hätte ich vor der Schlussfolgerung "also hat Hegel alles schon gesagt." Nein, ohne die Mittel analytischer Kritik und Reformulierung wüßten wir kaum, was Hegel Sinnvolles gesagt hat.

Mein Interesse gilt - das dürfte deutlich geworden sein - ausschließlich systematischen Fragen. Und ich sehe die Kongruenzen zwischen idealistischer und analytischer Philosophie als Anzeichen dafür, daß es an der Zeit sein könnte, sich generell nicht mehr um Etiketten, sondern nur noch um Einsichten zu kümmern. Vielleicht wird die Philosophie des nächsten Jahrhunderts dann ein anderes Gesicht haben als die des letzten Jahrhunderts. An Klärungsbedarf in Grundfragen ist ja kein Mangel.

 

Von der Redaktion gekürzte Fassung der Antrittsvorlesung an der Friedrich-Schiller- Universität Jena vom 8. Juni 1999. Der gesamte Text (mit Zitatnachweisen) wird demnächst in Buchform erscheinen.