header


  

Zeitschriften

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
Druckversion  |  Schrift: vergrößern verkleinern 

Erwägen - Wissen - Ethik 2006-2009


Erwägen Wissen Ethik
(vormals: Ethik und Sozialwissenschaften)

3/2006

Für Bernulf Kanitscheider ist ein realistischer evolutionärer Naturalismus unabdingbar. Er enthält als notwendige Komponenten die Fundamentalität von MaterieEnergie und Raumzeit unter der Wirkung von den vier Grundkräften der Natur sowie eine durchgehende Kausalstruktur, die aus der Menge aller Gegenstände des Universums ein System macht. Ein nichtnaturalistischer Platonismus hat allerdings bei der Frage nach der Existenz und Beschaffenheit der mathematischen Gegenstände durchaus eine Chance.
Die Mathematik zentriert sich um den Begriff des Unendlichen. Dabei ist zwischen dem „potentiell Unendlichen“ des fortgesetzten Zählprozesses und dem „aktual Unendlichen“, bei dem eine unbegrenzte Zahlenmenge im Ganzen begrifflich erfasst wird, zu unterscheiden. Kanitscheider konstatiert in der Philosophiegeschichte einen Widerstand, das Unendliche idealiter als Gedankengebilde und erst recht realiter in der Welt zuzulassen. Er sieht den Grund in der Angst vor dem Pantheismus, der die Philosophen zögern ließ, ein Prädikat, das eigentlich der Gottheit zukommt, auf begriffliche Objekte, die für Menschen fassbar sind und noch mehr auf den materiellen Kosmos zu übertragen.

Hat man es aber postuliert, so kann man damit konsistent umgehen. Allerdings bedeutet aber das Postulat der Existenz unendlicher Mengen einen entscheidenden Bruch mit der aristotelischen Konzeption, wonach es so etwas wie eine vollendete unendliche Gesamtheit nicht geben kann, also z.B. eine Gerade als Ansammlung all ihrer Punkte. Es ist die Schlüsselidee Cantors, dass man vollständige Unendlichkeiten als abgeschlossene Individuen betrachten kann, als einzelne Objekte, völlig unabhängig vom Aufbau der inneren Struktur. Von Cantor über Gödel bis zu W.H. Woodin hat man versucht, diese exotischen mathematischen Objekte in einem ontologisch realistischen Sinne zu interpretieren. Sollten die Platoniker recht haben, so müssen sich die Naturalisten allerdings fragen, ob und wie sei ein solches Ideenreich noch in ihren Standpunkt integrieren können.

Kanitscheider ist der Ansicht, ein Ideenrea lismus könne wesentlicher besser als ein Konzeptualismus oder gar ein Nominalismus die ungeheure Effizienz der Mathematik in den Naturwissenschaften verständlich machen. Er sieht eine Parallelität von Formal und Naturwissenschaften, wie sie bereits von Gödel erkannt wurde. Speziell die Objekte der Mengenlehre werden genauso Gegenstand der mathematischen Einsicht und ihre Existenz ist in der gleichen Weise garantiert wie Beobachtungen, die Objekte der Natur betreffen.

1/2007


„Fehlfunktionen der Wissenschaft“ untersucht der in Trier lehrende Wissenschaftsphilosoph Klaus Fischer. Darunter versteht er nicht nur Betrug, sondern vor allem zum einen durch den Zeitgeist geprägte Wahrnehmungstäuschungen (so etwa bei der angeblichen Krankheit der Hysterie) und falsche Bewertungen von Theorien, zum anderen Dogmatismus und soziale Interessen, die nur eine interne Kritik zulassen. In der Regel fahren, und Fischer hält dies für eine Fehlfunktion, in der Wissenschaft diejenigen am besten, die zwar kompetent erscheinen, sich aber an die kursierenden Denkkonventionen halten. Denn neue Ideen kommen oft von rangniedrigen Forschern, die nicht erwarten, durch besondere Konformität ihren Status erhöhen zu können. Sie greifen das Neue, das soziokulturell eine Abweichung ist, auf und versuchen es zu befördern.
Fischer sieht auch das „Peer Review System“ kritisch: Es ist sehr oft nicht in der Lage, seiner Funktion einer wissenschaftlichen Leistungsbewertung gerecht zu werden. Besonders sichtbar wird dies, wenn Beiträge den herkömmlichen Rahmen sprengen und sich auf „terra incognita“ vorwagen.
Für einen Mangel hält Fischer die sehr eingeschränkte Konkurrenz zwischen Instituten, Laboratorien, Drittmittelgebern, Zeitschriften und Verlagen. Die Politik ihrerseits fördert wissenschaftliche Monokultur, indem sie, um Geld zu sparen, „Doppelforschung“ vermeiden will. Aber auch die EUWissenschaftspolitik, sogenannte Netzwerke zu fördern, ist problematisch, wird doch damit das Erkenntnisziel durch soziale Loyalitäten, deren unmittelbarer Zweck die Erreichung eines ökonomischen Vorteils ist, ersetzt.
In der Diskussion des Textes wurde kritisiert, Fischer hebe viel zu stark auf soziale Ursachen der Fehlfunktionen ab. Für völlig falsch hält der Freiburger Biologe Hans Mohr Fischers Kritik: Das wissenschaftliche Ethos werde in der Praxis straff gehandhabt, dies gewährleiste einen Bestand an gesichertem Wissen, und falls es einmal Missstände geben sollte, sei dies generell dem homo sapiens zuzuschreiben und nicht dem Wissenschaftsbetrieb. Umgekehrt gibt Vittorio Hösle Fischer Recht und lobt ihn für den Mut, auszusprechen, dass die institutionalisierte Wissenschaft Betonköpfe weit mehr belohnt als Himmelsstürmer. Wer das Vertraute fortsetzt und um Kleinigkeiten ergänzt, macht sich wesentlicher beliebter und befördert damit seine Karriere eher als wer Grundsätzliches in Frage stellt.
Über den allgemeinen Begriff der Krankheit im Sinne einer allgemeinen Unterscheidung zwischen Krankheit und Gesundheit tobt so etwas ein Grundlagenstreit. Peter Hucklenbroich versucht sich in dem zweiten Diskussionsartikel an einer Bestimmung von Krankheit, und er sieht als Kriterien für eine solche Bestimmung Lebensgefährdung, Leiden, biologische Reproduktionsunfähigkeit sowie soziale Integrationsunfähigkeit.


1/2008

Die Zeiten ändern sich: In den 70er Jahren des letzten Jahrhunderts hatte sich Wolfgang Krohn noch dezidiert für eine Finalisierung der Forschung, sprich für eine gezielt staatlich gesteuerte Forschung ausgesprochen und war darauf von Kritischen Rationalisten, Anhängern von Poppers Konzept der „Offenen Gesellschaft“, harsch kritisiert worden. Nun spricht er sich genau wie Popper für eine „StückwerkTechnik des Fortschritts“ aus und nennt sie „Modernisierung der ‚offenen Gesellschaft’; die dafür notwendigen Experimente nennt er im Unterschied zu Laborexperimenten – „Realexperimente“. Krohn sieht im Realexperiment eine mehr oder weniger legitime, methodisch entworfene oder auch fahrlässig eingegangene gesellschaftliche Praxis, sich auf Neues einzulassen und sein Text stellt „ein vehementes und faktenreiches Plädoyer für den verstärkten Einsatz von Realexperimenten zur Zukunftsgestaltung dar“ (Thieß Petersen). Das Realexperiment grenzt sich einerseits vom Laborexperiment ab, andererseits von beliebigen Formen gesellschaftlichen Lernens. Legitimationsgrund und das primäre Handlungsziel von Realexperimenten ist der Beitrag der Forschungspraxis zu einem Modernisierungsprojekt. Im Realexperiment steht die lebensweltliche Problemlösung im Vordergrund, die möglichst situationsspezifisch, sozusagen maßgeschneidert sein soll. Sie sind Gestaltungsprozesse, die nicht selten den Charakter von Unikate haben. Ob sie übertragbar sind und ob sich ein Gewinn für eine theoretische Generalisierung ableiten lässt, hat zunächst mit dem Erfolg des Experiments nichts zu tun. Dennoch ist das Interesse der Forscher darauf gerichtet, verallgemeinerbares Wissen abzuleiten.

HansLiudger Dienel macht in der Diskussion auf die Gefahr von solchen Realexperimenten aufmerksam: Im Unterschied zu Laborexperimenten sind hier reale Menschen, wenn nicht ganze Gesellschaften als „Versuchskaninchen“ beteiligt. In die gleiche Richtung geht Klaus Fischer, der an den WahlkampfSlogan „Keine Experimente!“ erinnert. Wer öffentlich zugeben würde, Experimente zur Lösung eines Problems (und sei es auch das der Umgestaltung des Hochschulsystems) machen zu müssen, würde zugleich seinen Mangel an Wissen, Selbstsicherheit und konsistenten Konzeptionen eingestehen. Oder, darauf macht Armin Grun wald aufmerksam, man stelle sich einen Energiekonzern vor, der sagt, ein Kraftwerk solle gebaut werden, um damit im Katastrophenfall neues Wissen zu erzeugen, um damit für weitere Katastrophen besser gerüstet zu sein. Aus der Beobachterperspektive erfasst der Begriff des Realexperiments die Offenheit der Zukunft und die damit verbundenen Unsicherheiten und experimenthaften Züge des Handelns, aus der Teilnehmerperspektive wirkt der Begriff hingegen schief bis zynisch.
Auf einen anderen Punkt machen Christian Taubert und Felicitas Krämer aufmerksam: Bei Realexperimenten handelt es sich um Experimente mit sehr langkettigen Folgen, und es ist unklar, welche Folgen unmittelbar und zum System des Experiments gehören und welche nicht. Die Gefahr eines differenzlosen Redens von der „Welt als Labor“ (Beck) ist daher groß. 


4/2007

Erstmals stellte die Redaktion nicht einen neuen Beitrag, sondern einen älteren, allerdings kaum je stark beachteten Text zur Diskussion, den 1913 gehaltenen Vortrag „Die Verirrten des Cartesius und das Auxiliarmotiv“ von Otto Neurath (18821945). Daraus entwickelte sich eine der interessantesten Diskussionen, die jemals in dieser Zeitschrift erschienen sind.

Neurath beschreibt eine Situation, in der wir alles Für und Wider abwägen und dabei nicht den geringsten rationalen Grund haben, eine von zwei Möglichkeiten zu bevorzugen, uns aber dennoch entscheiden müssen. Hier, so die These Neuraths, sei es rational, die Sache dem „Auxiliarmotiv“ bzw. dem Zufall zu überlassen (indem etwa das Los entscheidet). Rational sei dies, indem der Betreffende „die Grenzen der jeweiligen Einsicht scharf zu erkennen vermag“ und nicht nach pseudorationalen Entscheidungsansätzen sucht.
Genau dies, so Matthias Kettner, sei bei dem sprunghaft gestiegenen Beratungsbedarf von Organisationen und Administrationen der Fall, indem Entscheidungen als rational motiviert dargestellt werden müssen, um abgenommen werden zu können. Bei bestellten Kommissionen wird die Beratung oft nur gewünscht, um Spielraum zu gewinnen für Entscheidungen, die dann schließlich durch kein sachliches rationales Kalkül diktiert werden, sondern durch mehr oder weniger verdeckte Willkür.
Allerdings, so Kettner, eignet sich Neuraths Auxiliarmotiv nur für private Entscheidungen, und hier, in der fehlenden Unterscheidung zwischen privaten und öffentlichen Entscheidungen, liegt die Schwäche von Neuraths Rationalismus. Denn in der Demokratie ist die Abstimmung Teil der normativen Begründung von Entscheidungen.
Ähnlich argumentiert Wolfgang Krohn: Bei welchen politischen Entscheidungen hätten wir ein gutes Gefühl, wenn wir wüssten, dass sie durch Losverfahren getroffen würden: AfghanistanEinsatz der Bundeswehr, Erhöhung der Mehrwertsteuer, Beitritt zum KyotoProtokoll?
Was aber macht Neuraths Empfehlung, in rational unterbestimmten Entscheidungssituationen der Unterbestimmtheit auxiliarmotivisch statt pseudorationalistisch abzuhelfen, so anstößig für politische Entscheidungssi¬tuationen? Kettners Antwort: Unter Parlamentariern wäre ein beherzter Rekurs auf das Auxiliarmotiv empörend, weil es die soziale Praxis von debattenorientierten Abstimmungen, die Vertrauen in die parlamentarisch zustande kommenden politischen Entscheidungen sichern soll, ironisieren und dadurch untergraben würde. Vor der Abstimmung sichtbar sein Votum von der Zahl der Knöpfe an seinem Hemd abhängig zu machen, geht nicht an: es beleidigt das Parlament und setzt das politische System aufs Spiel. Das ist für Kettner der Schwachpunkt bei Neurath: sein demokratietheoretisches Defizit, sein nicht genügend komplexes Verständnis der Willensbildung unter Bedingungen eines demokratischen Verfassungsstaats.

Auch Krohn sieht in Neuraths Ansatz eine ideologiekritische Offensive gegen die Ausstattung der modernen Gesellschaft mit vorgeblichem Fachwissen und Reflexionswissen und ein Plädoyer für ein robustes Wissen des Nichtwissens. Krohns Kritik an Neurath: Er gibt keine Markierung für die Abgrenzung zwischen dem Rationalisten, der entscheidungsfreudig ist und dem Pseudorationalisten, der wankelmütig abwägt und immer neue Bedenken schafft. Es gibt keine Markierung, wo die Grenze zur Pseudorationalität überschritten wird, und damit steht die zentrale Unterscheidung des Ansatzes zwischen Rationalität und Pseudorationalität auf wackligen Füssen; Neurath ersetzt die vormoderne Autorität gerade nicht.
Neurath, so stellt es die NeurathExpertin Elisabeth Nemeth dar, stellt in diesem Aufsatz den Dezisionismus als einen legitimen Grenzfall rational begründeten Handelns dar. Er vertritt zudem die Auffassung, dass die moderne Lebenswelt den Menschen eine falsche Vorstellung von Rationalität nahe legt (eben eine solche, die den Dezisionismus nicht als legitimen Grenzfall enthält) und schließlich meint er, dass eine Auffassung von Rationalität, die deren Grenzen nicht berücksichtigt, die Möglichkeit rationalen Handelns unter modernen Bedingungen untergraben könnte.

 

4/2008

 

In ihrem Überblick über die Wissenschaftsethik sind Hans Lenk und Matthias Maring der Ansicht, für eine zeitgemässe Ethik sei es notwendig, sowohl Elemente der Prinzipienethik als auch der Folgenethik in eine Ethik zu integrieren, die Elemente der pflichtmässigen Achtung vor dem anderen und dem eigenen Selbst gegenüber mit Elementen des Wohlwollens verbindet: „Die Ethik scheint nur eine gemischte plurastische Universalmoral zu erlauben“.  „Verantwortung“ und „Mitverantwortung“ werden dabei als Grundbegriffe einer solchen Ethikauffassung genannt. Die Mitverantwortung ergänzt dabei die individuelle Alleinverantwortung,    aber löst sie nicht ab.

 

Ethische Diskurse dürfen den beiden Autoren zufolge aber das Durchsetzungsproblem nicht vernachlässigen. Dazu gehören Formen der Institutionalisierung von Ethik. Eine weitere Aufgabe von Ethik ist es, inhaltliche Prinzipien und Prioritätsregeln zu entwickeln

Viele der traditionellen ethischen Fragestellungen der Wissenschaft waren am klassischen, individualistischen reinen Wissensideal der Wissenschaft ausgerichtet. Unter dem hohen wirtschaftlichen und gesellschaftlichen Aufwand organisierter Großforschung und angewandter Wissenschaft stellen sich die Verantwortungsprobleme in der Regel differenzierter dar als bei einem klassischen Ein-Mann-Entdecker vom Typ eines Newton. Zu unterscheiden ist insbesondere zwischen dem Ethos der Wissenschaftler, der Standesmoral und bei der angewandten Forschung der externen Universalmoral, die die Ergebnisse der Forschungen betrifft. 

 

Brigitte Falkenburg insistiert darauf, die Trennung zwischen Grundlagenforschung und angewandter Forschung gerade im Hinblick auf das Ethos der Wissenschaft und der externen Moral beizubehalten. Das Ethos der Wissenschaft stammt primär aus der Grundlagenforschung und ist eng mit der Entstehung des neuzeitlichen Weltbildes verbunden. Im Zentrum stehen hier die Autonomie des Denkens, die Wahrheit sowie die logische und begriffliche Einheit eines kohärenten Weltbildes, das auf Objektivität in der Erkenntnis zielt. Der Grundlagenforschung liege selbst ein ethischer Wert zugrunde, der nicht unterschätzt werden dürfe. Dieser liegt nach wie vor in den aufklärerischen Idealen, die sich mit der Suche nach den wahren Erkenntnissen über die Welt verbinden.  Die von Lenk/Maring als Probleme der angewandten Wissenschaft genannten Probleme sind dagegen eigentlich Probleme einer Technikethik. In diesem Bereich besteht ein starker Ökonomisierungs- und Anwendungsdruck. Wer aber zu stark nach der Nützlichkeit und Verwertbarkeit seiner Ergebnisse fragt, forscht nicht mehr frei von persönlichen Interessen und beeinträchtigt so die Objektivität der Wissenschaft und gefährdet indirekt das Ethos der Wissenschaften.

 

Dagmar Fenner, Privatdozentin aus Basel, moniert, alle von Lenk/Maring genannten Beispiele stammten aus dem Bereich der Naturwissenschaften. Gegenwärtig findet aber ein „ethical turn“ in Richtung der von der Wissenschaftsethik vernachlässigten Geisteswissenschaften statt. Dabei geht es darum, dass die wertfreie Darstellung von Ungeheuerlichkeiten wie den Machenschaften der Nationalsozialisten einseitige Phantasien wecken könnten und negative Einflüsse auf das Handeln einzelner Menschen oder Gruppen zeitigen. 

Einer Sonderdisziplin Wissenschaftsethik kritisch gegenüber steht Ruth Hagengruber, Philosophieprofessorin in Paderborn: „Eine Überordnung der Ethik über die Wissenschaften ist kontraproduktiv und sachlich nicht vertretbar“. Denn es gibt keine Anwendung der Ethik ohne Rekurs auf wissenschaftliches Wissen und es gibt kein gerechtfertigtes wissenschaftliches Wissen, das nicht mit dem Anspruch ethischer Zurechenbarkeit als solches bezeichnet wird. Beide, Ethik und Wissenschaft verfügen über eine historische und eine rational-gesetzgebende Dimension.

 

Einen neuen Weg gingen die Herausgeber von „Erwägen Wissen Ethik“, indem sie nicht nur einen älteren, sondern einen in völlige Vergessenheit geratenen Text diskutieren ließen: einen Text über Zahlbegriffe aus der „Logik“ von Christoph Sigwart. Sigwart vertrat ein seit dem Verdikt von Husserl kaum mehr vertretbares psychologisches Logikverständnis. Die Herausgeber ließen zuerst die einzelnen eingeladenen Autoren zum Text Stellung nehmen, dann in einem zweiten Durchgang zu den Stellungnahmen wiederum Stellung nehmen, um schließlich zu einem Schlusstext zu kommen. Dabei entfaltete die Diskussion, wie einer der Autor am Schluss schrieb, „immer mehr ihre eigene Dynamik“.

 

Erwägen    Wissen    Ethik

(vormals: Ethik und Sozialwissenschaften)

1/2009

 

Es ist üblich, das Problem der Willensfreiheit in zwei Teilprobleme aufzuspalten: In das traditionelle Problem „Freiheit oder Determinismus?“ und in die Frage, ob Freiheit und Determiniertheit einander ausschließen oder nicht. Die erste Frage ist in der Philosophie des Geistes unpopulär, die Diskussion kreist um das Ausschließlichkeitsproblem. In der deutschsprachigen Philosophie sind die Positionen, die die Verträglichkeit beider Annahmen verteidigen (der sog. Kompatibilismus), vorherrschend (u. a. vertreten von Beckermann, Bieri, Habermas, Nida-Rümelin, Pauen). Geert Keil gehört neben Seebass und Schockenhoff zu der Minderheit, die von   einer indeterminierten Freiheit ausgeht.

 

Wie Geert Keil ausführt, wären die Philosophen dagegen gut beraten, sich für den Sinn der Determinismusthese zu interessieren.  Denn wer am Freiheitsproblem interessiert ist, kann der Frage nicht ausweichen, ob der Determinismus wahr ist oder nicht. Und ob Freiheit kompatibilistisch oder inkompatibilistisch aufzufassen ist, hängt davon ab, womit genau die Freiheit vereinbar oder nicht vereinbar sein soll:

- damit, dass die Körperwelt kausal geschlossen ist?

- damit, dass Personen und ihre Handlungen Teil der natürlichen Welt sind?

- damit, dass jedes Ereignis eine Ursache hat?

- damit, dass der Weltlauf Gesetzen unterliegt, die wir nicht ändern können?

 

In seiner metaphysischen Variante besagt der Determinismus, dass der Weltlauf von einer überlegenen Intelligenz bis in alle Einzelheiten vorhergesagt werden könnte bzw. in der modernen Version: Wenn zwei mögliche Welten, in denen dieselben Naturgesetze herrschen, zu irgendeinem Zeitpunkt übereinstimmen, dann tun sie es immer. Der gesamte Weltlauf müsste demnach einem strikten metaphysischen Gesetz unterliegen. Keil wendet dagegen ein, dass nicht nur „kein derartiges Naturgesetz je präsentiert worden ist“, sondern dass auch wenig dafür spricht, dass es derartige Gesetze überhaupt gibt. 

 

Dazu, dass dieser Determinismus eine Behauptung über den Weltlauf macht, muss er seine modale Kraft aus einer bestimmten Art von Gesetzen, nämlich aus kausalen Sukzessionsgesetzen, beziehen. Die fundamentalen Naturgesetze der Physiker sind aber nicht von dieser Art, sie sind vielmehr Koexi­stenzgesetze. So sagt das Gravitationsgesetz nichts darüber aus, was tatsächlich geschieht, es sagt vielmehr etwas über das synchrone Verhalten physikalischer Größen aus, also darüber, wie die Gravitationskraft, die zwischen den Körpern besteht, sich zu ihren Massen und ihrem Abstand verhält. Diese Gesetze haben keine direkte kausale Interpretation, fixieren nicht alternativlos den Weltlauf und sind deshalb selbst aus inkompatibilistischer Sicht nicht freiheitsgefährdend.

 

Nun kommt aber noch etwas hinzu: Naturgesetze sind nach nominalistischer Auffassung Allaussagen, die in systematisierter Form das Naturgeschehen beschreiben. Ob sie das korrekt beschreiben, hängt davon ab, was tatsächlich geschieht, nicht umgekehrt. Bei     einem Übergang von einem universalen zu einem bereichsspezifischen Determinismus ändert sich nichts Wesentliches. So wäre die Formulierung deterministischer Verlaufsgesetze, die den faktischen Outpout lebendiger Gehirne mit beliebiger Genauigkeit vorauszusagen gestatten, nicht einmal ein vernünftiges Forschungsprogramm. Man übersieht dabei leicht, wie nachlässig mit dem Attribut „deterministisch“ umgegangen wird: Faktoren steuern das Verhalten, Gehirnvorgänge bedingen Handlungen. Allen diesen Verben ist gemeinsam, dass sie weniger implizieren als strenge naturgesetzliche Determination, aber offen lassen, wie viel weniger. Die Bedeutung des Determinismus ist denn auch für die humanwissenschaftliche Forschung marginal, die darin arbeitenden Wissenschafter wissen das auch. Problematisch wird es aber dann, wenn diese weichen Verben mit freiheitswiderlegender Konnotation eingesetzt werden.

 







© Information Philosophie     Impressum     Kontakt