PhilosophiePhilosophie

Zeitschriften

A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Philosophia naturalis

Philosophia naturalis
1/2006

Thema des von Kristian Köchy und Gregor Schiemann herausgegebenen Heftes ist die Natur im Labor. Im Logischen Empirismus und in Poppers Kritischem Rationalismus forderte man für die Wissenschaftstheorie eine strikte Ausrichtung auf die Theorie: Mögliche Gegenstände der Wissenschaftsphilosophie sind dann Begriffe, Aussagen, Erklärungen oder Theorie der Wissenschaften. Es geht darum, die Geltung wissenschaftlicher Theorien nach logischen und formalen Kriterien zu ergründen. Ziel des Verfahrens ist es, zu einer Theorie wissenschaftlicher Theorie zu gelangen.

Mit diesem Ansatz ist jedoch, so Köchys Kritik, eine Einengung des Feldes wissenschaftsphilosophischer Aufmerksamkeit verbunden, die den Naturwissenschaften und den technischen Disziplinen nicht gerecht wird. Deshalb hat die Philosophie der Wissenschaften in den letzten Dekaden eine umfassende Modifikation und Umstrukturierung ihres Konzeptes erfahren. Maßgebend dafür ist auch die Einsacht, dass die Beobachtung selbst erst im Kontext von Theorien Gestalt annimmt. Als nächstes wurde anerkannt, dass naturwissenschaftliche Beobachtung keinesfalls den Status einer passiven und distanzierten Schau besitzt, sondern sich zumeist als technischexperimentelles Handeln vollzieht. Damit erreichte die Sphäre der Beobachtung eine neue eigenständige Bedeutung. Gleichzeitig wurde die Aufmerksamkeit auf Modelle als Vermittlungsinstanzen zwischen Philosophie und Praxis gelegt und die Bedeutung von Bildern hervorgehoben. Dabei kam ein Feld in den Mittelpunkt, das Köchy „Kontext des Labors“ nennt und wobei das Experiment die ausgezeichnete Rolle spielt. Im Experiment wird eine artifiziell vereinfachte Situation geschaffen, die es erlaubt, ein komplexes Gesamtgeschehen in viele einfache Teilgeschehen aufzuspalten.
Lothar Schäfer argumentiert dafür, dass sich die vermeintlich aufs Artifizielle gerichtete Laborforschung sich nicht gegenüber einer auf die wahre Natur gehende Forschung degradieren lasse.

Differenzierter ist Holm Tetens, der eine eigentliche „Wissenschaftstheorie des Labors“ entwirft. Ohne reproduzierbare Laborphänomene könnten die Naturwissenschaftler zumindest ihre Fundamentaltheorien niemals aufstellen und überprüfen. Das Geschehen in der Natur außerhalb der Laboratorien gehorcht aber keinen anderen Gesetzmäßigkeiten als denen, die im Labor anhand künstlich hergestellter Vorgänge ermittelt werden. Die Naturwissenschaftler erklären die Naturvorgänge außerhalb des Labors „im Prinzip“, d.h. sie kennen zwar das Gesetzesschema, nach dem ein Vorgang abläuft, nicht jedoch die Spezialisierung dieses Gesetzes für genau diesen Vorgang. Die Vielzahl der für das Geschehen kausal relevanten Faktoren lässt sich nicht überblicken und nicht durch eine entsprechend spezifizierte Verlaufsgleichung beschreiben. Und die wissenschaftliche Weltauffassung, die durch die mathematisierten, experimentellen Naturwissenschaften geprägt ist, zeigt uns die Welt in einer ganz bestimmten Perspektive: Die Welt wird so beschrieben, wie sie beschrieben werden muss, damit man in die Prozesse in der Welt, wenn eben möglich, technisch eingreifen und sie umlenken kann. Aber wir beherrschen die technischen Artefakte nur als integralen Bestandteil von Laborsituationen, keineswegs jedoch als Bestandteile der terrestrischen Biosphäre außerhalb der Labore.

2/2006

In der Wissenschaftstheorie gilt das Konzept der operationalen Definitionen, wie es von den Konstruktivisten vertreten wurde, als überholt. Eine operationale Definition der Länge beispielsweise erfolgt durch die Angaben der Operationen, die bei der Längenmessung ausgeführt werden. Meist ist aber weniger von operationalen Definitionen als von Dispositionen die Rede. Andreas Kamlah versucht in seinem Beitrag „Die logische Struktur der operationalen Definitionen“ durch eine verbesserte Explikation des Begriffs und der logischen Struktur diese für die Wissenschaftstheorie wieder zu rehabilitieren. Dabei spielt der Begriff der inneren Eigenschaft eines Dings eine wichtige Rolle.

Hermann Weidemann, einer der besten AristotelesKenner im deutschsprachigen Raum, rekonstruiert Aristoteles Theorie der akzidentiellen Verursachung und zeigt, dass diese deckungsgleich mit den INUSBedingungen bei John L. Mackie sind und kommt zu dem Schluss, dass der Indeterminist die Welt so sieht, wie sie wirklich ist, während der Determinist seine Weltanschauung einer unzulässigen Abstraktion verdankt.

Eduard Kaeser, Physiker und Philosoph aus Bern, beklagt die Überbetonung des Semioti schen in unserer Kultur und setzt sich für die Wiedergewinnung eines Begriffs von Kultur ein, der ihrer Materialität Rechnung trägt.

Ursula Fetz fragt „Worauf bezieht sich jetzt?“ und sieht erstaunliche Parallelen zwischen „jetzt“ und „wahr“: Auf die Behauptung, dass ein Sachverhalt „wahr“ sei oder „jetzt“ sei, kann nicht verzichtet werden, ohne unseren Bezug zur Welt bzw. unseren Bezug zum eigenen Denken und Handeln zu vernachlässigen. Ohne den Wahrheitsbegriff könnten wir uns in unseren Beschreibungen den Bezug zur Welt nicht explizit machen. Ohne die modalzeitliche Struktur „jetzt“ blieben unsere Beschreibungen ohne eindeutigen Bezug zu unserem eigenen Erleben. Dadurch ginge uns die Fähigkeit zu schlussfolgerndem Denken und rationalem Handeln verloren, denn beides setzt die Möglichkeit des Rückgreifens auf Vergangenes und des Vorgreifens auf Zukünftiges von einem gegenwärtigen Erlaus aus voraus. Dennoch: Unserer Jetzterfahrung können wir entgegen unserer Intuition keine unabhängig von uns gedachte objektive Struktur unterlegen. Aber ihr entspricht ein durch eine interne Zeitmarkierung zusammengehaltener, funktional aktiver Systemzustand unseres Gehirns, der als eine Einheit betrachtet werden kann, auf dem unsere aktuellen repräsentationalen Inhalte supervenieren.

1/2007

Philosophia naturalis“ ist ab sofort sowohl in gedruckter Form als auch online verfügbar. Informationen dazu findet man bei www.ingentaconnect.com oder unter der Homepage des KlostermannVerlages.
In Heft 1 des letzten Jahres geht der Geograph Jürgen Hasse der Frage nach, welche Brücken verschiedene Formen des RaumDenkens zwischen Natur und Kultur schlagen können und unterscheidet dazu zwischen mathematischem, symbolischem, sozialem, leiblichem Raum sowie Situations und Denkräumen.
James Barham (Chicago) plädiert für eine Reform der Grundlage der Biologie, indem er dort Begriffe aus der nichtlinearen Dynamik und der Festkörperphysik einsetzen will, mit dem Ziel, biologische Zielsetzung als ein reales, emergentes Phänomen direkt zu repräsentieren. Kirstin Meyer macht darauf aufmerksam, dass – SeinSollenFehlschluss hin oder her – Einsichten in die Genese unserer Moral Gründe dafür liefern, an bestimmten Normen tatsächlich festzuhalten. Norman Sieroka zeigt, wie axiomatische und konstruktive Ansätze in der Quantenfeldtheorie mit Hilfe der sog. „Bildtheorie“ von Heinrich Hertz verstanden werden können.

Die präsentistische Auffassung der Zeit auch tensed theory oder ATheorie der Zeit genannt), betrachtet die Zeitmodi „Vergangenheit“, „Gegenwart“ und „Zukunft“ nicht nur als wichtige Aspekte unserer subjektiven Erfahrung, sondern als Begriffe, die für die ontologische Charakterisierung der physikalischen Entitäten unumgänglich sind. Insbesondere wird behauptet, dass es eine wesentliche Verknüpfung zwischen Gegenwart und Existenz in dem Sinn gibt, dass alles, was nicht gegenwärtig existiert, keine Existenz in einem absoluten Sinne besitzt. Ferner wird nach dieser Auffassung die Unbeständigkeit der Existenz der physikalischen Entitäten als die grundlegende ontologische Eigenschaft verstanden, in der die Zeit und ihre verschiedenen Einteilungen ihren Ursprung haben.
Die präsentistische Auffassung der Zeit besitzt eine privilegierte Stellung in der Geschichte der Zeitphilosophie und geht bis auf Augustinus zurück. Sie ist auch die Konzeption der Zeit, die am besten unserer alltäglichen Erfahrung der Zeit entspricht.
Francisco Josef Soler Gil zeigt in einem zweiteiligen Aufsatz, dass der Präsentismus mit dem quantenkosmologischen Modell von James Hartle und Stephen Hawking nicht zu vereinbaren ist. Was die Relativitätstheorie betrifft, so es ist seines Erachtens noch offen, ob diese einen Präsentismus der Zeit zulässt.


2/2007

 

Der wissenschaftliche Realist vertraut nicht nur auf die Ontologie der besten Theorien, er verlässt sich auf etwas, das man Typologie der Theorien nennen kann: Wissenschaftliche Theorien nehmen sich nicht nur Gegen­ständen, sondern auch Typen, Eigenschaften und Zuständen dieser Gegenstände an. Zur Theorie der Elektrizität gehören nicht nur die Annahme von Elektronen, sondern auch die der elektrischen Ladungen, die sie besitzen können, und der Feldstärken, unter deren Einfluss sie gelangen können. Ralf Busse (Regensburg) spricht hier von fundamentalen Größen und suggeriert damit, dass es eine Ebene der Realität gibt, deren Gegenstände durch gewisse Größen charakterisiert sind, aus denen sich alle anderen Bestimmungen von Dingen ergeben. Eine naturphilosophisch orientierte Metaphysik hat sich für Busse um solches Konzept fundamentaler physikalischer Größen zu bemühen, das sie den Interpretationen einzelner physikalischer Theorien zur Verfügung stellen kann. Er behauptet zudem, eine solche Metaphysik könne in Anlehnung an die Metaphysik von David Lewis entwickelt werden. Dabei sollte allerdings u. a. der Ansatz von Lewis, demzufolge Eigenschaften Klassen möglicher Individuen sind, durch eine nominalistische Konzeption primitiv-natürlicher Eigenschaften ergänzt werden. Peter Schulte (Bielefeld) untersucht den Universalienrealismus und zeigt, dass dieser nicht dem sog. „Bradley-Regress“ zum Opfer fällt, dass er aber dazu führt, dass einige Argumente zugunsten dieses Realismus aufgegeben werden müssen.
Weitere Artikel: R. Arp: Homeostatic Organization, Emergence, and Reduction in Biological Phenomena; Kockerbeck, C.: Urzeugung, Monismus und Materialismus. Der „Urschleim“ Bathybius Haeckelii und die naturphilosophischen Positionen Ernst Haeckels und Ludwig Büchners.

 

2/2008

 

Wenn wir potentielle Erklärungen miteinander vergleichen müssen, um uns für eine bestimmte Hypothese zu entscheiden, spielt die Erklärungsstärke bzw. Erklärungstiefe der Hypothesen eine wichtige Rolle – ein Thema, das in der Wissenschaftstheorie selten aufgegriffen wurde. Das Erklärungsschema der strikten Empiristen besagt, dass das Erklären eines Ereignisses E darin besteht aufzuzeigen, wie E aufgrund bestimmter empirischer Naturgesetze und einiger vorliegender Randbedingungen zu erwarten war bzw. sich deduktiv ableiten lässt (DN-Schema). Der Leipziger Wissenschaftstheoretiker Thomas Bartelborth zeigt, dass es mit dieser Konzeption nicht gelingen kann, das wissenschaftliche Erklären korrekt zu rekonstruieren. Ein Erklären ist immer  ein Hervorheben von bestimmten Aspekten einer Situation als Ursachen und die Angabe eines (kausalen) stabilen Musters, das einen Zusammenhang der Ursachen zur Wirkung aufzeigt. Aber nicht nur dass: Wir müssen vom DN-Schema auch insofern abrücken, als wir keine strikten Naturgesetze verlangen können, sondern höchstens Generalisierungen mit einer bestimmten Stabilität, die Bartelborth „nomische Muster“ nennt.

 

Rolf Busse (Philosophisches Seminar der Universität Regensburg) untersucht die Frage, ob es fundamentale physikalische Eigenschaften gibt. Gibt es eine letzte Ebene der physikalischen Beschreibung der Welt, auf die sich alle anderen physikalischen und   ebenso alle weiteren Phänomene zurückführen lassen? D.M. Armstrong und D. Lewis haben herausgearbeitet, dass unter den      Eigenschaften einige objektiv ausgezeichnet sind, Busse nennt sie fundamentale bzw. perfekte Eigenschaften. Zu denken ist dabei etwa an die elektrische Elementarladung. Busse vertritt eine nominalistische Position hinsichtlich solcher perfekter Eigenschaften. Das bedeutet, dass er auf universelle qualitative Entitäten, die identisch an oder in vielen Einzeldingen vorkommen können, verzichtet. Bei der Auszeichnung natürlicher Bestimmungen nimmt er nur die Existenz der Eigenschaften selbst an. Seine „Ähnlichkeitsnominalismus“ genannte Theorie verteidigt er gegen Armstrongs Supervenienzargument und gegen G. Rodriguez-Percyras Argument wider ein irreduzibel plurales Ähnlichkeitsprädikat.

 

Hermann von Helmholtz hat wie kein zweiter zu der heute gängigen Meinung beigetragen, nach der Einführung der nicht-euklidi­schen Geometrien sei Kants Auffassung des Raumes als „eine a priori gegebene Form aller äußerer Anschauung“ völlig unhaltbar geworden. Denn Kant habe versucht, „die geometrischen Axiome als a priori durch transzendentale Anschauung gegebene Sätze zu betrachten“. Da aber außer dem euklidischen auch Räume anderer Art möglich sind, ist damit auch widerlegt, dass „die Axiome der Geometrie nothwendige Folgen einer a priori gegebenen transzendentalen Form unserer Anschauungen im Kant’schen Sinne seien“ (so Helmholtz). Marco Giovanelli zeigt, dass das Problem Kants, als er den Raum als „Anschauung“ und nicht als „Be­griff“ definierte, nicht darin bestand, die     Axiome der euklidischen Geometrie a priori „anschauen“ zu lassen, sondern vielmehr festzustellen, dass die „Kongruenz“ geome­trischer Figuren nicht auf die logische „Identität“ von Begriffen zurückgeführt werden kann.

 

 Die „Anschauung“ ist die unmittelbare Vorstellung eines einzelnen Objekts, während der Begriff die mittelbare Vorstellung mehrerer Objekte durch Merkmale ist, die diesen Objekten gemeinsam sind. Zwei  kongruente Körper (etwa die linke und die rechte Hand) können völlig gleich sein. Einer ist vom anderen nicht zu unterscheiden, „wenn er allein und zugleich vollständig beschrieben wird“; sie sind erst verschieden, wenn man ihre wechselseitigen Verhältnisse im Raum betrachtet. Während sich Begriffe hierarchisch nach Art und Gattungen strukturieren, sind alle Teile des Raumes vollkommen gleichberechtigt. Wenn, so das von Giovanelli Kant unterstellte Argument, die Teile des Raumes nicht gleichberechtigt wären, der Raum also keine „reine Anschauung“ wäre, wäre die Geometrie unmöglich. Die Geometrie ist     aber ein Faktum. Anders als für die Metaphysik lässt sich für die Geometrie ein Buch aufzeigen, nämlich die Elemente von Euklid, in dem sie in ihrer wissenschaftlichen Form dargestellt sind. Der homogene Raum ist  also eine notwendige Bedingung der Möglichkeit der Geometrie.

 

Während Kant das Problem philosophisch behandelt, nimmt es bei Helmholtz eine mathematisch-physikalische  Wendung.  Es wurde klar, dass in der euklidischen Geome­trie und ihren Beweisen für die Kongruenzsätze eine bestimmte Voraussetzung notwendig ist: Es muss angenommen werden, dass die beiden Gebilde, die man als kongruent erklärt, zueinander hin bewegt werden und dass sie bei dieser Bewegung ihre Gestalt und Masse nicht ändern. Damit ist eine Voraussetzung gewonnen, von der Kant ausgegangen ist: Die Identität der Raumteile hängt nur von ihrer wechselseitigen Stellung im Raum ab. Zugleich stellt sich aber eine Frage, die den Horizont der kantischen Problemstellung übersteigt: Wie können wir unter den möglichen Geometrien wählen, die einen Raum voraussetzen, der diese Forderung erfüllt?

Der Beitrag findet sich auch im Internet unter www.wpk.uni-tuebingen.de

 

Erik C. Banks stellt ein kombinatorisches Modell des Raumes vor, das auf Machs Element des Inhalts und Grassmanns Algebra basiert, und Martin Gorke (Greifswald) zeigt, dass die Frage nach außerirdischem Leben umweltethische Relevanz hat: Die extreme Unwahrscheinlichkeit solchen Lebens ist ein Argument dafür, mit der Biosphäre verantwortlich umzugehen.

AZ-Interview Julian Nida-Rümelin: Grundrechte sind "die Essenz unserer Demokratie"
Alma von Stockhausen, Interview anlässlich ihres Todes kath.net
Antirassismus: Immanuel Kant steht zur Debatte. Das Interview mit Michael Zeuske
Christian Bermes über Krisenmanagement Deutschlandfunk Kultur
Eike Gebhardt zu Hampe, Die Wildnis, die Seele, das Nichts. Deutschlandfunk 24.7.2020
Ein Sklave als deutscher Philosoph: Anton Wilhelm Amo Berliner Tagesspiegel
Essay-Preis: Was bedeutet 1989 für das Denken?
Essaypreis der GAP "Nachdenken über Corona"
Floris Briskamp: Sollte man Kant als Rassisten bezeichnen? Tagesspiegel 21.6.2020
Giordano Bruno-Stiftung kritisiert Zusammensetzung des Deutschen Ethik-Rates
Giorgio Agamben, Der Notstand erlaubt alles NZZ
Habermas besorgt über Diskussion über das Verhältnis von Lebensschutz und Freiheitsrechten
Hannah Arendt Ausstellung Berlin, Der Spiegel
Jürgen Habermas über die Corona-Krise und sein neues Buch
Nachdenken über Corona. Essaywettbewerb der GAP
Rainer Forst über den Virus und die Demokratie Die Zeit, 27. Juni 2020
Reinhard Merkel über Risiko während der Krise Frankfurter Rundschau 11. Mai
Stefan Gosepath: War Kant Rassist?
Virologie als neue Religion. Deutschlandfunk Kultur im Gespräch mit Markus Gabriel
Vittorio Hösle: Trump zeigt "klassische Strategie eines Diktators" Deutsche Welle 23.6.2020
Wird das "Institute for Philosophy and Social Theory Belgrade (IFDT" politisch gesäubert?

Anton Leist: Tugendhats Geheimnis. Aus Anlass des 90. Geburtstages
Franz Schörkhuber: Philosophieren ohne Absicht
Gerhard Gamm: Die neue Zeit
Glauser, Ramiro; Der Naturalismus und der Raum der Gründe
Sadiq Jalal al-Azm - Ein Porträt von Sarhan Dhouib

Literaturverzeichnis zum Text: Demokratie und Digitalisierung Oliver Hidalgo über den Stand der Debatte in Heft 1/2019
Das Netzwerk „Argumentieren in der Schule“ Endnoten und Literaturnachweise
Literatur zum Essay "Johannes Hübner, Was spricht dagegen, Verstehen als Wissen aufzufassen?" Heft 4/2017
Literaturverzeichnis zum Essay "Was spricht dagegen, Verstehen als Wissen aufzufassen?"
Nachweise zu Jan Baedke, Philosophische Probleme der Epigenetik, Heft 2/2019
Nachweise zu Jean Moritz Müller, Motivierende Gründe, Heft 4/2019
Nachweise zu Jens Peter Brune: Armut und Menschenwürde

Philosophicum Lech 2020