PhilosophiePhilosophie

03 2017

Bernard Koch:
Bewaffnete Drohnen. Was ihren militärischen Einsatz ethisch so fragwürdig macht

aus: Heft 3/2017, S. 8.15

In Deutschland wird seit einigen Jahren überlegt, für die bislang von Israel geleasten Drohnensysteme Heron 1 – die im Afghanistan-Einsatz der Bundeswehr nur zur Luftaufklärung dienten – bewaffnete Nachfolgemodelle anzuschaffen. Einige Zeit lang waren auch die amerikanischen Modelle Reaper und Predator dafür im Gespräch. Mittlerweile gibt es einen Auftrag an Airbus zur Entwicklung einer sogenannten „europäischen Drohne", die auf jeden Fall auch bewaffnungsfähig sein wird. Bewaffnete Drohnen sind heute eine militärische Realität, und es steht auch nicht zu vermuten, dass sie durch Argumente von moralphilosophischer Seite noch einmal gänzlich verboten werden könnten. Allerdings sollte man sich nicht zu schnell an sie als Kriegsmittel gewöhnen und dabei die Probleme übersehen, die sie einerseits in der Realität der bewaffneten Konflikte unserer Tage anzeigen, andererseits aber auch selber darstellen.

Instrumente zum Schutz?

Die Debatte in Deutschland wurde von jenen, die in der politischen Debatte für diese bewaffneten Drohnensysteme eintraten, rhetorisch geschickt geführt, nämlich so, dass bewaffnete Drohnen als Instrumente zum Schutz der eigenen Soldatinnen und Soldaten dargestellt wurden. Wer sich kritisch zu den Anschaffungsplänen äußerte, kam dadurch in den Verdacht, er würde Bundeswehrsoldaten nicht die bestmögliche Ausrüstung zu ihrem Schutz gönnen.

Nun ist das Argument vom verbesserten Schutz – ein ohnehin hochproblematischer Begriff – ein zweischneidiges Schwert. Denn die Gegner von bewaffneten Drohnen sind ja gerade besorgt, dass mit diesen Waffensystemen mehr Menschen, insbesondere mehr Zivilisten, Opfer militärischer Gewalt werden könnten. Zum einen könnten sogenannte Drohnenpiloten, die aus weiter Entfernung steuern und die Geschehnisse nur auf Bildschirmen wahrnehmen, leichter versucht sein, die „Wirkmittel" – wie es heute so euphemistisch heißt –, also beispielsweise die Hellfire-Raketen, die die eigentliche Bewaffnung der Drohnen darstellen, schneller zum Einsatz zu bringen. Umgekehrt können Drohnenpiloten einem höheren Risiko für posttraumatische Belastungsstörungen (PTBS) ausgesetzt seien. Hier zu klaren Antworten zu kommen ist Aufgabe sorgfältiger empirischer Wissenschaft, nicht Sache der Ethik im eigentlichen Sinn.

Das andere Feld betrifft die Politik: Die Gegner bewaffneter Drohnen argumentieren, dass bei geringeren Risiken für die eigenen Soldatinnen und Soldaten die Politik leichter versucht sein könnte, überhaupt zu militärischen Mitteln bei der Konfliktlösung zu greifen. Denn getötete und verwundete Soldatinnen und Soldaten sind eine politische Bürde in demokratischen Staaten, und wenn Soldatinnen und Soldaten weniger gefährdet sind, sinke die Hemmschwelle. Wie triftig das Argument ist, müssen sozialwissenschaftliche Untersuchungen in der Zukunft zeigen.

Große Schwierigkeiten zeigen sich vor allem hinsichtlich des humanitären Völkerrechts, des traditionellen Schutzinstruments für Zivilisten in bewaffneten Konflikten. Dessen Grundidee ist es ja, Gewalt einzuhegen und dadurch Menschen zu schützen. Durch die ferngesteuerten Waffensysteme ist dieser Schutz in Gefahr, verloren zu gehen. Zwei wichtige Einhegungsvorschriften zerrinnen richtiggehend unter den Fingern: Die Begrenzung des Kriegsgebiets und die Unterscheidung von Kombattanten und Zivilisten. Das zeigt sich beispielsweise an einem Fall von „Targeted Killing", das die Vereinigten Staaten im Oktober 2010 an einem jungen deutschen Staatsbürger namens Bünyamin Erdogan durchgeführt haben. Weil es eben ein deutscher Staatsbürger war, hat der deutsche Generalbundesanwalt, nach einigem Hin- und Her in der außenpolitisch brisanten Sache, schlussendlich ermittelt, die Ermittlungen aber später eingestellt, weil er die Tötung für im Rahmen des humanitären Völkerrechts rechtskonform hielt. Dabei wurden zwei Gesichtspunkte aufgegriffen, die zwar häufig zur völkerrechtlichen Rechtfertigung von Drohnenangriffen von Seiten der Vereinigten Staaten vorgebracht werden, die aber nicht unter die ursprüngliche Idee des humanitären Völkerrechts fallen:

Zum einen wurde ein kleiner Teil von Pakistan als Kriegsgebiet deklariert, zum anderen wurde Bünyamin ein kombattantengleicher Status zugeschrieben, obwohl er noch keinen Angriff auf irgendjemanden ausgeführt hatte (sondern offenbar vor Ort war, um zum Selbstmordattentäter ausgebildet zu werden). Es handle sich bei ihm, so die offizielle Lesart, um einen Zivilisten, „der sich direkt an den Feindseligkeiten beteiligt". Diese Formel war ursprünglich für anderes vorgesehen (nämlich für Zivilisten, die mit den regulären Streitkräften mitkämpften), und genauso verhält es sich mit der Territorialbeschränkung. Dort, wo die staatliche Gewalt Probleme hat, sich durchzusetzen, kann sie nach diesem Muster sich eine kriegsrechtliche Legitimität geben und das betreffende Area zum Gebiet eines bewaffneten Konflikts erklären. Deren Bewohner werden damit Kriegsgegner und können mit potentiell letaler Gewalt angegriffen werden.

Es besteht durchaus die Gefahr, dass unter dem Einfluss der jetzt möglichen Drohnenangriffe das Recht so gebraucht wird, dass das, was ohnehin technisch möglich ist, nämlich die besagten Drohnenangriffe, legitimiert wird, und nicht umgekehrt der rechtliche Rahmen die Drohnenangriffe einschränkt.

Aber zurück zur in der Argumentation beanspruchten „Schutzwirkung" von ferngesteuerten Systemen. Drohnenschläge sind gemeinhin präziser; es ist also möglich, genauer die Personen zu treffen, die man treffen will, und sie schützen die eigenen Streitkräfte, weil der Gewaltanwender der Gegengewalt doch geradezu grundsätzlich entzogen ist. Walter Benjamin war wohl der erste, der in den 30iger Jahren des vergangenen Jahrhunderts Drohnen und Kamikazekämpfer einander gegenübergestellt hat: die einen geben sich selbst ganz in den Gewaltakt hinein, die anderen entziehen sich der Gewalt total. Diese Konstellation finden wir heute wieder, wie der von mir erwähnte Fall des Bünyamin Erdogan zeigt. Zugleich zeigt sich hier ein grundlegendes legitimatorisches Problem: Wenn man der gegnerischen Gewaltwirkung so entzogen ist, wie Drohnenpiloten es sind, was rechtfertigt dann den Gewaltakt gegen den Gegner? Im Grunde ist er gar kein Gegner mehr.

Zuweilen wird betont, es gehe ja nicht nur um den Schutz des Drohnenpiloten, sondern zum Beispiel um Konvoibegleitung, also um den Schutz der Soldatinnen und Soldaten im Konvoi. Aber dieser Schutz ist – genau besehen – Wirkung der Aufklärungsleistung der bewaffneten Drohne, weniger ihrer Bekämpfungsfähigkeiten. Der Schutz resultiert meist schon daraus, dass man um einen Hinterhalt weiß. Auch wenn es nicht besonders militärisch klingt: Grundsätzlich könnte man dann auch den Rückzug antreten und wäre damit auch geschützt.

Freilich schlagen manche militärische Praktiker bei einem solchen Argument die Hände über den Kopf zusammen. Als Ethiker muss man darauf bestehen, dass das ethische Problem zur Kenntnis genommen wird: Entweder die Gewalt zielt darauf ab, eine Person zu strafen. Dann stellt sich aber die Frage, nach welchem Verfahren die Schuld und die Strafe eigentlich festgestellt worden ist. Hatte die ins Visier genommene Person beispielsweise die Möglichkeit, ihre Sicht der Dinge vorzutragen und sich zu verteidigen, wie wir das heute für gewöhnlich voraussetzen? Wohl kaum. Es geht also nicht um strafende Gewalt, wie wir sie gewöhnlich verstehen und legitimieren. Es scheint sich also vielmehr um verteidigende Gewalt oder Gefahrenabwehr zu handeln. Aber verteidigende Gewalt ist nur zulässig, wenn die von einer Person ausgehende Bedrohung direkt und unmittelbar ist. Niemand darf heute schon eine Person angreifen, weil er glaubt, dass sie übermorgen einen Angriff auf ihn ausführen wird. Die Bedingungen der direkten und unmittelbaren Bedrohung sind aber bei Drohnen geradezu prinzipiell nicht mehr erfüllt – außer unter Umständen in bestimmten Fällen von Nothilfe.

Im Grunde haben wir es hier mit der klassischen Opposition teleologischer und deontologischer Argumentationsformen zu tun: Viele, die sich in der Debatte zu Wort melden, berufen sich einfach auf unterstellte oder tatsächliche Effekte: weniger Tote, mehr Kriege, weniger getötete Zivilisten, Ausweitung des Kriegsgebiets usw. Bei solchermaßen konsequentialistischen Gegenüberstellungen sind wir ganz auf Prognosen verwiesen. Man kann vom heutigen Standpunkt aus nicht sagen, ob die ferngesteuerten Waffensysteme auf lange Sicht eher günstige oder eher ungünstige Wirkungen haben werden. Das würde vor allem davon abhängen, was wir als „günstige" und „ungünstige" Wirkungen ansehen. Auf jeden Fall reicht es nicht aus zu behaupten, mit Drohnen würde die Zahl der Toten und Verletzten sinken, denn es bleibt nach wie vor die Frage: Warum noch diese Toten, warum noch diese Verletzten? (Diese Frage bleibt jedenfalls für den, der ein grundsätzliches Tötungsverbot annimmt.)

Der vollautomatisierte Tötungsroboter

Das Argument, das besagt, mit den bewaffneten Drohnen werde der Einstieg in eine Technik genommen, die schlussendlich bei vollautomatisierten Tötungsrobotern enden werde, hat in der deutschen Diskussion am längsten überlebt. Von der Form her ist es nicht neu, es handelt sich um ein Dammbruchargument („slippery-slope-argument"). Diese Argumente leben davon, dass der Endzustand am Ende des rutschigen Abhangs einer ist, der uns moralisch als ganz unakzeptabel erscheint. Was ist es also, was an den „autonomen Waffensystemen" so unakzeptabel ist?

Gewöhnlich wird gesagt: Es darf eben nicht sein, dass solche Waffensysteme selber darüber entscheiden, wann und wen sie töten. Zu sagen, ein Roboter oder eine Maschine „entscheidet", ist jedoch streng genommen ziemlicher Unfug. Was es heißt, eine Entscheidung zu treffen, wissen wir aus unserer lebensweltlichen Erfahrung. So ist zum Entscheiden immer ein Zeitverhältnis notwendig, ein Ausgriff auf Zukunft. Entscheiden findet innerhalb eines Horizonts statt, mit Absichten, Zielsetzungen usw. Diese hegt ein Roboter, der einem zugegebenermaßen äußerst komplexen Programm folgt, nicht. Die Gefahr in der ganzen Debatte um künstliche Intelligenz besteht meines Erachtens darin, dass wir angefangen haben, die Prozesse von Maschinen mit Begriffen zu bezeichnen, die wir aus unseren lebensweltlichen Vollzügen kennen – eine Übertragung, die nur mit großen phänomenalen Verlusten möglich ist –, und dass wir dann anfangen, unser eigenes Handeln und Verhalten nach dem Modell der Maschine zu beschreiben und zu bewerten. Das betrifft insbesondere so gewöhnliche Ausdrücke wie „Erkennen", „Entscheiden", „Unterscheiden", „Wollen", „Mögen" etc. Aber was ist das für ein Mögen bei einem Computer? Was ist das für ein Erkennen oder Entscheiden? Und bleibt uns bewusst, dass wir unser Erkennen und Entscheiden nicht nach dem Muster des Computers verstehen dürfen oder sollten?

John Searle hat klar gezeigt, dass Menschen im Gegensatz zu Maschinen um die Bedeutung eines sprachlichen Ausdrucks wissen (jedenfalls latent) und nicht nur um seine funktionale Qualität im Ablauf eines Programms. Aber viele, die für sich einen moralphilosophischen Standpunkt in Anspruch nehmen, wissen heute nicht mehr, was sie mit diesem genuin menschlichen Zugang zur Wirklichkeit anfangen sollen und behandeln menschliches Handeln nach dem Muster von Programmfolgen.

Der Utilitarismus – also die Idee, dass das Handeln immer auf größtmöglichen Nutzen auszurichten sei – ist nicht umsonst zur weithin akzeptieren Legitimationsfolie für alle technologische Innovation geworden, weil er selbst ein technoformes Denk- und Argumentationsmuster vorgibt. Wenn man aber einmal auf eine solches utilitaristisches Argumentationsmuster eingeschwenkt ist – und sowohl Befürworter wie Gegner bewaffneter Drohnen argumentieren mit vermeintlichen und realen Nutzenvor- oder Nutzennachteilen –, dann wird die Sorge vor den sog „autonomen" Systemen unverständlich. Denn im Modell nutzenorientierten Überlegens kann es durchaus sein, dass diese Waffentechniken in Zukunft Effekte hervorbringen, die wir summa summarum als günstige Effekte einstufen oder jedenfalls als Technologien, die günstigere Effekte haben als alle Vergleichstechnologien. Es kann natürlich auch sein, dass das nicht der Fall ist. Aber wir sind wieder im Bereich unsicherer Prognosen, und ein prinzipieller Unterschied zwischen bewaffneten Drohnen und autonomen Waffensystemen ist nicht erkennbar.

Freilich muss man zugeben, dass wir bei den sogenannten autonomen Systemen, in denen der „Operator" nicht mehr „in" oder „on the loop" ist, sondern ganz „out of the loop", einige Wirkungen noch nicht besonders gut abschätzen können. So wissen wir nicht, was passiert, wenn zwei solcher Systeme miteinander interagieren: Kann es unter Umständen dazu kommen, dass sich die Kommunikationsbahnen kreuzen und beide Roboterwaffensysteme wie wild losballern? Vielleicht kann das sein, aber der Utilitarist wird letztlich die Wahrscheinlichkeit, dass so etwas passiert, und die er eben abschätzen muss, in Beziehung setzen zum Nutzen des Einsatzes solcher Systeme. Vielleicht kommt er trotz zugegebener Risiken zum Ergebnis, dass die Risikoabwägung für den Einsatz solcher Systeme spricht. So wie ja auch manche moralphilosophische Autoren im Wissen um die Risiken der Kernenergie diese Energiegewinnungsform dennoch anderen Formen vorziehen.

Es ist trotz allen Bemühungen, autonome Waffensysteme zu verbieten, zu vermuten, dass es zu solchen vollautomatisierten Systemen kommen wird. Die funktionalen Vorteile liegen auf der Hand: Zum einen können solche autonomen Systeme auch dann noch weiterarbeiten, wenn die Datenverbindung zu einem Bediener abgerissen ist – was bei Drohnen eine reale Gefahr darstellt –, zum anderen haben ja die Drohnen unserer Tage eine Datensammel- und Berechnungsfähigkeit, die das, was wir als Menschen leisten können, weit übersteigt. Daher spielt es einfach keine Rolle mehr, ob man als Mensch noch in oder on the loop bleibt. Man kann das am Beispiel von Schachcomputern deutlich machen. Wer als Amateurschachspieler gegen Magnus Carlsen – den gegenwärtigen Schachweltmeister – spielt, ist chancenlos. Was aber, wenn er einen Schachcomputer zu Hilfe näh-me und den Zug zöge, den ihm der Computer vorschlägt – es sei denn, ein Zug passe ihm nicht? Er ist immer noch „on the loop". Aber warum sollte er einen Zug stoppen? Der Computer hat „bessere Gründe", so zu ziehen, wie er es tut, als es seine Gründe sein könnten, ist er ihm doch im Berechnen der Überfülle von potentiellen Möglichkeiten unterlegen. Irgendwann wird der Amateur sagen: Mir scheint, ich muss nicht mehr dabeisitzen; soll doch der Computer gegen Carlsen spielen. Ab jetzt ist der Amateur „out of the loop". Und zwar aus gutem Grund.

Es scheint also ziemlich unplausibel, dass bloß wirkungsbezogenes Denken von der Nutzung sogenannter autonomer Waffensysteme abhalten wird. Aber das ethische Grundproblem, das ich bei den bewaffneten Drohnen benannt habe, das haben wir hier natürlich auch: Was soll es denn rechtfertigen, dass mit solchen Geräten überhaupt Menschen getötet werden, wenn diese Menschen – so unsympathisch sie auch sein und so schlechte Absichten sie auch hegen mögen – doch gar keine Chance haben, etwas anderes als die Maschine mit ihrer Gewalt anzugreifen? Was rechtfertigt das Töten mit so einem Gerät?

Gibt es eine Spezialmoral für Kriege?

Es ist jedenfalls schwierig geworden zu sagen: „Ja, so ist eben Krieg. Da werden eben Menschen aufgrund von äußerlichen Dingen – der Zugehörigkeit zu einer Armee – getötet, ohne dass von ihnen eine unmittelbare Bedrohung ausginge." Krieg hat, so wird von manchen Autoren gesagt, eben seine eigenen moralischen Spielregeln. Diese Position ist aber höchst gefährlich, besteht doch die begründete Sorge, dass das Kriegslegitimationsmuster vergangener Tage zu einer Blaupause für jedes Töten wird, wo immer es gerade opportun erscheint.

Das Beispiel Schachcomputer zeigt, wie funktional leistungsfähig Computer für bestimmte Zwecke sein können. Es erscheint daher ziemlich unplausibel, dass bewaffnete MALE-Drohnen – wie sie jetzt in Deutschland und andernorts angeschafft werden sollen – nur zur Konvoibegleitung eingesetzt werden. Denn in der Kombination von Datensammeln und mit Waffengewalt zuschlagen zeigt sich die große technische Stärke der bewaffneten Drohne. Deshalb sind die von der Politik verbaliter häufig vehement abgelehnten „Targeted Killings" nicht einfach eine verirrte und verfehlte Anwendungsweise von Drohnen durch Staatsorgane der Vereinigten Staaten, sondern das, was Drohnen wirklich gut können. Zur technischen Vollendung gelangen bewaffnete Drohnen mit den sogenannten „Signature Strikes", bei denen Perso-nen auf der Basis eines aus der Luft aufgezeichneten Verhaltensmusters als Gefahrenquelle identifiziert und angegriffen werden.

Kurzum: Wer behauptet, mit den großen bewaffneten MALE-Drohnen würde nur Konvoibegleitung und Close-Air-Support geleistet, kommt ein wenig daher, wie jemand der sagen würde, er habe sich ein iPhone® gekauft, wolle damit aber nur telefonieren, weil er die Nutzung von sogenannten „Apps" für unmoralisch hält. Techniksoziologen haben herausgestellt, dass – locker formuliert – häufig für jemanden, der einen Hammer besitzt, jedes Problem wie ein Nagel aussieht. Analog kann für jemanden, der eine Drohne besitzt, auch jedes Problem schnell als ein solches erscheinen, was durch die Drohne lösbar wird.

Befrieden durch Technik?

„Kriege werden ja um des Friedens willen geführt", sagt Augustinus in De Civitate Dei (XIX 12). Wir können den Satz ausweiten und sagen: Militärische Gewalt wird um des Friedens willen angewendet. Jedenfalls wäre es ja ein recht unbefriedigender Zustand, wenn militärische Gewalt nicht den Frieden, sondern nur ihre eigene Perpetuierung zum Ziel hätte. Aber – das zeigt ein Blick in die Tradition der Friedensethik – Frieden ist nicht gleich Frieden. Es kommt darauf an, welcher Begriff des Friedens zur Grundlage gemacht wird. Der bei den Drohnen verwendete Friedensbegriff erinnert an den, den der Marquis de Posa in Schillers Don Carlos Philipp II. entgegenhält:
„Sie wollen pflanzen für die Ewigkeit, Und säen Tod? Ein so erzwungenes Werk wird seines Schöpfers Geist nicht überdauern." (10. Auftritt).

Was rohe Technik und die von ihr ausgehenden Gewaltmittel können, ist Gegengewalt zum Erliegen bringen, Kontrolle herstellen, vielleicht äußere Ruhe schaffen. Ein Gebiet, das permanent mit technischer Hilfe überwacht wird (z. B. durch Drohnen oder Flugautomaten) und in dem nicht-konformes Verhalten oder Handeln sofort sanktioniert wird durch den Einsatz eines Gewaltmittels, könnte tatsächlich eine recht ruhige Gegend sein – jedenfalls dem äußeren Anschein nach. Der Friede, der da herrscht, ist jedoch ein erzwungener und aufgezwungener Friede, der Menschen nur von ihrer Außenseite – also ihrem äußerlichen Verhalten – her wahrnimmt. Wenn diese Menschen, die unter solchen Bedingungen ständiger Überwachung und Gewaltandrohung leben müssen, nicht gänzlich abgestumpft und selbst zu funktionalen Automaten geworden sind, wird es vermutlich in ihnen gären, und dem äußeren Frieden wird eine innere Kampfbereitschaft entgegenstehen, die jedem qualifizierten Friedensbegriff Hohn spricht.

Wenn wir wollen, dass Menschen wirklich Recht befolgen und nicht einem Rechtsprogramm, also einer Rechtssoftware, folgen, dann müssen wir sie von ihren menschlichen Eigenschaften her, mit ihrem Freiheitsbewusstsein und ihrer Fähigkeit, mit anderen Menschen mitzufühlen, durch andere Menschen beeindruckt und überzeugt zu werden, ernst nehmen. Das heißt, wir müssen ihnen die menschliche Begegnung ermöglichen. Jede Maschine oder jeder Automat spricht sein Gegenüber wieder nur als Maschine oder Automat an. Nur Menschen begegnen einander als Menschen.

Es scheint daher, dass Soldatinnen und Soldaten als Menschen, die menschliche Begegnung ermöglichen, unersetzlich sind, wenn es darum geht, wirklich zu befrieden. Man muss sich also sehr genau überlegen, wo man Soldatinnen und Soldaten wirklich durch militärische Roboter oder ferngesteuerte Technologie ersetzen kann. Natürlich bedeutet das auch, dass dann, wenn Soldatinnen und Soldaten – als „Diener des Friedens", wie im katholischen Bereich in Anlehnung an „Gaudium et Spes" oft gesagt wird – eingesetzt werden, sie sich auch aussetzen müssen. Dieses Aussetzen bedeutet nicht totalen Schutz, sondern fraglos oft und manchmal sogar sehr hohes Risiko um Leib und Leben. Dafür verdienen Soldatinnen und Soldaten auch besondere Anerkennung.
Die Frage, wie weit solche Risiken gehen können, kann man in der Ethik nicht apriori entscheiden. Sicherlich muss es auch Grenzen des Risikos für die Soldatinnen und Soldaten geben. Aber eine Strategie der kompletten Risikovermeidung durch Fernsteuerung und Automatisierung wird es nicht schaffen, zum Gewinnen von hearts and minds zu führen – und sie wird auch von den Soldaten selbst als unbefriedigend empfunden. Etliche Bundeswehrsoldaten erzählen, dass die Frustration im ISAF-Einsatz dann besonders groß war, als sie mit vollgepanzerten Fahrzeugen nur noch langsam durch die Städte gefahren sind, ohne jeglichen Kontakt zur Bevölkerung, einzig und allein als Demonstration, noch vor Ort zu sein, noch (äußere) Kontrolle auszuüben.

Hier beginnt die zentrale ethische Frage: Welche Risiken dürfen und können Soldatinnen und Soldaten überhaupt von sich abwälzen – auf die Technik und – häufig damit einhergehend – auf andere betroffene Personengruppen? Welche Risiken müssen sie übernehmen? Es wird in letzter Zeit oft argumentiert, dass der Staat alles dafür tun muss, dass den Soldatinnen und Soldaten Gefahren erspart bleiben. Das gebiete, so wird gesagt, der Menschenrechts- oder Grundrechtsschutz für die Soldatinnen und Soldaten selbst. Das ist eine nachvollziehbare Argumentation, aber dann dürften Staaten vielleicht nicht einmal mehr Abkommen zum Kulturgüterschutz in bewaffneten Konflikten unterzeichnen, denn auch solche Abkommen können dazu führen, dass Soldatinnen und Soldaten größere Risiken auf sich nehmen müssen, um bloß äußere Gegenstände zu schützen oder vor Zerstörung zu bewahren. Aber wir schützen diese äußeren Gegenstände (historische Gebäude, Kirchen, Moscheen) ja gerade deshalb, weil sich ihre Bedeutung nicht in ihrer Äußerlichkeit erschöpft.

Die Fragen weiten sich aus – so weit, dass es ihnen sogar um unser eigenes Selbstverständnis geht. Gertrud von le Fort erzählt in „Die Letzte am Schafott" vom Schicksal der Karmelitinnen von Compiègne, die 1794 in Paris hingerichtet wurden. Die Erzählperson beschreibt ihren Widerwillen gegen die blanke todbringende Technik, die sich in der Guillotine ausdrückt, mit folgenden Worten:

Man soll das Leben nicht durch die Maschine zermalmen! Indessen gerade dies ist ja das Symbol unseres Schicksals: ah, meine Liebe, die Maschine unterscheidet nichts, sie verantwortet nichts, ihr graust vor nichts, sie rührt nichts, sie stampft gleichmütig nieder, was man ihr bringt, das Edelste und Reinste wie das Verbrecherischste – wahrhaftig, die Maschine ist das würdige Organ des Chaos, gleichsam seine Krone, getragen von der Begeisterung einer seelenlosen Masse, für die es kein göttliches ‚Es werde!' mehr gibt, sondern nur noch das satanische ‚Man vernichte!'".

Die Schlusspointe dieser Novelle klingt hier schon an: Während eine nach der anderen der
Karmelitinnen von Compiègne das Schafott besteigt, singen die Schwestern den Hymnus „Veni Creator Spiritus". Denn in der Technik liegt keine Schöpfung mehr. Die Technik ist hier eine Technik des Vernichtens. Die Schöpfung kommt aus dem Geist, oder sie kommt nicht.

UNSER AUTOR:

Bernhard Koch ist promovierter Philosoph, stellvertretender Direktor des Instituts für Theologie und Frieden in Hamburg und Lehrbeauftragter für Philosophie an der Universität Frankfurt.

Von der Redaktion gekürzte Fassung eines Vortrags auf dem Workshop der Fachdidaktik Philosophie, Universität Paderborn, am 22. April 2016.