header


  

04 2016

ESSAY Druckversion  |  Schrift: vergrößern verkleinern 

Birnbacher, Dieter und Wolfgang: Automatisiertes Fahren. Ethische Fragen an der Schnittstelle von Technik und Gesellschaft

 

Aus: Heft 4/2016, S. 8-15
 
 
Dilemmasituationen
 
Maschinen sind dem Menschen häufig nicht nur an Kraft und Präzision überlegen, sondern auch an Verlässlichkeit bei der Steuerung komplexer Prozesse und der Fähigkeit, aus eigenen Fehlern zu lernen. Wie Menschen geraten aber auch Maschinen mit einer gewissen Wahrscheinlichkeit in kritische Situationen, in denen sie schwierige Entscheidungen treffen müssen. Ein Beispiel sind Dilemmasituationen, in denen schwere Schädigungen unvermeidbar sind und in denen die Maschine „entscheiden“ muss, wie sie das Ausmaß des Schadens minimiert. Diskutiert wird dieses Problem seit längerem für autonome Waffensysteme: Wie viel an wahrscheinlichem „Kollateralschaden“ an Menschenleben, Verletzungen und Sachschäden ist gerechtfertigt, um ein strategisches Ziel zu erreichen? Wann erfüllt ein Angriff mit autonomen Drohnen den kriegsrechtlichen Grundsatz der Proportionalität? Unumgänglich ist diese Diskussion aber auch für den automatisierten Straßenverkehr: Wie soll sich ein autonomes Fahrzeug in Situationen verhalten, in denen es keine andere Wahl hat als entweder das Risiko einzugehen, mehrere Passanten schwer zu verletzen oder das Risiko, einen oder mehrere der eigenen Insassen zu Schaden kommen zu lassen? Zu den Hoffnungen auf erhöhte Verkehrssicherheit durch automatisiertes Fahren gehört nicht zuletzt auch die Hoffnung, dass automatisierte Fahrzeuge in Situationen, die blitzschnelle Entscheidungen verlangen und Menschen häufig überfordern, verlässlich die ethisch „richtige“ Entscheidung treffen.
 
Der grundlegende Vorzug einer maschinellen Entscheidung gegenüber einer menschlichen Entscheidung „vor Ort“ liegt darin, dass derartige Entscheidungen statt unter Zeit- und Entscheidungsdruck und unter hochgradiger Beteiligung von Emotionen auf einer von unmittelbarem Handlungsdruck entlasteten, rational kontrollierten und allgemeineren Ebene getroffen werden können. Wie sich die Maschine in Konfliktfällen „entscheidet“, entscheiden diejenigen, die das Verhalten der Maschine in hypothetischen Situationen programmieren, letztlich die Instanzen, die über ihre Zulassung für die konkrete Anwendung entscheiden. Zugleich trifft die Entscheider auf dieser höheren Ebene eine weiter gehende Verantwortung. Sie können sich nicht mit Bezug auf die für Konfliktfälle typischen psychischen Belastungsfaktoren von Schuld und Verantwortung freisprechen.
 
Ein Vergleichsfall für eine ähnlich in ethischer Hinsicht sensible Programmierung ist die Regelung der Verteilung von Organtransplantaten. Die Regeln werden auf einer höheren Ebene in ein Computersystem einprogrammiert, das bei Verfügbarkeit eines Organs ausweist, welchem der auf ein Transplantat Wartenden das Organ zugeteilt wird. Sobald der Verteilungsalgorithmus feststeht, „entscheidet“ das System über die Zuteilung autonom. Auch hier sind diejenigen, die über die Regeln auf der höheren Ebene entscheiden, nicht direkt in die Anwendungssituation involviert. Sie entscheiden „ohne Ansehen der Person“ und lassen sich dabei außer von medizinischem Sachverstand und den gesetzlichen Vorgaben von bestimmten allgemeinen Moralvorstellungen leiten. Diese müssen stets erneut auf ihre gesellschaftliche Akzeptanz hin überprüft werden. Eine wesentliche Bedingung dafür ist Transparenz.
 
Bei der Festlegung der ethisch sensiblen Programmierung von automatisierten Fahrzeugen haben Technologie und Öffentlichkeit je ihren besonderen Part zu spielen. Zwischen beiden sollte als Vermittlungsinstanz eine ethische Beratungsinstitution stehen, die zu beide Seiten hin offen ist und den Wandel der technologischen Machbarkeiten mit den sich wandelnden gesellschaftlichen Wertüberzeugungen abgleicht.
 
Was ist zu entscheiden?
 
Eine grundsätzliche Entscheidung, die an der Schnittstelle von Technik und Gesellschaft zu treffen ist: wie viel an Differenzierungsspielräumen den verschiedenen Stakeholdern für die moralische Programmierung vollautomatisierter Fahrzeuge eingeräumt werden sollte. Wie viel an Wahlmöglichkeiten sollten die Hersteller, die Halter und die Nutzer vollautomatisierter Fahrzeuge bei der Programmierung des Verhaltens der Fahrzeuge haben? Wie viel Vereinheitlichung ist notwendig, wie viel Differenzierung erlaubt? Sollte der Wettbewerb unter den Herstellern u. a. auch darauf zielen dürfen, Modelle mit unterschiedlicher Risikocharakteristik anzubieten, um die „Lust am Fahren“ nicht zu kurz kommen zu lassen und unterschiedlich riskante Fahrstile zu ermöglichen? Wie viel „Versklavung“ – auf der Seite der Hersteller wie der Nutzer – unter das Diktat der kollektiven Sicherheit ist verantwortbar?
 
 
Wünschenswert wäre es, den Nutzern ein gewisses Maß an Wahlfreiheit einzuräumen und ähnlich wie bei den bestehenden Verkehrsregelungen lediglich Grenzwerte festzulegen. Dabei müsste aber auch da, wo individuelle Entscheidungsspielräume eingeräumt werden, das übergreifende Ziel der Erhöhung der Sicherheit für alle am Straßenverkehr Beteiligten nicht aus dem Blick geraten. Eine Orientierung der Normen am gegenwärtigen faktischen Fahrverhalten kommt insofern von vornherein nicht in Frage. Immerhin gab es im Jahr 2015 in Deutschland immer noch 3400 Verkehrstote, fünfmal mehr als die Zahl der Opfer von Mord und Totschlag. Dem Ziel der Erhöhung der Sicherheit müssen sich andere Ziele wie (beim Hersteller) eventuelle Wettbewerbsvorteile durch risikoreichere Modelle oder (beim Halter) autonome Wahl von Fahrstil und Risikobereitschaft unterordnen. Neben der Sicherheit der Performanz ist dabei auch an das gesellschaftlich wichtige Gut der Erwartungssicherheit zu denken. Je größer der Spielraum individueller Programmierung, desto weniger absehbar ist das Verhalten des Fahrzeugs für andere Verkehrsteilnehmer. Bereits heute ist ja das Verhalten anderer Verkehrsteilnehmer auf den nicht-geschwindigkeitsbeschränkten deutschen Straßen deutlich weniger berechenbar als im Ausland und das Fahren dadurch insgesamt stärker stressbelastet. Es sollte keine Chance gewährt werden, Wettbewerbsvorteile zu Lasten der Allgemeinheit zu nutzen.
 
Im Einzelnen könnte die Programmierung allerdings Zugeständnisse machen. So sollten Überholmanöver auf übersichtlichen Strecken und bei guter Sicht ebenso zulässig bleiben wie Überschreitungen der vorgeschriebenen Höchstgeschwindigkeit in Gefahrensituationen. Bei ungünstigen Bedingungen wie Nässe und schlechter Sicht müsste die einprogrammierte Geschwindigkeit andererseits deutlich unter den jeweils vorgeschriebenen Höchstgeschwindigkeiten bleiben.
 
Eine andere ebenso grundlegende und sicher nicht unkontroverse Entscheidung ist die Festlegung des Sicherheitsniveaus: Welche Einbußen an anderweitigen Werten dürfen für die Erhöhung der Sicherheit in Kauf genommen werden, etwa durch eine generelle Entschleunigung des Straßenverkehrs? Wo liegt die Grenze, an der der Zugewinn an Sicherheit die Zeitverluste und den volkswirtschaftlichen Schaden nicht mehr aufwiegt? How safe is safe enough? How safe is too safe? Zu erwarten ist, dass diese Grenze nicht so eng gezogen werden wird, dass Autofahren nur noch so defensiv möglich ist, dass sich Schädigungen (an Menschen. Tieren, Sachen) gänzlich ausschließen lassen.
 
Ein Restrisiko wird bleiben. Aufgabe der technischen Seite wäre es, Modellrechnungen zu entwickeln, die der Politik eine fundierte Abwägung der beteiligten Interessen erlauben und sich für eine gesellschaftlich weitgehend konsentierte Lösung zu entscheiden.
 
Hilfreich wäre dabei eine klare Grenzziehung zwischen den Verantwortungssphären. Verantwortlich für die technische Sicherheit sollte wie bisher die Seite der Hersteller und der Zulassungsbehörden sein. Die Hersteller oder Zulassungsbehörden sollten nicht für ein schädigendes Verhalten automatisierter Fahrzeuge haften müssen, das eindeutig nicht auf das Konto nicht eingehaltener technischer Normen geht, sondern sich als Konsequenz übergreifender gesellschaftlicher Entscheidungen ergibt. Zugleich bietet das automatisierte Fahren die Chance, klarer als bisher zwischen den kollektiv vorgegebenen Normen und deren jeweils unterschiedlicher technischer Implementierung eine Trennlinie zu ziehen. Da beim automatisierten Fahren nicht mehr ein individueller Fahrer, sondern ein lediglich statistisch erfassbarer kollektiver Nutzer dem Angebot an technischen Lösungen gegenübersteht, muss sich die technische Umsetzung sehr viel stärker als bisher an gesellschaftlich allgemeinverbindlichen Normen orientieren. Die Gesellschaft regiert nicht mehr nur durch technische Qualitäts- und Sicherheitsnormen in alle diese Komponenten hinein, sondern hat zugleich auch einen wesentlichen Anteil an der Entscheidung über die in das Fahrzeug eingebauten Entscheidungsalgorithmen.
 
Diese Entscheidungsalgorithmen müssen eine Reihe von Bedingungen erfüllen:
 
1. Sie müssen an dem übergreifenden Ziel erhöhter Verkehrssicherheit orientiert sein.
 
2. Sie müssen dem jeweils technisch erreichbaren Niveau der Präzision und Differenziertheit der Situationserkennung angepasst sein.
 
3. Sie müssen für alle Hersteller einheitlich sein.
4. Sie müssen insbesondere da, wo ethische Grundsatzfragen ins Spiel kommen, auf einem breiten gesellschaftlichen Konsens beruhen.
Einheitliche Schnittstellen
 
Zu der ersten Bedingung ist bereits genug gesagt worden. Die zweite sollte selbstverständlich sein: Das Entscheidungsmodul kann nur auf Informationen reagieren, die ihm das Situationserkennungsmodul liefert. Insofern erübrigen sich zumindest bis auf Weiteres die in der einschlägigen Literatur vielfach angestellten Überlegungen, wie weit ein automatisiertes Fahrzeug mit Verkehrsteilnehmern, die eine Gefahrensituation verschuldet haben, anders verfahren sollte als mit Verkehrsteilnehmern, die ohne eigenes Verschulden in eine Gefahrensituation geraten. Es ist nicht zu erwarten, dass das Situationserkennungsmodul in der Lage ist, die dafür notwendigen komplexen normativen Überlegungen anzustellen. Ähnlich gilt für die mögliche Berücksichtigung von Alter, Vulnerabilität oder anderen möglicherweise relevanten individuellen Eigenschaften. Auch die Zahl der möglichen Verletzten bei einem Ausweichmanöver, bei dem das Risiko eines Frontalzusammenstoßes mit einem entgegenkommenden Fahrzeug besteht, könnte nur dann vom Entscheidungsmodul berücksichtigt werden, wenn die Sensoren verlässliche Informationen über die Zahl der Insassen des Gegenfahrzeugs liefern können. (Oder die Zahl der Insassen könnte verpflichtend durch äußere für die Sensoren erkennbare Zeichen angegeben werden.)
 
Die dritte Bedingung erklärt sich vor allem durch die Chancen auf einheitliche Normen für die Prüfung der Module auf Verlässlichkeit und Akzeptabilität ihrer Resultate und den Wegfall einer eigenständigen Gesamtprüfung für jedes individuelle Modell. Eine eindeutige Schnittstelle zwischen den Modulen würde die Qualifizierung erheblich vereinfachen. Der Entscheidungsalgorithmus wie das Situationserkennungsmodul könnte anhand eines breit gestreuten Sets von Simulationsumgebungen jeweils einzeln und unabhängig von den übrigen Modulen geprüft werden.
 
Für den Nachweis der Zulässigkeit würde es genügen, dass die Qualität der Sensordaten, der Situationserkennung und der Steuerung gleich gut oder besser sind als die eines bereits mit dem gleichen Algorithmus qualifizierten Fahrzeugs. Auf den Test des gesamten Systems kann dann verzichtet werden. Dies würde es kleinen Herstellern ermöglichen, Kosten durch den Zukauf einer bereits zertifizierten Auswertungssoftware zu ersparen.
 
An Grenzen stößt die Realisierung einheitlicher Normen allerdings immer dann, wenn sich in verschiedenen Gesellschaften aufgrund nationaler Traditionen deutlich voneinander abweichende Wertsysteme etabliert haben. So werden etwa in der angelsächsischen Welt utilitaristische Aufrechnungen von Menschenleben gegen Menschenleben eher akzeptiert als in Mitteleuropa, wo der Schutz individueller Rechtsgüter und insbesondere des Guts Leben stärker im Vordergrund steht. Die Folge ist, dass die Opferung eines Menschen zur Rettung vieler anderer nach der einen Wertordnung als zulässig oder sogar geboten gilt, während sie nach der anderen als verboten gilt und dieses Urteil möglicherweise sogar besonderen Nachdruck erhält, indem in ihr eine Verletzung der Menschenwürde des Opfers gesehen wird.
 
Auch in diesem Punkt bietet sich ein Vergleich mit der automatisierten Zuteilung von Organtransplantaten an. In die Programmierung des Eurotransplant-Computersystems gehen, teils aufgrund unterschiedlicher rechtlicher Vorgaben, teils aufgrund unterschiedlicher Werthaltungen, u. a. auch nationale Besonderheiten ein. Entsprechend kann man sich vorstellen, dass auch die Programmierung von automatisierten Fahrzeugen Raum für kulturelle und nationale Differenzierungen lässt, gerade auch da, wo die einprogrammierten Regeln moralischer Natur sind. Schließlich beanspruchen zwar alle Moralen für sich jeweils Allgemeingültigkeit, unterscheiden sich aber in Teilen de facto so gravierend, dass dem Anspruch keine entsprechende Realität entspricht. In der Praxis würde eine Differenzierung dieser Art bedeuten, dass die Steuerungssysteme an den Ländergrenzen auf die jeweils geltenden Normen umgestellt werden müssten.
 
Verhalten in kritischen Situationen
 
Wie sollen sich automatisierte Fahrzeuge in Situationen verhalten, in denen Schäden unvermeidlich sind? Während die Autohersteller seit längerem darauf warten, gesagt zu bekommen, welche Konfliktlösungsalgorithmen sie in die Verhaltensprogramme der automatisierten Fahrzeuge einbauen sollen, steht die Debatte darüber, welche Regeln für automatisierte Fahrzeuge verbindlich gemacht werden sollen, noch ganz am Anfang. Klar ist soweit nur, dass es mit einfachen Regeln nicht getan ist und dass nichts daran vorbei führt, der Komplexität der möglichen Konfliktsituationen und der Vielzahl der gegeneinander abzuwägenden Werte durch entsprechend komplexe Entscheidungsalgorithmen gerecht zu werden. Es kann zum Beispiel nicht damit getan sein, den automatisierten Fahrzeugen die Regel einzuprogrammieren, im Fall eines unerwartet in die Fahrbahn tretenden Passanten eine Vollbremsung auszuführen. Unter bestimmten Bedingungen würde vielmehr die Gefährdung des Passanten wesentlich verringert, wenn das Fahrzeug ausweichen und den Passanten umfahren würde.
 
Welche Regeln für Konfliktfälle, die moralische Abwägungen erfordern, in die Entscheidungsmodule automatisierter Fahrzeuge einprogrammiert werden, sollte dabei nicht diktatorisch, sondern so weit wie möglich durch eine gesellschaftliche Konsensbildung nach ausführlicher öffentlicher Diskussion festgelegt werden. Als Katalysator des Diskurses und Vermittlungsinstanz zur Technik empfiehlt sich die Einschaltung einer ethischen Beratungsinstitution. Welche Regeln sich dabei als „relativ optimal“ herausstellen, kann insofern nicht vorweggenommen werden. Eine formale Regel, von der zu erwarten ist, dass sie breite Akzeptanz findet, ist allerdings die der Minimierung der Anwendung entsprechender Regeln: Konfliktsituationen, in denen zwischen hochrangigen Gütern wie Leben und körperliche Unversehrtheit verschiedener Verkehrsteilnehmer abgewogen werden muss, sollten nach Möglichkeit vermieden werden.
 
Als Heuristik für die Festlegung von Entscheidungsnormen kommen dafür zwei methodische Wege in Frage. Der erste ist eine im weitesten Sinne „induktive“ Methode, bei der die Prinzipien der Programmierung aus der Systematisierung intuitiv als moralisch richtig bewerteter Einzelfallurteile gewonnen werden. Eine bekannte Version dieser Vorgehensweise ist das von John Rawls entwickelte „Entscheidungsverfahren für die normative Ethik“ (Rawls, J.: Ein Entscheidungsverfahren für die normative Ethik. In: Dieter Birnbacher/Norbert Hoerster (Hrsg.): Texte zur Ethik. München: dtv, 124-138). In diesem Fall bildet die Programmierung gewissermaßen den moralischen Common sense ab. Der zweite ist die Herleitung der moralisch „richtigen“ Entscheidungen aus einer ausgearbeiteten Ethiktheorie konsequenzialistischer oder deontologischer Art. In diesem Fall folgt die Programmierung einer von mehreren möglichen Theorien, die untereinander sowie mit der Common-sense-Moral große Überschneidungsbereiche aufweisen, aber bei bestimmten Fallkonstellationen – je nach Gewichtung der zugrunde gelegten Prinzipien – zu abweichenden Ergebnissen führen. So würde etwa eine Moral vom konsequenzialistischen Typ der Unterscheidung zwischen aktiver Schädigung und passivem Zu-Schaden-kommen-Lassen kein oder nur geringes Gewicht beimessen, während eine deontologische Theorie diese Unterscheidung als moralisch signifikant bewerten könnte. Falls ein automatisiertes Fahrzeug in eine Notsituation gerät, in dem es keine andere Wahl hat als entweder, wenn es seine Fahrtrichtung beibehält, fünf Passanten durch Anfahren schwer zu verletzen, oder, wenn es die Fahrtrichtung ändert, einen einzelnen anderen Passanten durch Anfahren schwer zu verletzen, könnte eine deontologische Ethiktheorie die Tatsache, dass im ersten Fall die Verletzung des einen Passanten auf eine eigenständige „Handlung“ des Systems (die Richtungsänderung) zurückgeht, als moralisch signifikant bewerten, während das ein konsequenzialistisches System, das lediglich die zu erwartenden Folgen betrachtet, nicht tun und das Anfahren des einzelnen Passanten als die moralisch vertretbarere Alternative auszeichnen würde.
 
An diesem – an die seit längerem in Recht und Ethik diskutierten „Trolley-Fälle“ anknüpfenden – Beispiel zeigt sich allerdings eine systematische Schwäche der Anwendung deontologischer ethischer Theorien auf Maschinen. Einige der von deontologischen Theorien vorgenommenen Gewichtungen – wie die, dass aktive Übelzufügungen grundsätzlich moralisch schwerer wiegen als passive – sind möglicherweise bei menschlichen Akteuren sinnvoll, kaum aber bei automatisierten Prozessen. Bei einer Maschine macht die Rede von einer eigenständigen Intention, die der Körperverletzung bei dem einzelnen Passanten vorangeht (hier die Intention zur gezielten Richtungsänderung), keinen Sinn. Eine Maschine intendiert nichts, sondern folgt den Intentionen ihres Programmierers blind.
 
Insofern scheinen auch die deontologischen Gehalte des in Deutschland geltenden Strafrechts auf die Programmierung automatisierter Fahrzeuge kaum anwendbar. Im deutschen Strafrecht wird zwischen der aktiven schweren Verletzung oder Tötung durch eine Richtungsänderung des Fahrzeugs, um den Tod von Passanten in der Fahrtrichtung des Fahrzeugs zu verhindern, und der schweren Verletzung oder Tötung der Passanten ohne Richtungsänderung eine normative Unterscheidung getroffen. Niemand soll einen anderen Menschen aktiv schwer verletzen oder töten dürfen, um noch so viele andere vor schwerer Verletzung oder Tod zu bewahren. Eine Aufrechnung von Leben ist prinzipiell ausgeschlossen – es sei denn, die an Leib und Leben Geschädigten bilden mit dem Fahrzeug, das sie schädigt, eine „Gefahrengemeinschaft“. Von daher stellt sich die Frage, ob sich diejenige Instanz, die eine Programmierung einbaut oder zulässt, bei der ein automatisiertes Fahrzeug im Konfliktfall seine Richtung so ändert, dass ein Mensch schwer verletzt oder getötet wird, der nicht zu der entsprechenden „Gefahrengemeinschaft“ gehört, wegen schwerer Körperverletzung oder Totschlags strafbar macht. Zwar ist diese Instanz nicht selbst an der Handlung, die die Verletzung oder den Tod des Passanten führt, beteiligt. Aber immerhin bestimmt sie die Steuerung des Fahrzeugs dazu, ein Verhalten zu zeigen, durch das sich ein menschlicher Akteur strafbar machen würde. Da sie weiß, wozu sie die Steuerung bestimmt, handelt sie vorsätzlich. Sie ist der Drahtzieher des Geschehens, gewissermaßen der Hintermann hinter dem die Tat konkret Ausführenden.
 
Es fragt sich allerdings, wie plausibel die Grundsätze sind, denen das Strafrecht in diesem Punkt folgt. Zunächst scheint es in moralischer Hinsicht irrelevant, ob sich die von dem Fahrzeug Bedrohten in der Fahrtrichtung des Autos befinden (in die das Auto fahren würde, wenn niemand eingriffe) oder nicht. Alle potenziell Geschädigten sind in der Regel gleichermaßen „unschuldig“. Aber auch wenn man der strafrechtlichen Differenzierung zwischen aktiver Schädigung und passivem Zu-Schaden-kommen-Lassen zugesteht, dass sie verbreitetem Rechtsgefühl entspricht (der Umlenkende spielt Schicksal, der Nicht-Umlenkende lässt dem Schicksal seinen Lauf), steht diese Begründung Im Fall des automatisierten Fahrens nicht zur Verfügung. Der Programmierer der Steuerung verursacht den Schaden des entsprechenden Passanten zwar nur indirekt, aber doch zwangsläufig aktiv. Gleichgültig, welche Programmierung er vornimmt, er kann gar nichts anderes als „Schicksal spielen“.
 
Repräsentative Ethikansätze aller drei genannten Typen (Rawls' Entscheidungsverfahren, klassischer Utilitarismus, Prima-facie-Pflichten nach W. D. Ross) sind mittlerweile als Computerprogramme implementiert worden, stehen also als Algorithmen prinzipiell zur Verfügung. Das heißt jedoch nicht, dass selbst dann, wenn man sich für eines dieser Modelle entscheiden würde, alle Prinzipienfragen gelöst wären. Eine dieser Fragen betrifft die Gewichtung der in einer möglichen Konfliktsituation betroffenen Güter, etwa der körperlichen Unversehrtheit von Menschen und Tieren. Während Konsens darüber bestehen dürfte, dass die körperliche Unversehrtheit betroffener Menschen ceteris paribus moralisch höher zu gewichten ist als die von Tieren, bleibt offen, welches Risiko ein automatisiertes Fahrzeug etwa im Fall einer Konfrontation mit einem auf der Straße befindlichen Tier eingehen darf. Dürfen oder sollten bei einem Menschen – Passanten oder Insassen – etwa leichte Verletzungen in Kauf genommen werden dürfen, um die Tötung eines Tiers zu verhindern? Hier könnte es durchaus kulturell unterschiedliche Sichtweisen geben. In Indien würde das Anfahren einer auf der Fahrbahn streunenden Kuh möglicherweise strenger beanstandet als in anderen Ländern.
 
Aber auch wenn man sich auf Schädigungen an Leib und Leben von Menschen beschränkt (was angesichts der zunehmenden gesellschaftlichen Sensibilisierung für die Betroffenheit höherer Tiere von vielen nur mit Einschränkungen akzeptiert werden dürfte), stellen sich Fragen, die von den Standardmodellen der Ethik offen gelassen werden. Dazu gehört die Frage, ob im Konfliktfall alle potenziell betroffenen Menschen gleich gewichtet werden oder ob den Insassen des den Schaden verursachenden Fahrzeugs eine Sonderrolle eingeräumt werden soll, etwa weil diese häufig Familienmitglieder des Halters sind und insofern besonderen Schutz verdienen. Wenn ja, müsste das Fahrzeug, wenn sich eine Gefahr nicht anders abwenden lässt, eher andere als die Insassen des Fahrzeugs in Gefahr bringen.
 
Man könnte versucht sein, als Heuristik zur Beantwortung dieser – und anderer kontroverser – Fragen auf das insbesondere durch John Rawls bekannt gewordene Verfahren einer Konsensfindung hinter dem „Schleier des Nichtwissens“ zurückzugreifen: Die Entscheidung wird unter der Voraussetzung gefällt, dass keiner der Entscheidenden weiß, in welcher Rolle er oder sie von den Folgen der Entscheidung betroffen ist. Für diesen Fall muss also jeder unter der Voraussetzung entscheiden, dass er sowohl Insasse des „entscheidenden“ Fahrzeugs, Insasse eines anderen betroffenen Fahrzeugs oder betroffener Passant sein könnte. Aber auch diese – für sich genommen fruchtbare – Heuristik lässt wesentliche Fragen unterbestimmt. Sie verbürgt ein gewisses Maß an Unparteilichkeit, schließt aber nicht aus, dass die Entscheider bestimmte moralische Vorstellungen geltend machen, z. B. eine Neigung dafür, die jeweils Näherstehenden, in diesem Fall die Insassen des jeweils „entscheidenden“ Fahrzeugs gegenüber fremden Betroffenen zu bevorzugen.
 
Eine streng gleichheitsorientierte konsequenzialistische Ethik wie die des Utilitarismus würde dagegen ein Bevorzugen der Insassen ausschließen. Norm wäre in diesem Fall die Minimierung des Erwartungswerts über alle Schädigungsdimensionen und alle Betroffenen ohne Rücksicht auf die Beziehung, in der die Geschädigten zum Schädiger stehen. Die Insassen hätten für den Konflikt- oder Notstandsfall dasselbe Risiko zu tragen wie alle anderen Betroffenen. Kontrovers könnte auch sein, wie das Risiko schwerer gegenüber dem Risiko leichter Verletzungen und beide gegenüber dem Todesrisiko gewichtet werden – eine Frage, die sich allerdings nicht erst für automatisierte Fahrzeuge stellt, sondern durch die rechtlichen und politischen Festlegungen dessen, was als „erlaubtes Risiko“ gilt, explizit oder implizit auch in vielen anderen Bereichen (wie dem Umweltrecht) beantwortet werden muss.
 
Die Akzeptanz des automatisierten Fahrens wird u. a. davon abhängen, wie weit es gelingt, Konsens über diese und andere Gewichtungen zu erzielen, zunächst im Kreis der Experten, dann aber auch in der Allgemeinheit. Auf keinen Fall sollten die moralischen Entscheidungsalgorithmen als undurchdringliche black box zur Anwendung kommen. Die „eingebauten“ Normen sollten möglichst von allen verstanden und geteilt werden. Auch in dieser Hinsicht lässt sich eine übergreifende Norm aus der Diskussion um die Algorithmen der Verteilung von Organtransplantaten auf die moralische Programmierung automatisierter Fahrzeuge übertragen: Wie jeder auf ein Organ Wartender verstehen können sollte, warum nicht er, sondern ein anderer Wartender ein verfügbares Organ zugeteilt bekommt, sollte auch jeder Verkehrsteilnehmer sich Klarheit darüber verschaffen können, warum sich seine automatische Steuerung im Konfliktfall so verhält, wie sie sich verhält. Dazu ist notwendig, dass die Regeln der Programmierung nicht zu komplex sind, um in ihrer Wirkungsweise erfasst und verstanden zu werden und ein gewisses Maß an Erwartungssicherheit zu erlauben.
 
Von daher könnte es sich empfehlen, zumindest als Ausgangspunkt einer an der praktischen Erprobung orientierten iterativen Nachjustierung, zunächst eine relativ simple Regel wie die Regel der Minimierung des Gesamtschadens zugrunde zu legen. Wie erste empirische Untersuchungen zeigen, scheint diese Regel nicht nur mit den Werthaltungen der meisten Menschen gut zusammenzupassen, sie hat neben ihrer Einfachheit auch den Vorzug, dass sie sich am elegantesten mit dem Modell einer Entscheidungsfindung hinter dem „Schleier des Nichtwissens“ begründen lässt – wenn man voraussetzt, dass die Entscheidenden so entscheiden, dass sie je für sich ihren Nutzen maximieren.
 
UNSERE AUTOREN:
 
Dieter Birnbacher ist emeritierter Professor für Philosophie an der Universität Düsseldorf. Wolfgang Birnbacher arbeitet als Entwickler in einem Hamburger Elektronikunternehmen.



Bestellen Sie das Einzelheft oder abonnieren Sie die Zeitschrift.




© Information Philosophie     Impressum     Kontakt