header


  

04 2016

Leseprobe    ESSAY Druckversion  |  Schrift: vergrößern verkleinern 

Birnbacher, Dieter und Wolfgang: Automatisiertes Fahren. Ethische Fragen an der Schnittstelle von Technik und Gesellschaft

 

Aus: Heft 4/2016, S. 8-15
 
 
Dilemmasituationen
 
Maschinen sind dem Menschen häufig nicht nur an Kraft und Präzision überlegen, sondern auch an Verlässlichkeit bei der Steuerung komplexer Prozesse und der Fähigkeit, aus eigenen Fehlern zu lernen. Wie Menschen geraten aber auch Maschinen mit einer gewissen Wahrscheinlichkeit in kritische Situationen, in denen sie schwierige Entscheidungen treffen müssen. Ein Beispiel sind Dilemmasituationen, in denen schwere Schädigungen unvermeidbar sind und in denen die Maschine „entscheiden“ muss, wie sie das Ausmaß des Schadens minimiert. Diskutiert wird dieses Problem seit längerem für autonome Waffensysteme: Wie viel an wahrscheinlichem „Kollateralschaden“ an Menschenleben, Verletzungen und Sachschäden ist gerechtfertigt, um ein strategisches Ziel zu erreichen? Wann erfüllt ein Angriff mit autonomen Drohnen den kriegsrechtlichen Grundsatz der Proportionalität? Unumgänglich ist diese Diskussion aber auch für den automatisierten Straßenverkehr: Wie soll sich ein autonomes Fahrzeug in Situationen verhalten, in denen es keine andere Wahl hat als entweder das Risiko einzugehen, mehrere Passanten schwer zu verletzen oder das Risiko, einen oder mehrere der eigenen Insassen zu Schaden kommen zu lassen? Zu den Hoffnungen auf erhöhte Verkehrssicherheit durch automatisiertes Fahren gehört nicht zuletzt auch die Hoffnung, dass automatisierte Fahrzeuge in Situationen, die blitzschnelle Entscheidungen verlangen und Menschen häufig überfordern, verlässlich die ethisch „richtige“ Entscheidung treffen.
 
Der grundlegende Vorzug einer maschinellen Entscheidung gegenüber einer menschlichen Entscheidung „vor Ort“ liegt darin, dass derartige Entscheidungen statt unter Zeit- und Entscheidungsdruck und unter hochgradiger Beteiligung von Emotionen auf einer von unmittelbarem Handlungsdruck entlasteten, rational kontrollierten und allgemeineren Ebene getroffen werden können. Wie sich die Maschine in Konfliktfällen „entscheidet“, entscheiden diejenigen, die das Verhalten der Maschine in hypothetischen Situationen programmieren, letztlich die Instanzen, die über ihre Zulassung für die konkrete Anwendung entscheiden. Zugleich trifft die Entscheider auf dieser höheren Ebene eine weiter gehende Verantwortung. Sie können sich nicht mit Bezug auf die für Konfliktfälle typischen psychischen Belastungsfaktoren von Schuld und Verantwortung freisprechen.
 
Ein Vergleichsfall für eine ähnlich in ethischer Hinsicht sensible Programmierung ist die Regelung der Verteilung von Organtransplantaten. Die Regeln werden auf einer höheren Ebene in ein Computersystem einprogrammiert, das bei Verfügbarkeit eines Organs ausweist, welchem der auf ein Transplantat Wartenden das Organ zugeteilt wird. Sobald der Verteilungsalgorithmus feststeht, „entscheidet“ das System über die Zuteilung autonom. Auch hier sind diejenigen, die über die Regeln auf der höheren Ebene entscheiden, nicht direkt in die Anwendungssituation involviert. Sie entscheiden „ohne Ansehen der Person“ und lassen sich dabei außer von medizinischem Sachverstand und den gesetzlichen Vorgaben von bestimmten allgemeinen Moralvorstellungen leiten. Diese müssen stets erneut auf ihre gesellschaftliche Akzeptanz hin überprüft werden. Eine wesentliche Bedingung dafür ist Transparenz.
 
Bei der Festlegung der ethisch sensiblen Programmierung von automatisierten Fahrzeugen haben Technologie und Öffentlichkeit je ihren besonderen Part zu spielen. Zwischen beiden sollte als Vermittlungsinstanz eine ethische Beratungsinstitution stehen, die zu beide Seiten hin offen ist und den Wandel der technologischen Machbarkeiten mit den sich wandelnden gesellschaftlichen Wertüberzeugungen abgleicht.
 
Was ist zu entscheiden?
 
Eine grundsätzliche Entscheidung, die an der Schnittstelle von Technik und Gesellschaft zu treffen ist: wie viel an Differenzierungsspielräumen den verschiedenen Stakeholdern für die moralische Programmierung vollautomatisierter Fahrzeuge eingeräumt werden sollte. Wie viel an Wahlmöglichkeiten sollten die Hersteller, die Halter und die Nutzer vollautomatisierter Fahrzeuge bei der Programmierung des Verhaltens der Fahrzeuge haben? Wie viel Vereinheitlichung ist notwendig, wie viel Differenzierung erlaubt? Sollte der Wettbewerb unter den Herstellern u. a. auch darauf zielen dürfen, Modelle mit unterschiedlicher Risikocharakteristik anzubieten, um die „Lust am Fahren“ nicht zu kurz kommen zu lassen und unterschiedlich riskante Fahrstile zu ermöglichen? Wie viel „Versklavung“ – auf der Seite der Hersteller wie der Nutzer – unter das Diktat der kollektiven Sicherheit ist verantwortbar?
 
...


Sie wollen den vollständigen Beitrag lesen?
Bestellen Sie das Einzelheft oder abonnieren Sie die Zeitschrift.




© Information Philosophie     Impressum     Kontakt