header


  

01 2017

Leseprobe    BERICHT Druckversion  |  Schrift: vergrößern verkleinern 

Janina Loh :
Roboterethik. Über eine noch junge Bereichsethik

Aus: Heft 1/2017 S. 20-33
 
 
Was ist Roboterethik?
 
Die Roboterethik ist eine noch junge Bereichsethik. Ihr wird immer wieder vorgeworfen, sie habe keinen spezifischen Gegenstand, da sich Ethik nicht mit Unbelebtem beschäftige (1). Doch selbst wenn sich herausstellen sollte – was zu untersuchen ist –, dass Roboter selbst keine moralischen Handlungssubjekte sein können, ist ihnen ein Platz im moralischen Universum zuzuweisen. Schließlich sind wir gewillt, einer ganzen Reihe von Entitäten einen Wert zuzusprechen – beispielsweise Landschaften, Ökosystemen, Tieren, aber auch Häusern, Autos oder Smartphones. Um was für eine Art von Wert es sich im Falle artifizieller Systeme handelt, bleibt freilich zu diskutieren. Doch wo, wenn nicht in der Ethik wäre der einer solchen Diskussion angemessene Raum?
 
In der Roboterethik wird – vergleichbar der Tierethik – darüber nachgedacht, inwiefern Maschinen Wertträger sind und diskutiert, inwiefern sie als (rudimentäre) moralische Akteure gelten können (2). Sie stellt traditionelle Fragen mit Blick auf neue potenzielle Handlungssubjekte – Roboter – (3), wie etwa: Welche Kompetenzen erachten wir als grundlegend für moralische Akteursfähigkeit? Welche moralische (und andere) Werte sollten wir artifiziellen Systemen implementieren? Auf was für ein moralisches Selbstverständnis lässt es schließen, wenn wir Roboter ‚schlecht‘ behandeln (4)? In welchen Bereichen – Industrie-, Militär-, Medizin-, Altenpflege-, Servicerobotik – wollen wir uns auch zukünftig ausschließlich bzw. in einem signifikanten Ausmaß auf menschliche und nicht auf artifizielle Expertise verlassen?
 
Der Begriff „Roboter“ geht auf das tschechische Wort „robota“ (Arbeit, Frondienst, Zwangsarbeit) zurück und wurde 1920 von dem Künstler Josef Čapek geprägt. Sein Bruder Karel Čapek sprach in dem Theaterstück Rossum’s Universal Robots (1921) von „labori“ für humanoide Apparaturen, die dem Menschen Arbeit abnehmen. Der Stuttgarter Philosophin Catrin Misselhorn zufolge ist ein Roboter eine elektromechanische Maschine, bestehend aus einer Einwicklungseinheit (einem Prozessor), Sensoren, die Informationen über die Welt sammeln sowie einem Effektor oder Aktor, der Signale in mechanische Abläufe übersetzt. Das Verhalten eines Roboters ist oder wirkt zumindest autonom – er kann, anders als ein Computer, in seine Umgebung hinein wirken und auf sie Einfluss nehmen (5).
 
Die zwei Arbeitsfelder der Roboterethik
 
In der Roboterethik unterscheidet man zwei Bereiche. Im einen wird diskutiert, inwiefern Roboter als moral patients zu verstehen sind, also passiv als Träger moralischer Rechte bzw. inwiefern ihnen ein moralischer Wert zukommt. Im anderen Feld geht es um die Frage, inwiefern Roboter moral agents, also aktiv Träger moralischer Pflichten bzw. moralische Handlungssubjekte, sein können (6). Beide Arbeitsbereiche ergänzen einander.
 
Die Gruppe der moral agents ist gegenüber der der moral patients exklusiver; für gewöhnlich zeichnen wir nur Menschen mit Moralfähigkeit im genuinen Sinne aus. Einer ganzen Reihe von Wesen und Dingen wird indes ein moralischer Wert zugeschrieben – zumindest insofern, als diese Entitäten moralisch bedenkenswert sind, wenn ihnen vielleicht auch kein Eigen-, sondern nur ein hoher instrumenteller Wert zuzusprechen ist. Als moralisches Handlungssubjekt ist man zugleich Wertträger – dies gilt allerdings nicht umgekehrt. Die Zuschreibung von moralischen Werten zu Lebewesen und Gegenständen ist abhängig von der jeweils eingenommenen Perspektive. Eine anthropozentrische Position argumentiert beispielsweise dafür, dass nur dem Menschen ein Eigenwert zukommt (7). Der Einbezug von artifiziellen Systemen in den Horizont der mit einem Eigenwert ausgestatteten Dinge könnte eine weitere Perspektive eröffnen, einen „Mathenozentrismus“ (von griech. „matheno“, „lernen“), der all das mit einem Eigenwert bemisst, das in einer spezifischen (noch zu erörternden) Weise gesteuert oder programmiert bzw. lernfähig ist.
 
Im ersten Arbeitsbereich geht es darum, wie mit artifiziellen Systemen, wie mit Robotern umzugehen ist, inwiefern ihnen ein Wert zukommt, selbst wenn man sich darüber einig sein sollte, dass sie selbst nicht zu moralischem Handeln in der Lage sind. Man versteht hier artifizielle Systeme als Werkzeuge oder gar als Ergänzungen des Menschen und arbeitet an Themen wie beispielsweise der Formulierung von Ethikkodizes in Unternehmen (8), der Möglichkeit und Wünschbarkeit von Beziehungen zu und mit Robotern (9), der „Versklavung“ von Robotern (10) oder der Beurteilung des Einsatzes von artifiziellen Systemen zu Therapiezwecken (11). Dabei bleibt die moralische Kompetenz bei den Menschen: Sie entscheiden über die Moral ihrer Geschöpfe und darüber, wer im Falle eines Unfalls Verantwortung trägt.
 
Innerhalb des zweiten Arbeitsfelds, in dem Roboter als moral agents betrachtet werden, wird danach gefragt, inwiefern Roboter zu moralischem Handeln fähig sind und über welche Kompetenzen sie hierfür in welchem Maße verfügen müssen. Dabei geht es um die Zuschreibung von Freiheit als Bedingung für moralisches Handeln, um die dafür notwendigen kognitiven Kompetenzen (Denken, Verstehen, Geist, Intelligenz, Bewusstsein, Wahrnehmung und Kommunikation) aber auch um Empathie und Emotionen.
 
...


Sie wollen den vollständigen Beitrag lesen?
Bestellen Sie das Einzelheft oder abonnieren Sie die Zeitschrift.




© Information Philosophie     Impressum     Kontakt