PhilosophiePhilosophie

Die Roboterethik, befasst sich mit ethischen Fragestellungen, die im Zusammenhang mit Robotern auftreten, z. B. mit der Frage, ob Roboter eine Bedrohung für den Menschen darstellen, ob bestimmte Verwendungen von Robotern problematisch sind (z. B. im Gesundheitswesen oder als "Killerroboter" im Krieg) und wie Roboter gestaltet werden sollten, damit sie "ethisch" handeln (diese letzte Frage wird auch als Maschinenethik bezeichnet).

Das Wort Roboter wurde von dem tschechischer Schriftsteller Karel Čapek (1890 - 1938) in dem Science-Fiction Roman "R.U.R." (1920) geprägt. der Begriff stammt vom tschechischen Wort "robota" ab, das "Arbeit" oder "Zwangsarbeit" bedeutet.
Es handelt sich um eine technische Apparatur (Maschine; von Computerprogrammen gesteuert), die in der Lage ist, eine komplexe Reihe von Handlungen automatisch auszuführen. Roboter können so konstruiert sein, dass sie an menschliche Formen erinnern, aber die meisten Roboter sind aufgabenbezogene Maschinen, bei deren Konstruktion der Schwerpunkt auf strenger Funktionalität und nicht auf ausdrucksvoller Ästhetik liegt.

Menschenähnliche Roboter werden nach heutigem Sprachgebrauch als Androiden bezeichnet, abgeleitet vom altgriechischen andrós ("Mensch) und eîdos ("Ansehen, Gestalt, Beschaffenheit"); also wörtlich "einem Menschen ähnlich"). In menschlichen Lebenszusammenhängen sowie der Entwicklung der Künstlichen Intelligenz (KI), und der Einschätzung das es sich dabei nicht nur um reine Werkzeuge handelt, sondern um Agenten, Begleiter und Avatare, stellt sich die Frage nach einer Einschätzung der ethischen Herausforderungen.

Im Jahr 2004 wurde in Sanremo (Italien) das erste internationale Symposion zur Roboterethik (manchmal auch als "Roboethik" bezeichnet) abgehalten und an dieser Stelle auch von Gianmarco Veruggio (Universität Genua) der Begriff „Roboethics“ geprägt.

Abgrenzung

"Die Roboterethik ist eine noch junge Bereichsethik. Ihr wird immer wieder vorgeworfen, sie habe keinen spezifischen Gegenstand, da sich Ethik nicht mit Unbelebtem beschäftige. [...]
In der Roboterethik wird – vergleichbar der Tierethik – darüber nachgedacht, inwiefern Maschinen Wertträger sind und diskutiert, inwiefern sie als (rudimentäre) moralische Akteure gelten können (2). Sie stellt traditionelle Fragen mit Blick auf neue potenzielle Handlungssubjekte – Roboter – (3), wie etwa: Welche Kompetenzen erachten wir als grundlegend für moralische Akteursfähigkeit? Welche moralische (und andere) Werte sollten wir artifiziellen Systemen implementieren? Auf was für ein moralisches Selbstverständnis lässt es schließen, wenn wir Roboter ‚schlecht‘ behandeln (4)? In welchen Bereichen – Industrie-, Militär-, Medizin-, Altenpflege-, Servicerobotik – wollen wir uns auch zukünftig ausschließlich bzw. in einem signifikanten Ausmaß auf menschliche und nicht auf artifizielle Expertise verlassen?

In der Roboterethik unterscheidet man zwei Bereiche. Im einen wird diskutiert, inwiefern Roboter als moral patients zu verstehen sind, also passiv als Träger moralischer Rechte bzw. inwiefern ihnen ein moralischer Wert zukommt. Im anderen Feld geht es um die Frage, inwiefern Roboter moral agents, also aktiv Träger moralischer Pflichten bzw. moralische Handlungssubjekte, sein können (6). Beide Arbeitsbereiche ergänzen einander.

Die Gruppe der moral agents ist gegenüber der der moral patients exklusiver; für gewöhnlich zeichnen wir nur Menschen mit Moralfähigkeit im genuinen Sinne aus. Einer ganzen Reihe von Wesen und Dingen wird indes ein moralischer Wert zugeschrieben – zumindest insofern, als diese Entitäten moralisch bedenkenswert sind, wenn ihnen vielleicht auch kein Eigen-, sondern nur ein hoher instrumenteller Wert zuzusprechen ist. Als moralisches Handlungssubjekt ist man zugleich Wertträger – dies gilt allerdings nicht umgekehrt. Die Zuschreibung von moralischen Werten zu Lebewesen und Gegenständen ist abhängig von der jeweils eingenommenen Perspektive. Eine anthropozentrische Position argumentiert beispielsweise dafür, dass nur dem Menschen ein Eigenwert zukommt (7). Der Einbezug von artifiziellen Systemen in den Horizont der mit einem Eigenwert ausgestatteten Dinge könnte eine weitere Perspektive eröffnen, einen „Mathenozentrismus“ (von griech. „matheno“, „lernen“), der all das mit einem Eigenwert bemisst, das in einer spezifischen (noch zu erörternden) Weise gesteuert oder programmiert bzw. lernfähig ist."
Quelle: Janina Loh: "Roboterethik. Über eine noch junge Bereichsethik"; Link siehe unter Literatur

Grundsätze

Da es sich bei der Roboethik vor allem um eine am Menschen orientierte Ethik handelt, muss sie die wichtigsten und allgemein anerkannten Grundsätze der "Allgemeinen Erklärung der Menschenrechte" respektieren:

Viele der ethischen Probleme, die sich aus der zweiten und dritten industriellen Revolution ergeben, sind auch in der Robotik mit anderen Wissenschafts- und Technologiebereichen identisch. Dazu gehören:

Robotergesetze

Einige der Diskussionen, auf die sich die Ethik konzentriert, beziehen sich auf das, was nicht biologischen Ursprungs ist, und dessen potenzielle „Spiritualität“ sowie zumindest teilweise „Autonomie“.
Eine der ersten Veröffentlichungen, die sich direkt mit der Roboterethik befasste und die Grundlagen dafür legte, war „Runaround“ (1942; erschienen 1950 in der Sammlung "I, Robot"), eine Science-Fiction Kurzgeschichte von Isaac Asimov, in der er seine bekannten "Drei Gesetze der Robotik" als „Grundregeln des Roboterdienstes“ vorstellte.

Die Asimov’schen Gesetze lauten:

  1. Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Zu beachten ist, dass die Gesetze hierarchisch aufgebaut sind. Sie bilden den Hintergrund der in "Ich, der Robot" (1950) gesammelten Science-Fiction-Erzählungen und prägen seither die Auffassung, was und wie ein Roboter sein sollte.

Asimov fügte 1986 ein "Nulltes Gesetz" hinzu - so genannt, um das Muster fortzusetzen, bei dem Gesetze mit niedrigeren Nummern die Gesetze mit höheren Nummern ersetzen.

Ein Roboter darf die Menschheit nicht verletzen oder durch Untätigkeit zulassen, dass die Menschheit zu Schaden kommt.

Die von Asimov beschriebenen künstlichen Lebensformen sind in ihrem Verhalten und ihren Entscheidungen an diese Gesetze gebunden.

Dem Thema wurden auch im Star Trek Universum einige Episoden gewidmet, zum Beispiel:

"Wem gehört Data?" (The Measure Of A Man, 1989).
Ein Wissenschaftler der Föderation will den Androiden Data auseinandernehmen, um seine Funktionsweise, insbesondere die seines positronischen Gehirns, genauer zu analysieren. Vor einem Gericht wird die Frage verhandelt, ob Data sich für das Vorhaben zur Verfügung stellen muss, oder es ablehnen kann. Der Richterspruch lautet:
"Es sitzt da und schaut mich an, und ich weiß nicht, was es ist. In diesem Fall geht es um Metaphysik, um Fragen, die man am besten Heiligen und Philosophen überlässt. Ich bin weder kompetent noch qualifiziert, diese zu beantworten. Ich muss eine Entscheidung treffen und versuchen, in die Zukunft zu sprechen. Ist Data eine Maschine? Ja. Ist er Eigentum der Sternenflotte? Nein. Wir tanzen alle um die grundlegende Frage herum. Hat Data eine Seele? Ich weiß nicht, ob er eine hat. Ich weiß nicht, ob ich eine habe. Aber ich muss ihm die Freiheit lassen, diese Frage selbst zu erforschen. Dieses Gericht hat entschieden, dass Lieutenant Commander Data die Freiheit hat, zu wählen."

"Die Veröffentlichung" (Author, Author (Wikipedia), 2001).
Der "Doktor" hat einen Roman geschrieben, der von seinem Verleger vorzeitig veröffentlicht wurde. Vor Gericht soll nun die Frage geklärt werden, ob der Doktor als Hologramm dieselben Rechte hat wie ein menschlicher Schriftsteller (und vom Verlag verlangen kann, den Roman aus dem Verkehr zu ziehen). Der Schiedsspruch lautet:
"Der Doktor weist viele der Eigenschaften auf, die wir mit einem Menschen verbinden. Intelligenz, Kreativität, Ehrgeiz, sogar Fehlbarkeit, aber sind diese Eigenschaften real oder ist der Doctor lediglich darauf programmiert, sie zu simulieren? Um ehrlich zu sein, ich weiß es nicht. Irgendwann werden wir uns entscheiden müssen, denn die Frage der holografischen Rechte wird nicht verschwinden, aber zum jetzigen Zeitpunkt bin ich nicht bereit zu entscheiden, dass der Doctor eine Person im Sinne des Gesetzes ist. Es ist jedoch offensichtlich, dass er kein gewöhnliches Hologramm ist, und obwohl ich nicht mit Sicherheit sagen kann, dass er eine Person ist, bin ich bereit, die rechtliche Definition des Begriffs "Künstler" auf den Doctor auszuweiten. Ich entscheide daher, dass er das Recht hat, seine Arbeit zu kontrollieren, und ich ordne an, dass alle Kopien seiner Holo-Romane sofort zurückgerufen werden."

Autonomie

Die rasanten Entwicklung von selbstfahrenden Autos hat eine Diskussion über die Ethik, Moral und Rechtlichkeit des autonomen Fahrens ausgelöst:
Wer sollte bei einem Unfall, der durch ein Versagen einzelner technischer Kompetenten verursacht wurde, verantwortlich gemacht werden? Die Entwicklungsabteilung des autonomen Fahrsystems oder z.B. der Sensorlieferant?

In einer Situation, in der eine Kollision unvermeidlich ist, aber mehrere Alternativen zur "Auswahl" stehen, muss eine Entscheidung gefällt werden, wem Schaden zugefügt wird. Dadurch wird das autonome Fahrsystem (und seine Programmierer) vor noch schwerwiegendere ethische Dilemmata gestellt. So muss sich das Auto etwa "fragen", ob dem Schutz des Lebens der Passagiere oder der Fußgänger Vorrang eingeräumt werden soll, ob Motorradfahrer mit oder ohne Helm vorrangig angefahren werden sollen, ob mehr Leben geschützt werden sollen usw.

Literatur