von Christian Roppelt

Autonomes Fahren und Moralphilosophie - The Moralmachine

Quelle: http://moralmachine.mit.edu/hl/de

Wen darf das selbstfahrende Auto überfahren?

Die weiter voranschreitende Entwicklung der selbstfahrenden Autos wird mit Sicherheit die Fragen klassischer Dilemmata der Moralphilosophie tangieren: Dürfen im Falle einer Fehlfunktion Menschenleben gegeneinander abgewogen werden?

Das Gedankenexperiment: Bei einem selbstfahrenden Auto versagen die Bremsen und es gibt nur zwei Möglichkeiten: Soll es gegen eine Mauer fahren, wodurch die Insassen sterben, oder soll es fünf Fußgänger zu Tode fahren, die gerade die Straße überqueren? Würde es einen Unterschied machen, wenn die Fußgänger Kinder wären? Was würden Sie tun?

Das Trolley-Experiment

Die Frage beruht auf einem philosophischen Gedankenexperiment, das seinen Ursprung im „Straßenbahn-Experiment“ der Philosophin Philippa Foot hat und später von der Philosophin Judith Jarvis Thomson in weiteren Facetten durchgespielt wurde: Ein außer Kontrolle geratener Zug rollt direkt auf fünf Gleisarbeiter zu. Man kann den Tod der Arbeiter nur verhindern, indem eine Weiche gestellt und die Bahn auf ein weiters Gleis gelenkt wird. Doch auf dem anderen Gleis steht auch ein einzelner Arbeiter. Entweder man tut nichts und fünf Menschen sterben oder die Weiche wird umgestellt und ein einzelner Mensch stirbt. Was wäre moralisch richtig? Diese Frage ist nicht neu, sondern eine klassische Grundfrage der Moralphilosophie.

Zwei konkurrierenden klassische Moraltheorien von Kant und Bentham/Mill

Nach dem Utilitarismus Jeremy Benthams (1748-1832) und John Stuart Mills (1806-1873) bemisst sich der moralische Wert einer Handlung allein an dem erwartbaren Ergebnis der Handlung. Handle so, dass das größte Glück für die größte Zahl der Menschen erreicht wird. Kurz gesagt: Ein Toter ist besser als fünf Tote (Konsequenzialismus). Im Gegensatz dazu besteht nach der Pflichtethik Immanuel Kants (1724-1804) der Wert einer Handlung nicht nur im Ergebnis, sondern in der Handlung selbst. Nach Kant sind Lügen, Stehlen oder Töten schlecht, unabhängig davon, wie „gut“ das Ergebnis auch wäre. Solche Grundsätze schützen die Menschenwürde des Einzelnen und dürfen durch keine Kosten-Nutzen-Rechnungen legitimiert werden (deontologische Ethik).

Fazit: Wie würden und sollten wir uns entscheiden?

Wie würden die meisten Menschen entscheiden? Laut der Studie von Iyad Rahwan, Professor am MIT Media Lab und einer der Erfinder der Moralmachine-Website sind die meisten Leute dafür, dass das selbstfahrende Auto sich immer für den geringsten Schaden entscheidet, also konsequenzialistisch und im Sinne des Utilitarismus handelt. Seit 2016 läuft die Studie bereits, fast 40 000 Menschen haben an ihr teilgenommen.

Wie sollten wir uns entscheiden? Im Juni 2017 hat die deutsche Ethikkommission zu selbstfahrenden Autos klare Regeln vorgeschlagen (Abschlussbericht, PDF download). Diese sehen vor, dass "bei unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt ist." Selbstfahrender Autos sollten also blind gegenüber äußerlichen oder innerlichen Merkmalen sein, also klar der Pflichtethik Kants folgen.

The Moralmachine - Selbst herausfinden: Was ist dein moralischer Ansatz?

LINK Moralmachine

Zurück