• Schreiben Sie uns!
  • Seite empfehlen
  • Druckansicht

Der Mensch oder die Maschine als Risiko?

Wen soll ein autonomes Fahrzeug im Falle eines Unfalls töten? Eine schwere ethische Frage, wenn es darum geht, dass ein autonomes Fahrzeug entscheiden soll, wessen Tod es bei einem unvermeidlichen Unfall in Kauf nehmen soll. Die eigenen Insassen? Passanten? Andere Verkehrsteilnehmer? Welche? Wenn ein Unfall unvermeidlich ist, soll das autonome Fahrzeug dann eher eine Krankenschwester oder ein Kleinkind töten? Einen Hund eher als eine Ärztin – oder umgekehrt? Am Massachusetts Institute of Technology (MIT) wurde mit dem Projekt „Moral Machine“ versucht, mithilfe von Feedback aus aller Welt festzustellen, welcher grundlegenden Ethik selbstfahrende Autos in Entscheidungsszenarien folgen sollten. Die Antworten zeigten international deutliche regionale Unterschiede in den Präferenzen. Eine eindeutige Antwort scheint also nicht leicht möglich und einem starken regionalen Bias unterworfen zu sein.

Seiten 124 - 129

Dokument Der Mensch oder die Maschine als Risiko?