1. #1
    Avatar von DMW007
    Registriert seit
    15.11.2011
    Beiträge
    6.081
    Thanked 9.119 Times in 2.996 Posts
    Blog Entries
    5

    Standard Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Autonome Autos sind nach dem Sicherheitsgurt wohl die größte Revolution, um Unfälle im Straßenverkehr zu reduzieren: Laut einer Studie lassen sich mit selbstfahrenden Fahrzeugen 90 Prozent aller tödlichen Unfälle verhindern. Die fast 4.000 Verkehrstote pro Jahr könnten damit auf wenige Hundert reduziert werden. Dies belegen auch Zahlen von Tests seitens Google. Ungeklärt ist bislang jedoch, wie die Technik in den restlichen 10 Prozent handeln soll. Vor allem dann, wenn der Schaden nicht mehr vermeidbar ist.

    Das Weichensteller- oder Trolley-Problem

    Bekannt ist in diesem Zusammenhang folgendes Gedankenexperiment: Ein Güterzug rast eine steile Gebirgsstrecke herab, direkt auf einen Bahnhof zu. Im Bahnhof steht ein vollbesetzter Personenzug mit hunderten Menschen. Man selbst ist Bahnwärter, der die Situation bemerkt. Vor dem Bahnhof gibt es eine Weiche, womit der Zug auf ein Nebengleis umgeleitet werden kann. Allerdings arbeiten fünf Gleisarbeiter auf diesem Nebengleis. Wird die Weiche umgestellt, wären die Zuginsassen gerettet, dafür aber die Mitarbeiter tot. Wie würdest du in dieser Situation entscheiden?

    Dürfen Menschenleben aufgewogen werden?

    5 Todesopfer seien doch das geringere Übel als mehrere Hundert - Auf den ersten Blick scheint vielen Menschen die Entscheidung leicht zu fallen. Unbedacht bleibt allerdings die Tatsache, dass damit ein Mensch über Leben und Tod entscheidet. Die US-Philosophin Judith Jarvis Thomson machte 1976 mit einer anderen Situation darauf aufmerksam: Man beobachtet von einer Brücke aus eine Straßenbahn, die außer Kontrolle geraten ist. Fünf Menschen werden von ihr überrollt, wenn nicht gehandelt wird. Auf der Brücke befindet sich ein dicker Mann, der den Zug durch einen Sprung von der Brücke aufhalten könnte. Dabei würde allerdings der dicke Mann getötet. Freiwillig will er nicht springen. Man selbst hat ein Messer und kann den Zug nur stoppen, wenn man damit den dicken Mann tötet, um ihn anschließend herunterzuwerfen. Würdest du jetzt immer noch ein Menschenleben opfern, um mehrere andere Personen zu retten?

    Grundsatzdiskussion bei elektronischen Autos
    Im zweiten Falle dürfte die Entscheidung schwieriger sein, da persönlich ein Mord verübt werden muss. Die Problematik ist in beiden Situationen gleich: Es muss eine Entscheidung getroffen werden, welches Leben geopfert wird. Für autonome Autos muss langfristig definiert werden, wie diese sich in solchen Situationen verhalten: Wird nur das Ergebnis beurteilt (konsequentialistischen Ethik), muss anhand der geringeren Opferzahl entschieden werden. Im Gegensatz dazu steht die deontologische Ethik, bei der moralische Normen im Vordergrund stehen - beispielsweise das Prinzip, nicht über anderes Leben zu richten. Unser Grundgesetz ist in dieser Frage eindeutig: Kein Leben darf über ein anderes gestellt werden.

    Wie würdet ihr in den beiden Situationen (Güterzug und Straßenbahn) entscheiden?
    Wäre die Hemmschwelle für euch bei der Straßenbahn größer, da ihr eigenhändig einen Menschen töten müsstet, statt "nur" einen Hebel umzulegen?
    Nach welchen Grundsätzen sollten selbstfahrende Autos handeln? Rein nach dem Wert für die Gesellschaft (z.B. 5 statt 2 Menschen töten, oder ältere bevorzugt vor jüngeren) oder gar zufällig?


  2. #2
    Avatar von Darkfield
    Registriert seit
    24.04.2013
    Beiträge
    3.047
    Thanked 1.779 Times in 1.268 Posts

    Standard AW: Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Irgend wie erinnert mich diese Bahnhofs-Szenario an den "Kobayashi-Maru-Test" aus Star Trek,
    auch für diesen Test gab es keine eindeutig richtige oder falsche Lösung des Problems!

    Ich antworte mal mit einem Zitat von Mr. Spock:
    „Die Bedürfnisse Vieler sind wichtiger als das Wohl Weniger oder eines Einzelnen."
    Wer die Freiheit aufgibt um Sicherheit zu gewinnen, der wird am Ende beides verlieren. (Benjamin Franklin)
    Die zwei häufigsten Elemente im Universum sind Wasserstoff und Blödheit. (Yonathan Simcha Bamberger)
    Wer schweigt, stimmt nicht immer zu. Er hat nur manchmal keine Lust mit Idioten zu diskutieren. (Albert Einstein)
    Der Weg zur Hölle ist mit guten Vorsätzen gepflastert. (Dante)
    Es gibt Besserwisser, die niemals begreifen, dass man recht haben und ein Idiot sein kann. (Martin Kessel)
    Doofheit ist keine Entschuldigung.

  3. #3
    Avatar von Fritz
    Registriert seit
    18.08.2013
    Beiträge
    2.486
    Thanked 1.395 Times in 882 Posts
    Blog Entries
    1

    Standard AW: Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Mit dem Gedankenspiel, ob man Menschenleben gegeneinander aufwiegen kann, beschäftigte sich die ARD in einer "Gerichtsfiktion". Die gleiche Frage stellt sich bei selbst fahrenden Autos. Rentner oder Kind überfahren? Quelle

    Der Schadensersatz wird in BGB § 249 geregelt.
    "Wer zum Schadensersatz verpflichtet ist, hat den Zustand herzustellen, der bestehen würde, wenn der zum Ersatz verpflichtende Umstand nicht eingetreten wäre." BGB §249, 1

    In diesem Beispiel verursachte ein Autofahrer einen Unfall, trotz Einparkhilfe. Dabei konnte der vermeintliche Unfallverursacher, die Einparkhilfe, nicht für Schadensersatzansprüche herangezogen werden. Da immer jemand da sein muss der die Haftung übernimmt, wird es das allein fahrende Auto nicht geben. Keine Versicherung würde die Deckung für ein selbst fahrendes Auto übernehmen, da die Folgen nicht absehbar sind. Eine Versicherungsgesellschaft hat zwar zugesagt, selbst fahrende Autos versichern zu wollen, allerdings würde zu welchem Tarif nicht erwähnt.

  4. #4
    Avatar von qmiq
    Registriert seit
    10.01.2013
    Beiträge
    456
    Thanked 149 Times in 117 Posts

    Standard AW: Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Aber wieso wird hier das Trolley-Problem überhaupt thematisiert? Das ist doch ein rein "menschliches" Problem, denn der der zur Handlung verpflichtet ist muss dann individuell entscheiden. Mit selbstfahrenden Autos hat das nichts zu tun. Ich weiss nicht wie dort ein ähnliches Problem gehandhabt werden kann, aber da fallen bestimmt mehr Fakten rein als nur Anzahl betroffener Personen. Soll ein Auto ungebremst auf ein vorherfahrendes auffahren oder auf den leicht besuchten Bürgersteig ausweichen? Lassen wir Anzahl Personen mal außen vor, wird doch sicher auch Schwere des Zusammenpralls, Auswirkung auf die Beteiligten berücksichtigt. Rase ich ungebremst über eine Person wird die sicher nicht überleben, wenn ich auf ein anderes Auto fahre habe ich zwar den größeren Schaden, aber der andere Fahrer hat auch Airbags, Sicherheitsgurte etc.

    Daher stellt sich mir nur die Frage, wie werden selbstfahrende Autos Situationen einschätzen, welche Faktoren spielen eine Rolle?

    Wenn die Technik weiter vorschreitet und die Systeme noch besser werden, "alle" Autos selber fahren, dann wird es das Problem sowieso nicht mehr geben. Dann gehören Unfälle der Vergangenheit an. Das sollte das Ziel sein und nicht theoretische Überlegungen ob ein Menschenleben mehr Wert ist als andere. Technik wird das Problem rational angehen und lösen und ich kann mir nicht vorstellen, dass es jemanden gibt der sagt, es wäre die falsche Entscheidung gewesen.
    - But shit, it was 99 cents! -

  5. #5

    Registriert seit
    18.09.2013
    Beiträge
    84
    Thanked 44 Times in 27 Posts

    Standard AW: Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Der Weg des geringeren Übels ist meiner Meinung nach stets der mit den am wenigsten Verletzten/Toten. Darum würde ich sagen, alles was die Unfallrate nach unten schraubt ist ein Fortschritt.
    Wenn ein autonomes Gefährt selber "entscheiden" muss, gibt es für mich nur die eine Lösung: Das Szenario mit den wenigsten Opfern. Vermutlich würde jeder "anständige" Mensch zu dem Schluss kommen, das Gefährt hat den Vorteil, dass es nicht überlegen muss, da es ja für den Ernstfall vorprogrammiert ist. Ich denke, diese Zeitersparnis in Situationen, wo ein Mensch entweder gar keine Zeit hätte zu reagieren oder nicht in der Lage wäre die Situation ethnisch korrekt abzuwiegen, ist ein Fortschritt.

    Ob bei Kindern oder älteren Menschen differenziert werden sollte, ist schwer zu sagen. Ich würde zu einem NEIN tendieren. Ein Leben ist ein Leben. Auch kein Kind kann tödlich erkranken und ältere Menschen werden immer älter. Man kann nie wissen, wer noch länger oder erfüllter leben wird. Ich würde die Entscheidung rein auf Schadensbegrenzung trimmen und auf keine Art und Weise zwischen den möglichen Opfern differenzieren.

  6. The Following 2 Users Say Thank You to vic0 For This Useful Post:

    DotNet (31.07.2017), qmiq (25.07.2017)

  7. #6

    Registriert seit
    03.04.2017
    Beiträge
    19
    Thanked 3 Times in 3 Posts

    Standard AW: Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Ich kann mir im moment so ein Scenario nur vorstellen wenn festgelegten Bahnen dafür gibt.

  8. #7
    Avatar von DotNet
    Registriert seit
    10.06.2015
    Beiträge
    661
    Thanked 316 Times in 185 Posts

    Standard AW: Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Zitat Zitat von vic0 Beitrag anzeigen
    Auch kein Kind kann tödlich erkranken und ältere Menschen werden immer älter.
    Trotzdem hat ein Kind die höhere Lebenserwartung. Der 70-Jährige wird trotz moderner Medizin die 100-Jahre Marke nicht überschreiten, also ~30 Jahre. Der 8-Jährige Junge dagegen wird mit hoher Wahrscheinlichkeit 70, somit noch 62 Jahre. Klar ist es eine schwierige Entscheidung. Aber wenn man schon das geringere Übel in Kauf nimmt, sollte man das in meinen Augen hier auch tun. Der Rentner ist am Lebensende angekommen, wogegen das Kind noch sein gesamtes Leben vor sich hat. Da erscheint es mir auch fairer, dem Kind hier den Vorzug zu gewähren.

    Ich finde es wird dann noch schwieriger, wenn es keine solchen Extremfälle sind. Was machen wir beispielsweise bei einem 14-Jährigen und einem 35-Jährigen, wenn letzterer Vater von mehreren Kindern ist? In dem Fall könnte ich auch nicht mehr einfach sagen, "opfern" wir den älteren... Aber ich finde den Einwand von @vic0 gut, der uns daran erinnert, dass es sich nur um Randfälle handelt. Wahrscheinlich wird es ein Bruchteil eines Prozentes aller Situationen entsprechen, solche Entscheidungen abzuwiegen. Die Mehrheit der Unfälle lässt sich mit selbstfahrenden Autos bereits verhindern. Das dürfte ein sehr großer Fortschritt sein, weil die typisch menschlichen Fehler eben wegfallen. Und selbst wenn noch Menschen fahren, kann ein autonomes Auto das Fehlverhalten anderer Autofahrer viel schneller reagieren und dementsprechend handeln, damit der Unfall unter besten Umständen vermieden wird, oder zumindest abgeschwächt.

    Im Krieg gibt es keine Gewinner, nur Verlierer!

  9. #8
    Avatar von TomatenKetchup
    Registriert seit
    25.06.2013
    Beiträge
    245
    Thanked 167 Times in 56 Posts

    Standard AW: Ethik bei selbstfahrenden Autos: Dürfen Menschenleben aufgewogen werden?

    Sollte es wirklich zu einem solch seltenen Fall kommen, dass es keine Alternative mehr ohne Schaden gibt, muss wohl anhand des Umfangs abgewogen werden. Auch wenn das gegen unser heutiges Grundgesetz ist. Es scheint mir immer noch die vernünftigste Variante zu sein. Zumindest dann, wenn keine Alternative verfügbar ist. Ich finde aber auch, dass solche Sonderfälle nicht die Thematik dominieren sollten. Das wird ja nicht hunderte Male pro Tag der Fall sein. Und grundsätzlich sind die selbstfahrenden Autos schon eine große Verbesserung, weil es wesentlich weniger Unfallopfer gibt.

    Ich frage mich aber, wer die Haftung für die Entscheidungen dieser Technik übernimmt. Stellen wir uns mal folgendes Szenario vor: Ich kaufe mir ein autonomes Auto. Aufgrund eines Fehlers am Auto überfährt dieses Fahrzeug einen Menschen. Wer ist verantwortlich? Ich als Fahrer habe ja überhaupt keinen EInfluss auf die Software. Meistens sind es Black-Boxes, sodass ich selbst als Softwareentwickler nicht prüfen könnte, was die Software macht. Soweit ich weiß, sind solche Fälle aber noch nicht festgelegt. Die Frage ist auch, was mit dem Hersteller passiert, wenn es sich wirklich um einen menschlichen Fehler handelt. Ist er dennoch für zumindest fahrlässige Tötung verantwortbar? Muss er z.B. den Hinterbliebenen Schadensersatz leisten?

Ähnliche Themen

  1. Antworten: 2
    Letzter Beitrag: 23.11.2014, 22:42
  2. Dürfen Schubladen bei Hausdurchsuchung aufgebrochen werden?
    Von ThunderStorm im Forum Recht- und Verbraucherschutz
    Antworten: 7
    Letzter Beitrag: 15.08.2013, 14:15
  3. [Ethik] Fremdes in unserer Umgebung
    Von x BoooM x im Forum Bildung
    Antworten: 1
    Letzter Beitrag: 27.05.2013, 21:50
  4. PC GTA 4 neue Autos?
    Von Joker im Forum Grand Theft Auto
    Antworten: 0
    Letzter Beitrag: 01.04.2012, 22:40
Diese Seite nutzt Cookies, um das Nutzererlebnis zu verbessern. Klicken Sie hier, um das Cookie-Tracking zu deaktivieren.