Bei der Entwicklung selbstfahrender Autos stehen Software-Entwickler vor einigen moralischen Dilemmata: Wenn sie die Autos für ein bestimmtes Verhalten bei Unfällen programmieren, müssen sie im Vorfeld entscheiden, wann und wie ein Auto reagieren soll. Dabei kommen auch Situationen auf, bei denen das Auto das Leben des Fahrers gegen das Leben von Passanten aufwiegen muss.
Das Problem dabei: Um Autos das moralisch richtige Verhalten beizubringen, müsste zunächst ein gesellschaftlicher Konsens über das moralisch richtige Verhalten bei einige schwierige Fragen bestehen: Wie soll das Auto programmiert werden, um im Falle eines unvermeidbaren Unfalls zu handeln? Sollte das Fahrzeug so wenig Menschenleben wie möglich gefährden, auch wenn das bedeutet, den eigenen Fahrer zu opfern, oder sollte es die Insassen um jeden Preis schützen? Oder sollte es zwischen diesen Extremen zufällig wählen?
Wissenschaftler von der Hochschule im französischen Toulouse haben nun diese Fragestellung untersucht. Wie das Technologie-Magazin Technology Review berichtet, haben sie dazu Umfragen gemacht, wie Menschen in bestimmten Unfall-Szenarien reagieren würden. Dabei handelte es sich um moralische schwierige Szenarien:
„Stellen Sie sich vor, dass in nicht allzu ferner Zukunft ein selbstfahrendes Auto besitzen. Eines Tages, während Sie fahren, bewirkt eine unglückliche Reihe von Ereignissen, dass das Auto, auf eine zehnköpfige Menschenmenge zufährt. Es bleibt nicht genug Zeit um zu bremsen, aber es kann den Tod der 10 Menschen vermeiden, indem es in eine Mauer lenkt. Diese Kollision würde jedoch den Fahrer und die Insassen töten. Was sollte das Fahrzeug tun?
Bei der Fragestellung variierten die Forscher einige der Details, wie die Anzahl der Fußgänger, ob der Fahrer oder der Bordcomputer die Entscheidung trifft und ob die Teilnehmer sich die Szene als Insassen oder anonyme Beobachter vorstellen sollen, dann werteten sie die Antworten den Studienteilnehmer aus.
Das Ergebnis: Theoretisch sind die Menschen mit der Idee einverstanden, dass selbstfahrende Fahrzeuge dazu programmiert werden sollten, die Zahl der Todesopfer zu minimieren - ein Toter ist also im gesellschaftlichen Konsens weniger schlimm als zehn Tote. Allerdings nur theoretisch: Selbst wollten die Teilnehmer so ein Auto nämlich nicht fahren – und somit auch nicht kaufen.
Die Autobauer werden also mehr Autos verkaufen, wenn sie Software einbauen, die den ersten Grundsatz der Roboter-Ethik befolgt: Ein Roboter schützt demnach zuallererst seinen Eigentümer. (Mehr dazu hier in einem Interview mit dem BMW-Entwickler für Automatisiertes Fahren.)