Schrift:
Ansicht Home:
Wissenschaft

Ethik und autonomes Fahren

Einer muss sterben - nur wer?

Fahrer oder Kind, Arzt oder Obdachloser, Frau oder Mann? Nur einer kann einen Unfall überleben. Forscher haben Millionen Menschen befragt, wie selbstfahrende Autos künftig entscheiden sollen.

The Moral Machine team

Szenario der Moral Machine

Von
Mittwoch, 24.10.2018   19:08 Uhr

Ein Mann rast auf einen Betonpfeiler zu, die Bremsen seines Autos haben versagt. Eine Kollision würde seinen sicheren Tod bedeuten. Er könnte ausweichen, müsste dann aber ein Kind überfahren, das gerade über die Straße läuft. Wer sollte den Crash Ihrer Meinung nach überleben?

Bislang sind solche Abwägungen in der Praxis kaum möglich. Schließlich hätte der Fahrer nur wenige Sekunden, sich zu entscheiden. Wahrscheinlich würde er überhaupt nicht realisieren, wer da über die Straße läuft. Und selbst wenn: Würde er nicht intuitiv sein eigenes Leben retten statt das eines völlig Fremden?

Intelligente Autos könnten in solchen Situationen neutraler entscheiden. Sie werden voraussichtlich über ausreichend Rechenleistung verfügen, um die Folgen eines Crashs vorherzusagen und die Situation genau zu analysieren. Die Autos würden dann entscheiden, wer leben darf und wer sterben muss. Doch nach welchen Kriterien?

Moralisches Dilemma

Diese Entscheidung müssten weiterhin Menschen treffen, die die Autos programmieren. Ein internationales Forscherteam hat nun analysiert, welche Kriterien am ehesten akzeptiert würden, wie sie im Fachblatt "Nature" berichten. Die Wissenschaftler haben dafür eine riesige, internationale Umfrage ausgewertet.

The Moral Machine team

Szenario der Moral Machine: Wenn es keine richtige Antwort gibt

Die Daten stammen von der frei zugänglichen Online-Plattform Moral Machine, auf der Nutzer verschiedene Szenarien bei Autounfällen durchspielen können - darunter auch das Beispiel mit dem Mann und dem Kind. Mehr über das Experiment lesen Sie hier.

Die Testpersonen können entscheiden, wie sich das autonom fahrende Auto verhalten soll. Laut den Forschern haben bereits Millionen Menschen weltweit an dem Experiment teilgenommen. Insgesamt seien dadurch mehr als 40 Millionen Entscheidungen dokumentiert worden. Repräsentativ ist das Experiment dennoch nicht. Junge Männer waren beispielsweise überproportional häufig vertreten.

"Wir haben uns gefragt, ob es moralische Grundsätze gibt, die weltweit gelten und wollten möglichst viele Daten darüber sammeln", sagt Iyad Rahwan vom Media Lab des Massachusetts Institute of Technology, kurz MIT, dem SPIEGEL. Schließlich gehe es um brisante Fragen. Was ist beispielsweise das geringere Übel: Wenn drei Erwachsene sterben oder zwei Kinder?

Hersteller weichen diesem moralischen Dilemma bisher aus. Sie sind noch zu sehr damit beschäftigt, ein autonom fahrendes Auto überhaupt zur Marktreife zu bringen. Ein weiteres Argument der Autoindustrie: Ist der Straßenverkehr erst in Roboterhand, sollten ohnehin keine Unfälle mehr passieren.

"Ich bin sicher, dass autonom fahrende Autos dazu beitragen können, dass es deutlich weniger Unfälle gibt, doch ausschließen kann man sie wohl nie", sagt Rahwan. Mit ihrer Studie wollten die Forscher deshalb eine Ethik-Debatte provozieren.

Und das gelingt ihnen auch. Denn in den einzelnen Szenarien müssen die Testpersonen nicht nur wählen, ob ein Kind oder ein Greis überleben soll. Es werden auch weitere Informationen über die Betroffenen geliefert: Einige Beteiligte sind beispielsweise dick, andere durchtrainiert. Einige sind obdachlos, andere Ärzte oder Diebe. Einige sind bei Rot über die Straße gelaufen und nur deshalb in Gefahr geraten und wieder andere sind keine Menschen, sondern Hunde oder Katzen.

Die Daten zeigen laut den Forschern mehrere Tendenzen:

"Auch wenn sich die Testpersonen häufig ähnlich entschieden haben, waren wir überrascht, wie viele regionale Unterschiede es gibt", sagt Rahwan. In vielen asiatischen Ländern wurden junge Menschen beispielsweise seltener verschont als Alte. Wahrscheinlich, weil Ältere in diesen Ländern besonders geachtet würden, vermuten die Forscher.

Teilnehmer in Mittel- und Südamerika entschieden sich zudem deutlich häufiger, in das Geschehen einzugreifen, statt auf das Lenken zu verzichten. Das galt jedoch nicht für Probanden aus Deutschland. Eine Übersicht der einzelnen Länder finden Sie hier.

Die Studienergebnisse lassen sich laut den Forschern auch auf andere Bereiche der Künstlichen Intelligenz anwenden. Zum Beispiel, wenn Roboter entscheiden sollen, wen sie nach einem Erdbeben als Erstes retten. "Über solche Fragen müssen wir gesamtgesellschaftlich diskutieren", fordert Rahwan.

Welches Leben ist am wertvollsten?

Andere Forscher warnen vor den möglichen Schlussfolgerungen der Studie, denn hinter jeder Entscheidung steckt die brisante Frage: Welches Leben ist wertvoller?

"Weder aus Spielen noch aus Umfragen kann etwas über die ethische Zulässigkeit von Normen gelernt werden", sagt Armin Grunwald vom Karlsruher Institut für Technologie, der nicht an der Studie beteiligt war. "Ansonsten könnte nach jedem schweren Verbrechen eine Umfrage gemacht werden, die mit ziemlicher Sicherheit für die Einführung der Todesstrafe ausgehen würde."

Die deutsche Ethik-Kommission sieht das ähnlich. In ihrem Bericht "Autonomes und vernetztes Fahren" von 2017 heißt es: "Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt."

Mit Material von dpa

Verwandte Artikel

Mehr im Internet

Artikel

© SPIEGEL ONLINE 2018
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH
TOP