Schrift:
Ansicht Home:
Auto

Selbstfahrende Autos

"Menschen so schnell wie möglich aus dem Verkehr ziehen"

Soll ein selbstfahrendes Auto im Zweifelsfall lieber eine Mutter mit Kind überfahren oder den Passagier gefährden? Solche ethischen Fragen hindern Hersteller nur am Fortschritt, finden zwei Wissenschaftler.

Daimler

Autonom fahrender Konzeptwagen F015 von Mercedes

Ein Interview von
Mittwoch, 11.10.2017   17:59 Uhr

SPIEGEL ONLINE: Frau Loh, Herr Herrmann, Sie beklagen, dass die Debatte über selbstfahrende Autos derzeit in eine falsche Richtung läuft. Was genau stört Sie?

Janina Loh: Dass zu viel über das sogenannte Trolley-Problem diskutiert wird, also über die von der Philosophin Philippa Foot aufgeworfene Frage, ob man bei der Rettung von Menschenleben abwägen kann. Es geht dabei um die Moral von selbstfahrenden Autos: Man fährt zu dritt auf einer Straße, rechts befindet sich ein Abgrund, links läuft ein älterer Herr. Plötzlich taucht eine junge Mutter mit Kinderwagen auf der Fahrbahn auf. Der Wagen soll nun entscheiden, ob er die Frau mit Kind überfährt oder nach links oder rechts ausweicht, ebenfalls mit fatalen Folgen. Sich nur über solche Szenarien den Kopf zu zerbrechen, hemmt den Fortschritt.

Zur Person

Dr. Janina Loh, Jahrgang 1984, ist Universitätsassistentin im Bereich Technik- und Medienphilosophie an der Universität Wien. Sie arbeitet an einer "Einführung in die Roboterethik" (Suhrkamp)

Professor Dr. Andreas Herrmann, Jahrgang 1964, ist Direktor des Instituts für Customer Insight an der Universität St. Gallen und des Audi Lab for Market Research. Er berät verschiedene Autohersteller. 2018 erscheint sein Buch "Autonomous Driving: How the Driverless Revolution will Change the World" (Emerald Publishing Limited)

SPIEGEL ONLINE: Warum?

Loh: Weil man mittlerweile den Eindruck hat, dass das Trolley-Problem für die Weiterentwicklung selbstfahrender Autos unbedingt gelöst werden muss. Aber das ist nun mal kein Rätsel, für das es eine korrekte Lösung gibt. Es ist ein Gedankenexperiment, auf das sich verschiedene Ethiken anwenden lassen, von denen aber keine letztgültig ist.

SPIEGEL ONLINE: Können Sie Beispiele nennen?

Loh: Man kann einen utilitaristischen Zugang wählen, also eine Lösung, bei der möglichst wenige Menschen zu Schaden kommen. In dem beschriebenen Szenario würde dann der ältere Herr zugunsten der jungen Mutter mit Kind und den Leben der Pkw-Insassen geopfert werden. Dieser Ansatz verstößt jedoch gegen das Prinzip der Menschenwürde, der zufolge einzelne Leben nicht gegeneinander aufsummiert werden dürfen.

SPIEGEL ONLINE: Ein unlösbares Dilemma?

Loh: Na ja, theoretisch könnte man verschiedene Selbstfahr-Modi anbieten: Einen egoistischen, den "e-drive", und einen altruistischen, den "a-drive". Im "a-drive" würde das Auto immer auf Kosten der Insassen einen Unfall vermeiden, im "e-drive" nicht. Ein Modus, der grundsätzlich das eigene Leben schützt, ist schon rein rechtlich ausgeschlossen. Diese Überlegung geht auf die Wissenschaftler Martin Kolmar und Martin Booms zurück. Ich könnte mir außerdem vorstellen, dass man die Ethik des Autos auswählt, indem man vorher einen Fragebogen ausfüllt. Anhand der Antworten führt der Wagen dann im Ernstfall das entsprechende Manöver aus - natürlich ebenfalls im Rahmen der bestehenden Gesetze. Aber das sind theoretische Überlegungen.

Andreas Herrmann: Genau, denn in der Praxis lässt sich das ja schwer umsetzen. Es gibt einfach zu viele Unfallszenarien; man kann nicht für jede Situation die jeweils unterschiedliche Ethik des Autos programmieren. Außerdem stellt sich die Frage, wer die Reaktion des Systems festlegt: Soll der Programmierer entscheiden, wohin der Wagen steuert? Oder soll das eine Ethikkommission festlegen? Darüber lässt sich ewig streiten. Und genau deshalb brauchen wir einen pragmatischeren Zugang zu dem Thema.

Renault

Renault Symbioz: Studie einer selbstfahrenden Limousine

SPIEGEL ONLINE: Wie könnte der aussehen?

Herrmann: Ich favorisiere hier die einfachste aller Varianten: Kommt dem selbstfahrenden Auto ein Hindernis in die Quere, versucht es, eine Kollision durch starkes Abbremsen zu verhindern. Gleichzeitig sucht es nach einem Freiraum für ein Ausweichmanöver. Ist der nicht vorhanden und reicht die Vollbremsung nicht aus, muss der Zusammenprall mit dem Hindernis in Kauf genommen werden. Nach dieser Logik funktionieren meines Wissens derzeit auch die Testfahrtzeuge der Hersteller.

SPIEGEL ONLINE: Warum halten Sie das für die beste Lösung?

Herrmann: Weil das für die Menschen nachvollziehbar ist. Außerdem können schon durch dieses Verhalten die meisten Unfälle vermieden werden, da sind sich fast alle Experten einig. Die Maschine ist dem Fahrer überlegen, sie lässt ich nicht ablenken und reagiert viel schneller. Es wird Unglücke mit selbstfahrenden Autos geben, das ist leider unvermeidbar. Aber insgesamt wird die Zahl der Unfälle so stark sinken, dass die Technologie akzeptiert wird.

Loh: Ich stimme Herrn Herrmann zu - trotzdem sollte bei der Ausbildung von Informatikern und Ingenieuren das moralische Bewusstsein stärker geschärft werden. Daran mangelt es oft noch.

SPIEGEL ONLINE: Wie kommen Sie darauf?

Loh: Aus eigener Erfahrung. Ich habe mehrere Vorträge über die Verantwortungszuschreibung bei der Mensch-Maschine-Interaktion vor Ingenieuren und Informatikern gehalten: Bei den Zuhörern herrschte meistens die Haltung, dass Algorithmen und Computertechnologien wertneutral seien und es nur um Einsen und Nullen ginge. Aber das stimmt nicht. Es wird immer eine gewisse Moral eingebaut, das ist ja unvermeidbar und auch überhaupt nicht schlimm. Man sollte sich dessen nur bewusst sein.

VW

VW Sedric: Prototyp eines Robotertaxis von VW

SPIEGEL ONLINE: Viele Hersteller setzen bei autonomen Autos auf selbstlernende Algorithmen: Die Programme sammeln mit jeder Fahrsituation mehr Erfahrung und entwickeln sich von allein weiter. Wie groß sehen Sie die Gefahr, dass das Fahrzeug dadurch unberechenbar wird?

Herrmann: Zunächst einmal sorgen die selbstlernenden Algorithmen ja dafür, dass sich die Programme ständig verbessern. Das betrifft zum Beispiel die Erkennung von Verkehrsschildern und die daraus abgeleiteten Fahrmanöver. Es ist tatsächlich so, dass die Algorithmen dadurch ein Eigenleben entwickeln, aber nur bis zu einem gewissen Grad. Die wichtigsten Funktionen und Entscheidungen des Systems sind fest einprogrammiert und können nicht von der Maschine selbst überschrieben werden.

SPIEGEL ONLINE: Werden die Hersteller damit auch das Versicherungsrisiko übernehmen?

Herrmann: Davon bin ich überzeugt. Wenn die Maschine übernimmt, ist der Mensch aus der Haftung raus. Alle anderen Lösungen würden zu einer massiven Verunsicherung bei den Kunden führen, das werden die Hersteller vermeiden wollen. Aber wenn man das Potenzial von selbstfahrenden Autos betrachtet, wird es viel seltener als heute zu Schadensfällen kommen: 94 Prozent der Verkehrsunfälle gehen auf menschliches Versagen zurück.

SPIEGEL ONLINE: Sollte die Technologie für autonome Fahrzeuge irgendwann mal ausgereift sein, kann das eigentlich nur eine Konsequenz haben: Glauben Sie, dem Menschen wird das selbstständige Autofahren dann verboten?

Herrmann: Mit Blick auf die Unfallstatistik müsste man sagen: Den Menschen so schnell wie möglich aus dem Verkehr ziehen! Aber natürlich sehe ich da auch ein Problem, schließlich ist der Mensch - vor allem der Mann - davon überzeugt, toll Auto fahren zu können. Deshalb wird es wohl darauf hinauslaufen, dass man in bestimmten Fahrsituationen immer das Steuer übernehmen darf. Selbst dann werden die Assistenzsysteme dafür sorgen, dass weniger Unfälle passieren.

Loh: Mit den selbstfahrenden Autos wird sich aber bestimmt auch die Verkehrsführung und die Stadtplanung radikal verändern. Vielleicht nicht in den nächsten zehn oder 20 Jahren, aber irgendwann wird eigenständiges Autofahren gar nicht mehr attraktiv sein.

AUDI AG

Interieur der Audi-Studie Aicon

SPIEGEL ONLINE: Was bedeutet das für die traditionellen Hersteller in Deutschland?

Herrmann: Unternehmen wie Audi und Mercedes sind schon sehr weit, was die Entwicklung von selbstfahrenden Autos angeht. Aber grundsätzlich verbirgt sich in der neuen Technologie ein Riesenproblem für die deutsche Industrie: Sie ist berühmt für ihr Know-how bei Getrieben und Verbrennungsmotoren. Beides wird in Zukunft aber nicht so gefragt sein wie in den vergangenen hundert Jahren. Unternehmen in der IT-Branche, zum Beispiel Google oder Apple, steigen direkt mit der Entwicklung von Software für autonome Fahrzeuge in den Markt ein - ohne dabei Rücksicht auf bestehende Geschäftsfelder nehmen zu müssen. Kurz gesagt: Der Erfolg der Vergangenheit der deutschen Automobilindustrie ist eine Bürde für die Zukunft.

insgesamt 156 Beiträge
larsmach 11.10.2017
1. Gar nicht erst zu schnell durch die Stadt
Ein korrekt funktionierendes Auto würde - wie ein korrekt funktionierender Fahrer - gar nicht erst zu schnell vor einer uneinsehbaren Kurve oder Situation unterwegs sein; es ist sowohl Programmierern wie Autofahrern klar, dass [...]
Ein korrekt funktionierendes Auto würde - wie ein korrekt funktionierender Fahrer - gar nicht erst zu schnell vor einer uneinsehbaren Kurve oder Situation unterwegs sein; es ist sowohl Programmierern wie Autofahrern klar, dass Bremsen oder starkes Herunterbremsen vor einem Aufprall dann nicht mehr möglich ist. Daher krankt die Diskussion oft an Szenarien, die allein schon gar nicht oder nur selten auftreten können, wenn automatisch gesteuerte Fahrzeuge jemals unterwegs sein werden. Ein solches Auto fährt eben nicht zu schnell durch eine Autobahnauffahrt, um in ein dort liegengebliebenes Fahrzeug zu krachen usw..
j.ogniewski 11.10.2017
2. Was die Herren vergessen...
Das auch Machinen Fehler machen, die kein Mensch machen würde, d.h. statt menschlichem Vesagens hätten wir dann maschinelles Versagen, und die Unfallstatistik wird eben nicht um die 94% (Anzahl der Unfälle die auf menschliches [...]
Das auch Machinen Fehler machen, die kein Mensch machen würde, d.h. statt menschlichem Vesagens hätten wir dann maschinelles Versagen, und die Unfallstatistik wird eben nicht um die 94% (Anzahl der Unfälle die auf menschliches Versagen zurückzuführen sind laut Artikel) sinken, sondern um weniger. Halbautomatische Systeme (in denen entweder der Mensch die Maschine überwacht oder vice versa) sind mit aller Wahrscheinlichkeit das sicherste.
runningstar 11.10.2017
3. So schnell wie möglich aus dem Verkehr ziehen
Er kann ja seinen Führerschein gerne abgeben. Aber ich fahre gerne Auto und werde sicher nicht zugunsten einer Maschine darauf verzichten. Und ein Autopilot welches nicht explizit besonders den Fahrer bzw. die Fahrzeuginsassen [...]
Er kann ja seinen Führerschein gerne abgeben. Aber ich fahre gerne Auto und werde sicher nicht zugunsten einer Maschine darauf verzichten. Und ein Autopilot welches nicht explizit besonders den Fahrer bzw. die Fahrzeuginsassen schützt, werde ich mir sicherlich erst recht nicht zulegen.
widower+2 11.10.2017
4. Ach so!
Zitat: "94 Prozent der Verkehrsunfälle gehen auf menschliches Versagen zurück." In der Zukunft gehen dann 100 Prozent der Verkehrsunfälle auf technisches Versagen zurück. Es lebe der Fortschritt!
Zitat: "94 Prozent der Verkehrsunfälle gehen auf menschliches Versagen zurück." In der Zukunft gehen dann 100 Prozent der Verkehrsunfälle auf technisches Versagen zurück. Es lebe der Fortschritt!
mathmag 11.10.2017
5. Was für ein Quark.
Solange es nicht mal funktioniert, den gesamten Schienenverkehr führerlos abzuwickeln, glaube ich nicht an autonomen Straßenverkehr. Und natürlich muss es die Möglichkeit des Eingreifen geben. Einfaches Szenario: die besuchen [...]
Solange es nicht mal funktioniert, den gesamten Schienenverkehr führerlos abzuwickeln, glaube ich nicht an autonomen Straßenverkehr. Und natürlich muss es die Möglichkeit des Eingreifen geben. Einfaches Szenario: die besuchen ein Festival und wollen auf dem temporär zum Parkplatz umgebauten Acker parken.
Diskussion geschlossen - lesen Sie die Beiträge!

Verwandte Artikel

Artikel

© SPIEGEL ONLINE 2017
Alle Rechte vorbehalten
Vervielfältigung nur mit Genehmigung der SPIEGELnet GmbH
TOP