Ethik für Autos?

Forschung: Wie selbstfahrende Autos in Dilemma-Situationen entscheiden sollten

© Universität Osnabrück / IKW

Wie sollen sich selbstfahrende Autos verhalten? Sollen sie ihre Insassen auf Teufel komm raus beschützen, auch wenn sie dann Außenstehende in tödliche Gefahr bringen? Sollen sie das kleinste mögliche Übel wählen? Und welches ist das? Wie sollen Autos entscheiden, wenn wir ihnen die Entscheidung überlassen und auf welcher moralischen Basis soll das stattfinden? Mit diesen Fragen beschäftigen sich derzeit Wissenschaftler_innen des Instituts für Kognitionswissenschaft der Universität Osnabrück und legen nun, ausgehend von menschlichen Entscheidungen, eine Studie zur normativen Ethik selbstfahrender Fahrzeuge vor.

*Weniger Unfälle, aber was, wenn ein Unfall unvermeidlich ist?*
„Autonome selbstfahrende Autos werden die erste Generation von Robotern sein, die moralische Entscheidungen mitten in unserer Gesellschaft treffen. Es ist deshalb dringend notwendig, Regeln und mögliche Handlungsweisen für autonome Fahrzeuge zu entwickeln, die festlegen, wie sich solche Maschinen in unausweichlichen Unfallsituationen verhalten sollen“, so die Verfasser der Studie Prof. Dr. Peter König und Maximilian Wächter vom Institut für Kognitionswissenschaft.

Schätzungen zufolge soll die Zahl der jährlichen Verkehrsopfer um 90 Prozent sinken, wenn Autos autonom fahren. Dennoch wird es zu Situationen kommen, in denen ein Unfall unvermeidlich wird. Das Auto muss dann eigenständig entscheiden, wessen Unversehrtheit aufs Spiel gesetzt wird - die der Insassen oder die anderer Verkehrsteilnehmer_innen.

Die Autor_innen nutzten für ihre Studie eine Virtual Reality-Technik, um das Verhalten von Versuchspersonen in Dilemma-Situationen zu beobachten. Die Teilnehmer_innen der Studie fuhren dazu an einem nebeligen Tag durch Vorort- oder Berglandschaften. Im Verlauf der Experimente kam es dabei zu unvermeidlichen und unerwarteten Situationen, bei denen Menschen oder Gruppen von Menschen in Fahrspuren standen. „Den Menschen auf der eigenen Fahrspur auszuweichen hätte bedeutet, eine andere Anzahl an Menschen auf der nebenliegenden Fahrspur zu opfern. Für die Teilnehmer ist eine moralische Abwägung notwendig, um in einer solchen Situation eine Entscheidung zu treffen“, erläutert der Osnabrücker Kognitionswissenschaftler Wächter den Versuchsablauf.

*Gemeinschaft ist wichtiger als das Individuum*
Die beobachteten Entscheidungen wurden dann durch eine statistische Analyse ausgewertet. „Die Ergebnisse weisen darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle moralisches Verhalten größtenteils zum Wohl der Gemeinschaft entschieden wird“, so Wächter. Auf dieser Basis entwickelten die Forscher_inenn dann eine Art "normative Ethik" für selbstfahrende Autos, in der das Wohl der Gemeinschaft als wichtiger eingeschätzt wird als das des Individuums.

Ob das wohl dazu führt, dass künftige Autoinsassen ihrem selbstfahrenden Auto vertrauen? Wenn auch Unfälle viel seltener sind und diese Ethik bei echten Menschen abgeguckt ist, ist es möglicherweise beunruhigend zu wissen, dass das Auto im Zweifelsfall auch zuungunsten der eigenen Insassen entscheiden könnte.

Die Ergebnisse der Studie sind erschienen im Fachjournal „Science and Engineering Etnics“.

Quelle:

Was denkst du darüber?

Autorin / Autor: Redaktion / Pressemitteilung - Stand: 2. März 2018