Entscheidung über Leben und Tod: Wertesystem für den Autopiloten

Wenn der Computer die Kontrolle über das Auto übernimmt, wirft das ethische Fragen auf. Eine vom Bundesverkehrsministerium einberufene Ethik-Kommission hat versucht, diese zu klären. Offen bleibt, ob sich alle Fälle per Algorithmus abbilden lassen.

(Foto: chombosan - Fotolia)

Die Teilautomatisierung des Fahrens ist auf deutschen Straßen bereits allgegenwärtig: Tempomat, Abstandshalter, Bremsautomatik, Spurassistent und Einparkhelfer haben zahlreiche Aufgaben übernommen, die eintönig oder schwierig sind und damit zu Fehlern verleiten. Der Computer erledigt sie meist viel besser als der Mensch – es herrscht weitgehend Konsens, dass autonomes Fahren zu einem besseren Verkehrsfluss und einer höherer Sicherheit im Straßenverkehr führt. Das Beratungsunternehmen Prognos hat erst vor kurzem errechnet, dass sich bis 2025 allein durch die Vernetzung von Autos und den Einsatz von Assistenzsystemen auf breiter Front in Deutschland 30.000 Unfälle mit Personenschaden verhindern lassen. Würde man auch Motorräder in die Kommunikation der Autos mit einbeziehen, ließe sich jeder dritte Motorradunfall vermeiden, schätzt man bei Bosch.

Schwierig wird es allerdings, wenn der Computer nicht mehr nur unterstützt, sondern vollständig die Kontrolle übernimmt. Hier stellen sich zahlreiche Fragen, nicht nur zu Haftung und Datenschutz, sondern auch zu Entscheidungen über Leben und Tod. Eine 14-köpfige Ethik-Kommission hat im Auftrag des Bundesverkehrsministeriums versucht, Antworten zu geben, und 20 Ethik-Regeln ausgearbeitet.

Übersicht