Das war ja eher als Spaß gedacht.
Aber sofern ein solches System deutlich weniger Fehler macht, als Menschen, kann man zumindest darüber nachdenken. Aber selbst dann bleibt es schwierig, weil ja vielleicht ein Mensch in der einen konkreten Situation, wo die Technik einen Fehler gemacht hat, nicht versagt hätte.
Ich erinnere mich hierbei auch um diese „moralischen Dilemmas“, wenn ein Unfall unvermeidbar ist. Wie soll das System dann programmiert werden, wer dann zum Opfer wird? Das sind sicher schwierige moralische und auch juristische Fragen, die noch geklärt werden müssen.
Wer ist bei einem „autonomen Unfall“ dann verantwortlich und haftet für entstandene Schäden? Der Autohersteller wird es wohl eher nicht sein wollen. Aber kann denn der Passagier, der nur im Auto sitzt und sich fahren lässt (bei voller Autonomie), für einen Unfall verantwortlich gemacht werden? Ich denke, dass das, neben der Entwicklung des Vollautonomen Fahrens, die schwierigen Punkte sind, weswegen sich eine Genehmigung als sehr schwierig darstellt.
Unter „voller Autonomie“ verstehe ich jetzt, dass ich mich hinten ins vollautonome Fahrzeug setzen kann ohne auf den Verkehr zu achten.