Hallo,
Hallo, ich bin da bei Euch, dass die anderen Sensoren eine große Anzahl der Variablen übernehmen. Aber..
Auch die Kamera wird da mitarbeiten. Die Hardware ist vorhanden und die Software ist auf dem Markt einkaufbar. Es ist heute problemlos möglich, mit genug redundanten Aufnahmen eine Bildauswertung zu betreiben, bzw. eine Punktwolke zu erzeugen, in der man Abstände messen kann.
Ein LIDAR macht dasselbe (andere Technik ja), aber das Ergebnis ist identisch >> eine Punktwolke. Das kann heute jedes Mobilfunkgerät neuerer Generation. Von daher kann und wird die Kamerabasierende Umgebungaufnahme und Vermessung, wenn sie es nicht schon ist, immer weiter ausgebaut und in solche Prozesse eingebunden werden.
Im übrigen gibt es Algorithmen die Personen und sich bewegende Objekte automatisch herausschneiden aus den Bildaufnahmen und der Punktwolke, so dass auch der Datenschutz gewährleistet ist.
Schnee und Laub sind kein Grund die die Erkennung der Bildgeometrie in Zukunft beeinflussen werden, es gibt heute schon Software, die aus Bildflugdaten mit Airborne Laserscannern die Vegetation mit dem „Last-First“ Impuls Verfahren herausrechnen können.
Aber ich schweife ab
Zurück zum ENYAQ:
Da wir keinen Einblick in den Quellcode haben, betreibe ich auch nur Mutmaßungen, aber alles nur auf das GNSS und die Nahbereichsabtastung zu reduzieren halte ich für gewagt
Eine Frage zu TESLA hätte ich noch: Wo kann man die Funktionsweise der „Smart Summon“ Funktion so nachlesen, dass eine Aufnahme der Umgebung erstellt und abgespeichert wird?
Das macht TESLA nicht, jede Navigation wird ab Start neu berechnet und, das kann man nachlesen, die Position der „rufenden“ Person über das GNSS System des Mobiltelefons bestimmt.
TESLA, hat nämlich den Ansatz, den ich aber für grundfalsch halte, da ist SKODA weit besser aufgestellt, alles über Bilddaten und „KI“ zu berechnen. Ohne Redundanz und weiteren Absicherungen.
VG