Verfahren zum Kalibrieren einer Gated-Kamera, Steuereinrichtung zur Durchführung eines solchen Verfahrens, Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung
Die Erfindung betrifft ein Verfahren zum Kalibrieren einer Gated-Kamera, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung.
Ein Verfahren zum Kalibrieren einer Gated-Kamera, insbesondere einer Beleuchtungseinrichtung, geht aus der europäischen Patentanmeldung mit der Veröffentlichungsnummer EP 3 308 193 B1 hervor. Bei diesem Verfahren werden mittels der Beleuchtungseinrichtung Lichtpulse ausgesendet. Diese ausgesendeten Lichtpulse werden mit einem Referenzlichtpuls verglichen, und basierend auf diesem Vergleich wird die Beleuchtungseinrichtung kalibriert. Bei diesem Verfahren wird allerdings das Zusammenspiel von Beleuchtungseinrichtung und optischem Sensor nicht betrachtet.
Ein Grundsatz beim Kalibrieren eines technischen Systems besteht darin, dass die Dimension der Umgebung, in welcher die Kalibrierung vorgenommen wird, und die Dimension der Umgebung, in welcher das technische System betrieben wird, möglichst identisch sind. Bei Abstandsmessungen mit Entfernungen von bis zu 200 m ist dies nur sehr schwer kosten- und platzsparend zu verwirklichen.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum Kalibrieren einer Gated- Kamera, eine Steuereinrichtung zur Durchführung eines solchen Verfahrens, eine Kalibrierungsvorrichtung mit einer solchen Steuereinrichtung und ein Kraftfahrzeug mit einer solchen Kalibrierungsvorrichtung zu schaffen, wobei die genannten Nachteile zumindest teilweise behoben, vorzugsweise vermieden sind.
Die Aufgabe wird gelöst, indem die vorliegende technische Lehre bereitgestellt wird, insbesondere die Lehre der unabhängigen Ansprüche sowie der in den abhängigen Ansprüchen und der Beschreibung offenbarten Ausführungsformen.
Die Aufgabe wird insbesondere gelöst, indem ein Verfahren zum Kalibrieren einer Gated- Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, mittels einer Abstandssensorik geschaffen wird, wobei eine Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zeitlich aufeinander abgestimmt werden und der abgestimmten Ansteuerung ein sichtbarer Abstandsbereich zugeordnet wird. An mindestens einer Grenze des sichtbaren Abstandsbereichs wird ein Objekt gesucht, wobei, wenn ein Objekt an der mindestens einen Grenze des sichtbaren Abstandsbereichs gefunden wird, mittels der Abstandssensorik ein Objekt-Abstand als Abstand des gefundenen Objekts zu der Gated-Kamera bestimmt wird. Ein Soll-Abstand der mindestens einen Grenze zu der Gated-Kamera wird mit dem Objekt-Abstand verglichen, wobei die abgestimmte Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand bewertet und/oder verändert wird.
Mithilfe des hier vorgeschlagenen Verfahrens ist es vorteilhaft möglich, basierend auf wenigen Abstandsmessungen, vorzugsweise einer Abstandsmessung, die Ansteuerung der Gated-Kamera, insbesondere der Beleuchtungseinrichtung und des optischen Sensors, insbesondere eine entfernte Grenze und/oder eine nahe Grenze des sichtbaren Abstandsbereichs, zu kalibrieren. Damit wird die Messgenauigkeit der Gated-Kamera erhöht, und die gesetzlichen Anforderungen werden erfüllt. Die Kalibrierung umfasst insbesondere die Orchestrierung der Beleuchtungseinrichtung und der Belichtungsansteuerung des optischen Sensors.
Darüber hinaus ist es mit dem Verfahren vorteilhaft möglich, Alterseffekte bei den Komponenten der Gated-Kamera, insbesondere der Beleuchtungseinrichtung und dem optischen Sensor, zu erkennen und zu kompensieren. Vorzugsweise wird außerdem ein möglicher zukünftiger Ausfall einer Komponente aufgrund von Alterungseffekten frühzeitig erkannt, worauf ein Austausch der jeweiligen Komponente initiiert werden kann.
Außerdem erfolgt die Kalibrierung der Gated-Kamera, die die Beleuchtungseinrichtung und den optischen Sensor aufweist, während der Fahrt eines Kraftfahrzeugs, welches die Gated-Kamera aufweist. Damit sind die Dimension der Umgebung, in welcher die Kalibrierung vorgenommen wird, und die Dimension der Umgebung, in welcher die Gated- Kamera betrieben werden, identisch.
Die Kalibrierung der Gated-Kamera, die die Beleuchtungseinrichtung und den optischen Sensor aufweist, stellt sicher, dass Alterungseffekte und/oder Verschmutzungen der
Beleuchtungseinrichtung und/oder des optischen Sensors nicht die Abstandsmessung verfälschen. Eine Laufzeitverschiebung von 10 ns resultiert bereits in einem Fehler für die Abstandsmessung von ca. 3 m.
Das Verfahren zur Erzeugung von Aufnahmen mittels einer zeitlich aufeinander abgestimmten Ansteuerung einer Beleuchtungseinrichtung und eines optischen Sensors ist insbesondere als ein Gated-Imaging-Verfahren bekanntes Verfahren; insbesondere ist der optische Sensor eine Kamera, die nur in einem bestimmten, eingeschränkten Zeitbereich empfindlich geschaltet wird, was als „Gated-Ansteuerung“ bezeichnet wird. Auch die Beleuchtungseinrichtung wird entsprechend zeitlich nur in einem bestimmten, ausgewählten Zeitintervall angesteuert, um eine objektseitige Szenerie auszuleuchten.
Insbesondere werden durch die Beleuchtungseinrichtung eine vordefinierte Anzahl von Lichtimpulsen ausgesandt, vorzugsweise mit einer Dauer zwischen 5 ns und 20 ns. Der Beginn und das Ende der Belichtung des optischen Sensors wird an die Anzahl und Dauer der abgegebenen Lichtimpulse gekoppelt. Daraus resultierend kann ein bestimmter sichtbarer Abstandsbereich durch die zeitliche Ansteuerung einerseits der Beleuchtungseinrichtung und andererseits des optischen Sensors mit entsprechend definierter örtlicher Lage, das heißt insbesondere bestimmtem Abstand einer nahen und einer entfernten Grenze des sichtbaren Abstandsbereichs von dem optischen Sensor, durch den optischen Sensor erfasst werden. Aus dem Aufbau der Gated-Kamera ist eine örtliche Lage des optischen Sensors und der Kamera bekannt. Vorzugsweise ist außerdem ein örtlicher Abstand zwischen der Kamera und dem optischen Sensor bekannt und klein im Vergleich zu dem Abstand der Kamera bzw. des optischen Sensors zu dem sichtbaren Abstandsbereich. Damit ist im Kontext der vorliegenden technischen Lehre ein Abstand zwischen dem optischen Sensor und einem Objekt gleich einem Abstand zwischen der Kamera und dem Objekt.
Der sichtbare Abstandsbereichs ist dabei derjenige - objektseitige - Bereich im dreidimensionalen Raum, welche durch die Anzahl und Dauer der Lichtimpulse der Beleuchtungseinrichtung in Verbindung mit dem Start und dem Ende der Belichtung des optischen Sensors mittels des optischen Sensors in einer zweidimensionalen Aufnahme auf einer Bildebene des optischen Sensors abgebildet wird.
Soweit hier und im Folgenden von „objektseitig“ die Rede ist, ist ein Bereich im realen Raum angesprochen. Soweit hier und im Folgenden von „bildseitig“ die Rede ist, ist ein Bereich auf der Bildebene des optischen Sensors angesprochen. Der sichtbarer
Abstandsbereich ist dabei objektseitig gegeben. Dieser entspricht einem durch die Abbildungsgesetze sowie die zeitliche Ansteuerung der Beleuchtungseinrichtung und des optischen Sensors zugeordneten bildseitigen Bereich auf der Bildebene.
Abhängig von dem Start und dem Ende der Belichtung des optischen Sensors nach dem Beginn der Beleuchtung durch die Beleuchtungseinrichtung treffen Lichtimpulsphotonen auf den optischen Sensor. Je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und dem optischen Sensor entfernt ist, desto länger ist die zeitliche Dauer bis ein Photon, welches in diesem Abstandsbereich reflektiert wird, auf den optischen Sensor trifft. Daher verlängert sich der zeitliche Abstand zwischen einem Ende der Beleuchtung und einem Beginn der Belichtung, je weiter der sichtbare Abstandsbereich von der Beleuchtungseinrichtung und von dem optischen Sensor entfernt ist.
Es ist also gemäß einer Ausgestaltung des Verfahrens insbesondere möglich, durch eine entsprechende geeignete Wahl der zeitlichen Ansteuerung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits die Lage und die räumliche Breite des sichtbarer Abstandsbereiches, insbesondere einen Abstand zwischen der nahen Grenze und der entfernten Grenze des sichtbaren Abstandsbereichs, zu definieren.
In einer bevorzugten Ausgestaltung des Verfahrens wird der sichtbare Abstandsbereich vorgegeben, wobei daraus die zeitliche Abstimmung der Beleuchtungseinrichtung einerseits und des optischen Sensors andererseits entsprechend vorgegeben wird.
Vorteilhafterweise wird der Soll-Abstand aus der abgestimmten Ansteuerung bestimmt, oder die abgestimmte Ansteuerung wird aus dem Soll-Abstand bestimmt.
In einer weiteren bevorzugten Ausführungsform des Verfahrens wird vorzugsweise der Objekt-Abstand als die mindestens eine Grenze des sichtbaren Abstandsbereichs der abgestimmten Ansteuerung, und damit als aktueller Soll-Abstand, gesetzt, falls sich der Objekt-Abstand und der Soll-Abstand unterscheiden.
Die Beleuchtungseinrichtung ist in einer bevorzugten Ausgestaltung ein Laser. Alternativ oder zusätzlich ist der optische Sensor bevorzugt eine Kamera.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Abstandssensorik mindestens einen Sensor, ausgewählt aus einer Gruppe, bestehend aus einer
Stereokamera, einem Lidar-Sensor, und einem Radar-Sensor, aufweist. Vorteilhafterweise ist mittels eines solchen Sensors eine Bestimmung des Objekt- Abstands in einfacher Weise möglich.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Abstandssensorik eine Sensorfusionseinrichtung aufweist, die eingerichtet ist um mindestens zwei Sensorsignale von mindestens zwei Sensoren zu einem Fusion-Signal zu fusionieren. Der Objekt- Abstand wird auf Grundlage des Fusion-Signals bestimmt.
Vorzugsweise sind die mindestens zwei Sensoren voneinander verschieden, insbesondere unterscheiden sich die mindestens zwei Sensoren in der jeweiligen Bauart und/oder in dem jeweiligen Sensorprinzip.
Vorzugsweise sind die mindestens zwei Sensoren ausgewählt aus der Gruppe, bestehend aus einer Stereokamera, einem Lidar-Sensor und einem Radar-Sensor.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass mittels der Sensorfusionseinrichtung ein Sensorsignal des optischen Sensors und mindestens ein Sensorsignal der Abstandssensorik zu dem Fusion-Signal fusioniert werden.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die abgestimmte Ansteuerung verändert wird, wenn eine absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand größer ist als eine vorbestimmte Grenz-Differenz. Insbesondere wird die abgestimmte Ansteuerung nur dann verändert, wenn die absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand größer als die vorbestimmte Grenz- Differenz ist. Zusätzlich wird die abgestimmte Ansteuerung nicht verändert, wenn die absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand kleiner als oder gleich wie die vorbestimmte Grenz-Differenz ist.
Die absolute Differenz von zwei Werten entspricht dem Betrag der Differenz von diesen beiden Werten. Somit wird mittels der absoluten Differenz immer ein positiver Abstand zwischen zwei Werten bestimmt.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass die Ansteuerung der Beleuchtungseinrichtung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand bewertet und/oder verändert wird.
In einer bevorzugten Ausführungsform des Verfahrens wird, falls ein Unterschied zwischen dem Objekt-Abstand und dem Soll-Abstand festgestellt wird, die die Ansteuerung der Beleuchtungseinrichtung derart verändert, dass der Objekt-Abstand und der Soll-Abstand identisch sind.
Gemäß einer Weiterbildung der Erfindung ist vorgesehen, dass mittels eines Tiefpass- Filters eine Korrektur zur Veränderung der abgestimmten Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand bestimmt wird. Vorteilhafterweise werden mittels des Tiefpass-Filters schleichende Änderungen durch Alterung und Umgebungseinflüsse kompensiert.
Die Aufgabe wird auch gelöst, indem eine Steuereinrichtung geschaffen wird, die eingerichtet ist, um ein erfindungsgemäßes Verfahren oder ein Verfahren nach einer oder mehreren der zuvor beschriebenen Ausführungsformen durchzuführen. Die Steuereinrichtung ist vorzugsweise als Recheneinrichtung, besonders bevorzugt als Computer, oder als Steuergerät, insbesondere als Steuergerät eines Kraftfahrzeugs, ausgebildet. In Zusammenhang mit der Steuereinrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren erläutert wurden.
Die Steuereinrichtung ist bevorzugt eingerichtet, um mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, und der Abstandssensorik wirkverbunden zu werden, und eingerichtet zu deren jeweiliger Ansteuerung.
Die Aufgabe wird auch gelöst, indem eine Kalibrierungsvorrichtung geschaffen wird, die eine Gated-Kamera, die eine Beleuchtungseinrichtung und einen optischen Sensor aufweist, eine Abstandssensorik und eine erfindungsgemäße Steuereinrichtung oder eine Steuereinrichtung nach einer oder mehreren der zuvor beschriebenen Ausführungsformen aufweist. In Zusammenhang mit der Kalibrierungsvorrichtung ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren und der Steuereinrichtung erläutert wurden.
Die Steuereinrichtung ist bevorzugt mit der Gated-Kamera, insbesondere mit der Beleuchtungseinrichtung und dem optischen Sensor, und der Abstandssensorik wirkverbunden und eingerichtet zu deren jeweiliger Ansteuerung.
Die Aufgabe wird auch gelöst, indem ein Kraftfahrzeug mit einer erfindungsgemäßen Kalibrierungsvorrichtung oder einer Kalibrierungsvorrichtung nach einer oder mehreren
der zuvor beschriebenen Ausführungsformen geschaffen wird. In Zusammenhang mit dem Kraftfahrzeug ergeben sich insbesondere die Vorteile, die bereits in Zusammenhang mit dem Verfahren, der Steuereinrichtung und der Kalibrierungsvorrichtung erläutert wurden.
In vorteilhafter Ausgestaltung ist das Kraftfahrzeug als Lastkraftwagen ausgebildet. Es ist aber auch möglich, dass das Kraftfahrzeug ein Personenkraftwagen, ein Nutzfahrzeug, oder anderes Kraftfahrzeug ist.
Die Erfindung wird im Folgenden anhand der Zeichnung näher erläutert.
Dabei zeigen:
Fig. 1 eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs und eines Objekts an einer entfernten Grenze eines sichtbaren Abstandsbereichs,
Fig. 2 eine schematische Darstellung des Ausführungsbeispiels des Kraftfahrzeugs und des Objekts an einer nahen Grenze des sichtbaren Abstandsbereichs,
Fig. 3 ein Ablaufdiagramm eines ersten Ausführungsbeispiels zum Kalibrieren eine Gated-Kamera,
Fig. 4 ein Ablaufdiagramm eines zweiten Ausführungsbeispiels zum Kalibrieren einer Gated-Kamera, und
Fig. 5 ein Ablaufdiagramm eines dritten Ausführungsbeispiels zum Kalibrieren einer Gated-Kamera.
Figur 1 zeigt eine schematische Darstellung eines Ausführungsbeispiels eines Kraftfahrzeugs 1 mit einer Kalibrierungsvorrichtung 3. Die Kalibrierungsvorrichtung 3 weist eine Gated-Kamera 5, eine Abstandssensorik 7 und eine Steuereinrichtung 9 auf. Weiterhin weist die Gated-Kamera 5 eine Beleuchtungseinrichtung 11 , vorzugsweise einen Laser, und einen optischen Sensor 13, vorzugsweise eine Kamera, auf. Die Steuereinrichtung 9 ist hier nur schematisch dargestellt und ist in nicht explizit dargestellter Weise mit der Gated-Kamera 5, insbesondere der Beleuchtungseinrichtung 11 und dem optischen Sensor 13, und der Abstandssensorik 7 verbunden und eingerichtet zu deren jeweiliger Ansteuerung. Dargestellt in Figur 1 ist insbesondere ein Sensorerfassungsbereich 15 der Abstandssensorik 7, ein Beleuchtungs-Frustum 17 der Beleuchtungseinrichtung 11 und ein Beobachtungsbereich 19 des optischen Sensors 13. Schraffiert dargestellt ist außerdem ein sichtbarer Abstandsbereich 21 , der sich als
Teilmenge des Beobachtungsbereichs 19 des optischen Sensors 13 und des Beleuchtungs-Frustums 17 der Beleuchtungseinrichtung 11 ergibt.
Vorzugsweise weist die Abstandssensorik 7 mindestens einen Sensor 8, ausgewählt aus einer Gruppe, bestehend aus einer Stereokamera, einem Lidar-Sensor, und einem Radar- Sensor, auf. Alternativ oder zusätzlich weist die Abstandssensorik 7 vorzugsweise eine Sensorfusionseinrichtung 10 auf. Die Sensorfusionseinrichtung 10 ist eingerichtet, um mindestens zwei Sensorsignale von mindestens zwei Sensoren 8 zu einem Fusion-Signal zu fusionieren.
Vorzugsweise fusioniert die Sensorfusionseinrichtung 10 mindestens zwei unterschiedliche Sensorsignale der Abstandssensorik 7 zu dem Fusion-Signal. Alternativ fusioniert die Sensorfusionseinrichtung 10 mindestens ein Sensorsignal der Abstandssensorik 7 und ein Signal des optischen Sensors 13 zu dem Fusion-Signal.
In dem sichtbaren Abstandsbereich 21, insbesondere an einer entfernten Grenze 23.1 des sichtbaren Abstandsbereichs 21, ist ein Objekt 25, insbesondere ein Personenkraftwagen, angeordnet. Ein Objekt-Abstand 27 als Abstand zwischen dem Objekt 25 und der Gated-Kamera 5 wird vorzugsweise mittels der Abstandssensorik 7 bestimmt.
Die Steuereinrichtung 9 ist insbesondere eingerichtet zur Durchführung eines Verfahrens zum Kalibrieren der Gated-Kamera 5 nach einem oder mehreren der in den Figuren 3, 4 und 5 beschriebenen Ausführungsbeispielen.
Figur 2 zeigt eine schematische Darstellung des Ausführungsbeispiels eines Kraftfahrzeugs 1 mit der Kalibrierungsvorrichtung 3.
Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern jeweils auf die vorangegangene Beschreibung verwiesen wird.
In dem sichtbaren Abstandsbereich 21 , insbesondere an einer nahen Grenze 23.2 des sichtbaren Abstandsbereichs 21 , ist das Objekt 25, insbesondere ein Personenkraftwagen, angeordnet.
Figur 3 zeigt ein Ablaufdiagramm eines ersten Ausführungsbeispiels eines Verfahrens zum Kalibrieren der Gated-Kamera 5 mittels der Abstandssensorik 7.
In Schritt A werden eine Ansteuerung der Beleuchtungseinrichtung 11 und des optischen Sensors 13 zeitlich aufeinander abgestimmt, wobei der abgestimmten Ansteuerung der sichtbare Abstandsbereich 21 zugeordnet wird.
In Schritt B wird an mindestens einer Grenze 23 des sichtbaren Abstandsbereichs 21 ein Objekt 25 gesucht. Wird kein Objekt 25 gefunden, endet das Verfahren oder das Verfahren wird alternativ wieder mit Schritt A gestartet.
Wenn in Schritt B an der mindestens einen Grenze 23 des sichtbaren Abstandsbereichs 21 ein Objekt 25 gefunden wird, werden in den Schritten C und D mittels der Abstandssensorik 7 der Objekt-Abstand 27 als Abstand des gefundenen Objekts 25 zu der Gated-Kamera 5 bestimmt. Vorzugsweise wird in Schritt C mittels der Abstandssensorik 7 mindestens ein Sensorsignal erfasst und in Schritt D wird vorzugsweise aus dem mindestens einen Sensorsignal der Objekt-Abstand 27 bestimmt. Kann in Schritt D kein Objekt-Abstand 27 bestimmt werden, endet das Verfahren oder das Verfahren wird alternativ wieder mit Schritt A gestartet.
Falls in Schritt D der Objekt-Abstand 27 bestimmt wird, wird in Schritt E ein Soll-Abstand der mindestens einen Grenze 23 des sichtbaren Abstandsbereichs 21 zu der Gated- Kamera 5 mit dem Objekt-Abstand 27 verglichen. Falls in Schritt E kein Vergleich durchgeführt werden kann, endet das Verfahren oder das Verfahren wird alternativ wieder mit Schritt A gestartet.
In Schritt F wird die abgestimmte Ansteuerung, vorzugsweise die Ansteuerung der Beleuchtungseinrichtung 11, in Abhängigkeit von dem Vergleich zwischen dem Soll- Abstand und dem Objekt-Abstand 27 aus Schritt E bewertet und/oder verändert.
Vorzugsweise wird in Schritt E eine absolute Differenz zwischen dem Soll-Abstand und dem Objekt-Abstand 27 bestimmt. Weiterhin wird vorzugsweise in Schritt F die abgestimmte Ansteuerung nur dann verändert, wenn die absolute Differenz größer ist als ein vorbestimmte Grenz-Differenz. Somit wird die abgestimmt Ansteuerung der Gated- Kamera 5 in Schritt F nicht verändert, falls die absolute Differenz kleiner als oder gleich wie die vorbestimmte Grenz-Differenz ist.
Vorzugsweise wird in Schritt F mittels eines Tiefpass-Filters eine Korrektur zur Veränderung der abgestimmten Ansteuerung in Abhängigkeit von dem Vergleich zwischen dem Soll-Abstand und dem Objekt-Abstand 27 bestimmt.
Figur 4 zeigt ein Ablaufdiagramm eines zweiten Ausführungsbeispiels eines Verfahrens zum Kalibrieren der Gated-Kamera 5 mittels der Abstandssensorik 7.
Gleiche und funktionsgleiche Elemente sind in allen Figuren mit gleichen Bezugszeichen versehen, sodass insofern jeweils auf die vorangegangene Beschreibung verwiesen wird.
In den Schritten C1 , C2 und C3 werden mittels einer Mehrzahl an Sensoren 8, insbesondere eines ersten Sensors, eines zweiten Sensors und eines dritten Sensors, eine Mehrzahl an Sensorsignalen erfasst und mittels der Sensorfusionseinrichtung 10 in Schritt C4 zu einem Fusion-Signal fusioniert. In Schritt D wird der Objekt-Abstand 27 auf Grundlage des Fusion-Signals aus Schritt C4 bestimmt. Vorzugsweise sind die einzelnen Sensoren 8 der Mehrzahl an Sensoren 8 voneinander verschieden.
Figur 5 zeigt ein Ablaufdiagramm eines dritten Ausführungsbeispiels eines Verfahrens zum Kalibrieren der Gated-Kamera 5 mittels der Abstandssensorik 7.
In Schritt C4 werden die Mehrzahl an Sensorsignalen und ein Signal des optischen Sensors 13 zu dem Fusion-Signal fusioniert.