-
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren. Ferner betrifft die Erfindung ein Kraftfahrzeug.
-
Moderne Kraftfahrzeuge weisen eine Vielzahl von Assistenzsystemen auf, die einen Fahrer beim Führen des Kraftfahrzeugs unterstützen oder das Kraftfahrzeug automatisiert oder halbautomatisiert führen können. Die Assistenzsysteme benötigen hierzu Informationen über ein Umfeld des Kraftfahrzeugs. Diese Informationen werden mittels Sensoren erfasst und in Form von Sensordaten bereitgestellt. Die Sensoren arbeiten üblicherweise mit Hilfe unterschiedlicher Messprinzipien. Beispielsweise können als Sensoren eine Kamera und ein eine Abstandinformation bereitstellender Laserscanner bzw. Light Detection and Ranging-(LIDAR)-Sensor oder ein Radarsensor mit einer Elevationserfassung vorgesehen sein.
-
In der Regel sind die Sensoren an unterschiedlichen Positionen am oder im Kraftfahrzeug angeordnet. Dies führt dazu, dass die einzelnen Sensoren das Umfeld des Kraftfahrzeugs aus unterschiedlichen Perspektiven erfassen. Insbesondere bei einer späteren Sensordatenfusion führt dies zu einem Parallaxenproblem, da Sensordaten unterschiedlicher Sensoren eines aus unterschiedlichen Perspektiven erfassten Objektes nicht korrekt miteinander assoziiert werden können. Die fehlerhafte Assoziation der Sensordaten kann insbesondere zu einer fehlerhaften Entfernungsschätzung führen.
-
Aus der
DE 10 2015 201 747 A1 ist ein Sensorsystem für ein Fahrzeug bekannt, mit einer Vielzahl von Sensoreinrichtungen, welche ausgebildet sind, Rohdaten zu einer Umgebung des Fahrzeugs zu erfassen und für jeden Erfassungszeitpunkt zumindest ein Belegungsgitter aus den erfassten Rohdaten zu berechnen und auszugeben, und mit einer Steuereinrichtung, welche ausgebildet ist, basierend auf den einzelnen Belegungsgittern der Sensoreinrichtungen ein fusioniertes Belegungsgitter zu berechnen und die für unterschiedliche Erfassungszeitpunkte berechneten fusionierten Belegungsgitter zeitlich zu akkumulieren und ein akkumuliertes Belegungsgitter auszugeben. Ferner ist ein entsprechendes Verfahren bekannt.
-
Aus der
DE 10 2013 206 707 A1 ist ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bekannt, wobei das Umfelderfassungssystem mindestens zwei verschiedene Umfeldsensortypen umfasst und wobei Objekte im Umfeld des Fahrzeugs mit einem ersten Umfeldsensortyp erfasst werden, die Objekte mit den Daten des ersten Umfeldsensortyps in statische und dynamische Objekte kategorisiert werden, die relative Position der erfassten statischen Objekte zum Fahrzeug bestimmt wird, diese Position mit einer über einen zweiten Umfeldsensortyp ermittelten Position verglichen wird und bei einer Abweichung über einem Grenzwert auf einen Fehler geschlossen wird, wobei der Sichtbereich des ersten Umfeldsensortyps nicht mit dem Sichtbereich des zweiten Umfeldsensortyps überlappt und die relative Position der erfassten statischen Objekte nach dem Verlassen des Sichtbereichs des ersten Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert wird. Des Weiteren sind ein Computerprogramm und eine Vorrichtung zur Durchführung des Verfahrens bekannt.
-
-
Der Erfindung liegt die Aufgabe zu Grunde, ein Verfahren und eine Vorrichtung zu schaffen, mit denen ein Parallaxenproblem in Sensordaten zweier Sensoren festgestellt werden kann.
-
Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 und eine Vorrichtung mit den Merkmalen des Patentanspruchs 6 gelöst. Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
-
Insbesondere wird ein Verfahren zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren zur Verfügung gestellt, wobei die Sensoren an voneinander beabstandeten Positionen angeordnet sind und zumindest teilweise das gleiche Umfeld erfassen, und wobei der eine der Sensoren Abstandsinformationen bereitstellt, umfassend: Erhalten der erfassten Sensordaten der Sensoren, Erhalten oder Schätzen von Sensorsichtbereichsinformationen des anderen der Sensoren auf Grundlage der erfassten Sensordaten des anderen Sensors, Zuordnen von Messwerten in den erfassten Sensordaten des einen Sensors zu hiermit jeweils korrespondierenden Messwerten in den erfassten Sensordaten des anderen Sensors, wobei das Zuordnen unter Berücksichtigung von jeweiligen Abbildungsbedingungen der beiden Sensoren erfolgt, Vergleichen der Abstandsinformationen und der erhaltenen oder geschätzten Sensorsichtbereichsinformationen an jeweils einander zugeordneten Messwerten der Sensordaten, wobei ein Parallaxenproblem festgestellt wird, wenn ein auf Grundlage eines Abstandsmaßes bestimmter Abstand zwischen einer jeweiligen Abstandsinformation und einer hiermit korrespondierenden Sensorsichtbereichsinformation ein Schwellenwertkriterium überschreitet, Ausgeben eines Vergleichsergebnisses.
-
Ferner wird insbesondere eine Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren geschaffen, wobei die Sensoren an voneinander beabstandeten Positionen angeordnet sind und zumindest teilweise das gleiche Umfeld erfassen, und wobei der eine der Sensoren eine Abstandsinformation bereitstellt, umfassend eine Eingangseinrichtung, eine Recheneinrichtung, und eine Ausgabeeinrichtung, wobei die Eingangseinrichtung derart ausgebildet ist, erfasste Sensordaten von den Sensoren zu erhalten, wobei die Recheneinrichtung derart ausgebildet ist, Sensorsichtbereichsinformationen des anderen der Sensoren zu erhalten oder die Sensorsichtbereichsinformationen des anderen Sensors auf Grundlage der erfassten Sensordaten des anderen Sensors zu schätzen, Messwerte in den erfassten Sensordaten des einen Sensors zu hiermit jeweils korrespondierenden Messwerten in den erfassten Sensordaten des anderen Sensors zuzuordnen, wobei das Zuordnen unter Berücksichtigung von jeweiligen Abbildungsbedingungen der beiden Sensoren erfolgt, die Abstandsinformationen und die erhaltenen oder geschätzten Sensorsichtbereichsinformationen an den jeweils einander zugeordneten Messwerten der Sensordaten miteinander zu vergleichen, und ein Parallaxenproblem festzustellen, wenn ein auf Grundlage eines Abstandsmaßes bestimmter Abstand zwischen einer jeweiligen Abstandsinformation und einer hiermit korrespondierenden Sensorsichtbereichsinformation ein Schwellenwertkriterium überschreitet, und wobei die Ausgabeeinrichtung derart ausgebildet ist, ein Vergleichsergebnis auszugeben.
-
Das Verfahren und die Vorrichtung ermöglichen es, ein Parallaxenproblem in erfassten Sensordaten von zwei Sensoren, die zumindest teilweise das gleiche Umfeld erfassen, jedoch an unterschiedlichen Verbaupositionen angeordnet sind, festzustellen. Dies erfolgt, indem einzelne Messwerte in den Sensordaten der Sensoren einander zugeordnet werden, wobei dies unter Berücksichtigung der jeweiligen Abbildungsbedingungen der jeweiligen Sensoren erfolgt. Im Wege eines Vergleichs von Abstandsinformationen, die von dem einen Sensor bereitgestellt werden, mit für den anderen Sensor erhaltenen oder geschätzten Sensorsichtbereichsinformationen an den jeweils einander zugeordneten Messwerten wird überprüft, ob ein Parallaxenproblem vorliegt. Hierbei wird davon ausgegangen, dass für einander zugeordnete Messwerte ein Parallaxenproblem vorliegt, wenn ein auf Grundlage eines Abstandsmaßes bestimmter Abstand zwischen einer jeweiligen Abstandsinformation und einer hiermit korrespondierenden Sensorsichtbereichsinformation ein Schwellenwertkriterium überschreitet. Im einfachsten Fall ist das verwendete Abstandsmaß ein euklidischer Abstand. Es können jedoch auch andere Abstandsmaße verwendet werden, beispielsweise eine Mahalanobis-Abstand, in der beispielsweise eine Messungenauigkeit der Sensoren berücksichtigt werden kann. Ein Schwellenwertkriterium kann beispielsweise als einfacher Schwellenwert ausgebildet sein und im Bereich zwischen einem oder wenigen Zentimetern und einigen zehn Zentimetern liegen. Ein aus dem Vergleich der einzelnen Messwerte erhaltenes Vergleichsergebnis wird anschließend ausgegeben.
-
Vorteile des beschriebenen Verfahrens und der Vorrichtung sind, dass diese einfach umzusetzen sind und nur eine geringe Rechenleistung der Recheneinrichtung benötigt wird.
-
Die Abbildungsbedingungen umfassen insbesondere die Bedingungen, unter denen die Sensordaten jeweils von den Sensoren erfasst werden, wie beispielsweise eine optische Abbildung, einen Öffnungswinkel und/oder einen Erfassungszeitpunkt. Durch Berücksichtigung der jeweiligen Abbildungsbedingungen ist es möglich, die Sensordaten der Sensoren einander zuzuordnen.
-
Der eine Sensor ist insbesondere ein Laserscanner bzw. LIDAR-Sensor, ein Radarsensor mit Elevationsmessung oder eine Stereokamera. Der andere Sensor kann beispielsweise eine Kamera sein. Die Abstandsinformation ist insbesondere eine Information darüber, wie weit ein erfasster Messwert der Sensordaten von dem Sensor entfernt ist.
-
Die Sensorsichtbereichsinformationen umfassen insbesondere Informationen darüber, wie weit ein Messwert in den Sensordaten des anderen Sensors von dem anderen Sensor entfernt sind. Hierbei kann insbesondere vorgesehen sein, dass keine Abstandsinformation des Messwertes bereitgestellt wird, sondern lediglich eine Abschätzung im Hinblick auf ein Mindestabstand. Beispielsweise kann auf Grundlage der Sensordaten und der Abbildungsbedingungen des anderen Sensors geschätzt werden, dass ein Messwert einen Mindestabstand von 10 Meter zum anderen Sensor aufweist. Die Sensorsichtbereichsinformationen werden insbesondere auf Grundlage von Merkmalen in den erfassten Sensordaten geschätzt. Hierzu wird mittels der Recheneinrichtung eine Merkmalserkennung durchgeführt, beispielsweise mit Hilfe bekannter Verfahren der Computer Vision und des Maschinenlernens. Beispielsweise kann in einem erfassten Kamerabild ausgehend von einer erkannten Textur eine vorausliegende Straße erkannt werden. Soweit sich die Textur der Straße (z.B. Asphalt und parallel verlaufende Fahrbahnmarkierungen) ohne Unterbrechungen oder ohne andere, davor angeordnete Objekte weiter in Richtung einer in dem Kamerabild erkannten Horizontlinie fortsetzt, kann davon ausgegangen werden, dass im Bereich der erkannten Straße ein Freibereich vorliegt, bis zu dem die Kamera das Umfeld jeweils erfassen kann. Ferner kann auch ein optischer Fluss dazu verwendet werden, um die Sensorsichtbereichsinformationen zu bestimmen. Ein Sensorsichtbereich kann auch ausgehend von erkannten Objekten bestimmt werden, von denen eine absolute Objektgröße bekannt ist. Mit Hilfe bekannter Abbildungsbedingungen für den anderen Sensor können aus der absoluten Objektgröße dann eine Entfernung zum Objekt und hierüber die Sensorsichtbereichsinformationen für die zugehörigen Messwerte berechnet bzw. geschätzt werden.
-
Insbesondere ist vorgesehen, dass die Sensordaten des einen Sensors und des anderen Sensors synchronisiert sind, sodass die Sensordaten zeitlich bereits korrekt miteinander assoziiert sind. Dies bedeutet insbesondere, dass die Sensordaten in Bezug auf eine Zeitbasis miteinander übereinstimmen. Prinzipiell kann eine solche Synchronisation im Vorfeld auf verschiedenen Wegen erfolgen. Objekte können im Bildraum der Sensordaten mittels optischen Flusses und Matching von dreidimensionalen Bildpunkten im Bildraum verfolgt werden (Objekttracking). Ferner können Objekte in den Sensordaten des mindestens einen die Abstandsinformation bereitstellenden Sensors verfolgt werden. Auf Grundlage dieser Objektverfolgung kann ein jeweils mit zugehörigen Sensordaten korrespondierender Zeitpunkt in den Sensordaten des anderen Sensors geschätzt werden. Weiter kann das Erfassen der Sensordaten der Sensoren zeitgleich erfolgen, beispielsweise indem ein gemeinsames Triggersignal verwendet wird.
-
Es kann vorgesehen sein, dass eine Interpolation der Sensordaten erfolgt, um das Zuordnen der Sensordaten zueinander zu ermöglichen.
-
Es kann vorgesehen sein, dass eine Mindestanzahl von Messwerten erreicht werden muss, für die der bestimmte Abstand das Schwellenwertkriterium überschreitet, damit ein Parallaxenproblem festgestellt wird. Hierdurch können fehlerhafte oder zufällige Abweichungen bei einzelnen Messwerten aufgrund von fehlerhaften oder verrauschten Sensordaten berücksichtigt werden.
-
Die Messwerte sind insbesondere Messpunkte. Es kann jedoch auch vorgesehen sein, dass die Messwerte aus den Sensordaten abgeleitete Merkmale sind, beispielsweise Kantenpunkte in einem erfassten Kamerabild, welche aus einem größeren Bereich des Kamerabildes bestimmt werden.
-
Teile der Vorrichtung, insbesondere die Recheneinrichtung, können einzeln oder zusammengefasst als eine Kombination von Hardware und Software ausgebildet sein, beispielsweise als Programmcode, der auf einem Mikrocontroller oder Mikroprozessor ausgeführt wird.
-
In einer Ausführungsform ist vorgesehen, dass das Zuordnen der Messwerte durch Rückprojektion der Messwerte der Sensordaten des einen Sensors in einen aus den Messwerten der Sensordaten des anderen Sensors gebildeten Bildraum erfolgt. Dies ermöglicht eine besonders einfache und schnelle Überprüfung, ob ein Parallaxenproblem vorliegt. Ist der eine Sensor beispielsweise ein LIDAR-Sensor und der andere Sensor eine Kamera, so werden die Messwerte der Sensordaten des LIDAR-Sensors in das zugehörige Kamerabild projiziert, das heißt einzelne Messwerte der Sensordaten des LIDAR-Sensors werden gemäß den jeweiligen Abbildungsbedingungen einzelnen Messwerten bzw. Bildelementen in dem Kamerabild zugeordnet.
-
In einer Ausführungsform ist vorgesehen, dass die Sensorsichtbereichsinformationen zumindest teilweise auf Grundlage von geschätzten Freibereichen geschätzt werden, wobei zum Schätzen der Freibereiche eine Mustererkennung an den Sensordaten des anderen Sensors durchgeführt wird. Ein Freibereich bezeichnet hierbei insbesondere einen Bereich vor dem anderen Sensor, insbesondere einer Kamera, der zumindest bis zu einem vorgegebenen Abstand frei von Objekten ist. Hierdurch können die Sensorsichtbereichsinformationen auf einfache und rechenaufwandsarme Weise geschätzt werden. Beispielsweise können hierdurch für die einzelnen Messwerte jeweils Sensorsichtbereichsinformationen erzeugt werden, indem die Sensorsichtbereichsinformation Messwertweise als ein Mindestabstand definiert wird, bis zu dem der andere Sensor mindestens das Umfeld erfassen kann bzw. eine direkte Sichtlinie aufweist. Ein weiterer Vorteil ist, dass bereits Kameras existieren, die auf Grundlage einer an den erfassten Kameradaten durchgeführten Umfelderkennung und -interpretation Abschätzungen zu Freibereichen in dem Umfeld erzeugen und bereitstellen. Auf Grundlage dieser von der Kamera bereitgestellten Abschätzung können dann die Sensorsichtbereichsinformationen geschätzt werden.
-
In einer Ausführungsform ist vorgesehen, dass im Rahmen der Mustererkennung eine Objekterkennung durchgeführt wird und die Freibereiche auf Grundlage von im Umfeld erkannten Objekten geschätzt werden. Insbesondere ist hierbei vorgesehen, dass Objekte in dem Umfeld erkannt werden, Objektpositionen in dem Umfeld geschätzt werden, und die Freibereiche als die Bereiche definiert werden, die keine Objektpositionen umfassen. Hierdurch können die Freibereiche auf besonders einfach zu realisierende und rechenaufwandsarme Weise geschätzt werden. Insbesondere bei sich bewegenden Objekten erlaubt dies eine vereinfachte Schätzung der Freibereiche, da die Objekte zwischen benachbarten Zeitschritten mittels einer Objektverfolgung auf einfache Weise verfolgt werden können.
-
In einer Ausführungsform ist vorgesehen, dass die Sensorsichtbereichsinformationen des anderen Sensors auf Grundlage von Sensordaten mindestens eines weiteren Sensors geschätzt werden. Der mindestens eine weitere Sensor kann beispielsweise ebenfalls ein Laserscanner oder LIDAR-Sensor sein, der jedoch näher an dem anderen Sensor angeordnet ist. Dieser kann beispielsweise kleiner sein und ein geringes Auflösungsvermögen aufweisen. Auf Grundlage der vom weiteren Sensor erfassten weiteren Sensordaten werden die Sensorsichtbereichsinformationen geschätzt. Hierbei kann auch vorgesehen sein, dass auflösungsbedingt für mehrere benachbarte Messwerte der Sensordaten des anderen Sensors eine gemeinsame Sensorsichtbereichsinformation geschätzt wird.
-
Weitere Merkmale zur Ausgestaltung der Vorrichtung ergeben sich aus der Beschreibung von Ausgestaltungen des Verfahrens. Die Vorteile der Vorrichtung sind hierbei jeweils die gleichen wie bei den Ausgestaltungen des Verfahrens.
-
Weiter wird insbesondere auch ein Kraftfahrzeug geschaffen, umfassend zwei Sensoren, wobei die Sensoren an voneinander beabstandeten Positionen angeordnet sind und zumindest teilweise das gleiche Umfeld erfassen, und wobei der eine der Sensoren eine Abstandsinformation bereitstellt, und eine Vorrichtung nach einer beliebigen der beschriebenen Ausführungsformen.
-
In einer Ausführungsform des Kraftfahrzeugs ist vorgesehen, dass der eine Sensor ein LIDAR-Sensor oder ein 3D-Radarsensor und der andere Sensor eine Kamera ist.
-
Nachfolgend wird die Erfindung anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die Figuren näher erläutert. Hierbei zeigen:
- 1 eine schematische Darstellung einer Ausführungsform der Vorrichtung zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren;
- 2 eine schematische Darstellung zur Verdeutlichung des Verfahrens zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren.
-
In 1 ist eine schematische Darstellung einer Ausführungsform der Vorrichtung 1 zum Feststellen eines Parallaxenproblems in Sensordaten 10, 20 zweier Sensoren 51, 52 gezeigt. Die Vorrichtung 1 und die Sensoren 51, 52 sind in einem Kraftfahrzeug 50 angeordnet. Die Vorrichtung 1 umfasst eine Eingangseinrichtung 2, eine Recheneinrichtung 3 und eine Ausgabeeinrichtung 4.
-
Die Sensoren 51, 52 sind an voneinander beabstandeten Positionen angeordnet und erfassen zumindest teilweise das gleiche Umfeld. Der Sensor 51 ist beispielsweise ein Laserscanner bzw. LIDAR-Sensor, der Sensordaten 10 in Form von dreidimensionalen Reflexionspunkten mit jeweils einer Abstandinformation 12 bereitstellt. Der Sensor 52 ist beispielsweise eine Kamera, die Sensordaten 20 in Form von Kamerabildern bereitstellt. Die Sensoren 51, 52 erfassen beispielsweise das in der 2 dargestellte Umfeld 60.
-
Die Eingangseinrichtung 2 erhält die von den Sensoren 51, 52 erfassten Sensordaten 10, 20 und synchronisiert diese insbesondere auf eine gemeinsame Zeitbasis.
-
Die Recheneinrichtung 3 ordnet Messwerte in den erfassten Sensordaten 10 des Sensors 51 zu hiermit jeweils korrespondierenden Messwerten in den erfassten Sensordaten 20 des anderen Sensors 52 zu. Das Zuordnen erfolgt unter Berücksichtigung von Abbildungsbedingungen der beiden Sensoren 51, 52. Einfach ausgedrückt bedeutet dies, dass eine Sichtstrahluntersuchung durchgeführt wird, bei der auf Grundlage der Erfassungsrichtungen, aus denen die einzelnen Messwerte in einem Öffnungswinkel des jeweiligen Sensors 51, 52 erfasst werden, eine Zuordnung der Messwerte auf Grundlage von miteinander korrespondierenden Sichtstrahlen bzw. Erfassungsrichtungen erfolgt. Das Ziel ist, dass die einander zugeordneten Messwerte jeweils denselben Bereich im Umfeld abbilden.
-
Insbesondere ist vorgesehen, dass das Zuordnen der Messwerte durch Rückprojektion der Messwerte der Sensordaten 10 des einen Sensors 51 in einen aus den Messwerten der Sensordaten 20 des anderen Sensors 52 gebildeten Bildraum erfolgt. Ist der andere Sensor 52 eine Kamera, so werden die Messwerte der Sensordaten 10 des einen Sensors 51 unter Berücksichtigung der jeweiligen Abbildungsbedingungen des einen Sensors 51 und der Kamera in ein aus den Sensordaten 20 der Kamera erzeugtes Kamerabild projiziert.
-
Die Recheneinrichtung 3 erhält ferner Sensorsichtbereichsinformationen 22 des anderen Sensors 52 oder schätzt die Sensorsichtbereichsinformationen 22 auf Grundlage der erfassten Sensordaten 20 des anderen Sensors 52.
-
Anschließend vergleicht die Recheneinrichtung 3 die Abstandsinformationen 12 und die erhaltenen oder geschätzten Sensorsichtbereichsinformationen 22 an jeweils einander zugeordneten Messwerten der Sensordaten 10, 20. Ausgehend von dem Vergleich stellt die Recheneinrichtung 3 ein Parallaxenproblem fest, wenn ein auf Grundlage eines Abstandsmaßes bestimmter Abstand zwischen einer jeweiligen Abstandsinformation 12 und einer hiermit korrespondierenden Sensorsichtbereichsinformation 22 ein Schwellenwertkriterium überschreitet. Hierbei kann vorgesehen sein, dass eine Mindestanzahl von Messwerten erreicht werden muss, für die der jeweils bestimmte Abstand das Schwellenwertkriterium überschreitet, damit ein Parallaxenproblem festgestellt wird. Hierdurch können fehlerhafte oder zufällige Abweichungen bei einzelnen Messwerten aufgrund von fehlerhaften oder verrauschten Sensordaten 10, 20 berücksichtigt werden.
-
Ein Vergleichsergebnis 30 wird anschließend von der Ausgabeeinrichtung 4 ausgegeben, beispielsweise in Form eines digitalen Datenpakets, das die Messwerte bezeichnet, bei denen das Parallaxenproblem aufgetreten ist.
-
Es kann ferner vorgesehen sein, dass die Sensorsichtbereichsinformationen 22 zumindest teilweise auf Grundlage von geschätzten Freibereichen geschätzt werden, wobei zum Schätzen der Freibereiche eine Mustererkennung an den Sensordaten 20 des anderen Sensors 52 durchgeführt wird.
-
Weiterbildend kann vorgesehen sein, dass im Rahmen der Mustererkennung eine Objekterkennung durchgeführt wird und die Freibereiche auf Grundlage von im Umfeld erkannten Objekten geschätzt werden.
-
Ferner kann vorgesehen sein, dass die Sensorsichtbereichsinformationen 22 des anderen Sensors 52 auf Grundlage von Sensordaten 40 mindestens eines weiteren Sensors 54 geschätzt werden.
-
In 2 ist eine schematische Darstellung zur Verdeutlichung des Verfahrens zum Feststellen eines Parallaxenproblems in Sensordaten zweier Sensoren 51, 52 gezeigt. Die Sensoren 51, 52 weisen einen Abstand 53 zueinander auf und erfassen einen überlappenden Bereich eines Umfelds 60. Gezeigt sind ferner Sichtstrahlen 11, 21 der Sensoren 51, 52, wobei die Sichtstrahlen 11, 21 jeweils mit Erfassungswinkeln für einzelne Messwerte in den Sensordaten korrespondieren. Der Sensor 51 ist im gezeigten Beispiel ein LIDAR-Sensor, der dreidimensionale Messwerte mit zugehörigen Abstandsinformationen 12 des Umfeldes 60 bereitstellt (der Übersichtlichkeit halber sind nicht alle Sichtstrahlen 11 mit einem Bezugszeichen für die Abstandsinformation 12 markiert). Der andere Sensor 52 ist eine Kamera, welche als Sensordaten ein Kamerabild bereitstellt.
-
In dem Umfeld 60 befindet sich eine ebene Wand 61 und ein Objekt 62 in Form eines anderen Kraftfahrzeugs. Aufgrund des Abstands 53 erfassen die Sensoren 51, 52 das Objekt 62 aus unterschiedlichen Richtungen. Der Sensor 51 erfasst an dem Objekt 62 vorbei in einem Bereich 63 die Wand 61, während die Wand 61 aus Sicht des Sensors 52, das heißt der Kamera, in diesem Bereich 63 von dem Objekt 62 verdeckt wird. Es besteht also ein Parallaxenproblem.
-
Um das Parallaxenproblem festzustellen, werden Sensorsichtbereichsinformationen 22 verwendet. Diese werden entweder von dem anderen Sensor 52 erzeugt und bereitgestellt oder mittels der Recheneinrichtung auf Grundlage von Merkmalen in den erfassten Sensordaten geschätzt. Beispielsweise kann in einem erfassten Kamerabild ausgehend von einer erkannten Textur eine vorausliegende Straße erkannt werden. Soweit sich die Textur der Straße (z.B. Asphalt und parallel verlaufende Fahrbahnmarkierungen) ohne Unterbrechungen oder ohne andere, davor angeordnete Objekte weiter in Richtung einer in dem Kamerabild erkannten Horizontlinie fortsetzt, kann davon ausgegangen werden, dass im Bereich der erkannten Straße ein Freibereich vorliegt. Ferner kann auch ein optischer Fluss dazu verwendet werden, um die Sensorsichtbereichsinformationen 22 zu bestimmen. Sensorsichtbereichsinformationen 22 können auch ausgehend von einem erkannten Objekt (z.B. ein anderes Kraftfahrzeug bekannten Typs) bestimmt werden, von dem eine absolute Objektgröße bekannt ist. Mit Hilfe bekannter Abbildungsbedingungen für den anderen Sensor 52 kann aus der bekannten absoluten Objektgröße dann eine Entfernung zum Objekt und hierüber zugehörige Sensorsichtbereichsinformationen 22 berechnet bzw. geschätzt werden.
-
Es kann vorgesehen sein, dass die Sensorsichtbereichsinformationen 22 zumindest teilweise auf Grundlage von geschätzten Freibereichen 23 geschätzt werden, wobei zum Schätzen der Freibereiche 23 eine Mustererkennung an den Sensordaten des anderen Sensors 52, das heißt der Kamera, durchgeführt wird.
-
Weiterbildend kann vorgesehen sein, dass im Rahmen der Mustererkennung eine Objekterkennung durchgeführt wird und die Freibereiche 23 auf Grundlage von im Umfeld 60 erkannten Objekten 61, 62 geschätzt werden. Die Freibereiche 23 werden dann durch die Bereiche festgelegt, an denen keine Objekte erkannt wurden. Dies kann beispielsweise durch einfaches Erstellen einer negativen Maskierung erfolgen, welche durch die erkannten Objekte definiert ist und alle Bereiche außerhalb der erkannten Objekte umfasst.
-
Im gezeigten Beispiel umfassen die Sensorsichtbereichsinformationen 22 eine Schätzung von Sichtweiten der Kamera für jeden der Messwerte bzw. Bildelemente.
-
Nachdem die Recheneinrichtung die Messwerte in den erfassten Sensordaten des einen Sensors 51 zu hiermit jeweils korrespondierenden Messwerten in den erfassten Sensordaten des anderen Sensors 52 unter Berücksichtigung von jeweiligen Abbildungsbedingungen der beiden Sensoren 51, 52 zugeordnet hat, führt die Recheneinrichtung einen Vergleich der Abstandsinformationen und der erhaltenen oder geschätzten Sensorsichtbereichsinformationen 22 an jeweils einander zugeordneten Messwerten der Sensordaten durch.
-
In dem in der 2 gezeigten Beispiel ergeben sich hierbei auf Grundlage eines Abstandsmaßes bestimmte Abstände 31 bei den Messwerten (der Übersichtlichkeit halber nicht für jeden Messwert/Sichtstrahl 11 dargestellt), die sich im Bereich 63 befinden. Diese Abstände 31 werden mit einem Schwellenwertkriterium 32 verglichen, das beispielsweise durch einen vorgegebenen Schwellenwert definiert ist, der im gezeigten Beispiel zur Veranschaulichung 10 % der bestimmten Abstände 31 entsprechen soll. Je nach Eigenschaften der verwendeten Sensoren 51, 52 beträgt der Schwellenwert des Schwellenwertkriteriums 32 wenige bis einige zehn Zentimeter. Bei den Messwerten außerhalb des Bereichs 63 stimmen die Abstandsinformationen und die Sensorsichtbereichsinformationen 22 hingegen überein.
-
Da die bestimmten Abstände 31 der im Bereich 63 liegenden Messwerte den Schwellenwert des Schwellenwertkriteriums 32 überschreiten, stellt die Recheneinrichtung ein Parallaxenproblem fest und erzeugt ein entsprechendes Vergleichsergebnis, das von der Ausgabeeinrichtung ausgegeben wird.
-
Bezugszeichenliste
-
- 1
- Vorrichtung
- 2
- Eingangseinrichtung
- 3
- Recheneinrichtung
- 4
- Ausgabeeinrichtung
- 10
- Sensordaten
- 11
- Sichtstrahl
- 12
- Abstandsinformation
- 20
- Sensordaten
- 21
- Sichtstrahl
- 22
- Sensorsichtbereichsinformation
- 23
- Freibereich
- 30
- Vergleichsergebnis
- 31
- Abstand
- 32
- Schwellenwertkriterium
- 40
- Sensordaten
- 50
- Kraftfahrzeug
- 51
- Sensor (LI DAR-Sensor)
- 52
- Sensor (Kamera)
- 53
- Abstand
- 54
- weiterer Sensor
- 60
- Umfeld
- 61
- Wand
- 62
- Objekt
- 63
- Bereich