DE102018132676A1 - Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung - Google Patents

Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung Download PDF

Info

Publication number
DE102018132676A1
DE102018132676A1 DE102018132676.9A DE102018132676A DE102018132676A1 DE 102018132676 A1 DE102018132676 A1 DE 102018132676A1 DE 102018132676 A DE102018132676 A DE 102018132676A DE 102018132676 A1 DE102018132676 A1 DE 102018132676A1
Authority
DE
Germany
Prior art keywords
vehicle
cameras
image data
camera
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018132676.9A
Other languages
English (en)
Inventor
Stefan Milz
Georg Arbeiter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102018132676.9A priority Critical patent/DE102018132676A1/de
Publication of DE102018132676A1 publication Critical patent/DE102018132676A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network

Abstract

Die Erfindung betrifft ein Verfahren zum Lokalisieren eines Fahrzeugs (1) in einer Umgebung (10) mittels Bilddaten eines Kamerasystems des Fahrzeugs (1) mit folgenden Schritten: Bereitstellen eines Kamerasystems zur Erfassung der Umgebung (10), wobei das Kamerasystem mehrere Kameras (4) umfasst, wobei zumindest eine erste Kamera (4) ein erstes Sichtfeld (14) umfasst und zumindest eine zweite Kamera (4) ein zweites Sichtfeld (14) umfasst, Empfang von Bilddaten der Kameras (4) des Kamerasystems, Wichtung der Bilddaten der Kameras in Abhängig des Winkels (16) zwischen einer Mittelachse (15) des Sichtfelds (14) der Kameras (4) und einer Fahrtrichtung (5, 6) des Fahrzeugs (1), wobei Bilddaten einer Kamera (4) mit einem Gewicht versehen werde, welches umso größer ist, desto größer der Winkel (16) zwischen der Mittelachse (15) des Sichtfelds (14) der Kamera (4) und der Fahrtrichtung (5, 6) des Fahrzeugs (1) ist, Lokalisierung des Fahrzeugs (1) in der Umgebung (10) mittels Durchführung eines Verfahrens zur simultanen Lokalisierung und Kartenzuordnung (SLAM) basierend auf den gewichteten Bilddaten der Kameras (4). Die Erfindung betrifft außerdem eine Steuereinrichtung (3) sowie ein Fahrunterstützungssystem (2) zum Lokalisieren eines Fahrzeugs (1) in einer Umgebung (10) mittels Bilddaten eines Kamerasystems des Fahrzeugs (1). Die Erfindung betrifft weiterhin ein Computerprogrammprodukt.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung mittels Bilddaten eines Kamerasystems des Fahrzeugs. Auch betrifft die vorliegende Erfindung eine Steuereinrichtung für ein Fahrunterstützungssystem eines Fahrzeugs. Des Weiteren betrifft die vorliegende Erfindung ein Fahrunterstützungssystem zum Lokalisieren eines Fahrzeugs in einer Umgebung mittels Bilddaten eines Kamerasystems des Fahrzeugs. Auch betrifft die vorliegende Erfindung ein Computerprogrammprodukt.
  • Fahrunterstützungssysteme umfassen bereits heute weit verbreitete Fahrerassistenzsysteme, die einem Fahrzeugführer beim Führen des Fahrzeugs assistieren. Solche Fahrerassistenzsysteme umfassen beispielsweise Parkassistenzsysteme oder Abstandswarnsysteme, die typischerweise bei niedrigen Geschwindigkeiten aktiv sind, sowie zunehmend weitere Assistenzsysteme, die auch das Fahren bei höheren Geschwindigkeiten unterstützen, beispielsweise Spurwechselassistenzsysteme und Totwinkel-Assistenzsysteme. Die Fahrunterstützungssysteme können auch in autonomen Fahrzeugen entsprechende Funktionen bereitstellen, um eine teil-autonome oder autonome Bewegung des Fahrzeugs zu unterstützen.
  • Bei den im Stand der Technik bekannten Fahrunterstützungssystemen ist es häufig erforderlich, eine Umgebung eines jeweiligen Fahrzeugs, das oft als Ego-Fahrzeug bezeichnet wird, zu überwachen. Dies erfolgt mit Umgebungssensoren des Fahrzeugs bzw. des in dem Fahrzeug verwendeten Fahrunterstützungssystems. Solche Umgebungssensoren können als Ultraschallsensor, als Radarsensor oder als LiDAR-Sensor ausgeführt sein. Alternativ oder zusätzlich können die Umgebungssensoren Kameras umfassen. Die Umgebungssensoren sind ausgeführt, Sensorinformationen mit Umgebungsinformationen einer Umgebung des Fahrzeugs zu liefern. Dabei können Sensorinformationen einer Mehrzahl gleichartiger und/oder unterschiedlicher Umgebungssensoren kombiniert werden. Die Umgebungssensoren können dabei verschiedenen Fahrerassistenzsystemen gemeinsam zugeordnet sein, oder jeweils einem einzigen.
  • Zum autonomen Manövrieren eines Fahrzeugs, beispielsweise durch ein autonomes Steuersystem des Fahrzeugs, wird häufig auf Kartendaten zurückgegriffen. Derartige Kartendaten existieren üblicherweise jedoch nur für den öffentlichen Raum. Zum autonomen Manövrieren des Fahrzeugs auf nicht öffentlichem Raum, beispielsweise einem Privatgrund, stehen somit üblicherweise keine Kartendaten zur Verfügung. Soll das Fahrzeug in einer derartigen nicht kartierten Umgebung autonom bewegt werden, so stehen nur Sensordaten von den Sensoren des Fahrzeugs für die autonome Navigation zur Verfügung. In diesem Kontext ist es bekannt, dass sich das Fahrzeug anhand von Sensordaten, insbesondere Kamerabildern, bewegt.
  • Um die Bewegung des Fahrzeugs mittels Odometrie möglichst genau erfassen zu können, bedarf eines genauen Odometriemodells. In der Realität können aber beispielsweise infolge von Fertigungstoleranzen des Fahrzeugs, Modifikationen am Fahrzeug, beispielsweise einer Verwendung von Reifen mit einem abweichenden Durchmesser, oder auch Toleranzen von Fahrzeugparametern, beispielsweise einem Reifenluftdruck, Abweichungen von dem Odometriemodell auftreten. Dies umfasst weiterhin, dass das Lenksystem des Fahrzeugs entsprechende Toleranzen aufweist, oder dass Toleranzen bezüglich des Chassis und der Fahrzeuggeometrie, beispielsweise der Spurweite, einer Parallelität der Räder oder dergleichen, oder auch eine Asymmetrie des Fahrzeugs vorliegen.
  • Um diese Fehler in der Odometrie ausgleichen zu können, wird beispielsweise das sogenannte SLAM-Verfahren (SLAM - Simultaneous Localization and Mapping) verwendet. Bei diesem Verfahren kann beispielsweise eine Karte der Umgebung des Fahrzeugs erstellt und die räumliche Lage des Fahrzeugs innerhalb dieser Karte geschätzt werden.
  • Eine Grundvoraussetzung für eine allgemeine Anwendung von SLAM ist, dass ein Merkmal, d.h. ein Objekt auf der Karte, identifiziert werden kann, um dieses Objekt bei einer Bewegung des Fahrzeugs sukzessive nachverfolgen zu können. Eine solche Nachverfolgung wird bereits auf Basis von verschiedenartigen Umgebungssensoren realisiert, beispielsweise Kameras, LiDAR-basierten Sensoren, beispielsweise Laserscanner, Radarsensoren, oder anderen, die ein weites Sichtfeld aufweisen, so dass die selben Objekte nachverfolgt werden können, auch während einer Bewegung des Ego-Fahrzeugs.
  • Zentimetergenaue Lokalisierung ist für das hochautomatisierte Fahren fundamental. Videobasierte Ansätze, die eine vorab erzeugte Karte verwenden, ermöglichen eine Lokalisierung in Gebieten, in denen globale Satellitennavigationssysteme aufgrund von Abschattung und Mehrwegeausbreitung unzuverlässig sind. Jedoch hat eine einmalig erzeugte Karte nur eine begrenzte Gültigkeitsspanne, da sich die Umgebung aufgrund äußerer Einflüsse verändert. Visual SLAM ist ein Algorithmus zur Lokalisierung und Zuordnung von Objekten innerhalb einer Umgebung. Die Idee bei Visual SLAM ist es, Merkmale oder Verläufe in verschiedenen Bildern eines Videostroms zu finden, um ein 3D-Modell der umgebenden (gemessenen) Welt zu erzeugen und die Ich-Pose innerhalb der Welt abzuschätzen.
  • Aus der US 8,649,565 B1 ist ein System zur automatischen Objektlokalisierung auf Basis der visuellen simultanen Lokalisierung und Zuordnung (SLAM) und der kognitiven Schwarmerkennung bekannt. Das System ist konfiguriert, um einen Satz von Positionsdaten zu erfassen, die einem aktuellen Standort eines auf einer Plattform positionierten Sensors entsprechen. Ein Kartenmodell einer den Sensor umgebenden Umgebung wird basierend auf einem Eingangsbild des Sensors und den Standortdaten erzeugt. In einem gewünschten Aspekt wird ein kognitives Schwarmobjekt-Erkennungsmodul verwendet, um nach einem Objekt von Interesse zu suchen und zu erkennen. Die dreidimensionale Position des Objekts von Interesse in Bezug auf die Plattform wird dann basierend auf dem Kartenmodell und den Positionsdaten des Sensors geschätzt. Das beschriebene System ermöglicht eine kontinuierliche dreidimensionale Echtzeit-Ortungsaktualisierung für bewegliche Objekte von Interesse von einer mobilen Plattform aus. Ein computerimplementiertes Verfahren und ein Computerprogrammprodukt werden ebenfalls beschrieben.
  • Ausgehend von dem oben genannten Stand der Technik liegt der Erfindung somit die Aufgabe zugrunde, ein Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung bereitzustellen, bei dem die Kartierungsfehler minimiert werden und eine Verbesserung der Posen und Landmarkenschätzung erreicht wird. Sowie liegt der Erfindung die Aufgabe zugrunde, eine Steuereinrichtung für ein Fahrunterstützungssystem eines Fahrzeugs, ein Fahrunterstützungssystem für ein Fahrzeug mit einer solchen Steuereinrichtung sowie ein Computerprogrammprodukt anzugeben, die eine zuverlässige Bestimmung einer Position des Fahrzeugs in Bezug auf seine Umgebung ermöglichen.
  • Die Lösung der Aufgabe erfolgt erfindungsgemäß durch die Merkmale der unabhängigen Ansprüche. Vorteilhafte Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben.
  • Erfindungsgemäß ist somit ein Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung mittels Bilddaten eines Kamerasystems des Fahrzeugs angegeben mit folgenden Schritten: Bereitstellen eines Kamerasystems zur Erfassung der Umgebung, wobei das Kamerasystem mehrere Kameras umfasst, wobei zumindest eine erste Kamera ein erstes Sichtfeld umfasst und zumindest eine zweite Kamera ein zweites Sichtfeld umfasst, Empfang von Bilddaten der Kameras des Kamerasystems, Wichtung der Bilddaten der Kameras in Abhängigkeit des Winkels zwischen einer Mittelachse des Sichtfelds der Kameras und einer Fahrtrichtung des Fahrzeugs, wobei Bilddaten einer Kamera mit einem Gewicht versehen werde, welches umso größer ist, desto größer der Winkel zwischen der Mittelachse des Sichtfelds der Kamera und der Fahrtrichtung des Fahrzeugs ist, Lokalisierung des Fahrzeugs in der Umgebung mittels Durchführung eines Verfahrens zur Simultanen Lokalisierung und Kartenzuordnung (SLAM) basierend auf den gewichteten Bilddaten der Kameras.
  • Grundidee der vorliegenden Erfindung ist es also, eine Lokalisierung eines Fahrzeugs in einer Umgebung mittels Durchführung eines Verfahrens zur simultanen Lokalisierung und Kartenzuordnung (SLAM) anzugeben, wobei die für die Durchführung des SLAM-Verfahrens notwendigen Bilddaten in Abhängigkeit des Winkels zwischen einer Mittelachse des Sichtfelds der Kamera und einer Fahrtrichtung des Fahrzeugs gewichtet werden. Die Bilddaten einer Kamera werden dabei mit einem Gewicht versehen, welches umso größer ist, desto größer der Winkel zwischen der Mittelachse des Sichtfelds der Kamera und der Fahrtrichtung des Fahrzeugs ist. Mit anderen Worten erhalten lateral oder rückwärts zur Fahrrichtung gerichtete Kameras stets eine höhere Wichtung als vorwärtsgerichtete Kameras. Dies hat den Vorteil, dass Bilddaten von fehleranfälligen Kameras, wie beispielsweise vorwärtsgerichtete Kameras mit einem geringeren Gewicht in die spätere simultane Lokalisierung und Kartenzuordnung eingehen. Dadurch wir der Kartierungsfehler durch die Wichtung der Bilddaten der Kameras minimiert.
  • Das Verfahren zur simultanen Lokalisierung und Kartenzuordnung (SLAM) wird somit basierend auf gewichteten Bilddaten der Kameras durchgeführt. Vorzugsweise wird das Verfahren zur simultanen Lokalisierung und Kartenzuordnung kontinuierlich durchgeführt, um sich ergebende Kartierungsfehler fortlaufend zu korrigieren. Dabei kann es insbesondere vorgesehen sein, dass für die Lokalisierung des Fahrzeugs gleichzeitig die Bilddaten aller Kameras verwendet und entsprechend gewichtet werden.
  • Das Fahrzeug ist ein prinzipiell beliebiges Fahrzeug mit dem Fahrunterstützungssystem. Das Fahrunterstützungssystem kann ein bereits heute weit verbreitetes Fahrerassistenzsystem sein, das einen Fahrzeugführer beim Führen des Fahrzeugs unterstützt. Das Fahrunterstützungssystem kann auch in einem autonomen oder semiautonomen Fahrzeug eine entsprechende Funktion bereitstellen, um eine autonome oder semi-autonome Führung des Fahrzeugs zu unterstützen.
  • In vorteilhafter Ausgestaltung der Erfindung beinhaltet der Schritt der Wichtung der Bilddaten der Kameras in Abhängigkeit des Winkels zwischen einer Mittelachse des Sichtfelds der Kameras und einer Fahrtrichtung des Fahrzeugs, eine dynamische Anpassung der Wichtung der Bilddaten in Abhängigkeit der Fahrtrichtung des Fahrzeugs. Eine dynamische Wichtung der Bilddaten ist von Vorteil, da dadurch eine fortlaufende Korrektur von Kartierungsfehlern für verschieden Fahrsituation wie beispielsweise Vorwärtsfahrten, Rückwärtsfahren oder auch Kurvenfahren abdeckt werden können, wodurch eine schnelle und robuste Datengenerierung resultiert.
  • In weiter vorteilhaften Ausgestaltung der Erfindung umfasst das Kamerasystem mindestens vier Kameras, wobei die Kameras derart angeordnet sind, die gesamte Umgebung des Fahrzeugs abzudecken. Mittel einer entsprechenden Anzahl an Kameras wird zum einen ermöglicht, den kompletten Bereich um das Fahrzeug zu überwachen und zum anderen können mehr Bilder aufgenommen und mehr Daten generiert werden, wodurch eine entsprechende Umgebungskarte größer und detaillierter wird.
  • Gemäß einer Weiterbildung ist vorgesehen, dass zumindest zwei Kameras diametral angeordnet. Die diametrale Anordnung der Kameras hat den Vorteil, dass unterschiedliche Bereiche der Umgebung abgedeckt und aufgenommen werden können.
  • In einer vorteilhaften Ausgestaltung der Erfindung sind die Kameras Fischaugen-Kameras. Fischaugen-Kameras zeichnen sich u.a. durch ihren großen Sichtbereich von teilweise mehr als 180° aus.
  • Gemäß einer Weiberbildung der Erfindung ist das Kamerasystem Bestandteil eines Surround-View Systems des Fahrzeugs. Surround View Systeme sind bereits fester Bestandteil von Fahrzeugen. Sie basieren häufig auf vier Fischaugen-Kameras mit einem horizontalen Blickwinkel von mehr als 180° und ermöglichen es, den kompletten Bereich um das Fahrzeug zu überwachen. Durch Kombination dieser Kameras können beliebige Ansichten um das Fahrzeug generiert werden. Da Surround-View Systeme bereits Bestandteil von Fahrzeugen sind, muss keine teure Sensorik verbaut werden, wodurch eine kostengünstige Möglichkeit der Lokalisierung des Fahrzeugs in einer Umgebung ermöglicht wird.
  • Erfindungsgemäß ist außerdem eine Steuereinrichtung für ein Fahrunterstützungssystem eines Fahrzeugs angeben, wobei die Steuereinrichtung eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen. Die zuvor im Rahmen des Verfahrens beschriebenen Weiterbildungen und Ausführungsformen bilden ebenfalls die erfindungsgemäße Steuereinrichtung weiter.
  • In vorteilhafter Ausgestaltung der Erfindung ist die Steuereinrichtung derart eingerichtet eine Wichtung der Bilddaten der Kameras in Abhängigkeit des Winkels zwischen einer Mittelachse des Sichtfelds der Kameras und einer Fahrtrichtung des Fahrzeugs durchzuführen.
  • Weiter ist erfindungsgemäß ein Fahrunterstützungssystem zum Lokalisieren eines Fahrzeugs in einer Umgebung mittels Bilddaten eines Kamerasystems des Fahrzeugs angegeben, mit einem Kamerasystem zur Erfassung der Umgebung, wobei das Kamerasystem mehrere Kameras umfasst, wobei zumindest eine erste Kamera ein erstes Sichtfeld umfasst und zumindest eine zweite Kamera ein zweites Sichtfeld umfasst, und einer Steuereinrichtung der oben beschriebenen Art.
  • Ebenfalls erfindungsgemäß ist ein Computerprogrammprodukt mit Programmcodemitteln angegeben, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung mittels Bilddaten eines Kamerasystems des Fahrzeugs der oben beschriebenen Art durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinrichtung abgearbeitet wird. Dementsprechend gehört zur Erfindung außerdem ein computerlesbares Medium, insbesondere in Form einer computerlesbaren Diskette, CD, DVD, Speicherkarte, USB-Speichereinheit, oder ähnlichen, in dem Programmcodemittel gespeichert sind, um das Verfahren zum Lokalisieren des Kraftfahrzeugs in der Umgebung der zuvor beschriebenen Art durchzuführen, wenn die Programmcodemittel in einen Speicher einer elektronischen Steuereinrichtung geladen und auf einem Prozessor der elektronischen Steuereinrichtung abgearbeitet werden.
  • Nachfolgend wird die Erfindung unter Bezugnahme auf die anliegende Zeichnung anhand bevorzugter Ausführungsformen näher erläutert. Die dargestellten Merkmale können sowohl jeweils einzeln als auch in Kombination einen Aspekt der Erfindung darstellen. Merkmale verschiedener Ausführungsbeispiele sind übertragbar von einem Ausführungsbeispiel auf ein anderes.
  • Es zeigt
    • 1 eine schematische Darstellung eines Fahrzeugs gemäß einer ersten, bevorzugten Ausführungsform der Erfindung mit einen Fahrunterstützungssystem mit einer Mehrzahl Kameras zum Erfassen einer Umgebung in einer Draufsicht,
    • 2 ein Ablaufdiagramm eines Verfahrens gemäß einer weiteren bevorzugten Ausführungsform der Erfindung,
    • 3 ein Blockdiagramm einer weiteren bevorzugten Ausführungsform der Erfindung.
  • Die 1 zeigt ein Fahrzeug 1 gemäß einer ersten, bevorzugten Ausführungsform der vorliegenden Erfindung. Das Fahrzeug 1 ist vorliegend als Personenkraftwagen ausgebildet. Das Fahrzeug 1 umfasst dabei ein Fahrunterstützungssystem 2, wobei das Fahrunterstützungssystem 2 eine Steuereinrichtung 3 umfasst, die hier durch ein elektronisches Steuergerät (ECU - Electronic Control Unit) des Fahrzeugs gebildet ist. Darüber hinaus umfasst das Fahrunterstützungssystem 2 eine Mehrzahl von Kameras 4. In dem vorliegenden Ausführungsbeispiel umfasst das Fahrunterstützungssystem 2 vier Kameras 4, von denen eine in einem Frontbereich 7, eine in einem Heckbereich 8 und zwei an jeder Seite 9 des Fahrzeugs 1 angeordnet sind. Jede Kamera 4 ist derart eingerichtet die Umgebung 10 des Fahrzeugs 1 zu erfassen. Dabei ist insbesondere von Vorteil, wenn die Kameras 4 ein großes Sichtfeld 14 aufweisen. Daher sind insbesondere Fischaugen-Kameras 4 vorteilhaft, da Fischaugen-Kameras 4 sich durch ein großes Sichtfeld 14 von mehr als 180° auszeichnen. Dadurch kann beispielsweise mit vier Fischaugen-Kameras 4, wobei jeweils zwei Kameras diametral voneinander angeordnet sind, das gesamte 360° Sichtfeld erfasst werden. Insbesondere kann es auch vorgesehen sein, dass die Fischaugen-Kameras 4 bereits Bestandteil eines Surround View Systems des Fahrzeugs 1 sind. Der große Vorteil ist, dass in kurzer Zeit, aufgrund der Anzahl der Kameras 4, viel mehr Daten gesammelt werden können, da alle erzeugten Daten in derselben Karte gespeichert werden. Ein weiterer großer Vorteil liegt in der Verbesserung der Posenschätzung. Dadurch kann eine anforderungsgerechte Fahrzeuglokalisierung mit kontinuierlicher Posenschätzung genauer durchgeführt werden.
  • Die Kameras 4 sind jeweils zur Datenübertragung mit der Steuereinrichtung 3 über einen hier nicht dargestellten Datenbus verbunden. Von den Kameras 4 erzeugte Bilddaten werden über den Datenbus an die Steuereinrichtung 3 übertragen, und dort gemeinsam ausgewertet und weiterverarbeitet. Die gleichzeitige Ausführung eines visuellen SLAMs mit vier Kameras 4 auf derselben Karte führt zu einer viermal dichteren Punktwolke und einem viermal geringeren Lokalisierungsfehler für die Posenschätzung, da jede Pose durch die anderen drei Posenschätzungen aufgrund der bekannten Einbaulage der Kameras 4 verbessert werden kann und umgekehrt. Durch die vorausgesetzte Kalibrierung sind alle Kameras 4 zueinander referenziert. Jede Kamera 4 sagt eine Pose aufgrund ihrer Bilddaten voraus, die Posen sind untereinander fixiert, so dass jede Posenschätzung durch die parallele Posenschätzung verbessert werden kann.
  • Die von den Kameras 4 aufgenommen Bilddaten werden außerdem noch gewichtet. Die Wichtung erfolgt dabei in Abhängigkeit von der Fahrtrichtung 5, 6 des Fahrzeugs 1. Dabei werden Bilddaten einer Kamera 4 mit einem Gewicht versehen werde, welches umso größer ist, desto größer der Winkel 16 zwischen der Mittelachse 15 des Sichtfelds 14 der Kamera 4 und der Fahrtrichtung 5, 6 des Fahrzeugs 1 ist. Insbesondere kann es vorgesehen sein, dass die Wichtung dynamisch angepasst wird. Beispielsweise kann die Wichtung kontinuierlich mit dem Lenkwinkel 13 des Fahrzeugs 1 verglichen und angepasst werden. Dadurch kann eine Wichtung dynamisch zur Fahrrichtung 5,6 erzielt werden. Dabei erhalten Bilddaten lateral oder rückwärts zur Fahrtrichtung 5, 6 gerichtete Kameras 4 stets eine höhere Wichtung als vorwärtsgerichtete Kameras 4, da diese fehleranfälliger sind. Daraus resultiert eine schnelle robuste, kostengünstige Datengenerierung.
  • Nachfolgend wird ein Verfahren gemäß einer ersten Ausführungsform zum Lokalisieren eines Fahrzeugs 1 in einer Umgebung 10 unter Bezug auf 1 beschrieben. Das Verfahren wird mit dem Fahrunterstützungssystem 2 des Fahrzeugs 1 der ersten Ausführungsform durchgeführt.
  • Das Verfahren beginnt in Schritt S100 mit dem Bereitstellen eines Kamerasystems an einem Fahrzeug 1. Das Kamerasystem kann insbesondere ein mit Fischaugen-Kameras 4 ausgestattetes Surround-View System sein. Das Kamerasystem ist dabei derart eingerichtet, die gesamte Umgebung des Fahrzeugs 1 mittels der Kameras 4 aufnehmen zu können.
  • In Schritt S110 werden Bilddaten der Umgebung 10 des Fahrzeugs 1 mit einer an dem Fahrzeug positionierten Kamera erfasst. Das Erfassen der Umgebung erfolgt beispielsweise bei einer Vorbeifahrt des Fahrzeugs an einem Objekt 11.
  • In Schritt S120 wird eine Wichtung der Bilddaten vorgenommen. Dabei wird die Wichtung der Bilddaten der Kameras 4 in Abhängigkeit des Winkels 16 zwischen einer Mittelachse 15 des Sichtfelds 14 der Kameras 4 und einer Fahrtrichtung 5, 6 des Fahrzeugs 1 vorgenommen, wobei Bilddaten einer Kamera 4 mit einem Gewicht versehen werden, welches umso größer ist, desto größer der Winkel 16 zwischen der Mittelachse 15 des Sichtfelds 14 und der Fahrrichtung 5, 6 ist. Mit anderen Worten erhalten damit lateral oder rückwärts zur Fahrrichtung 5, 6 gerichtete Kameras 4 stets eine höhere Wichtung als vorwärtsgerichtete Kameras 4. Die Wichtung kann beispielsweise mit Hilfe weitere Informationen des Fahrzeugs 1 bereitgestellt werden. Beispielsweise kann die Wichtung mit dem Lenkwinkel 13 der Reifen angepasst werden.
  • Schritt S130 betrifft das Durchführen eines Verfahrens zur simultanen Lokalisierung und Kartenzuordnung (SLAM) basierend auf den gewichteten Bilddaten. Dabei wird die Position des Fahrzeugs 1 basierend auf den Bilddaten des Kamerasystems bestimmt. Die Bestimmung erfolgt basierend auf Informationen, die von dem Fahrzeug 1 selbst basierend auf seinen Kameras 4 gewonnen werden. Dabei kann insbesondere vorgesehen sein, dass eine Posenschätzung gleichzeitig mittels aller vier Kameras 4 mit dynamischer Wichtung der Bilddaten durchgeführt wird. Außerdem führt die gleichzeitige Ausführung eines visuellen SLAMs mit vier Kameras auf derselben Karte zu einer viermal dichteren Punktwolke und einem viermal geringeren Lokalisierungsfehler für die Posenschätzung, da jede Pose durch die anderen drei Posenschätzungen aufgrund der festen Einbaulage der Kameras 4 verbessert werden könnte und umgekehrt.
  • Die 3 zeigt ein Blockdiagramm einer weiteren bevorzugten Ausführungsform der Erfindung. Das Blockdiagramm zeigt beispielhaft eine Ausführungsform mit vier Kameras 4, wobei die Kameras 4 die Bilddaten jeweils einem Tracker 17 zur Verfügung stellen. Die Bilddaten sind in Abhängigkeit des Winkels 16 der Mittelachse 15 des Sichtfelds 14 der Kameras 4 gegenüber der Fahrtrichtung 5, 6 des Fahrzeugs 1 gewichtet. Die simultane Lokalisierung und Kartenzuordnung wird nur für bestimmte Referenzbereiche in den Bilddaten angewendet, um eine höhere Leistung zu erzielen. Diese Referenzbereiche sind als Keyframes 18 bekannt und werden nach bestimmten zeitlichen und räumlichen Kriterien ausgewählt. Daher werden von dem Tracker 17 nur Keyframes 18 für die globale Posenschätzung 19 zur Verfügung gestellt. Aus der globalen Posenschätzung 19 wird wiederum eine robuste Karte 20 generiert. Die gleichzeitige Ausführung eines visuellen SLAMs mit vier Kameras 4 auf derselben Karte führt zu einer viermal dichteren Punktwolke und einem viermal geringeren Lokalisierungsfehler für die Posenschätzung, da jede Pose durch die anderen drei Posenschätzungen aufgrund der festen Einbaulage der Kameras verbessert werden kann.
  • Das vorliegende Verfahren zur Lokalisierung von Fahrzeugen ist ein Beispiel für ein kamerabasiertes Verfahren zur simultanen Lokalisierung und Kartenzuordnung wobei eine semi-dichte oder dichte Umgebungskarte erzeugt wird. Aufgrund der Wichtung der Bilddaten ist das vorliegende Verfahren besonders robust gegenüber Veränderungen in der Umgebung einerseits und gegenüber Kartierungsfehlern andererseits. Ein Beispiel für eine Veränderung in der Umgebung sind beispielsweise neu hinzukommende Objekte. Dadurch kann die Genauigkeit der Lokalisierung insgesamt gesteigert werden.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Fahrunterstützungssystem
    3
    Steuereinrichtung
    4
    Kamera
    5
    Fahrtrichtung bei Vorwärtsfahrt
    6
    Fahrtrichtung bei Rückwärtsfahrt
    7
    Frontbereich des Fahrzeugs
    8
    Heckbereich des Fahrzeugs
    9
    Seite des Fahrzeugs
    10
    Umgebung
    11
    Objekt
    12
    Reifen
    13
    Lenkwinkel
    14
    Sichtfeld der Kamera
    15
    Mittelachse des Sichtfelds
    16
    Winkel
    17
    Tracker
    18
    Keyframes
    19
    Globale Posenschätzung
    20
    Robuste Kartenerstellung
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 8649565 B1 [0009]

Claims (10)

  1. Verfahren zum Lokalisieren eines Fahrzeugs (1) in einer Umgebung (10) mittels Bilddaten eines Kamerasystems des Fahrzeugs (1) mit folgenden Schritten: Bereitstellen eines Kamerasystems zur Erfassung der Umgebung (10), wobei das Kamerasystem mehrere Kameras (4) umfasst, wobei zumindest eine erste Kamera (4) ein erstes Sichtfeld (14) umfasst und zumindest eine zweite Kamera (4) ein zweites Sichtfeld (14) umfasst, Empfang von Bilddaten der Kameras (4) des Kamerasystems, Wichtung der Bilddaten der Kameras in Abhängigkeit des Winkels (16) zwischen einer Mittelachse (15) des Sichtfelds (14) der Kameras (4) und einer Fahrtrichtung (5, 6) des Fahrzeugs (1), wobei Bilddaten einer Kamera (4) mit einem Gewicht versehen werde, welches umso größer ist, desto größer der Winkel (16) zwischen der Mittelachse (15) des Sichtfelds (14) der Kamera (4) und der Fahrtrichtung (5, 6) des Fahrzeugs (1) ist, Lokalisierung des Fahrzeugs (1) in der Umgebung (10) mittels Durchführung eines Verfahrens zur simultanen Lokalisierung und Kartenzuordnung (SLAM) basierend auf den gewichteten Bilddaten der Kameras (4).
  2. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der Schritt der Wichtung der Bilddaten der Kameras (4) in Abhängigkeit des Winkels (16) zwischen einer Mittelachse (15) des Sichtfelds (14) der Kameras (4) und einer Fahrtrichtung (5, 6) des Fahrzeugs (1), eine dynamische Anpassung der Wichtung der Bilddaten in Abhängigkeit der Fahrtrichtung (5, 6) des Fahrzeugs beinhaltet.
  3. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Kamerasystem mindestens vier Kameras (4) umfasst, wobei die Kameras (4) derart angeordnet sind, die gesamte Umgebung (10) des Fahrzeugs (1) abzudecken.
  4. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass zumindest zwei Kameras (4) diametral zueinander angeordnet sind.
  5. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass die Kameras (4) Fischaugen-Kameras sind.
  6. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass das Kamerasystem Bestandteil eines Surround-View Systems des Fahrzeugs (1) ist.
  7. Steuereinrichtung (3) für ein Fahrunterstützungssystem (2) eines Fahrzeugs (1), wobei die Steuereinrichtung (3) derart eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.
  8. Steuereinrichtung (3) nach Anspruch 7 dadurch gekennzeichnet, dass die Steuereinrichtung (3) derart eingerichtet ist eine Wichtung der Bilddaten der Kameras (4) in Abhängig des Winkels (16) zwischen einer Mittelachse (15) des Sichtfelds (14) der Kameras (4) und einer Fahrtrichtung (5, 6) des Fahrzeugs (1) durchzuführen.
  9. Fahrunterstützungssystem (2) zum Lokalisieren eines Fahrzeugs (1) in einer Umgebung (10) mittels Bilddaten eines Kamerasystems des Fahrzeugs (1), mit einem Kamerasystem zur Erfassung der Umgebung (10), wobei das Kamerasystem mehrere Kameras (4) umfasst, wobei zumindest eine erste Kamera (4) ein erstes Sichtfeld (14) umfasst und zumindest eine zweite Kamera (4) ein zweites Sichtfeld (14) umfasst, und einer Steuereinrichtung (3) nach einem der Ansprüche 7 bis 8.
  10. Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Lokalisieren eines Fahrzeugs (1) in einer Umgebung (10) mittels Bilddaten eines Kamerasystems des Fahrzeugs (1) nach einem der vorhergehenden Ansprüche 1 bis 6 durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Steuereinrichtung (3) abgearbeitet wird.
DE102018132676.9A 2018-12-18 2018-12-18 Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung Pending DE102018132676A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018132676.9A DE102018132676A1 (de) 2018-12-18 2018-12-18 Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018132676.9A DE102018132676A1 (de) 2018-12-18 2018-12-18 Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung

Publications (1)

Publication Number Publication Date
DE102018132676A1 true DE102018132676A1 (de) 2020-06-18

Family

ID=70859380

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018132676.9A Pending DE102018132676A1 (de) 2018-12-18 2018-12-18 Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung

Country Status (1)

Country Link
DE (1) DE102018132676A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021201678A1 (de) 2021-02-23 2022-08-25 Tripleye Gmbh Optische Baugruppe zur Erzeugung einer Echtzeit-Abbildung und einer Echtzeit-Zuordnung von Umgebungs-Objekten sowie Fahrzeug mit einer derartigen Baugruppe
US20230166659A1 (en) * 2021-11-29 2023-06-01 Texas Instruments Incorporated Below vehicle rendering for surround view systems

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649565B1 (en) 2009-06-18 2014-02-11 Hrl Laboratories, Llc System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition
DE102012215322A1 (de) * 2012-08-29 2014-03-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen einer Position eines Fahrzeugs auf einer Fahrspur

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8649565B1 (en) 2009-06-18 2014-02-11 Hrl Laboratories, Llc System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition
DE102012215322A1 (de) * 2012-08-29 2014-03-06 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen einer Position eines Fahrzeugs auf einer Fahrspur

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021201678A1 (de) 2021-02-23 2022-08-25 Tripleye Gmbh Optische Baugruppe zur Erzeugung einer Echtzeit-Abbildung und einer Echtzeit-Zuordnung von Umgebungs-Objekten sowie Fahrzeug mit einer derartigen Baugruppe
WO2022179998A1 (de) 2021-02-23 2022-09-01 Tripleye Gmbh Optische baugruppe zur erzeugung einer echtzeit-abbildung und einer echtzeit-zuordnung von umgebungs-objekten sowie fahrzeug mit einer derartigen baugruppe
US20230166659A1 (en) * 2021-11-29 2023-06-01 Texas Instruments Incorporated Below vehicle rendering for surround view systems
US11858420B2 (en) * 2021-11-29 2024-01-02 Texas Instruments Incorporated Below vehicle rendering for surround view systems

Similar Documents

Publication Publication Date Title
DE102009012435B4 (de) Vorrichtung und Verfahren zum monokularen Motion-Stereo-basierten Detektieren von freien Parkplätzen
EP3177498B1 (de) Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102018114808A1 (de) Verfahren zur automatischen Querführung eines Folgefahrzeugs in einem Fahrzeug-Platoon
DE102019133703A1 (de) Verfahren und systeme zur herstellung und lokalisierung für ein fahrzeug
DE102010047162A1 (de) Verfahren und Vorrichtung zum Erkennen von freien Parkplätzen
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
WO2016020347A1 (de) Verfahren zum erkennen eines objekts in einem umgebungsbereich eines kraftfahrzeugs mittels eines ultraschallsensors, fahrerassistenzsystem sowie kraftfahrzeug
DE102018106804A1 (de) Routenerzeugungsvorrichtung, Routenerzeugungsverfahren und Routenerzeugungsprogramm
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102020102712A1 (de) Entfernung von fehlalarmen in der keulenbildungsphase zum erfassen von radaren unter verwendung eines tiefen neuronalen netzwerks
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102021103370A1 (de) Objekterkennung mittels low-level-kamera-radar-fusion
DE102015116542A1 (de) Verfahren zum Bestimmen einer Parkfläche zum Parken eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2020193273A1 (de) Verfahren und vorrichtung zum betrieb eines roboters mit verbesserter objektdetektion
EP3454084A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems für ein kraftfahrzeug unter verwendung einer vektorbasierten und einer gitterbasierten umgebungskarte sowie fahrerassistenzsystem
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102018132676A1 (de) Verfahren zum Lokalisieren eines Fahrzeugs in einer Umgebung
WO2015090691A1 (de) Verfahren zum erzeugen eines umgebungsmodells eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE112020000325T5 (de) Schätzung von Anhängereigenschaften mit Fahrzeugsensoren
DE102021205154B4 (de) Vorrichtung und verfahren zum erzeugen eines vogelperspektive-bilds
DE102020127315B4 (de) System und Verfahren zum Annotieren von Automobilradardaten
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102020205468A1 (de) Autonomes und/oder assistiertes Kuppeln eines Anhängers unter Berücksichtigung des Höhenprofils des Untergrunds
DE102016122215A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems eines Kraftfahrzeugs mit erweitertem Lernmodus, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019115712A1 (de) Trajektorienoptimierung für eine gefahrene Trajektorie

Legal Events

Date Code Title Description
R163 Identified publications notified