DE102014104663B4 - Fahrbahnbasierte Lokalisierung - Google Patents
Fahrbahnbasierte Lokalisierung Download PDFInfo
- Publication number
- DE102014104663B4 DE102014104663B4 DE102014104663.3A DE102014104663A DE102014104663B4 DE 102014104663 B4 DE102014104663 B4 DE 102014104663B4 DE 102014104663 A DE102014104663 A DE 102014104663A DE 102014104663 B4 DE102014104663 B4 DE 102014104663B4
- Authority
- DE
- Germany
- Prior art keywords
- lanes
- road surface
- data
- vehicle
- expected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000004807 localization Effects 0.000 title claims abstract description 12
- 230000003044 adaptive effect Effects 0.000 claims abstract description 13
- 238000009499 grossing Methods 0.000 claims abstract description 6
- 230000033001 locomotion Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 18
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004870 electrical engineering Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011897 real-time detection Methods 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
- Steering Control In Accordance With Driving Conditions (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
Abstract
einen oder mehrere auf einem Fahrzeug (200) angebrachte Sensoren (116); und
eine Rechnervorrichtung (100) in Kommunikation mit dem einen oder den mehreren Sensoren (116);
einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung (100); und
einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren benutzt werden, wobei der eine oder die mehreren Prozessoren geeignet sind, im Speicher gespeicherte Befehle auszuführen, um:
von dem einen oder den mehreren Sensoren (116) eine Straßenoberfläche in der Nähe des Fahrzeugs (200) repräsentierende Daten zu empfangen;
die Daten zu entfernen, die unter eine adaptive Schwelle der gesammelten Intensitätswerte der die Straßenoberfläche repräsentierenden Daten fallen, um Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierende Daten zu isolieren;
durch Anwendung mehrerer Filter, basierend auf den Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten entdeckte Fahrbahnen (500, 502) zu erstellen, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren, und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren;
durch Anwendung der in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten erwartete Fahrbahnen (600, 602) in der Nähe des Fahrzeugs (200) zu erstellen;
die entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602) zu vergleichen; und
eine lokalisierte Fahrzeugposition basierend auf dem Vergleich zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602) zu erstellen.
Description
- HINTERGRUND
- Die autonome bzw. selbstständige Navigation eines Fahrzeugs erfordert Gewissheit hinsichtlich der Fahrzeugposition mit einem ausreichenden Grad an Genauigkeit. Die Berechnung einer präzisen physischen Position des Fahrzeugs in Bezug auf eine Darstellung seiner Umgebung kann als Lokalisierung bezeichnet werden. Die Lokalisierung kann für autonome Fahrzeuge durch einen Vergleich der aktuellen Fahrzeugposition in Bezug auf eine Straße oder andere geographische Merkmale mit einer Darstellung der in einer detaillierten, virtuellen Karte aufgezeichneten gleichen Straße oder der gleichen Merkmale erfolgen.
- Der Stand der Technik beschreibt hierzu verschiedene Ansätze, siehe beispielsweise:
- • N. Suganuma, T. Uozumi: „Precise position estimation of autonomous vehicle based on map-matching", in Intelligent Vehicles Symposium (IV), 2011 IEEE, vol., no., pp. 296-301, 5-9 June 2011,
- • M. Aly: „Real time Detection of Lane Markers in Urban Streets", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 7-12, 4-6 June 2008,
- • J. Han et al.: „Enhanced Road Boundary and Obstacle Detection Using a Downward-Looking LIDAR Sensor", in Vehicluar Technology, IEEE Transactions on. vol. 61, no. 3, pp. 971-985, March 2012,
- • S. Kammel, B. Pitzer: „Lidar-based lane marker detection an mapping", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 1137-1142, 4-6 June 2008, und
- • Albert S. Huang: „Lane Estimation for Autonomous Vehicles using Vision and LIDAR", Thesis (Ph. D.), Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2010,
- •
US 2010/0014713 A1 - •
US 2010/0 121 577 A1 - •
EP 2 228 782 A1 , - •
US 2010/0 114 416 A1 - •
US 2001 / 0 056 326 A1 - KURZFASSUNG DER ERFINDUNG
- Ein System, eine Vorrichtung und ein Verfahren zur fahrbahnbasierten Lokalisierung.
- Am Beispiel einer Anwendung wird ein autonomes Navigationssystem offenbart, das eine fahrbahnbasierte Lokalisierung benutzt. Das System schließt einen oder mehrere auf einem Fahrzeug angeordnete Sensoren ein; und eine Rechnervorrichtung, die mit dem einen oder den mehreren Sensoren verbunden ist. Die Rechnervorrichtung schließt einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung ein, sowie einen Speicher zur Speicherung von Daten und Programmbefehlen zur Verwendung durch den einen oder die mehreren Prozessoren. Der eine oder die mehreren Prozessoren sind so gestaltet, dass sie im Speicher gespeicherte Befehle ausführen, um: von dem einen Sensor oder den mehreren Sensoren Daten zu empfangen, die eine Straßenoberfläche nahe dem Fahrzeug repräsentieren; von den die Straßenoberfläche repräsentierenden Daten die Daten zu entfernen, die unter eine adaptive Schwelle fallen, um Daten zu isolieren, die Abgrenzungen auf der Straßenoberfläche repräsentieren; durch Anwendung eines oder mehrerer Filter auf der Basis der Abgrenzungen auf der Fahrbahn repräsentierenden Daten entdeckte Fahrbahnen zu erzeugen; erwartete, dem Fahrzeug nahegelegene Fahrbahnen unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten zu erzeugen; die entdeckten mit den erwarteten Fahrbahnen zu vergleichen und basierend auf dem Vergleich der entdeckten mit den erwarteten Fahrbahnen eine lokalisierte Fahrzeugposition zu erstellen.
- Eine andere Anwendung eines computergestützten bzw. -implementierten Verfahrens zur autonomen Navigation unter Nutzung einer fahrbahnbasierten Lokalisierung wird offenbart. Das Verfahren schließt den Empfang von die Straßenoberfläche in der Umgebung des Fahrzeugs repräsentierenden Daten von einem oder mehreren auf einem Fahrzeug angeordneten Sensoren und das Entfernen von unter eine adaptive Schwelle fallenden Daten aus den die Straßenoberfläche repräsentierenden Daten ein, um die Abgrenzungen auf der Straßenoberfläche repräsentierenden Daten zu isolieren. Das Verfahren schließt weiter die Erzeugung der auf der Basis der die Abgrenzungen auf der Fahrbahnoberfläche repräsentierenden Daten durch die Anwendung eines oder mehrerer Filter entdeckten Fahrbahnen ein, die Erzeugung erwarteter Fahrbahnen in der Umgebung des Fahrzeugs unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten, Vergleichen der entdeckten mit den erwarteten Fahrbahnen und Erstellung einer lokalisierten Fahrzeugposition basierend auf dem Vergleich der entdeckten mit den erwarteten Fahrbahnen.
- Bei einer anderen Anwendung wird eine Rechner- bzw. Berechnungsvorrichtung offenbart. Die Rechnervorrichtung schließt einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung ein, und einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren verwendet werden. Der eine oder die mehreren Prozessoren sind so gestaltet, dass sie im Speicher gespeicherte Befehle ausführen, um von einem oder mehreren auf einem Fahrzeug angeordneten Sensoren Daten zu empfangen, die eine Straßenfläche nahe dem Fahrzeug repräsentieren; die unter eine adaptive Schwelle fallenden Daten aus den die Straßenoberfläche repräsentierenden Daten zu entfernen, um Daten zu isolieren, die Abgrenzungen auf der Straßenoberfläche repräsentieren; entdeckte Fahrbahnen auf der Basis der die Abgrenzungen auf der Fahrbahnoberfläche repräsentierenden Daten durch die Anwendung eines oder mehrerer Filter zu erstellen; nahe dem Fahrzeug erwartete Fahrbahnen unter Benutzung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten zu erzeugen; die entdeckten Fahrbahnen mit den erwarteten Fahrbahnen zu vergleichen und eine lokalisierte Fahrzeugposition auf der Basis des Vergleichs der entdeckten mit den erwarteten Fahrbahnen zu erstellen.
- Figurenliste
- Die Beschreibung nimmt Bezug auf die beigefügten Zeichnungen, in welchen durch die verschiedenen Ansichten hinweg sich gleiche Bezugszahlen auf gleiche Teile beziehen und in denen:
-
1 ein Blockdiagramm einer Rechnervorrichtung ist; -
2 schematisch ein die Rechnervorrichtung nach1 enthaltendes Fahrzeug zeigt; -
3 ein Beispiel zweidimensionaler Repräsentation von Daten zeigt, die eine Straßenoberfläche in der Nähe des Fahrzeugs der2 repräsentieren; -
4 ein Beispiel zweidimensionaler Repräsentation von Daten zeigt, die basierend auf den die Straßenoberfläche repräsentierenden Daten aus3 Fahrbahnabgrenzungen repräsentieren; -
5 ein Beispiel zweidimensionaler Repräsentation entdeckter Fahrbahnen auf der Basis von Filterung von die Straßenoberfläche repräsentierenden Daten aus4 zeigt; -
6 ein Beispiel zweidimensionaler Repräsentation erwarteter Fahrbahnen auf der beispielsweisen Straßenoberfläche der3 zeigt, basierend auf Informationen aus einer Bestimmungsdatei eines Straßennetzwerks; und -
7 ein schematisches Beispiel einer Erzeugung einer lokalisierten Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen der5 und der erwarteten Fahrbahnen nach der6 zeigt. - DETAILLIERTE BESCHREIBUNG
- Ein eine fahrbahnbasierte Lokalisation benutzendes autonomes Navigationssystem und Verfahren zur Anwendung des Systems werden nachfolgend beschrieben. Das System kann eine mit einem oder mehreren auf einem Fahrzeug angeordneten Sensoren zusammenwirkende Rechnervorrichtung einschließen. Bei einem Verfahren zur Nutzung des Systems kann wenigstens ein Sensor Daten empfangen, die eine Stra-ßenoberfläche nahe dem Fahrzeug repräsentieren. Die Rechner- bzw. Berechnungsvorrichtung kann einen Prozessor einschließen, der so gestaltet ist, dass er die unter einer adaptiven Schwelle liegenden Daten aus den die Straßenoberfläche repräsentierenden Daten entfernt, um die Daten zu isolieren, die Abgrenzungen auf der Straßenoberfläche repräsentieren. Der Prozessor kann außerdem so gestaltet sein, dass er durch Anwendung eines oder mehrerer Filter bei den isolierten Abgrenzungen auf der Straßenoberfläche entdeckte Fahrbahnen erstellt und unter Verwendung von Daten aus einer Bestimmungsdatei eines Straßennetzwerks erwartete Fahrbahnen erstellt. Schließlich kann der Prozessor so gestaltet sein, dass er die entdeckten Fahrbahnen mit den erwarteten Fahrbahnen vergleicht, um durch den Vergleich eine lokalisierte Fahrzeugposition zu erstellen.
- Die
1 ist ein Blockschaltbild einer Rechnervorrichtung100 . Die Rechnervorrichtung100 kann jede Bauform einer in einem Fahrzeug vorgesehenen Rechnervorrichtung sein, als Handgerät, Desktop, oder andere Form eines einfachen Rechners, oder kann aus mehreren rechnerbasierten Vorrichtungen zusammengesetzt sein. Die CPU102 in der Rechnervorrichtung100 kann eine herkömmliche Zentraleinheit sein, oder irgendeine andere Bauart der Vorrichtung, oder kann aus mehreren Vorrichtungen bestehen, die geeignet sind, Informationen zu beeinflussen oder zu verarbeiten. Der Speicher104 in der Rechnervorrichtung100 kann ein Schreib-Lese-Speicher (RAM) sein oder jeder andere geeignete Typ einer Speichervorrichtung. Der Speicher104 kann Daten106 , enthalten, auf die die CPU102 durch einen Bus108 zugreifen kann. Der Speicher104 kann auch ein Betriebssystem110 und installierte Anwendungen112 enthalten, wobei die installierten Anwendungen112 Programme einschließen, die es der CPU102 gestatten, das hier beschriebene, fahrbahnbasierte Lokalisierungsverfahren durchzuführen. - Die Rechnervorrichtung
100 kann auch einen zusätzlichen Speicher114 , beispielsweise eine Speicherkarte, einen Speicherstick, oder irgendeine andere Form eines computerlesbaren Mediums enthalten. Die installierten Anwendungen112 können insgesamt oder teilweise im Sekundärspeicher114 gespeichert sein und in den Speicher104 geladen werden, wenn es für die Verarbeitung erforderlich ist. Die Rechnereinheit100 kann auch einen oder mehrere Sensoren116 einschließen oder mit ihnen verbunden sein. Die Sensoren116 können Daten für die Verarbeitung durch ein Trägheitsnavigationssystem (IMU), ein Odometriesystem, ein globales Positionsbestimmungssystem (GPS), ein optisches System zur Abstandsmessung (LIDAR) oder irgendein anderes System erfassen, das geeignet ist, Fahrzeug- und/oder Positionsdaten zu erfassen und Signale an die CPU102 auszugeben. - Falls die Sensoren
116 Daten für ein IMU erfassen, können Änderungen der x-, y- und z-Beschleunigung und der Drehbeschleunigung des Fahrzeugs erfasst werden. Falls die Sensoren116 Daten für ein Odometriesystem erfassen, können Daten ermittelt werden, die sich auf die Raddrehzahlen und den Lenkwinkel beziehen. Falls die Sensoren116 Daten für ein GPS erfassen, kann ein Empfänger eine Abschätzung der Fahrzeugposition in globalen Koordinaten basierend auf Daten von einem oder mehreren Satelliten erhalten. Falls die Sensoren116 Daten für ein LIDAR-System erfassen, können Daten erhalten werden, die sich auf die Reflexionsintensität oder das Reflexionsvermögen des das Fahrzeug umgebenden Bereichs beziehen. Bei den unten beschriebenen Beispielen können die Sensoren116 wenigstens Daten für ein GPS und ein LIDAR-System erfassen, um die Positionsgenauigkeit eines autonomen Fahrzeugs zu verbessern. - Die
2 zeigt einen Schaltplan eines Fahrzeugs200 einschließlich der Rechnervorrichtung100 der1 . Das Fahrzeug200 befährt eine Route längs einer Straße202 . Die Straße202 schließt eine unterbrochene Mittellinie204 , wie auch Straßenränder206 ,208 ein. Die Straße kann auch verschiedene Fahrbahnen auf jeder Seite der unterbrochenen Mittellinie204 einschließen. Bei diesem Beispiel werden zwei untere Fahrbahnen durch die unterbrochene Mittellinie20, eine Fahrbahnlinie210 und den Straßenrand206 identifiziert. Zwei obere Fahrbahnen werden durch die unterbrochene Mittellinie20 , eine Fahrbahnlinie212 und den Straßenrand208 identifiziert. Somit sind bei der hier beispielsweise gezeigten Straße202 insgesamt vier Fahrbahnen vorhanden, obwohl das Fahrzeug200 Straßenabschnitte mit jeder möglichen Zahl von Fahrbahnen bewältigen kann. - Die Rechnervorrichtung
100 der1 kann, wie in2 gezeigt, innerhalb des Fahrzeugs200 oder von diesem entfernt positioniert sein. Falls die Rechnervorrichtung100 vom Fahrzeug entfernt ist, kann das Fahrzeug200 die Fähigkeit einschließen, mit der Rechnervorrichtung100 zu kommunizieren. Das Fahrzeug200 kann auch ein GPS210 einschließen, das geeignet ist, die Fahrzeugposition basierend auf Daten von einem oder mehreren Satelliten in globalen Koordinaten zu messen. Das GPS kann die Fahrzeugposition betreffende Daten an die Rechnervorrichtung100 senden. - Das Fahrzeug
200 kann auch eine Mehrzahl von Sensoren116 einschließen. Bei einem beispielsweisen autonomen Navigationssystem können die Sensoren116 , wie in2 gezeigt, längs des Umfangs des Fahrzeugs angeordnet sein. Jeder Sensor116 kann Daten erfassen, die unter Verwendung eines LIDAR-Systems verarbeitet werden können. Das LIDAR-System kann eine in der Rechnervorrichtung100 oder einem getrennten System gespeicherte Anwendung112 einschließen, oder eine Anwendung, die mit der Rechnervorrichtung100 kommuniziert. Wenn die Sensoren116 mit einem LIDAR-System kommunizieren, können sie Laserreflexionen von physischen Objekten in der Umgebung des Fahrzeugs200 betreffende Daten erfassen und senden, beispielsweise Laserreflexionen von der Mittellinie204 , Fahrbahnlinien210 ,212 und Straßenrändern206 ,208 , wenn das Fahrzeug200 längs der Straße202 fährt. Laserreflexionen können Rückstreulicht einschließen, das von Objekten reflektiert wird, die von einer Lichtquelle, beispielsweise Laserlicht, beaufschlagt werden, das von den auf dem Fahrzeug200 befindlichen Sensoren116 emittiert wird. Das Licht kann auch durch andere Quellen auf dem Fahrzeug200 emittiert werden. Wenn das Licht einmal von den Umgebungsobjekten reflektiert wird, können die Sensoren116 die Intensitätswerte erfassen, ein Messwert des Reflexionsgrades, der die Helligkeit der Laserreflexionen anzeigt. - Die
3 zeigt ein Beispiel einer zweidimensionalen Repräsentation von Daten, die eine Straßenoberfläche in der Nähe des Fahrzeugs200 der2 repräsentieren. Bei diesem Beispiel sind die Daten ein Satz von Intensitätswerten, die innerhalb einer vorgegebenen Entfernung vom Fahrzeug200 erfasst werden, wenn das Fahrzeug einen Abschnitt einer Route überquert. Beispielsweise kann die Gruppe von Intensitätswerten Daten einschließen, die während der letzten 40 Meter Fahrt durch das Fahrzeug gesammelt wurden, wobei die Entfernung in Übereinstimmung mit der Fähigkeit der Sensoren116 , wie auch der für die nachfolgende Abgleichung mit einem Abschnitt einer fahrbahnbasierten Abbildung erforderlichen Datenmenge gewählt wird. Die Entfernung kann 40 Meter oder irgendeine andere Entfernung sein, die einen wirksamen Vergleich ermöglicht. Die Daten können auch so verarbeitet werden, dass irgendwelche Intensitätswerte, die Hindernisse, wie andere Fahrzeuge, Leute oder Tiere, repräsentieren, die normalerweise nicht längs der Route vorhanden wären, entfernt werden. Beim in3 gezeigten Beispiel wurden verschiedene Hindernisse schon von den die Straßenoberfläche repräsentierenden Daten entfernt. - Wie in
3 zu sehen ist, kann das Sammeln von Daten, die aus Intensitätswerten bestehen, die alle Laserreflexionen aus dem das Fahrzeug200 umgebenden Bereich einschließen, zu einer ungeordnet angehäuften zweidimensionalen Repräsentation der Route führen, die das Fahrzeug gerade überquert, ohne ausreichende Unterscheidung zwischen den Intensitätswerten. Beispielsweise können Intensitätswerte, die die Fahrbahnränder300 ,302 , die unterbrochene Mittellinie304 und den Straßenbelag, oder das umgebende Gras, Schotter, oder Laub repräsentieren, alle relativ eng bei einander sein, und werden aufgrund der verschiedenen Bedingungen, beispielsweise Sonnenlicht, Dunkelheit, Farbe des Straßenbelags, etc., nur verschwommen wahrgenommen. Außerdem können Intensitätswerte über mehrere Durchläufe gesammelt werden, wobei mehrere Abtastungen durchgeführt werden, um eine vollständigere Erfassung der Umgebung zu erstellen. - Die
4 zeigt ein Beispiel einer zweidimensionalen Repräsentation von Daten, die Fahrbahnabgrenzungen basierend auf den die Straßenoberfläche repräsentierenden Daten aus3 repräsentieren. Um die Fahrbahnabgrenzungen, z.B. die Fahrbahnränder300 ,302 und die unterbrochene Mittellinie304 von anderen Objekten, wie Schotter und Straßenoberfläche, zu trennen, kann ein Säulendiagramm aus den in3 gesammelten und repräsentierten Intensitätswerten erstellt werden. Das Histogramm kann integriert werden, um einen Intensitätswert zu definieren, unter den ein festgelegter Prozentsatz der gesammelten Intensitätswerte fällt, beispielsweise eine adaptive Schwelle. Bei dem hier gezeigten Beispiel wurden die Intensitätswerte unter einer adaptiven Schwelle von 95% aus den in3 gezeigten Daten entfernt, um das in4 gezeigte Beispiel einer zweidimensionalen Repräsentation von Fahrbahnabgrenzungen zu erstellen. - Durch Einrichtung einer Schwelle im Allgemeinen, können die Intensitätswerte des Hintergrunds, die Objekte wie Schotter und Straßenbelag repräsentieren, vom Rest der Intensitätswerte entfernt werden, wobei nur die hellsten Intensitätswerte verbleiben, die erwünschte geographische Merkmale, wie die Fahrbahnränder
300 ,302 , Bordsteine, die unterbrochene Mittellinie304 , Straßenschilder, Straßenränder, etc., repräsentieren. Die Verwendung einer adaptiven Schwelle ist gegenüber der Verwendung einer festen Schwelle, wie eines festen Intensitätswerts eine Verbesserung. Dieses ist der Fall, weil eine feste Schwelle nicht auf unterschiedliche Bedingungen, wie unterschiedliche Helligkeit, anspricht, wenn die Intensitätswerte gesammelt werden, unterschiedliche Straßenoberflächen längs der vom Fahrzeug200 überquerten Route vorhanden sind, oder unterschiedliche Sensoren116 auf unterschiedlichen Fahrzeugen benutzt werden. Die adaptive Schwelle kann auf diese verschiedenen erfahrungsgemäßen Bedingungen ansprechen, während das Fahrzeug200 die Route befährt. Die zweidimensionale Repräsentation der Route in4 schließt viele dergleichen Merkmale, wie die3 , ein, wie die Fahrspurränder300 ,302 und die unterbrochene Mittellinie304 , während die Intensitätswerte, die den Straßenbelag und einen Teil des Laubs in der Umgebung repräsentieren; entfernt wurden. - Die
5 zeigt ein Beispiel einer zweidimensionalen Repräsentation von entdeckten Fahrbahnen500 ,502 basierend auf der Filterung der Fahrbahnabgrenzungen aus4 repräsentierenden Daten. Die Abgrenzungen der entdeckten Fahrbahnen500 ,502 in diesem Beispiel sind die Fahrbahnränder300 ,302 und die unterbrochene Mittellinie304 . Verschiedene unterschiedliche Filter können bei den Fahrbahnabgrenzungen repräsentierenden Daten, wie in4 gezeigt, angewandt werden, um die in5 gezeigten Fahrbahnen500 ,502 zu extrahieren. In Längsrichtung der Bewegung kann ein Differenzfilter angewandt werden, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren. In Seitenrichtung kann ein Gaußscher Glättungsfilter angewandt werden, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren. Die Filter können unter Benutzung der folgenden Faltungsfunktionen konstruiert sein: - Die zweidimensionale Repräsentation der entdeckten Fahrbahnen
500 ,502 kann ebenfalls unter Anwendung einer Analyse verbundener Komponenten bearbeitet werden. Die Analyse verbundener Komponenten kann eine Ransac-basierte Anpassung kubischer Splines einschließen, wobei Punkte jeder der extrahierten Komponenten benutzt werden. Die gesamte Kurve der Fahrbahn kann dann unter Verwendung von vier Spline-Steuerpunkten definiert werden. Die entdeckten Fahrbahnen500 ,502 können auch analysiert werden, um zusätzliche Informationen einschließlich des Fahrbahntyps, z. B. mit durchgehender oder unterbrochener Mittellinie, und der Fahrbahnposition, z. B. links oder rechts, zu erhalten. Die zweite entdeckte Fahrbahn502 erstreckt sich zwischen der Fahrbahnmittellinie304 und dem Fahrbahnrand302 . Die an einem gegebenen Ort in der Umgebung des Fahrzeugs200 entdeckten Fahrbahnen500 ,502 können nun mit erwarteten Fahrbahnen für den gleichen Ort verglichen werden. - Die
6 zeigt als Beispiel eine zweidimensionale Repräsentation der erwarteten Fahrbahnen600 ,602 auf der beispielsweisen Straßenoberfläche der3 basierend auf einer Bestimmungsdatei eines Straßennetzwerks. Die Bestimmungsdatei eines Straßennetzwerks kann Daten bezüglich mehrerer Straßenabschnitte, der Position von Fahrbahnen auf den Straßenabschnitten, der erwarteten Breite einer gegebenen Fahrbahn an einem gegebenen Ort für jeden der Straßenabschnitte, der Beziehung zwischen Fahrbahnen an einem gegebenen Ort für jeden der Fahrbahnabschnitte und andere in Bezug auf die Festlegung der Fahrbahnabgrenzungen relevante Informationen einschließen. Der Unterabschnitt der Bestimmungsdatei eines Straßennetzwerks, der zur Erstellung der erwarteten Fahrbahnen600 ,602 zum Vergleich mit den nahe dem Fahrzeug200 entdeckten Fahrbahnen500 ,502 benutzt wird, kann auf der Basis der geschätzten Position des Fahrzeugs200 in globalen Koordinaten gewählt werden, wie sie vom GPS210 des Fahrzeugs200 zugeführt werden. - Bei dem in den
3 -6 gezeigten Beispiel, gibt es zwei unter Anwendung der nahe dem Fahrzeug200 gesammelten Laserreflexe entdeckte Fahrbahnen500 ,502 und zwei erwartete Fahrbahnen600 ,602 , die unter Verwendung des Unterabschnitts der Bestimmungsdatei des Straßennetzwerks auf der Basis des vom GPS210 berechneten Position des Fahrzeugs200 erstellt sind. Die in6 gezeigte erste erwartete Fahrbahn600 erstreckt sich zwischen einem Fahrbahnrand604 und einer Fahrbahnmittellinie606 . Die zweite erwartete Fahrbahn602 in6 erstreckt sich zwischen der Fahrbahnmittellinie606 und einem weiteren Fahrbahnrand608 . Wenn einmal die erwarteten Fahrbahnen600 ,602 auf der Basis der geschätzten Position des Fahrzeugs200 erstellt sind, können die erwarteten Fahrbahnen600 ,602 mit den entdeckten Fahrbahnen500 ,502 verglichen werden, um das Fahrzeug200 exakt zu lokalisieren. -
7 zeigt ein schematisches Beispiel einer Erstellung einer lokalisierten Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen500 ,502 der5 und den erwarteten Fahrbahnen600 ,602 der6 Wie oben beschrieben, können die erwarteten Fahrbahnen600 ,602 auf der Basis der geschätzten Position des Fahrzeugs in globalen Koordinaten und der der Fahrzeugposition entsprechenden Information durch die Bestimmungsdatei eines Straßennetzwerks erstellt werden. In7 wird am Beispiel des Fahrzeugs700 die auf der Basis globaler Koordinaten geschätzte Fahrzeugposition gezeigt. Die Fahrzeugposition kann dann anhand einer punktbasierten Lokalisierungsstrategie lokalisiert werden. - Bei der in
7 angewandten beispielhaft punktbasierten Lokalisierungsstrategie wird die Anfangsposition des Fahrzeugs durch einen Satz gewichteter Punkte repräsentiert, wobei das gewichtete Mittel der Punkte als die wahrscheinlichste Fahrzeugposition angenommen wird. Jeder Punkt kann dann neu gewichtet werden, wobei eine Aktualisierungsfunktion für die Messung benutzt wird, um die Fahrbahnen zu extrahieren, die ein Sensor beobachten würde, dem die Position jedes Punktes gegeben wird. Die Punkte in diesem Beispiel werden nach folgender Gleichung neu gewichtet: - Wenn einmal die Punkte gewichtet sind, kann am Beispiel des Fahrzeugs
702 die lokalisierte Fahrzeugposition auf der Basis des extrahierten Fahrbahnen600 ,602 gezeigt werden. Das Fahrzeug702 befindet sich etwas oberhalb des Fahrzeugs700 , was anzeigt, dass die durch das Fahrzeug700 dargestellte Fahrzeugposition nach den globalen Koordinaten nicht adäquat die auf der Fahrbahn basierende, durch das Fahrzeug702 dargestellte Fahrzeugposition repräsentiert. Mit anderen Worten, die durch das Fahrzeug702 angezeigte, lokalisierte Position ist genauer als die durch das Fahrzeug700 angezeigte, auf den globalen Koordinaten basierende Position. - Ein beispielhaftes Verfahren für eine fahrbahnbasierte Lokalisierung unter Anwendung des oben in den
1 -7 beschriebenen Verfahrens schließt den Empfang von eine Straßenoberfläche in der Nähe des Fahrzeugs repräsentierenden Daten von einem oder mehreren auf einem Fahrzeug angebrachten Sensoren ein. Wie oben beschrieben, können die Sensoren116 Daten zur Verarbeitung durch eine interne Messeinheit (IMU), ein odometrisches System, ein GPS210 , ein LIDAR-System, oder irgendein anderes System zur Erfassung von Fahrzeug- und/oder Positionsdaten erfassen. Das Verfahren kann weiter das Entfernen von Daten einschließen, die unter eine adaptive Schwelle der die Straßenoberfläche repräsentierenden Daten fallen, um Daten zu isolieren, die Abgrenzungen der Straßenoberfläche repräsentieren. Die Isolierung von Abgrenzungen von anderen Daten über die Straßenoberfläche wird gezeigt durch den Vergleich Abgrenzungen, beispielsweise der Fahrbahnränder300 ,302 und der Fahrbahnmittellinie304 in den3 und4 . - Das beispielsweise Verfahren schließt weiter die Erstellung entdeckter Fahrbahnen, beispielsweise der durch die Anwendung eines oder mehrerer Filter ermittelten, in
5 gezeigten Fahrbahnen500 ,502 auf der Basis der Abgrenzungen auf der Straßenoberfläche repräsentierenden Daten. Wie oben beschrieben, können die Filter in der Längsrichtung wirkende Differenzfilter, in der Querrichtung wirkende Gaußsche Glättungsfilter, oder irgendeinen anderen Typ eines geeigneten Filters für die Erstellung der entdeckten Fahrbahnen500 ,502 einschließen. Das Verfahren kann weiter das Erstellen erwarteter Fahrbahnen, beispielsweise der in6 gezeigten erwarteten Fahrbahnen nahe dem Fahrzeug unter Verwendung von Daten, die in einer Bestimmungsdatei eines Straßennetzwerks enthalten sind. Wie oben beschrieben, kann die zum Erstellen der erwarteten Fahrbahnen benutzte Information der Bestimmungsdatei eines Straßennetzwerks auf der Basis der geschätzten Fahrzeugposition in globalen Koordinaten gewählt werden. - Das beispielsweise Verfahren schließt weiter den Vergleich der entdeckten Fahrbahnen
500 ,502 mit den erwarteten Fahrbahnen600 ,602 und das Erstellen einer lokalisierten Fahrzeugposition basierend auf dem Vergleich zwischen den ein. Wie oben beschrieben wird die Fahrzeugposition durch gewichtete Punkte repräsentiert, die unter Anwendung einer einen Vergleich der entdeckten Fahrbahnen500 ,502 mit den erwarteten Fahrbahnen600 ,602 einschließenden Aktualisierungsfunktion der Messung neu gewichtet werden. - Die vorstehende Beschreibung bezieht sich auf das, was derzeit für die praktischste Ausführungsform gehalten wird. Es ist jedoch zu verstehen, dass die Offenbarung nicht auf diese Ausführungsformen beschränkt ist, sondern im Gegenteil beabsichtigt ist, verschiedene Modifikationen und äquivalente Anordnungen abzudecken, die innerhalb von Geist und Umfang der angefügten Ansprüche liegen, deren Schutzbereich die breiteste Auslegung zuteil werden soll, um alle jene Modifikationen und äquivalenten Konstruktionen einzuschließen, wie es gesetzlich gestattet ist.
Claims (11)
- Eine fahrbahnbasierte Lokalisierung benutzendes autonomes Navigationssystem , umfassend: einen oder mehrere auf einem Fahrzeug (200) angebrachte Sensoren (116); und eine Rechnervorrichtung (100) in Kommunikation mit dem einen oder den mehreren Sensoren (116); einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung (100); und einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren benutzt werden, wobei der eine oder die mehreren Prozessoren geeignet sind, im Speicher gespeicherte Befehle auszuführen, um: von dem einen oder den mehreren Sensoren (116) eine Straßenoberfläche in der Nähe des Fahrzeugs (200) repräsentierende Daten zu empfangen; die Daten zu entfernen, die unter eine adaptive Schwelle der gesammelten Intensitätswerte der die Straßenoberfläche repräsentierenden Daten fallen, um Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierende Daten zu isolieren; durch Anwendung mehrerer Filter, basierend auf den Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten entdeckte Fahrbahnen (500, 502) zu erstellen, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren, und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren; durch Anwendung der in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten erwartete Fahrbahnen (600, 602) in der Nähe des Fahrzeugs (200) zu erstellen; die entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602) zu vergleichen; und eine lokalisierte Fahrzeugposition basierend auf dem Vergleich zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602) zu erstellen.
- System nach
Anspruch 1 , bei welchem die die Straßenoberfläche repräsentierenden Daten eine Mehrzahl von Intensitätswerten einschließen, die gesammelt werden, während das Fahrzeug (200) eine Route befährt. - System nach
Anspruch 1 , bei welchem das Erstellen der entdeckten Fahrbahnen (500, 502) die Durchführung einer Analyse der verbundenen Komponenten der die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden, gefilterten Daten einschließt. - System nach
Anspruch 1 , bei welchem die Bestimmungsdatei eines Straßennetzwerks Geo-Positionsinformationen für die Straßenoberfläche und die Breite der auf der Straßenoberfläche erwarteten Fahrbahnen (600, 602) sowie eine Positionsbeziehung zwischen den erwarteten Fahrbahnen (600, 602) auf der Straßenoberfläche einschließt. - Computerimplementiertes Verfahren zur autonomen Navigation unter Verwendung einer fahrbahnbasierten Lokalisierung , umfassend: Entfernen der unter eine adaptive Schwelle der gesammelten Intensitätswerte fallenden Daten von den die Straßenoberfläche repräsentierenden Daten, um Daten zu isolieren, die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentieren; Empfangen von eine Straßenoberfläche nahe dem Fahrzeug (200) repräsentierenden Daten von einem oder mehreren auf einem Fahrzeug (200) angeordneten Sensoren (116); Erstellen entdeckter Fahrbahnen (500, 502) auf der Basis der Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten durch Anwendung mehrerer Filter, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren, und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren; Erstellen erwarteter Fahrbahnen (600, 602) nahe dem Fahrzeug (200) unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten; Vergleichen der entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602); und Erstellen einer lokalisierten Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602).
- Verfahren nach
Anspruch 5 , bei welchem die die Straßenoberfläche repräsentierenden Daten eine Mehrzahl von Intensitätswerten einschließen, die während des Befahrens einer Route vom Fahrzeug (200) gesammelt werden. - Verfahren nach
Anspruch 5 , bei welchem das Erstellen der entdeckten Fahrbahnen (500, 502) das Durchführen einer Analyse der verbundenen Komponenten der die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden, gefilterten Daten einschließt. - Verfahren nach
Anspruch 5 , bei welchem die Bestimmungsdatei eines Straßennetzwerks Geo-Positionsinformationen für die Straßenoberfläche und die Breite der auf der Straßenoberfläche erwarteten Fahrbahnen (600, 602) sowie eine Positionsbeziehung zwischen den erwarteten Fahrbahnen (600, 602) auf der Straßenoberfläche einschließt. - Rechnervorrichtung (100) , umfassend : einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung (100); und einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren benutzt werden, wobei der eine oder die mehreren Prozessoren geeignet sind, im Speicher gespeicherte Befehle auszuführen, um: von einem oder mehreren auf einem Fahrzeug (200) angeordneten Sensoren (116) Daten zu empfangen, die eine Straßenoberfläche nahe dem Fahrzeug (200) repräsentieren; die unter eine adaptive Schwelle der gesammelten Intensitätswerte fallenden Daten von den die Straßenoberfläche repräsentierenden Daten zu entfernen, um Daten zu isolieren, die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentieren; durch Anwendung mehrerer Filter entdeckte Fahrbahnen (500, 502) auf der Basis der Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten zu erstellen, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren , und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren; erwartete Fahrbahnen (600, 602) nahe dem Fahrzeug (200) unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltener Daten zu erstellen; die entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602) zu vergleichen; und eine lokalisierte Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602) zu erstellen.
- Rechnervorrichtung (100) nach
Anspruch 9 , bei welcher die Bestimmungsdatei eines Straßennetzwerks Geo-Positionsinformationen für die Straßenoberfläche und die Breite der auf der Straßenoberfläche erwarteten Fahrbahnen (600, 602) sowie eine Positionsbeziehung zwischen den erwarteten Fahrbahnen (600, 602) auf der Straßenoberfläche einschließt. - System, Verfahren oder Vorrichtung nach einem der
Ansprüche 1 ,5 oder9 , bei welchem die lokalisierte Fahrzeugposition auf einer Neugewichtung der die Fahrzeugposition repräsentierenden Punkte basiert.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/858,410 US8972093B2 (en) | 2013-04-08 | 2013-04-08 | Lane-based localization |
US13/858,410 | 2013-04-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102014104663A1 DE102014104663A1 (de) | 2014-10-09 |
DE102014104663B4 true DE102014104663B4 (de) | 2019-01-24 |
Family
ID=51567680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102014104663.3A Expired - Fee Related DE102014104663B4 (de) | 2013-04-08 | 2014-04-02 | Fahrbahnbasierte Lokalisierung |
Country Status (3)
Country | Link |
---|---|
US (1) | US8972093B2 (de) |
JP (1) | JP5941091B2 (de) |
DE (1) | DE102014104663B4 (de) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8509982B2 (en) | 2010-10-05 | 2013-08-13 | Google Inc. | Zone driving |
US9405293B2 (en) * | 2014-05-30 | 2016-08-02 | Nissan North America, Inc | Vehicle trajectory optimization for autonomous vehicles |
US9321461B1 (en) | 2014-08-29 | 2016-04-26 | Google Inc. | Change detection using curve alignment |
US9248834B1 (en) | 2014-10-02 | 2016-02-02 | Google Inc. | Predicting trajectories of objects based on contextual information |
US9707961B1 (en) * | 2016-01-29 | 2017-07-18 | Ford Global Technologies, Llc | Tracking objects within a dynamic environment for improved localization |
JP6693496B2 (ja) * | 2017-03-16 | 2020-05-13 | 株式会社デンソー | 自己位置推定装置 |
US11016957B2 (en) * | 2018-02-28 | 2021-05-25 | Microsoft Technology Licensing, Llc | Sensor data based query results |
DE102018215055A1 (de) * | 2018-09-05 | 2020-03-05 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum Bestimmen einer Spurwechselangabe eines Fahrzeugs, ein computerlesbares Speichermedium und ein Fahrzeug |
US20200240091A1 (en) * | 2019-01-24 | 2020-07-30 | Toyota Motor Engineering & Manufacturing North America, Inc. | Grass surrogate |
US11181922B2 (en) * | 2019-03-29 | 2021-11-23 | Zoox, Inc. | Extension of autonomous driving functionality to new regions |
US11620831B2 (en) * | 2020-04-29 | 2023-04-04 | Toyota Research Institute, Inc. | Register sets of low-level features without data association |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010056326A1 (en) | 2000-04-11 | 2001-12-27 | Keiichi Kimura | Navigation apparatus, method for map matching performed in the navigation apparatus, and computer-readable medium storing a program for executing the method |
US20100014713A1 (en) | 2008-07-18 | 2010-01-21 | Gm Global Technology Operations, Inc. | Road-lane marker detection |
US20100114416A1 (en) | 2008-10-30 | 2010-05-06 | Honeywell International Inc. | System and method for navigating an autonomous vehicle using laser detection and ranging |
US20100121577A1 (en) | 2008-04-24 | 2010-05-13 | Gm Global Technology Operations, Inc. | Three-dimensional lidar-based clear path detection |
EP2228782A1 (de) | 2009-02-20 | 2010-09-15 | Navteq North America, LLC | Bestimmung von Fahrwegsmarkierungen auf Grundlage von Retroreflexion |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03201110A (ja) * | 1989-12-28 | 1991-09-03 | Toyota Central Res & Dev Lab Inc | 自律走行車の位置方位検出装置 |
JP3333223B2 (ja) * | 1991-11-29 | 2002-10-15 | マツダ株式会社 | 移動車の走行路認識装置 |
JPH08247775A (ja) * | 1995-03-15 | 1996-09-27 | Toshiba Corp | 移動体の自己位置同定装置および自己位置同定方法 |
JP3081788B2 (ja) * | 1995-04-25 | 2000-08-28 | 松下電器産業株式会社 | 局地的位置把握装置 |
KR100459476B1 (ko) * | 2002-04-04 | 2004-12-03 | 엘지산전 주식회사 | 차량의 대기 길이 측정 장치 및 방법 |
JP4437714B2 (ja) * | 2004-07-15 | 2010-03-24 | 三菱電機株式会社 | 車線認識画像処理装置 |
JP4793094B2 (ja) * | 2006-05-17 | 2011-10-12 | 株式会社デンソー | 走行環境認識装置 |
JP4687563B2 (ja) * | 2006-05-23 | 2011-05-25 | 株式会社デンソー | 車両用レーンマーク認識装置 |
US20080033645A1 (en) * | 2006-08-03 | 2008-02-07 | Jesse Sol Levinson | Pobabilistic methods for mapping and localization in arbitrary outdoor environments |
US8055445B2 (en) * | 2008-09-24 | 2011-11-08 | Delphi Technologies, Inc. | Probabilistic lane assignment method |
US8775063B2 (en) * | 2009-01-26 | 2014-07-08 | GM Global Technology Operations LLC | System and method of lane path estimation using sensor fusion |
JP5287335B2 (ja) * | 2009-02-23 | 2013-09-11 | 日産自動車株式会社 | 道路白線認識装置及び道路白線認識方法 |
WO2010140578A1 (ja) * | 2009-06-02 | 2010-12-09 | 日本電気株式会社 | 画像処理装置、画像処理方法、及び画像処理用プログラム |
US9633564B2 (en) * | 2012-09-27 | 2017-04-25 | Google Inc. | Determining changes in a driving environment based on vehicle behavior |
-
2013
- 2013-04-08 US US13/858,410 patent/US8972093B2/en active Active
-
2014
- 2014-04-02 DE DE102014104663.3A patent/DE102014104663B4/de not_active Expired - Fee Related
- 2014-04-07 JP JP2014078539A patent/JP5941091B2/ja active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20010056326A1 (en) | 2000-04-11 | 2001-12-27 | Keiichi Kimura | Navigation apparatus, method for map matching performed in the navigation apparatus, and computer-readable medium storing a program for executing the method |
US20100121577A1 (en) | 2008-04-24 | 2010-05-13 | Gm Global Technology Operations, Inc. | Three-dimensional lidar-based clear path detection |
US20100014713A1 (en) | 2008-07-18 | 2010-01-21 | Gm Global Technology Operations, Inc. | Road-lane marker detection |
US20100114416A1 (en) | 2008-10-30 | 2010-05-06 | Honeywell International Inc. | System and method for navigating an autonomous vehicle using laser detection and ranging |
EP2228782A1 (de) | 2009-02-20 | 2010-09-15 | Navteq North America, LLC | Bestimmung von Fahrwegsmarkierungen auf Grundlage von Retroreflexion |
Non-Patent Citations (10)
Title |
---|
Albert S. Huang: "Lane Estimation for Autonomous Vehicles using Vision and LIDAR", Thesis (Ph. D.), Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2010 * |
Albert S. Huang: „Lane Estimation for Autonomous Vehicles using Vision and LIDAR", Thesis (Ph. D.), Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2010 |
J. Han et al.: "Enhanced Road Boundary and Obstacle Detection Using a Downward-Looking LIDAR Sensor", in Vehicular Technology, IEEE Transactions on, vol. 61, no. 3, pp. 971-985, March 2012 * |
J. Han et al.: „Enhanced Road Boundary and Obstacle Detection Using a Downward-Looking LIDAR Sensor", in Vehicluar Technology, IEEE Transactions on. vol. 61, no. 3, pp. 971-985, March 2012 |
M. Aly: "Real time Detection of Lane Markers in Urban Streets", in Intelligent Vehicles Symposium, 2008 IEEE , vol., no., pp. 7-12, 4-6 June 2008 * |
M. Aly: „Real time Detection of Lane Markers in Urban Streets", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 7-12, 4-6 June 2008 |
N. Suganuma, T. Uozumi: "Precise position estimation of autonomous vehicle based on map-matching", in Intelligent Vehicles Symposium (IV), 2011 IEEE , vol., no., pp. 296-301, 5-9 June 2011 * |
N. Suganuma, T. Uozumi: „Precise position estimation of autonomous vehicle based on map-matching", in Intelligent Vehicles Symposium (IV), 2011 IEEE, vol., no., pp. 296-301, 5-9 June 2011 |
S. Kammel, B. Pitzer: "Lidar-based lane marker detection and mapping", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 1137-1142, 4-6 June 2008 * |
S. Kammel, B. Pitzer: „Lidar-based lane marker detection an mapping", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 1137-1142, 4-6 June 2008 |
Also Published As
Publication number | Publication date |
---|---|
JP5941091B2 (ja) | 2016-06-29 |
DE102014104663A1 (de) | 2014-10-09 |
US20140303828A1 (en) | 2014-10-09 |
US8972093B2 (en) | 2015-03-03 |
JP2014203465A (ja) | 2014-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102014104663B4 (de) | Fahrbahnbasierte Lokalisierung | |
DE102015116882B4 (de) | Verbindungswahrscheinlichkeitsmodellbildung und Folgerung der Kreuzungsstruktur | |
DE112014004990B4 (de) | Verfahren zum Erzeugen exakter Fahrspurebenen-Karten | |
DE102010005293B4 (de) | System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung | |
DE102013208521B4 (de) | Kollektives Erlernen eines hochgenauen Straßenmodells | |
DE102017103123A1 (de) | Fahrzeugfahrbahnplatzierung | |
DE112018002143T5 (de) | Systeme und verfahren zur kompression von fahrspurdaten | |
DE102015203016B4 (de) | Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld | |
DE102017108774A1 (de) | Fahrzeugspurkartenschätzung | |
DE102017125493A1 (de) | Verkehrszeichenerkennung | |
DE112015002037T5 (de) | Detailliertes Landkartenformat für autonomes Fahren | |
DE102016212587A1 (de) | Verfahren und System zur Erzeugung von Karteninformationen | |
DE102014223363A1 (de) | Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte | |
DE102012208974A1 (de) | System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells | |
DE112015006622T5 (de) | Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren | |
WO2017089135A1 (de) | Verfahren und system zum erstellen einer spurgenauen belegungskarte für fahrspuren | |
DE102015000399B4 (de) | Kartographieren von Fahrspuren mittels Fahrzeugflottendaten | |
DE102011100927A1 (de) | Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser | |
DE102014009627A1 (de) | Verfahren zur Meldung einer freien Parklücke für ein Fahrzeug | |
DE102016213817B4 (de) | Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn | |
DE102019214628A1 (de) | Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten | |
DE112021002680T5 (de) | Systeme und verfahren zum erkennen einer offenen tür | |
WO2013174732A1 (de) | Erkennung von richtungsfahrbahnen | |
DE112021004128T5 (de) | Systeme und verfahren für kartenbasierte modellierung der realen welt | |
CN109544443A (zh) | 一种路线图生成方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R012 | Request for examination validly filed |
Effective date: 20150212 |
|
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, JP Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., ERLANGER, KY., US Owner name: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH, US Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., ERLANGER, KY., US |
|
R082 | Change of representative |
Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R081 | Change of applicant/patentee |
Owner name: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, JP Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., PLANO, TEX., US |
|
R082 | Change of representative |
Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE |
|
R084 | Declaration of willingness to licence | ||
R020 | Patent grant now final | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |