DE102014104663B4 - Fahrbahnbasierte Lokalisierung - Google Patents

Fahrbahnbasierte Lokalisierung Download PDF

Info

Publication number
DE102014104663B4
DE102014104663B4 DE102014104663.3A DE102014104663A DE102014104663B4 DE 102014104663 B4 DE102014104663 B4 DE 102014104663B4 DE 102014104663 A DE102014104663 A DE 102014104663A DE 102014104663 B4 DE102014104663 B4 DE 102014104663B4
Authority
DE
Germany
Prior art keywords
lanes
road surface
data
vehicle
expected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE102014104663.3A
Other languages
English (en)
Other versions
DE102014104663A1 (de
Inventor
Avdhut S. JOSHI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Engineering and Manufacturing North America Inc
Toyota Engineering and Manufacturing North America Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Engineering and Manufacturing North America Inc, Toyota Engineering and Manufacturing North America Inc filed Critical Toyota Motor Engineering and Manufacturing North America Inc
Publication of DE102014104663A1 publication Critical patent/DE102014104663A1/de
Application granted granted Critical
Publication of DE102014104663B4 publication Critical patent/DE102014104663B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

Eine fahrbahnbasierte Lokalisierung benutzendes autonomes Navigationssystem , umfassend:
einen oder mehrere auf einem Fahrzeug (200) angebrachte Sensoren (116); und
eine Rechnervorrichtung (100) in Kommunikation mit dem einen oder den mehreren Sensoren (116);
einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung (100); und
einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren benutzt werden, wobei der eine oder die mehreren Prozessoren geeignet sind, im Speicher gespeicherte Befehle auszuführen, um:
von dem einen oder den mehreren Sensoren (116) eine Straßenoberfläche in der Nähe des Fahrzeugs (200) repräsentierende Daten zu empfangen;
die Daten zu entfernen, die unter eine adaptive Schwelle der gesammelten Intensitätswerte der die Straßenoberfläche repräsentierenden Daten fallen, um Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierende Daten zu isolieren;
durch Anwendung mehrerer Filter, basierend auf den Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten entdeckte Fahrbahnen (500, 502) zu erstellen, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren, und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren;
durch Anwendung der in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten erwartete Fahrbahnen (600, 602) in der Nähe des Fahrzeugs (200) zu erstellen;
die entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602) zu vergleichen; und
eine lokalisierte Fahrzeugposition basierend auf dem Vergleich zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602) zu erstellen.

Description

  • HINTERGRUND
  • Die autonome bzw. selbstständige Navigation eines Fahrzeugs erfordert Gewissheit hinsichtlich der Fahrzeugposition mit einem ausreichenden Grad an Genauigkeit. Die Berechnung einer präzisen physischen Position des Fahrzeugs in Bezug auf eine Darstellung seiner Umgebung kann als Lokalisierung bezeichnet werden. Die Lokalisierung kann für autonome Fahrzeuge durch einen Vergleich der aktuellen Fahrzeugposition in Bezug auf eine Straße oder andere geographische Merkmale mit einer Darstellung der in einer detaillierten, virtuellen Karte aufgezeichneten gleichen Straße oder der gleichen Merkmale erfolgen.
  • Der Stand der Technik beschreibt hierzu verschiedene Ansätze, siehe beispielsweise:
    • N. Suganuma, T. Uozumi: „Precise position estimation of autonomous vehicle based on map-matching", in Intelligent Vehicles Symposium (IV), 2011 IEEE, vol., no., pp. 296-301, 5-9 June 2011,
    • M. Aly: „Real time Detection of Lane Markers in Urban Streets", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 7-12, 4-6 June 2008,
    • J. Han et al.: „Enhanced Road Boundary and Obstacle Detection Using a Downward-Looking LIDAR Sensor", in Vehicluar Technology, IEEE Transactions on. vol. 61, no. 3, pp. 971-985, March 2012,
    • S. Kammel, B. Pitzer: „Lidar-based lane marker detection an mapping", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 1137-1142, 4-6 June 2008, und
    • Albert S. Huang: „Lane Estimation for Autonomous Vehicles using Vision and LIDAR", Thesis (Ph. D.), Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2010,
    sowie ergänzend
    • US 2010/0014713 A1
    • US 2010/0 121 577 A1 ,
    • EP 2 228 782 A1 ,
    • US 2010/0 114 416 A1 , und
    • US 2001 / 0 056 326 A1
  • KURZFASSUNG DER ERFINDUNG
  • Ein System, eine Vorrichtung und ein Verfahren zur fahrbahnbasierten Lokalisierung.
  • Am Beispiel einer Anwendung wird ein autonomes Navigationssystem offenbart, das eine fahrbahnbasierte Lokalisierung benutzt. Das System schließt einen oder mehrere auf einem Fahrzeug angeordnete Sensoren ein; und eine Rechnervorrichtung, die mit dem einen oder den mehreren Sensoren verbunden ist. Die Rechnervorrichtung schließt einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung ein, sowie einen Speicher zur Speicherung von Daten und Programmbefehlen zur Verwendung durch den einen oder die mehreren Prozessoren. Der eine oder die mehreren Prozessoren sind so gestaltet, dass sie im Speicher gespeicherte Befehle ausführen, um: von dem einen Sensor oder den mehreren Sensoren Daten zu empfangen, die eine Straßenoberfläche nahe dem Fahrzeug repräsentieren; von den die Straßenoberfläche repräsentierenden Daten die Daten zu entfernen, die unter eine adaptive Schwelle fallen, um Daten zu isolieren, die Abgrenzungen auf der Straßenoberfläche repräsentieren; durch Anwendung eines oder mehrerer Filter auf der Basis der Abgrenzungen auf der Fahrbahn repräsentierenden Daten entdeckte Fahrbahnen zu erzeugen; erwartete, dem Fahrzeug nahegelegene Fahrbahnen unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten zu erzeugen; die entdeckten mit den erwarteten Fahrbahnen zu vergleichen und basierend auf dem Vergleich der entdeckten mit den erwarteten Fahrbahnen eine lokalisierte Fahrzeugposition zu erstellen.
  • Eine andere Anwendung eines computergestützten bzw. -implementierten Verfahrens zur autonomen Navigation unter Nutzung einer fahrbahnbasierten Lokalisierung wird offenbart. Das Verfahren schließt den Empfang von die Straßenoberfläche in der Umgebung des Fahrzeugs repräsentierenden Daten von einem oder mehreren auf einem Fahrzeug angeordneten Sensoren und das Entfernen von unter eine adaptive Schwelle fallenden Daten aus den die Straßenoberfläche repräsentierenden Daten ein, um die Abgrenzungen auf der Straßenoberfläche repräsentierenden Daten zu isolieren. Das Verfahren schließt weiter die Erzeugung der auf der Basis der die Abgrenzungen auf der Fahrbahnoberfläche repräsentierenden Daten durch die Anwendung eines oder mehrerer Filter entdeckten Fahrbahnen ein, die Erzeugung erwarteter Fahrbahnen in der Umgebung des Fahrzeugs unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten, Vergleichen der entdeckten mit den erwarteten Fahrbahnen und Erstellung einer lokalisierten Fahrzeugposition basierend auf dem Vergleich der entdeckten mit den erwarteten Fahrbahnen.
  • Bei einer anderen Anwendung wird eine Rechner- bzw. Berechnungsvorrichtung offenbart. Die Rechnervorrichtung schließt einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung ein, und einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren verwendet werden. Der eine oder die mehreren Prozessoren sind so gestaltet, dass sie im Speicher gespeicherte Befehle ausführen, um von einem oder mehreren auf einem Fahrzeug angeordneten Sensoren Daten zu empfangen, die eine Straßenfläche nahe dem Fahrzeug repräsentieren; die unter eine adaptive Schwelle fallenden Daten aus den die Straßenoberfläche repräsentierenden Daten zu entfernen, um Daten zu isolieren, die Abgrenzungen auf der Straßenoberfläche repräsentieren; entdeckte Fahrbahnen auf der Basis der die Abgrenzungen auf der Fahrbahnoberfläche repräsentierenden Daten durch die Anwendung eines oder mehrerer Filter zu erstellen; nahe dem Fahrzeug erwartete Fahrbahnen unter Benutzung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten zu erzeugen; die entdeckten Fahrbahnen mit den erwarteten Fahrbahnen zu vergleichen und eine lokalisierte Fahrzeugposition auf der Basis des Vergleichs der entdeckten mit den erwarteten Fahrbahnen zu erstellen.
  • Figurenliste
  • Die Beschreibung nimmt Bezug auf die beigefügten Zeichnungen, in welchen durch die verschiedenen Ansichten hinweg sich gleiche Bezugszahlen auf gleiche Teile beziehen und in denen:
    • 1 ein Blockdiagramm einer Rechnervorrichtung ist;
    • 2 schematisch ein die Rechnervorrichtung nach 1 enthaltendes Fahrzeug zeigt;
    • 3 ein Beispiel zweidimensionaler Repräsentation von Daten zeigt, die eine Straßenoberfläche in der Nähe des Fahrzeugs der 2 repräsentieren;
    • 4 ein Beispiel zweidimensionaler Repräsentation von Daten zeigt, die basierend auf den die Straßenoberfläche repräsentierenden Daten aus 3 Fahrbahnabgrenzungen repräsentieren;
    • 5 ein Beispiel zweidimensionaler Repräsentation entdeckter Fahrbahnen auf der Basis von Filterung von die Straßenoberfläche repräsentierenden Daten aus 4 zeigt;
    • 6 ein Beispiel zweidimensionaler Repräsentation erwarteter Fahrbahnen auf der beispielsweisen Straßenoberfläche der 3 zeigt, basierend auf Informationen aus einer Bestimmungsdatei eines Straßennetzwerks; und
    • 7 ein schematisches Beispiel einer Erzeugung einer lokalisierten Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen der 5 und der erwarteten Fahrbahnen nach der 6 zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Ein eine fahrbahnbasierte Lokalisation benutzendes autonomes Navigationssystem und Verfahren zur Anwendung des Systems werden nachfolgend beschrieben. Das System kann eine mit einem oder mehreren auf einem Fahrzeug angeordneten Sensoren zusammenwirkende Rechnervorrichtung einschließen. Bei einem Verfahren zur Nutzung des Systems kann wenigstens ein Sensor Daten empfangen, die eine Stra-ßenoberfläche nahe dem Fahrzeug repräsentieren. Die Rechner- bzw. Berechnungsvorrichtung kann einen Prozessor einschließen, der so gestaltet ist, dass er die unter einer adaptiven Schwelle liegenden Daten aus den die Straßenoberfläche repräsentierenden Daten entfernt, um die Daten zu isolieren, die Abgrenzungen auf der Straßenoberfläche repräsentieren. Der Prozessor kann außerdem so gestaltet sein, dass er durch Anwendung eines oder mehrerer Filter bei den isolierten Abgrenzungen auf der Straßenoberfläche entdeckte Fahrbahnen erstellt und unter Verwendung von Daten aus einer Bestimmungsdatei eines Straßennetzwerks erwartete Fahrbahnen erstellt. Schließlich kann der Prozessor so gestaltet sein, dass er die entdeckten Fahrbahnen mit den erwarteten Fahrbahnen vergleicht, um durch den Vergleich eine lokalisierte Fahrzeugposition zu erstellen.
  • Die 1 ist ein Blockschaltbild einer Rechnervorrichtung 100. Die Rechnervorrichtung 100 kann jede Bauform einer in einem Fahrzeug vorgesehenen Rechnervorrichtung sein, als Handgerät, Desktop, oder andere Form eines einfachen Rechners, oder kann aus mehreren rechnerbasierten Vorrichtungen zusammengesetzt sein. Die CPU 102 in der Rechnervorrichtung 100 kann eine herkömmliche Zentraleinheit sein, oder irgendeine andere Bauart der Vorrichtung, oder kann aus mehreren Vorrichtungen bestehen, die geeignet sind, Informationen zu beeinflussen oder zu verarbeiten. Der Speicher 104 in der Rechnervorrichtung 100 kann ein Schreib-Lese-Speicher (RAM) sein oder jeder andere geeignete Typ einer Speichervorrichtung. Der Speicher 104 kann Daten 106, enthalten, auf die die CPU 102 durch einen Bus 108 zugreifen kann. Der Speicher 104 kann auch ein Betriebssystem 110 und installierte Anwendungen 112 enthalten, wobei die installierten Anwendungen 112 Programme einschließen, die es der CPU 102 gestatten, das hier beschriebene, fahrbahnbasierte Lokalisierungsverfahren durchzuführen.
  • Die Rechnervorrichtung 100 kann auch einen zusätzlichen Speicher 114, beispielsweise eine Speicherkarte, einen Speicherstick, oder irgendeine andere Form eines computerlesbaren Mediums enthalten. Die installierten Anwendungen 112 können insgesamt oder teilweise im Sekundärspeicher 114 gespeichert sein und in den Speicher 104 geladen werden, wenn es für die Verarbeitung erforderlich ist. Die Rechnereinheit 100 kann auch einen oder mehrere Sensoren 116 einschließen oder mit ihnen verbunden sein. Die Sensoren 116 können Daten für die Verarbeitung durch ein Trägheitsnavigationssystem (IMU), ein Odometriesystem, ein globales Positionsbestimmungssystem (GPS), ein optisches System zur Abstandsmessung (LIDAR) oder irgendein anderes System erfassen, das geeignet ist, Fahrzeug- und/oder Positionsdaten zu erfassen und Signale an die CPU 102 auszugeben.
  • Falls die Sensoren 116 Daten für ein IMU erfassen, können Änderungen der x-, y- und z-Beschleunigung und der Drehbeschleunigung des Fahrzeugs erfasst werden. Falls die Sensoren 116 Daten für ein Odometriesystem erfassen, können Daten ermittelt werden, die sich auf die Raddrehzahlen und den Lenkwinkel beziehen. Falls die Sensoren 116 Daten für ein GPS erfassen, kann ein Empfänger eine Abschätzung der Fahrzeugposition in globalen Koordinaten basierend auf Daten von einem oder mehreren Satelliten erhalten. Falls die Sensoren 116 Daten für ein LIDAR-System erfassen, können Daten erhalten werden, die sich auf die Reflexionsintensität oder das Reflexionsvermögen des das Fahrzeug umgebenden Bereichs beziehen. Bei den unten beschriebenen Beispielen können die Sensoren 116 wenigstens Daten für ein GPS und ein LIDAR-System erfassen, um die Positionsgenauigkeit eines autonomen Fahrzeugs zu verbessern.
  • Die 2 zeigt einen Schaltplan eines Fahrzeugs 200 einschließlich der Rechnervorrichtung 100 der 1. Das Fahrzeug 200 befährt eine Route längs einer Straße 202. Die Straße 202 schließt eine unterbrochene Mittellinie 204, wie auch Straßenränder 206, 208 ein. Die Straße kann auch verschiedene Fahrbahnen auf jeder Seite der unterbrochenen Mittellinie 204 einschließen. Bei diesem Beispiel werden zwei untere Fahrbahnen durch die unterbrochene Mittellinie20, eine Fahrbahnlinie 210 und den Straßenrand 206 identifiziert. Zwei obere Fahrbahnen werden durch die unterbrochene Mittellinie 20, eine Fahrbahnlinie 212 und den Straßenrand 208 identifiziert. Somit sind bei der hier beispielsweise gezeigten Straße 202 insgesamt vier Fahrbahnen vorhanden, obwohl das Fahrzeug 200 Straßenabschnitte mit jeder möglichen Zahl von Fahrbahnen bewältigen kann.
  • Die Rechnervorrichtung 100 der 1 kann, wie in 2 gezeigt, innerhalb des Fahrzeugs 200 oder von diesem entfernt positioniert sein. Falls die Rechnervorrichtung 100 vom Fahrzeug entfernt ist, kann das Fahrzeug 200 die Fähigkeit einschließen, mit der Rechnervorrichtung 100 zu kommunizieren. Das Fahrzeug 200 kann auch ein GPS 210 einschließen, das geeignet ist, die Fahrzeugposition basierend auf Daten von einem oder mehreren Satelliten in globalen Koordinaten zu messen. Das GPS kann die Fahrzeugposition betreffende Daten an die Rechnervorrichtung 100 senden.
  • Das Fahrzeug 200 kann auch eine Mehrzahl von Sensoren 116 einschließen. Bei einem beispielsweisen autonomen Navigationssystem können die Sensoren 116, wie in 2 gezeigt, längs des Umfangs des Fahrzeugs angeordnet sein. Jeder Sensor 116 kann Daten erfassen, die unter Verwendung eines LIDAR-Systems verarbeitet werden können. Das LIDAR-System kann eine in der Rechnervorrichtung 100 oder einem getrennten System gespeicherte Anwendung 112 einschließen, oder eine Anwendung, die mit der Rechnervorrichtung 100 kommuniziert. Wenn die Sensoren 116 mit einem LIDAR-System kommunizieren, können sie Laserreflexionen von physischen Objekten in der Umgebung des Fahrzeugs 200 betreffende Daten erfassen und senden, beispielsweise Laserreflexionen von der Mittellinie 204, Fahrbahnlinien 210, 212 und Straßenrändern 206, 208, wenn das Fahrzeug 200 längs der Straße 202 fährt. Laserreflexionen können Rückstreulicht einschließen, das von Objekten reflektiert wird, die von einer Lichtquelle, beispielsweise Laserlicht, beaufschlagt werden, das von den auf dem Fahrzeug 200 befindlichen Sensoren 116 emittiert wird. Das Licht kann auch durch andere Quellen auf dem Fahrzeug 200 emittiert werden. Wenn das Licht einmal von den Umgebungsobjekten reflektiert wird, können die Sensoren 116 die Intensitätswerte erfassen, ein Messwert des Reflexionsgrades, der die Helligkeit der Laserreflexionen anzeigt.
  • Die 3 zeigt ein Beispiel einer zweidimensionalen Repräsentation von Daten, die eine Straßenoberfläche in der Nähe des Fahrzeugs 200 der 2 repräsentieren. Bei diesem Beispiel sind die Daten ein Satz von Intensitätswerten, die innerhalb einer vorgegebenen Entfernung vom Fahrzeug 200 erfasst werden, wenn das Fahrzeug einen Abschnitt einer Route überquert. Beispielsweise kann die Gruppe von Intensitätswerten Daten einschließen, die während der letzten 40 Meter Fahrt durch das Fahrzeug gesammelt wurden, wobei die Entfernung in Übereinstimmung mit der Fähigkeit der Sensoren 116, wie auch der für die nachfolgende Abgleichung mit einem Abschnitt einer fahrbahnbasierten Abbildung erforderlichen Datenmenge gewählt wird. Die Entfernung kann 40 Meter oder irgendeine andere Entfernung sein, die einen wirksamen Vergleich ermöglicht. Die Daten können auch so verarbeitet werden, dass irgendwelche Intensitätswerte, die Hindernisse, wie andere Fahrzeuge, Leute oder Tiere, repräsentieren, die normalerweise nicht längs der Route vorhanden wären, entfernt werden. Beim in 3 gezeigten Beispiel wurden verschiedene Hindernisse schon von den die Straßenoberfläche repräsentierenden Daten entfernt.
  • Wie in 3 zu sehen ist, kann das Sammeln von Daten, die aus Intensitätswerten bestehen, die alle Laserreflexionen aus dem das Fahrzeug 200 umgebenden Bereich einschließen, zu einer ungeordnet angehäuften zweidimensionalen Repräsentation der Route führen, die das Fahrzeug gerade überquert, ohne ausreichende Unterscheidung zwischen den Intensitätswerten. Beispielsweise können Intensitätswerte, die die Fahrbahnränder 300, 302, die unterbrochene Mittellinie 304 und den Straßenbelag, oder das umgebende Gras, Schotter, oder Laub repräsentieren, alle relativ eng bei einander sein, und werden aufgrund der verschiedenen Bedingungen, beispielsweise Sonnenlicht, Dunkelheit, Farbe des Straßenbelags, etc., nur verschwommen wahrgenommen. Außerdem können Intensitätswerte über mehrere Durchläufe gesammelt werden, wobei mehrere Abtastungen durchgeführt werden, um eine vollständigere Erfassung der Umgebung zu erstellen.
  • Die 4 zeigt ein Beispiel einer zweidimensionalen Repräsentation von Daten, die Fahrbahnabgrenzungen basierend auf den die Straßenoberfläche repräsentierenden Daten aus 3 repräsentieren. Um die Fahrbahnabgrenzungen, z.B. die Fahrbahnränder 300, 302 und die unterbrochene Mittellinie 304 von anderen Objekten, wie Schotter und Straßenoberfläche, zu trennen, kann ein Säulendiagramm aus den in 3 gesammelten und repräsentierten Intensitätswerten erstellt werden. Das Histogramm kann integriert werden, um einen Intensitätswert zu definieren, unter den ein festgelegter Prozentsatz der gesammelten Intensitätswerte fällt, beispielsweise eine adaptive Schwelle. Bei dem hier gezeigten Beispiel wurden die Intensitätswerte unter einer adaptiven Schwelle von 95% aus den in 3 gezeigten Daten entfernt, um das in 4 gezeigte Beispiel einer zweidimensionalen Repräsentation von Fahrbahnabgrenzungen zu erstellen.
  • Durch Einrichtung einer Schwelle im Allgemeinen, können die Intensitätswerte des Hintergrunds, die Objekte wie Schotter und Straßenbelag repräsentieren, vom Rest der Intensitätswerte entfernt werden, wobei nur die hellsten Intensitätswerte verbleiben, die erwünschte geographische Merkmale, wie die Fahrbahnränder 300, 302, Bordsteine, die unterbrochene Mittellinie 304, Straßenschilder, Straßenränder, etc., repräsentieren. Die Verwendung einer adaptiven Schwelle ist gegenüber der Verwendung einer festen Schwelle, wie eines festen Intensitätswerts eine Verbesserung. Dieses ist der Fall, weil eine feste Schwelle nicht auf unterschiedliche Bedingungen, wie unterschiedliche Helligkeit, anspricht, wenn die Intensitätswerte gesammelt werden, unterschiedliche Straßenoberflächen längs der vom Fahrzeug 200 überquerten Route vorhanden sind, oder unterschiedliche Sensoren 116 auf unterschiedlichen Fahrzeugen benutzt werden. Die adaptive Schwelle kann auf diese verschiedenen erfahrungsgemäßen Bedingungen ansprechen, während das Fahrzeug 200 die Route befährt. Die zweidimensionale Repräsentation der Route in 4 schließt viele dergleichen Merkmale, wie die 3, ein, wie die Fahrspurränder 300, 302 und die unterbrochene Mittellinie 304, während die Intensitätswerte, die den Straßenbelag und einen Teil des Laubs in der Umgebung repräsentieren; entfernt wurden.
  • Die 5 zeigt ein Beispiel einer zweidimensionalen Repräsentation von entdeckten Fahrbahnen 500, 502 basierend auf der Filterung der Fahrbahnabgrenzungen aus 4 repräsentierenden Daten. Die Abgrenzungen der entdeckten Fahrbahnen 500, 502 in diesem Beispiel sind die Fahrbahnränder 300, 302 und die unterbrochene Mittellinie 304. Verschiedene unterschiedliche Filter können bei den Fahrbahnabgrenzungen repräsentierenden Daten, wie in 4 gezeigt, angewandt werden, um die in 5 gezeigten Fahrbahnen 500, 502 zu extrahieren. In Längsrichtung der Bewegung kann ein Differenzfilter angewandt werden, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren. In Seitenrichtung kann ein Gaußscher Glättungsfilter angewandt werden, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren. Die Filter können unter Benutzung der folgenden Faltungsfunktionen konstruiert sein: f ( x ) = 1 σ x 2 exp ( x 2 2 σ x 2 ) ( 1 x 2 σ x 2 )
    Figure DE102014104663B4_0001
    f ( y ) = 1 σ y 2 exp ( y 2 2 σ y 2 )
    Figure DE102014104663B4_0002
  • Die zweidimensionale Repräsentation der entdeckten Fahrbahnen 500, 502 kann ebenfalls unter Anwendung einer Analyse verbundener Komponenten bearbeitet werden. Die Analyse verbundener Komponenten kann eine Ransac-basierte Anpassung kubischer Splines einschließen, wobei Punkte jeder der extrahierten Komponenten benutzt werden. Die gesamte Kurve der Fahrbahn kann dann unter Verwendung von vier Spline-Steuerpunkten definiert werden. Die entdeckten Fahrbahnen 500, 502 können auch analysiert werden, um zusätzliche Informationen einschließlich des Fahrbahntyps, z. B. mit durchgehender oder unterbrochener Mittellinie, und der Fahrbahnposition, z. B. links oder rechts, zu erhalten. Die zweite entdeckte Fahrbahn 502 erstreckt sich zwischen der Fahrbahnmittellinie 304 und dem Fahrbahnrand 302. Die an einem gegebenen Ort in der Umgebung des Fahrzeugs 200 entdeckten Fahrbahnen 500, 502 können nun mit erwarteten Fahrbahnen für den gleichen Ort verglichen werden.
  • Die 6 zeigt als Beispiel eine zweidimensionale Repräsentation der erwarteten Fahrbahnen 600, 602 auf der beispielsweisen Straßenoberfläche der 3 basierend auf einer Bestimmungsdatei eines Straßennetzwerks. Die Bestimmungsdatei eines Straßennetzwerks kann Daten bezüglich mehrerer Straßenabschnitte, der Position von Fahrbahnen auf den Straßenabschnitten, der erwarteten Breite einer gegebenen Fahrbahn an einem gegebenen Ort für jeden der Straßenabschnitte, der Beziehung zwischen Fahrbahnen an einem gegebenen Ort für jeden der Fahrbahnabschnitte und andere in Bezug auf die Festlegung der Fahrbahnabgrenzungen relevante Informationen einschließen. Der Unterabschnitt der Bestimmungsdatei eines Straßennetzwerks, der zur Erstellung der erwarteten Fahrbahnen 600, 602 zum Vergleich mit den nahe dem Fahrzeug 200 entdeckten Fahrbahnen 500, 502 benutzt wird, kann auf der Basis der geschätzten Position des Fahrzeugs 200 in globalen Koordinaten gewählt werden, wie sie vom GPS 210 des Fahrzeugs 200 zugeführt werden.
  • Bei dem in den 3 - 6 gezeigten Beispiel, gibt es zwei unter Anwendung der nahe dem Fahrzeug 200 gesammelten Laserreflexe entdeckte Fahrbahnen 500, 502 und zwei erwartete Fahrbahnen 600, 602, die unter Verwendung des Unterabschnitts der Bestimmungsdatei des Straßennetzwerks auf der Basis des vom GPS 210 berechneten Position des Fahrzeugs 200 erstellt sind. Die in 6 gezeigte erste erwartete Fahrbahn 600 erstreckt sich zwischen einem Fahrbahnrand 604 und einer Fahrbahnmittellinie 606. Die zweite erwartete Fahrbahn 602 in 6 erstreckt sich zwischen der Fahrbahnmittellinie 606 und einem weiteren Fahrbahnrand 608. Wenn einmal die erwarteten Fahrbahnen 600, 602 auf der Basis der geschätzten Position des Fahrzeugs 200 erstellt sind, können die erwarteten Fahrbahnen 600, 602 mit den entdeckten Fahrbahnen 500, 502 verglichen werden, um das Fahrzeug 200 exakt zu lokalisieren.
  • 7 zeigt ein schematisches Beispiel einer Erstellung einer lokalisierten Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen 500, 502 der 5 und den erwarteten Fahrbahnen 600, 602 der 6 Wie oben beschrieben, können die erwarteten Fahrbahnen 600, 602 auf der Basis der geschätzten Position des Fahrzeugs in globalen Koordinaten und der der Fahrzeugposition entsprechenden Information durch die Bestimmungsdatei eines Straßennetzwerks erstellt werden. In 7 wird am Beispiel des Fahrzeugs 700 die auf der Basis globaler Koordinaten geschätzte Fahrzeugposition gezeigt. Die Fahrzeugposition kann dann anhand einer punktbasierten Lokalisierungsstrategie lokalisiert werden.
  • Bei der in 7 angewandten beispielhaft punktbasierten Lokalisierungsstrategie wird die Anfangsposition des Fahrzeugs durch einen Satz gewichteter Punkte repräsentiert, wobei das gewichtete Mittel der Punkte als die wahrscheinlichste Fahrzeugposition angenommen wird. Jeder Punkt kann dann neu gewichtet werden, wobei eine Aktualisierungsfunktion für die Messung benutzt wird, um die Fahrbahnen zu extrahieren, die ein Sensor beobachten würde, dem die Position jedes Punktes gegeben wird. Die Punkte in diesem Beispiel werden nach folgender Gleichung neu gewichtet: w = n F a h r b a h n e n N ( d n m d n o , σ o )
    Figure DE102014104663B4_0003
    d n m = E r w a r t e t e r   F a h r b a h n a b s t a n d   a u s   K a r t e
    Figure DE102014104663B4_0004
    d n o = E n t d e c k e r   F a h r b a h n a b s t a n d
    Figure DE102014104663B4_0005
    N = N o r m a l e   V e r t e i l u n g
    Figure DE102014104663B4_0006
    σ = S t r e u u n g   d e r   V e r t e i l u n g
    Figure DE102014104663B4_0007
  • Wenn einmal die Punkte gewichtet sind, kann am Beispiel des Fahrzeugs 702 die lokalisierte Fahrzeugposition auf der Basis des extrahierten Fahrbahnen 600, 602 gezeigt werden. Das Fahrzeug 702 befindet sich etwas oberhalb des Fahrzeugs 700, was anzeigt, dass die durch das Fahrzeug 700 dargestellte Fahrzeugposition nach den globalen Koordinaten nicht adäquat die auf der Fahrbahn basierende, durch das Fahrzeug 702 dargestellte Fahrzeugposition repräsentiert. Mit anderen Worten, die durch das Fahrzeug 702 angezeigte, lokalisierte Position ist genauer als die durch das Fahrzeug 700 angezeigte, auf den globalen Koordinaten basierende Position.
  • Ein beispielhaftes Verfahren für eine fahrbahnbasierte Lokalisierung unter Anwendung des oben in den 1 - 7 beschriebenen Verfahrens schließt den Empfang von eine Straßenoberfläche in der Nähe des Fahrzeugs repräsentierenden Daten von einem oder mehreren auf einem Fahrzeug angebrachten Sensoren ein. Wie oben beschrieben, können die Sensoren 116 Daten zur Verarbeitung durch eine interne Messeinheit (IMU), ein odometrisches System, ein GPS 210, ein LIDAR-System, oder irgendein anderes System zur Erfassung von Fahrzeug- und/oder Positionsdaten erfassen. Das Verfahren kann weiter das Entfernen von Daten einschließen, die unter eine adaptive Schwelle der die Straßenoberfläche repräsentierenden Daten fallen, um Daten zu isolieren, die Abgrenzungen der Straßenoberfläche repräsentieren. Die Isolierung von Abgrenzungen von anderen Daten über die Straßenoberfläche wird gezeigt durch den Vergleich Abgrenzungen, beispielsweise der Fahrbahnränder 300, 302 und der Fahrbahnmittellinie 304 in den 3 und 4.
  • Das beispielsweise Verfahren schließt weiter die Erstellung entdeckter Fahrbahnen, beispielsweise der durch die Anwendung eines oder mehrerer Filter ermittelten, in 5 gezeigten Fahrbahnen 500, 502 auf der Basis der Abgrenzungen auf der Straßenoberfläche repräsentierenden Daten. Wie oben beschrieben, können die Filter in der Längsrichtung wirkende Differenzfilter, in der Querrichtung wirkende Gaußsche Glättungsfilter, oder irgendeinen anderen Typ eines geeigneten Filters für die Erstellung der entdeckten Fahrbahnen 500, 502 einschließen. Das Verfahren kann weiter das Erstellen erwarteter Fahrbahnen, beispielsweise der in 6 gezeigten erwarteten Fahrbahnen nahe dem Fahrzeug unter Verwendung von Daten, die in einer Bestimmungsdatei eines Straßennetzwerks enthalten sind. Wie oben beschrieben, kann die zum Erstellen der erwarteten Fahrbahnen benutzte Information der Bestimmungsdatei eines Straßennetzwerks auf der Basis der geschätzten Fahrzeugposition in globalen Koordinaten gewählt werden.
  • Das beispielsweise Verfahren schließt weiter den Vergleich der entdeckten Fahrbahnen 500, 502 mit den erwarteten Fahrbahnen 600, 602 und das Erstellen einer lokalisierten Fahrzeugposition basierend auf dem Vergleich zwischen den ein. Wie oben beschrieben wird die Fahrzeugposition durch gewichtete Punkte repräsentiert, die unter Anwendung einer einen Vergleich der entdeckten Fahrbahnen 500, 502 mit den erwarteten Fahrbahnen 600, 602 einschließenden Aktualisierungsfunktion der Messung neu gewichtet werden.
  • Die vorstehende Beschreibung bezieht sich auf das, was derzeit für die praktischste Ausführungsform gehalten wird. Es ist jedoch zu verstehen, dass die Offenbarung nicht auf diese Ausführungsformen beschränkt ist, sondern im Gegenteil beabsichtigt ist, verschiedene Modifikationen und äquivalente Anordnungen abzudecken, die innerhalb von Geist und Umfang der angefügten Ansprüche liegen, deren Schutzbereich die breiteste Auslegung zuteil werden soll, um alle jene Modifikationen und äquivalenten Konstruktionen einzuschließen, wie es gesetzlich gestattet ist.

Claims (11)

  1. Eine fahrbahnbasierte Lokalisierung benutzendes autonomes Navigationssystem , umfassend: einen oder mehrere auf einem Fahrzeug (200) angebrachte Sensoren (116); und eine Rechnervorrichtung (100) in Kommunikation mit dem einen oder den mehreren Sensoren (116); einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung (100); und einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren benutzt werden, wobei der eine oder die mehreren Prozessoren geeignet sind, im Speicher gespeicherte Befehle auszuführen, um: von dem einen oder den mehreren Sensoren (116) eine Straßenoberfläche in der Nähe des Fahrzeugs (200) repräsentierende Daten zu empfangen; die Daten zu entfernen, die unter eine adaptive Schwelle der gesammelten Intensitätswerte der die Straßenoberfläche repräsentierenden Daten fallen, um Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierende Daten zu isolieren; durch Anwendung mehrerer Filter, basierend auf den Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten entdeckte Fahrbahnen (500, 502) zu erstellen, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren, und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren; durch Anwendung der in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten erwartete Fahrbahnen (600, 602) in der Nähe des Fahrzeugs (200) zu erstellen; die entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602) zu vergleichen; und eine lokalisierte Fahrzeugposition basierend auf dem Vergleich zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602) zu erstellen.
  2. System nach Anspruch 1, bei welchem die die Straßenoberfläche repräsentierenden Daten eine Mehrzahl von Intensitätswerten einschließen, die gesammelt werden, während das Fahrzeug (200) eine Route befährt.
  3. System nach Anspruch 1, bei welchem das Erstellen der entdeckten Fahrbahnen (500, 502) die Durchführung einer Analyse der verbundenen Komponenten der die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden, gefilterten Daten einschließt.
  4. System nach Anspruch 1, bei welchem die Bestimmungsdatei eines Straßennetzwerks Geo-Positionsinformationen für die Straßenoberfläche und die Breite der auf der Straßenoberfläche erwarteten Fahrbahnen (600, 602) sowie eine Positionsbeziehung zwischen den erwarteten Fahrbahnen (600, 602) auf der Straßenoberfläche einschließt.
  5. Computerimplementiertes Verfahren zur autonomen Navigation unter Verwendung einer fahrbahnbasierten Lokalisierung , umfassend: Entfernen der unter eine adaptive Schwelle der gesammelten Intensitätswerte fallenden Daten von den die Straßenoberfläche repräsentierenden Daten, um Daten zu isolieren, die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentieren; Empfangen von eine Straßenoberfläche nahe dem Fahrzeug (200) repräsentierenden Daten von einem oder mehreren auf einem Fahrzeug (200) angeordneten Sensoren (116); Erstellen entdeckter Fahrbahnen (500, 502) auf der Basis der Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten durch Anwendung mehrerer Filter, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren, und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren; Erstellen erwarteter Fahrbahnen (600, 602) nahe dem Fahrzeug (200) unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltenen Daten; Vergleichen der entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602); und Erstellen einer lokalisierten Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602).
  6. Verfahren nach Anspruch 5, bei welchem die die Straßenoberfläche repräsentierenden Daten eine Mehrzahl von Intensitätswerten einschließen, die während des Befahrens einer Route vom Fahrzeug (200) gesammelt werden.
  7. Verfahren nach Anspruch 5, bei welchem das Erstellen der entdeckten Fahrbahnen (500, 502) das Durchführen einer Analyse der verbundenen Komponenten der die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden, gefilterten Daten einschließt.
  8. Verfahren nach Anspruch 5, bei welchem die Bestimmungsdatei eines Straßennetzwerks Geo-Positionsinformationen für die Straßenoberfläche und die Breite der auf der Straßenoberfläche erwarteten Fahrbahnen (600, 602) sowie eine Positionsbeziehung zwischen den erwarteten Fahrbahnen (600, 602) auf der Straßenoberfläche einschließt.
  9. Rechnervorrichtung (100) , umfassend : einen oder mehrere Prozessoren zur Steuerung der Aktionen der Rechnervorrichtung (100); und einen Speicher zur Speicherung von Daten und Programmbefehlen, die von dem einen oder den mehreren Prozessoren benutzt werden, wobei der eine oder die mehreren Prozessoren geeignet sind, im Speicher gespeicherte Befehle auszuführen, um: von einem oder mehreren auf einem Fahrzeug (200) angeordneten Sensoren (116) Daten zu empfangen, die eine Straßenoberfläche nahe dem Fahrzeug (200) repräsentieren; die unter eine adaptive Schwelle der gesammelten Intensitätswerte fallenden Daten von den die Straßenoberfläche repräsentierenden Daten zu entfernen, um Daten zu isolieren, die Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentieren; durch Anwendung mehrerer Filter entdeckte Fahrbahnen (500, 502) auf der Basis der Abgrenzungen (300, 302, 304) auf der Straßenoberfläche repräsentierenden Daten zu erstellen, wobei in Längsrichtung der Bewegung ein Differenzfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren , und in Seitenrichtung ein Gaußscher Glättungsfilter angewandt wird, um Fahrbahnabgrenzungen aus dem Bild zu extrahieren; erwartete Fahrbahnen (600, 602) nahe dem Fahrzeug (200) unter Verwendung von in einer Bestimmungsdatei eines Straßennetzwerks enthaltener Daten zu erstellen; die entdeckten Fahrbahnen (500, 502) mit den erwarteten Fahrbahnen (600, 602) zu vergleichen; und eine lokalisierte Fahrzeugposition auf der Basis des Vergleichs zwischen den entdeckten Fahrbahnen (500, 502) und den erwarteten Fahrbahnen (600, 602) zu erstellen.
  10. Rechnervorrichtung (100) nach Anspruch 9, bei welcher die Bestimmungsdatei eines Straßennetzwerks Geo-Positionsinformationen für die Straßenoberfläche und die Breite der auf der Straßenoberfläche erwarteten Fahrbahnen (600, 602) sowie eine Positionsbeziehung zwischen den erwarteten Fahrbahnen (600, 602) auf der Straßenoberfläche einschließt.
  11. System, Verfahren oder Vorrichtung nach einem der Ansprüche 1, 5 oder 9, bei welchem die lokalisierte Fahrzeugposition auf einer Neugewichtung der die Fahrzeugposition repräsentierenden Punkte basiert.
DE102014104663.3A 2013-04-08 2014-04-02 Fahrbahnbasierte Lokalisierung Expired - Fee Related DE102014104663B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/858,410 US8972093B2 (en) 2013-04-08 2013-04-08 Lane-based localization
US13/858,410 2013-04-08

Publications (2)

Publication Number Publication Date
DE102014104663A1 DE102014104663A1 (de) 2014-10-09
DE102014104663B4 true DE102014104663B4 (de) 2019-01-24

Family

ID=51567680

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014104663.3A Expired - Fee Related DE102014104663B4 (de) 2013-04-08 2014-04-02 Fahrbahnbasierte Lokalisierung

Country Status (3)

Country Link
US (1) US8972093B2 (de)
JP (1) JP5941091B2 (de)
DE (1) DE102014104663B4 (de)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US9405293B2 (en) * 2014-05-30 2016-08-02 Nissan North America, Inc Vehicle trajectory optimization for autonomous vehicles
US9321461B1 (en) 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US9707961B1 (en) * 2016-01-29 2017-07-18 Ford Global Technologies, Llc Tracking objects within a dynamic environment for improved localization
JP6693496B2 (ja) * 2017-03-16 2020-05-13 株式会社デンソー 自己位置推定装置
US11016957B2 (en) * 2018-02-28 2021-05-25 Microsoft Technology Licensing, Llc Sensor data based query results
DE102018215055A1 (de) * 2018-09-05 2020-03-05 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bestimmen einer Spurwechselangabe eines Fahrzeugs, ein computerlesbares Speichermedium und ein Fahrzeug
US20200240091A1 (en) * 2019-01-24 2020-07-30 Toyota Motor Engineering & Manufacturing North America, Inc. Grass surrogate
US11181922B2 (en) * 2019-03-29 2021-11-23 Zoox, Inc. Extension of autonomous driving functionality to new regions
US11620831B2 (en) * 2020-04-29 2023-04-04 Toyota Research Institute, Inc. Register sets of low-level features without data association

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010056326A1 (en) 2000-04-11 2001-12-27 Keiichi Kimura Navigation apparatus, method for map matching performed in the navigation apparatus, and computer-readable medium storing a program for executing the method
US20100014713A1 (en) 2008-07-18 2010-01-21 Gm Global Technology Operations, Inc. Road-lane marker detection
US20100114416A1 (en) 2008-10-30 2010-05-06 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
US20100121577A1 (en) 2008-04-24 2010-05-13 Gm Global Technology Operations, Inc. Three-dimensional lidar-based clear path detection
EP2228782A1 (de) 2009-02-20 2010-09-15 Navteq North America, LLC Bestimmung von Fahrwegsmarkierungen auf Grundlage von Retroreflexion

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03201110A (ja) * 1989-12-28 1991-09-03 Toyota Central Res & Dev Lab Inc 自律走行車の位置方位検出装置
JP3333223B2 (ja) * 1991-11-29 2002-10-15 マツダ株式会社 移動車の走行路認識装置
JPH08247775A (ja) * 1995-03-15 1996-09-27 Toshiba Corp 移動体の自己位置同定装置および自己位置同定方法
JP3081788B2 (ja) * 1995-04-25 2000-08-28 松下電器産業株式会社 局地的位置把握装置
KR100459476B1 (ko) * 2002-04-04 2004-12-03 엘지산전 주식회사 차량의 대기 길이 측정 장치 및 방법
JP4437714B2 (ja) * 2004-07-15 2010-03-24 三菱電機株式会社 車線認識画像処理装置
JP4793094B2 (ja) * 2006-05-17 2011-10-12 株式会社デンソー 走行環境認識装置
JP4687563B2 (ja) * 2006-05-23 2011-05-25 株式会社デンソー 車両用レーンマーク認識装置
US20080033645A1 (en) * 2006-08-03 2008-02-07 Jesse Sol Levinson Pobabilistic methods for mapping and localization in arbitrary outdoor environments
US8055445B2 (en) * 2008-09-24 2011-11-08 Delphi Technologies, Inc. Probabilistic lane assignment method
US8775063B2 (en) * 2009-01-26 2014-07-08 GM Global Technology Operations LLC System and method of lane path estimation using sensor fusion
JP5287335B2 (ja) * 2009-02-23 2013-09-11 日産自動車株式会社 道路白線認識装置及び道路白線認識方法
WO2010140578A1 (ja) * 2009-06-02 2010-12-09 日本電気株式会社 画像処理装置、画像処理方法、及び画像処理用プログラム
US9633564B2 (en) * 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20010056326A1 (en) 2000-04-11 2001-12-27 Keiichi Kimura Navigation apparatus, method for map matching performed in the navigation apparatus, and computer-readable medium storing a program for executing the method
US20100121577A1 (en) 2008-04-24 2010-05-13 Gm Global Technology Operations, Inc. Three-dimensional lidar-based clear path detection
US20100014713A1 (en) 2008-07-18 2010-01-21 Gm Global Technology Operations, Inc. Road-lane marker detection
US20100114416A1 (en) 2008-10-30 2010-05-06 Honeywell International Inc. System and method for navigating an autonomous vehicle using laser detection and ranging
EP2228782A1 (de) 2009-02-20 2010-09-15 Navteq North America, LLC Bestimmung von Fahrwegsmarkierungen auf Grundlage von Retroreflexion

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
Albert S. Huang: "Lane Estimation for Autonomous Vehicles using Vision and LIDAR", Thesis (Ph. D.), Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2010 *
Albert S. Huang: „Lane Estimation for Autonomous Vehicles using Vision and LIDAR", Thesis (Ph. D.), Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2010
J. Han et al.: "Enhanced Road Boundary and Obstacle Detection Using a Downward-Looking LIDAR Sensor", in Vehicular Technology, IEEE Transactions on, vol. 61, no. 3, pp. 971-985, March 2012 *
J. Han et al.: „Enhanced Road Boundary and Obstacle Detection Using a Downward-Looking LIDAR Sensor", in Vehicluar Technology, IEEE Transactions on. vol. 61, no. 3, pp. 971-985, March 2012
M. Aly: "Real time Detection of Lane Markers in Urban Streets", in Intelligent Vehicles Symposium, 2008 IEEE , vol., no., pp. 7-12, 4-6 June 2008 *
M. Aly: „Real time Detection of Lane Markers in Urban Streets", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 7-12, 4-6 June 2008
N. Suganuma, T. Uozumi: "Precise position estimation of autonomous vehicle based on map-matching", in Intelligent Vehicles Symposium (IV), 2011 IEEE , vol., no., pp. 296-301, 5-9 June 2011 *
N. Suganuma, T. Uozumi: „Precise position estimation of autonomous vehicle based on map-matching", in Intelligent Vehicles Symposium (IV), 2011 IEEE, vol., no., pp. 296-301, 5-9 June 2011
S. Kammel, B. Pitzer: "Lidar-based lane marker detection and mapping", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 1137-1142, 4-6 June 2008 *
S. Kammel, B. Pitzer: „Lidar-based lane marker detection an mapping", in Intelligent Vehicles Symposium, 2008 IEEE, vol., no., pp. 1137-1142, 4-6 June 2008

Also Published As

Publication number Publication date
JP5941091B2 (ja) 2016-06-29
DE102014104663A1 (de) 2014-10-09
US20140303828A1 (en) 2014-10-09
US8972093B2 (en) 2015-03-03
JP2014203465A (ja) 2014-10-27

Similar Documents

Publication Publication Date Title
DE102014104663B4 (de) Fahrbahnbasierte Lokalisierung
DE102015116882B4 (de) Verbindungswahrscheinlichkeitsmodellbildung und Folgerung der Kreuzungsstruktur
DE112014004990B4 (de) Verfahren zum Erzeugen exakter Fahrspurebenen-Karten
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
DE102013208521B4 (de) Kollektives Erlernen eines hochgenauen Straßenmodells
DE102017103123A1 (de) Fahrzeugfahrbahnplatzierung
DE112018002143T5 (de) Systeme und verfahren zur kompression von fahrspurdaten
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102017108774A1 (de) Fahrzeugspurkartenschätzung
DE102017125493A1 (de) Verkehrszeichenerkennung
DE112015002037T5 (de) Detailliertes Landkartenformat für autonomes Fahren
DE102016212587A1 (de) Verfahren und System zur Erzeugung von Karteninformationen
DE102014223363A1 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE112015006622T5 (de) Fahrspurbestimmungsvorrichtung und Fahrspurbestimmungsverfahren
WO2017089135A1 (de) Verfahren und system zum erstellen einer spurgenauen belegungskarte für fahrspuren
DE102015000399B4 (de) Kartographieren von Fahrspuren mittels Fahrzeugflottendaten
DE102011100927A1 (de) Objekt- und Fahrzeugdetektion und -verfolgung unter Verwendung von 3-D-Laserentfernungsmesser
DE102014009627A1 (de) Verfahren zur Meldung einer freien Parklücke für ein Fahrzeug
DE102016213817B4 (de) Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zur Bestimmung der lateralen Position eines Fahrzeuges relativ zu den Fahrstreifen einer Fahrbahn
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE112021002680T5 (de) Systeme und verfahren zum erkennen einer offenen tür
WO2013174732A1 (de) Erkennung von richtungsfahrbahnen
DE112021004128T5 (de) Systeme und verfahren für kartenbasierte modellierung der realen welt
CN109544443A (zh) 一种路线图生成方法及装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R012 Request for examination validly filed

Effective date: 20150212

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, JP

Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., ERLANGER, KY., US

Owner name: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH, US

Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., ERLANGER, KY., US

R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: TOYOTA JIDOSHA KABUSHIKI KAISHA, TOYOTA-SHI, JP

Free format text: FORMER OWNER: TOYOTA MOTOR ENGINEERING & MANUFACTURING NORTH AMERICA, INC., PLANO, TEX., US

R082 Change of representative

Representative=s name: KUHNEN & WACKER PATENT- UND RECHTSANWALTSBUERO, DE

R084 Declaration of willingness to licence
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee