DE102018115813A1 - Verfahren und systeme zum lokalisieren eines fahrzeugs - Google Patents

Verfahren und systeme zum lokalisieren eines fahrzeugs Download PDF

Info

Publication number
DE102018115813A1
DE102018115813A1 DE102018115813.0A DE102018115813A DE102018115813A1 DE 102018115813 A1 DE102018115813 A1 DE 102018115813A1 DE 102018115813 A DE102018115813 A DE 102018115813A DE 102018115813 A1 DE102018115813 A1 DE 102018115813A1
Authority
DE
Germany
Prior art keywords
vehicle
data
controller
distance
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018115813.0A
Other languages
English (en)
Inventor
Xiaofeng F. Song
Valor Yaldo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102018115813A1 publication Critical patent/DE102018115813A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09626Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages where the origin of the information is within the own vehicle, e.g. a local storage device, digital map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Manufacturing & Machinery (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Navigation (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden Verfahren und Systeme zur Fahrzeuglokalisierung dargestellt. Ein exemplarisches System beinhaltet ein Navigationssystem, das dafür konfiguriert ist, Navigationsdaten entsprechend einer globalen Position des Fahrzeugs zu erzeugen, mindestens einen Bildsensor, der dafür konfiguriert ist, Bilddaten eines ausgewählten Straßenmerkmals entlang einer projizierten Fahrzeugstrecke zu erfassen, eine Datenbank mit Kartendaten gemäß Quer- und Längsrichtungskoordinaten für eine Vielzahl von Straßenmerkmalen entlang der projizierten Strecke des Fahrzeugs; und eine Steuerung, die dafür konfiguriert ist, die Bilddaten, die Kartendaten und die Navigationsdaten zu empfangen, Berechnen einer ersten Entfernung vom ausgewählten Merkmal zum Fahrzeug unter Verwendung der Navigationsdaten und der Bilddaten, Berechnen einer zweiten Entfernung vom ausgewählten Merkmal zum Fahrzeug unter Verwendung der Navigationsdaten und der Kartendaten und das Ermitteln eines Lokalisierungsfehlers durch Vergleichen der ersten mit der zweiten Entfernung.

Description

  • EINLEITUNG
  • Das vorliegende Erfindung bezieht sich im Allgemeinen auf den Bereich von Fahrzeugen und insbesondere auf Verfahren und Systeme zum Verbessern der Genauigkeit von Fahrzeuglokalisierung.
  • Der Betrieb von modernen Fahrzeugen wird zunehmend automatisierter, d. h. Fahrzeuge übernehmen die Fahrsteuerung mit geringerem Eingriff des Fahrers. Die Fahrzeugautomatisierung wurde kategorisiert nach nummerischen Ebenen von Null, entsprechend keiner Automatisierung mit voller menschlicher Kontrolle, bis Fünf, entsprechend der vollen Automatisierung ohne menschliche Kontrolle. Verschiedene automatisierte Fahrerassistenzsysteme, wie beispielsweise Geschwindigkeitsregelung, adaptive Geschwindigkeitsregelung und Parkassistenzsysteme, entsprechen niedrigeren Automatisierungsebenen, während echte „fahrerlose“ Fahrzeuge mit höheren Automatisierungsebenen übereinstimmen.
  • Das Fahrzeug muss sich selbst in bestimmten Situationen lokalisieren können, um in einer Vielzahl von Umgebungen zu navigieren. Fahrzeuglokalisierung ist eine der Möglichkeiten für autonome Antriebssysteme, die Fahrzeugposition relativ zu den Attributen oder Merkmalen in der Umgebung zu bestimmen. Wenn man sich auf Global Positioning Systems (GPS) und Kartendatenbank-Informationen verlässt, kann dies zu Lokalisierungsfehlern führen, wenn die Karten- oder GPS-Daten systematische oder Fehler enthalten.
  • KURZDARSTELLUNG
  • Ausführungsformen gemäß der vorliegenden Offenbarung stellen eine Reihe von Vorteilen bereit. Ausführungsformen gemäß der vorliegenden Offenbarung verbessern beispielsweise die Genauigkeit der Fahrzeuglokalisierung, indem sie eine oder mehrere Fahrzeugkameras verwenden, um die Entfernung zu einem Attribut erkennen, wie z. B. und ohne Einschränkung einen Kilometerstein und diese Entfernung zum von der Kamera gemessenen Attribut dann mit der Position des Attributs vergleichen, das von Karten- oder GPS-Daten bereitgestellt wurde. Ausführungsformen gemäß der vorliegenden Offenbarung können somit die Fahrzeuglokalisierungs-Genauigkeit verbessern, robustes Map-Matching und präzise Fahrspurbestimmungen erlauben und Fahrzeuglokalisierungs-Ermittlungsredundanz bereitstellen.
  • Gemäß einem Aspekt beinhaltet ein Verfahren zur Lokalisierung eines Fahrzeugs die Schritte des Ausstattens des Fahrzeugs mit mindestens einem Bildsensor, der dafür konfiguriert ist, Bilddaten eines ausgewählten Straßenmerkmals entlang einer projizierten Fahrzeugstrecke zu erfassen, einem Navigationssystem, das dafür konfiguriert ist, Navigationsdaten entsprechend einer globalen Position des Fahrzeugs zu erzeugen, eine Datenbank mit Kartendaten gemäß Quer- und Längsrichtungskoordinaten für eine Vielzahl von Straßenmerkmalen entlang der projizierten Fahrzeugstrecke und eine Steuerung in Verbindung mit mindestens einem Fahrzeugsensor, wobei das Navigationssystem und die Kartendatenbank die Bilddaten entsprechend des ausgewählten Straßenmerkmals über die Steuerung empfangen; Empfangen durch die Steuerung der Navigationsdaten entsprechend der globalen Position des Fahrzeugs, Empfangen durch die Steuerung, die Kartendaten entsprechend des ausgewählten Straßenmerkmals, Berechnen durch die Steuerung, einer ersten Entfernung vom ausgewählten Merkmal zum Fahrzeug, Berechnen durch die Steuerung, einer zweiten Entfernung vom ausgewählten Merkmal des Fahrzeugs, Ermitteln durch die Steuerung eines Lokalisierungsfehlers durch Vergleichen der ersten Entfernung mit der zweiten Entfernung und das Anwenden durch die Steuerung des Lokalisierungsfehlers auf die Kartendatenbank-Daten zur Korrektur der Position von mindestens einem der Vielzahl der Straßenmerkmale bezüglich der Position des Fahrzeugs.
  • In einigen Aspekte ist das ausgewählte Straßenmerkmal ein Kilometerstein.
  • In einigen Aspekten beinhaltet das Verfahren des Weiteren das Ermitteln durch die Steuerung, ob der Lokalisierungsfehler über einem vorbestimmten Wert liegt, und wenn ja, Durchführen, durch die Steuerung einer Navigationssystem-Gegenprüfung.
  • In einigen Aspekten beinhaltet das Verfahren des Weiteren das Ermitteln durch die Steuerung, ob der Lokalisierungsfehler über einem vorbestimmten Wert liegt, und wenn ja, Setzen durch die Steuerung einer Navigationssystem-Diagnoseflagge.
  • In einigen Aspekten beinhaltet das Berechnen einer ersten Entfernung das Berechnen der Entfernung vom Kilometerstein zum Fahrzeug unter Verwendung der Bild- und Navigationsdaten.
  • In einigen Aspekten beinhaltet das Berechnen einer zweiten Entfernung das Berechnen der Entfernung vom Kilometerstein zum Fahrzeug unter Verwendung der Karten- und Navigationsdaten.
  • In einem weiteren Aspekt beinhaltet ein Kraftfahrzeug eine Fahrzeugkarosserie, ein Fahrzeugnavigationssystem, eine Datenbank mit Kartendaten gemäß Quer- und Längsrichtungskoordinaten für eine Vielzahl von Straßenmerkmalen entlang der projizierten Fahrzeugstrecke, mindestens einen Sensor und eine Steuerung in Verbindung mit einem Navigationssystem, der Datenbank und mindestens einem Fahrzeugsensor. Die Steuerung ist dafür konfiguriert, Sensordaten entsprechend des ausgewählten Straßenmerkmals zu empfangen, Navigationsdaten entsprechend der globalen Position des Fahrzeugs zu empfangen, die Kartendaten gemäß des ausgewählten Straßenmerkmals zu empfangen, eine erste Entfernung vom ausgewählten Merkmal zum Fahrzeug zu berechnen, eine zweite Entfernung vom ausgewählten Merkmal zum Fahrzeug zu berechnen, einen Lokalisierungsfehler durch Vergleichen der ersten Entfernung mit zweiten Entfernung zu bestimmen und den Lokalisierungsfehler auf die Kartendaten anzuwenden, um die Position von mindestens einem der Vielzahl der Straßenmerkmale bezüglich der Position des Fahrzeugs korrigieren.
  • In einigen Aspekten ist mindestens ein Sensor eine optische Kamera.
  • In einigen Aspekten ist die optische Kamera dafür konfiguriert, Bilddaten des ausgewählten Straßenmerkmals zu erfassen.
  • In einigen Aspekten ist das ausgewählte Straßenmerkmal ein Kilometerstein und die Steuerung ist des Weiteren dafür konfiguriert, den Kilometerstein einschließlich Text zu analysieren.
  • In einigen Aspekten ist die Steuerung des Weiteren dafür konfiguriert, zu bestimmen ob der Lokalisierungsfehler über einem vorbestimmten Wert liegt, und wenn ja, eine Navigationssystem-Gegenprüfung durchzuführen.
  • In einigen Aspekten beinhaltet das Berechnen einer ersten Entfernung das Berechnen der Entfernung vom Kilometerstein zum Fahrzeug unter Verwendung der Bild- und Navigationsdaten.
  • In einigen Aspekten beinhaltet das Berechnen einer zweiten Entfernung das Berechnen der Entfernung vom Kilometerstein zum Fahrzeug unter Verwendung der Karten- und Navigationsdaten.
  • In einem weiteren Aspekt beinhaltet ein System zur Lokalisierung eines Fahrzeugs ein Navigationssystem, das dafür konfiguriert ist, Navigationsdaten entsprechend einer globalen Position des Fahrzeugs zu erzeugen, mindestens einen Bildsensor, der dafür konfiguriert ist, Bilddaten eines ausgewählten Straßenmerkmals entlang einer projizierten Fahrzeugstrecke zu erfassen, eine Datenbank mit Kartendaten gemäß Quer- und Längsrichtungskoordinaten für eine Vielzahl von Straßenmerkmalen entlang der projizierten Strecke des Fahrzeugs; und eine Steuerung, die mit dem Navigationssystem, mindestens einem Bildsensor und der Datenbank kommuniziert und die dafür konfiguriert ist, der Bilddaten, die Kartendaten und die Navigationsdaten zu empfangen, Berechnen einer ersten Entfernung vom ausgewählten Merkmal zum Fahrzeug unter Verwendung der Navigationsdaten und der Bilddaten, Berechnen einer zweiten Entfernung vom ausgewählten Merkmal zum Fahrzeug unter Verwendung der Navigationsdaten und der Kartendaten und das Ermitteln eines Lokalisierungsfehlers durch Vergleichen der ersten mit der zweiten Entfernung.
  • In einigen Aspekten ist die Steuerung des Weiteren dafür konfiguriert, den Lokalisierungsfehlers auf die Kartendatenbankdaten anzuwenden, um die Position von mindestens einem der Vielzahl der Straßenmerkmale bezüglich der Position des Fahrzeugs zu korrigieren.
  • In einigen Aspekten ist mindestens ein Bildsensor eine optische Kamera.
  • In einigen Aspekten ist das ausgewählte Straßenmerkmal ein Kilometerstein und die Steuerung ist des Weiteren dafür konfiguriert, den Kilometerstein einschließlich Text zu analysieren.
  • Figurenliste
  • Die vorliegende Offenbarung wird hierin in Verbindung mit den nachfolgenden Figuren beschrieben, worin gleiche Zahlen für gleiche Elemente stehen.
    • 1 ist ein schematisches Blockdiagramm eines autonomen oder halbautonomen Fahrzeugs, das gemäß einer Ausführungsform über ein Fahrzeug-Lokalisierungssystem verfügt.
    • 2 ist ein schematisches Blockdiagramm eines Fahrzeug-Lokalisierungssystems für ein Fahrzeug, wie beispielsweise das Fahrzeug in 1, gemäß einer Ausführungsform.
    • 3 ist ein schematisches Blockdiagramm eines Fahrzeugs, das auf einer Straße fährt, die Merkmale aufweist, die sowohl von einer Fahrzeugkamera als auch über eine GPS-Kartendatenbank zur Verwendung bei den Fahrzeuglokalisierungs-Berechnungen gemäß einer Ausführungsform identifiziert wurden.
    • 4 ist ein Flussdiagramm für ein Verfahren zur Fahrzeuglokalisierung gemäß einer Ausführungsform.
  • Die vorstehenden und anderen Merkmale der vorliegenden Offenbarung werden aus der folgenden Beschreibung und den hinzugefügten Ansprüchen in Verbindung mit den zugehörigen Zeichnungen deutlicher. Mit Verständnis dafür, dass diese Zeichnungen nur einige Ausführungsformen gemäß der Offenbarung darstellen und nicht als Einschränkung ihres Umfangs zu betrachten sind, wird die Offenbarung mit zusätzlicher Spezifizität und ausführlich durch die Verwendung der zugehörigen Zeichnungen beschrieben. Alle Abmessungen, die in den Zeichnungen oder an anderer Stelle hierin offenbart sind, dienen lediglich der Veranschaulichung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführungsformen der vorliegenden Offenbarung sind hierin beschrieben. Es versteht sich jedoch, dass die offenbarten Ausführungsformen lediglich Beispiele sind und andere Ausführungsformen verschiedene und alternative Formen annehmen können. Die Figuren sind nicht unbedingt maßstabsgerecht; einige Merkmale können größer oder kleiner dargestellt sein, um die Einzelheiten bestimmter Komponenten zu veranschaulichen. Folglich sind die hierin offenbarten aufbau- und funktionsspezifischen Details nicht als einschränkend zu verstehen, sondern lediglich als repräsentative Grundlage, um den Fachleuten die verschiedenen Arten und Weisen der Nutzung der vorliegenden Erfindung zu vermitteln. Wie der Fachleute verstehen, können verschiedene Merkmale, die mit Bezug auf beliebige der Figuren dargestellt und beschrieben werden, mit Merkmalen kombiniert werden, die in einer oder mehreren anderen Figuren dargestellt sind, um Ausführungsformen zu erzeugen, die nicht explizit dargestellt oder beschrieben sind. Die dargestellten Kombinationen von Merkmalen stellen repräsentative Ausführungsformen für typische Anwendungen bereit. Verschiedene Kombinationen und Modifikationen der Merkmale, die mit den Lehren dieser Offenbarung übereinstimmen, könnten jedoch für bestimmte Anwendungen und Implementierungen erwünscht sein.
  • Eine bestimmte Terminologie kann in der nachfolgenden Beschreibung auch lediglich zum Zweck der Referenz verwendet werden und soll folglich nicht einschränkend sein. Begriffe, wie „oberhalb“ und „unterhalb“, beziehen sich beispielsweise auf Richtungen in den Zeichnungen, auf die Bezug genommen wird. Begriffe, wie „vorn“, „hinten“, „links“, „rechts“, „Heck“ und „Seite“, beschreiben die Ausrichtung und/oder die Örtlichkeit von Teilen der Komponenten oder Elementen innerhalb eines konsistenten, aber beliebigen Rahmens, welche durch Bezugnahmen auf den Text und die zugehörigen Zeichnungen bei der Beschreibung der zu erörternden Komponenten oder Elementen verdeutlicht werden. Darüber hinaus können Begriffe, wie „erste/r“, „zweite/r“, „dritte/r“ und so weiter, verwendet werden, um separate Komponenten zu beschreiben. Solche Terminologie kann die oben ausdrücklich erwähnten Wörter beinhalten sowie Ableitungen davon und Wörter von vergleichbarer Bedeutung.
  • Eine genaue Leitfahrzeug-Lokalisierung ist ein wichtiger Aspekt der autonomen Fahrzeugsteuerung. In vielen Fällen muss das automatisierte Antriebsassistenzsystem (ADAS) des Fahrzeugs wissen, in welcher Fahrspur sich das Fahrzeug befindet, um die Steuersignale zu bestimmen, die es an die diversen Stellglieder senden muss, die die Lenkung, das Gaspedal, die Bremsen usw. steuern. Wenn sich zum Beispiel ein Fahrzeug in der rechten Fahrspur einer Straße befindet, muss die Steuerung u. U. entscheiden, ob das Fahrzeug nach vorn, oder um eine Kurve gerichtet wird. Wenn die Fahrzeugposition, die durch ein GPS-Navigationssystem bestimmt wird, „springt“ und das Fahrzeug in der falschen Fahrspur lokalisiert, hat die ADAS keine vollständigen und genauen Informationen, um das Fahrzeug zu steuern. Unter Verwendung der hier vorgeschlagenen Verfahren und Algorithmen und mit einem sichtbaren Gegenstand, dessen Position sowohl von Kartendatenbankdaten als auch von visuellen Daten bestimmt werden kann, kann die Fahrzeugsteuerung das Fahrzeug genau lokalisieren, einschließlich der Ermittlung der seitlichen Position des Fahrzeugs, d. h. der aktuellen Fahrspur des Fahrzeugs.
  • 1 veranschaulicht schematisch ein Kraftfahrzeug 10 gemäß der vorliegenden Offenbarung. Das Fahrzeug 10 beinhaltet im Allgemeinen eine Karosserie 11 und Räder 15. Die Karosserie 11 umschließt die anderen Komponenten des Fahrzeugs 10. Die Räder 15 sind jeweils mit der Karosserie 11 in der Nähe einer jeweiligen Ecke der Karosserie 11 drehbar verbunden. Das Fahrzeug 10 ist in der dargestellten Ausführungsform als Pkw dargestellt, es sollte jedoch beachtet werden, dass auch jedes andere Fahrzeug, einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs) oder Freizeitfahrzeuge (RVs) usw. verwendet werden können.
  • Das Fahrzeug 10 beinhaltet ein Antriebssystem 13, das in verschiedenen Ausführungsformen einen Verbrennungsmotor, einen Elektromotor, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten kann. Das Fahrzeug 10 beinhaltet zudem ein Getriebe 14, das so konfiguriert ist, dass es Leistung vom Antriebssystem 13 auf die Mehrzahl von Fahrzeugrädern 15 gemäß wählbaren Drehzahlverhältnissen überträgt. Nach verschiedenen Ausführungsformen kann das Getriebe 14 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten. Das Fahrzeug 10 beinhaltet zusätzlich Radbremsen (nicht dargestellt), die so konfiguriert sind, dass sie ein Bremsdrehmoment für die Fahrzeugräder 15 bereitstellen. Die Radbremsen können in verschiedenen Ausführungsformen Reibungsbremsen, ein regeneratives Bremssystem, wie z. B. einen Elektromotor und/oder andere geeignete Bremssysteme, beinhalten. Das Fahrzeug 10 beinhaltet zusätzlich ein Lenksystem 16. Obgleich zur Veranschaulichung als Lenkrad und Lenksäule dargestellt, beinhaltet in einigen Ausführungsformen das Lenksystem 16 ggf. kein Lenkrad.
  • In verschiedenen Ausführungsformen beinhaltet das Fahrzeug 10 ferner ein Navigationssystem 28, das konfiguriert ist, um Standortinformationen in Form von GPS-Koordinaten (Längengrad, Breitengrad und Höhe/Höhenlage) an eine Steuerung 22 bereitzustellen. In einigen Ausführungsformen kann das Navigationssystem 28 ein Globales Navigationssatellitensystem (GNSS) sein, das konfiguriert ist, um mit globalen Navigationssatelliten zu kommunizieren, um eine autonome geo-räumliche Positionierung des Fahrzeugs 10 zu ermöglichen. In der veranschaulichten Ausführungsform beinhaltet das Navigationssystem 28 eine Antenne, die elektrisch mit einem Empfänger verbunden ist.
  • Unter weiterer Bezugnahme auf 1 beinhaltet das Fahrzeug 10 auch eine Vielzahl von Sensoren 26, die zum Messen und Erfassen von Daten über ein oder mehrere Fahrzeugmerkmale, einschließlich, aber nicht beschränkt auf Fahrzeuggeschwindigkeit, Fahrzeugrichtung und Umgebungshelligkeitsbedingungen, konfiguriert sind. In der veranschaulichten Ausführungsform beinhalten die Sensoren 26 einen Beschleunigungsmesser, einen Geschwindigkeitssensor, einen Richtungssensor, ein Gyroskop, einen Lenkwinkelsensor oder andere Sensoren, die erkennbare Fahrzeugbedingungen oder die Umgebung des Fahrzeugs wahrnehmen und können RADAR, LIDAR, optische Kameras, thermische Kameras, Ultraschallsensoren, Infrarotsensoren, Lichtstärken-Erfassungssensoren und/oder zusätzliche Sensoren beinhalten. In einigen Ausführungsformen beinhaltet das Fahrzeug 10 auch eine Vielzahl von Stellgliedern 30, die konfiguriert sind, um Steuerbefehle zu empfangen, um Lenkung, Schaltung, Drosselklappe, Bremsen oder andere Aspekte des Fahrzeugs 10 zu steuern.
  • Wie gezeigt, beinhaltet das Fahrzeug 10 wenigstens eine Steuerung 22. Obgleich zu Veranschaulichungszwecken als eine einzige Einheit dargestellt, kann die Steuereinheit 22 zusätzlich eine oder mehrere andere „Steuereinheiten“ beinhalten. Die Steuerung 22 kann einen Mikroprozessor oder eine zentrale Verarbeitungseinheit (CPU) oder Grafikverarbeitungseinheit (GPU) beinhalten, die mit verschiedenen Arten von computerlesbaren Speichergeräten oder Medien in Verbindung steht. Computerlesbare Speichergeräte oder Medien können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Aufrechterhaltungsspeicher („Keep-Alive-Memory, KAM“) beinhalten. KAM ist ein persistenter oder nichtflüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während die CPU ausgeschaltet ist. Computerlesbare Speichergeräte oder Medien können unter Verwendung einer beliebigen Anzahl an bekannten Speichergeräten, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebigen anderen elektrischen, magnetischen, optischen oder kombinierten Speichergeräten implementiert sein, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuereinheit 22 beim Steuern des Fahrzeugs verwendet werden.
  • Gemäß verschiedener Ausführungsformen realisiert die Steuerung 22 ein autonomes Antriebssystem (ADS) 24, wie in 1 und 2 dargestellt. Das heißt, dass geeignete Soft- und/oder Hardwarekomponenten der Steuerung 22 (z. B. ein Prozessor und ein computerlesbares Speichermedium) verwendet werden, um ein autonomes Antriebssystem 24 bereitzustellen, das in Verbindung mit dem Fahrzeug 10 verwendet wird.
  • In verschiedenen Ausführungsformen können die Anweisungen des autonomen Antriebssystems 24 je nach Funktion oder System gegliedert sein. Das autonome Antriebssystem 24 kann beispielsweise, wie in 2 dargestellt, ein Sensorfusionssystem 74, ein Positioniersystem 76, ein Lenksystem 78, das mit dem Navigationssystem 28 kommuniziert sowie ein Fahrzeugsteuerungssystem 80 beinhalten. Wie ersichtlich ist, können die Anweisungen in verschiedenen Ausführungsformen in beliebig viele Systeme (z. B. kombiniert, weiter unterteilt usw.) gegliedert werden, da die Offenbarung nicht auf die vorliegenden Beispiele beschränkt ist.
  • In verschiedenen Ausführungsformen synthetisiert und verarbeitet das Sensorfusionssystem 74 Sensordaten und prognostiziert Anwesenheit, Lage, Klassifizierung und/oder Verlauf von Objekten und Merkmalen der Umgebung des Fahrzeugs 10. In verschiedenen Ausführungen kann das Sensorfusionssystem 74 Informationen von mehreren Sensoren beinhalten, einschließlich, aber nicht beschränkt auf Kameras, Lidars, Radars und/oder eine beliebige Anzahl anderer Arten von Sensoren.
  • Das Positioniersystem 76 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Position (z. B. eine lokale Position in Bezug auf eine Karte, eine exakte Position in Bezug auf die Fahrspur einer Straße, Fahrzeugrichtung, Geschwindigkeit usw.) des Fahrzeugs 10 in Bezug auf die Umgebung zu ermitteln. Bei einigen Ausführungsformen beinhaltet das Positioniersystem 76 ein Fahrzeuglokalisierungs-Modul zur Berechnung der Fahrzeugposition. Das Leitsystem 78 verarbeitet Sensordaten zusammen mit anderen Daten, um eine Strecke zu ermitteln, dem das Fahrzeug 10 folgen soll. Das Fahrzeugsteuerungssystem 80 erzeugt Steuersignale zum Steuern des Fahrzeugs 10 entsprechend der ermittelten Strecke.
  • In verschiedenen Ausführungsformen implementiert die Steuerung 22 maschinelle Lerntechniken, um die Funktionalität der Steuerung 22 zu unterstützen, wie z. B. Merkmalerkennung/Klassifizierung, Hindernisminderung, Routenüberquerung, Kartierung, Sensorintegration, Boden-Wahrheitsbestimmung und dergleichen.
  • Wie in 2 dargestellt, empfängt die Steuerung 22 Sensordaten von einem oder mehreren der Sensoren 26 sowie Kartendaten aus einer Kartendatenbank 72. Nach Auswertung und Verarbeitung der Sensordaten durch die verschiedenen Systeme des hier beschriebenen ADAS 24, erzeugt die Steuerung 22 ein oder mehrere Steuersignale, die an ein oder mehreren Stellglieder 30 übertragen werden.
  • Unter Verwendung mindestens einer Kamera und Gegenständen, die von der Kamera erkannt werden können und bekannte Positionen in den Kartendaten einnehmen, kann ein wie hier beschriebener Fahrzeuglokalisierungs-Algorithmus die Fahrzeugposition bestimmen und Redundanz für die GPS-Fahrzeugposition oder die Lokalisierungsbestimmung bereitstellen. Redundante Verfahren zur Ermittlung der Fahrzeugposition sind besonders hilfreich, da das Fahrzeug dann verschiedene Straßenmerkmale befährt, wie zum Beispiel und ohne Einschränkung, Brücken und Tunnel. In einigen Fällen kann die GPS-Genauigkeit bei der Fahrzeugpositions-Ermittlung, während das Fahrzeug diese Merkmale befährt, um bis zu 2 m abweichen. Darüber hinaus sind die hier beschriebenen Fahrzeuglokalisierungs-Algorithmen auch hilfreich bei der Ermittlung der Fahrspur des Fahrzeugs oder des Leitfahrzeugs. Für mehrspurigen Straßen mit mehreren Einfahrts- und Ausfahrtspunkten ist die genaue Ermittlung der Fahrspurposition des Fahrzeugs nützlich, um die Steuerstrategie des Fahrzeugs zu bestimmen, einschließlich, ob das Fahrzeug sich in der richtigen Spur befindet, um der Straße weiterhin zu folgen oder ob das Fahrzeug die Fahrspur wechseln muss, um von der Straße abzufahren, je nach Fahrzeugtrajektorie.
  • 3 veranschaulicht schematisch das Fahrzeug 10, das entlang einer Straße in einer Fahrtrichtung 304 fährt. Eine Vielzahl von Wegepunkten 306, 308, 310, 312, 314, 316 repräsentieren eine geplante Fahrzeugtrajektorie. Das Fahrzeug 10 ist mit mindestens einer Kamera, einem der Sensoren 26, der dafür konfiguriert ist, ein Bild des Bereichs vor dem Fahrzeug 10 zu erfassen, ausgestattet. Die Kamera liefert Bilddaten eines Bereichs vor dem Fahrzeug, 10 an die Steuerung 22.
  • Die Bilddaten, die von einer oder mehreren Kameras erzeugt werden, werden von der Steuerung 22 verwendet, um eine Schätzung des Standortes eines Attributs oder Merkmals, wie ein Kilometerstein am Fahrbahnrand, anzustellen. Wie in 3 dargestellt befindet sich der Kilometerstein 318 neben der Straße 305. Es ist bekannt, dass Entfernungen zu einem Merkmal in einem Bild mit den Kamerafunktionen berechnet werden können, und dass die von der Kamera erfassten Bilddaten u. a. Brennweite, Pixelgröße, Bildsensorgröße usw. beinhalten. Unter Verwendung der mit der Kamera erfassten Bilddaten wird eine Position des Kilometersteins, mmcam (x, y) vom Fahrzeuglokalisierungs-Modul des Positioniersystems 76 bestimmt, wobei x und y die Position des Kilometersteins in einem Fahrzeugreferenzrahmen anzeigen.
  • Bei einigen Ausführungsformen beinhaltet die Kartendatenbank 72 z. B. und uneingeschränkt Daten zur Position verschiedener Attribute oder Merkmale, einschließlich Kilometersteine und Fahrstreckengabelungen. Eine Fahrstreckengabelung, wie der in 3 dargestellte Punkt 320 wird als ein Punkt auf einer Straße definiert, wo eine oder mehrere Fahrspuren von der Originalstraße abzweigen, wie z. B. bei einer Autobahnausfahrt. Die Attribute werden gewöhnlich bzgl. den Wegepunkten einer geplanten Fahrzeugtrajektorie beschrieben.
  • Die Fahrzeuglokalisierung basiert auf der aktuellen Position des Fahrzeugs 10 entlang der Straße. Viele der Fahrbahnattribute sind in der Kartendatenbank 72 als längs versetzt relativ zu eine Starttrajektoriepunkt für dieses aktuellen Straßenabschnitt beschrieben. Die Entfernung entlang der Straße relativ zum Beginn der aktuellen Straßenabschnitts ist daher eine wichtige Variable bei der Ermittlung der Fahrzeuglokalisierung. Wenn die Fahrzeuglokalisierung als fehlerhaft bestimmt wird, dann sind die Positionen von Attributen, die relativ zur Fahrzeuglokalisierung bestimmt werden, ebenfalls falsch. Die hierin offenbarten Verfahren und Algorithmen verwenden einen Gegenstand, der eine Koordinatenposition in der Kartendatenbank 72 hat und der zuverlässig von einem integrierten Sensor an Bord des Fahrzeugs erkannt werden kann, um ein unabhängiges Verfahren zur Ermittlung der Fahrzeuglokalisierung bereitzustellen.
  • Gewöhnlich, wenn die Steuerung 22 nahegelegene Straßenmerkmale von der Kartendatenbank 72 abruft, wie z. B. den Teilpunkt 320, zum Beispiel und ohne Einschränkung, falls vorhanden, die Attribute, die von der Kamera erkannt werden können. Mit anderen Worten kann die Position der Attribute nicht korrekt validiert und mit von der Kamera erfassten Bilddaten zusammengefügt werden. Ausführungsformen der hierin beschriebenen Algorithmen fügen Bilddaten von der Kamera mit Attribut-Positionsinformationen der Kartendatenbank zusammen.
  • Wenn das Fahrzeug 10 die Straße entlang fährt, erfassen die Sensoren 26, einschließlich einer oder mehrerer Kameras, Bilddaten, die Informationen über die Fahrspurmarkierungen der Straße beinhalten. Die Kamera 26 kann erkennen, dass die Fahrspurmarkierungen die Richtung ändern, und so Kurven oder eine Ausfahrt anzeigen, jedoch ist diese visuelle Ermittlung nicht immer genau. Zur genaueren Ermittlung der Fahrzeugposition auf der Straße identifizieren die hierin beschriebenen Verfahren ein Attribut oder einen Gegenstand, die beide in der Kartendatenbank 72 repräsentiert und von der Kamera 26 gesehen/erkannt werden können, um eine Fahrzeuglokalisierungs-Ermittlung zu verifizieren. Kilometersteine stehen gewöhnlich entlang Landstraßen und Autobahnen zur Verfügung. Unter Verwendung von Bilddaten von der Kamera 26 kann die Steuerung 22 identifizieren, ob ein Gegenstand am Straßenrand ein Kilometerstein ist, die Zahlen am Kilometerstein entziffern und den Standort des Kilometersteins an das Fahrzeug an den (x,y)-Koordinaten des Fahrzeugrahmens melden. Jeder Kilometerstein in der Kartendatenbank wird gewöhnlich mit Breiten- und Längenkoordinaten identifiziert. Daher kann die Position des Fahrzeugs unter Verwendung der von der Kamera 26 erfassten Bilddaten und der Kartendatenbank-Daten entsprechend dem identifizierten Kilometerstein genauer bestimmt werden.
  • Die Standorte der Merkmale, wie Kilometersteine, werden häufig in GPS- und Kartendaten identifiziert. Das Fahrzeuglokalisierungs-Modul des Positioniersystems 76 bestimmt die Position des Kilometersteins, mmdb (lat, lon), wobei lat die Breitengradposition und lon die Längengradposition des Kilometersteins aus Kartendaten aus der Datenbank 72 ist. Unter Verwendung des Navigationssystems 28 des Fahrzeugs 10 wird eine Leitfahrzeugposition hvgps (lat, lon) vom Fahrzeuglokalisierungs-Modul des Positioniersystems 76 bestimmt, wobei lat ist die Breitengradposition und lon der Längengradposition des Fahrzeugs aus den Navigationsdaten 29 ist.
  • Unter Verwendung von der Datenbank 72 eingeholten Kartendaten zusammen mit Fahrzeug-GPS-Daten wird die Entfernung eines Attributs zu einem Fahrzeug in Koordinaten des Leitfahrzeug-Referenzrahmens ausgedrückt: D a t t r   b i s   h v ( x , y ) = a t t d b ( l a t ,   l o n ) h v g p s ( l a t ,   l o n )
    Figure DE102018115813A1_0001
    Wobei:
    • attdb(lat, lon) sind die Breiten- und Längengradkoordinaten der Attribute aus der Kartendatenbank-Daten; und
    • hvgps(lat, lon) die Breiten- und Längengradkoordinaten des Fahrzeugs 10 aus vom Navigationssystem 28 eingeholten GPS-Daten sind.
  • Spezifisch für einen erkennbaren Gegenstand, wie den Kilometerstein ausgedrückt, ist die Entfernung vom Kilometerstein zum Fahrzeug, die als Koordinaten des Leitfahrzeug-Referenzrahmens ausgedrückt ist: D m m   b i s   h v ( x , y ) = m m d b ( l a t ,   l o n ) h v g p s ( l a t ,   l o n )
    Figure DE102018115813A1_0002
    Wobei:
    • mmdb(lat, lon) die Breiten- und Längengradkoordinaten des Kilometersteins aus den Kartendatenbank-Daten sind; und
    • hvgps(lat, lon) die Breiten- und Längengradkoordinaten des Fahrzeugs 10 aus vom Navigationssystem 28 eingeholten GPS-Daten sind.
  • Wenn die Position des Kilometersteins in den Kartendaten korrekt ausgedrückt und wenn die durch die Navigationsdaten 29 angezeigte Fahrzeugposition ebenfalls korrekt ist, dann muss die GPS-Position des Fahrzeugs plus die Entfernung zwischen dem Fahrzeug und dem Kilometerstein, die unter Verwendung der Bilddaten vom Fahrzeuglokalisierungs-Modul berechnet wurde, der Position des von den Kartendaten der Kartendatenbank 72 aufgerufenen Merkmals entsprechen, das als hvgps(lat, lon) + mmcam(x,y) ausgedrückt ist mmdb(lat,lon). Jedoch können Ungenauigkeiten entweder in den Kartendaten oder in den GPS-Navigationsdaten zu Fahrzeuglokalisierungs-Fehlern führen, die sich auf die andere Systeme des ADAS 24 auswirken können.
  • Um den Lokalisierungsfehler einzuholen wird die Entfernung zwischen dem Fahrzeug und dem Attribut oder Merkmal aus den von der Kamera erfassten Bilddaten errechnet und mit der Entfernung zwischen dem Attribut oder Merkmal und dem Fahrzeug, wie von den Kartendaten berechnet.
  • Der Lokalisierungsfehler kann wie folgt ausgedrückt werden: e h v ( x , y ) = D c a m ( x , y ) D m m   b i s   h v ( x , y )
    Figure DE102018115813A1_0003
    Wobei
    • ehv(x,y) der Lokalisierungsfehler ist, der in Koordinaten des Leitfahrzeugs-Referenzrahmens ausgedrückt wird;
    • Dcam(x,y) die Entfernung vom Merkmal, wie ein Kilometerstein, zum Fahrzeug ist, berechnet aus den von der Kamera erfassten Bilddaten; und
    • Dmm bis hv(x,y) die Entfernung vom Kilometerstein zum Leitfahrzeug ist, die von Kartendatenbank-Daten eingeholt wurde.
  • Wenn die Fahrzeugsensoren korrekt kalibriert sind, wird der Messung vom Fahrzeug 10 zum Kilometerstein, die unter Verwendung von Daten aus den Kamerabilddaten erstellt wurde, eine höhere Glaubwürdigkeit zugemessen, die Bilddaten live und aktuell sind. Sobald der Lokalisierungsfehler, ehv(x,y) bestimmt wird, kann dieser Fehler verwendet werden, um die Kartendatenbank-Daten für die relative Entfernung von anderen Attribute zum Fahrzeug zu korrigieren. Weitere Attribute beinhalten zum Beispiel und ohne Einschränkung die Kurven auf der Straße oder Abzweigpunkte. Das Anwenden des Fehlers wird hierin beschrieben verbessert hiermit die Lokalisierungsgenauigkeit.
  • Das Einstellen der Entfernung eines Attributs zum Leitfahrzeug unter Verwendung des berechneten Lokalisierungsfehlers ehv(x,y) wird wie folgt ausgedrückt: D a t t r   t o   h v ' ( x , y ) = D a t t   b i s   h v ( x , y ) e h v ( x , y )
    Figure DE102018115813A1_0004
    Wobei
    • D'attr bis hv(x, y) die eingestellte Entfernung vom Attribut zum Leitfahrzeug ist, die in Koordinaten des Leitfahrzeug-Referenzrahmens ausgedrückt wird; und
    • D'attr bis hv(x,y) die eingestellte Entfernung vom Attribut zum Leitfahrzeug ist, die von Kartendatenbank-Karten eingeholt und in Koordinaten des Leitfahrzeug-Referenzrahmens ausgedrückt wird; und
    • ehv(x,y) ist der Lokalisierungsfehler.
  • Bei einigen Ausführungsformen, wenn der Lokalisierungsfehler stets oberhalb eines vorbestimmten Schwellenwert-Fehlerwerts liegt, kann dieser Lokalisierungsfehler zum Beispiel und ohne Einschränkung als Systemgegenprüfung oder -diagnose verwendet werden, um zu bestimmen, ob das Navigationssystem 28 korrekt funktioniert.
  • Wie hierin beschrieben werden Kartendaten, Kamerabilddaten und Navigationsdaten zur Verbesserung der Genauigkeit der Leitfahrzeug-Lokalisierung verwendet. 4 ist ein Flussdiagramm eines Verfahrens 400, das das Ermitteln eines Lokalisierungsfehlers darstellt, was die Genauigkeit des Leitfahrzeugs und somit das robuste Map-Matching und eine korrekte Leitfahrspurbestimmung sowie die Bereitstellung von Lokalisierungsredundanz zu erlauben. Die Navigationsdaten werden aus dem Navigationssystem 28 erhalten und die Kartendaten werden von einer oder mehreren Kartendatenbanken 72 erhalten, welche der Steuerung 22 zugeordnet sind. Das Verfahren 400 kann in Verbindung mit dem Fahrzeug 10, der Steuerung 22, den verschiedenen Modulen des ADAS 24 gemäß exemplarischen Ausführungsformen verwendet werden. Die Abfolge der Vorgänge innerhalb des Verfahrens 400 ist nicht auf die in 4, dargestellte sequenzielle Abarbeitung beschränkt, sondern kann in einer oder mehreren unterschiedlichen Reihenfolgen gemäß der vorliegenden Offenbarung durchgeführt werden.
  • Beginnend bei 402, wie in 4 dargestellt, geht das Verfahren 400 zu Schritt 404 über. Bei 404 empfängt das Sensorfusionssystem 74 des ADAS 24 Navigationsdaten vom Navigationssystem 28 und Bilddaten von einer mehreren Kameras 26. Die Navigationsdaten beinhaltet GPS-Daten, die die Fahrzeugposition repräsentieren. Die Bilddaten beinhaltet von einer oder mehreren Kameras 26 erfasste Daten eines erkennbaren Objekts oder Merkmals, wie ein Kilometerstein. Bei einigen Ausführungsformen analysiert das Sensorfusionssystem 74 des Weiteren die Bilddaten, um das Merkmal, wie einen Kilometerstein zu identifizieren, indem der Text auf dem Kilometerstein interpretiert wird. Die analysierten und verarbeiteten Sensordaten werden an das Positioniersystem 76 der Steuerung 22 übertragen. Der Sensordaten stellen zusammen mit den Kartendatenbank-Daten, die von der Datenbank 72 erhalten wurden, das Positioniersystem 76 mit Informationen zum Standort des Fahrzeugs 10, der projizierten Strecke des Fahrzeugs 10 entlang einer Straße und aufkommende Attribute oder Merkmale an der Straße bereit.
  • Anschließend verwendet das Positioniersystem 76 bei 406 die verarbeiteten Sensordaten, Navigationsdaten und Kartendaten zur Berechnung der Entfernung vom Kilometerstein zum Leitfahrzeug. Bei einigen Ausführungsformen wird der interpretierte Text auch verwendet, um die Positionen des Kilometersteins und des Fahrzeugs 10 zu bestimmen. Eine erste Entfernung wird anhand der Bilddaten von der Kamera 26 und der Position des Fahrzeugs 10 aus den Navigationsdaten berechnet. Eine zweite Entfernung wird aus der Position des Fahrzeugs 10 aus den Navigationsdaten und der Position des Kilometersteins aus den Kartendaten der Datenbank 72 berechnet. Das Verfahren geht dann zu 408 über.
  • Bei 408 berechnet das Positioniersystem 76 den Lokalisierungsfehler wie hierin beschrieben, durch Vergleichen der ersten und zweiten Entfernungen. Bei 410, wenn der Lokalisierungsfehler Null ist oder innerhalb eines vorbestimmten Bereichs von Werten liegt, sodass der Fehler von der ADAS 24 ignoriert werden kann, geht das Verfahren 400 zu 412 über und endet.
  • Wenn der Lokalisierungsfehler jedoch nicht Null ist, geht das Verfahren 400 zu 414 über. Bei 414 wendet das Positioniersystem 76 den Lokalisierungsfehler zur Korrektur der Kartendatenbank-Daten für die relative Entfernung von anderen Attributen auf das Fahrzeug an. Weitere Attribute beinhalten zum Beispiel und ohne Einschränkung die Kurven auf der Straße oder Abzweigpunkte.
  • Wenn der Lokalisierungsfehler anschließend bei 416, größer oder gleich einem vorbestimmten Schwellenwert ist, geht das Verfahren 400 zu 418 über und die Steuerung 22 führt eine Navigationssystem-Gegenprüfung durch und/oder setzt eine Diagnoseflagge, die zum Beispiel und ohne Einschränkung ein mögliches Problem mit dem FahrzeugNavigationssystem anzeigt. Bei einigen Ausführungsformen führt die Steuerung 22 eine Navigationssystem-Gegenprüfung durch und/oder setzt eine Diagnoseflagge, wenn der Lokalisierungsfehler über einem vorbestimmten Schwellenwert liegt, nachdem die eine vorbestimmte Anzahl an Berechnungen durchgeführt wurde oder nach einer vorbestimmten Zeitdauer. Das Verfahren 400 fährt anschließend mit Schritt 412 fort und endet.
  • Wenn der Lokalisierungsfehler jedoch nicht größer als der vorbestimmte Schwellenwert ist, geht das Verfahren 400 zum Block 412 weiter und endet.
  • Es sollte betont werden, dass viele Variationen und Modifikationen an den hierin beschriebenen Ausführungsformen vorgenommen werden können, deren Elemente als unter anderen akzeptablen Beispielen befindlich zu verstehen sind. Alle derartigen Modifikationen und Variationen sollen hierin in den Umfang dieser Offenbarung eingeschlossen und durch die folgenden Patentansprüche geschützt werden. Darüber hinaus kann jeder der hierin beschriebenen Schritte gleichzeitig oder in einer Reihenfolge durchgeführt werden, die sich von den hierin beschriebenen Schritten unterscheidet. Darüber hinaus können, wie es offensichtlich sein sollte, die Merkmale und Attribute der hierin offenbarten spezifischen Ausführungsformen auf unterschiedliche Weise kombiniert werden, um zusätzliche Ausführungsformen zu bilden, die alle in den Umfang der vorliegenden Offenbarung fallen.
  • Hierin verwendete bedingte Sprache, wie z. B. „kann“, „könnte“, „z. B.“ und dergleichen, sind generell, sofern nicht ausdrücklich anders angegeben oder anderweitig im verwendeten Kontext verstanden, so zu verstehen, dass bestimmte Ausführungsformen bestimmte Merkmale, Elemente und/oder Zustände beinhalten, während anderer Ausführungsformen dies nicht tun. Somit bedeutet diese Bedingungssprache im Allgemeinen nicht, dass Merkmale, Elemente und/oder Zustände in irgendeiner Weise für eine oder mehrere Ausführungsformen erforderlich sind, oder dass eine oder mehrere Ausführungsformen notwendigerweise zum Entscheiden eine Logik, ob mit oder ohne Autor-Eingabe oder -Aufforderung, beinhalten, ob diese Merkmale, Elemente und/oder Zustände in irgendeiner besonderen Ausführungsform beinhaltet sind oder durchgeführt werden sollen.
  • Darüber hinaus kann die folgende Terminologie hierin verwendet worden sein. Die Singularformen „ein“, „eine“, „die“ und „der“ schließen Referenzen im Plural mit ein, sofern der Zusammenhang nicht eindeutig etwas anderes vorschreibt. Somit beinhaltet beispielsweise der Bezug auf ein Element den Bezug auf eines oder mehrere Elemente. Die Begriffe „jene“ und „solche“ beziehen sich auf ein, zwei oder mehr und gelten allgemein für die Auswahl einiger oder aller Mengen. Der Begriff „Vielzahl“ bezieht sich auf zwei oder mehr eines Elements. Der Begriff „etwa“ oder „annähernd“ bedeutet, dass Mengen, Abmessungen, Größen, Formulierungen, Parameter, Formen und andere Merkmale nicht exakt sein müssen, sondern je nach Wunsch angenähert und/oder größer oder kleiner sein können, was akzeptable Toleranzen, Umrechnungsfaktoren, Abrunden, Messfehler und dergleichen und andere Faktoren, die Fachleuten auf dem Gebiet bekannt sind, widerspiegelt. Der Begriff „im Wesentlichen“ bedeutet, dass die genannte Eigenschaft, der Parameter oder der Wert nicht genau erreicht werden muss, sondern dass Abweichungen oder Variationen, wie beispielsweise Toleranzen, Messfehler, Messgenauigkeits-Beschränkungen und andere Faktoren, die Fachleuten auf dem Gebiet bekannt ist, in Mengen auftreten können, die den Effekt den die Eigenschaft zur Verfügung stellen soll, nicht ausschließt.
  • Numerische Daten können hierin in einem Bereichsformat ausgedrückt oder dargestellt werden. Es versteht sich, dass ein solches Bereichsformat lediglich zwecks Komfort und Kürze verwendet wird, und somit flexibel interpretiert werden sollte, um nicht nur die numerischen Werte explizit einzuschließen, die ausdrücklich als die Grenzen des Bereichs aufgeführt sind, sondern auch um so interpretiert zu werden, dass alle einzelnen numerischen Werte oder Teilbereiche innerhalb dieses Bereichs enthalten sind, als ob jeder numerische Wert und Teilbereich ausdrücklich aufgeführt ist. Als Veranschaulichung sollte ein numerischer Bereich von etwa 1 bis 5 so interpretiert werden, dass er nicht nur die explizit rezitierten Werte von etwa 1 bis etwa 5 einschließt, sondern sollte auch so interpretiert werden, dass er auch einzelne Werte und Unterbereiche innerhalb des angegebenen Bereichs enthält. Somit sind in diesem numerischen Bereich Einzelwerte wie 2, 3 und 4 und Teilbereiche wie „etwa 1 bis etwa 3“, „etwa 2 bis 4“ und „etwa 3 bis etwa 5“, „1 bis 3“, „2 bis 4“ „3 bis 5“ usw. enthalten. Dieses selbige Prinzip gilt für Bereiche, die nur einen Zahlenwert (z. B. „größer als etwa 1“) angeben, und soll unabhängig vom Umfang des Bereichs oder den beschriebenen Eigenschaften gelten. Eine Vielzahl von Begriffen kann in einer gemeinsamen Liste zwecks Komfort vorgelegt werden. Allerdings sollten diese Listen so ausgelegt werden, dass jedes Element der Liste einzeln als separates und einzigartiges Element identifiziert wird. Somit sollte kein einzelnes Element einer solchen Liste als Defacto-Entsprechung eines anderen Elements der gleichen Liste ausschließlich basierend auf ihrer Darstellung in einer gemeinsamen Gruppe angesehen werden, außer wenn das Gegenteil angegeben ist. Weiterhin können die Begriffe „und“ und „oder“ in Verbindung mit einer Liste von Gegenständen verwendet werden, die weit auszulegen sind, da einer oder mehrere der aufgeführten Gegenstände allein oder in Kombination mit anderen aufgeführten Gegenständen verwendet werden können. Der Begriff „alternativ“ bezieht sich auf die Auswahl einer von zwei oder mehr Alternativen, und soll die Auswahl nur der aufgeführten Alternativen oder nur einer der aufgeführten Alternativen auf einmal nicht beschränken, es sei denn, der Kontext gibt klar etwas anderes an.
  • Die hierin offenbarten Prozesse, Verfahren oder Algorithmen können von einer Verarbeitungsvorrichtung, einer Steuerung oder einem Computer, der jede vorhandene programmierbare elektronische Steuereinheit oder eine dedizierte elektronische Steuereinheit beinhalten kann, bereitgestellt und/oder implementiert werden. Desgleichen können die Prozesse, Verfahren oder Algorithmen als Daten oder ausführbare Anweisungen durch eine Steuerung oder einen Computer in vielfältiger Weise gespeichert werden, darunter ohne Einschränkung die dauerhafte Speicherung auf nicht beschreibbaren Speichermedien, wie einem ROM, und als änderbare Information auf beschreibbaren Speichermedien wie Disketten, Magnetbändern, CDs, RAM sowie anderen magnetischen und optischen Medien. Die Prozesse, Verfahren oder Algorithmen können auch in einem softwareausführbaren Objekt implementiert werden. Alternativ können die Prozesse, Verfahren oder Algorithmen ganz oder teilweise mit geeigneten Hardwarekomponenten, wie beispielsweise anwendungsspezifischen integrierten Schaltungen (ASICs), feldprogrammierbaren Gate Arrays (FPGAs), Zustandsmotoren, Steuerungen oder anderen Hardwarekomponenten oder Vorrichtungen oder einer Kombination von Hardware, Software und Firmwarekomponenten verkörpert werden. Die besagten exemplarischen Vorrichtungen können sich als Teil eines Fahrzeugcomputersystems On-Bord oder Off-Board befinden und eine Fernkommunikation mit Vorrichtungen an einem oder mehreren Fahrzeugen durchführen.
  • Während exemplarische Ausführungsformen vorstehend beschrieben sind, ist es nicht beabsichtigt, dass diese Ausführungsformen alle möglichen Formen beschreiben, die von den Ansprüchen beinhaltet sind. Vielmehr dienen die in der Spezifikation verwendeten Worte der Beschreibung und nicht der Beschränkung und es versteht sich, dass verschiedene Änderungen vorgenommen werden können, ohne vom Geist und Umfang der Offenbarung abzuweichen. Wie zuvor beschrieben, können die Merkmale verschiedener Ausführungsformen kombiniert werden, um weitere exemplarische Aspekte der vorliegenden Offenbarung auszubilden, die nicht explizit beschrieben oder veranschaulicht werden. Während verschiedene Ausführungsformen beschrieben worden sein könnten, um Vorteile zu bieten oder gegenüber anderen Ausführungsformen oder Implementierungen des Standes der Technik in Bezug auf eine oder mehrere gewünschte Merkmale bevorzugt zu sein, werden Fachleute auf dem Gebiet erkennen, dass ein oder mehrere oder Eigenschaften beeinträchtigt werden können, um gewünschte Gesamtsystemattribute zu erreichen, die von der spezifischen Anwendung und Implementierung abhängen. Diese Attribute können Kosten, Festigkeit, Haltbarkeit, Lebenszykluskosten, Marktfähigkeit, Aussehen, Verpackung, Größe, Gebrauchstauglichkeit, Gewicht, Herstellbarkeit, Leichtigkeit der Montage usw. beinhalten, sind aber nicht darauf beschränkt. Daher sind Ausführungsformen, die nach dem Stand der Technik, in Bezug auf eine oder mehrere Eigenschaften als weniger wünschenswert als andere Ausführungsformen oder Implementierungen beschrieben sind, nicht außerhalb des Schutzumfangs der Offenbarung und können für bestimmte Anwendungen wünschenswert sein.

Claims (6)

  1. Verfahren zur Lokalisierung eines Fahrzeugs, das Verfahren umfassend: das Ausstatten des Fahrzeugs mit mindestens einem Bildsensor, der dafür konfiguriert ist, Bilddaten eines ausgewählten Straßenmerkmals entlang einer projizierten Fahrzeugstrecke zu erfassen, einem Navigationssystem, das dafür konfiguriert ist, Navigationsdaten entsprechend einer globalen Position des Fahrzeugs zu erzeugen, einer Datenbank mit Kartendaten gemäß Quer- und Längsrichtungskoordinaten für eine Vielzahl von Straßenmerkmalen entlang der projizierten Strecke des Fahrzeugs und eine Steuerung, die mit mindestens einem Fahrzeugsensor, dem Navigationssystem und der Kartendatenbank kommuniziert; das Empfangen, durch die Steuerung, der Bilddaten entsprechend des ausgewählten Straßenmerkmals; das Empfangen, durch die Steuerung, der Navigationsdaten entsprechend der globalen Position des Fahrzeugs; das Empfangen, durch die Steuerung, der Kartendaten entsprechend des ausgewählten Straßenmerkmals; das Berechnen, durch die Steuerung, einer ersten Entfernung vom ausgewählten Merkmal des Fahrzeugs; das Berechnen, durch die Steuerung, einer zweiten Entfernung vom ausgewählten Merkmal des Fahrzeugs; das Ermitteln, durch den Steuerung, eines Lokalisierungsfehlers durch den Vergleich der ersten mit der zweiten Entfernung; und das Anwenden, durch die Steuerung, des Lokalisierungsfehlers der Kartendatenbankdaten zur Korrektur der Position von mindestens einem der Vielzahl der Straßenmerkmale bezüglich der Position des Fahrzeugs.
  2. Verfahren nach Anspruch 1, worin das ausgewählte Straßenmerkmal ein Kilometerstein ist.
  3. Verfahren nach Anspruch 2, ferner umfassend das Ermitteln durch die Steuerung, ob der Lokalisierungsfehler über einem vorbestimmten Wert liegt, und wenn ja, Durchführen, durch die Steuerung einer Navigationssystem-Gegenprüfung.
  4. Verfahren nach Anspruch 2, ferner umfassend das Ermitteln durch die Steuerung, ob der Lokalisierungsfehler über einem vorbestimmten Wert liegt, und wenn ja, Setzen durch die Steuerung einer Navigationssystem-Diagnoseflagge.
  5. Verfahren nach Anspruch 2, worin das Berechnen der ersten Strecke das Berechnen einer Entfernung vom Kilometerstein zum Fahrzeug unter Verwendung der Bild- und Navigationsdaten umfasst.
  6. Verfahren nach Anspruch 5, worin das Berechnen der zweiten Strecke das Berechnen einer Entfernung vom Kilometerstein zum Fahrzeug unter Verwendung der Karten- und Navigationsdaten umfasst.
DE102018115813.0A 2017-06-30 2018-06-29 Verfahren und systeme zum lokalisieren eines fahrzeugs Pending DE102018115813A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/638,565 2017-06-30
US15/638,565 US10551509B2 (en) 2017-06-30 2017-06-30 Methods and systems for vehicle localization

Publications (1)

Publication Number Publication Date
DE102018115813A1 true DE102018115813A1 (de) 2019-01-03

Family

ID=64661933

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018115813.0A Pending DE102018115813A1 (de) 2017-06-30 2018-06-29 Verfahren und systeme zum lokalisieren eines fahrzeugs

Country Status (3)

Country Link
US (1) US10551509B2 (de)
CN (1) CN109211249B (de)
DE (1) DE102018115813A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112985425A (zh) * 2021-02-02 2021-06-18 恒大新能源汽车投资控股集团有限公司 基于异构感知数据融合的车辆定位方法、装置及系统
CN114413914A (zh) * 2022-01-18 2022-04-29 上汽通用五菱汽车股份有限公司 高精度地图的精度提升方法、系统和计算机可读存储介质
CN116380107A (zh) * 2023-05-29 2023-07-04 速度科技股份有限公司 一种基于高精地图对车辆进行定位的系统
DE102022110431A1 (de) 2022-04-28 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Steuerung eines Fahrzeugs

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6082415B2 (ja) * 2015-03-03 2017-02-15 富士重工業株式会社 車両の走行制御装置
EP3343172B1 (de) * 2017-01-03 2024-03-13 iOnRoad Technologies Ltd. Erzeugung und verwendung von erweiterten karten
US20190056231A1 (en) * 2017-08-15 2019-02-21 GM Global Technology Operations LLC Method and apparatus for participative map anomaly detection and correction
US10921133B2 (en) * 2017-12-07 2021-02-16 International Business Machines Corporation Location calibration based on movement path and map objects
CN111033423B (zh) * 2018-04-18 2023-11-21 百度时代网络技术(北京)有限公司 用于评估自动驾驶车辆的定位系统的方法
US11210936B2 (en) * 2018-04-27 2021-12-28 Cubic Corporation Broadcasting details of objects at an intersection
JP7152884B2 (ja) * 2018-06-15 2022-10-13 日立Astemo株式会社 車両用物体検知装置
US11004224B2 (en) * 2019-01-22 2021-05-11 Velodyne Lidar Usa, Inc. Generation of structured map data from vehicle sensors and camera arrays
CN111750882B (zh) * 2019-03-29 2022-05-27 北京魔门塔科技有限公司 一种导航地图在初始化时车辆位姿的修正方法和装置
US20200348143A1 (en) * 2019-05-03 2020-11-05 Apple Inc. Adjusting heading sensor output based on image data
US10984260B2 (en) * 2019-05-23 2021-04-20 GM Global Technology Operations LLC Method and apparatus for controlling a vehicle including an autonomous control system
CN114174137A (zh) * 2019-07-01 2022-03-11 哲内提 Adas或ad特征的源横向偏移
US11125575B2 (en) 2019-11-20 2021-09-21 Here Global B.V. Method and apparatus for estimating a location of a vehicle
CN113032500B (zh) * 2019-12-25 2023-10-17 沈阳美行科技股份有限公司 车辆定位方法、装置、计算机设备和存储介质
CN113034588B (zh) * 2019-12-25 2023-09-15 沈阳美行科技股份有限公司 车辆定位方法、装置、计算机设备和存储介质
US11692830B2 (en) * 2020-03-26 2023-07-04 Intel Corporation Real-time localization error correction of autonomous vehicle
US11609344B2 (en) * 2020-04-07 2023-03-21 Verizon Patent And Licensing Inc. Systems and methods for utilizing a machine learning model to determine a determined location of a vehicle based on a combination of a geographical location and a visual positioning system location
CN111767354B (zh) * 2020-04-26 2023-07-14 东风汽车集团有限公司 一种高精度地图精度评估方法
CN111551976A (zh) * 2020-05-20 2020-08-18 四川万网鑫成信息科技有限公司 一种结合多种数据对异常定位进行自动补全的方法
FR3115141B1 (fr) * 2020-10-14 2023-06-02 Continental Automotive Gmbh Procédé de localisation d’objets routiers
CN114579679A (zh) * 2020-12-01 2022-06-03 中移(成都)信息通信科技有限公司 空间定位数据融合方法、系统、设备及计算机存储介质
CN112945244B (zh) * 2021-02-03 2022-10-14 上海博汽智能科技有限公司 适用于复杂立交桥的快速导航系统及导航方法
CN112966059B (zh) * 2021-03-02 2023-11-24 北京百度网讯科技有限公司 针对定位数据的数据处理方法、装置、电子设备和介质

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US145692A (en) * 1873-12-16 Improvement in children s carriages
US5844505A (en) * 1997-04-01 1998-12-01 Sony Corporation Automobile navigation system
WO2006114955A1 (ja) * 2005-04-25 2006-11-02 Geo Technical Laboratory Co., Ltd. 撮影位置解析方法
JP2007232690A (ja) * 2006-03-03 2007-09-13 Denso Corp 現在地検出装置、地図表示装置、および現在地検出方法
JP5162103B2 (ja) * 2006-05-15 2013-03-13 トヨタ自動車株式会社 支援制御装置
JP4914689B2 (ja) * 2006-09-29 2012-04-11 本田技研工業株式会社 車両位置検出システム
JP4569837B2 (ja) * 2007-03-30 2010-10-27 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
JP4703605B2 (ja) * 2007-05-31 2011-06-15 アイシン・エィ・ダブリュ株式会社 地物抽出方法、並びにそれを用いた画像認識方法及び地物データベース作成方法
WO2009030521A1 (de) * 2007-08-29 2009-03-12 Continental Teves Ag & Co. Ohg Korrektur einer fahrzeugposition mittels markanter punkte
CA2712673A1 (en) * 2008-02-04 2009-08-13 Tele Atlas North America Inc. Method for map matching with sensor detected objects
JP5273126B2 (ja) * 2010-09-15 2013-08-28 カシオ計算機株式会社 測位装置、測位方法およびプログラム
US9606241B2 (en) * 2013-02-21 2017-03-28 Apple Inc. Sensor-assisted location fix
KR102149913B1 (ko) * 2013-11-22 2020-08-31 에스케이텔레콤 주식회사 경로 안내 서비스 시스템, 그 시스템에서의 지피에스(gps) 고장 진단 방법 및 이를 위한 장치
US9342888B2 (en) * 2014-02-08 2016-05-17 Honda Motor Co., Ltd. System and method for mapping, localization and pose correction of a vehicle based on images
US9157757B1 (en) * 2014-09-03 2015-10-13 Sharp Laboratories Of America, Inc. Methods and systems for mobile-agent navigation
US9891057B2 (en) * 2015-03-23 2018-02-13 Kabushiki Kaisha Toyota Chuo Kenkyusho Information processing device, computer readable storage medium, and map data updating system
MX363862B (es) * 2015-06-26 2019-04-05 Nissan Motor Aparato de determinación de posición de vehículo y método de determinación de posición de vehículo.
CN105953805B (zh) * 2016-04-29 2019-10-15 百度在线网络技术(北京)有限公司 地图验证方法和装置
CN106405601A (zh) * 2016-10-21 2017-02-15 北京汽车集团有限公司 车辆定位方法、装置和车辆

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112985425A (zh) * 2021-02-02 2021-06-18 恒大新能源汽车投资控股集团有限公司 基于异构感知数据融合的车辆定位方法、装置及系统
CN114413914A (zh) * 2022-01-18 2022-04-29 上汽通用五菱汽车股份有限公司 高精度地图的精度提升方法、系统和计算机可读存储介质
DE102022110431A1 (de) 2022-04-28 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Steuerung eines Fahrzeugs
CN116380107A (zh) * 2023-05-29 2023-07-04 速度科技股份有限公司 一种基于高精地图对车辆进行定位的系统
CN116380107B (zh) * 2023-05-29 2023-08-22 速度科技股份有限公司 一种基于高精地图对车辆进行定位的系统

Also Published As

Publication number Publication date
CN109211249B (zh) 2022-06-21
US10551509B2 (en) 2020-02-04
US20190003847A1 (en) 2019-01-03
CN109211249A (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
DE102018115813A1 (de) Verfahren und systeme zum lokalisieren eines fahrzeugs
DE102018120845B4 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102015111535B4 (de) Algorithmus zur genauen Krümmungsschätzung für die Bahnplanung von autonom fahrenden Fahrzeugen
EP3584663B1 (de) Verfahren zur automatischen querführung eines folgefahrzeugs in einem fahrzeug-platoon
DE102020118187B4 (de) System und Verfahren zum Kalibrieren einer Lenkradneutralstellung
DE102010005293B4 (de) System und Verfahren zur Spurpfadschätzung unter Verwendung einer Sensorvereinigung
EP3177498B1 (de) Verfahren zum erzeugen einer umgebungskarte eines umgebungsbereichs eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102019103352A1 (de) Trajektorienverfolgung für die fahrzeugseitensteuerung unter verwendung eines neuronalen netzwerks
DE102017108774A1 (de) Fahrzeugspurkartenschätzung
DE102018120789A1 (de) Verfahren und Vorrichtung zur Überwachung eines autonomen Fahrzeugs
DE102018117916A1 (de) Wegplanung für das autonome Fahren
DE102017118808A1 (de) Verfahren und Systeme für Fahrzeugpositionierungs-Rückmeldung
EP3475921B1 (de) Verfahren und fahrzeugsteuersystem zum erzeugen von abbildungen eines umfeldmodells und entsprechendes fahrzeug
DE102021105823A1 (de) Dynamische lidar-anpassung
DE102018103473A1 (de) Wirksamer rollradius
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE102018124904A1 (de) Verfahren und Systeme zum Einstellen von aktiven Unterbodenflächen
DE102020102717A1 (de) Verfahren und systeme zur steuerung der seitlichen position des fahrzeugs über eine kreuzung
DE102017129501A1 (de) Autonome Kraftfahrzeug-Objekterkennung
DE102020105657A1 (de) Verfahren und Systeme für die Kartierung und Lokalisierung eines Fahrzeuges
DE102019133708A1 (de) Verfahren und vorrichtung zum erfassen von statischen und dynamischen informationen auf spurniveau
DE102018112888A1 (de) Systeme und Verfahren zur Überprüfung von Strassenkrümmungskartendaten
DE102019115646A1 (de) System und verfahren zum modellieren von lenkeigenschaften
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE102018221864A1 (de) Verfahren und System zum Bestimmen einer Trajektorie eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE