DE102016112913A1 - Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position - Google Patents

Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position Download PDF

Info

Publication number
DE102016112913A1
DE102016112913A1 DE102016112913.5A DE102016112913A DE102016112913A1 DE 102016112913 A1 DE102016112913 A1 DE 102016112913A1 DE 102016112913 A DE102016112913 A DE 102016112913A DE 102016112913 A1 DE102016112913 A1 DE 102016112913A1
Authority
DE
Germany
Prior art keywords
vehicle
lane
location
fixed
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102016112913.5A
Other languages
English (en)
Inventor
Dehua Cui
David A. Herman
Oleg Yurievitch Gusikhin
Perry Robinson MacNeille
David Allen Kowalski
Omar Makke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to US14/800,767 priority Critical
Priority to US14/800,767 priority patent/US20170016740A1/en
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102016112913A1 publication Critical patent/DE102016112913A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00664Recognising scenes such as could be captured by a camera operated by a pedestrian or robot, including objects at substantially different ranges from the camera
    • G06K9/00671Recognising scenes such as could be captured by a camera operated by a pedestrian or robot, including objects at substantially different ranges from the camera for providing information about objects in the scene to a user, e.g. as in augmented reality applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00791Recognising scenes perceived from the perspective of a land vehicle, e.g. recognising lanes, obstacles or traffic signs on road scenes
    • G06K9/00798Recognition of lanes or road borders, e.g. of lane markings, or recognition of driver's driving pattern in relation to lanes perceived from the vehicle; Analysis of car trajectory relative to detected road

Abstract

Ein System weist einen Prozessor auf, der konfiguriert ist, Bilddaten zu empfangen, die von einer Fahrzeugkamera gesammelt werden und ein festes Umgebungsmerkmal betreffen. Der Prozessor ist auch konfiguriert, eine Fahrzeugposition in Bezug auf das feste Umgebungsmerkmal zu bestimmen und einen fahrspurbezogenen Fahrzeugstandort auf einer digitalen Karte basierend auf der Fahrzeugposition in Bezug auf das feste Umgebungsmerkmal zu bestimmen.

Description

  • TECHNISCHES GEBIET
  • Die Ausführungsbeispiele betreffen im Allgemeinen ein Verfahren und eine Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position.
  • ALLGEMEINER STAND DER TECHNIK
  • Moderne GNSS-Systeme von Fahrzeugen, die aktuelle digitale Karten benutzen, die mit geodätischen Koordinaten arbeiten, leiden unter Einschränkungen hinsichtlich der Genauigkeit, die viele verschiedene potenzielle Navigationsmerkmale verhindern. Typischerweise kann eine ungefähre Annäherung eines Fahrzeugstandorts unter Verwendung von GNSS-Koordinaten erhalten werden, die von einem bordseitigen Empfänger bestimmt werden, wobei der Fahrzeugstandort dann in einen Straßenstandort auf einer Karte „überführt“ werden kann. Da es sich um eine Annäherung an den tatsächlichen Fahrzeugstandort handelt, können Benutzer bemerken, dass sie auf die falsche Straße überführt wurden, wenn sie beispielsweise auf einer Straße neben einer anderen Straße fahren (wie einer Zufahrtsstraße neben einer Autobahn).
  • Aufgrund der ungenauen Natur der GNSS-Koordinaten kann es auch schwierig sein, einen genauen Fahrzeugstandort auf einer mehrspurigen Straße zu bestimmen. Wenngleich bestimmt werden kann, dass ein Fahrzeug auf einer bestimmten Straße fährt, würde die Kenntnis der genauen Fahrspur des Fahrzeugs eine Möglichkeit für Richtungen und Fahrerassistenz aus einer Fahrzeugstandortperspektive (bekannt als „Ich“-Position) bereitstellen.
  • Seit mehreren Jahrzehnten und zumindest seit der Schaffung des GNSS besteht ein Interesse an einer Verbesserung der GNSS-Genauigkeit. Die meisten GNSS-Vorrichtungen in Fahrzeugen sind Einbandvorrichtungen, weil sie viel kostengünstiger und weniger intrusiv sind als Vorrichtungen mit zwei Frequenzbändern, die genauer sind. Die frühen GNSS-Signale ditherten bzw. schwankten für zivile Anwendungen und ermöglichten eine Genauigkeit von nur 100 Metern. Im Mai 2000 endete das Dithering, wobei sowohl militärische als auch zivile Einbandvorrichtungen eine Genauigkeit von 10 m erzielen konnten, was moderne Automobilnavigationsvorrichtungen realisierbar machte.
  • Ein Ansatz zur Verbesserung der Genauigkeit war die Verwendung von Differential-GNSS, wobei ein GNSS-Empfänger präzise in dem geodätischen Koordinatensystem angeordnet wird und sich selbst mit Satellitendaten ortet, die Fehler in den Daten bestimmt und Korrekturen an GNSS-Empfänger in der Nähe übermittelt, deren Ortungsfehler ähnlich sind. Das genaueste Differential-GNSS ist die Echtzeitkinematik (Real-Time Kinematics = RTK), die eine fahrspurbezogene Genauigkeit („lane-level accuracy“) bereitstellt. Allerdings wurden RTK-Basisstationen nicht flächendeckend auf Autobahnen installiert und die Ausrüstung ist für Privatfahrzeuge noch immer sehr teuer.
  • Für Sonderfahrzeuge wie Automobile, die zur Erstellung von HD-Karten verwendet werden, wird das GNSS mit Trägheitsnavigations-(Kreiselkompass) und LIDAR-(Laser Detection And Range)-Vorrichtungen vergrößert. In typischen Straßenfahrzeugen wird das GNSS mit Raddrehzahlsensoren und Beschleunigungsmessdaten unterstützt, die aus dem Antiblockiersystem und den Stabilitätskontrollsystemen erhältlich sind. Zuweilen wird die Genauigkeit des Standorts, der von dem GNSS berechnet wird, durch Übersetzen des Fahrzeugstandorts von der Ortungsvorrichtung an eine Position auf einer Straße in einem Prozess verbessert, der als „Map Matching“ bekannt ist und voraussetzt, dass sich das Fahrzeug in der Tat auf einer Straße befindet, und in manchen Fällen voraussetzt, dass sich das Fahrzeug auf einer bestimmten Straße befindet. Die Nutzung von „Map Matching“ mit einer gewöhnlichen digitalen Karte kann das Fahrzeug nur irgendwo auf der Straße orten. Wenn eine HD-Karte verwendet wird, sind die geodätischen Koordinaten der einzelnen Fahrspuren bekannt, selbst wenn die Ortungsvorrichtung nicht genau genug ist, um zu bestimmen, auf welcher Fahrspur sich das Fahrzeug befindet.
  • In einer vorliegenden Implementierung beinhaltet ein Verfahren zum Betrieb eines Navigationssystems Folgendes: Erkennen einer Beschleunigung zur Überwachung einer Bewegung eines Fahrzeugs; Bestimmen eines Fahrzustands basierend auf der Beschleunigung; Identifizieren einer Fahrsequenz, die den Fahrzustand beinhaltet; Festlegen einer fahrspurbezogenen Granularitätsbewegung als eine vorbestimmte Sequenz des Fahrzustands und Bestimmen der fahrspurbezogenen Granularitätsbewegung mit der Fahrsequenz, die mit der vorbestimmten Sequenz übereinstimmt, zum Anzeigen auf der Vorrichtung.
  • In einer anderen vorliegenden Implementierung weist eine fahrspurbezogene Fahrzeugroutenplanungs- und -navigationsvorrichtung ein Simulationsmodul, das eine Mikrosimulation einzelner Fahrzeuge in einem Verkehrsstrom ausführt, und einen fahrspurbezogenen Optimierer auf, der Bedingungen entlang der Kandidatenwege von einem Ausgangspunkt zu einem Zielort bewertet, die von dem Simulationsmodul bestimmt werden, und empfohlene fahrspurbezogene Manöver entlang der Kandidatenwege bestimmt. Ein fahrspurbezogener Optimierer kann die Kandidatenwege basierend auf Verbindungsfahrzeiten bestimmen, die von dem Simulationsmodul bestimmt werden. Die Simulation kann auf Echtzeitverkehrsbedingungsdaten basieren. Empfohlene Kandidatenwege können für Liefer- oder Dienst- oder Krankenwagen bereitgestellt oder zur Evakuierungsplanung oder zur Routenplanung von Fahrzeugen wie Müll- oder Post-Lkw oder Schneepflüge verwendet werden. Entsprechende Verfahren können auch für Verkehrsplanung und -management angewendet werden, einschließlich des Bestimmens, basierend auf Mikrosimulation, mindestens eines von (a) einer geänderten Straßengeometrie, (b) veränderten Verkehrssignaleinstellungen wie Verkehrssignalzeitsteuerung oder (c) Straßennutzungsgebühren.
  • KURZDARSTELLUNG
  • In einem ersten Ausführungsbeispiel weist ein System einen Prozessor auf, der konfiguriert ist, Bilddaten, die von einer Fahrzeugkamera gesammelt werden und ein festes Umgebungsmerkmal betreffen, zu empfangen. Der Prozessor ist auch konfiguriert, eine Fahrzeugposition in Bezug auf das feste Umgebungsmerkmal zu bestimmen und einen fahrspurbezogenen Fahrzeugstandort auf einer digitalen Karte basierend auf der Fahrzeugposition in Bezug auf das feste Umgebungsmerkmal zu bestimmen.
  • In einem zweiten Ausführungsbeispiel beinhaltet ein computerimplementiertes Verfahren das Bestimmen von geometrischen Eigenschaften eines festen geografischen Objekts in einem Bild, das von einer Fahrzeugkamera erfasst wird. Das Verfahren beinhaltet auch das Bestimmen eines Fahrzeugstandorts in Bezug auf das feste geografische Objekt basierend auf den geometrischen Eigenschaften und das Bestimmen eines fahrspurbezogenen Fahrzeugstandorts auf einer digitalen Karte basierend auf dem Fahrzeugstandort in Bezug auf das feste geografische Objekt.
  • In einem dritten Ausführungsbeispiel weist ein System eine in einem Fahrzeug eingebettete Kamera, die konfiguriert ist, Bilder in Bezug auf einen Fahrzeugstandort zu erfassen, und einen Prozessor auf, der konfiguriert ist, feste geografische Objekte in den erfassten Bildern zu identifizieren. Der Prozessor ist auch zum Bestimmen eines relativen Abstands und Winkels von einem oder mehreren der festen geografischen Objekte zu einem Fahrzeugstandort basierend auf einem Vergleich von betrachteten geometrischen Eigenschaften der festen geografischen Objekte mit tatsächlichen geometrischen Eigenschaften, die aus einer digitalen Karte erhalten werden, konfiguriert. Der Prozessor ist ferner zum Bestimmen eines fahrspurbezogenen Fahrzeugstandorts auf der digitalen Karte basierend auf dem relativen Abstand und Winkel konfiguriert.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt ein beispielhaftes Fahrzeugrechensystem;
  • 2 zeigt ein erläuterndes Beispiel eines Fahrzeugs und einer Umgebung;
  • 3 zeigt ein erläuterndes Beispiel eines Umgebungsdaten-Sammelprozesses;
  • 4 zeigt ein erläuterndes Beispiel eines Fahrzeugpositions-Bestimmungsprozesses;
  • 5 zeigt ein erläuterndes Beispiel eines Fahrspurpositions-Bestimmungssystems; und
  • 6 zeigt erläuternde Eingaben und die Verarbeitung für eine Ich-Positionsbestimmung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Ausführliche Ausführungsformen der vorliegenden Erfindung sind hierin vorschriftsmäßig offenbart; jedoch muss man verstehen, dass die offenbarten Ausführungsformen die Erfindung rein beispielhaft darstellen und in verschiedenen und alternativen Formen ausgeführt werden können. Die Figuren sind nicht unbedingt maßstabsgetreu, wobei einige Merkmale übertrieben oder minimiert dargestellt sein können, um Details bestimmter Komponenten aufzuzeigen. Daher sind spezifische hierin offenbarte strukturelle und funktionelle Details nicht als einschränkend auszulegen, sondern nur als repräsentative Grundlage, um einen Fachmann verschiedene Anwendungen der vorliegenden Erfindung zu lehren.
  • 1 zeigt eine beispielhafte Blocktopologie eines fahrzeugbasierten Computersystems 1 (VCS) für ein Fahrzeug 31. Ein Beispiel für ein solches fahrzeugbasiertes Computersystem 1 ist das SYNC-System, das von THE FORD MOTOR COMPANY hergestellt wird. Ein Fahrzeug, das mit einem fahrzeugbasierten Computersystem bereitgestellt ist, kann eine visuelle Frontend-Schnittstelle 4 enthalten, die sich in dem Fahrzeug befindet. Der Benutzer kann auch mit der Schnittstelle interagieren, wenn diese zum Beispiel mit einem berührungsempfindlichen Bildschirm versehen ist. In einem anderen Ausführungsbeispiel erfolgt die Interaktion durch Drücken von Tasten, einem Sprachdialogsystem mit automatischer Spracherkennung und Sprachsynthese.
  • In dem Ausführungsbeispiel 1 aus 1 steuert ein Prozessor 3 mindestens einen Teil des Betriebs des fahrzeugbasierten Computersystems. Der in dem Fahrzeug bereitgestellte Prozessor ermöglicht die bordseitige Verarbeitung von Befehlen und Routinen. Ferner ist der Prozessor sowohl mit einem nichtflüchtigen 5 als auch einem flüchtigen Speicher 7 verbunden. In diesem Ausführungsbeispiel ist der nichtflüchtige Speicher ein wahlfreier Zugriffsspeicher (RAM) und der flüchtige Speicher ein Festplattenlaufwerk (HDD) oder ein Flash-Speicher. Im Allgemeinen kann ein flüchtiger (nicht transitorischer) Speicher sämtliche Formen von Speicher einschließen, die Daten behalten können, wenn ein Computer oder ein anderes Gerät heruntergefahren wird. Diese schließen HDD, CD, DVD, Magnetbänder, Festkörperlaufwerke, tragbare USB-Laufwerke und jede andere geeignete Form von flüchtigem Speicher ein, sind aber nicht darauf beschränkt.
  • Der Prozessor ist auch mit einer Anzahl unterschiedlicher Eingabeelemente bereitgestellt, mit denen sich der Benutzer mit dem Prozessor verbinden kann. In diesem Ausführungsbeispiel sind ein Mikrofon 29, ein Hilfseingang 25 (für den Eingang 33), ein USB-Eingang 23, ein GNSS-Eingang 24, ein Bildschirm 4, der eine Touchscreen-Anzeige sein kann, und ein BLUETOOTH-Eingang 15 bereitgestellt. Ein Eingabewahlschalter 51 ist ebenfalls bereitgestellt, damit ein Benutzer zwischen verschiedenen Eingabeelementen wechseln kann. Die Eingabe sowohl in das Mikrofon als auch den Hilfsstecker wird von einem Wandler 27 von analog in digital umgewandelt, bevor sie an den Prozessor geleitet wird. Wenngleich nicht dargestellt, können zahlreiche der Fahrzeugkomponenten und Hilfskomponenten, die mit dem VCS verbunden sind, ein Fahrzeugnetzwerk (wie beispielsweise, jedoch ohne Beschränkung darauf, einen CAN-Bus) verwenden, um Daten an das und von dem VCS (oder Komponenten davon) zu leiten.
  • Ausgaben des Systems können eine visuelle Anzeige 4 und einen Lautsprecher 13 oder eine Stereosystemausgabe einschließen, sind jedoch nicht darauf beschränkt. Der Lautsprecher ist mit einem Verstärker 11 verbunden und empfängt sein Signal von dem Prozessor 3 über einen Digital-Analog-Wandler 9. Die Ausgabe kann auch an ein rechnerfernes BLUETOOTH-Gerät wie PND 54 oder ein USB-Gerät wie ein Fahrzeugnavigationsgerät 60 entlang der bidirektionalen Datenströme erfolgen, die bei 19 bzw. 21 dargestellt sind.
  • In einem Ausführungsbeispiel verwendet das System 1 einen BLUETOOTH-Sendeempfänger 15, um mit einem Mobilgerät 53 eines Benutzers (z. B. einem Mobiltelefon, Smartphone, PDA oder anderen Vorrichtung mit einer drahtlosen rechnerfernen Netzwerkkonnektivität) zu kommunizieren 17. Das Mobilgerät kann dann verwendet werden, um mit einem Netzwerk 61 außerhalb des Fahrzeugs 31 zum Beispiel durch die Verbindung 55 mit einem Mobilfunkturm 57 zu kommunizieren 59. In einigen Ausführungsformen kann der Mast 57 ein WiFi-Zugriffspunkt sein.
  • Eine beispielhafte Verbindung zwischen dem Mobilgerät und dem BLUETOOTH-Sendeempfänger ist durch das Signal 14 dargestellt.
  • Die Kopplung eines Mobilgeräts 53 und des BLUETOOTH-Sendeempfängers 15 kann durch eine Taste 52 oder ein ähnliches Eingabeelement befohlen werden. Dementsprechend wird der CPU befohlen, dass der bordseitige BLUETOOTH-Sendeempfänger mit einem BLUETOOTH-Sendeempfänger in einem Mobilgerät gepaart wird.
  • Die Daten können zwischen der CPU 3 und dem Netzwerk 61 unter Verwendung beispielsweise eines Datenplans, Data-Over-Voice oder DTMF-Töne, die mit einem Mobilgerät 53 assoziiert sind, übermittelt werden. Als Alternative kann es wünschenswert sein, ein bordseitiges Modem 63 mit Antenne 18 aufzunehmen, um Daten zwischen der CPU 3 und dem Netzwerk 61 über das Sprachband zu übertragen 16. Das Mobilgerät 53 kann dann verwendet werden, um mit einem Netzwerk 61 außerhalb des Fahrzeugs 31 zu kommunizieren 59, zum Beispiel über die Verbindung 55 mit einem Mobilfunkmast 57. In einigen Ausführungsformen kann das Modem 63 eine Verbindung 20 mit dem Mast 57 herstellen, um mit dem Netzwerk 61 zu kommunizieren. Als nicht einschränkendes Beispiel kann das Modem 63 ein USB-Mobilfunkmodem sein und die Verbindung 20 kann eine Mobilfunkverbindung sein.
  • In einem Ausführungsbeispiel ist der Prozessor mit einem Betriebssystem bereitgestellt, das eine API aufweist, um mit der Modemanwendungssoftware zu kommunizieren. Die Modemanwendungssoftware kann auf ein eingebettetes Modul oder eine Firmware an dem BLUETOOTH-Sendeempfänger zugreifen, um eine drahtlose Verbindung mit einem rechnerfernen BLUETOOTH-Sendeempfänger (wie dem in einem Mobilgerät) herzustellen. Bluetooth ist Teil der Protokolle IEEE 802 PAN (Personal Area Network). Die IEEE 802 LAN(Local Area Network)-Protokolle schließen WiFi ein und haben eine bedeutende übergreifende Funktionalität mit IEEE 802 PAN. Beide sind für die drahtlose Kommunikation in einem Fahrzeug geeignet. Ein anderes Kommunikationsmittel, das in diesem Kontext verwendet werden kann, ist die optische Freiraumkommunikation (wie IrDA) und nicht genormte Verbraucher-IR-Protokolle.
  • In einer anderen Ausführungsform weist das Mobilgerät 53 ein Modem für die Sprachband- oder Breitbanddatenkommunikation auf. In der Ausführungsform mit Data-Over-Voice kann eine als Frequenzmultiplexverfahren bekannte Technik implementiert werden, wenn der Eigentümer des Mobilgeräts über das Gerät sprechen kann, während Daten übertragen werden. Zu anderen Zeitpunkten, wenn der Eigentümer das Gerät nicht benutzt, kann bei der Datenübertragung die gesamte Bandbreite (300 Hz bis 3,4 kHz in einem Beispiel) verwendet werden. Wenngleich das Frequenzmultiplexverfahren für die analoge Mobilkommunikation zwischen dem Fahrzeug und Internet üblich sein mag und noch immer angewendet wird, wurde es größtenteils durch Hybridformen mit Code Domain Multiple Access (CDMA), Time Domain Multiple Access (TDMA), Space-Domain Multiple Access (SDMA) für die digitale Mobilkommunikation ersetzt. Hierbei handelt es sich um Normen, die mit ITU IMT-2000 (3G) konform sind und Datenraten von bis zu 2 mbs für ortsfeste oder gehende Benutzer und 385 kbs für Benutzer in einem sich bewegenden Fahrzeug bieten. 3G-Standards werden derzeit durch IMT-Advanced (4G) ersetzt, die 100 mbs für Benutzer in einem Fahrzeug und 1 gbs für ortsfeste Benutzer bieten. Wenn der Benutzer einen Datenplan hat, der mit dem Mobilgerät assoziiert ist, kann der Datenplan eine Breitbandübertragung ermöglichen und das System könnte eine viel breitere Bandbreite nutzen (was die Datenübertragung beschleunigt). In noch einer anderen Ausführungsform ist das Mobilgerät 53 durch eine Mobilkommunikationsvorrichtung (nicht dargestellt) ersetzt, die in dem Fahrzeug 31 installiert ist. In noch einer anderen Ausführungsform kann das ND 53 ein Gerät mit Wireless Local Area Netzwerk (WLAN) sein, das zum Beispiel (und ohne Einschränkung) über ein 802.11g-Netzwerk (d. h. WiFi) oder ein WiMax-Netzwerk kommunizieren kann.
  • In einer Ausführungsform können ankommende Daten durch das Mobilgerät über Data-Over-Voice oder einen Datenplan durch den bordseitigen BLUETOOTH-Sendeempfänger und in den internen Prozessor 3 des Fahrzeugs geleitet werden. Im Falle bestimmter temporärer Daten können die Daten beispielsweise auf dem HDD oder einem anderen Speichermedium 7 gespeichert werden, bis die Daten nicht mehr benötigt werden.
  • Zusätzliche Quellen, die mit dem Fahrzeug verbunden sein können, schließen eine persönliche Navigationsvorrichtung 54 ein, die zum Beispiel einen USB-Anschluss 56 und/oder eine Antenne 58 aufweist, eine Fahrzeugnavigationsvorrichtung 60, die einen USB- 62 oder anderen Anschluss aufweist, eine bordseitige GNSS-Vorrichtung 24 oder ein rechnerfernes Navigationssystem (nicht dargestellt) mit Konnektivität zu dem Netzwerk 61 ein. USB ist ein Typ eines seriellen Netzwerkprotokolls. Die seriellen Protokolle laut IEEE 1394 (FireWireTM (Apple), i.LINKTM (Sony) und LynxTM (Texas Instruments)), EIA (Electronics Industry Association), IEEE 1284 (Centronics Port), S/PDIF (Sony/Philips Digital Interconnect Format) und USB-IF (USB Implementers Forum) bilden das Grundgerüst der seriellen Standards von Gerät zu Gerät. Die meisten Protokolle können entweder für die elektrische oder die optische Kommunikation implementiert sein.
  • Ferner kann die CPU mit verschiedenen anderen Hilfsgeräten 65 verbunden sein. Diese Geräte können durch eine drahtlose 67 oder eine verdrahtete 69 Verbindung verbunden sein. Die Hilfsvorrichtung 65 kann persönliche Mediaplayer, drahtlose Gesundheitsvorrichtungen, tragbare Computer und dergleichen einschließen, ohne jedoch darauf beschränkt zu sein.
  • Außerdem oder alternativ könnte die CPU mit einem fahrzeugbasierten drahtlosen Router 73 verbunden sein, der zum Beispiel einen Sendeempfänger für WiFi (IEEE 803.11) 71 verwendet. Dadurch könnte die CPU mit rechnerfernen Netzwerken innerhalb der Reichweite des lokalen Routers 73 verbunden werden.
  • Neben beispielhaften Prozessen, die von einem Fahrzeug-Computersystem ausgeführt werden, das sich in einem Fahrzeug befindet, können die beispielhaften Prozesse von einem Computersystem ausgeführt werden, das mit einem Fahrzeug-Computersystem verbunden ist. Ein solches System kann eine drahtlose Vorrichtung (z. B. und ohne Einschränkung ein Mobiltelefon) oder ein rechnerfernes Computersystem (z. B. und ohne Einschränkung einen Server), der durch die drahtlose Vorrichtung verbunden ist, einschließen, ist jedoch nicht darauf beschränkt. Kollektiv können solche Systeme als fahrzeugassoziierte Rechensysteme (VACS) bezeichnet werden. In bestimmten Ausführungsformen können bestimmte Komponenten des VACS in Abhängigkeit der jeweiligen Implementierung des Systems bestimmte Teile eines Prozesses ausführen. Wenn ein Prozess zum Beispiel und ohne Einschränkung einen Schritt des Sendens oder Empfangens von Informationen mit einer gekoppelten drahtlosen Vorrichtung aufweist, dann führt die drahtlose Vorrichtung diesen Teil des Prozesses wahrscheinlich nicht aus, da die drahtlose Vorrichtung sich selbst keine Informationen „sendet“ und von sich selbst keine Informationen „empfängt“. Der Durchschnittsfachmann wird verstehen, wann die Anwendung eines bestimmten Computersystems für eine bestimmte Lösung unangemessen ist.
  • In jedem hierin erläuterten Ausführungsbeispiel ist ein beispielhaftes, nicht einschränkendes Beispiel eines Prozesses dargestellt, der von einem Computersystem ausführbar ist. Unter Bezugnahme auf jeden Prozess kann das Computersystem, das den Prozess ausführt, für den begrenzten Zweck des Ausführens des Prozesses als ein Spezialprozessor konfiguriert werden, um den Prozess auszuführen. Alle Prozesse müssen nicht in ihrer Gesamtheit ausgeführt werden und sind als Beispiele von Prozesstypen zu verstehen, die ausgeführt werden können, um Elemente der Erfindung zu erzielen. Zusätzliche Schritte können zu den beispielhaften Prozessen je nach Wunsch hinzugefügt oder entfernt werden.
  • Die Ausführungsbeispiele schlagen ein neues Fahrzeugpositioniersystem vor, das eine fahrzeugbasierte fahrspurbezogene Positionierung und eine Ich-Fahrspur-Attributbeurteilung in einer digitalen Karte erzielen kann. Diese beiden Elemente ermöglichen Fahrerassistenzsysteme mit fahrspurbasierter Navigation, die eine auf fahrspurbezogenen Manövern mit geschlossenem Regelkreis basierende Assistenz bereitstellen, wie durch Vorschlagen von Manövern, Sicherstellen der Einhaltung von Manövern und Vorhersagen von Manövern. Dies beinhaltet zum Beispiel Fahrspurwechselempfehlungen, eine fahrspurbezogene Verkehrsbewertung, fahrspurbezogene Kollisionsvermeidung usw.
  • Objekte, die durch die Karte in geodätischen Koordinaten geortet werden, können zuerst in Fahrzeugkoordinaten unter Verwendung des Fahrzeugstandorts und der -ausrichtung aus dem Ortungssystem und dann in Ich-Koordinaten durch Kenntnis des Standorts des jeweiligen Passagiers übersetzt werden.
  • Ein erläuterndes Beispiel schließt ohne Einschränkung die Lage eines Quadrats in einer Frontscheibenanzeige ein, das für den Fahrer so erscheint, das es ein Straßenschild umschließt. Die Frontscheibenanzeige kennt die Lage, um das Quadrat auf der Windschutzscheibe anzuzeigen, aus den Ich-Koordinaten des Straßenschildes und den Ich-Koordinaten der Frontscheibenanzeigenoberfläche. In Ich-Koordinaten kann der Schnittpunkt der Halbgeraden von dem Fahrerauge zu dem Straßenschild mit dem Anzeigebildschirm (Windschutzscheibe) berechnet werden. Der Kasten kann um den Schnittpunkt gezogen werden.
  • Unter Verwendung von GNSS-Positioniersystemen, im Kontext von Landmarkierungen (fahrspurbezogenen Merkmalen auf einer Straße), die von einer Fahrzeugsensoreinheit erkannt werden, können die Prozesse eine höhere laterale Fahrzeugposition erzielen. Die Landmarkierungen dienen als erkennbare Strukturmerkmale auf einer Straße. Der Kontext dieser erkennbaren Merkmale kann in Verbindung mit einer hochauflösenden digitalen Karte verwendet werden, um eine Fahrzeugposition besser zu beurteilen. Ich-Fahrspurattribute auf der digitalen Karte können basierend auf fahrspurgeometrischen und topischen Informationen einer gegenwärtigen Straße aus einer digitalen Karte extrahiert werden. Ein Interferenz- und Begründungsalgorithmus kann eine zentrale Messebene einer lateralen Ich-Fahrzeugpositionierung und einen Ich-Fahrspurindex auf einer beliebigen mehrspurigen Straße, an einem beliebigen Standort, zu einem beliebigen Zeitpunkt und ungeachtet des Wetters, der Sichtverhältnisse und Verkehrsbedingungen ermöglichen.
  • Eine hochauflösende Karte definiert typischerweise die Straße unter Verwendung einer Reihe parametrischer Spline-Kurven. Ein Bézier-Spline und kubischer Spline wurden verwendet, jedoch kann ein kubischer Spline bevorzugt werden, da er genau durch bekannte Punkte auf der Straße geht. Die Splines sind C1-kontinuierlich und können eine vertikale und horizontale Krümmung sowie Verwindung in der Straßenoberfläche vollständig darstellen. Die Superelevation und Breite der Straße können ebenfalls durch Spline-Kurven dargestellt werden. Eine bestimmte Menge von Metadaten wie die Anzahl und Breite der Fahrspuren, Geschwindigkeitsbegrenzungen usw. wird ebenfalls benötigt.
  • In der Beschreibung bezieht sich ein Ich-Fahrzeug auf ein Fahrzeug, in dem Sensoren installiert sind. In diesem Fahrzeug kann eine Positionierung und Lokalisierung die fahrspurbezogene Navigationsassistenz unterstützen. Eine Alternative zu diesem Ansatz kann die Verwendung von hochpräzisen GNSS-Empfängern und einer zusätzlichen dedizierten hochwertigen Sensoreinheit zur Datenerhebung vor Ort einschließen. In dem vorgeschlagenen Ansatz ermöglichen ein derzeit installiertes OEM-Frontkameramodul (das zum Beispiel für Fahrspurabweichungswarnungen verwendbar ist), begrenztes GNSS und installierte Trägheitsmesseinheiten eine kostengünstige und zuverlässige fahrspurbezogene Ich-Fahrzeugpositionierung und -lokalisierung in verschiedenen Umfeldern, einschließlich, jedoch nicht beschränkt auf Fahrspuren mit stark ausgelasteten Fahrzeugen, hochdichten Verkehrs, wechselhafter Straßenbedingungen und Tag- oder Nachtfahrtmodi.
  • Eine fahrspurbezogene Ich-Fahrzeugpositionierung in einem Fahrsichtfeld kann durch Merkmale und Ereignisse (zum Beispiel, ohne Einschränkung, Fahrbahnmarkierungen, Fahrbahnmarkierungstypen, Straßentypen, aufkommender und vorbeifahrender Verkehr und andere Infrastrukturmerkmal(e), die zur Identifizierung eines fahrspurbezogenen Standorts verwendet werden können) unter Verwendung einer erkennungsbasierten Szenenkameraodometrie ergänzt durch Signale mit niedriger und hoher Rate aus einem begrenzten gegenwärtigen GNSS und IMU (Pitch-Kreisel, elektronische Stabilitätskontrolle, Lenkwinkel und Radcodierer), die derzeit an vielen Fahrzeugen vorhanden sind, ermöglicht werden. Fahrspurbezogene Fahrzeugereignisse wie ein Fahrspurwechsel können als weitere Fahrspurpositioniernachweise für eine fahrspurbezogene Ich-Fahrzeugpositionierung verwendet werden.
  • Eine temporäre Filterung wie eine Kalman-Filterung, die eine Art Prädiktor-Korrektor-Verfahren ist, könnte verwendet werden, um die Assimilierung der Netzwerke, die Vorhersage der Bewegungsbahn des Fahrzeugs, eine mögliche fluktuierende Landmarkenverfolgung und veraltete Online- und/oder Offline-Verkehrsinformationsserver zu verarbeiten.
  • Die Ich-Fahrspurlokalisierung kann durch eine probabilistische Ich-Fahrspur-Lokalisierungsmethodologie ermöglicht werden, die mittels Netzwerken der Bayesschen und/oder Dempster-Shafer-Theorie verwendet werden können, um Unsicherheit, eine unvollständige und sogar widersprüchliche Szenenkamera-Landmarkenverfolgung, ungenaue und intermittierende GNSS-Messwerte, eine Wiederholungsprobenahme von IMU-Signalen mit hoher Rate, detaillierte Kartendaten und verschiedene Darstellungen von Fahr- und Verkehrsinformationen zu verarbeiten. Ein probabilistischer Rekursivfilter wie ein Kalman-Filter, Mehrhypothesen-Kalman-Filter, Markov-Filter oder Teilchenfilter (Monti-Carlo-Filter) können für die Sensorstromverarbeitung und die Ich-Fahrspur eingesetzt werden.
  • Infolge der oben erwähnten Ausführungen kann das Ich-Fahrzeug auf einer digitalen Karte unter Verwendung der lateralen Ich-Fahrspurlokalisierung und unter Verwendung einer Ich-Fahrzeugpositionierung und von GNSS-Daten lokalisiert werden. Die Lokalisierung kann verwendet werden, um eine digitale Ich-Fahrspurposition und einen Kurs zu generieren, die zum Extrahieren von nützlichen Informationen aus einer Datenbank verwendbar sind. Im Gegensatz zur straßenbasierten Navigation (wo Assistenz aus einer Straßenstandortperspektive bereitgestellt wird und nicht aus einer tatsächlichen fahrspurbezogenen Fahrzeugperspektive), kann eine fahrspurbezogene Auflösung von den Fahrer und das Fahrzeug betreffenden Straßendaten abgerufen und benutzt werden.
  • Digital-Karten-Unternehmen aktualisieren aktuelle Karten, um eine hohe Auflösung von Daten zu reflektieren, die aus einer fahrspurbezogenen Perspektive beobachtbar sind. Diese Daten können in Verbindung mit den vorgeschlagenen Fahrzeugsystemen wirksam eingesetzt werden, um eine fahrspurbezogene Fahrzeugposition genau zu bestimmen und fahrspurbezogene Assistenz aus einer fahrspurbezogenen Fahrzeugperspektive bereitzustellen. Solche Karten können mathematische oder Rasterdefinitionen von Objekten auf und entfernt von der Straße enthalten, wobei diese mit den präzisen geodätischen Koordinaten des Objekts verknüpft sind. Eine Darstellung der Objekte enthält Maßstabsinformationen, sodass die Reichweite zum Objekt durch ihre Größe in einem Bild geschätzt werden kann. Es sollte auch möglich sein, die Genauigkeit solcher Messungen unter Verwendung der Kamerageometrie, Optik und Bildsensorauflösung zu bestimmen. Typischerweise ist die Winkelauflösung einer Kamera bekannt und kann verwendet werden, um diese Art von Schätzung zu machen.
  • Neben der Fähigkeit, die Ich-Position eines Fahrzeugs zu erkennen, können die vorgeschlagenen Ausführungsformen bei situationsbedingter Unsicherheit durch die Anwendung von Wahrscheinlichkeitstheorien Hilfestellung leisten. Zum Beispiel können die Ausführungsbeispiele verwendet werden, um eine fahrspurbezogene Ich-Position zu identifizieren, wenn Fahrspurmarkierungen verdunkelt oder undeutlich sind, wenn Fahrspurmarkierungen eine widersprüchliche Evidenz der Fahrspurexistenz oder Fahrspurpräsenz bereitstellen, wenn ein GNSS-Signal ungleichmäßig ist oder Kartendaten mangelhaft sind, wenn eine andere Evidenz fehlt und aus Gründen der Redundanz bei der Bestätigung anderer Bestimmungen. Moderne Systeme unterstützen möglicherweise keinen Standort mit hoher Zuverlässigkeit von mehr als 5 m, weshalb eine fahrspurbezogene Lokalisierung nur über GNSS nicht möglich sein kann.
  • Die Ausführungsbeispiele beschreiben drei nicht einschränkende Ansätze zum Integrieren der verrauschten Ausgabe mehrerer Sensoren, um die Gültigkeit einer Hypothese(wie einem Fahrspurstandort)-Fuzzy-Logik, Evidenztheorie und von Bayesschen Verfahren zu bestimmen.
  • In einem Beispiel muss ein Navigationsprozess möglicherweise wissen, ob er dem Fahrer mitteilen soll, in eine andere Fahrspur zu fahren. Diese Mitteilung sollte nicht gegeben werden, wenn sich der Fahrer bereits in dieser Fahrspur befindet (aus einer Fahrerablenkungsperspektive), jedoch ist dies nicht gefährlich oder falsch.
  • Ein Beispiel einer Hypothese kann „Befinde ich mich in Fahrspur 3?“ sein und eine Antwort könnte sein, dass die Wahrscheinlichkeit, sich in Fahrspur 3 zu befinden, 10 % beträgt. Die Evidenztheorie nähert sich Sensorausgaben anders als eine Fuzzy-Logik oder Bayessche Verfahren. Eine Sensorausgabe wird als „Informationen“ bezeichnet und ist erwartungsgemäß verrauscht. Die Philosophie steht mehr mit Evidenzregeln in einer Wissenstheorie als mit einem direkten statistischen oder Einstufungsansatz in Zusammenhang.
  • 2 zeigt ein erläuterndes Beispiel eines Fahrzeugs und einer Umgebung. In diesem erläuternden Beispiel fährt das Ich-Fahrzeug (das Fahrzeug mit den Visionssensoren) 201 auf einer 3-spurigen Autobahn. Jede Fahrspur 203, 205, 207 ist auf einer digitalen Karte separat definierbar. Die Markierungen, die die Fahrspuren trennen, sind ein dauerhaftes Merkmal, das von Ich-Maschinen-Visionssensoren beobachtet werden kann, und können verwendet werden, um die Ich-Fahrzeugpositionierung im Zusammenhang mit der Ich-Fahrspur zu identifizieren.
  • Ferner ist in diesem Beispiel eine Anzahl von Landmarken vorhanden, die von einer Fahrzeugkamera erfasst oder von Sensoren erkannt und mit einer hochauflösenden Karte korreliert werden können. Die Landmarken weisen Daten wie Teilerdaten 211, Brückenpfeiler 213 und 217 auf jeder Seite einer Autobahn, eine Brücke 215 und eine Ausfahrt 209 auf. Der Standort verschiedener Brückenkomponenten ist genau bekannt und in der HD-Karte gespeichert. Die CAD-Zeichnungen und ein Standortgutachten können Quellen dieser präzisen Informationen sein. Der Abstand zwischen der Brückendeckenunterseite und dem Pfahlkopf sind aus der HD-Karte bekannt, wobei der Winkel zwischen ihnen die Reichweite zur Brücke ergibt. Der Winkel zwischen dem ersten und dem letzten Pfeiler im Zentrum auf dem Kamerabild im Vergleich zu dem Winkel auf der rechten Seite ergibt ein Maß der Fahrspur, auf dem sich das Fahrzeug befindet. Sobald die Fahrspur bekannt ist, können die Fahrspurlinien über eine bedeutende Entfernung verfolgt werden. Durch Betrachten und Sammeln dieser Daten und Vergleichen der Daten mit einer hochauflösenden Karte in Verbindung mit Fahrzeug-GNSS-Koordinaten und gegebenenfalls anderen Daten kann eine geeignete zuverlässige Projektion eines fahrspurbezogenen Fahrzeugstandorts bestimmt werden. Diese fahrspurbezogenen Standorte sind auch für autonome Fahrzeuge nützlich, die wahrscheinlich Entscheidungen basierend auf einer bestimmten Fahrspur oder basierend auf einer noch präziseren Positionierung treffen müssen.
  • 3 zeigt ein erläuterndes Beispiel eines Umgebungsdaten-Sammelprozesses. Unter Bezugnahme auf die Ausführungsbeispiele, die in dieser Figur beschrieben sind, sei klargestellt, dass ein Universalprozessor vorübergehend als ein Spezialprozessor aktiviert werden kann, um einige oder alle der hierin dargestellten beispielhaften Verfahren auszuführen. Beim Ausführen von Code, der Anweisungen zur Ausführung einiger oder aller Schritte des Verfahrens bereitstellt, kann der Prozessor vorübergehend solange zu einem Spezialprozessor umfunktioniert werden, bis das Verfahren abgeschlossen ist. In einem anderen Beispiel kann Firmware, die gemäß einem vorkonfigurierten Prozessor wirkt, in angemessenem Maße bewirken, dass der Prozessor als ein Spezialprozessor fungiert, der zur Ausführung des Verfahrens oder einer geeigneten Variation davon bereitgestellt ist.
  • In diesem erläuternden Beispiel können Fahrzeugkameras und Sensoren, die in vielen Fahrzeugen auf der Straße bereitgestellt sind, zum Sammeln von Daten verwendet werden, die mit einer hochauflösenden digitalen Karte verglichen werden. In Verbindung mit den zusätzlichen Kartendaten, die auf einer hochauflösenden digitalen Karte verfügbar sind, können diese Landmarken- und Straßenmerkmalsidentifizierungen zu einer geeigneten Bestimmung einer Fahrzeugspurenposition führen. Nach Erhalt dieses präzisierten Standorts kann ein ganzes hochmodernes Spektrum an Fahrernavigationsassistenz bereitgestellt werden.
  • In diesem erläuternden Prozess wird ein Bild von einer Fahrzeugkamera zur Verarbeitung 303 empfangen 301. Basierend auf einer Verarbeitung des Bildes können potenzielle Landmarken identifiziert werden 305. Da Landmarkenhöhen, -größen, -formen usw. bekannt sein können, kann ein Abstand von verschiedenen Landmarken basierend auf einer betrachteten Größe gegenüber einer tatsächlichen Größe bestimmt werden. Daher können Positionsdaten und Größendaten von Landmarken in einem Bild identifiziert werden, was zu einem Verständnis der fahrzeugbezogenen Position in Bezug auf diese Landmarken basierend auf einer tatsächlichen Landmarkengröße führt. Daten, die mit diesen Landmarken in Zusammenhang stehen, können dann zum Vergleich mit einer hochauflösenden digitalen Karte gespeichert werden. Die tatsächliche Landmarkengröße kann zum Beispiel verwendet werden, um eine skalierte Größe in dem Bild zu bestimmen, die dann zum Bestimmen des Abstands zu dem Merkmal verwendet werden kann. Ferner kann ein Versatzwinkel zwischen einem Fahrzeugkurs und dem Merkmal bestimmt werden, sodass die Fahrzeugposition in Bezug auf das Merkmal bestimmt werden kann.
  • Ebenfalls in diesem Beispiel können sämtliche Straßendaten wie Trennlinien 311 aus einer betrachteten Szene extrahiert werden. Die Anzahl von identifizierbaren Trennlinien und die relativen Standorte dieser Linien können aus dem Bild 313 extrahiert werden. Da die Linien um eine feste Breite voneinander beabstandet sein können, können diese Informationen verwendet werden, um den Abstand eines Fahrzeugs von verschiedenen Linien und Landmarken (mit Linien zwischen den Landmarken und dem Fahrzeug) zu bestimmen. Die extrahierten Liniendaten können zum Vergleich mit einer hochauflösenden digitalen Karte 315 auch gespeichert werden. Nach Bestimmen eines fahrspurbezogenen Fahrzeugstandorts sind die Fahrspurmarkierungen auch bei der Bestimmung nützlich, ob ein Fahrzeug zum Beispiel Fahrspuren gewechselt hat, falls eine Reihe von Bildern eine Fahrspurmarkierung zeigt, die sich unter einem Fahrzeugstandort in dem Bild von links nach rechts oder umgekehrt bewegt. Wenngleich ein Fahrzeug möglicherweise nicht wirklich auf dem Bild erscheint, ist ferner für ein besseres Verständnis der Fahrzeugstandort in dem Bild der perspektivische Punkt, von dem das Bild stammt, während die Fahrzeugkamera das Bild aufnimmt. Dieser „Standort“ könnte auch basierend auf dem tatsächlichen Standort der Kamera an dem Fahrzeug etwas eingestellt werden (zum Beispiel, falls sich die Kamera ganz weit links befindet, kann ein virtueller Versatz vorhanden sein, um den tatsächlichen Standort der Mitte des Fahrzeugs darzustellen).
  • Verkehrsdaten können ebenfalls aus der Szene extrahiert werden. Die Verkehrsdaten können den Standort von aufkommendem Verkehr und von Verkehr in der gleichen Richtung bereitstellen, der verwendet werden kann, um eine Fahrspurexistenz zu identifizieren (das heißt, ein Fahrzeug, das in die gleiche Richtung, jedoch links oder rechts von einem gegenwärtigen direkten Kurs fährt, bedeutet wahrscheinlich, dass eine Fahrspur auf der linken oder der rechten Seite vorhanden ist; aufkommender Verkehr auf der linken Seite bedeutet wahrscheinlich, dass sich das Fahrzeug auf der Fahrspur ganz links einer gegenwärtigen Straße befindet usw.). Abstände zu den verschiedenen Verkehrselementen können ebenfalls bestimmt und bei der fahrspurbezogenen Navigationsassistenz verwendet werden.
  • Alle Daten, die von dem Szenen-Snapshot oder Bild extrahiert und gespeichert werden, können dann an einen Verarbeitungsalgorithmus zur Verwendung in Verbindung mit einer hochauflösenden digitalen Karte gesendet werden, die ein Verständnis darüber gibt, was auf dem Kamerabild 317 zu „sehen“ war. Das Bestimmen beispielsweise von Betrachtungswinkeln zwischen Objekten kann gewisse Berechnungen über die Mitten der Objekte erforderlich machen, da Objekte in einem dreidimensionalen Raum eine Tiefe und eine Breite aufweisen. Mit ausreichenden Kartendaten können jedoch alle dimensionalen und standortbasierten Eigenschaften der „echten Welt“ von Objekten bekannt sein, wobei Vergleiche mit Mittellinien (aus den dimensionalen Eigenschaften bestimmbar) oder beispielsweise Kantenstandorten der Objekte (ebenfalls bestimmbar und möglicherweise auch aus den hochauflösenden Karten bekannt) gezogen werden können. Zum Beispiel können in Bezug auf ein Gebäude die tatsächlichen geografischen Grenzen des Gebäudes bekannt sein (d. h., die Nordwestecke des Gebäudes liegt bei X, Y). In Bezug auf kleinere Objekte wie Brückenpfeiler kann der zentrale Standort des Pfeilers bekannt sein und die Geometrie des Pfeilers kann bekannt sein, sodass eine geografische Bestimmung der Pfeilerkante basierend auf bekannten Pfeilerabmessungen und eines bekannten Pfeilerachsenstandorts vorgenommen werden kann.
  • 4 zeigt ein erläuterndes Beispiel eines Fahrzeugpositions-Bestimmungsprozesses. Unter Bezugnahme auf die Ausführungsbeispiele, die in dieser Figur beschrieben sind, sei klargestellt, dass ein Universalprozessor vorübergehend als ein Spezialprozessor aktiviert werden kann, um einige oder alle der hierin dargestellten beispielhaften Verfahren auszuführen. Beim Ausführen von Code, der Anweisungen zur Ausführung einiger oder aller Schritte des Verfahrens bereitstellt, kann der Prozessor vorübergehend solange zu einem Spezialprozessor umfunktioniert werden, bis das Verfahren abgeschlossen ist. In einem anderen Beispiel kann Firmware, die gemäß einem vorkonfigurierten Prozessor wirkt, im angemessenen Maße bewirken, dass der Prozessor als ein Spezialprozessor fungiert, der zur Ausführung des Verfahrens oder einer geeigneten Variation davon bereitgestellt ist.
  • In diesem erläuternden Beispiel empfängt der Prozess Daten, die von einer oder mehreren Kameraszenen gespeichert werden, die die „Sicht“ einer Fahrzeugvorderseite, in diesem Beispiel 401, zeigen. Diese Daten, die zum Beispiel Landmarken, Verkehrs- und Fahrspurmarkierungen identifizieren, können mit einer digitalen Karte 403 zum Extrahieren von vergleichbaren Merkmalen, die auf der digitalen Karte vorhanden sind, verglichen werden.
  • Zum Beispiel können in der Szene, die in 2 dargestellt ist, die Fahrspurmarkierungen, Trennbarriere und Brücke mit Stützen alle auf der digitalen Karte identifiziert werden. Falls die Brücke 14 Fuß hoch ist und der horizontale Fahrzeugwinkel und der Kamerawinkel bekannt sind, kann basierend auf simpler Geometrie bestimmt werden, wie weit von der Brücke das Fahrzeug entfernt ist (das heißt, zwei Winkel und eine Seitenhöhe, 14 Fuß, sind bekannt, sodass, falls 3 Zoll in dem Bild 14 Fuß zwischen der Straße und der Brücke repräsentieren, dann der Abstand des Fahrzeugs in Zoll von der Brücke bestimmt werden kann und dann in einen Abstand in Fuß extrapoliert werden kann. Ähnliche Abstände von anderen Landmarken können berechnet werden, sodass eine relative Fahrzeugposition zu den Landmarken bestimmt werden kann. Da die Landmarken typischerweise an Ort und Stelle fixiert sind, kann die tatsächliche Fahrzeugposition basierend auf der relativen Position bestimmt werden.
  • Fahrspurmarkierungen können eine Fahrzeugpositionsbestimmung unterstützen und/oder verwendet werden, um eine projizierte fahrspurbezogene Position zu bestätigen.
  • Für jedes Element der Szene, das einem Element auf der HD-Karte 405 entspricht, kann ein relativer Positionswert des Fahrzeugs bestimmt 407 werden, bis keine identifizierbaren Elemente zurückbleiben 409. Aus diesen Informationen kann eine recht präzise fahrspurbezogene Fahrzeugposition geschätzt 411 werden. Diese Position kann an ein modernes Fahrerassistenzmodul (oder einen anderen geeigneten Empfänger) zur fahrspurbezogenen Ich-Fahrzeugperspektivenführung zurückgesendet 411 werden.
  • 5 zeigt ein erläuterndes Beispiel eines Fahrspurpositions-Bestimmungssystems. In diesem Ausführungsbeispiel stellen GNSS/INS-Koordinaten 503 einen allgemeinen Standort eines Fahrzeugs 507 bereit. Fahrzeugbasierte Sensoren und Kameras 505 können eine Ich-Fahrzeugperspektivenszene betrachten und die betrachteten Fahrspurmarkierungen, Landmarken und der Verkehr 509 können zur Verarbeitung gesendet werden. Ein Fusionsmodul 501, das die verschiedenen verfügbaren Daten fusioniert, kann eine Anfrage an die Cloud 511 zur Verwendung einer hochauflösenden digitalen Kartendatenbank 513 senden. Hier führt die Cloud dann eine Datenanalyse aus, um den fahrspurbasierten Standort des Fahrzeugs 515 zu bestimmen, der an das Fusionsmodul zurückgesendet wird. In einem anderen Beispiel können die lokalisierten digitalen Kartendaten für eine bordseitige Verarbeitung zurückgesendet werden, falls solche Funktionen an dem Fahrzeug bereitgestellt sind.
  • Resultierend aus der Fusion bekannter Daten kann eine fahrspurbezogene Position 517 sowie eine Ich-Fahrspurzuweisung 519 bestimmt werden, die bei einer modernen Navigationsassistenz verwendet werden kann. Ferner können ein fahrspurbasierter Verkehrsfluss und Attribute 521 bereitgestellt und/oder bestimmt werden. All diese Bestimmungen sind von einem fahrspurbasierten Navigationsassistenzmodul 523 verwendbar, um eine neue Ebene der Fahrerassistenz bereitzustellen.
  • 6 zeigt erläuternde Eingaben und die Verarbeitung für eine Ich-Positionsbestimmung. In diesem erläuternden Beispiel wird eine Anzahl von kombinatorischen Eingaben bereitgestellt, um unter anderem eine fahrspurbezogene Ich-Fahrzeugposition zu bestimmen. Hier stellt eine Fahrszene, die von einer Fahrzeugkamera 601 erfasst wird, eine merkmalsbasierte Fahrspurerkennung 603 bereit. Daten, die von diesem Abschnitt des Systems gesammelt werden, schließen ein, sind jedoch nicht beschränkt auf Kameradaten 605, RADAR-Daten 607, LIDAR-Daten 609 usw. Diese Daten stellen die Funktionen für eine Landmarkenerkennung 611, merkmalsbasierte Fahrspurerkennung 612 und andere ähnliche Bestimmungen bereit.
  • GNSS-Daten 613 können von diesem System ebenfalls verwendet werden, um einen allgemeinen Fahrzeugstandort und einen Kurs 615 zu bestimmen. Ein GNSS-Empfänger 617 kann GNSS-Koordinaten 621 bereitstellen. Eine Trägheitsmesseinheit 619 kann Trägheitsmessungen 623 bereitstellen.
  • Eine andere Eingabe in das System ist eine digitale Karte 625, die eine digitale Karte aufweisen kann, jedoch nicht darauf beschränkt ist. Dadurch kann eine digitale Kartenlokalisierungsassistenz 627 bereitgestellt werden. Die Daten schließen Daten ein, die aus einer digitalen Kartendatenbank 629 entnommen werden, die eine Möglichkeit für eine Standortwahrscheinlichkeitsinterferenz (unter Verwendung beispielsweise der Szenendaten) bereitstellt. Ferner kann ein Live-Verkehrsserver lokalisierte Verkehrsdaten 631 bereitstellen, die für eine andere Standortwahrscheinlichkeitsinterferenz 635 verwendet werden können.
  • All diese Dateneingaben können auf bedeutsame Weise kombiniert 637 werden, um einen probabilistischen fahrspurbezogenen Fahrzeugstandort und lokale Attribute 639 zu bestimmen. Diese resultierenden Informationen können von modernen fahrspurbezogenen Navigationsassistenzsystemen verwendet werden, um einen definierten Fahrerasisstenzgrad bereitzustellen.
  • Eine Standortwahrscheinlichkeitsinterferenz im Hinblick darauf, auf welcher Fahrspur ein Fahrzeug fährt, kann zum Beispiel ohne Einschränkung auf einer Fahrspurstandortevidenz, Daten auf Ebene 2–3 (Informationen, Kontext), aus einer Vielzahl von verteilten Visionssensormodulen (wie Frontkamera, Radar- und Lidarmodulen usw., die ihre eigene Informationsverarbeitung aufweisen, um die fahrspurbezogenen Informationen mit Unsicherheit wie eine Fahrspurmarkierung in einem Fahrspurverlassens-Warnmodul abzurufen), einer digitalen Karte, GNSS mit Variationsverteilung und einer anderen Fahrzeugsensoreinheit mit Variation (IMU, Kreisel, dynamische Fahrzeugsensoren, die bei der rekursiven Fahrspurlokalisierung verwendet werden können, Vorhersage einer nächsten Fahrzeugposition basierend auf einer gegenwärtigen Fahrzeugposition) basieren.
  • Das Evidenzmodul kann ein geeignetes statistisches Modell und eine probabilistische Interferenztheorie anwenden, um mit den Evidenzen umzugehen (beispielsweise kann eine Bayessche Regel für bekanntes Vorwissen von Sensorevidenzen wie IMU angewendet werden, eine Dempster-Regel kann auf einen Kamerasensor mit Vertrauensbereichen angewendet werden (Vertrauen und Plausibilität aufgrund von Einstufungsunsicherheit und Szenenunsicherheit), eine GNSS-Sensordatenvariation kann mit Gauß behandelt werden und eine Kartendatenunsicherheit kann mit einer Fuzzy-Logik behandelt werden. Das Inferenzmodul bildet Evidenzen aus verschiedenen Quellen auf ihren Hypothesenraum mit Vertrauen und Plausibilität ab bzw. assoziiert diese, wobei sie mit der Plausibilität jedes Sensors als die Gewichte in der Inferenz assoziiert sind. Die resultierende Schlussfolgerung stellt eine statistische Wahrscheinlichkeit bereit, dass ein Fahrzeug in einer bestimmten Fahrspur fährt, wobei diese mit einem Vertrauensschwellenwert verglichen werden kann, um zu bestimmen, ob die Inferenz, dass sich das Fahrzeug in der bestimmten Fahrspur befindet, hoch genug ist, um die Informationen zu benutzen, als ob sich das Fahrzeug „bekanntermaßen“ in der bestimmten Fahrspur befindet.
  • Zum Beispiel berichtet Sensor 1, ein Kurzstreckenradar, mit 70 %igem Vertrauen, dass sich das Fahrzeug in Fahrspur 1 befindet, während Sensor 2, ein Front-Lidar-Modul, erkennt, dass sich das Fahrzeug mit 80 %igem Vertrauen NICHT in Fahrspur 2 befindet, wobei Sensor 3, ein GNSS-Sensor, die Längs- und horizontale Position des Fahrzeugs mit der Variation der Gaußschen Verteilung erkennt und Sensor 4, eine Kamera, keinerlei Evidenz erkennt. Das Inferenzmodul assoziiert den Evidenzgrad des Vertrauens mit der Vielzahl von Hypothesen, wie ein Fahrzeug in jeder der Fahrspuren Fahrspur 1, Fahrspur 2, 3 mit Vertrauen und Plausibilität. Die Informationen werden für eine fahrspurbasierte Navigationsführung verwendet.
  • Wenngleich diskrete Beispiele in Bezug auf von einer Kamera betrachtete Objekte bereitgestellt sind, wird man verstehen, dass die vorgeschlagenen Ausführungsformen verschiedene Informationen in Ansätzen einsetzen, um die verrauschte Ausgabe mehrerer Sensoren zu integrieren und die Gültigkeit einer Hypothese zu bestimmen. Somit können Informationen aus einer gesamten Fahrzeugsensoreinheit in einem beliebigen gegebenen Ansatz verwendet werden, um eine Hypothese zu perfektionieren oder einen Sicherheitsgrad in Bezug auf einen spezifischen Standort zu erhöhen.
  • Wenngleich vorstehend Ausführungsbeispiele beschrieben wurden, sollen diese Ausführungsformen nicht alle möglichen Formen der Erfindung beschreiben. Vielmehr sind die Begriffe, die in der Spezifikation verwendet werden, beschreibende und keine einschränkenden Begriffe, wobei es sich versteht, dass verschiedene Änderungen vorgenommen werden können, ohne von dem Geist und Schutzbereich der Erfindung abzuweichen. Außerdem können die Merkmale verschiedener implementierender Ausführungsformen zur Bildung weiterer Ausführungsformen der Erfindung kombiniert werden. Zeichenerklärung Fig. 1: 61: Netzwerk 4: Anzeige 51: Eingabewahlschalter 52: BT-Paar 65: Hilfsvorrichtung 54: Persönl. Nav.-Vorr. 60: Fahrzeug-Nav.-Vorr. 11: Verst. 25: Hilfseingang Fig. 4: 401: gespeicherte Daten empfangen 403: Ich-Fahrspur-Standort zurücksenden 407: Positionswert zuweisen 405: Element stimmt überein? J: Ja N: Nein 409: Elemente verbleiben? 411: Position schätzen 413: mit digitaler HD-Karte vergleichen Fig. 5: 503: Fahrzeugbasierte merkmalsbasierte Sensoren 507: Fahrspurmarkierungen Erkennung Fahrzeug-GPS Lokalisierung 505: GPS / INS 501: Fusion 517: Fahrspurbezogene Fahrzeugpositionierung 519: Ich-Fahrspurzuweisung 521: Fahrspurverkehrsattribute Ich-Fahrspur-Ortung Fahrspurvergrößerung 523: Fahrspurbasiertes Navigationssystem Digitale Karte Fig. 6: 601: Fahrszene (Bild) 603: Merkmalsbasierte Fahrspurerkennung 605: Kamera 611: Landmarkenerkennung 607: Radar 609: Lidar 612: Landerkennung 613: GPS-Standort 615: Fahrzeugstandort / Kurs 617: GPS 621: GNSS 619: Trägheitsmessung 623: Trägheitsmesseinheit 637: Kombinieren 639: Ich-Fahrspurposition und Attribute 625: Digitale Karte (HD) 629: Kartendatenbank 627: Digitale Kartenlokalisierung 631: Live-Verkehr 633: Prob. Datengewinnung und Inferenz 635: Prob. Datengewinnung und Inferenz
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • IEEE 803.11 [0032]

Claims (20)

  1. System, umfassend: einen Prozessor, der für Folgendes konfiguriert ist: Empfangen von Bilddaten, die von einer Fahrzeugkamera gesammelt werden und ein festes Umgebungsmerkmal betreffen; Bestimmen einer Fahrzeugposition in Bezug auf das feste Umgebungsmerkmal; und Bestimmen eines fahrspurbezogenen Fahrzeugstandorts auf einer digitalen Karte basierend auf der Fahrzeugposition in Bezug auf das feste Umgebungsmerkmal.
  2. System nach Anspruch 1, wobei der Prozessor konfiguriert ist, einen Abstand zwischen einem Fahrzeug und dem festen Umgebungsmerkmal basierend mindestens teilweise auf einer tatsächlichen Merkmalsgröße im Vergleich zu einer betrachteten Merkmalsgröße in den Bilddaten zu bestimmen.
  3. System nach Anspruch 2, wobei die tatsächliche Merkmalsgröße aus der digitalen Karte erhalten wird.
  4. System nach einem der Ansprüche 1 bis 3, wobei der Prozessor konfiguriert ist, einen Abstand zwischen einem Fahrzeug und dem festen Umgebungsmerkmal basierend mindestens teilweise auf einer Winkelauflösung der Fahrzeugkamera zu bestimmen.
  5. System nach einem der Ansprüche 1 bis 4, wobei der Prozessor konfiguriert ist, einen Abstand zwischen einem Fahrzeug und dem festen Umgebungsmerkmal basierend mindestens teilweise auf einer tatsächlichen Größe und einem tatsächlichen Standort von Elementen des festen Umgebungsmerkmals und einem relativen Betrachtungswinkel in den Bilddaten zwischen diesen Elementen zu bestimmen.
  6. System nach Anspruch 5, wobei der Prozessor konfiguriert ist, einen Fahrspurstandort eines Fahrzeugs auf der digitalen Karte basierend auf einem Vergleich von unterschiedlichen Betrachtungswinkeln, nämlich einem auf der linken Seite und einem auf der rechten Seite eines Fahrzeugs, in den Bilddaten zwischen Elementen des festen Umgebungsmerkmals zu bestimmen.
  7. System nach einem der Ansprüche 1 bis 6, wobei der Prozessor ferner konfiguriert ist, Fahrspurmarkierungen aus den Bilddaten zu extrahieren und die Fahrspurmarkierungen zur Bestimmung dessen zu benutzen, ob ein Fahrzeug Fahrspuren nach der Bestimmung des fahrspurbezogenen Standorts wechselt.
  8. System nach einem der Ansprüche 1 bis 7, wobei die Bestimmung der Fahrzeugposition in Bezug auf das Fahrzeugmerkmal eine Bestimmung eines Abstands zwischen dem Fahrzeug und dem Merkmal, einer Fahrzeugausrichtung und eines Versatzwinkels zwischen einem Fahrzeugkurs und dem Merkmal aufweist.
  9. Computerimplementiertes Verfahren, umfassend: Bestimmen geometrischer Eigenschaften eines festen geografischen Objekts in einem Bild, das von einer Fahrzeugkamera erfasst wird; Bestimmen eines Fahrzeugstandorts in Bezug auf das feste geografische Objekt basierend auf den geometrischen Eigenschaften; und Bestimmen eines fahrspurbezogenen Fahrzeugstandorts auf einer digitalen Karte basierend auf dem Fahrzeugstandort in Bezug auf das feste geografische Objekt.
  10. Verfahren nach Anspruch 9, wobei die geometrischen Eigenschaften einen Winkel zwischen einem Fahrzeugkurs und dem festen geografischen Objekt einschließen.
  11. Verfahren nach Anspruch 9 oder 10, wobei die geometrischen Eigenschaften einen Abstand zu dem festen geografischen Objekt basierend mindestens teilweise auf dem Winkel zwischen dem Fahrzeugkurs und dem festen geografischen Objekt einschließen.
  12. Verfahren nach einem der Ansprüche 9 bis 11, wobei die geometrischen Eigenschaften einen Winkel zwischen zwei Elementen des festen geografischen Objekts einschließen, wobei der geografische Standort jedes der zwei Elemente aus einer digitalen Karte erhältlich ist.
  13. Verfahren nach einem der Ansprüche 9 bis 12, wobei die geometrischen Eigenschaften einen Maßstab des festen geografischen Objekts basierend auf einer bekannten Höhe des festen geografischen Objekts im Vergleich zu einer betrachteten Höhe in dem Bild einschließen.
  14. Verfahren nach einem der Ansprüche 9 bis 13, wobei die geometrischen Eigenschaften einen Abstand zu dem festen geografischen Objekt basierend mindestens teilweise auf dem Maßstab des festen geografischen Objekts einschließen.
  15. Verfahren nach einem der Ansprüche 9 bis 14, ferner umfassend das Bestimmen von geometrischen Eigenschaften mehrerer fester geografischer Objekte auf jeder Seite eines Fahrzeugstandorts in einem Bild und Bestimmen des Fahrzeugstandorts basierend mindestens teilweise auf einem Vergleich der bestimmten geometrischen Eigenschaften der mehreren festen geografischen Objekte.
  16. Verfahren nach Anspruch 15, wobei das Bestimmen von geometrischen Eigenschaften das Bestimmen eines Betrachtungswinkels zwischen einem ersten und einem zweiten Objekt auf der linken Seite des Fahrzeugstandorts und zwischen einem dritten und einem vierten Objekt auf der rechten Seite des Fahrzeugstandorts einschließt, wobei der geografische Standort aller vier Objekte aus einer digitalen Karte erhältlich ist.
  17. System, umfassend: eine in einem Fahrzeug eingebettete Kamera, die konfiguriert ist, Bilder in Bezug auf einen Fahrzeugstandort zu erfassen; und einen Prozessor, der für Folgendes konfiguriert ist: Identifizieren von festen geografischen Objekten in den erfassten Bildern; Bestimmen eines relativen Abstands und Winkels von einem oder mehreren der festen geografischen Objekte zu einem Fahrzeugstandort basierend auf einem Vergleich von betrachteten geometrischen Eigenschaften der festen geografischen Objekte mit tatsächlichen geometrischen Eigenschaften, die aus einer digitalen Karte erhalten werden; und Bestimmen eines fahrspurbezogenen Fahrzeugstandorts auf einer digitalen Karte basierend auf dem relativen Abstand und Winkel.
  18. System nach Anspruch 17, wobei der Prozessor konfiguriert ist, Fahrspurmarkierungen in dem erfassten Bild zu identifizieren und eine Linie von Fahrspurmarkierungen auf der linken oder rechten Seite des Fahrzeugs mit einer gegenwärtigen Fahrzeugfahrspur basierend auf dem fahrspurbezogenen Fahrzeugstandort zu assoziieren.
  19. System nach Anspruch 18, wobei der Prozessor konfiguriert ist, zu bestimmen, dass die Linie von Fahrspurmarkierungen unter einem Fahrzeug in einer Reihe von Bildern in einer Richtung von einer ersten Fahrzeugseite zu einer zweiten Fahrzeugseite verläuft.
  20. System nach Anspruch 19, wobei der Prozessor konfiguriert ist, einen neuen fahrspurbezogenen Standort als eine Fahrspur gegenüber einem vorherigen fahrspurbezogenen Standort in der Richtung der ersten Fahrzeugseite zu bestimmen.
DE102016112913.5A 2015-07-16 2016-07-13 Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position Pending DE102016112913A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/800,767 2015-07-16
US14/800,767 US20170016740A1 (en) 2015-07-16 2015-07-16 Method and apparatus for determining a vehicle ego-position

Publications (1)

Publication Number Publication Date
DE102016112913A1 true DE102016112913A1 (de) 2017-01-19

Family

ID=57630038

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016112913.5A Pending DE102016112913A1 (de) 2015-07-16 2016-07-13 Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position

Country Status (3)

Country Link
US (1) US20170016740A1 (de)
CN (1) CN106352867A (de)
DE (1) DE102016112913A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016214045A1 (de) * 2016-07-29 2018-02-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnmodells für ein Fahrzeugumfeld

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9321461B1 (en) * 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US10691958B1 (en) * 2015-07-30 2020-06-23 Ambarella International Lp Per-lane traffic data collection and/or navigation
KR101834349B1 (ko) * 2016-01-08 2018-03-05 엘지전자 주식회사 조향 장치 및 차량
DE102016000943A1 (de) * 2016-01-28 2017-08-03 Trw Automotive Gmbh A control system and method for determining a likelihood of an imminent collision of a vehicle
JP6380422B2 (ja) * 2016-02-05 2018-08-29 トヨタ自動車株式会社 Automated driving system
US9969389B2 (en) * 2016-05-03 2018-05-15 Ford Global Technologies, Llc Enhanced vehicle operation
US10234568B2 (en) * 2016-05-12 2019-03-19 GM Global Technology Operations LLC GNSS vehicle location involving overlapping roads
US10585409B2 (en) 2016-09-08 2020-03-10 Mentor Graphics Corporation Vehicle localization with map-matched sensor measurements
US10095230B1 (en) * 2016-09-13 2018-10-09 Rockwell Collins, Inc. Verified inference engine for autonomy
US10436595B2 (en) * 2017-02-02 2019-10-08 Baidu Usa Llc Method and system for updating localization maps of autonomous driving vehicles
CN108303103B (zh) * 2017-02-07 2020-02-07 腾讯科技(深圳)有限公司 目标车道的确定方法和装置
CN107192396A (zh) * 2017-02-13 2017-09-22 问众智能信息科技(北京)有限公司 汽车精确导航方法和装置
US10223598B2 (en) * 2017-02-20 2019-03-05 Volkswagen Aktiengesellschaft Method of generating segmented vehicle image data, corresponding system, and vehicle
US10759415B2 (en) * 2017-02-23 2020-09-01 GM Global Technology Operations LLC Effective rolling radius
KR20180104496A (ko) * 2017-03-13 2018-09-21 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
GB2562049A (en) * 2017-05-02 2018-11-07 Kompetenzzentrum Das Virtuelle Fahrzeug Improved pedestrian prediction by using enhanced map data in automated vehicles
DE102017207544A1 (de) * 2017-05-04 2018-11-08 Volkswagen Aktiengesellschaft METHOD, DEVICES AND COMPUTER READABLE STORAGE MEDIUM WITH INSTRUCTIONS FOR LOCATING A DATE MENTIONED BY A MOTOR VEHICLE
EP3428577A1 (de) * 2017-07-12 2019-01-16 Veoneer Sweden AB Fahrerassistenzsystem und verfahren
US20200342620A1 (en) * 2017-11-21 2020-10-29 Ford Global Technologies, Llc Object location coordinate determination
CN111656135A (zh) * 2017-12-01 2020-09-11 迪普迈普有限公司 基于高清地图的定位优化
US10737693B2 (en) * 2018-01-04 2020-08-11 Ford Global Technologies, Llc Autonomous steering control
CN109061703A (zh) * 2018-06-11 2018-12-21 百度在线网络技术(北京)有限公司 用于定位的方法、装置、设备和计算机可读存储介质
DE102018209366B4 (de) * 2018-06-12 2020-07-02 Audi Ag Method for determining a position and / or orientation of a device
WO2020041668A1 (en) * 2018-08-23 2020-02-27 The Regents Of The University Of California Signals of opportunity aided inertial navigation
CN109186615A (zh) * 2018-09-03 2019-01-11 武汉中海庭数据技术有限公司 基于高精度地图的车道边线距离检测方法、装置及存储介质
DE102018218043A1 (de) * 2018-10-22 2020-04-23 Robert Bosch Gmbh Determination of a number of lanes and lane markings on road sections
CN109540149A (zh) * 2018-12-19 2019-03-29 北京交通大学 一种利用VeTrack系统对室内汽车进行实时追踪的方法
CN111352139A (zh) * 2018-12-24 2020-06-30 同方威视技术股份有限公司 扫描设备自主导向方法、装置和扫描设备
CN111379237A (zh) * 2018-12-27 2020-07-07 苏州宝时得电动工具有限公司 智能扫雪机及其方法
CN109870689A (zh) * 2019-01-08 2019-06-11 武汉中海庭数据技术有限公司 毫米波雷达与高精矢量地图匹配的车道级定位方法与系统
CN111272165B (zh) * 2020-02-27 2020-10-30 清华大学 一种基于特征点标定的智能车定位方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US9229540B2 (en) * 2004-01-30 2016-01-05 Electronic Scripting Products, Inc. Deriving input from six degrees of freedom interfaces
BRPI0520270B1 (pt) * 2005-06-01 2019-10-01 Allstate Insurance Company EVALUATION METHOD OF AT LEAST ONE INDIVIDUAL
US8207843B2 (en) * 2005-07-14 2012-06-26 Huston Charles D GPS-based location and messaging system and method
US9163922B2 (en) * 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
DE102010020925B4 (de) * 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
US9168654B2 (en) * 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
JP2013117515A (ja) * 2011-11-02 2013-06-13 Aisin Aw Co Ltd レーン案内表示システム、方法およびプログラム
JP5893953B2 (ja) * 2012-02-22 2016-03-23 日立建機株式会社 車両運行管理システム
DE102012016800A1 (de) * 2012-08-23 2014-02-27 Audi Ag Method and device for determining a vehicle position in a mapped environment
US20140267415A1 (en) * 2013-03-12 2014-09-18 Xueming Tang Road marking illuminattion system and method
US9223837B2 (en) * 2013-03-14 2015-12-29 Toyota Motor Engineering & Manufacturing North America, Inc. Computer-based method and system for providing active and automatic personal assistance using an automobile or a portable electronic device
JP6386794B2 (ja) * 2014-06-04 2018-09-05 日立建機株式会社 運搬車両
DE102014223900A1 (de) * 2014-11-24 2016-05-25 Conti Temic Microelectronic Gmbh Fahrzeug-Umfeld-Abtastung mittels eines phasengesteuerten Lasers

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE 803.11

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016214045A1 (de) * 2016-07-29 2018-02-01 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Ermitteln eines Fahrbahnmodells für ein Fahrzeugumfeld

Also Published As

Publication number Publication date
CN106352867A (zh) 2017-01-25
US20170016740A1 (en) 2017-01-19

Similar Documents

Publication Publication Date Title
US10365658B2 (en) Systems and methods for aligning crowdsourced sparse map data
US10248124B2 (en) Localizing vehicle navigation using lane measurements
EP3332216B1 (de) Verfahren und systeme zur erzeugung und verwendung von lokalisierungsreferenzdaten
US10829154B2 (en) Method and device for operating a vehicle
US9977431B2 (en) Automotive drone deployment system
JP6325806B2 (ja) 車両位置推定システム
JP6359825B2 (ja) 車両のための装置及び方法、及び、その方法を実行するための命令を含む記憶媒体
RU2572939C9 (ru) Система и способ контроля полосы движения транспортного средства
US9175966B2 (en) Remote vehicle monitoring
KR102113816B1 (ko) 차량 자율주행 서비스 시스템 및 이를 위한 클라우드 서버 및 그 동작 방법
CN106461402B (zh) 用于确定相对于数字地图的位置的方法及系统
US20180224286A1 (en) Methods and systems to convey autonomous/semi-autonomous feature available roadways
US9140792B2 (en) System and method for sensor based environmental model construction
EP3130891B1 (de) Verfahren zur aktualisierung einer präzisionsstrassendatenbank auf einem server
US20160347327A1 (en) Autonomous vehicle driving assist system, method, and program
KR20160002178A (ko) 자차 위치 인식 장치 및 방법
US8134480B2 (en) Image processing system and method
EP2253936B1 (de) Vorrichtung zur Bestimmung der aktuellen Position und Verfahren zur Bestimmung der aktuellen Position
EP2920954B1 (de) Automatische bilderfassung
CN105937912B (zh) 车辆的地图数据处理装置
JP2020194571A (ja) Sparse map for autonomous vehicle navigation
US8239131B2 (en) Navigation device, navigation method, and navigation program
US9052207B2 (en) System and method for vehicle navigation using lateral offsets
JP5901779B2 (ja) 画像データベース地図サービスからアシストシステム内にデータを移す方法
US8428362B2 (en) Scene matching reference data generation system and position measurement system