DE102019110528A1 - Technik zur positionsbestimmung - Google Patents

Technik zur positionsbestimmung Download PDF

Info

Publication number
DE102019110528A1
DE102019110528A1 DE102019110528.5A DE102019110528A DE102019110528A1 DE 102019110528 A1 DE102019110528 A1 DE 102019110528A1 DE 102019110528 A DE102019110528 A DE 102019110528A DE 102019110528 A1 DE102019110528 A1 DE 102019110528A1
Authority
DE
Germany
Prior art keywords
vehicle
intensity map
intensity
computer
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019110528.5A
Other languages
English (en)
Inventor
Ankit Girish Vora
Siddharth Agarwal
Jakob Nikolaus HOELLERBAUER
Peng-Yu Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102019110528A1 publication Critical patent/DE102019110528A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9537Spatial or temporal dependent retrieval, e.g. spatiotemporal queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

Diese Offenbarung stellt eine Technik zur Positionsbestimmung bereit. Ein System beinhaltet einen Prozessor und einen Speicher. Der Speicher speichert Anweisungen, die durch den Prozessor ausführbar sind, um anhand von LIDAR-Daten eine erste Intensitätskarte eines Gebiets um ein Fahrzeug zu generieren und eine Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte mit einem Graustufenbild von oben zu schätzen.

Description

  • TECHNISCHES GEBIET
  • Die Offenbarung betrifft im Allgemeinen Fahrzeugsensoren und die Navigation.
  • ALLGEMEINER STAND DER TECHNIK
  • Ein Fahrzeug, wie etwa ein autonomes oder halbautonomes Fahrzeug, kann Daten von einem LIDAR-Sensor (Light Imaging Detection And Ranging) zur Navigationsunterstützung verwenden. LIDAR-Sensoren können verwendet werden, um Punktwolkendaten zu generieren, d. h. eine Sammlung von Daten, die Punkte in drei Dimensionen beschreibt. Außerdem kann ein autonomes Fahrzeug seine im Wesentlichen Echtzeit-LIDAR-Punktwolkendaten mit einer digitalen Karte eines Gebiets vergleichen, in dem das Fahrzeug betrieben wird, um die Position des Fahrzeugs innerhalb des Gebiets zu bestimmen und das Fahrzeug auf Grundlage der bestimmten Fahrzeugposition zu navigieren. Digitale Karten beinhalten üblicherweise Straßendaten, Kreuzungen, die Anzahl der Fahrstreifen auf einer Straße, Gebäudepositionen usw. Das Erstellen der für die Fahrzeugnavigation verwendeten digitalen Karten ist üblicherweise langsam und/oder beansprucht erhebliche Rechenressourcen. Ein Fahrzeug kann innerhalb eines Gebiets navigieren, für das keine digitale Karte verfügbar ist.
  • KURZDARSTELLUNG
  • In dieser Schrift wird ein System offenbart, das einen Prozessor und einen Speicher beinhaltet. Der Speicher speichert Anweisungen, die durch den Prozessor ausführbar sind, um anhand von LIDAR-Daten eine erste Intensitätskarte eines Gebiets um ein Fahrzeug zu generieren und eine Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte mit einem Graustufenbild von oben zu schätzen.
  • Die Anweisungen können weitere Anweisungen zum Generieren einer zweiten Intensitätskarte auf Grundlage des Graustufenbilds und zum Schätzen der Fahrzeugposition zumindest teilweise auf Grundlage der zweiten Intensitätskarte beinhalten.
  • Die Anweisungen zum Vergleichen der ersten Intensitätskarte mit dem Graustufenbild können weitere Anweisungen zum Identifizieren einer Region mit der besten Übereinstimmung des Graustufenbildes durch Vergleichen jeder aus einer Vielzahl von Regionen der zweiten Intensitätskarte mit der ersten Intensitätskarte beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Schätzen der Fahrzeugposition und einer Fahrzeugfahrtrichtung auf Grundlage des ermittelten Abschnitts mit der besten Übereinstimmung beinhalten.
  • Die Anweisungen zum Schätzen der Fahrzeugfahrtrichtung können weitere Anweisungen zum Erzeugen einer Vielzahl gedrehter erster Intensitätskarten durch Drehen der ersten Intensitätskarte in einer Links- und einer Rechtsrichtung verglichen mit einer letzten Fahrtrichtung des Fahrzeugs und zum Bestimmen der besten Übereinstimmung auf Grundlage eines Vergleichs der gedrehten ersten Intensitätskarten mit der zweiten Intensitätskarte beinhalten.
  • Die Anweisungen zum Schätzen der Fahrzeugposition können weitere Anweisungen zum Bestimmen der Vielzahl von Abschnitten auf Grundlage einer zuletzt identifizierten Fahrzeugposition, zum Schätzen eines Punktwerts für jeden Abschnitt durch Vergleichen des entsprechenden Abschnitts mit der ersten Intensitätskarte und zum identifizieren des Abschnitts mit der besten Übereinstimmung durch Auswählen des Abschnitts mit dem höchsten Punktwert beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Schätzen der Fahrzeugposition auf Grundlage einer zuletzt geschätzten Fahrzeugposition, eines oder mehrerer physikalischer Attribute des Fahrzeugs, einschließlich mindestens einer von einer Fahrzeuggeschwindigkeit und einer Fahrzeugfahrtrichtung, und eines identifizierten übereinstimmenden Abschnitts der zweiten Intensitätskarte beinhalten.
  • Die Anweisungen können weitere Anweisungen zum Schätzen einer ersten Fahrzeugfahrtrichtung auf Grundlage der ersten Intensitätskarte und des Abschnitts der zweiten Intensitätskarte mit der besten Übereinstimmung und zum Schätzen der Fahrzeugfahrtrichtung zumindest teilweise auf Grundlage der ersten Fahrzeugfahrtrichtung und des einen oder der mehreren physikalischen Attribute des Fahrzeugs beinhalten.
  • Außerdem wird in dieser Schrift ein Verfahren offenbart, das ein Generieren einer ersten Intensitätskarte eines Gebiets um ein Fahrzeug anhand von LIDAR-Daten und ein Schätzen einer Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte mit einem Graustufenbild von oben beinhaltet.
  • Das Verfahren kann außerdem ein Generieren einer zweiten Intensitätskarte auf Grundlage des Graustufenbilds und ein Schätzen der Fahrzeugposition zumindest teilweise auf Grundlage der zweiten Intensitätskarte beinhalten.
  • Das Vergleichen der ersten Intensitätskarte mit dem Graustufenbild kann außerdem ein Identifizieren einer Region des Graustufenbilds mit der besten Übereinstimmung durch Vergleichen jeder aus einer Vielzahl von Regionen der zweiten Intensitätskarte mit der ersten Intensitätskarte beinhalten.
  • Das Verfahren kann außerdem ein Schätzen der Fahrzeugposition und einer Fahrzeugfahrtrichtung auf Grundlage des identifizierten Abschnitts mit der besten Übereinstimmung beinhalten.
  • Das Schätzen der Fahrzeugfahrtrichtung kann außerdem ein Generieren einer Vielzahl gedrehter erster Intensitätskarten durch Drehen der ersten Intensitätskarte in einer Links- und einer Rechtsrichtung verglichen mit einer letzten Fahrtrichtung des Fahrzeugs und ein Bestimmen der besten Übereinstimmung auf Grundlage eines Vergleichs der gedrehten ersten Intensitätskarten mit der zweiten Intensitätskarte beinhalten.
  • Das Schätzen der Fahrzeugposition kann außerdem ein Bestimmen der Vielzahl von Abschnitten auf Grundlage einer zuletzt identifizierten Fahrzeugposition, ein Schätzen eines Punktwerts für jeden Abschnitt durch Vergleichen des entsprechenden Abschnitts mit der ersten Intensitätskarte und ein Identifizieren des Abschnitts mit der besten Übereinstimmung durch Auswählen des Abschnitts mit dem höchsten Punktwert beinhalten.
  • Das Verfahren kann außerdem ein Schätzen einer ersten Fahrzeugfahrtrichtung auf Grundlage der ersten Intensitätskarte und des Abschnitts der zweiten Intensitätskarte mit der besten Übereinstimmung und ein Schätzen der Fahrzeugfahrtrichtung zumindest teilweise auf Grundlage der ersten Fahrzeugfahrtrichtung und des einen oder der mehreren physikalischen Attribute des Fahrzeugs beinhalten.
  • Das Verfahren kann außerdem ein Schätzen der Fahrzeugposition auf der Grundlage einer zuletzt geschätzten Fahrzeugposition, eines oder mehrerer physikalischer Attribute des Fahrzeugs, einschließlich mindestens einer von einer Fahrzeuggeschwindigkeit und einer Fahrzeugfahrtrichtung, und eines identifizierten übereinstimmenden Abschnitts der zweiten Intensitätskarte beinhalten.
  • Außerdem wird eine Rechenvorrichtung offenbart, die dazu programmiert ist, beliebige der vorstehenden Verfahrensschritte auszuführen.
  • Weiterhin wird ein Computerprogrammprodukt offenbart, das ein computerlesbares Medium umfasst, auf dem Anweisungen gespeichert sind, die durch einen Computerprozessor ausgeführt werden können, um beliebige der vorstehenden Verfahrensschritte auszuführen.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das ein Graustufenbild eines beispielhaften Gebiets zeigt.
    • 2 zeigt ein beispielhaftes Fahrzeug.
    • 3 zeigt eine erste Intensitätskarte einer Zone um das Fahrzeug aus 1.
    • 4 zeigt eine zweite Intensitätskarte des Gebiets.
    • Die 5A-5C zeigen Vergleiche der ersten Intensitätskarte, die in die unterschiedlichen Richtungen gedreht ist, relativ zur zweiten Intensitätskarte.
    • 6 ist ein Ablaufdiagramm eines beispielhaften Prozesses zum Bestimmen einer Fahrzeugposition und zum Navigieren des Fahrzeugs zu einem Ziel.
  • DETAILLIERTE BESCHREIBUNG
  • Die Navigation eines Landfahrzeugs kann auf dreidimensionalen (3D) Kartendaten eines Gebiets beruhen, in dem das Fahrzeug betrieben wird. Ein Fahrzeugcomputer kann anhand von LIDAR-Daten eine erste Intensitätskarte eines Gebiets um ein Fahrzeug generieren und kann eine Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte mit einem Graustufen-Satellitenbild schätzen. Üblicherweise schätzen Fahrzeugcomputer die Fahrzeugposition auf Grundlage von Karten mit hoher Auflösung (high definition - HD). Das Generieren derartiger HD-Karten ist üblicherweise sehr zeitaufwändig und im Hinblick auf Computerverarbeitungsressourcen teuer. Demnach verbessert das vorliegende System vorteilhafterweise die Computerverarbeitung und -effizienz durch Schätzen der Fahrzeugposition, ohne dass die Notwendigkeit zum Generieren von Karten mit hoher Auflösung (HD) auftritt.
  • 1 veranschaulicht ein Fahrzeug 180, das in einem beispielhaften geographischen Gebiet 100 fährt. 1 ist ein Bild des Gebiets 100 von oben, z. B. eine Darstellung eines Bilds, das durch eine Kamera über dem Boden aufgenommen wurde. Um ein Luftbild oder eine Draufsicht eines Gebiets 100 aufzunehmen, kann eine Kamera an einem Satelliten, einem Flugzeug, einem Hubschrauber, unbemannten Luftfahrzeugen (oder Drohnen), einem Ballon, einer alleinstehenden Stange, einer Decke eines Gebäudes usw. angebracht sein. Ein geografisches Gebiet 100 (oder einfach ein Gebiet 100) bezeichnet im Kontext dieser Offenbarung ein zweidimensionales Gebiet auf der Erdoberfläche. Begrenzungen oder Ränder eines Gebiets können durch Koordinaten eines globalen Positionsbestimmungssystems (GPS) definiert sein, z. B. als Scheitelpunkte eines dreieckigen oder rechteckigen Gebiets 100, als Mittelpunkt eines kreisförmigen Gebiets 100 usw. Ein Gebiet 100 kann beliebige Abmessungen und/oder eine beliebige Form aufweisen, z. B. eine rechteckige, ovale, kreisförmige, nicht-geometrische Form usw. Ein Gebiet 100 kann beispielsweise ein Viertel, eine Stadt, einen Flughafen usw. beinhalten.
  • Ein Gebiet 100 kann Merkmale beinhalten. Im vorliegenden Kontext bezieht sich ein „Merkmal“ eines Gebiets 100 auf eine physikalische Eigenschaft oder Struktur des Gebiets 100, wie etwa Ränder (z. B. eine Straßenbegrenzung 190, eine Metallschutzbegrenzung 190 usw.) auf einer Bodenfläche, eine Form (z. B. einer Struktur 170), einen Gradienten (oder eine Steigung), ein Muster (z. B. eines Kreisverkehrs), ein Gebäude 150, eine Brücke, eine Ampel, einen Leitpfosten und eine erhabene Fahrbahnmarkierung 160. Eine Straße 130 kann eine beliebige Art von unbefestigter Straße 130 oder asphaltierter Straße 130 sein, z. B. eine mit Beton, Asphalt, Teer usw. bedeckte. Eine Straße 130 kann einen oder mehrere Fahrstreifen aufweisen. Eine Straße 130 kann uni- oder bidirektional sein. Ein Kreisverkehr kann eine kreisförmige oder ovale Form aufweisen. Eine Kreuzung 195 kann eine Stelle sein, an der sich zwei oder mehr Straßen schneiden. Eine Straßenmarkierung 160 kann eine erhabene und/oder bündige Fahrbahnmarkierung sein, die aus Metall, Kunststoff usw. ausgebildet ist und an einer Oberfläche einer Straße 130 angebracht und/oder darin eingebettet ist, und/oder eine auf die Oberfläche einer Straße 130 aufgemalte Markierung. Eine Begrenzung (oder ein Rand) einer Straße 130 ist ein Satz von Punkten, der die Stelle definiert, an der ein Oberflächenmaterial einer Straße 130, z. B. Asphalt, endet. Im vorliegenden Kontext kann die Begrenzung 190 zusätzlich oder alternativ ein oder mehrere physische Fahrbahnmerkmale beinhalten, wie etwa eine Verkehrsleitwand, einschließlich Metallleitplankenbegrenzungen 190, eine oder mehrere Straßenmarkierungen 160, wie etwa eine aufgemalte Linie oder Linien, usw. Ein Gebiet 100 kann jegliche Art von Struktur 170, wie etwa (ein) Verkehrszeichen, (eine) Brücke(n) usw., und/oder Vegetation, (einen) Hügel, (einen) Berg(e) usw. beinhalten.
  • 1 zeigt eine beispielhafte Zone 110. Bei einer Zone 110 handelt es sich im vorliegenden Kontext um einen Teil eines geographischen Gebiets 100, der durch eine aktuelle Position des Fahrzeugs 180 definiert ist, z. B. ein um eine Position des Fahrzeugs 180 zentriertes rechteckiges Gebiet. Daher bewegt sich eine Zone 110, wenn sich das Fahrzeug 180 bewegt. Die Zone 110 kann feste Abmessungen, z.B. 100×100 Meter, und eine rechteckige, kreisförmige und/oder unregelmäßige Form usw. aufweisen. Die jeweiligen Abmessungen oder Begrenzungen der Zone 110 können auf Grundlage eines Sichtfelds der Sensoren 230 eines Fahrzeugs 180 definiert werden, wie nachstehend unter Bezugnahme auf die 3-4 erörtert. Im vorliegenden Kontext kann ein Gebiet 100 ein Viertel usw. sein, wohingegen es sich bei einer Zone 110 um einen Teil des Gebiets 100 handelt, der das Fahrzeug 180 umgibt und im Wesentlichen in einem Sichtfeld der Sensoren 230 des Fahrzeugs 180 liegt, wie unter Bezugnahme auf die 3-4 erörtert.
  • Eine Karte eines Gebiets 100 umfasst Positionskoordinaten, wie etwa Koordinaten eines globalen Positionsbestimmungssystems (GPS), von Punkten innerhalb des Gebiets 100, z. B. Punkten, die Kartenmerkmale, wie etwa Straßen 130, Kreuzungen usw., definieren. Ein Bild, wie etwa ein Luftbild des Gebiets 100, ist im vorliegenden Kontext ein digitales Bild, das eine Vielzahl von Pixeln (oder Punkten) und Daten bezüglich des jeweiligen Pixels, z. B. Farbe, Intensität usw., beinhaltet. Ein Bild kann ein „aufgenommenes“ Bild sein, d. h. durch eine Kamera oder einen anderen optischen Sensor, wie etwa eine Fahrzeugkamera, eine Satellitenkamera usw., aufgenommen werden und/oder kann „generierte“ Bilddaten beinhalten, d. h. Daten, die anhand gespeicherter Informationen, wie etwa Kartendaten, z. B. einer Intensitätskarte, wie nachstehend erörtert generiert werden.
  • Nun unter Bezugnahme auf 2 kann ein beispielhaftes Fahrzeug 180 einen Computer 210, (einen) Aktor(en) 220, Sensoren 230, wie etwa einen LIDAR-Sensor 230 (Light Detection and Ranging), einen GPS-Sensor 230 usw., und andere Komponenten, wie hierin nachstehend erörtert, beinhalten. Das Fahrzeug 180 kann auf vielfältige Weise angetrieben werden, z. B. einschließlich mithilfe eines Elektromotors und/oder einer Brennkraftmaschine. Ein Fahrzeug 180 kann einen Bezugspunkt 250 beinhalten, z. B. einen Schnittpunkt einer Längs- und einer Querachse A1, A2 des Fahrzeugs 180. Im vorliegenden Kontext bezieht sich eine Position eines Fahrzeugs 180 auf Positionskoordinaten des Bezugspunkts 250 des Fahrzeugs 180. Im vorliegenden Kontext weist das Fahrzeug 180 eine tatsächliche Position auf, die durch den Computer 210 bestimmt werden soll. Der Computer 210 kann die Position des Fahrzeugs 180 auf Grundlage von Daten von den Sensoren 230 des Fahrzeugs 180, wie etwa Daten, die von einem Positionssensor 230 des Fahrzeugs 180 empfangen werden, bestimmen oder kann die Position auf Grundlage von Bilddaten schätzen, wie nachstehend beschrieben.
  • Der Computer 210 beinhaltet einen Prozessor und einen Speicher. Der Speicher beinhaltet eine oder mehrere Arten computerlesbarer Medien und speichert Anweisungen, die durch den Computer 210 zum Durchführen verschiedener Vorgänge, einschließlich der hierin offenbarten, ausführbar sind.
  • Der Computer 210 kann das Fahrzeug 180 in einem autonomen, halbautonomen oder nicht autonomen Modus betreiben. Für die Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von Antrieb, Bremsung und Lenkung des Fahrzeugs 180 durch den Computer 210 gesteuert wird; in einem halbautonomen Modus steuert der Computer 210 eines oder zwei von Antrieb, Bremsung und Lenkung des Fahrzeugs 180; in einem nicht autonomen Modus steuert ein menschlicher Bediener den Antrieb, die Bremsung und die Lenkung des Fahrzeugs.
  • Der Computer 210 kann Programmierung zum Bedienen eines oder mehrerer von Fahrzeugbremsen, Antrieb (z. B. Steuerung der Beschleunigung in dem Fahrzeug 180 durch Steuern eines oder mehrerer von einer Brennkraftmaschine, einem Elektromotor, einem Hybridmotor usw.), Lenkung, Klimasteuerung, Innen- und/oder Außenbeleuchtung usw. sowie zum Bestimmen, ob und wann der Computer 210 im Gegensatz zu einem menschlichen Bediener derartige Vorgänge steuern soll, beinhalten.
  • Der Computer 210 kann mehr als einen Prozessor, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug zum Überwachen und/oder Steuern verschiedener Fahrzeugsteuerungen, z. B. einer Antriebsstrangsteuerung, einer Bremssteuerung, einer Lenksteuerung usw., beinhaltet sind, beinhalten oder kommunikativ daran gekoppelt sein, z. B. über einen Kommunikationsbus des Fahrzeugs, wie nachstehend ausführlicher beschrieben. Der Computer 210 ist im Allgemeinen zur Kommunikation über ein Fahrzeugkommunikationsnetzwerk ausgelegt, wie etwa einen Bus in dem Fahrzeug, wie etwa ein Controller Area Network (CAN) oder dergleichen.
  • Über das Fahrzeugnetzwerk kann der Computer 210 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug 180 übertragen und/oder Nachrichten von den verschiedenen Vorrichtungen, z. B. den LIDAR-Sensoren 230, den Aktoren 220 usw., empfangen. Alternativ oder zusätzlich kann in Fällen, in denen der Computer 210 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugkommunikationsnetzwerk für Kommunikationen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als der Computer 210 wiedergegeben sind. Außerdem können, wie nachstehend erwähnt, verschiedene Steuerungen und/oder Sensoren 230 dem Computer 210 über das Kommunikationsnetzwerk des Fahrzeugs 180 Daten bereitstellen.
  • Die Aktoren 220 des Fahrzeugs 180 können über Schaltungen, Chips oder andere elektronische Komponenten umgesetzt sein, die, wie bekannt, verschiedene Fahrzeugteilsysteme gemäß geeigneten Steuersignalen betätigen können. Die Aktoren 220 können verwendet werden, um Bremsung, Beschleunigung und Lenkung des Fahrzeugs 180 zu steuern. Als ein Beispiel kann der Computer 210 des Fahrzeugs 180 Steueranweisungen ausgeben, um die Aktoren 220 zu steuern.
  • Das Fahrzeug 180 kann einen oder mehrere LIDAR-Sensoren 230 beinhalten, die Daten bereitstellen, die zumindest einen Teil eines Außenbereichs des Fahrzeugs 180 abdecken. Der LIDAR-Sensor 230 kann einen Prozessor beinhalten, der zum Übertragen von LIDAR-Daten über das Netzwerk des Fahrzeugs 180 programmiert ist. Die LIDAR-Daten können durch den Computer 210 des Fahrzeugs 180 auf herkömmliche Weise von den LIDAR-Sensoren 230 empfangen werden, z. B. über ein Netzwerk des Fahrzeugs 180, wodurch die LIDAR-Daten in einem Speicher des Computers 210 gespeichert werden können. Die LIDAR-Daten können Koordinaten beinhalten, z. B. gemäß einem dreidimensionalen kartesischen Koordinatensystem. Die LIDAR-Daten können außerdem andere Daten bezüglich anderer Objekte beinhalten, wie etwa Größe, relative Geschwindigkeit zum Host-Fahrzeug 180 usw. In einem Beispiel, das in 2 gezeigt ist, kann ein LIDAR-Sensor 230 ein Gebiet 100 im Sichtfeld des LIDAR-Sensors 230 abtasten, z. B. ein Gebiet 100 um das Fahrzeug 180, indem er Laserstrahlen aussendet und Reflexionen der ausgesendeten LIDAR-Strahlen empfängt. Der LIDAR-Sensor 230 tastet ein Gebiet um das Fahrzeug 180 mit Lichtstrahlen ab und empfängt Reflexionen der ausgesendeten Lichtstrahlen von Außenflächen der Merkmale, wie etwa der Strukturen 170 usw., und/oder von der Oberfläche der Straße 130. Somit können die LIDAR-Daten Positionskoordinaten von Punkten auf Außenflächen von Merkmalen beinhalten, die eine Reflexion der emittierten Lichtstrahlen verursachen. Anders ausgedrückt können die Daten des LIDAR-Sensors 230 3D-Positionskoordinaten einer Vielzahl von Punkten innerhalb des Sichtfelds des LIDAR-Sensors 230 beinhalten.
  • Zusätzlich kann der Computer 210 dazu programmiert sein, über ein drahtloses Kommunikationsnetzwerk zu kommunizieren, z. B. mit einem entfernten Computer. Das drahtlose Kommunikationsnetzwerk, das ein Fahrzeug-zu-Fahrzeug(F-zu-F)- und/oder ein Fahrzeug-zu-Infrastruktur(F-zu-I)-Kommunikationsnetzwerk beinhalten kann, beinhaltet eine oder mehrere Strukturen, über welche die Fahrzeuge 180, der entfernte Computer usw. miteinander kommunizieren können, einschließlich einer beliebigen gewünschten Kombination von drahtlosen (z. B. Mobilfunk-, drahtlosen, Satelliten-, Mikrowellen- und Funkfrequenz-) Kommunikationsmechanismen und einer beliebigen gewünschten Netztopologie (oder -topologien, wenn eine Vielzahl von Kommunikationsmechanismen verwendet wird). Beispielhafte F-zu-F- oder F-zu-I-Kommunikationsnetzwerke beinhalten Mobilfunk, Bluetooth, IEEE 802. 11, dedizierte Nahbereichs-Kommunikation (dedicated short range communication - DSRC) und/oder Weitverkehrsnetzwerke (wide area network - WAN), einschließlich des Internets, die Datenkommunikationsdienste bereitstellen.
  • Die Navigation des Fahrzeugs 180 kann auf Graustufenbildern eines Gebiets 100, in dem das Fahrzeug 180 betrieben wird, beruhen. Ein Computer 210 des Fahrzeugs 180 kann das Graustufenbild des Gebiets 100 verwenden, um eine Position des Fahrzeugs 180 zu bestimmen und/oder das Fahrzeug 180 innerhalb des Gebiets 100 zu navigieren, wie nachstehend erläutert.
  • 3 veranschaulicht eine beispielhafte Intensitätskarte 300, die zumindest einen Teil einer Zone 110 eines Gebiets 100 beinhaltet. Der Computer 210 des Fahrzeugs 180 kann dazu programmiert sein, die Intensitätskarte 300 auf Grundlage von Daten zu generieren, die von dem LIDAR-Sensor 230 des Fahrzeugs 180 empfangen werden. Eine Intensitätskarte 300 ist, wie in 3 gezeigt, eine Karte, die ein Gebiet 100 in einer zweidimensionalen (2D) Ebene wiedergibt. Die Intensitätskarte 300 beinhaltet mehrere Zellen, bildet z. B. ein Raster mit Zellen gleicher Größe, und beinhaltet eine durchschnittliche Intensität für jede Zelle der Karte. Eine Zelle der Intensitätskarte 300 gibt einen Teil der Bodenfläche wieder. In einem Beispiel können die Abmessungen der Zellen einem Quadrat von 10×10 Zentimetern (cm) auf der Bodenfläche zugeordnet sein. Eine „Intensität“ einer Zelle kann durch einen numerischen Wert angegeben werden, z. B. in Prozent, der einen physikalischen Messwert einer Helligkeit eines durch die jeweilige Zelle abgedeckten Gebiets wiedergibt. In einem Beispiel gibt eine Intensität von 0 (null) % einen dunklen Punkt an und handelt es sich bei einer Intensität von 100 % um eine helle Zelle auf der Intensitätskarte 300. Zusätzlich kann eine Intensitätskarte 300 einen Standardabweichungswert für jede Zelle der Karte beinhalten. Die Intensitätskarte (oder die erste Intensitätskarte) 300 kann ein Gebiet beinhalten, das im Wesentlichen einem Erfassungsbereich, z.B. 30 Metern (m) des LIDAR-Sensors 230 des Fahrzeugs 180, z. B. einem rechteckigen, kreisförmigen usw. Gebiet um das Fahrzeug 180, entspricht. Wie vorstehend erörtert, kann der Computer 210 3D-Daten von dem LIDAR-Sensor 230 empfangen. Daher kann der Computer 210 dazu programmiert sein, die 2D-Intensitätskarte 300 auf Grundlage der empfangenen 3D-Daten des LIDAR-Sensors 230 zu generieren. Beispielsweise kann der Computer 210 dazu programmiert sein, die 2D-Intensitätskarte 300 auf Grundlage von Punktwolkendaten des LIDAR-Sensors 230 für eine Bodenfläche und/oder jeden beliebigen Punkt, der sich im Wesentlichen nahe der Bodenfläche, z. B. innerhalb von 30 cm von der Bodenfläche, befindet, zu generieren. Somit kann die Intensitätskarte 300 mit einer 2D-Intensitätskarte 400 verglichen werden, die anhand des Draufsichtbilds auf das Gebiet 100 generiert wird, wie nachstehend erläutert.
  • Unter Bezugnahme auf 4 kann der Computer 210 dazu programmiert sein, eine Intensitätskarte 400 auf Grundlage des empfangenen Graustufenbilds eines Gebiets 100 zu generieren. Der Computer 210 kann dazu programmiert sein, die Intensitätskarte 400 durch Anwenden eines Bildfilters auf das Graustufenbild zu generieren. In einem Beispiel berechnet der Computer 210 einen Intensitätswert und/oder eine Standardabweichung für jedes Pixel des Graustufenbilds. In einem anderen Beispiel kann der Computer 210 ein Farbbild des Gebiets 100 empfangen. Daher kann der Computer 210 dazu programmiert sein, eine Intensitätskarte 400 anhand der empfangenen Farbbilddaten zu generieren. In einem Beispiel, das in 4 gezeigt ist, kann der Computer 210 dazu programmiert sein, eine Intensitätskarte 400 zu generieren, die im Wesentlichen einem Gebiet der Zone 110 entspricht, wie vorstehend erörtert. In einem Beispiel kann der Computer 210 dazu programmiert sein, die Zone 110 auf Grundlage von Daten identifizieren, die von einem Positionssensor 230 des Fahrzeugs 180, z. B. dem GPS-Sensor 230, und/oder anhand einer Koppelnavigationstechnik empfangen werden. Demnach kann der Computer 210 dazu programmiert sein, die Begrenzungen der Zone 110 auf Grundlage empfangener Näherungspositionskoordinaten zu identifizieren. Beispielsweise kann der GPS-Sensor 230 eine vorher festgelegte Ungenauigkeit von 50 Metern aufweisen, d. h. die durch den GPS-Sensor 230 bestimmten Breiten- und/oder Längenkoordinaten können um bis zu 50 Meter von einer tatsächlichen Positionskoordinate des Fahrzeugs 180 abweichen. In einem Beispiel kann der Computer 210 auf Grundlage einer vorher festgelegten Ungenauigkeit der Daten des Positionssensors 230 dazu programmiert sein, eine Zone 110 aus dem empfangenen Graustufenbild zu identifizieren und die zweite Intensitätskarte 400 auf Grundlage der ausgewählten Zone 110 zu generieren. Bei einer Bewegung des Fahrzeugs 180 kann sich ein in der zweiten Intensitätskarte 400 enthaltenes Gebiet ändern. Der Computer 210 kann dazu programmiert sein, dass er iterativ, z. B. alle 15 Millisekunden (ms), eine zweite Intensitätskarte 400 zu generieren, welche die Zone 110, z. B. ein rechteckiges Gebiet mit um die geschätzte Position des Fahrzeugs 180, die z. B. von dem Positionssensor 230 des Fahrzeugs 180 empfangen wird, zentrierten Abmessungen, beinhaltet. In einem Beispiel kann die Zone 110 eine Fläche von 500×500 Metern (m) aufweisen. Die Abmessungen können auf einer vorher festgelegten Ungenauigkeit, z. B. 50 Metern, des Positionssensors 230 des Fahrzeugs 180 beruhen, z.B. das Zehnfache der Ungenauigkeit des Positionssensors 230 betragen. Somit kann selbst unter Berücksichtigung ungenauer Daten des Positionssensors 230 des Fahrzeugs 180, der Koppelnavigation usw. erwartet werden, dass sich das Fahrzeug 180 tatsächlich innerhalb der Zone 110 befindet.
  • Der Computer 210 kann dazu programmiert sein, anhand der LIDAR-Daten eine erste Intensitätskarte 300 eines Gebiets um ein Fahrzeug, z. B. der Zone 110, zu generieren, und kann eine Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte 300 mit einem Graustufen-Satellitenbild von z. B. einem Gebiet 100, das zumindest die Zone 110 abdeckt, schätzen. Der Computer 210 kann dazu programmiert sein, eine zweite Intensitätskarte 400, wie in 4 gezeigt, auf Grundlage des Graustufenbilds, wie in 1 gezeigt, zu generieren und die Position des Fahrzeugs 180 zumindest teilweise auf Grundlage der zweiten Intensitätskarte 400 zu schätzen.
  • Der Computer 210 kann dazu programmiert sein, die erste Intensitätskarte 300 mit dem Graustufenbild zu vergleichen, indem ein Abschnitt 410e des Graustufenbilds mit der besten Übereinstimmung identifiziert wird. Diese Identifizierung kann durch Vergleichen jeder einer Vielzahl von Regionen (oder Abschnitten) 410a-410i der zweiten Intensitätskarte 400 mit der ersten Intensitätskarte 300 erfolgen. Der Computer 210 kann dazu programmiert sein, eine zweite Intensitätskarte 400 zu generieren, die mindestens die Zone 110 beinhaltet. Die in 4 gezeigten Abschnitte 410a bis 410i dienen Veranschaulichungszwecken; die Zone 110 kann in eine beliebige Anzahl von Abschnitten unterteilt sein. In einem Beispiel können die Abmessungen jedes Abschnitts den Abmessungen der ersten Intensitätskarte 300 entsprechen. In einem anderen Beispiel kann, wie nachstehend erörtert, die erste Intensitätskarte 300 über die zweite Intensitätskarte 400 gezogen (oder bewegt) werden, um einen Abschnitt mit der besten Übereinstimmung zu identifizieren. Im vorliegenden Kontext bedeutet „Ziehen“ oder „Bewegen“ der ersten Intensitätskarte 300, dass Abschnitt für Abschnitt jeder Abschnitt der zweiten Intensitätskarte 400 mit der ersten Intensitätskarte 300 verglichen wird, um den Abschnitt mit der besten Übereinstimmung zu identifizieren. Ein „Abschnitt“ der Intensitätskarte 400 muss nicht vorher festgelegt oder vorgegeben sein, sondern kann vielmehr bestimmt werden, um einen Abschnitt (oder einen Teil oder ein Gebiet) der Karte 400 bereitzustellen, der für eine Technik geeignet ist, die zum Ziehen der Karte 300 über die Karte 400 verwendet wird. Demnach kann die erste Intensitätskarte 300 in inkrementellen Längs-, Quer- und/oder Drehschritten bewegt werden, um den Abschnitt der zweiten Intensitätskarte 400 mit der besten Übereinstimmung zu identifizieren.
  • Im vorliegenden Kontext bedeutet „beste Übereinstimmung“, dass eine maximale Ähnlichkeit oder eine minimale Differenz Diff zwischen der ersten Intensitätskarte 300 und einem jeweiligen Abschnitt 410a- 410i in der zweiten Intensitätskarte 400 besteht. In einem Beispiel kann der Computer 210 dazu programmiert sein, einen Abschnitt 410e mit der besten Übereinstimmung zu identifizieren, wenn auf der Grundlage von Operation (1) bestimmt wird, dass eine Differenz Diff zwischen der ersten Intensitätskarte 300 und dem Abschnitt 410e in der zweiten Intensitätskarte 400 verglichen mit einer Differenz zwischen der ersten Intensitätskarte 300 und jedem beliebigen anderen Gebiet der zweiten Intensitätskarte 400 minimal ist. D i f f = x = 1 n y = 1 m I 2 ( x + x 0 , y + y 0 ) l 1 ( x , y )
    Figure DE102019110528A1_0001
  • Die erste Intensitätskarte 300 kann die Abmessungen n und m aufweisen. Die Parameter n, m geben die Längs- und Querdimensionen der ersten Intensitätskarte 300 wieder. Positionskoordinaten x, y können Koordinaten in einem kartesischen zweidimensionalen Koordinatensystem wiedergeben. Positionskoordinaten von Pixeln oder Zellen in der ersten Intensitätskarte 300 können auf einem Bezugspunkt in der ersten Intensitätskarte 300 beruhen, z. B. einer unteren linken Ecke des Abschnitts 410e, sodass sich der Bezugspunkt infolge einer Bewegung des Fahrzeugs 180 bewegen kann. Ein Bezugspunkt der zweiten Intensitätskarte 400 kann jedoch ein Pixel oder eine Zelle der zweiten Intensitätskarte 400 sein, bei dem/der es sich um einen festen Punkt auf der Bodenfläche handelt. Die Positionskoordinaten x0, y0 können die Position des Bezugspunkts der ersten Intensitätskarte 300 relativ zu dem Bezugspunkt der zweiten Intensitätskarte 400 darstellen. Ein Parameter I2(x+x0, y+y0) gibt eine Intensität eines Pixels (oder einer Zelle) der zweiten Intensitätskarte 400 wieder, wohingegen I1(x, y) eine Intensität eines Pixels oder einer Zelle der ersten Intensitätskarte 300 wiedergibt. Demnach geben x und y die Koordinaten eines Punkts in dem Koordinatensystem der ersten Intensitätskarte 300 wieder. Der Computer 210 kann dazu programmiert sein, durch Ändern der Koordinaten des Bezugspunkts x0, y0 in der zweiten Intensitätskarte 400 das gesamte Gebiet der zweiten Intensitätskarte 400 abzutasten. Eine Abtast-Bewegung kann eine Kombination aus Längs-, Quer-, Diagonal- und/oder Drehbewegungen der ersten Intensitätskarte 300 über der zweiten Intensitätskarte 400 beinhalten. Beispielsweise kann ein Längsabtasten ein Bewegen des Bezugspunkts x0, y0 zu x0+10 cm, y0 beinhalten. Ein Querabtasten kann ein Bewegen des Bezugspunkts x0, y0 zu x0, y0+10 cm beinhalten. Ein Diagonalabtasten kann ein Bewegen des Bezugspunkts x0, y0 zu x0+10 cm, y0+10 cm beinhalten. Hierbei ist anzumerken, dass 4 der Einfachheit halber die Abschnitte 410a-410i als sich nicht überlagernd zeigt. Auf Grundlage des vorstehenden Beispiels für das Bewegen des Bezugspunkts x0, y0 der ersten Intensitätskarte 300 in kleinen Schritten, z. B. um 10 cm, versteht es sich, dass die Abschnitte 410a-410i üblicherweise sich überlagernde Teilbereiche beinhalten. Der Computer 210 kann dazu programmiert sein, den Abschnitt mit der besten Übereinstimmung zu identifizieren, wenn eine minimale Differenz Diff identifiziert wird. Zusätzlich oder alternativ kann der Computer 210 dazu programmiert sein, das Gebiet der zweiten Intensitätskarte 400 mit der besten Übereinstimmung unter Verwendung einer beliebigen anderen Technik, z. B. Korrelationsberechnungstechniken usw., zu identifizieren. Zusätzlich oder alternativ kann, wenngleich dies in 4 nicht gezeigt ist, der Computer 210 dazu programmiert sein, die erste Intensitätskarte 300 zu drehen, um den Abschnitt mit der besten Übereinstimmung zu identifizieren. Die erste Intensitätskarte 300 wird auf Grundlage von LIDAR-Daten generiert, die von dem LIDAR-Sensor 230 des Fahrzeugs 180 empfangen werden. Demnach kann sich ein in der ersten Intensitätskarte 300 beinhaltetes Gebiet auf Grundlage einer Position, die z. B. auf Grundlage von Daten des Positionssensors 230, Koppelnavigation usw. bestimmt wird, und einer Fahrtrichtung hd des Fahrzeugs 180 ändern. Bei einer Fahrtrichtung hd des Fahrzeugs 180 handelt es sich um einen zweidimensionaler Vektor, der in eine aktuelle Richtung der Bewegung des Fahrzeugs 180 zeigt. Die Fahrtrichtung hd des Fahrzeugs 180 kann auf Grundlage von Daten bestimmt werden, die vom Positionssensor 230 des Fahrzeugs 180 und/oder anhand von Koppelnavigation empfangen werden.
  • Der Computer 210 kann dazu programmiert sein, auf Grundlage des identifizierten Abschnitts 410e mit der besten Übereinstimmung die Fahrzeugposition zu schätzen. Der Computer 210 kann dazu programmiert sein, die Position des Fahrzeugs 180 auf Grundlage der Region mit der besten Übereinstimmung, z. B. der Positionskoordinaten x0, y0, zu bestimmen. In einem Beispiel kann der Computer 210 die erste Intensitätskarte 300 so generieren, dass sich das Fahrzeug 180 in einer Mitte der ersten Intensitätskarte 300 befindet. Demnach kann der Computer 210 dazu programmiert sein, die Positionskoordinaten x0+n/2, y0+m/2 des Fahrzeugs 180 auf Grundlage der identifizierten Positionskoordinaten der Region mit der besten Übereinstimmung und der vorher festgelegten Abmessungen n,m der ersten Intensitätskarte 300 zu bestimmen.
  • Unter Bezugnahme auf 4 ändert sich die Fahrzeugfahrtrichtung hd auf Grundlage der Bewegungen des Fahrzeugs 180, z. B. auf den Straßen 130 usw. Der Computer 210 kann dazu programmiert sein, auf Grundlage des identifizierten Abschnitts 410e mit der besten Übereinstimmung die Fahrzeugposition und eine Fahrzeugfahrtrichtung hd zu schätzen. In einem Beispiel kann der Computer 210 dazu programmiert sein, die Fahrtrichtung hd des Fahrzeugs 180 auf Grundlage der Positionskoordinaten x0, y0 und einem Drehwinkel α der ersten Intensitätskarte 300 bis zur Übereinstimmung mit der zweiten Intensitätskarte 300 zu bestimmen. In einem Beispiel kann der Computer 210 dazu programmiert sein, die erste Intensitätskarte 300 so zu generieren, dass das Fahrzeug 180 eine Richtung von 0 (null) Grad zum Bezugspunkt der ersten Intensitätskarte 300 aufweist. Dies kann auf eine symmetrische Datensammlung von dem LIDAR-Sensor 230 zurückzuführen sein. In einem Beispiel kann in der ersten Intensitätskarte 300 eine Fahrtrichtung hd des Fahrzeugs 180 immer in eine bestimmte Richtung zeigen, da die Karte 300 auf Grundlage von Daten generiert wird, die von dem LIDAR-Sensor 230 empfangen werden, der an dem Fahrzeug 180 montiert ist. Der Computer 210 kann dazu programmiert sein, eine Fahrtrichtung hd von 5 Grad zu bestimmen, wenn bestimmt wird, dass die erste Intensitätskarte 300 um 5 Grad gedreht wird, um die beste Übereinstimmung mit der zweiten Intensitätskarte 400 zu identifizieren (wie im Detail unter Bezugnahme auf die 5A-5C erörtert).
  • Der Computer 210 kann dazu programmiert sein, die Position des Fahrzeugs 180 zumindest teilweise auf Grundlage der zuletzt bestimmten Position (auch als Koppelnavigation bekannt) und/oder auf Grundlage von Positionsdaten, die von einem Positionssensor des Fahrzeugs 180, wie etwa einem Sensor 230 eines globalen Positionsbestimmungssystems (GPS), empfangen werden, zu bestimmen. Der Computer 210 kann dazu programmiert sein, mehrere im Vergleich zu einer letzten Fahrtrichtung hd des Fahrzeugs 180 gedrehte erste Intensitätskarten 300 zu generieren, wie in den 5A-5C gezeigt, und den Abschnitt mit der besten Übereinstimmung auf Grundlage eines Vergleichs der gedrehten ersten Intensitätskarten 300 mit der zweiten Intensitätskarte 400 zu bestimmen. Demnach kann der Computer 210 dazu programmiert sein, die Fahrtrichtung hd des Fahrzeugs 180 (wie nachstehend im Detail erörtert) auf Grundlage des bestimmten Abschnitts mit der besten Übereinstimmung zu schätzen.
  • Der Computer 210 kann dazu programmiert sein, die Position des Fahrzeugs 180 auf Grundlage einer zuletzt geschätzten Position des Fahrzeugs 180, eines oder mehrerer physikalischer Attribute des Fahrzeugs 180, einschließlich einer Geschwindigkeit des Fahrzeugs 180, einer Fahrtrichtung hd des Fahrzeugs 180 und eines identifizierten übereinstimmenden Abschnitts der zweiten Intensitätskarte 400 zu schätzen. In einem Beispiel kann der Computer 210 unter Bezugnahme auf die 5A-5C dazu programmiert sein, eine erste Intensitätskarte (d. h. gleiche Fahrtrichtung hd wie eine zuletzt bestimmte Fahrtrichtung hd des Fahrzeugs 180), eine nach rechts gedrehte erste Intensitätskarte (α Grad nach rechts) und eine nach links gedrehte erste Intensitätskarte (α Grad nach links) zu generieren.
  • In einem Beispiel kann der Computer 210 dazu programmiert sein, einen Drehwinkel α auf Grundlage eines physikalischen Attributs des Fahrzeugs 180, wie etwa Gierrate, Lenkwinkel, Geschwindigkeit, Abtastrate der Intensitätskarte 300 usw., zu bestimmen. Beispielsweise kann der Computer 210 bei einer Abtastrate für die Intensitätskarte 300 von 15 ms (d. h. Empfangen einer aktualisierten ersten Intensitätskarte 300 alle 15 ms) dazu programmiert sein, eine mögliche Änderung einer Fahrtrichtung α, z. B. um 1 Grad, innerhalb der letzten 15 ms ferner auf Grundlage der Gierrate, Geschwindigkeit usw. des Fahrzeugs 180 zu bestimmen.
  • Die 5A-5C zeigen Vergleichsergebnisse 510, 520, 530 der gedrehten Intensitätskarten gegenüber der zweiten Intensitätskarte 400. Die Vergleichsergebnisse 510, 520, 530 zeigen Pixel für Pixel Vergleichsergebnisse der ersten Intensitätskarte 300 mit einem jeweiligen Vergleichsabschnitt der zweiten Intensitätskarte 400. In dem vorliegenden Beispiel weist eine dunklere Schattierung auf eine geringere Differenz zwischen den sich überlagernden Pixeln der gedrehten ersten Intensitätskarte 300 und der zweiten Intensitätskarte 400 hin. Beispielsweise kann der Computer 210 unter Bezugnahme auf die 5A-5B bestimmen, dass sich die Fahrtrichtung hd des Fahrzeugs 180 seit der letzten bekannten Position und/oder Fahrtrichtung hd nicht verändert hat, da der Vergleich 520 eine dunklere Schattierung zeigt, oder, anders ausgedrückt, der dem Vergleich 520 zugeordnete Wert der Differenz Diff geringer ist als die bestimmten Differenzen Diff für die Rechts- und Linksdrehvergleiche 510, 530.
  • Zusätzlich oder alternativ kann der Computer 210 dazu programmiert sein, die Position des Fahrzeugs 180 auf Grundlage der Intensitätskarten 300, 400 und der physikalischen Attribute des Fahrzeugs 180 auf Grundlage eines Schätzalgorithmus zu schätzen, wie etwa eines Kalman-Filters, eines Mittelwertfilters, eines Partikelfilters usw. Im vorliegenden Beispiel wird ein Kalman-Filter verwendet. Der Computer 210 kann dazu programmiert sein, eine erste Fahrtrichtung hd des Fahrzeugs 180 auf Grundlage der ersten Intensitätskarte 300 und des Abschnitts der zweiten Intensitätskarte 400 mit der besten Übereinstimmung zu schätzen und die Fahrtrichtung hd des Fahrzeugs 180 zumindest teilweise auf Grundlage der ersten Fahrtrichtung hd und des einen oder der mehreren physikalischen Attribute des Fahrzeugs 180 zu schätzen.
  • Der Computer 210 kann dazu programmiert sein, einen Zustand des Fahrzeugs 180, einschließlich der Längen- und Breitenpositionskoordinaten X und Y der Position und der Fahrtrichtung hd des Fahrzeugs 180, zu schätzen. Der Zustand des Fahrzeugs 180 kann mithilfe einer 3 × 1-Matrix [X, Y, H] wiedergegeben werden. Im Kontext einer Kalman-Filtertechnik kann eine Kovarianz P des Zustands des Fahrzeugs 180 als eine 3×3-Matrix angegeben werden, wie sie in Operation (2) gezeigt ist. P = [ x x x y x h y x y y y h h x h y h h ]
    Figure DE102019110528A1_0002
  • Der Computer 210 kann dazu programmiert sein, einen nächsten Zustand des Fahrzeugs 180 unter Verwendung der Operationen (3) und (4) vorherzusagen. Der Parameter K ist ein Index, der bei Empfang einer neuen ersten Intensitätskarte 300 um eins zunimmt. Ein Zeitraum dt zwischen jeweils zwei aufeinanderfolgend empfangenen Intensitätskarten 300 kann konstant sein, z.B. 15 ms betragen. Eine Zustandsübergangsmatrix F kann auf Grundlage des dynamischen Modells des Fahrzeugs 180 bestimmt werden. Die Zustandsübergangsmatrix F kann die Beziehung der im Zustand des Fahrzeugs 180 beinhalteten Variablen und Ableitungen der Variablen beschreiben. In einem vereinfachten Beispiel kann F eine Identitätsmatrix sein, d. h. eine quadratische Matrix, in der alle Elemente einer Hauptdiagonale Einsen sind und alle anderen Elemente Nullen sind. Das Multiplizieren einer Matrix mit einer Identitätsmatrix bewirkt, dass die jeweilige Matrix unverändert bleibt. Eine Matrix Q gibt ein Rauschen wieder, das auf Grundlage der physikalischen Attribute des Fahrzeugs 180 bestimmt werden kann. Beispielsweise zeigt Matrix (5) einen beispielhaften Wertesatz für Q. X ' k = F k 1 X k 1
    Figure DE102019110528A1_0003
    P ' k = F k 1 P k 1 F T k 1 + Q k 1
    Figure DE102019110528A1_0004
    Q = [ 4.376313 e 02,12.578877 e 03,4.443704 e 03,2.000000 e 03,2.000000 e                        03,2.000000 e 03,9.999414 e 01,9.848537 e 01,5.5887401 e 03 ]
    Figure DE102019110528A1_0005
  • Nun unter Bezugnahme auf die Ergebnisse des Abschnitts mit der besten Übereinstimmung, kann der Computer 210 dazu programmiert sein, den Zustand des Fahrzeugs 180 ferner auf Grundlage des Abschnitts mit der besten Übereinstimmung vorherzusagen. Anders ausgedrückt kann der Computer 210 dazu programmiert sein, eine Genauigkeit der Positionsbestimmung des Fahrzeugs 180 dadurch zu verbessern, dass er das Ergebnis der Intensitätskarten 300, 400 mit der besten Übereinstimmung mit den physikalischen Attributen des Fahrzeugs 180 und der letzten bekannten Position und/oder Fahrtrichtung hd des Fahrzeugs 180 kombiniert. Der Computer 210 kann dazu programmiert sein, die Position des Fahrzeugs 180 auf Grundlage der Operationen (6)-(8) zu bestimmen. Im vorliegenden Beispiel ist die Matrix K eine Kalman-Verstärkungsmatrix. Die Matrix H gibt eine Zuordnung des Sensorwerts, z. B. Daten des LIDAR-Sensors 230, zu einem Zustandsraum, d. h. auf Grundlage des vorstehend beschriebenen Zustands [X, Y, H], wieder. Die Matrix R gibt ein Rauschen des Sensors 230 wieder. In der Regel generiert jeder Sensor 230 Rauschen, das in den Daten des Sensors 230 beinhaltet ist. Im vorliegenden Beispiel ist die Matrix R eine Diagonalmatrix. Eine Diagonalmatrix ist eine Matrix, die nur in einer Matrixdiagonalen Nicht-Null-Elemente aufweist, d. h. von oben links (erste Reihe, erste Spalte) bis unten rechts (letzte Reihe, letzte Spalte). Operation 9 zeigt eine beispielhafte Matrix R, die im vorliegenden Kontext verwendet wird. Die Matrix Z ist die geschätzte Position des Fahrzeugs 180 auf Grundlage der ersten und der zweiten Intensitätskarte 300, 400, d. h. die auf Grundlage des identifizierten Abschnitts mit der besten Übereinstimmung geschätzte Position, wie vorstehend erörtert. K k = P ' k H T k ( H k P ' k H T k + R k ) 1
    Figure DE102019110528A1_0006
    X k = X ' k + K k ( Z k + K k X ' k )
    Figure DE102019110528A1_0007
    P k = ( l K k H k ) P ' k ( i K k H k ) T + K k R k K T k
    Figure DE102019110528A1_0008
    R = [ 0.25 0 0 0 0.25 0 0 0 0.25 ]
    Figure DE102019110528A1_0009
  • VERARBEITUNG
  • 6 ist ein Ablaufdiagramm eines beispielhaften Prozesses 600 zum Bestimmen einer Position des Fahrzeugs 180 und zum Navigieren des Fahrzeugs 180 zu einem Ziel. Der Computer 210 des Fahrzeugs 180 kann dazu programmiert sein, Blöcke des Prozesses 600 auszuführen.
  • Der Prozess 600 beginnt bei einem Block 610, bei dem der Computer 210 Draufsichtbilddaten empfängt, z. B. Satellitenbilddaten eines Gebiets 100, wie in 1 gezeigt.
  • Als Nächstes empfängt der Computer 210 bei einem Block 620 Daten der Sensoren 230 des Fahrzeugs 180. Der Computer 210 kann dazu programmiert sein, Daten von dem LIDAR-Sensor 230 zu empfangen. Zusätzlich kann der Computer 210 dazu programmiert sein, physikalische Attribute des Fahrzeugs 180, wie etwa Geschwindigkeit, Beschleunigung, Gierrate, Lenkwinkel usw., von den Sensoren 230 des Fahrzeugs 180 zu empfangen.
  • Als Nächstes generiert der Computer 210 bei einem Block 630 eine erste Intensitätskarte 300 anhand der empfangenen Daten des LIDAR-Sensors 230 und eine zweite Intensitätskarte 400 anhand der empfangenen Draufsichtbilddaten. Der Computer 210 kann dazu programmiert sein, z. B. auf Grundlage von Koppelnavigation, der Daten des GPS-Sensors 230 usw., die zweite Intensitätskarte 400 zu generieren, welche die aktuelle Position des Fahrzeugs 180 beinhaltet.
  • Als nächstes identifiziert der Computer 210 bei einem Block 640 einen Abschnitt mit der besten Übereinstimmung in der zweiten Intensitätskarte 400. Der Computer 210 kann dazu programmiert sein, z. B. einen Abschnitt 410e mit der besten Übereinstimmung in der zweiten Intensitätskarte 400 zu identifizieren, der eine minimale Differenz Diff in Bezug auf die erste Intensitätskarte 300 aufweist. Der Computer 210 kann dazu programmiert sein, die erste Intensitätskarte 300 über die zweite Intensitätskarte 400 zu bewegen, um einen Abschnitt 410e bester Übereinstimmung mit einer minimalen Differenz Diff zu identifizieren.
  • Als Nächstes schätzt der Computer 210 bei einem Block 650 die Position des Fahrzeugs 180 auf Grundlage des identifizierten Abschnitts 410e mit der besten Übereinstimmung. Der Computer 210 kann dazu programmiert sein, die Position des Fahrzeugs 180 auf Grundlage der identifizierten Positionskoordinaten x0, y0 und einer vorher festgelegten Position des Fahrzeugs 180 relativ zu dem Bezugspunkt der ersten Intensitätskarte 300 zu schätzen, wie vorstehend erörtert.
  • Als Nächstes bestimmt der Computer 210 bei einem Block 660 die Position des Fahrzeugs 180 auf Grundlage der Position, die auf Grundlage des Abschnitts 416e mit der besten Übereinstimmung geschätzt wurde, und der von den Sensoren 230 empfangenen physikalischen Attribute des Fahrzeugs 180. Als ein Beispiel kann der Computer 210 dazu programmiert sein, die Position unter Verwendung einer Kalman-Filtertechnik zu bestimmen, wie vorstehend erörtert. Somit kann der Computer 210 dazu programmiert sein, Positionskoordinaten für das Fahrzeug 180 zu bestimmen, die genauer als die Positionskoordinationschätzwerte auf Grundlage des Abschnitts 416e mit der besten Übereinstimmung sind.
  • Als Nächstes navigiert der Computer 210 bei einem Block 670 das Fahrzeug 180 durch Betätigen der Antriebs-, Lenk- und/oder Bremsaktoren 220 des Fahrzeugs 180. Der Computer 210 kann dazu programmiert sein, eine Route des Fahrzeugs 180 auf Grundlage der empfangenen Zieldaten und der bestimmten Position des Fahrzeugs 180, z. B. der Ausgabe des Blocks 660, zu planen. Der Computer 210 kann dazu programmiert sein, die Route unter Verwendung bekannter Navigationstechniken für das Fahrzeug 180 zu identifizieren.
  • Nach dem Block 670 endet der Prozess 600 oder kehrt alternativ zu Block 610 zurück, auch wenn dies in 6 nicht gezeigt ist.
  • Rechenvorrichtungen, wie sie in dieser Schrift erörtert wurden, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend identifizierten, und zum Ausführen vorstehend beschriebener Blöcke oder Schritte von Prozessen ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -technologien erstellt wurden, einschließlich unter anderem, entweder allein oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er ein oder mehrere Prozesse durchführt, einschließlich eines oder mehrerer der hier beschriebenen Prozesse. Derartige Anweisungen und andere Daten können unter Verwendung vielfältiger computerlesbarer Medien gespeichert und übertragen werden. Eine Datei in der Rechenvorrichtung ist allgemein eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert sind.
  • Ein computerlesbares Medium beinhaltet jedes beliebige Medium, das am Bereitstellen von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer gelesen werden können. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien, flüchtiger Medien usw. Nichtflüchtige Medien beinhalten beispielsweise optische oder magnetische Platten und andere Dauerspeicher. Flüchtige Medien beinhalten einen dynamischen Direktzugriffsspeicher (dynamic random access memory - DRAM), der üblicherweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten beispielsweise eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das von einem Rechner ausgelesen werden kann.
  • Hinsichtlich der hierin beschriebenen Medien, Prozesse, Systeme, Verfahren usw. versteht es sich, dass die Schritte derartiger Prozesse usw. zwar als gemäß einer bestimmten Abfolge erfolgend beschrieben worden sind, derartige Prozesse jedoch durchgeführt werden könnten, wobei die beschriebenen Schritte in einer anderen Reihenfolge durchgeführt werden als der hierin beschriebenen Reihenfolge. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig ausgeführt, andere Schritte hinzugefügt oder bestimmte vorliegend beschriebene Schritte weggelassen werden könnten. Mit anderen Worten dienen die Beschreibungen von Systemen und/oder Prozessen in der vorliegenden Schrift zum Zwecke der Veranschaulichung bestimmter Ausführungsformen und sollten keinesfalls so ausgelegt werden, dass sie den offenbarten Gegenstand einschränken.
  • Dementsprechend versteht es sich, dass die vorliegende Offenbarung, einschließlich der vorstehenden Beschreibung und der begleitenden Figuren und nachfolgenden Ansprüche, als veranschaulichend und nicht als einschränkend gedacht ist. Viele Ausführungsformen und Anwendungen, bei denen es sich nicht um die bereitgestellten Beispiele handelt, werden dem Fachmann beim Lesen der vorstehenden Beschreibung ersichtlich sein. Der Umfang der Erfindung sollte nicht unter Bezug auf die obige Beschreibung ermittelt werden, sondern stattdessen unter Bezug auf Ansprüche, die hier beigefügt sind und/oder in einer hierauf basierenden, nicht vorläufigen Patentanmeldung enthalten sind, gemeinsam mit dem vollständigen Umfang von Äquivalenten, zu welchen derartige Ansprüche berechtigen. Es wird erwartet und ist beabsichtigt, dass es hinsichtlich der in der vorliegenden Schrift erläuterten Techniken künftige Entwicklungen geben wird und dass die offenbarten Systeme und Verfahren in solche künftigen Ausführungsformen aufgenommen werden. Insgesamt versteht es sich, dass der offenbarte Gegenstand modifiziert und variiert werden kann.
  • Gemäß der vorliegenden Erfindung wird ein System bereitgestellt, das einen Prozessor und einen Speicher aufweist, wobei der Speicher Anweisungen speichert, die von dem Prozessor ausgeführt werden können, um: anhand von LIDAR-Daten eine erste Intensitätskarte eines Gebiets um ein Fahrzeug zu generieren; und eine Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte mit einem Graustufenbild von oben zu schätzen.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum Generieren einer zweiten Intensitätskarte auf Grundlage des Graustufenbilds und zum Schätzen der Fahrzeugposition zumindest teilweise auf Grundlage der zweiten Intensitätskarte.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen zum Vergleichen der ersten Intensitätskarte mit dem Graustufenbild weitere Anweisungen zum Identifizieren einer Region des Graustufenbildes mit der besten Übereinstimmung durch Vergleichen jeder einer Vielzahl von Regionen der zweiten Intensitätskarte mit der ersten Intensitätskarte.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum Schätzen der Fahrzeugposition und einer Fahrzeugfahrtrichtung auf Grundlage des ermittelten Abschnitts mit der besten Übereinstimmung.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen zum Schätzen der Fahrzeugfahrtrichtung weitere Anweisungen zum Erzeugen einer Vielzahl gedrehter erster Intensitätskarten durch Drehen der ersten Intensitätskarte in einer Links- und einer Rechtsrichtung verglichen mit einer letzten Fahrtrichtung des Fahrzeugs und zum Bestimmen der besten Übereinstimmung auf Grundlage eines Vergleichs der gedrehten ersten Intensitätskarten mit der zweiten Intensitätskarte.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen zum Schätzen der Fahrzeugposition weitere Anweisungen zum Bestimmen der Vielzahl von Abschnitten auf Grundlage einer zuletzt identifizierten Fahrzeugposition, zum Schätzen eines Punktwerts für jeden Abschnitt durch Vergleichen des entsprechenden Abschnitts mit der ersten Intensitätskarte und zum Identifizieren des Abschnitts mit der besten Übereinstimmung durch Auswählen des Abschnitts mit dem höchsten Punktwert.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum Schätzen der Fahrzeugposition auf Grundlage einer zuletzt geschätzten Fahrzeugposition, eines oder mehrerer physikalischer Attribute des Fahrzeugs, einschließlich mindestens einer von einer Fahrzeuggeschwindigkeit und einer Fahrzeugfahrtrichtung, und eines identifizierten übereinstimmenden Abschnitts der zweiten Intensitätskarte.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen weitere Anweisungen zum Schätzen einer ersten Fahrzeugfahrtrichtung auf Grundlage der ersten Intensitätskarte und des Abschnitts der zweiten Intensitätskarte mit der besten Übereinstimmung und zum Schätzen der Fahrzeugfahrtrichtung zumindest teilweise auf Grundlage der ersten Fahrzeugfahrtrichtung und des einen oder der mehreren physikalischen Attribute des Fahrzeugs.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren Folgendes: Generieren einer ersten Intensitätskarte eines Gebiets um ein Fahrzeug anhand von LIDAR-Daten; und Schätzen einer Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte mit einem Graustufenbild von oben.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem gekennzeichnet durch: Generieren einer zweiten Intensitätskarte auf Grundlage des Graustufenbilds; und Schätzen der Fahrzeugposition zumindest teilweise auf Grundlage der zweiten Intensitätskarte.
  • Gemäß einer Ausführungsform umfasst das Vergleichen der ersten Intensitätskarte mit dem Graustufenbild außerdem ein Identifizieren einer Region des Graustufenbilds mit der besten Übereinstimmung durch Vergleichen von jeder einer Vielzahl von Regionen der zweiten Intensitätskarte mit der ersten Intensitätskarte.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem gekennzeichnet durch ein Schätzen der Fahrzeugposition und einer Fahrzeugfahrtrichtung auf Grundlage des Abschnitts mit der besten Übereinstimmung.
  • Gemäß einer Ausführungsform umfasst das Schätzen der Fahrzeugfahrtrichtung außerdem Folgendes: Generieren einer Vielzahl gedrehter erster Intensitätskarten durch Drehen der ersten Intensitätskarte in einer Links- und einer Rechtsrichtung verglichen mit einer letzten Fahrtrichtung des Fahrzeugs; und Bestimmen der besten Übereinstimmung auf Grundlage eines Vergleichs der gedrehten ersten Intensitätskarten mit der zweiten Intensitätskarte.
  • Gemäß einer Ausführungsform umfasst das Schätzen der Fahrzeugposition außerdem Folgendes: Bestimmen der Vielzahl von Abschnitten auf Grundlage einer zuletzt identifizierten Fahrzeugposition; Schätzen eines Punktwerts für jeden Abschnitt durch Vergleichen des entsprechenden Abschnitts mit der ersten Intensitätskarte; und Identifizieren des Abschnitts mit der besten Übereinstimmung durch Auswählen des Abschnitts mit dem höchsten Punktwert.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem gekennzeichnet durch: Schätzen einer ersten Fahrzeugfahrtrichtung auf Grundlage der ersten Intensitätskarte und des Abschnitts der zweiten Intensitätskarte mit der besten Übereinstimmung; und Schätzen der Fahrzeugfahrtrichtung zumindest teilweise auf Grundlage der ersten Fahrzeugfahrtrichtung und des einen oder der mehreren physikalischen Attribute des Fahrzeugs.
  • Gemäß einer Ausführungsform ist die vorstehende Erfindung außerdem gekennzeichnet durch: Schätzen der Fahrzeugposition auf Grundlage einer zuletzt geschätzten Fahrzeugposition, eines oder mehrerer physikalischer Attribute des Fahrzeugs, einschließlich mindestens einer von einer Fahrzeuggeschwindigkeit und einer Fahrzeugfahrtrichtung, und eines identifizierten übereinstimmenden Abschnitts der zweiten Intensitätskarte.

Claims (11)

  1. Verfahren, umfassend: Generieren einer ersten Intensitätskarte eines Gebiets um ein Fahrzeug anhand von LIDAR-Daten, und Schätzen einer Fahrzeugposition auf Grundlage eines Vergleichs der ersten Intensitätskarte mit einem Graustufenbild von oben.
  2. Verfahren nach Anspruch 1, ferner umfassend: Generieren einer zweiten Intensitätskarte auf Grundlage des Graustufenbilds; und Schätzen der Fahrzeugposition zumindest teilweise auf Grundlage der zweiten Intensitätskarte.
  3. Verfahren nach Anspruch 1, wobei das Vergleichen der ersten Intensitätskarte mit dem Graustufenbild außerdem ein Identifizieren einer Region des Graustufenbilds mit der besten Übereinstimmung durch Vergleichen jeder aus einer Vielzahl von Regionen der zweiten Intensitätskarte mit der ersten Intensitätskarte umfasst.
  4. Verfahren nach Anspruch 3, ferner umfassend ein Schätzen der Fahrzeugposition und einer Fahrzeugfahrtrichtung auf Grundlage des identifizierten Abschnitts mit der besten Übereinstimmung.
  5. Verfahren nach Anspruch 4, wobei das Schätzen der Fahrzeugfahrtrichtung außerdem Folgendes umfasst: Generieren einer Vielzahl gedrehter erster Intensitätskarten durch Drehen der ersten Intensitätskarte in einer Links- und einer Rechtsrichtung im Vergleich zu einer letzten Fahrzeugfahrtrichtung; und Bestimmen der besten Übereinstimmung auf Grundlage eines Vergleichs der gedrehten ersten Intensitätskarten mit der zweiten Intensitätskarte.
  6. Verfahren nach Anspruch 3, wobei das Schätzen der Fahrzeugposition außerdem Folgendes umfasst: Bestimmen der Vielzahl von Abschnitten auf Grundlage einer zuletzt identifizierten F ahrzeugposi ti on; Schätzen eines Punktwerts für jeden Abschnitt durch Vergleichen des entsprechenden Abschnitts mit der ersten Intensitätskarte; und Identifizieren des Abschnitts mit der besten Übereinstimmung durch Auswählen des Abschnitts mit dem höchsten Punktwert.
  7. Verfahren nach Anspruch 3, ferner umfassend: Schätzen einer ersten Fahrzeugfahrtrichtung auf Grundlage der ersten Intensitätskarte und des Abschnitts der zweiten Intensitätskarte mit der besten Übereinstimmung; und Schätzen der Fahrzeugfahrtrichtung zumindest teilweise auf Grundlage der ersten Fahrzeugfahrtrichtung und des einen oder der mehreren physikalischen Attribute des Fahrzeugs.
  8. Verfahren nach Anspruch 1, ferner umfassend ein Schätzen der Fahrzeugposition auf der Grundlage einer zuletzt geschätzten Fahrzeugposition, eines oder mehrerer physikalischer Attribute des Fahrzeugs, einschließlich mindestens einer von einer Fahrzeuggeschwindigkeit und einer Fahrzeugfahrtrichtung, und eines identifizierten übereinstimmenden Abschnitts der zweiten Intensitätskarte.
  9. Rechenvorrichtung, die dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-8 auszuführen.
  10. Computerprogrammprodukt, umfassend ein computerlesbares Medium, das Anweisungen speichert, die durch einen Computerprozessor ausführbar sind, um das Verfahren nach einem der Ansprüche 1-8 auszuführen.
  11. Bodenfahrzeug, umfassend eine Rechenvorrichtung, die dazu programmiert ist, das Verfahren nach einem der Ansprüche 1-8 auszuführen.
DE102019110528.5A 2018-04-26 2019-04-23 Technik zur positionsbestimmung Pending DE102019110528A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/963,383 US11237269B2 (en) 2018-04-26 2018-04-26 Localization technique
US15/963,383 2018-04-26

Publications (1)

Publication Number Publication Date
DE102019110528A1 true DE102019110528A1 (de) 2019-10-31

Family

ID=68205653

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019110528.5A Pending DE102019110528A1 (de) 2018-04-26 2019-04-23 Technik zur positionsbestimmung

Country Status (3)

Country Link
US (1) US11237269B2 (de)
CN (1) CN110412615A (de)
DE (1) DE102019110528A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11726208B2 (en) * 2018-06-15 2023-08-15 Uatc, Llc Autonomous vehicle localization using a Lidar intensity map
CN109624972B (zh) * 2018-12-06 2020-06-09 北京百度网讯科技有限公司 车辆防止碰撞的方法、装置、设备及可读存储介质
EP3714285B1 (de) * 2019-01-30 2022-07-27 Baidu.com Times Technology (Beijing) Co., Ltd. Lidar-ortung mit rnn und lstm zur zeitlichen glättung in autonom fahrenden fahrzeugen
US10937202B2 (en) * 2019-07-22 2021-03-02 Scale AI, Inc. Intensity data visualization
DE102019216607A1 (de) * 2019-10-29 2021-04-29 Robert Bosch Gmbh Verfahren und Vorrichtung zum Bereitstellen von Radardaten
JP2022190766A (ja) 2021-06-15 2022-12-27 フォルシアクラリオン・エレクトロニクス株式会社 車両周辺情報表示装置、及び車両周辺情報表示方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1016001A3 (nl) 2004-04-30 2006-01-10 Egemin Nv Automatisch geleid voertuig met verbeterde navigatie.
AU2009211435A1 (en) * 2008-02-04 2009-08-13 Tele Atlas B.V. Method for map matching with sensor detected objects
US9194949B2 (en) 2011-10-20 2015-11-24 Robert Bosch Gmbh Methods and systems for precise vehicle localization using radar maps
US9115990B2 (en) * 2012-01-18 2015-08-25 Harris Corporation Geospatial and image data collection system including image sensor for capturing 3D geospatial data and 2D image data and related methods
WO2015156821A1 (en) 2014-04-11 2015-10-15 Nissan North America, Inc. Vehicle localization system
US10082797B2 (en) 2015-09-16 2018-09-25 Ford Global Technologies, Llc Vehicle radar perception and localization
CN105573320A (zh) 2015-12-30 2016-05-11 天津天瑞达自动化设备有限公司 自主物流机器人系统
DE102016009117A1 (de) 2016-07-27 2017-02-23 Daimler Ag Verfahren zur Lokalisierung eines Fahrzeugs
US10430968B2 (en) * 2017-03-14 2019-10-01 Ford Global Technologies, Llc Vehicle localization using cameras
US10108867B1 (en) * 2017-04-25 2018-10-23 Uber Technologies, Inc. Image-based pedestrian detection
US10670725B2 (en) * 2017-07-25 2020-06-02 Waymo Llc Determining yaw error from map data, lasers, and cameras

Also Published As

Publication number Publication date
US11237269B2 (en) 2022-02-01
US20190331497A1 (en) 2019-10-31
CN110412615A (zh) 2019-11-05

Similar Documents

Publication Publication Date Title
DE102019110528A1 (de) Technik zur positionsbestimmung
DE102019121140A1 (de) Sensorfusion
EP3482160B1 (de) Verfahren und system zur erzeugung von karteninformationen für notfallflächen
DE112014004990B4 (de) Verfahren zum Erzeugen exakter Fahrspurebenen-Karten
DE102019125303A1 (de) Reinigung des fahrzeugsensors
DE102015203016B4 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
DE102019100497A1 (de) Lidar-lokalisierung
DE102019108795A1 (de) Fahrzeugwegidentifikation
DE102019119162A1 (de) Posenschätzung
DE102019104716A1 (de) Lokalisierungstechnikauswahl
DE102014223363A1 (de) Verfahren und Vorrichtung zur Lokalisation eines Kraftfahrzeugs in einer ortsfesten Referenzkarte
DE102012208974A1 (de) System und Verfahren zum sensorbasierten Aufbauen eines Umgebungsmodells
DE102018130597A1 (de) 3d-kartierung mit hoher bildschärfe
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE112019004698T5 (de) Steuerungssystem für ein fahrzeug
DE102021103149A1 (de) Verfahren und vorrichtung zur bestimmung der optimalen kreuzungsspur in einem unterstützten fahrsystem
DE102017206433A1 (de) Automatikfahrtsteuerungssystem eines mobilen Objektes
DE112020000590T5 (de) Karte und verfahren zum erstellen einer karte
DE112021006299T5 (de) Verfahren und Systeme zur Bodensegmentierung mittels Graphenschnitten
DE102022128884A1 (de) Sensoroptimierung
DE102020100022A1 (de) Positionsbestimmungstechnik
DE102018218436A1 (de) Fahrzeugparkassistenz
DE102021206187A1 (de) System, Steuereinheit und Verfahren zur Bestimmung eines Geofencing-Ereignisses eines Fahrzeugs
DE102020126973A1 (de) Verfahren und system zur lokalisierten fahrspurwahrnehmung
DE102021124810A1 (de) Neuronales fahrzeugnetzwerk

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE