DE102020122752A1 - Sensorlokalisierung anhand externer quelldaten - Google Patents

Sensorlokalisierung anhand externer quelldaten Download PDF

Info

Publication number
DE102020122752A1
DE102020122752A1 DE102020122752.3A DE102020122752A DE102020122752A1 DE 102020122752 A1 DE102020122752 A1 DE 102020122752A1 DE 102020122752 A DE102020122752 A DE 102020122752A DE 102020122752 A1 DE102020122752 A1 DE 102020122752A1
Authority
DE
Germany
Prior art keywords
vehicle
location
data
sensor
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020122752.3A
Other languages
English (en)
Inventor
Juan Enrique Castorena Martinez
Mostafa Parchami
Codrin Cionca
Siddarth Agarwal
Gintaras Vincent Puskorius
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102020122752A1 publication Critical patent/DE102020122752A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/44Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for communication between vehicles and infrastructures, e.g. vehicle-to-cloud [V2C] or vehicle-to-home [V2H]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/367Details, e.g. road map scale, orientation, zooming, illumination, level of detail, scrolling of road map or positioning of current position marker
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/40Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P]
    • H04W4/46Services specially adapted for particular environments, situations or purposes for vehicles, e.g. vehicle-to-pedestrians [V2P] for vehicle-to-vehicle communication [V2V]

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Diese Offenbarung stellt die Sensorlokalisierung anhand externer Quelldaten bereit. Ein System beinhaltet einen Computer, der einen Prozessor und einen Speicher beinhaltet, in dem Anweisungen gespeichert sind, die durch den Prozessor ausgeführt werden können, um einen Standort und eine Ausrichtung eines Fahrzeugs auf einer Karte zu identifizieren. Die Anweisungen beinhalten Anweisungen zum Bestimmen eines Standortes eines Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, Daten von einem Fahrzeugsensor und Daten von dem Infrastruktursensor.

Description

  • GEBIET DER TECHNIK
  • Die Offenbarung betrifft im Allgemeinen Fahrzeugsensoren.
  • ALLGEMEINER STAND DER TECHNIK
  • Ein Fahrzeug kann in einem autonomen Modus, einem halbautonomen Modus oder einem nichtautonomen Modus betrieben werden. In dem autonomem Modus wird jedes von einem Antriebssystem, einem Bremssystem und einem Lenksystem durch einen Fahrzeugcomputer gesteuert; in einem teilautonomen Modus steuert der Fahrzeugcomputer eines oder zwei des Antriebssystems, des Bremssystems des Lenksystems; in einem nichtautonomen Modus steuert ein menschlicher Fahrzeugführer das Antriebssystem, das Bremssystem und das Lenksystem. Das Fahrzeug kann in dem autonomen Modus und dem halbautonomen Modus mindestens teilweise basierend auf Daten von einem Infrastruktursensor betrieben werden.
  • KURZDARSTELLUNG
  • Ein System beinhaltet einen Computer, der einen Prozessor und einen Speicher beinhaltet, in dem Anweisungen gespeichert sind, die durch den Prozessor ausgeführt werden können, um einen Standort und eine Ausrichtung eines Fahrzeugs auf einer Karte zu identifizieren. Die Anweisungen beinhalten Anweisungen zum Bestimmen eines Standortes eines Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, Daten von einem Fahrzeugsensor und Daten von dem Infrastruktursensor.
  • Die Anweisungen können ferner Anweisungen zum Identifizieren des Standortes und der Ausrichtung des Fahrzeugs basierend auf einem Standort eines Objekts auf der Karte und einem Standort des Objekts in Bezug zu dem Fahrzeug beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Identifizieren eines ersten Standortes eines Objekts auf der Karte basierend auf den Daten von dem Fahrzeugsensor, zum Identifizieren eines zweiten Standortes des Objekts in Bezug zu dem Infrastruktursensor basierend auf den Daten von dem Infrastruktursensor und zum Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Standort des Objekts beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Identifizieren einer ersten Ebene basierend auf den Daten von dem Fahrzeugsensor, zum Identifizieren einer zweiten Ebene basierend auf den Daten von dem Infrastruktursensor und zum Bestimmen des Standortes des Infrastruktursensors basierend auf der ersten und der zweiten Ebene beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Identifizieren eines ersten Vektors basierend auf den Daten von dem Fahrzeugsensor, zum Identifizieren eines zweiten Vektors basierend auf den Daten von dem Infrastruktursensor und zum Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Vektor beinhalten.
  • Die Daten von dem Fahrzeugsensor und die Daten von dem Infrastruktursensor können Punktwolkendaten beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Identifizieren eines zweiten Standortes und einer zweiten Ausrichtung des Fahrzeugs in Bezug zu der Karte, zum Sammeln von zweiten Daten von dem Fahrzeugsensor, während sich das Fahrzeug an dem zweiten Standort und in der zweiten Ausrichtung befindet, und zum Bestimmen des Standortes des Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor, dem zweiten Standort und der zweiten Ausrichtung des Fahrzeugs, den zweiten Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Bestimmen einer Ausrichtung des Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor beinhalten.
  • Der Computer kann von dem Fahrzeug und dem Infrastruktursensor entfernt sein, und die Anweisungen können ferner Anweisungen zum Speichern des Standortes des Infrastruktursensors auf der Karte in dem Speicher des Computers beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Speichern des Standortes des Infrastruktursensors auf der Karte in einem Speicher des Infrastruktursensors beinhalten.
  • Die Anweisungen können ferner Anweisungen zum Navigieren eines zweiten Fahrzeugs basierend auf dem Standort des Infrastruktursensors beinhalten.
  • Ein Verfahren beinhaltet das Identifizieren eines Standortes und einer Ausrichtung eines Fahrzeugs auf einer Karte. Das Verfahren beinhaltet das Bestimmen eines Standortes eines Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, Daten von einem Fahrzeugsensor und Daten von dem Infrastruktursensor.
  • Das Verfahren kann ferner das Identifizieren des Standortes und der Ausrichtung des Fahrzeugs basierend auf einem Standort eines Objekts auf der Karte und eines Standortes des Objekts in Bezug zu dem Fahrzeug beinhalten.
  • Das Verfahren kann ferner das Identifizieren eines ersten Standortes eines Objekts auf der Karte basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren eines zweiten Standortes des Objekts in Bezug zu dem Infrastruktursensor basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Standort des Objekts beinhalten.
  • Das Verfahren kann ferner das Identifizieren einer ersten Ebene basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren einer zweiten Ebene basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf der ersten und der zweiten Ebene beinhalten.
  • Das Verfahren kann ferner das Identifizieren eines ersten Vektors basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren eines zweiten Vektors basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Vektor beinhalten.
  • Die Daten von dem Fahrzeugsensor und die Daten von dem Infrastruktursensor können Punktwolkendaten beinhalten.
  • Das Verfahren kann ferner das Identifizieren eines zweiten Standortes und einer zweiten Ausrichtung des Fahrzeugs auf der Karte, das Sammeln von zweiten Daten von dem Fahrzeugsensor, während sich das Fahrzeug an dem zweiten Standort und in der zweiten Ausrichtung befindet, und das Bestimmen des Standortes des Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor, dem zweiten Standort und der zweiten Ausrichtung des Fahrzeugs, den zweiten Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor beinhalten.
  • Das Verfahren kann ferner das Bestimmen einer Ausrichtung des Infrastruktursensors in Bezug zu der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor beinhalten.
  • Das Verfahren kann ferner das Speichern des Standortes des Infrastruktursensors auf der Karte in einem Speicher des Infrastruktursensors beinhalten.
  • Das Verfahren kann ferner das Navigieren eines zweiten Fahrzeugs basierend auf dem Standort des Infrastruktursensors beinhalten.
  • Ein Computer kann einen Prozessor und einen Speicher aufweisen, auf dem Anweisungen gespeichert sind, die durch den Prozessor ausführbar sind, um das Verfahren durchzuführen.
  • Der Computer kann von dem Fahrzeug und dem Infrastruktursensor entfernt sein, und die Anweisungen können ferner Anweisungen zum Speichern des Standortes des Infrastruktursensors auf der Karte in dem Speicher des Computers beinhalten.
  • Auf einem computerlesbaren Medium können Anweisungen gespeichert sein, die durch einen Prozessor ausführbar sind, um das Verfahren durchzuführen.
  • Figurenliste
    • 1 ist ein Blockdiagramm von Komponenten eines Systems zum Bestimmen eines Standortes eines Infrastruktursensors auf einer Karte.
    • 2 ist eine Veranschaulichung einer Karte, die den Infrastruktursensor und ein Fahrzeug beinhaltet.
    • 3 ist eine Veranschaulichung von Daten, die durch einen Sensor des Fahrzeugs gesammelt werden und eine Punktwolke spezifizieren.
    • 4 ist eine Veranschaulichung von Daten, die durch den Infrastruktursensor gesammelt werden und eine Punktwolke spezifizieren.
    • 5 ist ein Ablaufdiagramm, das einen Prozess zum Steuern des Systems veranschaulicht.
  • DETAILLIERTE BESCHREIBUNG
  • Unter Bezugnahme auf die 1 und 2 stellt ein System 20 das Bestimmen eines Standortes eines Infrastruktursensors 22 auf einer Karte 26 bereit. Das System 20 beinhaltet einen Computer 34, 36 mit einem Prozessor und einem Speicher, auf dem Anweisungen gespeichert sind, die durch den Prozessor ausgeführt werden können, um einen Standort und eine Ausrichtung eines Fahrzeugs 24 auf der Karte 26 zu identifizieren. Die Anweisungen beinhalten Anweisungen zum Bestimmen eines Standortes des Infrastruktursensors 22 auf der Karte 26 basierend auf dem Standort und der Ausrichtung des Fahrzeugs 24, Daten von einem Sensor 28 des Fahrzeugs 24 und Daten von dem Infrastruktursensor 22.
  • Das System 20 ermöglicht, dass der Standort des Infrastruktursensors 22 auf der Karte 26 bestimmt wird, ohne dass es erforderlich ist, dass der Infrastruktursensor 22 spezifische Hardware, z. B. ein GPS-System, beinhaltet. Das Bestimmen des Standortes des Infrastruktursensors 22 auf der Karte 26 stellt bereit, dass Daten von dem Infrastruktursensor 22 verwendet werden, um einen Standort eines oder mehrerer Objekte, wie etwa Fahrzeuge, auf der Karte 26 zu identifizieren. Das Bestimmen des Standortes des Infrastruktursensors 22 auf der Karte 26 stellt zudem bereit, dass Daten von dem Infrastruktursensor 22 mit anderen Daten fusioniert werden, wie etwa Daten von anderen Infrastruktursensoren und/oder Fahrzeugen, z. B. zum Betreiben eines Fahrzeugs in einem autonomen Modus und/oder einen halbautonomen Modus.
  • Die Karte 26 ist in 2 als eine herkömmliche grafische Karte veranschaulicht, beinhaltet jedoch einen Datensatz, der in einem digitalen Format gespeichert werden kann, welcher als Kartendaten bezeichnet werden kann und physische Merkmale und Objekte 30, z. B. Straßen und/oder Straßensegmente (einschließlich Autobahnen, Straßen, Stadtstraßen usw.), Fahrspuren, Brücken, Gebäude, Infrastruktur, Schilder, Ampeln usw., an entsprechenden Standorten in einem definierten Bereich spezifiziert. Die Karte 26 kann Daten beinhalten, die Formen oder Grenzen der Objekte 30 spezifizieren. Die Formen können dreidimensional (3D) sein, z. B. können die Daten Höhen, Breiten und Tiefen von Flächen der Objekte 30 spezifizieren. Die Karte 26 kann Daten beinhalten, die Ausrichtungen (d. h. relative Positionen oder Richtungen in einem 3D-Koordinatensystem) der Objekte 30 auf der Karte 26 spezifizieren. Die Daten können Koordinaten der physischen Merkmale und Objekte 30 spezifizieren, z. B. Breiten- und Längengrad-Geokoordinaten, XYZ-Koordinaten in Bezug zu spezifizierten XYZ-Achsen mit einem spezifizierten Ursprung usw. Einige Koordinaten, z. B. XY-Koordinaten, können relativ zu einem Positionierungssystem (wie etwa als GPS), relativ zu einem bestimmten physischen Merkmal (wie etwa einer Straßenkreuzung oder einem anderen Objekt 30) oder relativ zu (einer) beliebigen anderen geeigneten Dateneinheit oder Daten zum Definieren von Standorten auf der Karte 26 sein. Die Daten der Karte 26 können auf Kartografiedokumenten, einer geografischen Übersicht, einer zuvor gespeicherten Karte (oder mindestens einem Teil davon) oder anderen Informationen basieren, die zum Spezifizieren von Standorten physischer Merkmale und Objekte 30 in einem definierten Bereich geeignet sind. Der Computer 34, 36 kann Kartendaten speichern, wie es herkömmlicherweise bekannt ist, z. B. zur Verwendung in einem Fahrzeugnavigationssystem 32 oder dergleichen.
  • Ein Standort auf der Karte 26 spezifiziert, wo sich ein physikalisches Merkmal oder Objekt 30 auf der Karte 26 befindet, z. B. spezifizierte XYZ-Koordinaten, GPS-Koordinaten, usw. Eine Ausrichtung auf der Karte 26 spezifiziert eine Blickrichtung einer spezifizierten Fläche des physischen Merkmal oder Objekts 30 auf der Karte 26, z. B. eine spezifizierte Kompasskursrichtung, einen Winkel in Bezug zu der X-, Y- und Z-Achse usw. Daten, die einen Standort und eine Ausrichtung eines physischen Merkmals oder Objekts 30 spezifizieren, können unabhängig von der Karte 26 gespeichert werden. Zum Beispiel können ein Standort und eine Ausrichtung des Infrastruktursensors 22 auf der Karte 26 im Speicher des Infrastruktursensors 22 gespeichert sein und die Karte 26 kann im Speicher eines Fahrzeugcomputers 34 und/oder eines Servercomputers 36 gespeichert sein.
  • Das System 20 kann ein Netzwerk 38 verwenden, um eine Kommunikation zwischen Komponenten des Systems 20 bereitzustellen. Das Netzwerk 38 (mitunter als das Weitverkehrsnetz 38 bezeichnet, da es Kommunikationen zwischen Vorrichtungen beinhalten kann, die geografisch voneinander entfernt sind, d. h. sich nicht in demselben Gebäude, Fahrzeug 24 usw. befinden) stellt einen oder mehrere Mechanismen dar, durch die entfernte Vorrichtungen, z. B. der Servercomputer 36, das Fahrzeugs 24, der Infrastruktursensor 22 usw., miteinander kommunizieren können. Dementsprechend kann es sich bei dem Netzwerk 38 um einen oder mehrere drahtgebundene oder drahtlose Kommunikationsmechanismen handeln, einschließlich jeder beliebigen gewünschten Kombination aus drahtgebundenen (z. B. Kabel und Glasfaser) und/oder drahtlosen (z. B. Mobilfunk, drahtlos, Satellit, Mikrowelle und Funkfrequenz) Kommunikationsmechanismen und jeder beliebigen gewünschten Netzwerktopologie (oder -topologien, wenn mehrere Kommunikationsmechanismen genutzt werden).
  • Bei dem Fahrzeug 24 kann es sich um eine beliebige Art von Personenkraftwagen oder Nutzkraftfahrzeug handeln, wie etwa ein Auto, einen Lastkraftwagen, eine Geländelimousine, ein Crossover-Fahrzeug, einen Van, einen Minivan, ein Taxi, einen Bus usw. Wenngleich als Personenkraftwagen veranschaulicht, kann das Fahrzeug 24 unbemannt sein, z. B. eine landbasierte oder Flugdrohne.
  • Das Fahrzeug 24 kann in einem autonomen Modus, einem halbautonomen Modus oder einem nichtautonomen Modus betrieben werden. Für die Zwecke dieser Offenbarung ist ein autonomer Modus als einer definiert, in dem jedes von einem Antriebssystem 40, einem Bremssystem 42 und einem Lenksystem 44 durch den Fahrzeugcomputer 34 gesteuert wird; in einem halbautonomen Modus steuert der Fahrzeugcomputer 34 eines oder zwei von dem Antriebssystem 40, dem Bremssystem 42 und dem Lenksystem 44; in einem nichtautonomen Modus steuert ein menschlicher Fahrzeugführer das Antriebssystem 40, das Bremssystem 42 und das Lenksystem 44.
  • Das Fahrzeug 24 beinhaltet Sensoren 28. Die Sensoren 28 können interne Zustände des Fahrzeugs 24 erkennen, zum Beispiel Raddrehzahl, Radausrichtung und Motor- und Getriebevariablen. Die Sensoren 28 können die Position oder Ausrichtung des Fahrzeugs 24 erkennen, zum Beispiel Sensoren des globalen Positionsbestimmungssystems (GPS); Beschleunigungsmesser, wie etwa Sensoren piezoelektrischer oder mikroelektromechanischer Systeme (MEMS); Kreisel, wie etwa Wendekreisel, Laserkreisel oder Faserkreisel; inertiale Messeinheiten (IME); und Magnetometer. Die Sensoren 28 können die äußere Umgebung erkennen, zum Beispiel Radarsensoren, Abtastlaserentfernungsmesser, Light-Detection-and-Ranging(LIDAR)-Vorrichtungen und Bildverarbeitungssensoren, wie etwa Kameras. LIDAR-Sensoren messen Abstände zu erkannten Objekten 30, indem das Objekt 30 mit gepulstem Laserlicht ausgeleuchtet wird und die Rücklaufzeiten reflektierter Impulse gemessen werden. Differenzen bei den Rücklaufzeiten und Wellenlängen der reflektierten Impulse können dann verwendet werden, um Daten zu erzeugen, die eine Punktwolke spezifizieren. Die Sensoren 28 können Kommunikationsvorrichtungen beinhalten, beispielsweise Fahrzeug-zu-Infrastruktur(vehicle-to-infrastructure - V2I)- oder Fahrzeug-zu-Fahrzeug(vehicle-to-vehicle - V2V)-Vorrichtungen.
  • Ein Sensor 28 definiert ein Sichtfeld 29 (in 2 und 3 veranschaulicht). Bei dem Sichtfeld 29 jedes Sensors 28 handelt es sich um ein Volumen in Bezug zu diesem Sensor 28 und durch diesen erkennbar. Das Volumen kann durch Azimut- und Höhenwinkelbereiche sowie durch eine Tiefe oder einen Erkennungsabstand definiert sein.
  • Das Antriebssystem 40 übersetzt Energie in eine Bewegung des Fahrzeugs 24, z.B. als Reaktion auf eine Anweisung des Computers 34 und/oder als Reaktion auf eine Eingabe des Fahrzeugführers, wie etwa in ein Gaspedal. Das Antriebssystem 40 kann zum Beispiel einen herkömmlichen Antriebsstrang mit einer Brennkraftmaschine, die an ein Getriebe gekoppelt ist, das Drehbewegung auf Räder überträgt; einen elektrischen Antriebsstrang mit Batterien, einen Elektromotor und einem Getriebe, das Drehbewegung auf die Räder überträgt; einen Hybridantriebsstrang mit Elementen des herkömmlichen Antriebsstrangs und des elektrischen Antriebsstrangs; oder eine beliebige andere Art von Struktur zum Bereitstellen von Bewegung an das Fahrzeug 24 beinhalten. Im Fall eines Luftfahrzeugs kann das Antriebssystem 40 einen oder mehrere Elektromotoren beinhalten, der/die mit einem oder mehreren Propellern wirkverbunden ist/sind. Die Motoren stellen Drehmoment bereit, das die Propeller dreht, um z. B. Schub zu erzeugen und eine Nick-, Roll- und/oder Gierrate einer Flugdrohne zu steuern. Das Antriebssystem 40 kann durch eine elektronische Steuereinheit (electronic control unit - ECU) oder dergleichen, die mit dem Computer 34 in Kommunikation steht, gesteuert werden und Daten über diese melden.
  • Das Bremssystem 42 widersteht der Bewegung des Fahrzeugs 24, um dadurch das Fahrzeug 24 zu verlangsamen und/oder anzuhalten, z. B. als Reaktion auf eine Anweisung von dem Computer 34 und/oder als Reaktion auf eine Eingabe des Fahrzeugführers, wie etwa in ein Bremspedal. Das Bremssystem 42 kann Reibungsbremsen, wie etwa Scheibenbremsen, Trommelbremsen, Bandbremsen und so weiter; Nutzbremsen; eine beliebige andere geeignete Art von Bremsen; oder eine Kombination beinhalten. Das Bremssystem 42 kann durch eine elektronische Steuereinheit (ECU) oder dergleichen, die mit dem Fahrzeugcomputer 34 in Kommunikation steht, gesteuert werden und Daten über diese melden.
  • Das Lenksystem 44 steuert das Drehen der Räder des Fahrzeugs 24. Das Lenksystem 44 steht mit einem Lenkrad und dem Fahrzeugcomputer 34 in Kommunikation und empfängt Eingaben von diesen. Bei dem Lenksystem 44 kann es sich um ein Zahnstangensystem mit elektrischer Servolenkung, ein Steer-by-Wire-System, wie sie beide in der Technik bekannt sind, oder ein beliebiges anderes geeignetes System handeln.
  • Das Fahrzeug 24 kann das Navigationssystem 32 beinhalten. Das Navigationssystem 32 ist über Schaltkreise, Chips oder andere elektronische Komponenten, die einen gegenwärtigen Standort des Fahrzeugs 24 bestimmen können, umgesetzt. Das Navigationssystem 32 kann über ein satellitenbasiertes System, wie etwa das globale Positionsbestimmungssystem (GPS), umgesetzt sein. Das Navigationssystem 32 kann basierend auf Signalen, die von verschiedenen Satelliten in der Umlaufbahn der Erde empfangen werden, den Standort des Fahrzeugs 24 triangulieren. Das Navigationssystem 32 ist dazu programmiert, Signale auszugeben, die den gegenwärtigen Standort des Fahrzeugs 24 darstellen. Das Navigationssystem 32 kann Daten von Sensoren 28 des Fahrzeugs 24, z. B. Raddrehzahlsensoren und einem Magnetometer, verwenden, um den Standort des Fahrzeugs 24 weiter zu bestimmen. In einigen Fällen ist das Navigationssystem 32 dazu programmiert, eine Route von dem gegenwärtigen Standort zu einem zukünftigen Standort zu bestimmen, einschließlich des Entwickelns alternativer Routen, z. B. wenn eine Straße gesperrt oder überlastet ist. Das Navigationssystem 32 kann auf eine Karte 26, die in dem Speicher des Fahrzeugcomputers 34 (nachstehend erörtert) gespeichert ist, zugreifen und die Route gemäß der Karte 26 entwickeln.
  • Das Fahrzeug 24 kann ein Kommunikationsnetzwerk 46 einschließlich Hardware, wie etwa einen Kommunikationsbus, beinhalten, um die Kommunikation zwischen Komponenten des Fahrzeugs 24, wie etwa dem Computer 34, dem Antriebssystem 40, dem Bremssystem 42, dem Lenksystem 44, den Sensoren 28 und dem Navigationssystem 32, zu ermöglichen. Das Kommunikationsnetzwerk 46 kann drahtgebundene oder drahtlose Kommunikation zwischen den Komponenten gemäß einer Reihe von Kommunikationsprotokollen ermöglichen, wie etwa Controller Area Network (CAN), Ethernet, WiFi, Local Interconnect Network (LIN) und/oder anderen drahtgebundenen oder drahtlosen Mechanismen.
  • Der Fahrzeugcomputer 34, der über Schaltungen, Chips und/oder andere elektronische Komponenten umgesetzt ist, ist in dem System 20 zum Ausführen von verschiedenen Vorgängen, einschließlich der in dieser Schrift beschriebenen, beinhaltet. Bei dem Fahrzeugcomputer 34 handelt es sich um eine Rechenvorrichtung, die im Allgemeinen einen Prozessor und einen Speicher beinhaltet, wobei der Speicher eine oder mehrere Formen von computerlesbaren Medien beinhaltet und in ihm Anweisungen gespeichert sind, die durch den Prozessor ausführbar sind, um verschiedene Vorgänge durchzuführen, einschließlich der in dieser Schrift offenbarten. In dem Speicher des Fahrzeugcomputers 34 sind ferner im Allgemeinen entfernte Daten gespeichert, die über verschiedene Kommunikationsmechanismen empfangen werden; z. B. ist der Fahrzeugcomputer 34 im Allgemeinen für Kommunikationen auf einem Kommunikationsnetzwerk 46 oder dergleichen und/oder für das Verwenden anderer drahtgebundener oder drahtloser Protokolle, z. B. Bluetooth usw., konfiguriert. Der Fahrzeugcomputer 34 kann auch eine Verbindung zu einem On-Board-Diagnoseanschluss (OBD-II) aufweisen. Über das Kommunikationsnetzwerk 46 und/oder andere drahtgebundene oder drahtlose Mechanismen kann der Fahrzeugcomputer 34 Nachrichten an verschiedene Vorrichtungen in dem Fahrzeug 24 übertragen und von diesem empfangen, z. B. dem Lenksystem 44, dem Bremssystem 42, dem Antriebssystem 40, dem Navigationssystem 32, den Sensoren 28 usw. Wenngleich ein Fahrzeugcomputer 34 zur leichteren Veranschaulichung in 1 gezeigt ist, versteht es sich, dass der Fahrzeugcomputer 34 eine oder mehrere Rechenvorrichtungen beinhalten könnte und verschiedene in dieser Schrift beschriebene Vorgänge durch diese ausgeführt werden könnten.
  • Der Fahrzeugcomputer 34 ist programmiert, das heißt, in dem Speicher des Fahrzeugcomputers 34 sind durch den Prozessor des Fahrzeugcomputers 34 ausführbare Anweisungen gespeichert, um einen Standort und eine Ausrichtung des Fahrzeugs 24 auf der Karte 26 zu identifizieren. Der Fahrzeugcomputer 34 kann den Standort und die Ausrichtung des Fahrzeugs 24 basierend auf Daten von dem Navigationssystem 32 und den Sensoren 28 identifizieren. Der Fahrzeugcomputer 34 kann den Standort und die Ausrichtung des Fahrzeugs 24 basierend auf einem Standort und einer Ausrichtung eines Objekts 30, z. B. eines Gebäudes, einer Ampel usw., auf der Karte 26 und einem durch die Sensoren 28 und relativ zu dem Fahrzeug 24 erkannten Standort des Objekts 30 identifizieren. Der Fahrzeugcomputer 34 kann den Standort und die Ausrichtung des Fahrzeugs 24 mit anderen Techniken identifizieren, wie etwa solchen, die Daten von einer herkömmlichen Geolokalisierung (z. B. GPS), Echtzeitkinematik (real-time kinematics - RTK), visueller und/oder LIDAR-Odometrie und einer inertialen Messeinheit (IME) verwenden.
  • Zum Beispiel kann der Fahrzeugcomputer 34 ein durch die Sensoren 28 erkanntes Objekt 30 als ein Objekt 30 auf der Karte 26 identifizieren, das z. B. durch die Kartendaten spezifiziert ist. Um das Objekt 30 zu identifizieren kann der Fahrzeugcomputer 34 einen oder mehrere Parameter, z. B. Länge, Breite, Krümmung usw., der/die durch die mit einem LIDAR-Sensor erzeugten Daten spezifiziert ist/sind, mit einem oder mehreren Parametern vergleichen, der/die durch die Daten des Objekts 30 auf der Karte 26 spezifiziert ist/sind. Der Fahrzeugcomputer 34 kann das Objekt 30 in den Daten von dem LIDAR-Sensor als das Objekt 30 auf der Karte 26 identifizieren, wenn die in derartigen Daten spezifizierten Parameter übereinstimmen oder innerhalb eines Schwellenwertbetrages der Übereinstimmung liegen, z. B. 95 %. Zusätzlich oder alternativ dazu kann der Fahrzeugcomputer 34 das Objekt 30 basierend auf einer Bilderkennungsanalyse von Daten identifizieren, die ein oder mehrere durch eine Kamera aufgenommene Bilder spezifizieren. Die Objekte 30 können in den Bilddaten unter Verwendung herkömmlicher Techniken und Verfahren erkannt werden, z. B. können Parameter derartiger Objekte 30 mit den Parametern verglichen werden, die durch die Daten des Objekts 30 auf der Karte 26 spezifiziert sind.
  • Der Fahrzeugcomputer 34 kann einen Standort und eine Ausrichtung des erkannten Objekts 30 in Bezug zu dem Fahrzeug 24, z. B. einen Abstand von dem Fahrzeug 24 zu dem Objekt 30, und eine Richtung des Objekts 30 von dem Fahrzeug 24 (wie etwa einen Winkel zur rechten oder linken Seite der Fahrzeugvorwärtsrichtung) bestimmen. Der Standort und die Ausrichtung des erkannten Objekts 30 in Bezug zu dem Fahrzeug 24 können basierend auf Daten von Sensoren 28 bestimmt werden. Zum Beispiel Laufzeitdaten von einem LIDAR-Sensor, Stereobildanalyse von Bildern von einem Paar von Kameras oder mit anderen herkömmlichen Techniken. Der Fahrzeugcomputer 34 kann den identifizierten Standort und die identifizierte Ausrichtung des erkannten Objekts 30 in Bezug zu dem Fahrzeug 24 mit dem Standort und der Ausrichtung des Objekts 30 auf der Karte 26 kombinieren, um einen Standort und eine Ausrichtung des Fahrzeugs 24 auf der Karte 26 z. B. unter Verwendung von herkömmlichen Techniken zu identifizieren.
  • Der Fahrzeugcomputer 34 kann dazu programmiert sein, Ebenen 48 in einer Punktwolke 31 (veranschaulicht in 3 und 4) zu identifizieren, die durch Daten von einem LIDAR-Sensor spezifiziert ist. Der Fahrzeugcomputer 34 kann eine Ebene 48 durch Auswählen von drei Punkten 33 der Punktwolke 31 identifizieren, die nahe beieinander liegen, typischerweise Punkte 33, bei denen sich keine anderen Punkte 33 zwischen einem beliebigen Paar von ausgewählten Punkten 33 befinden. Der Fahrzeugcomputer 34 kann die Ebene 48 basierend auf den ausgewählten drei Punkten 33 definieren, d. h., sodass alle Punkte 33 auf der Ebene 48 liegen. Der Computer 34 kann dann zusätzliche Punkte 33 der Punktwolke 31 identifizieren, die sich innerhalb eines Schwellenabstands, z.B. 10 Zentimeter, von mindestens einem ausgewählten Punkt 33 befinden und sich innerhalb eines Schwellenabstands, z. B. 10 Zentimeter, von der Ebene 48 entlang einer senkrecht zu der Ebene 48 verlaufenden Achse befinden. Derartige identifizierte zusätzliche Punkte 33 können ebenfalls zusätzlich zu den zuvor ausgewählten drei Punkten 33 ausgewählt werden.
  • Der Fahrzeugcomputer 34 kann die Ebene 48 basierend auf allen ausgewählten Punkten 33 neu definieren, z. B., sodass die Ebene 48 am besten zu den Punkten 33 passt. Zum Beispiel kann der Fahrzeugcomputer 34 die Ebene 48 unter Verwendung herkömmlicher Techniken am besten anpassen. Der Fahrzeugcomputer 34 kann dann zusätzliche Punkte 33 der Punktwolke 31 identifizieren, die sich innerhalb eines Schwellenabstands von mindestens einem ausgewählten Punkt befinden und sich innerhalb eines Schwellenabstands von der Ebene 48 befinden. Der Fahrzeugcomputer 34 kann derartige Punkte 33 auswählen und die Ebene 48 erneut neu definieren, z. B. iterativ wiederholen, bis innerhalb des Schwellenabstands von mindestens einem ausgewählten Punkt 33 und innerhalb des Schwellenabstands von der Ebene 48 keine weiteren Punkte 33 mehr identifiziert werden können. Der Fahrzeugcomputer 34 kann die Ebenen 48 mit der Verteilung von Punkten 33 in der Punktwolke 31 identifizieren, indem er einen Teilsatz von Punkten 33 mit der größten Anzahl von Punkten 33 identifiziert, die durch eine der Ebenen 48 mit geringem Fehler dargestellt werden kann. Der Fahrzeugcomputer 34 schätzt eine Gleichung, welche die Ebene 48 spezifiziert, und entfernt Punkte 33 hierarchisch aus der Punktwolke 31. Die Gleichung, welche die Ebene 48 spezifiziert, kann mit der Eigenwert-/Vektor-Zerlegung der Kovarianzmatrix des Teilsatzes von Punkten 33 aus der Punktwolke 31 identifiziert werden. Der Computer 34 kann die Ebenen 48 mit anderen Techniken identifizieren, wie etwa den herkömmlich bekannten.
  • Die Ebenen 48 können durch eine oder mehrere Schnittstellen 50 mit einer oder mehreren anderen Ebenen 48 und/oder an Kanten 52, die durch die ausgewählten Punkte 33 definiert sind, begrenzt sein. Der Fahrzeugcomputer 34 kann eine oder mehrere Ecken 54 identifizieren, an denen sich die Schnittstellen 50 und/oder Kanten 52 treffen.
  • Der Fahrzeugcomputer 34 kann die Position der Ebene 48, z. B. die Position einer oder mehrerer Ecken 54 der Ebene 48, eines Mittelpunkts der Ebene 48, in Bezug zu dem Fahrzeug 24 identifizieren. Zum Beispiel kann der Fahrzeugcomputer 34 identifizieren, dass eine der Ecken 54 der Ebene 48 20 Meter von dem Fahrzeug 24 entfernt ist und sich in einem Azimutwinkel von 20 Grad rechts von der Fahrzeugvorwärtsrichtung und in einem Höhenwinkel von 5 Grad nach oben befindet. Der Fahrzeugcomputer 34 kann zusätzlich dazu die Positionen der Ecken 54 in Bezug zueinander bestimmen.
  • Der Fahrzeugcomputer 34 kann eine Ausrichtung der Ebene 48 identifizieren, z. B. in Bezug zu einer Blickrichtung des Fahrzeugs 24. Zum Beispiel kann der Fahrzeugcomputer 34 identifizieren, dass die Ebene 48 länglich ist und sich 20 Grad nach links und 0 Grad nach oben in Bezug zu einer Vorwärtsrichtung des Fahrzeugs 24 erstreckt. Der Fahrzeugcomputer 34 kann die Ausdehnung und Erstreckung der Ebene 48 basierend auf den ausgewählten Punkten 33 bestimmen, z. B. entlang einer Kante 52 oder einer Schnittstelle 50, entlang einer längsten Linie, die benachbarte Ecken 54 (z. B. benachbarte Ecken 54 der Ebene 48, die in Bezug auf den Abstand der anderen Ecken 54 voneinander am weitesten voneinander entfernt sind) verbindet.
  • Der Fahrzeugcomputer 34 kann dazu programmiert sein, Vektoren 56 in der Punktwolke 31 zu identifizieren. Der Fahrzeugcomputer 34 kann einen Vektor 56 basierend auf einer Ebene 48 identifizieren. Zum Beispiel kann sich eine Wurzel oder Startposition des Vektors 56 in einer Mitte der Ebene 48 befinden. Bei der Mitte der Ebene 48 kann es sich um eine geometrisch gewichtete Mitte der ausgewählten Punkte der Punktwolkendaten handeln, die zum Definieren der Ebene 48 verwendet werden. Der Vektor 56 kann sich normal (senkrecht) in Bezug auf die Ebene 48 erstrecken. Der Vektor 56 kann eine Länge basierend auf einer Größe, z. B. in Quadratmetern, der Ebene 48 aufweisen. Zum Beispiel ist der Vektor 56 umso länger, je größer die Größe ist. Die Länge des Vektors 56 kann linear auf die Größe der Ebene 48 skaliert werden.
  • Der Fahrzeugcomputer 34 kann die Position des Vektors 56, z. B. die Position der Wurzel des Vektors 56, in Bezug zu dem Fahrzeug 24 identifizieren. Zum Beispiel kann der Computer identifizieren, dass die Wurzel des Vektors 56 15 Meter von dem Fahrzeug 24 entfernt ist und sich in einem Azimutwinkel von 50 Grad rechts von der Fahrzeugvorwärtsrichtung und in einem Höhenwinkel von 15 Grad nach oben befindet. Der Fahrzeugcomputer 34 kann eine Ausrichtung des Vektors 56 identifizieren, z. B. in Bezug zu einer Blickrichtung (d. h. einer Vorwärtsrichtung entlang einer Längsachse) des Fahrzeugs 24. Zum Beispiel kann der Fahrzeugcomputer 34 identifizieren, dass sich der Vektor 56 15 Grad nach links und 0 Grad nach oben in Bezug zu einer Vorwärtsrichtung des Fahrzeugs 24 erstreckt.
  • Der Fahrzeugcomputer 34 kann einen Standort und eine Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte 26 identifizieren. Zum Beispiel kann der Fahrzeugcomputer 34 die Position und Ausrichtung des Fahrzeugs 24 auf der Karte 26 als Startdaten verwenden und kann die Position und Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte 26 basierend auf der Position und Ausrichtung der Ebene 48 und/oder des Vektors 56 in Bezug zu dem Fahrzeug 24 bestimmen. Anders ausgedrückt, können die relative Position und Ausrichtung der Ebene 48 und/oder des Vektors 56 in Bezug zu dem Fahrzeug 24 mit der Position und Ausrichtung des Fahrzeugs 24 auf der Karte 26 kombiniert werden.
  • Das Fahrzeug 24 kann mehrere Standorte und Ausrichtungen des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte 26 identifizieren, z. B. während sich das Fahrzeug 24 an unterschiedlichen Standorten auf der Karte 26 befindet. Der Fahrzeugcomputer 34 kann einen durchschnittlichen Standort und eine durchschnittliche Ausrichtung der mehreren Standorte und Ausrichtungen des Objekts 30, der Ebene 48 und/oder des Vektors 56 als den Standort und die Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte 26 identifizieren. Bei dem durchschnittlichen Standort des Objekts 30, der Ebene 48 und/oder des Vektors 56 handelt es sich um einen Standort auf der Karte, der den typischen, z. B. mittleren, Standort der mehreren identifizierten Standorte des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte ausdrückt. Bei der durchschnittlichen Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte handelt es sich um eine Ausrichtung, welche die typische Ausrichtung der mehreren identifizierten Ausrichtungen des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte ausdrückt. Der durchschnittliche Standort kann eine Standardvektormittlung sein, während es sich bei dem Durchschnittswert für die Ausrichtung um einen Durchschnittswert in der riemannschen Mannigfaltigkeit handeln kann, der nur Zahlen im Raum möglicher Ausrichtungen beinhaltet (z.B. -180 bis 180 Grad oder alternativ 0-360). Der Fahrzeugcomputer 34 kann den durchschnittlichen Standort der mehreren Standorte durch Identifizieren von Durchschnittswerten der einzelnen bedingten Standorte identifizieren, z. B. durch Summieren aller x-Koordinaten der mehreren Standorte des Objekts 30 auf der Karte und Dividieren durch die Anzahl der mehreren Standorte, und so weiter für die y-Koordinaten und z-Koordinaten. Der Fahrzeugcomputer 34 kann die durchschnittliche Ausrichtung der mehreren Ausrichtungen durch Identifizieren der durchschnittlichen Blickrichtung einer gemeinsamen (oder gleichen) spezifizierten Fläche des physischen Merkmals oder Objekts 30 auf der Karte 26 identifizieren, z. B. durch Summieren aller Kompasskursrichtungen (oder Winkel in Bezug auf die X-, Y- und Z-Achse) der mehreren Ausrichtungen auf der Karte und Dividieren durch die Anzahl der mehreren Ausrichtungen. Der Fahrzeugcomputer 24 kann andere herkömmliche Techniken verwenden, um den durchschnittlichen Standort und die durchschnittliche Ausrichtung der mehreren Standorte und Ausrichtungen des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte zu identifizieren.
  • Der Fahrzeugcomputer 34 kann dazu programmiert sein, Daten z. B. über das Weitverkehrsnetzwerk 38 an den Servercomputer 36 und/oder den Infrastruktursensor 22 zu übertragen. Die übertragenen Daten können von den Sensoren 28 stammen und die Außenwelt spezifizieren, z. B. Bilddaten von einer Kamera oder Punktwolkendaten von einem LIDAR-Sensor. Die übertragenen Daten können ein/e/n oder mehrere Objekte 30, Ebenen 48 und/oder Vektoren 56 spezifizieren, die durch die Daten definiert sind. Die übertragenen Daten können Standorte und Ausrichtungen der Objekte 30, Ebenen 48 und/oder Vektoren 56 spezifizieren.
  • Die Standorte und die Ausrichtungen der Objekte 30, Ebenen 48 und/oder Vektoren 56 können sich auf der Karte 26 befinden und/oder in Bezug zu dem Fahrzeug 24 sein. Die übertragenen Daten können den Standort und die Ausrichtung des Fahrzeugs 24 auf der Karte 26 spezifizieren. Der Fahrzeugcomputer 34 kann Daten als Reaktion auf das Empfangen einer Anforderung für derartige Daten, z. B. von dem Servercomputer 36 und/oder dem Infrastruktursensor 22, übertragen.
  • Der Fahrzeugcomputer 34 kann dazu programmiert sein, das Fahrzeug 24 zu navigieren. Zum Beispiel kann der Fahrzeugcomputer 34 Befehle an das Lenksystem 44, das Antriebssystem 40 und/oder das Bremssystem 42 übertragen. Die Befehle können konkret die Systeme 40, 42, 44 betätigen, um das Fahrzeug 24 entlang einer Route, d. h. eines spezifizierten Weges von Punkt A zu Punkt B, zu navigieren, während Hindernisse vermieden werden. Der Fahrzeugcomputer 34 kann die Befehle basierend auf Daten von dem Navigationssystem 32 und den Sensoren 28 bestimmen, z. B. Spezifizieren eines Standortes des Fahrzeugs 24, eines Kurses des Fahrzeugs 24, einer Route, eines oder mehrerer erkannter Objekte 30 (wie etwa anderer Fahrzeuge, Fußgänger, Gebäude, Fahrbahnmarkierungen usw.). Der Computer kann das Fahrzeug 24 basierend auf den Daten von dem Infrastruktursensor 22 navigieren. Zum Beispiel können LIDAR- oder Bilddaten von dem Infrastruktursensor 22 mit Daten von den Sensoren 28 des Fahrzeugs 24 fusioniert werden. Als ein anderes Beispiel können Daten von dem Infrastruktursensor Standorte von erkannten Objekten 30 spezifizieren, z. B. Standorte von anderen Fahrzeugen auf der Karte 26. Der Fahrzeugcomputer 34 kann das Fahrzeug 24 basierend auf Daten von den Sensoren 28, dem Navigationssystem 32 und/oder dem Infrastruktursensor 22 mit herkömmlichen Techniken navigieren.
  • Bei dem Infrastruktursensor 22 handelt es sich um eine Sensorbaugruppe an einem festen geografischen Standort, z. B. fixiert an einem Gebäude, einer Brücke, einem Straßenpfosten usw. Der Infrastruktursensor 22 erkennt die Außenwelt; zum Beispiel kann der Infrastruktursensor 22 Radarsensoren, Abtastlaserentfernungsmesser, Light-Detection-and-Ranging(LIDAR)-Vorrichtungen und Bildverarbeitungssensoren, wie etwa Kameras, beinhalten. Der Infrastruktursensor 22 definiert ein Sichtfeld 27 (in 2 und 4 veranschaulicht). Der Infrastruktursensor 22 kann Kommunikationsvorrichtungen beinhalten, die zum Beispiel dazu konfiguriert sind, eine Kommunikation mit dem Fahrzeugcomputer 34 und dem Servercomputer 36 über das Weitverkehrsnetzwerk 38 bereitzustellen. Der Infrastruktursensor 22 kann einen Computer beinhalten, der über Schaltungen, Chips und/oder andere elektronische Komponenten umgesetzt ist. Bei dem Computer handelt es sich um eine Rechenvorrichtung, die im Allgemeinen einen Prozessor und einen Speicher beinhaltet, wobei der Speicher eine oder mehrere Formen von computerlesbaren Medien beinhaltet und in ihm Anweisungen gespeichert sind, die durch den Prozessor ausführbar sind, um verschiedene Vorgänge durchzuführen, einschließlich der in dieser Schrift offenbarten.
  • Der Infrastruktursensor 22 kann dazu programmiert sein, d. h., der Computer des Infrastruktursensors 22 kann dazu programmiert sein, Objekte 30, Ebenen 48 und/oder Vektoren 56 zu identifizieren, einschließlich ihrer jeweiligen Standorte und Ausrichtungen in Bezug zu dem Infrastruktursensor 22, z. B. wie für den Fahrzeugcomputer 34 beschrieben.
  • Der Infrastruktursensor 22 kann dazu programmiert sein, Standorte und Ausrichtungen von Objekten 30, Ebenen 48 und/oder Vektoren 56 auf der Karte zu identifizieren, z. B. wie für den Fahrzeugcomputer 34 beschrieben und nachdem der Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte in dem Speicher des Infrastruktursensors 22 gespeichert wurden.
  • Der Infrastruktursensor 22 kann dazu programmiert sein, Daten über das Weitverkehrsnetzwerk 38 z. B. an das Fahrzeug 24, den Servercomputer 36 usw. zu übertragen. Die durch den Infrastruktursensor 22 übertragenen Daten können die durch den Sensor erkannte Außenwelt spezifizieren, z. B. Bilddaten von einer Kamera, Daten, die eine von einem LIDAR-Sensor erzeugte Punktwolke 31 spezifizieren usw. Die übertragenen Daten können ein/e/n oder mehrere Objekte 30, Ebenen 48 und/oder Vektoren 56 spezifizieren, die durch die Daten definiert sind. Die übertragenen Daten können Standorte und Ausrichtungen der Objekte 30, Ebenen 48 und/oder Vektoren 56 spezifizieren. Die Standorte und die Ausrichtungen der Objekte 30, Ebenen 48 und/oder Vektoren 56 können in Bezug zu dem Infrastruktursensor 22 sein. Die Standorte und die Ausrichtungen der Objekte 30, Ebenen 48 und/oder Vektoren 56 können in Bezug zu einem Standort und einer Ausrichtung des Infrastruktursensors 22 auf der Karte 26 sein.
  • Der Infrastruktursensor 22 kann dazu programmiert sein, ein zweites Fahrzeug (nicht gezeigt) basierend auf dem Standort und der Ausrichtung des Infrastruktursensors 22 auf der Karte 26 zu navigieren. Zum Beispiel kann der Infrastruktursensor 22 Objekte 30 erkennen (und ihre Standorte und Ausrichtungen auf der Karte 26 identifizieren), wie etwa andere Fahrzeuge, die nicht durch Sensoren 28 des zweiten Fahrzeugs erkennbar sind. Der Infrastruktursensor 22 kann Daten, welche die Standorte und Ausrichtungen der erkannten Objekte 30 auf der Karte 26 spezifizieren, an das zweite Fahrzeug übertragen, sodass z. B. das zweite Fahrzeug navigieren kann, um einen Aufprall mit derartigen Objekten 30 zu vermeiden. Als ein anderes Beispiel kann der Infrastruktursensor 22 einen Befehl übertragen, der z. B. das zweite Fahrzeug anweist, an einer Straßenkreuzung auf der Karte 26 anzuhalten, wenn durch den Infrastruktursensor 22 gesammelte Daten Querverkehr an der Kreuzung spezifizieren.
  • Der Servercomputer 36 ist von dem Fahrzeug 24 und dem Infrastruktursensor 22 entfernt. Bei dem Servercomputer 36 kann es sich um einen oder mehrere Computerserver handeln, die jeweils mindestens einen Prozessor und mindestens einen Speicher beinhalten, wobei in dem Speicher durch den Prozessor ausführbare Anweisungen gespeichert sind, einschließlich Anweisungen zum Ausführen verschiedener in dieser Schrift beschriebener Schritte und Prozesse. Der Servercomputer 36 kann zum Speichern gesammelter Daten einen Datenspeicher beinhalten oder kommunikativ an diesen gekoppelt sein.
  • Der Servercomputer 36 kann dazu programmiert sein, einen Standort und eine Ausrichtung des Fahrzeugs 24 auf der Karte 26 zu identifizieren. Der Servercomputer 36 kann den Standort und die Ausrichtung des Fahrzeugs 24 identifizieren, indem er Daten von dem Fahrzeug 24 empfängt, die den Standort und die Ausrichtung des Fahrzeugs 24 auf der Karte 26 spezifizieren. Der Servercomputer 36 kann den Standort und die Ausrichtung des Fahrzeugs 24 basierend auf Daten, die durch den Servercomputer 36 empfangen und durch Sensoren 28 des Fahrzeugs 24 erzeugt werden, auf Daten, die durch Sensoren 28 eines zweiten Fahrzeugs und/oder eines Infrastruktursensors 22 mit einem identifizierten Standort auf der Karte 26 erzeugt werden, usw., identifizieren, z. B. wie für den Fahrzeugcomputer 34 beschrieben und/oder mit herkömmlichen Techniken.
  • Der Servercomputer 36 kann dazu programmiert sein, Objekte 30, Ebenen 48 und Vektoren 56 basierend auf Daten zu identifizieren, die von dem Fahrzeug 24 und/oder dem Infrastruktursensor 22 empfangen werden, einschließlich jeweiliger Standorte und Ausrichtungen in Bezug zu dem Fahrzeug 24 und/oder dem Infrastruktursensor 22, z. B. wie für den Fahrzeugcomputer 34 beschrieben.
  • Der Servercomputer 36 kann eine erste Ebene 48, die in einer durch den Infrastruktursensor 22 erzeugten ersten Punktwolke 31 identifiziert wurde, und eine zweite Ebene 48, die in einer durch den Sensor 28 des Fahrzeugs 24 erzeugten zweiten Punktwolke 31 identifiziert wurde, als eine gleiche Ebene 48 identifizieren. Anders ausgedrückt, handelt es sich in diesem Zusammenhang bei gleichen Ebenen 48 um Ebenen 48, die durch unterschiedliche Punktwolken 31 definiert sind und eine gemeinsame Fläche angeben. Zum Beispiel können die Punkte 33 der jeweiligen Punktwolken 31 eine gemeinsame Wand oder eine andere Fläche eines Objekts 30 spezifizieren, die sowohl durch den Infrastruktursensor 22 als auch die Sensoren 28 des Fahrzeugs 24 erkannt werden.
  • Der Servercomputer 36 kann die Ebenen 48, die in den unterschiedlichen Punktwolken 31 identifiziert wurden, basierend auf relativen Positionen der Ecken 54, Schnittstellen 50 und/oder Kanten 52 jeder Ebene 48 als im Wesentlichen gleich identifizieren. Der Servercomputer 36 kann die Ebenen 48, die in den Punktwolken 31 von dem Infrastruktursensor 22 und dem Sensor 28 des Fahrzeugs 24 identifiziert wurden, basierend auf ähnlichen Beziehungen zwischen den Ebenen 48 und anderen Ebenen 48, die in den jeweiligen Punktwolken 31 identifiziert wurden, als gleich identifizieren. Zum Beispiel kann der Servercomputer 36 einen Winkel identifizieren, der zwischen einer ersten Ebene 48 und einer zweiten Ebene 48 in der durch den Infrastruktursensor 22 erzeugten Punktwolke 31 definiert ist. Der Servercomputer 36 kann einen Winkel identifizieren, der zwischen einer ersten Ebene 48 und einer zweiten Ebene 48 in der durch den Sensor 28 des Fahrzeugs 24 erzeugten Punktwolke 31 definiert ist. Der Servercomputer 36 kann die ersten Ebenen 48 als gleiche Ebenen 48 identifizieren, wenn die Winkel im Wesentlichen gleich sind.
  • Der Servercomputer 36 kann einen Vektor 56, der in einer durch den Infrastruktursensor 22 erzeugten Punktwolke 31 identifiziert wurde, und einen Vektor 56, der in einer durch den Sensor 28 des Fahrzeugs 24 erzeugten Punktwolke 31 identifiziert wurde, als gleiche Vektoren 56 identifizieren. Bei gleichen Vektoren 56 handelt es sich um durch Punktwolken 31 definierte Vektoren 56, die eine gemeinsame Fläche spezifizieren, welche durch die Punkte 33 der Punktwolken 31 spezifiziert ist, z. B. eine gemeinsame Wand, die sowohl durch den Infrastruktursensor 22 als auch die Sensoren 28 des Fahrzeugs 24 erkannt wird.
  • Der Servercomputer 36 kann die Vektoren 56, die in den unterschiedlichen Punktwolken 31 identifiziert wurden, basierend darauf, dass eine Länge der Vektoren 56 im Wesentlichen gleich ist, und/oder basierend auf ähnlichen Beziehungen zwischen den Vektoren 56 und anderen in den jeweiligen Punktwolken 31 identifizierten Vektoren 56 als gleich identifizieren. Zum Beispiel kann der Servercomputer 36 einen Abstand zwischen einem ersten Vektor 56 und einem zweiten Vektor 56 in der durch den Infrastruktursensor 22 erzeugten Punktwolke 31 sowie eine relative Ausrichtung dieser identifizieren. Der Servercomputer 36 kann zudem einen Abstand zwischen einem ersten Vektor 56 und einem zweiten Vektor 56 in der durch den Sensor 28 des Fahrzeugs 24 erzeugten Punktwolke 31 sowie eine relative Ausrichtung dieser identifizieren. Der Servercomputer 36 kann die ersten Vektoren 56 als gleiche Vektoren 56 identifizieren, wenn die Abstände und relativen Ausrichtungen im Wesentlichen gleich sind.
  • Der Servercomputer 36 ist dazu programmiert, einen Standort und eine Ausrichtung des Infrastruktursensors 22 auf der Karte 26 basierend auf dem Standort und der Ausrichtung des Fahrzeugs 24 auf der Karte, den Daten von einem Sensor 28 des Fahrzeugs 24 und den Daten von dem Infrastruktursensor 22 zu bestimmen. Die Daten von dem Sensor 28 des Fahrzeugs 24 können Standorte und Ausrichtungen der Objekte 30, Ebenen 48 und/oder Vektoren 56 auf der Karte 26 und/oder in Bezug zu dem Fahrzeug 24 spezifizieren. Die Daten von dem Infrastruktursensor 22 können Standorte und Ausrichtungen der Objekte 30, Ebenen 48 und/oder Vektoren 56 in Bezug zu dem Infrastruktursensor 22 spezifizieren.
  • Der Servercomputer 36 kann den Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 bestimmen, indem er den Standort und die Ausrichtung des Fahrzeugs 24 auf der Karte 26 mit dem Standort und der Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 in Bezug zu dem Fahrzeug 24 und mit dem Standort und der Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 in Bezug zu dem Infrastruktursensor 22 kombiniert.
  • Der Servercomputer 36 kann den Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 bestimmen, indem er zuerst den Standort und die Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte 26 (oder den durchschnittlichen Standort und die durchschnittliche Ausrichtung, wie vorstehend beschrieben) identifiziert und dann die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 bestimmt, indem er den Standort und die Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte 26 mit der Position und der Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 in Bezug zu dem Infrastruktursensor 22 kombiniert. Der Servercomputer 36 kann den Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 unter Verwendung von Triangulation oder anderen herkömmlichen Techniken bestimmen.
  • Der Servercomputer 36 kann den Standort und die Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 auf der Karte 26 mit der Position und der Ausrichtung des Objekts 30, der Ebene 48 und/oder des Vektors 56 in Bezug zu dem Infrastruktursensor 22 kombinieren, indem er die jeweiligen Objekte 30, Ebenen 48 und/oder Vektoren 56 in den Daten von dem Sensor 28 des Fahrzeugs 24 mit den jeweiligen Objekten 30, Ebenen 48 und/oder Vektoren 56 in den Daten von dem Infrastruktursensor 22 ausrichtet. Der Servercomputer 36 richtet gleiche Objekte 30, Ebenen 48 und/oder Vektoren 56 in den jeweiligen Daten derart aus, dass sich die gleichen Objekte 30, Ebenen 48 und/oder Vektoren 56 überlappen, d. h., sich an dem gleichen Standort und in der gleichen Ausrichtung auf der Karte 26 befinden. Zum Beispiel können die erste und die zweite Ebene 48a, 48b der Daten von dem Infrastruktursensor 22 so ausgerichtet sein, dass sie die erste und die zweite Ebene 48a, 48b der Daten von dem Sensor 28 des Fahrzeugs 24 überlappen. Als ein anderes Beispiel können der erste und der zweite Vektor 56a, 56b der Daten von dem Infrastruktursensor 22 so ausgerichtet sein, dass sie den ersten und den zweiten Vektor 56a, 56b der Daten von dem Sensor 28 des Fahrzeugs 24 überlappen. Das Ausrichten der Objekte 30, der Ebenen 48 und/oder der Vektoren 56 ist vorteilhafterweise effizienter, d. h., es werden weniger Rechenressourcen und/oder Zeit benötigt als das Ausrichten von Punktwolken 31. Die jeweiligen Objekte 30, Ebenen 48 und/oder Vektoren 56 in den Daten von dem Infrastruktursensor 22 können mit den Objekten 30, den Ebenen 48 und/oder den Vektoren 56 in den Daten von dem Sensor 28 des Fahrzeugs 24 ausgerichtet werden, indem ein Optimierungsproblem gelöst wird, wie etwa ein Wahba-Problem einer Zielfunktion, der GD-Algorithmus für verzögerte Projektionen oder eine andere herkömmliche Technik.
  • Der Servercomputer 36 kann zusätzliche Standorte und Ausrichtungen des Fahrzeugs 24 in Bezug auf die Karte 26 identifizieren, während sich das Fahrzeug 24 an unterschiedlichen Standorten und in unterschiedlichen Ausrichtungen befindet. Der Servercomputer 36 kann zusätzliche Daten von dem Fahrzeugsensor 28 sammeln, während sich das Fahrzeug 24 an den zusätzlichen Standorten und in den zusätzlichen Ausrichtungen befindet. Der Servercomputer 36 kann zusätzliche Standorte und Ausrichtungen des Infrastruktursensors 22 auf der Karte 26 basierend auf den zusätzlichen Standorten und Ausrichtungen des Fahrzeugs 24, den zusätzlichen Daten von dem Fahrzeugsensor 28 und den Daten von dem Infrastruktursensor 22 bestimmen, z. B. wie vorstehend beschrieben. Der Computer 36 kann einen durchschnittlichen Standort und eine durchschnittliche Ausrichtung der mehreren Standorte und Ausrichtungen des Infrastruktursensors 22 auf der Karte 26 identifizieren, z. B. eine erhöhte Genauigkeit für den bestimmten Standort und die bestimmte Ausrichtung des Infrastruktursensors 22 auf der Karte 26 bereitstellen. Bei dem durchschnittlichen Standort des Infrastruktursensors 22 handelt es sich um einen Standort auf der Karte, der den typischen, z. B. mittleren, Standort der mehreren identifizierten Standorte des Infrastruktursensors 22 auf der Karte ausdrückt. Bei der durchschnittlichen Ausrichtung des Infrastruktursensors 22 auf der Karte handelt es sich um eine Ausrichtung, welche die typische Ausrichtung der mehreren identifizierten Ausrichtungen des Infrastruktursensors 22 auf der Karte ausdrückt. Der Computer 36 kann den durchschnittlichen Standort der mehreren Standorte des Infrastruktursensors 22 durch Identifizieren von Durchschnittswerten der einzelnen bedingten Standorte identifizieren, z. B. durch Summieren aller x-Koordinaten der mehreren Standorte auf der Karte und Dividieren durch die Anzahl der mehreren Standorte, und so weiter für die y-Koordinaten und z-Koordinaten. Der Computer 36 kann die durchschnittliche Ausrichtung der mehreren Ausrichtungen des Infrastruktursensors 22 durch Identifizieren der durchschnittlichen Blickrichtung des Infrastruktursensors 22 identifizieren, z. B. durch Summieren aller Kompasskursrichtungen (oder Winkel in Bezug auf die X-, Y- und Z-Achse) der mehreren Ausrichtungen des Infrastruktursensors 22 auf der Karte und Dividieren durch die Anzahl der mehreren Ausrichtungen. Der Computer 36 kann andere herkömmliche Techniken verwenden, um den durchschnittlichen Standort und die durchschnittliche Ausrichtung des Infrastruktursensors 22 auf der Karte zu identifizieren.
  • Der Servercomputer 36 kann den Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 in dem Speicher des Servercomputers 36 speichern. Der Servercomputer 36 kann den Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 an den Infrastruktursensor 22 übertragen, damit dieser z.B. in dem Speicher des Infrastruktursensors 22 gespeichert wird.
  • Der Servercomputer 36 kann dazu programmiert sein, Daten, die den Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 spezifizieren, an das Fahrzeug 24 und/oder ein zweites Fahrzeug zur autonomen und/oder halbautonomen Navigation des Fahrzeugs 24 und/oder des zweiten Fahrzeugs übertragen. Zum Beispiel kann der Servercomputer 36 Daten, die den Standort und die Ausrichtung des Infrastruktursensors 22 auf der Karte 26 spezifizieren, über das Weitverkehrsnetzwerk 38 an das Fahrzeug 24 und/oder das zweite Fahrzeug übertragen, und/oder das Fahrzeug 24 und/oder das zweite Fahrzeug kann/können Daten von dem Infrastruktursensor 22 mit Daten von Sensoren 28 des zweiten Fahrzeugs unter Verwendung des Standortes und der Ausrichtung des Infrastruktursensors 22 auf der Karte 26 fusionieren, z. B. unter Verwendung herkömmlicher Techniken zum Fusionieren von Daten von mehreren Sensoren zum autonomen oder halbautonomen Betreiben eines Fahrzeugs.
  • 5 ist ein Prozessablaufdiagramm, das einen beispielhaften Prozess 500 zum Betreiben des Systems 20 veranschaulicht. Der Prozess 500 beginnt in einem Block 505, in dem der Servercomputer 36 eine Anforderung an den Infrastruktursensor 22 überträgt. Die Anforderung kann spezifizieren, dass der Infrastruktursensor 22 Rohdaten bereitstellt, z. B. Bild- und/oder Punktwolkendaten. Die Anforderung kann spezifizieren, dass der Infrastruktursensor 22 Daten bereitstellt, die Standorte und Ausrichtungen von Objekten 30, Ebenen 48 und/oder Vektoren 56 spezifizieren, die in den durch den Infrastruktursensor 22 erzeugten Daten identifiziert wurden.
  • Bei einem Block 510 empfängt der Servercomputer 36 die bei Block 505 angeforderten Daten von dem Infrastruktursensor 22.
  • Bei einem Block 515 überträgt der Servercomputer 36 eine erste Anforderung an das Fahrzeug 24. Die erste Anforderung spezifiziert, dass das Fahrzeug 24 erste Daten bereitstellt, die durch die Sensoren 28 des Fahrzeugs 24 erzeugt werden, während sich das Fahrzeug 24 an einem ersten Standort und in einer ersten Ausrichtung befindet. Die erste Anforderung kann Daten spezifizieren, die Standorte und Ausrichtungen von Objekten 30, Ebenen 48 und/oder Vektoren 56 spezifizieren, die in den ersten Daten durch den Fahrzeugcomputer 34 identifiziert wurden.
  • Bei einem Block 520 empfängt der Servercomputer 36 die bei Block 515 angeforderten ersten Daten von dem Fahrzeug 24.
  • Bei einem Block 525 identifiziert der Servercomputer 36 den ersten Standort und die erste Ausrichtung des Fahrzeugs 24 auf einer Karte 26. Der Servercomputer 36 kann den ersten Standort und die erste Ausrichtung basierend auf von dem Fahrzeug 24 empfangen Daten identifizieren, die den ersten Standort und die erste Ausrichtung spezifizieren.
  • Bei einem Block 530 bestimmt der Servercomputer 36 einen ersten Standort und eine erste Ausrichtung des Infrastruktursensors 22 auf der Karte 26 basierend auf den bei Block 510 empfangenen Daten von dem Infrastruktursensor 22, den ersten Daten von dem Fahrzeug 24 bei Block 520 und dem/der bei Block 525 identifizierten ersten Standort und Ausrichtung des Fahrzeugs 24, z. B. wie in dieser Schrift beschrieben.
  • Bei einem Block 535 überträgt der Servercomputer 36 eine zweite Anforderung an das Fahrzeug 24. Die zweite Anforderung spezifiziert, dass das Fahrzeug 24 zweite Daten bereitstellt, die durch die Sensoren 28 des Fahrzeugs 24 erzeugt werden, während sich das Fahrzeug 24 an einem zweiten Standort und in einer zweiten Ausrichtung, die sich von dem ersten Standort und der ersten Ausrichtung unterscheiden, befindet. Die zweite Anforderung kann Daten spezifizieren, die Standorte und Ausrichtungen von Objekten 30, Ebenen 48 und/oder Vektoren 56 spezifizieren, die in den zweiten Daten wurden.
  • Bei einem Block 540 empfängt der Servercomputer 36 die bei Block 535 angeforderten zweiten Daten von dem Fahrzeug 24.
  • Bei einem Block 545 identifiziert der Servercomputer 36 den zweiten Standort und die zweite Ausrichtung des Fahrzeugs 24 auf der Karte 26. Der Servercomputer 36 kann den zweiten Standort und die zweite Ausrichtung basierend auf von dem Fahrzeug 24 empfangen Daten identifizieren, die den zweiten Standort und die zweite Ausrichtung spezifizieren.
  • Bei einem Block 550 bestimmt der Servercomputer 36 einen zweiten Standort und eine zweite Ausrichtung des Infrastruktursensors 22 auf der Karte 26 basierend auf den bei Block 510 empfangenen Daten von dem Infrastruktursensor 22, den zweiten Daten von dem Fahrzeug 24 bei Block 540 und dem/der bei Block 545 identifizierten zweiten Standort und Ausrichtung des Fahrzeugs 24, z. B. wie in dieser Schrift beschrieben.
  • Bei einem Block 555 bestimmt der Servercomputer 36 einen durchschnittlichen Standort und eine durchschnittliche Ausrichtung des Infrastruktursensors 22 auf der Karte 26 basierend auf dem/der bei Block 530 bestimmten ersten Standort und Ausrichtung des Infrastruktursensors 22 auf der Karte 26 und dem/der bei Block 550 bestimmten zweiten Standort und Ausrichtung des Infrastruktursensors 22 auf der Karte 26.
  • Bei einem Block 560 speichert der Servercomputer 36 Daten, die den/die bei Block 555 bestimmte(n) durchschnittlichen Standort und Ausrichtung des Infrastruktursensors 22 auf der Karte 26 spezifizieren. Zusätzlich oder alternativ dazu kann der Servercomputer 36 Daten, die den durchschnittlichen Standort und die durchschnittliche Ausrichtung des Infrastruktursensors 22 auf der Karte 26 spezifizieren, an den Infrastruktursensor 22 übertragen, und der Infrastruktursensor 22 kann derartige Daten speichern.
  • Bei einem Block 565 überträgt der Servercomputer 36 Daten, die den/die bei Block 555 bestimmte(n) Standort und Ausrichtung des Infrastruktursensors 22 auf der Karte 26 spezifizieren, an das Fahrzeug 24 oder ein zweites Fahrzeug. Der Fahrzeugcomputer 34 oder ein Computer des zweiten Fahrzeugs betreibt das jeweilige Fahrzeug 23 oder das zweite Fahrzeug im autonomen und/oder halbautonomen Modus basierend auf dem Standort und der Ausrichtung des Infrastruktursensors 22 auf der Karte 26.
  • Hinsichtlich des in dieser Schrift beschriebenen Prozesses 500 versteht es sich, dass die Schritte eines derartigen Prozesses 500 zwar als gemäß einer bestimmten Reihenfolge erfolgend beschrieben worden sind, ein derartiger Prozess 500 aber mit den beschriebenen Schritten in einer Reihenfolge durchgeführt werden könnte, die von der in dieser Schrift beschriebenen Reihenfolge abweicht. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in dieser Schrift beschriebene Schritte weggelassen werden könnten. Es versteht sich zusätzlich, dass andere Computer den Prozess 500 durchführen können. Zum Beispiel kann der Fahrzeugcomputer 34 den Prozess 500 wie für den Servercomputer 36 beschrieben durchführen. Anders ausgedrückt, ist die Beschreibung des Prozesses 500 in der vorliegenden Schrift zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollte keinesfalls dahingehend ausgelegt werden, dass sie den offenbarten Gegenstand einschränkt.
  • Rechenvorrichtungen, wie etwa der Computer 34, 36, beinhalten im Allgemeinen computerausführbare Anweisungen, wobei die Anweisungen durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend aufgeführten, ausgeführt werden können. Computerausführbare Anweisungen können von Computerprogrammen kompiliert oder interpretiert werden, die unter Verwendung einer Vielfalt von Programmiersprachen und/oder -techniken erstellt wurden, einschließlich unter anderem und entweder für sich oder in Kombination Java™, C, C++, Visual Basic, Java Script, Perl usw. Einige dieser Anwendungen können auf einer virtuellen Maschine, wie etwa der Java Virtual Machine, der Dalvik Virtual Machine oder dergleichen, kompiliert und ausgeführt werden. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er einen oder mehrere Prozesse durchführt, darunter einen oder mehrere der hierin beschriebenen Prozesse. Derartige Anweisungen und anderen Daten können unter Verwendung einer Vielfalt von computerlesbaren Medien gespeichert und übertragen werden.
  • Ein computerlesbares Medium (auch als vom Prozessor lesbares Medium bezeichnet) schließt ein beliebiges nichttransitorisches (z. B. materielles) Medium ein, das an der Bereitstellung von Daten (z. B. Anweisungen) beteiligt ist, die durch einen Computer (z. B. durch einen Prozessor eines Computers) gelesen werden können. Ein solches Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtiger Medien und flüchtiger Medien. Nichtflüchtige Medien beinhalten zum Beispiel Bild- und Magnetplatten und sonstige dauerhafte Speicher. Zu flüchtigen Medien kann zum Beispiel ein dynamischer Direktzugriffsspeicher (dynamic random access memory - DRAM) gehören, der üblicherweise einen Hauptspeicher darstellt. Derartige Anweisungen können durch ein oder mehrere Übertragungsmedien übertragen werden, einschließlich Koaxialkabeln, Kupferdraht und Glasfasern, einschließlich der Drähte, die einen an einen Prozessor eines Computers gekoppelten Systembus umfassen. Gängige Formen computerlesbarer Medien beinhalten zum Beispiel eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, das durch einen Computer ausgelesen werden kann.
  • In einigen Beispielen können Systemelemente als computerlesbare Anweisungen (z. B. Software) auf einer oder mehreren Rechenvorrichtungen (z. B. Servern, PCs, Rechenmodulen usw.) umgesetzt sein, die auf zugehörigen computerlesbaren Medien (z. B. Platten, Speichern usw.) gespeichert sind. Ein Computerprogrammprodukt kann derartige Anweisungen umfassen, die zum Ausführen der in dieser Schrift beschriebenen Funktionen auf computerlesbaren Medien gespeichert sind.
  • Die in dieser Schrift verwendeten Ausdrücke „als Reaktion auf und „bei“ spezifizieren zusätzlich zu einem zeitlichen Zusammenhang einen Kausalzusammenhang.
  • Die Offenbarung ist auf veranschaulichende Weise beschrieben worden und es versteht sich, dass die Terminologie, die verwendet worden ist, beschreibenden und nicht einschränkenden Charakters ist. In Anbetracht der vorstehenden Lehren sind viele Modifikationen und Variationen der vorliegenden Offenbarung möglich und die Offenbarung kann anders als konkret beschrieben umgesetzt werden.
  • Gemäß der vorliegenden Erfindung ist ein System bereitgestellt, das einen Computer aufweist, der einen Prozessor und einen Speicher beinhaltet, in dem durch den Prozessor ausführbare Anweisungen zu Folgendem speichert sind: Identifizieren eines Standortes und einer Ausrichtung eines Fahrzeugs auf einer Karte; und Bestimmen eines Standortes eines Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, Daten von einem Fahrzeugsensor und Daten von dem Infrastruktursensor.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Identifizieren des Standortes und der Ausrichtung des Fahrzeugs basierend auf einem Standort eines Objekts auf der Karte und eines Standortes des Objekts in Bezug zu dem Fahrzeug.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Identifizieren eines ersten Standortes eines Objekts auf der Karte basierend auf den Daten von dem Fahrzeugsensor, zum Identifizieren eines zweiten Standortes des Objekts in Bezug zu dem Infrastruktursensor basierend auf den Daten von dem Infrastruktursensor, und zum Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Standort des Objekts.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Identifizieren einer ersten Ebene basierend auf den Daten von dem Fahrzeugsensor, zum Identifizieren einer zweiten Ebene basierend auf den Daten von dem Infrastruktursensor, und zum Bestimmen des Standortes des Infrastruktursensors basierend auf der ersten und der zweiten Ebene.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Identifizieren eines ersten Vektors basierend auf den Daten von dem Fahrzeugsensor, zum Identifizieren eines zweiten Vektors basierend auf den Daten von dem Infrastruktursensor, und zum Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Vektor.
  • Gemäß einer Ausführungsform beinhalten die Daten von dem Fahrzeugsensor und die Daten von dem Infrastruktursensor Punktwolkendaten.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Identifizieren eines zweiten Standortes und einer zweiten Ausrichtung des Fahrzeugs in Bezug zu der Karte, zum Sammeln von zweiten Daten von dem Fahrzeugsensor, während sich das Fahrzeug an dem zweiten Standort und in der zweiten Ausrichtung befindet, und zum Bestimmen des Standortes des Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor, dem zweiten Standort und der zweiten Ausrichtung des Fahrzeugs, den zweiten Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Bestimmen einer Ausrichtung des Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor.
  • Gemäß einer Ausführungsform ist der Computer von dem Fahrzeug und dem Infrastruktursensor entfernt, und wobei die Anweisungen ferner Anweisungen zum Speichern des Standortes des Infrastruktursensors auf der Karte in dem Speicher des Computers beinhalten.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Speichern des Standortes des Infrastruktursensors auf der Karte in einem Speicher des Infrastruktursensors.
  • Gemäß einer Ausführungsform beinhalten die Anweisungen ferner Anweisungen zum Navigieren eines zweiten Fahrzeugs basierend auf dem Standort des Infrastruktursensors.
  • Gemäß der vorliegenden Erfindung beinhaltet ein Verfahren das Identifizieren eines Standortes und einer Ausrichtung eines Fahrzeugs auf einer Karte; und das Bestimmen eines Standortes eines Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, Daten von einem Fahrzeugsensor und Daten von dem Infrastruktursensor.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren das Identifizieren des Standortes und der Ausrichtung des Fahrzeugs basierend auf einem Standort eines Objekts auf der Karte und eines Standortes des Objekts in Bezug zu dem Fahrzeug.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren das Identifizieren eines ersten Standortes eines Objekts auf der Karte basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren eines zweiten Standortes des Objekts in Bezug zu dem Infrastruktursensor basierend auf den Daten von dem Infrastruktursensor, und das Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Standort des Objekts.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren das Identifizieren einer ersten Ebene basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren einer zweiten Ebene basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf der ersten und der zweiten Ebene.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren das Identifizieren eines ersten Vektors basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren eines zweiten Vektors basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Vektor.
  • In einem Aspekt der Erfindung beinhalten die Daten von dem Fahrzeugsensor und die Daten von dem Infrastruktursensor Punktwolkendaten.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren das Identifizieren eines zweiten Standortes und einer zweiten Ausrichtung des Fahrzeugs auf der Karte, das Sammeln von zweiten Daten von dem Fahrzeugsensor, während sich das Fahrzeug an dem zweiten Standort und in der zweiten Ausrichtung befindet, und das Bestimmen des Standortes des Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor, dem zweiten Standort und der zweiten Ausrichtung des Fahrzeugs, den zweiten Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren das Bestimmen einer Ausrichtung des Infrastruktursensors in Bezug zu der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor.
  • In einem Aspekt der Erfindung beinhaltet das Verfahren das Speichern des Standortes des Infrastruktursensors auf der Karte in einem Speicher des Infrastruktursensors.

Claims (13)

  1. Verfahren, umfassend: Identifizieren eines Standortes und einer Ausrichtung eines Fahrzeugs auf einer Karte; und Bestimmen eines Standortes eines Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, Daten von einem Fahrzeugsensor und Daten von dem Infrastruktursensor.
  2. Verfahren nach Anspruch 1, ferner umfassend das Identifizieren des Standortes und der Ausrichtung des Fahrzeugs basierend auf einem Standort eines Objekts auf der Karte und eines Standortes des Objekts in Bezug zu dem Fahrzeug.
  3. Verfahren nach Anspruch 1, ferner umfassend das Identifizieren eines ersten Standortes eines Objekts auf der Karte basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren eines zweiten Standortes des Objekts in Bezug zu dem Infrastruktursensor basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Standort des Objekts.
  4. Verfahren nach Anspruch 1, ferner umfassend das Identifizieren einer ersten Ebene basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren einer zweiten Ebene basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf der ersten und der zweiten Ebene.
  5. Verfahren nach Anspruch 1, ferner umfassend das Identifizieren eines ersten Vektors basierend auf den Daten von dem Fahrzeugsensor, das Identifizieren eines zweiten Vektors basierend auf den Daten von dem Infrastruktursensor und das Bestimmen des Standortes des Infrastruktursensors basierend auf dem ersten und dem zweiten Vektor.
  6. Verfahren nach Anspruch 1, wobei die Daten von dem Fahrzeugsensor und die Daten von dem Infrastruktursensor Punktwolkendaten beinhalten.
  7. Verfahren nach Anspruch 1, ferner umfassend das Identifizieren eines zweiten Standortes und einer zweiten Ausrichtung des Fahrzeugs auf der Karte, das Sammeln von zweiten Daten von dem Fahrzeugsensor, während sich das Fahrzeug an dem zweiten Standort und in der zweiten Ausrichtung befindet, und das Bestimmen des Standortes des Infrastruktursensors auf der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor, dem zweiten Standort und der zweiten Ausrichtung des Fahrzeugs, den zweiten Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor.
  8. Verfahren nach Anspruch 1, ferner umfassend das Bestimmen einer Ausrichtung des Infrastruktursensors in Bezug zu der Karte basierend auf dem Standort und der Ausrichtung des Fahrzeugs, den Daten von dem Fahrzeugsensor und den Daten von dem Infrastruktursensor.
  9. Verfahren nach Anspruch 1, ferner umfassend das Speichern des Standortes des Infrastruktursensors auf der Karte in einem Speicher des Infrastruktursensors.
  10. Verfahren nach Anspruch 1, ferner umfassend das Navigieren eines zweiten Fahrzeugs basierend auf dem Standort des Infrastruktursensors.
  11. Computer, der einen Prozessor und einen Speicher aufweist, in dem durch den Prozessor ausführbare Anweisungen zum Durchführen des Verfahrens nach einem der Ansprüche 1-10 gespeichert sind.
  12. Computer nach Anspruch 11, wobei der Computer von dem Fahrzeug und dem Infrastruktursensor entfernt ist, und wobei die Anweisungen ferner Anweisungen zum Speichern des Standortes des Infrastruktursensors auf der Karte in dem Speicher des Computers beinhalten.
  13. Computerlesbares Medium, auf dem durch einen Prozessor ausführbare Anweisungen zum Durchführen des Verfahrens nach einem der Ansprüche 1-10 gespeichert sind.
DE102020122752.3A 2019-09-06 2020-08-31 Sensorlokalisierung anhand externer quelldaten Pending DE102020122752A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/563,098 2019-09-06
US16/563,098 US11754415B2 (en) 2019-09-06 2019-09-06 Sensor localization from external source data

Publications (1)

Publication Number Publication Date
DE102020122752A1 true DE102020122752A1 (de) 2021-03-11

Family

ID=74644455

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020122752.3A Pending DE102020122752A1 (de) 2019-09-06 2020-08-31 Sensorlokalisierung anhand externer quelldaten

Country Status (3)

Country Link
US (1) US11754415B2 (de)
CN (1) CN112461249A (de)
DE (1) DE102020122752A1 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019207303A1 (de) * 2019-05-20 2020-11-26 Robert Bosch Gmbh Verfahren und System zum Erstellen einer Lokalisierungskarte für ein Fahrzeug
US12017657B2 (en) * 2022-01-07 2024-06-25 Ford Global Technologies, Llc Vehicle occupant classification using radar point cloud
JP2023119740A (ja) * 2022-02-17 2023-08-29 日立Astemo株式会社 車両認識システム及びサーバ
DE102022111315A1 (de) * 2022-05-06 2023-11-09 Dürr Systems Ag System zur Fahrwegüberwachung eines Transportfahrzeugs, Transportfahrzeug, Verfahren zur Fahrwegüberwachung eines Transportfahrzeugs sowie Computerprogrammprodukt

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006110713A2 (en) 2005-04-08 2006-10-19 Vanderbilt University System and methods of radio interference based localization in sensor networks
US7925730B1 (en) 2005-12-30 2011-04-12 At&T Intellectual Property Ii, L.P. Localization for sensor networks
US8352112B2 (en) * 2009-04-06 2013-01-08 GM Global Technology Operations LLC Autonomous vehicle management
US9031809B1 (en) 2010-07-14 2015-05-12 Sri International Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
CN105874347B (zh) 2013-11-21 2019-09-06 特雷斯韦夫有限公司 Css定位系统
US20180283880A1 (en) * 2017-04-03 2018-10-04 GM Global Technology Operations LLC Infrastructure to vehicle position verification
US10108867B1 (en) * 2017-04-25 2018-10-23 Uber Technologies, Inc. Image-based pedestrian detection
CN111279154B (zh) * 2017-11-24 2021-08-31 深圳市大疆创新科技有限公司 导航区域识别和拓扑结构匹配以及相关联的系统和方法
US11567209B2 (en) * 2018-01-23 2023-01-31 Innoviz Technologies Ltd. Distributed LIDAR systems and methods thereof
US10733761B2 (en) * 2018-06-29 2020-08-04 Zoox, Inc. Sensor calibration
US20200133272A1 (en) * 2018-10-29 2020-04-30 Aptiv Technologies Limited Automatic generation of dimensionally reduced maps and spatiotemporal localization for navigation of a vehicle

Also Published As

Publication number Publication date
US20210072041A1 (en) 2021-03-11
US11754415B2 (en) 2023-09-12
CN112461249A (zh) 2021-03-09

Similar Documents

Publication Publication Date Title
DE102019127058A1 (de) Fahrzeugwegplanung
DE102019121140A1 (de) Sensorfusion
DE102020122752A1 (de) Sensorlokalisierung anhand externer quelldaten
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE112020003897T5 (de) Systeme und verfahren zur überwachung von fahrspurüberlastung
DE102016112913A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Fahrzeug-Ich-Position
DE102018102513A1 (de) Fahrzeugkommunikationssystem und Fahrzeugsteuerungsvorrichtung
DE102018120845A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102019100497A1 (de) Lidar-lokalisierung
DE102016109592A1 (de) Kollisionsabschwächung und -vermeidung
DE112019001046T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und mobiler körper
DE112018004507T5 (de) Informationsverarbeitungseinrichtung, bewegungseinrichtung und verfahren und programm
DE102015110812A1 (de) Kraftfahrzeugdrohneneinsatzsystem
DE112018003986T5 (de) Steuervorrichtung, steuerverfahren, programm und mobileinheit
DE112018005907T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und beweglicher körper
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE102019119204A1 (de) Assistenzsteuerungssystem
DE102021132737A1 (de) Manöverrealisator auf abtastbasis
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE112018004691T5 (de) Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren, programm und bewegter körper
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
DE102021109466A1 (de) Trajektorieerzeugung unter verwendung eines strassennetzmodells
DE102020100027A1 (de) Überwachungs- und steuerinfrastruktur für fahrzeuge
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen
DE112018004891T5 (de) Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren, programm und mobiler körper

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE