DE102020133982A1 - Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte - Google Patents

Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte Download PDF

Info

Publication number
DE102020133982A1
DE102020133982A1 DE102020133982.8A DE102020133982A DE102020133982A1 DE 102020133982 A1 DE102020133982 A1 DE 102020133982A1 DE 102020133982 A DE102020133982 A DE 102020133982A DE 102020133982 A1 DE102020133982 A1 DE 102020133982A1
Authority
DE
Germany
Prior art keywords
data
target object
lidar
vehicle
data points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020133982.8A
Other languages
English (en)
Inventor
Zhongtao Liu
James Esper
Jong Ho Lee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motional AD LLC
Original Assignee
Motional AD LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motional AD LLC filed Critical Motional AD LLC
Publication of DE102020133982A1 publication Critical patent/DE102020133982A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1652Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with ranging devices, e.g. LIDAR or RADAR
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/246Arrangements for determining position or orientation using environment maps, e.g. simultaneous localisation and mapping [SLAM]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/247Arrangements for determining position or orientation using signals provided by artificial sources external to the vehicle, e.g. navigation beacons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Transportation (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

Die vorliegende Offenbarung ist auf ein Computersystem und Techniken zum automatischen Annotieren von Objekten in Kartendaten ausgerichtet, die zum Navigieren eines autonomen Fahrzeugs verwendet werden. Im Allgemeinen ist das Computersystem dazu ausgelegt, LiDAR-Datenpunkte für eine Umgebung im Umfeld eines autonomen Fahrzeugs zu erhalten, die LiDAR-Datenpunkte auf Bilddaten zu projizieren, ein Zielobjekt in den Bilddaten zu detektieren, einen Teilsatz der LiDAR-Datenpunkte zu extrahieren, der dem detektierten Zielobjekt entspricht, das detektierte Zielobjekt in Kartendaten zu registrieren, falls der extrahierte Teilsatz der LiDAR-Datenpunkte Registrierungskriterien erfüllt, und das autonome Fahrzeug in der Umgebung gemäß den Kartendaten zu navigieren.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht den Vorteil der vorläufigen US-Patentanmeldung mit der Nr. 62/949,345 , eingereicht am 17. Dezember 2019 und mit dem Titel „AUTOMATED OBJECT ANNOTATION USING FUSED CAMERA/LIDAR DATA POINTS", deren gesamter Inhalt hiermit durch Bezugnahme aufgenommen wird.
  • GEBIET DER ERFINDUNG
  • Diese Beschreibung betrifft ein Computersystem zum Fusionieren von Kamera- und LiDAR-Datenpunkten, um eine automatisierte Annotation von Objekten in Kartendaten durchzuführen, die zum Navigieren eines autonomen Fahrzeugs verwendet werden.
  • HINTERGRUND
  • Autonome Fahrzeuge können zum Transportieren von Menschen und/oder Fracht (z. B. Paketen, Objekten oder anderen Gegenständen) von einem Ort zu einem anderen verwendet werden. Beispielsweise kann ein autonomes Fahrzeug zu dem Standort einer Person navigieren, darauf warten, dass die Person in das autonome Fahrzeug einsteigt, und zu einem spezifizierten Bestimmungsort (z. B. einem durch die Person ausgewählten Ort) navigieren. Um in der Umgebung zu navigieren, sind diese autonomen Fahrzeuge mit verschiedenen Arten von Sensoren ausgestattet, um Objekte im Umfeld zu detektieren.
  • KURZFASSUNG
  • Der in dieser Spezifikation beschriebene Gegenstand ist auf ein Computersystem und Techniken zum automatischen Annotieren von Objekten in Kartendaten ausgerichtet, die zum Navigieren eines autonomen Fahrzeugs verwendet werden. Im Allgemeinen ist das Computersystem dazu ausgelegt, LiDAR-Datenpunkte für eine Umgebung im Umfeld eines autonomen Fahrzeugs zu erhalten, die LiDAR-Datenpunkte auf Bilddaten zu projizieren, ein Zielobjekt in den Bilddaten zu detektieren, einen Teilsatz der LiDAR-Datenpunkte zu extrahieren, der dem detektierten Zielobjekt entspricht, das detektierte Zielobjekt in Kartendaten zu registrieren, falls der extrahierte Teilsatz der LiDAR-Datenpunkte Registrierungskriterien erfüllt, und das autonome Fahrzeug in der Umgebung gemäß den Kartendaten zu navigieren.
  • Diese und andere Aspekte, Merkmale und Implementierungen können als Verfahren, Einrichtungen, Systeme, Komponenten, Programmprodukte, Mittel oder Schritte zum Durchführen einer Funktion, oder auf andere Weisen ausgedrückt werden.
  • Diese und andere Aspekte, Merkmale und Implementierungen werden aus den folgenden Beschreibungen, einschließlich den Ansprüchen, ersichtlich werden.
  • Figurenliste
    • 1 zeigt ein Beispiel für ein autonomes Fahrzeug mit autonomer Fähigkeit.
    • 2 veranschaulicht eine beispielhafte „Cloud“-Rechenumgebung.
    • 3 veranschaulicht ein Computersystem.
    • 4 zeigt eine beispielhafte Architektur für ein autonomes Fahrzeug.
    • 5 zeigt ein Beispiel für Eingaben und Ausgaben, die durch ein Wahrnehmungsmodul verwendet werden können.
    • 6 zeigt ein Beispiel für ein LiDAR-System.
    • 7 zeigt das LiDAR-System im Betrieb.
    • 8 zeigt den Betrieb des LiDAR-Systems mit zusätzlichen Einzelheiten.
    • 9 zeigt ein Blockdiagramm der Beziehungen zwischen Eingaben und Ausgaben eines Planungsmoduls.
    • 10 zeigt einen gerichteten Graphen, der bei der Pfadplanung verwendet wird.
    • 11 zeigt ein Blockdiagramm der Eingaben und Ausgaben eines Steuermoduls.
    • 12 zeigt ein Blockdiagramm der Eingaben, Ausgaben und Komponenten einer Steuerung.
    • 13 zeigt eine beispielhafte Architektur eines Computersystems zum Durchführen einer automatisierten Objektannotation für Kartendaten, die zum Navigieren eines Fahrzeugs verwendet werden.
    • 14 zeigt eine beispielhafte Repräsentation von Bilddaten.
    • 15 zeigt eine beispielhafte Repräsentation fusionierter Kamera-/LiDAR-Daten.
    • 16 zeigt eine Repräsentation fusionierter Kamera-/LiDAR-Daten mit Obj ektannotation.
    • 17 ist ein Flussdiagramm eines beispielhaften Prozesses zum Durchführen einer automatisierten Objektannotation für Kartendaten, die zum Navigieren eines Fahrzeugs verwendet werden.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In der folgenden Beschreibung sind für Erläuterungszwecke zahlreiche spezifische Einzelheiten dargelegt, um ein vollständiges Verständnis der vorliegenden Erfindung bereitzustellen. Es wird jedoch ersichtlich werden, dass die vorliegende Erfindung ohne diese spezifischen Einzelheiten umgesetzt werden kann. In anderen Fällen sind wohlbekannte Strukturen und Vorrichtungen in Blockdiagrammform gezeigt, um eine unnötige Verundeutlichung der vorliegenden Erfindung zu vermeiden.
  • In den Zeichnungen sind zur Vereinfachung der Beschreibung spezifische Anordnungen oder Reihenfolgen schematischer Elemente, wie etwa jener, die Vorrichtungen, Module, Anweisungsblöcke und Datenelemente repräsentieren, gezeigt. Fachleute sollten jedoch verstehen, dass die spezifische Reihenfolge oder Anordnung der schematischen Elemente in den Zeichnungen nicht andeuten soll, dass eine spezielle Verarbeitungsreihenfolge oder -sequenz oder eine Trennung von Prozessen notwendig ist. Ferner soll der Einschluss eines schematischen Elements in einer Zeichnung nicht andeuten, dass ein solches Element in allen Ausführungsformen notwendig ist oder die durch ein solches Element repräsentierten Merkmale in manchen Ausführungsformen möglicherweise nicht in anderen Elementen enthalten sind oder möglicherweise nicht mit diesen kombiniert werden.
  • In den Zeichnungen, in denen verbindende Elemente, wie etwa durchgezogene oder gestrichelte Linien oder Pfeile, zum Veranschaulichen einer Verbindung, einer Beziehung oder einer Assoziation zwischen oder unter zwei oder mehr anderen schematischen Elementen verwendet werden, soll das Nichtvorhandensein irgendwelcher solcher verbindender Elemente ferner nicht andeuten, dass keine Verbindung, Beziehung oder Assoziation vorhanden sein kann. Mit anderen Worten sind manche Verbindungen, Beziehungen oder Assoziationen zwischen Elementen nicht in den Zeichnungen gezeigt, sodass die Offenbarung nicht verundeutlicht wird. Zusätzlich wird zur Vereinfachung der Veranschaulichung ein einzelnes verbindendes Element verwendet, um mehrere Verbindungen, Beziehungen oder Assoziationen zwischen Elementen zu repräsentieren. Wenn ein verbindendes Element beispielsweise eine Kommunikation von Signalen, Daten oder Anweisungen repräsentiert, sollten Fachleute verstehen, dass ein solches Element einen oder mehrere Signalpfade (z. B. einen Bus), wie möglicherweise benötigt, repräsentiert, um die Kommunikation zu bewirken.
  • Nun wird ein ausführlicher Bezug auf Ausführungsformen genommen, deren Beispiele in den begleitenden Zeichnungen veranschaulicht sind. In der folgenden ausführlichen Beschreibung sind zahlreiche spezifische Einzelheiten dargelegt, um ein vollständiges Verständnis der verschiedenen beschriebenen Ausführungsformen bereitzustellen. Einem Durchschnittsfachmann wird jedoch ersichtlich werden, dass die verschiedenen beschriebenen Ausführungsformen ohne diese spezifischen Einzelheiten umgesetzt werden können. In anderen Fällen wurden wohlbekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht ausführlich beschrieben, sodass Aspekte der Ausführungsformen nicht unnötig verundeutlicht werden.
  • Nachfolgend sind mehrere Merkmale beschrieben, die jeweils unabhängig voneinander oder mit einer beliebigen Kombination anderer Merkmale verwendet werden können. Ein beliebiges individuelles Merkmal spricht jedoch möglicherweise keines der oben besprochenen Probleme an oder könnte nur eines der oben besprochenen Probleme ansprechen. Manche der oben besprochenen Probleme könnten möglicherweise nicht vollständig durch irgendwelche der hierin beschriebenen Merkmale angesprochen werden. Obwohl Überschriften bereitgestellt sind, können Informationen bezüglich einer speziellen Überschrift, die aber nicht in dem Abschnitt mit dieser Überschrift aufgefunden werden, auch andernorts in dieser Beschreibung aufgefunden werden. Ausführungsformen sind hierin gemäß der folgenden Gliederung beschrieben:
    1. 1. Allgemeiner Überblick
    2. 2. Überblick der Hardware
    3. 3. Architektur eines autonomen Fahrzeugs
    4. 4. Eingaben in das autonome Fahrzeug
    5. 5. Planung des autonomen Fahrzeugs
    6. 6. Steuerung des autonomen Fahrzeugs
    7. 7. Rechenssystem für die automatisierte Objektannotation
    8. 8. Beispielhafter Prozess zum Durchführen einer automatisierten Objektannotation
  • Allgemeiner Überblick
  • Autonome Fahrzeuge, die in komplexen Umgebungen (z. B. einer städtischen Umgebung) fahren, stellen eine große technologische Herausforderung dar. Damit autonome Fahrzeuge diese Umgebungen navigieren, verwenden die Fahrzeuge Kartendaten, um die Navigation des Fahrzeugs in der Umgebung zu leiten. Die Kartendaten können eine Indikation von Objekten in der Umgebung beinhalten, wie etwa beispielsweise Ampeln. Ein Ansatz zum Identifizieren des Vorhandenseins von Objekten in den Kartendaten beinhaltet das manuelle Überprüfen von Bilddaten, um Objekte zu identifizieren, und das Annotieren des Vorhandenseins der Objekte in den Bilddaten. Solche Ansätze liefern jedoch beschränkte Informationen und sind kostspielig, zeitaufwendig, ineffizient und gegenüber menschlichen Fehlern anfällig. Die vorliegende Offenbarung liefert eine verbesserte Technik zum Annotieren von Objekten in Kartendaten, die Fusionieren von LiDAR-Datenpunkten mit Bilddaten und Durchführen einer automatisierten Objektdetektion an den fusionierten Daten beinhaltet, um die Kartendaten durch Einschließen einer Indikation der detektierten Objekte und assoziierter Stellungsdaten für die Objekte zu verbessern.
  • Insbesondere verwenden das hierin beschriebene System und die hierin beschriebenen Techniken ein LiDAR (z. B. ein LiDAR-System), um LiDAR-Datenpunkte für eine Umgebung im Umfeld des autonomen Fahrzeugs zu erhalten. Die LiDAR-Datenpunkte werden mit Bilddaten der Umgebung kombiniert (fusioniert) (z. B. auf diese projiziert). Die Bilddaten werden dann analysiert, um ein Zielobjekt zu detektieren, und LiDAR-Datenpunkte, die dem detektierten Zielobjekt entsprechen (die z. B. mit dem Zielobjekt in den Bilddaten kolokalisiert sind), werden extrahiert und analysiert, um potenziell zusätzliche Informationen (z. B. Stellungsdaten) für das detektierte Zielobjekt bereitzustellen. Das detektierte Zielobjekt wird dann in den Kartendaten registriert, die beim Navigieren des Fahrzeugs in der Umgebung verwendet werden. Im Vergleich zu herkömmlichen Objektdetektionsvorgehensweisen verbessert die offenbarte Technik die Genauigkeit und Effizienz der Objektdetektion und liefert zusätzliche Einzelheiten für die detektierten Objekte.
  • Überblick der Hardware
  • 1 zeigt ein Beispiel für ein autonomes Fahrzeug 100 mit autonomer Fähigkeit.
  • Wie hierin verwendet, bezieht sich der Begriff „autonome Fähigkeit“ auf eine Funktion, ein Merkmal oder eine Einrichtung, die/das ermöglicht, dass ein Fahrzeug teilweise oder vollständig ohne einen menschlichen Eingriff in Echtzeit betrieben wird, einschließlich unter anderem vollautonomer Fahrzeuge, hochautonomer Fahrzeuge und bedingt autonomer Fahrzeuge.
  • Wie hierin verwendet, ist ein autonomes Fahrzeug (AV) ein Fahrzeug, das autonome Fähigkeit besitzt.
  • Wie hierin verwendet, beinhaltet „Fahrzeug“ Mittel für den Transport von Gütern oder Menschen. Beispielsweise Autos, Busse, Züge, Flugzeuge, Drohnen, Lastkraftwagen, Boote, Schiffe, Unterwasserfahrzeuge, Luftfahrzeuge usw. Ein fahrerloses Auto ist ein Beispiel eines Fahrzeugs.
  • Wie hierin verwendet, bezieht sich „Trajektorie“ auf einen Pfad oder eine Route zum Navigieren eines AV von einem ersten raumzeitlichen Ort zu einem zweiten raumzeitlichen Ort. In einer Ausführungsform wird der erste raumzeitliche Ort als Anfangs- oder Startort bezeichnet und wird der zweite raumzeitliche Ort als Bestimmungsort, endgültiger Ort, Ziel, Zielposition oder Zielort bezeichnet. In manchen Beispielen besteht eine Trajektorie aus einem oder mehreren Segmenten (z. B. Straßenabschnitten), und jedes Segment besteht aus einem oder mehreren Blöcken (z. B. Teilen einer Fahrbahn oder Kreuzung). In einer Ausführungsform entsprechen die raumzeitlichen Orte Orten der realen Welt. Beispielsweise sind die raumzeitlichen Orte Abhol- oder Abladeorte zum Abholen oder Abladen von Personen oder Gütern.
  • Wie hierin verwendet'' beinhaltet „Sensor(en)“ eine oder mehrere Hardwarekomponenten, die Informationen über die Umgebung im Umfeld des Sensors detektieren. Manche der Hardwarekomponenten können Erfassungskomponenten (z. B. Bildsensoren, biometrische Sensoren), Übertragungs- und/oder Empfangskomponenten (z. B. Laser- oder Hochfrequenzwellen-Sender und -Empfänger), elektronische Komponenten wie etwa Analog-Digital-Wandler, eine Datenspeicherungsvorrichtung (wie etwa einen RAM und/oder eine nichtflüchtige Speicherung), Software- oder Firmwarekomponenten und Datenverarbeitungskomponenten wie etwa eine ASIC (anwendungsspezifische integrierte Schaltung), einen Mikroprozessor und/oder einen Mikrocontroller beinhalten.
  • Wie hierin verwendet'' ist eine „Szenenbeschreibung“ eine Datenstruktur (z. B. Liste) oder ein Datenstrom, die/der ein oder mehrere klassifizierte oder gelabelte Objekte beinhaltet, die durch einen oder mehrere Sensoren am AV-Fahrzeug detektiert oder durch eine Quelle extern zu dem AV bereitgestellt werden.
  • Wie hierin verwendet, ist eine „Straße“ ein physischer Bereich, der von einem Fahrzeug durchfahren werden kann, und kann einer benannten Verkehrsstraße entsprechen (z. B. Stadtstraße, Autobahn usw.) oder kann einer unbenannten Verkehrsstraße entsprechen (z. B. einer Einfahrt in einem Haus oder Bürogebäude, einem Abschnitt eines Parkplatzes, einem Abschnitt eines leeren Grundstücks, einem Feldweg in einem ländlichen Gebiet usw.). Da manche Fahrzeuge (z. B. Allrad-Pickup-Trucks, Geländewagen usw.) in der Lage sind, eine Vielfalt physischer Bereiche zu durchfahren, die nicht spezifisch für den Fahrzeugverkehr konzipiert sind, kann eine „Straße“ ein physischer Bereich sein, der nicht formell durch irgendeine Gemeinde oder andere Regierungsstelle oder Behörde als eine Verkehrsstraße definiert ist.
  • Wie hierin verwendet, ist eine „Fahrbahn“ ein Teil einer Straße, auf der ein Fahrzeug fahren kann, und kann dem Großteil oder der Gesamtheit des Raums zwischen Fahrbahnmarkierungen entsprechen, oder kann nur einem Teil (z. B. weniger als 50 %) des Raums zwischen Fahrbahnmarkierungen entsprechen. Beispielsweise könnte eine Straße mit Fahrbahnmarkierungen zwei oder mehr Fahrzeuge zwischen den Markierungen unterbringen, sodass ein Fahrzeug an dem anderen vorbeifahren kann, ohne die Fahrbahnmarkierungen zu überfahren, und könnte somit als eine Fahrbahn aufweisend, die schmaler als der Raum zwischen den Fahrbahnmarkierungen ist, oder als zwei Fahrbahnen zwischen den Fahrbahnmarkierungen aufweisend interpretiert werden. Eine Fahrbahn könnte auch bei Nichtvorhandensein von Fahrbahnmarkierungen interpretiert werden. Beispielsweise kann eine Fahrbahn basierend auf physischen Merkmalen einer Umgebung definiert werden, z. B. Gestein und Bäume entlang einer Verkehrsstraße in einem ländlichen Gebiet.
  • „Ein oder mehr" beinhaltet eine Funktion, die durch ein Element durchgeführt wird, eine Funktion, die durch mehr als ein Element durchgeführt wird, z. B. auf eine verteilte Weise, mehrere Funktionen, die durch ein Element durchgeführt werden, mehrere Funktionen, die durch mehrere Elemente durchgeführt werden, oder eine beliebige Kombination des Obenstehenden.
  • Es versteht sich außerdem, dass obwohl hierin in manchen Fällen die Begriffe erster, zweiter usw. zum Beschreiben verschiedener Elemente verwendet werden, diese Elemente nicht durch diese Begriffe eingeschränkt werden sollten. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Beispielsweise könnte ein erster Kontakt als ein zweiter Kontakt bezeichnet werden, und gleichermaßen könnte ein zweiter Kontakt als ein erster Kontakt bezeichnet werden, ohne vom Schutzumfang der verschiedenen beschriebenen Ausführungsformen abzuweichen. Der erste Kontakt und der zweite Kontakt sind beide Kontakte, aber sie sind nicht derselbe Kontakt, insofern nicht anderweitig spezifiziert.
  • Die in der Beschreibung der verschiedenen hierin beschriebenen Ausführungsformen verwendete Terminologie soll nur spezielle Ausführungsformen beschreiben und nicht beschränkend sein. Wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und in den angehängten Ansprüchen verwendet, sollen die Singularformen „ein“, „eine“ und „der/die/das“ auch die Pluralformen einschließen, insofern der Zusammenhang nicht deutlich etwas anderes angibt. Es versteht sich auch, dass sich der Begriff „und/oder“, wie hierin verwendet, auf beliebige und alle möglichen Kombinationen eines oder mehrerer der assoziierten aufgelisteten Elemente bezieht und diese einschließt. Es versteht sich ferner, dass die Begriffe „beinhaltet“, „einschließlich“, „umfasst“ und/oder „umfassend“, wenn in dieser Beschreibung verwendet, das Vorhandensein genannter Merkmale, ganzer Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifizieren, aber nicht das Vorhandensein oder den Zusatz einer/eines oder mehrerer anderer Elemente, ganzer Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt.
  • Wie hierin verwendet, soll der Begriff „falls“ optional so ausgelegt werden, dass er in Abhängigkeit vom Zusammenhang „wenn“ oder „bei“ oder „als Reaktion auf das Bestimmen“ oder „als Reaktion auf das Detektieren“ bedeutet. Gleichermaßen soll der Ausdruck „falls bestimmt wird“ oder „falls [eine genannte Bedingung oder ein genanntes Ereignis] detektiert wird“ optional so ausgelegt werden, dass er in Abhängigkeit vom Zusammenhang „bei der Bestimmung“ oder „als Reaktion auf das Bestimmen“ oder „bei der Detektion [der genannten Bedingung oder des genannten Ereignisses]“ oder „als Reaktion auf das Detektieren [der genannten Bedingung oder des genannten Ereignisses]“ bedeutet.
  • Wie hierin verwendet, bezieht sich ein AV-System auf das AV zusammen mit dem Array von Hardware, Software, gespeicherten Daten und in Echtzeit erzeugten Daten, die den Betrieb des AV unterstützen. In einer Ausführungsform ist das AV-System in dem AV integriert. In einer Ausführungsform ist das AV-System über mehrere Orte verteilt. Beispielsweise ist ein Teil der Software des AV-Systems in einer Cloud-Rechenumgebung implementiert, ähnlich der unten mit Bezug auf 2 beschriebenen Cloud-Rechenumgebung 200.
  • Im Allgemeinen beschreibt dieses Dokument Technologien, die bei beliebigen Fahrzeugen anwendbar sind, die eine oder mehrere autonome Fähigkeiten aufweisen, einschließlich vollautonomen Fahrzeugen, hochautonomen Fahrzeugen und bedingt autonomen Fahrzeugen, wie etwa sogenannten Stufe-5-, Stufe-4- bzw. Stufe-3-Fahrzeugen (siehe Standard von SAE International J3016: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems, der durch Bezugnahme in seiner Gesamtheit aufgenommen wird, für weitere Einzelheiten über die Klassifikation von Autonomiestufen in Fahrzeugen). Die in diesem Dokument beschriebenen Technologien sind auch bei teilautonomen Fahrzeugen und fahrergestützten Fahrzeugen anwendbar, wie etwa sogenannten Stufe-2- und Stufe-1-Fahrzeugen (siehe Standard von SAE International J3016: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems). In einer Ausführungsform können eines oder mehrere der Fahrzeugsysteme der Stufe 1, 2, 3, 4 und 5 gewisse Fahrzeugoperationen (z. B. Lenkung, Bremsung und Kartenverwendung) unter gewissen Betriebsbedingungen basierend auf der Verarbeitung von Sensoreingaben automatisieren. Die in diesem Dokument beschriebenen Technologien können für Fahrzeuge in beliebigen Stufen vorteilhaft sein, angefangen von vollautonomen Fahrzeugen bis zu menschlich betriebenen Fahrzeugen.
  • Mit Bezug auf 1 betreibt ein AV-System 120 das AV 100 entlang einer Trajektorie 198 durch eine Umgebung 190 zu einem Bestimmungsort 199 (manchmal als ein endgültiger Ort bezeichnet), während Objekte (z. B. natürliche Behinderungen 191, Fahrzeuge 193, Fußgänger 192, Fahrradfahrer und andere Hindernisse) vermieden und Straßenregeln (z. B. Betriebsregeln oder Fahrpräferenzen) eingehalten werden.
  • In einer Ausführungsform beinhaltet das AV-System 120 Vorrichtungen 101, die so instrumentiert sind, dass sie Betriebsbefehle von den Computerprozessoren 146 empfangen und auf diese reagieren. In einer Ausführungsform ähneln die Rechenprozessoren 146 dem unten mit Bezug auf 3 beschriebenen Prozessor 304. Beispiele für die Vorrichtungen 101 beinhalten eine Lenkungssteuerung 102, Bremsen 103, Gänge, Gaspedal oder andere Beschleunigungssteuermechanismen, Scheibenwischer, Seitentürverriegelungen, Fenstersteuerungen und Blinker.
  • In einer Ausführungsform beinhaltet das AV-System 120 Sensoren 121 zum Messen oder Inferieren von Eigenschaften des Status oder Zustands des AV 100, wie etwa die Position des AV, Linear- und Winkelgeschwindigkeit und -beschleunigung und Kurs (z. B. eine Orientierung des führenden Endes des AV 100). Beispiele für die Sensoren 121 sind GPS, inertiale Messeinheiten (IMU), die sowohl Fahrzeuglinearbeschleunigungen als auch Winkelraten messen, Radgeschwindigkeitssensoren zum Messen oder Schätzen von Radschlupfverhältnissen, Radbremsdruck- oder Bremsmomentsensoren, Motordrehmoment- oder Raddrehmomentsensoren und Lenkwinkel- und Winkelratensensoren.
  • In einer Ausführungsform beinhalten die Sensoren 121 auch Sensoren zum Erfassen oder Messen von Eigenschaften der Umgebung des AV. Beispielsweise Monokular- oder Stereo-Videokameras 122 im sichtbaren Licht, Infrarotspektrum oder thermischen Spektrum (oder beiden), LiDAR 123, RADAR, Ultraschallsensoren, Laufzeit(ToF)-Tiefensensoren, Geschwindigkeitssensoren, Temperatursensoren, Luftfeuchtigkeitssensoren und Niederschlagssensoren.
  • In einer Ausführungsform beinhaltet das AV-System 120 eine Datenspeicherungseinheit 142 und einen Speicher 144 zum Speichern von Maschinenanweisungen, die mit den Computerprozessoren 146 assoziiert sind, oder von Daten, die durch die Sensoren 121 gesammelt werden. In einer Ausführungsform ähnelt die Datenspeicherungseinheit 142 dem ROM 308 oder der Speicherungsvorrichtung 310, die nachstehend in Bezug auf 3 beschrieben sind. In einer Ausführungsform ähnelt der Speicher 144 dem unten beschriebenen Hauptspeicher 306. In einer Ausführungsform speichern die Datenspeicherungseinheit 142 und der Speicher 144 historische, Echtzeit- und/oder prädiktive Informationen über die Umgebung 190. In einer Ausführungsform beinhalten die gespeicherten Informationen Karten, Fahrleistung, Verkehrsüberlastungsaktualisierungen oder Wetterbedingungen. In einer Ausführungsform werden Daten bezüglich der Umgebung 190 von einer entfernten Datenbank 134 über einen Kommunikationskanal zu dem AV 100 übertragen.
  • In einer Ausführungsform beinhaltet das AV-System 120 Kommunikationsvorrichtungen 140 zum Kommunizieren von gemessenen oder inferierten Eigenschaften der Status oder Zustände anderer Fahrzeuge, wie etwa Positionen, Linear- und Winkelgeschwindigkeiten, Linear- und Winkelbeschleunigungen und Linear- und Winkelkurse, zu dem AV 100. Diese Vorrichtungen beinhalten Fahrzeug-zu-Fahrzeug(V2V)- und Fahrzeugzu-Infrastruktur(V2I)-Kommunikationsvorrichtungen und Vorrichtungen für Drahtloskommunikationen über Punkt-zu-Punkt oder Ad-Hoc-Netzwerke oder beide. In einer Ausführungsform kommunizieren die Kommunikationsvorrichtungen 140 über das elektromagnetische Spektrum (einschließlich Funkkommunikationen und optischer Kommunikationen) oder andere Medien (z. B. Luft und akustische Medien). Eine Kombination von Fahrzeug-zu-Fahrzeug(V2V)- und Fahrzeug-zu-Infrastruktur(V2I)-Kommunikation (und in manchen Ausführungsformen einer oder mehrerer anderer Kommunikationsarten) wird manchmal als eine Fahrzeug-zu-Allem(V2X)-Kommunikation bezeichnet. Eine V2X-Kommunikation entspricht typischerweise einem oder mehreren Kommunikationsstandards zur Kommunikation mit, zwischen und unter autonomen Fahrzeugen.
  • In einer Ausführungsform beinhalten die Kommunikationsvorrichtungen 140 Kommunikationsschnittstellen. Beispielsweise drahtgebundene, drahtlose, WiMAX-, WiFi-, Bluetooth-, Satelliten-, zellulare, optische, Nahfeld-, Infrarot- oder Funk-Schnittstellen. Die Kommunikationsschnittstellen übertragen Daten von einer entfernten Datenbank 134 zu dem AV-System 120. In einer Ausführungsform ist die entfernte Datenbank 134 in einer Cloud-Rechenumgebung 200 eingebettet, wie in 2 beschrieben. Die Kommunikationsschnittstellen 140 übertragen von den Sensoren 121 gesammelte Daten oder andere Daten bezüglich des Betriebs des AV 100 zu der entfernten Datenbank 134. In einer Ausführungsform übertragen die Kommunikationsschnittstellen 140 Informationen, die sich auf Teleoperationen beziehen, zu dem AV 100. In manchen Ausführungsformen kommuniziert das AV 100 mit anderen Fern (z. B. „Cloud“) -Servern 136.
  • In einer Ausführungsform speichert und überträgt die entfernte Datenbank 134 auch digitale Daten (z. B. Speichern von Daten wie etwa Landstraßen- und Stadtstraßenorten). Solche Daten werden auf dem Speicher 144 im AV 100 gespeichert oder von der entfernten Datenbank 134 über einen Kommunikationskanal zu dem AV 100 übertragen.
  • In einer Ausführungsform speichert und überträgt die entfernte Datenbank 134 historische Informationen über Fahreigenschaften (z. B. Geschwindigkeits- und Beschleunigungsprofile) von Fahrzeugen, die zuvor zu ähnlichen Tageszeiten entlang der Trajektorie 198 führen. In einer Implementierung können solche Daten auf dem Speicher 144 im AV 100 gespeichert oder von der entfernten Datenbank 134 über einen Kommunikationskanal zu dem AV 100 übertragen werden.
  • Die sich am AV 100 befindlichen Rechenvorrichtungen 146 erzeugen algorithmisch Steuerhandlungen basierend auf sowohl Echtzeit-Sensordaten als auch vorherigen Informationen, was dem AV-System 120 ermöglicht, seine autonomen Fahrfähigkeiten auszuführen.
  • In einer Ausführungsform beinhaltet das AV-System 120 mit den Rechenvorrichtungen 146 gekoppelte Computerperipheriegeräte 132 zum Bereitstellen von Informationen und Warnungen an einen Benutzer (z. B. einen Insassen oder einen Fernbenutzer) des AV 100 und Empfangen einer Eingabe von diesem. In einer Ausführungsform ähneln die Peripheriegeräte 132 der Anzeige 312, der Eingabevorrichtung 314 und der Cursor-Steuerung 316, die unten mit Bezug auf 3 besprochen sind. Die Kopplung ist drahtlos oder drahtgebunden. Zwei oder mehr beliebige der Schnittstellenvorrichtungen können in eine einzelne Vorrichtung integriert sein.
  • 2 veranschaulicht eine beispielhafte „Cloud“-Rechenumgebung. Cloud-Computing ist ein Dienstlieferungsmodell zum Ermöglichen eines zweckmäßigen On-Demand-Netzwerkzugangs für einen gemeinsam genutzten Pool konfigurierbarer Rechenressourcen (z. B. Netzwerke, Netzwerkbandbreite, Server, Verarbeitung, Speicher, Speicherung, Anwendungen, virtuelle Maschinen und Dienste). In typischen Cloud-Rechensystemen sind die zum Liefern der durch die Cloud bereitgestellten Dienste verwendeten Maschinen in einem oder mehreren großen Cloud-Datenzentren untergebracht. Jetzt mit Bezug auf 2 beinhaltet die Cloud-Rechenumgebung 200 Cloud-Datenzentren 204a, 204b und 204c, die über die Cloud 202 miteinander verbunden sind. Die Datenzentren 204a, 204b und 204c stellen Computersystemen 206a, 206b, 206c, 206d, 206e und 206f, die mit der Cloud 202 verbunden sind, Cloud-Rechendienste bereit.
  • Die Cloud-Rechenumgebung 200 beinhaltet ein oder mehrere Cloud-Datenzentren. Im Allgemeinen bezieht sich ein Cloud-Datenzentrum, zum Beispiel das in 2 gezeigte Cloud-Datenzentrum 204a, auf die physische Anordnung von Servern, die eine Cloud bilden, zum Beispiel die in 2 gezeigte Cloud 202, oder einen speziellen Teil einer Cloud. Beispielsweise sind Server in dem Cloud-Datenzentrum physisch in Räume, Gruppen, Reihen und Racks angeordnet. Ein Cloud-Datenzentrum weist eine oder mehrere Zonen auf, die einen oder mehrere Serverräume beinhalten. Jeder Raum weist eine oder mehrere Serverreihen auf, und jede Reihe beinhaltet ein oder mehrere Racks. Jedes Rack beinhaltet einen oder mehrere individuelle Serverknoten. In manchen Implementierungen sind Server in Zonen, Räume, Racks und/oder Reihen basierend auf physischen Infrastrukturanforderungen der Datenzentrumeinrichtung, einschließlich Leistungs-, Energie-, thermalen, Wärme- und/oder anderer Anforderungen, in Gruppen angeordnet. In einer Ausführungsform ähneln die Serverknoten dem in 3 beschriebenen Computersystem. Das Datenzentrum 204a weist viele Rechensysteme auf, die über viele Racks verteilt sind.
  • Die Cloud 202 beinhaltet Cloud-Datenzentren 204a, 204b und 204c zusammen mit dem Netzwerk und Networking-Ressourcen (zum Beispiel Networking-Geräten, Knoten, Routern, Switches und Vernetzungskabeln), die die Cloud-Datenzentren 204a, 204b und 204c miteinander verbinden und dabei helfen, den Zugang der Rechensysteme 206a-f auf Cloud-Rechensysteme zu ermöglichen. In einer Ausführungsform repräsentiert das Netzwerk eine beliebige Kombination eines oder mehrerer Lokalnetzwerke, großflächiger Netzwerke oder Inter-Netzwerke, die unter Verwendung drahtgebundener oder drahtloser Links gekoppelt sind, die unter Verwendung terrestrischer Verbindungen oder Satellitenverbindungen eingesetzt werden. Über das Netzwerk ausgetauschte Daten werden unter Verwendung einer beliebigen Anzahl von Netzwerkschichtprotokollen transferiert, wie etwa Internetprotokoll (IP), Multiprotocol Label Switching (MPLS), Asynchronous Transfer Mode (ATM), Frame Relay usw. Ferner werden in Ausführungsformen, in denen das Netzwerk eine Kombination mehrerer Teilnetzwerke repräsentiert, unterschiedliche Netzwerkschichtprotokolle an jedem der zugrundeliegenden Teilnetzwerke verwendet. In manchen Ausführungsformen repräsentiert das Netzwerk ein oder mehrere miteinander verbundene Inter-Netzwerke, wie etwa das öffentliche Internet.
  • Die Rechensysteme 206a-f oder Verbraucher der Cloud-Rechensysteme sind über Netzwerklinks und Netzwerkadapter mit der Cloud 202 verbunden. In einer Ausführungsform werden die Rechensysteme 206a-f als verschiedene Rechenvorrichtungen implementiert, zum Beispiel Server, Desktops, Laptops, Tablets, Smartphones, Internet-der-Dinge(IdD)-Vorrichtungen, autonome Fahrzeuge (einschließlich Autos, Drohnen, Shuttles, Zügen, Bussen usw.) und Verbraucherelektronik. In einer Ausführungsform werden die Rechensysteme 206a-f in anderen Systemen oder als ein Teil von diesen implementiert.
  • 3 veranschaulicht ein Computersystem 300. In einer Implementierung ist das Computersystem 300 eine Spezialzweck-Rechenvorrichtung. Die Spezialzweck-Rechenvorrichtung ist festverdrahtet, um die Techniken durchzuführen, oder beinhaltet digitale elektronische Vorrichtungen wie etwa eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) oder feldprogrammierbare Gate-Arrays (FPGAs), die persistent programmiert sind, um die Techniken durchzuführen, oder können einen oder mehrere Allgemeinzweck-Hardwareprozessoren beinhalten, die programmiert sind, die Techniken gemäß Programmanweisungen in Firmware, Speicher, anderer Speicherung oder einer Kombination durchzuführen. Solche Spezialzweck-Rechenvorrichtungen können auch benutzerdefinierte festverdrahtete Logik, ASICs oder FPGAs mit benutzerdefinierter Programmierung kombinieren, um die Techniken zu verwirklichen. In verschiedenen Ausführungsformen sind die Spezialzweck-Rechenvorrichtungen Desktop-Computersysteme, tragbare Computersysteme, Handheld-Vorrichtungen, Netzwerkvorrichtungen oder eine beliebige andere Vorrichtung, die festverdrahtete Logik und/oder Programmlogik einbezieht, um die Techniken zu implementieren.
  • In einer Ausführungsform beinhaltet das Computersystem 300 einen Bus 302 oder einen anderen Kommunikationsmechanismus zum Kommunizieren von Informationen und einen mit einem Bus 302 gekoppelten Hardwareprozessor 304 zum Verarbeiten von Informationen. Der Hardwareprozessor 304 ist beispielsweise ein Allgemeinzweck-Mikroprozessor. Das Computersystem 300 beinhaltet außerdem einen Hauptspeicher 306, wie etwa einen Direktzugriffsspeicher (RAM) oder eine andere dynamische Speicherungsvorrichtung, der/die mit dem Bus 302 gekoppelt ist, zum Speichern von Informationen und Anweisungen, die durch den Prozessor 304 auszuführen sind. In einer Implementierung wird der Hauptspeicher 306 zum Speichern temporärer Variablen oder anderer Zwischeninformationen während der Ausführung von durch den Prozessor 304 auszuführenden Anweisungen verwendet. Derartige Anweisungen, wenn sie in für den Prozessor 304 zugreifbaren, nichttransitorischen Speicherungsmedien gespeichert sind, bilden das Computersystem 300 in einer Spezialzweck-Maschine aus, die zum Durchführen der in den Anweisungen spezifizierten Operationen angepasst ist.
  • In einer Ausführungsform beinhaltet das Computersystem 300 ferner einen Nur-LeseSpeicher (ROM) 308 oder eine andere statische Speicherungsvorrichtung, die mit dem Bus 302 gekoppelt ist, zum Speichern statischer Informationen und Anweisungen für den Prozessor 304. Eine Speicherungsvorrichtung 310, wie etwa eine magnetische Platte, eine optische Platte, ein Solid-State-Laufwerk oder ein dreidimensionaler Cross-Point-Speicher, ist bereitgestellt und mit dem Bus 302 gekoppelt, um Informationen und Anweisungen zu speichern.
  • In einer Ausführungsform ist das Computersystem 300 über den Bus 302 mit einer Anzeige 312 gekoppelt, wie etwa einer Kathodenstrahlröhre (CRT), einer Flüssigkristallanzeige (LCD), einer Plasmaanzeige, einer Leuchtdioden(LED)-Anzeige oder einer Organisch-Leuchtdioden(OLED)-Anzeige, um Informationen für einen Computerbenutzer anzuzeigen. Eine Eingabevorrichtung 314, die alphanumerische und andere Tasten beinhaltet, ist mit dem Bus 302 zum Kommunizieren von Informationen und Befehlsauswahlen zu dem Prozessor 304 gekoppelt. Eine andere Art von Benutzereingabevorrichtung ist eine Cursor-Steuerung 316, wie etwa eine Maus, ein Trackball, eine berührungsgestützte Anzeige oder Cursorrichtungstasten zum Kommunizieren von Richtungsinformationen und Befehlsauswahlen zu dem Prozessor 304 und zum Steuern der Cursorbewegung auf der Anzeige 312. Diese Eingabevorrichtung weist typischerweise zwei Freiheitsgrade in zwei Achsen auf, einer ersten Achse (z. B. x-Achse) und einer zweiten Achse (z. B. y-Achse), was der Vorrichtung ermöglicht, Positionen in einer Ebene zu spezifizieren.
  • Gemäß einer Ausführungsform werden die Techniken hierin durch das Computersystem 300 als Reaktion darauf durchgeführt, dass der Prozessor 304 eine oder mehrere Sequenzen einer oder mehrerer im Hauptspeicher 306 enthaltener Anweisungen ausführt. Solche Anweisungen werden von einem anderen Speicherungsmedium, wie etwa der Speicherungsvorrichtung 310, in den Hauptspeicher 306 gelesen. Die Ausführung der im Hauptspeicher 306 enthaltenen Anweisungssequenzen veranlasst, dass der Prozessor 304 die hierin beschriebenen Prozessschritte durchführt. In alternativen Ausführungsformen wird eine festverdrahtete Schaltungsanordnung anstelle von oder in Kombination mit Softwareanweisungen verwendet.
  • Der Begriff „Speicherungsmedien“ wie hierin verwendet, bezieht sich auf beliebige nichttransitorische Medien, die Daten und/oder Anweisungen speichern, die veranlassen, dass eine Maschine auf eine spezifische Weise arbeitet. Solche Speicherungsmedien beinhalten nichtflüchtige Medien und/oder flüchtige Medien. Nichtflüchtige Medien beinhalten beispielsweise optische Platten, Magnetplatten, Solid-State-Laufwerke oder dreidimensionalen Cross-Point-Speicher, wie etwa die Speicherungsvorrichtung 310. Flüchtige Medien beinhalten dynamischen Speicher, wie etwa den Hauptspeicher 306. Übliche Formen von Speicherungsmedien beinhalten beispielsweise eine Diskette, eine flexible Platte, eine Festplatte, ein Solid-State-Laufwerk, Magnetband oder ein beliebiges anderes magnetisches Datenspeicherungsmedium, eine CD-ROM, ein beliebiges anderes optisches Datenspeicherungsmedium, ein beliebiges physisches Medium mit Lochmustern, einen RAM, einen PROM und EPROM, einen FLASH-EPROM, NV-RAM oder einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette.
  • Speicherungsmedien unterscheiden sich von Übertragungsmedien, können jedoch in Verbindung mit diesen verwendet werden. Übertragungsmedien nehmen bei dem Transfer von Informationen zwischen Speicherungsmedien teil. Beispielsweise beinhalten Übertragungsmedien Koaxialkabel, Kupferdraht und Faseroptik, einschließlich der Drähte, die den Bus 302 umfassen. Übertragungsmedien können auch die Form akustischer Wellen oder Lichtwellen annehmen, wie etwa jene, die während Funkwellen- oder Infrarot-Datenkommunikationen erzeugt werden.
  • In einer Ausführungsform sind verschiedene Formen von Medien beim Führen einer oder mehrerer Sequenzen einer oder mehrerer Anweisungen zu dem Prozessor 304 zur Ausführung beteiligt. Beispielsweise werden die Anweisungen anfänglich auf einer magnetischen Platte oder einem Solid-State-Laufwerk eines Ferncomputers geführt. Der Ferncomputer lädt die Anweisungen in seinen dynamischen Speicher und sendet die Anweisungen über eine Telefonleitung unter Verwendung eines Modems. Ein Modem lokal zu dem Computersystem 300 empfängt die Daten auf der Telefonleitung und verwendet einen Infrarotsender, um die Daten in ein Infrarotsignal umzuwandeln. Ein Infrarotdetektor empfängt die in dem Infrarotsignal geführten Daten und eine geeignete Schaltungsanordnung platziert die Daten auf den Bus 302. Der Bus 302 führt die Daten zum Hauptspeicher 306, aus dem der Prozessor 304 die Anweisungen abruft und ausführt. Die durch den Hauptspeicher 306 empfangenen Anweisungen können optional in der Speicherungsvorrichtung 310 entweder vor oder nach der Ausführung durch den Prozessor 304 gespeichert werden.
  • Das Computersystem 300 beinhaltet auch eine Kommunikationsschnittstelle 318, die mit dem Bus 302 gekoppelt ist. Die Kommunikationsschnittstelle 318 stellt eine Zweiwege-Datenkommunikationskopplung mit einem Netzwerklink 320 bereit, der mit einem Lokalnetzwerk 322 verbunden ist. Beispielsweise ist die Kommunikationsschnittstelle 318 eine ISDN(Integrated Service Digital Network)-Karte, ein Kabelmodem, ein Satellitenmodem oder ein Modem zum Bereitstellen einer Datenkommunikationsverbindung mit einer entsprechenden Art von Telefonleitung. Als ein anderes Beispiel ist die Kommunikationsschnittstelle 318 eine Lokalnetzwerk(LAN)-Karte zum Bereitstellen einer Datenkommunikationsverbindung mit einem kompatiblen LAN. In manchen Implementierungen werden auch Drahtlos-Links implementiert. In einer beliebigen derartigen Implementierung sendet und empfängt die Kommunikationsschnittstelle 318 elektrische, elektromagnetische oder optische Signale, die digitale Datenströme führen, die verschiedene Informationsarten repräsentieren.
  • Der Netzwerklink 320 stellt typischerweise eine Datenkommunikation über ein oder mehrere Netzwerke zu anderen Datenvorrichtungen bereit. Beispielsweise stellt der Netzwerklink 320 eine Verbindung über das Lokalnetzwerk 322 zu einem Host-Computer 324 oder zu einem Cloud-Datenzentrum oder -Gerät bereit, der/das durch einen Internetdienstanbieter (ISP) 326 betrieben wird. Der ISP 326 stellt im Gegenzug Datenkommunikationsdienste über das weltweite Paketdatenkommunikationsnetzwerk bereit, heutzutage gewöhnlich bezeichnet als das „Internet“ 328. Sowohl das Lokalnetzwerk 322 als auch das Internet 328 verwenden elektrische, elektromagnetische oder optische Signale, die digitale Datenströme führen. Die Signale über die verschiedenen Netzwerke und die Signale auf dem Netzwerklink 320 und über die Kommunikationsschnittstelle 318, die die digitalen Daten zu und von dem Computersystem 300 führen, sind beispielhafte Formen von Übertragungsmedien. In einer Ausführungsform enthält das Netzwerk 320 die Cloud 202 oder einen Teil der oben beschriebenen Cloud 202.
  • Das Computersystem 300 sendet Nachrichten und empfängt Daten, einschließlich Programmcode, über das (die) Netzwerk(e), den Netzwerklink 320 und die Kommunikationsschnittstelle 318. In einer Ausführungsform empfängt das Computersystem 300 Code zur Verarbeitung. Der empfangene Code wird durch den Prozessor 304 wie empfangen ausgeführt und/oder in der Speicherungsvorrichtung 310 oder einer anderen nichtflüchtigen Speicherung zur späteren Ausführung gespeichert.
  • Architektur eines autonomen Fahrzeugs
  • 4 zeigt eine beispielhafte Architektur 400 für ein autonomes Fahrzeug (z. B. das in 1 gezeigte AV 100). Die Architektur 400 beinhaltet ein Wahrnehmungsmodul 402 (manchmal als eine Wahrnehmungsschaltung bezeichnet), ein Planungsmodul 404 (manchmal als eine Planungsschaltung bezeichnet), ein Steuermodul 406 (manchmal als eine Steuerschaltung bezeichnet), ein Lokalisierungsmodul 408 (manchmal als eine Lokalisierungsschaltung bezeichnet) und ein Datenbankmodul 410 (manchmal als eine Datenbankschaltung bezeichnet). Jedes Modul spielt beim Betrieb des AV 100 eine Rolle. Zusammen können die Module 402, 404, 406, 408 und 410 Teil des in 1 gezeigten AV-Systems 120 sein. In manchen Ausführungsformen sind beliebige der Module 402, 404, 406, 408 und 410 eine Kombination von Computersoftware (z. B. ausführbarer Code, der auf einem computerlesbaren Medium gespeichert ist) und Computerhardware (z. B. ein/e oder mehrere Mikroprozessoren, Mikrocontroller, anwendungsspezifische integrierte Schaltungen [ASICs], Hardwarespeichervorrichtungen, andere Arten von integrierten Schaltungen, andere Arten von Computerhardware oder eine Kombination beliebiger oder aller dieser Dinge).
  • Im Gebrauch empfängt das Planungsmodul 404 Daten, die einen Bestimmungsort 412 repräsentieren, und bestimmt Daten, die eine Trajektorie 414 (manchmal als eine Route bezeichnet) repräsentieren, auf der das AV 100 fahren kann, um den Bestimmungsort 412 zu erreichen (z. B. dort anzukommen). Damit das Planungsmodul 404 die die Trajektorie 414 repräsentierenden Daten bestimmt, empfängt das Planungsmodul 404 Daten vom Wahrnehmungsmodul 402, vom Lokalisierungsmodul 408 und vom Datenbankmodul 410.
  • Das Wahrnehmungsmodul 402 identifiziert nahegelegene physische Objekte unter Verwendung eines oder mehrerer Sensoren 121, z. B. wie auch in 1 gezeigt. Die Objekte werden klassifiziert (z. B. in Typen wie etwa Fußgänger, Fahrrad, Kraftfahrzeug, Verkehrsschild usw. gruppiert) und dem Planungsmodul 404 wird eine Szenenbeschreibung einschließlich der klassifizierten Objekte 416 bereitgestellt.
  • Das Planungsmodul 404 empfängt auch Daten, die die AV-Position 418 repräsentieren, vom Lokalisierungsmodul 408. Das Lokalisierungsmodul 408 bestimmt die AV-Position unter Verwendung von Daten von den Sensoren 121 und Daten vom Datenbankmodul 410 (z. B. geografische Daten), um eine Position zu berechnen. Beispielsweise verwendet das Lokalisierungsmodul 408 Daten von einem GNSS(globales Satellitennavigationssystem)-Sensor und geografische Daten, um einen Längengrad und Breitengrad des AV zu berechnen. In einer Ausführungsform beinhalten die durch das Lokalisierungsmodul 408 verwendeten Daten hochpräzise Karten der geometrischen Eigenschaften der Verkehrsstraße, Karten, die Straßennetzkonnektivitätseigenschaften beschreiben, Karten, die physische Eigenschaften der Verkehrsstraße beschreiben (wie etwa Verkehrsgeschwindigkeit, Verkehrsvolumen, die Anzahl von Fahrzeug- und Fahrrad-Verkehrsfahrbahnen, Fahrbahnbreite, Fahrbahnverkehrsrichtung oder Fahrbahnmarkierungsarten und -orte oder Kombinationen davon), und Karten, die die räumlichen Orte von Straßenmerkmalen beschreiben, wie etwa Fußgängerüberwege, Verkehrsschilder oder andere Verkehrssignale verschiedener Arten.
  • Das Steuermodul 406 empfängt die die Trajektorie 414 repräsentierenden Daten und die die AV-Position 418 repräsentierenden Daten und betreibt die Steuerfunktionen 420a-c (z. B. Lenkung, Gasgeben, Bremsen, Zündung) des AV auf eine Weise, die bewirken wird, dass das AV 100 entlang der Trajektorie 414 zu dem Bestimmungsort 412 fährt. Falls beispielsweise die Trajektorie 414 eine Linksabbiegung beinhaltet, wird das Steuermodul 406 die Steuerfunktionen 420a-c auf eine Weise betreiben, dass der Lenkwinkel der Lenkfunktion bewirken wird, dass das AV 100 nach links abbiegt, und das Gasgeben und Bremsen bewirken werden, dass das AV 100 anhält und darauf wartet, dass Fußgänger und Fahrzeuge passieren, bevor das Abbiegen vorgenommen wird.
  • Eingaben in das autonome Fahrzeug
  • 5 zeigt ein Beispiel für Eingaben 502a-d (z. B. die in 1 gezeigten Sensoren 121) und Ausgaben 504a-d (z. B. Sensordaten), die durch das Wahrnehmungsmodul 402 (4) verwendet werden. Eine Eingabe 502a ist ein LiDAR(Lichtdetektion und -entfernungsmessung)-System (z. B. das in 1 gezeigte LiDAR 123). LiDAR ist eine Technologie, die Licht (z. B. Impulse von Licht wie etwa Infrarotlicht) verwendet, um Daten über physische Objekte in ihrer Sichtlinie zu erhalten. Ein LiDAR-System erzeugt LiDAR-Daten als die Ausgabe 504a. Beispielsweise sind LiDAR-Daten Sammlungen von 3D- oder 2D-Punkten (auch als Punktwolken bekannt), die zum Erstellen einer Repräsentation der Umgebung 190 verwendet werden.
  • Eine andere Eingabe 502b ist ein RADAR-System. RADAR ist eine Technologie, die Funkwellen verwendet, um Daten über nahegelegene physische Objekte zu erhalten. RADARs können Daten über Objekte erhalten, die sich nicht innerhalb der Sichtlinie eines LiDAR-Systems befinden. Ein RADAR-System 502b erzeugt RADAR-Daten als die Ausgabe 504b. Beispielsweise sind RADAR-Daten ein oder mehrere elektromagnetische Hochfrequenz-Signale, die zum Erstellen einer Repräsentation der Umgebung 190 verwendet werden.
  • Eine andere Eingabe 502c ist ein Kamerasystem. Ein Kamerasystem verwendet eine oder mehrere Kameras (z. B. Digitalkameras, die einen Lichtsensor wie etwa eine CCD [Charge-Coupled Device] verwenden), um Informationen über nahegelegene physische Objekte zu erhalten. Ein Kamerasystem erzeugt Kameradaten als die Ausgabe 504c. Kameradaten nehmen häufig die Form von Bilddaten an (z. B. Daten in einem Bilddatenformat wie etwa RAW, JPEG, PNG usw.). In manchen Beispielen weist das Kamerasystem mehrere unabhängige Kameras auf, z. B. für Stereopsis (Stereovision), was dem Kamerasystem ermöglicht, Tiefe wahrzunehmen. Obwohl die durch das Kamerasystem wahrgenommenen Objekte hier als „nahegelegen“ beschrieben sind, ist dies relativ zu dem AV. Im Gebrauch kann das Kamerasystem dazu ausgelegt sein, Objekte zu „sehen“, die sich entfernt, z. B. bis zu einem Kilometer oder mehr, vor dem AV befinden. Dementsprechend kann das Kamerasystem Merkmale wie etwa Sensoren und Linsen aufweisen, die zum Wahrnehmen von weit entfernten Objekten optimiert sind.
  • Eine andere Eingabe 502d ist ein Ampeldetektionssystem (TLD-System; TLD: Traffic Light Detection). Ein TLD-System verwendet eine oder mehrere Kameras, um Informationen über Ampeln, Verkehrsschilder und andere physische Objekte zu erhalten, die visuelle Navigationsinformationen bereitstellen. Ein TLD-System erzeugt TLD-Daten als die Ausgabe 504d. TLD-Daten nehmen häufig die Form von Bilddaten an (z. B. Daten in einem Bilddatenformat wie etwa RAW, JPEG, PNG usw.). Ein TLD-System unterscheidet sich von einem eine Kamera einbeziehenden System darin, dass ein TLD-System eine Kamera mit einem weiten Sichtfeld verwendet (z. B. unter Verwendung eines Weitwinkelobjektivs oder eines Fischaugenobjekivs), um Informationen über so viele physische Objekte, die visuelle Navigationsinformationen bereitstellen, wie möglich zu erhalten, sodass das AV 100 Zugang zu allen relevanten Navigationsinformationen hat, die durch diese Objekte bereitgestellt werden. Beispielsweise kann der Sichtwinkel des TLD-Systems etwa 120 Grad oder mehr betragen.
  • In manchen Ausführungsformen werden die Ausgaben 504a-d unter Verwendung einer Sensorfusionstechnik kombiniert. Somit werden entweder die individuellen Ausgaben 504a-d anderen Systemen des AV 100 bereitgestellt (z. B. einem Planungsmodul 404 bereitgestellt, wie in 4 gezeigt), oder die kombinierte Ausgabe kann den anderen Systemen bereitgestellt werden, entweder in der Form einer einzelnen kombinierten Ausgabe oder mehrerer kombinierter Ausgaben des gleichen Typs (z. B. unter Verwendung der gleichen Kombinationstechnik oder Kombinieren der gleichen Ausgaben oder beides) oder unterschiedlicher Typen (z. B. unter Verwendung verschiedener jeweiliger Kombinationstechniken oder Kombinieren verschiedener jeweiliger Ausgaben oder beides). In manchen Ausführungsformen wird eine Frühfusionstechnik verwendet. Eine Frühfusionstechnik ist gekennzeichnet durch das Kombinieren von Ausgaben, bevor ein oder mehrere Datenverarbeitungsschritte an der kombinierten Ausgabe angewendet werden. In manchen Ausführungsformen wird eine Spätfusionstechnik verwendet. Eine Spätfusionstechnik ist gekennzeichnet durch das Kombinieren von Ausgaben, nachdem ein oder mehrere Datenverarbeitungsschritte an den individuellen Ausgaben angewendet werden.
  • 6 zeigt ein Beispiel für ein LiDAR-System 602 (z. B. die in 5 gezeigte Eingabe 502a). Das LiDAR-System 602 emittiert Licht 604a-c von einem Lichtemitter 606 (z. B. einem Laser-Sender). Durch ein LiDAR-System emittiertes Licht liegt typischerweise nicht im sichtbaren Spektrum; beispielsweise wird häufig Infrarotlicht verwendet. Ein Teil des emittierten Lichts 604b trifft auf ein physisches Objekt 608 (z. B. ein Fahrzeug) und wird zurück zu dem LiDAR-System 602 reflektiert. (Von einem LiDAR-System emittiertes Licht dringt typischerweise nicht in physische Objekte, z. B. physische Objekte in fester Form, ein.) Das LiDAR-System 602 weist auch einen oder mehrere Lichtdetektoren 610 auf, die das reflektierte Licht detektieren. In einer Ausführungsform erzeugen ein oder mehrere mit dem LiDAR-System assoziierte Datenverarbeitungssysteme ein Bild 612, das das Sichtfeld 614 des LiDAR-Systems repräsentiert. Das Bild 612 beinhaltet Informationen, die die Abgrenzungen 616 eines physischen Objekts 608 repräsentieren. Auf diese Weise wird das Bild 612 zum Bestimmen der Abgrenzungen 616 eines oder mehrerer physischer Objekte in der Nähe eines AV verwendet.
  • 7 zeigt das LiDAR-System 602 im Betrieb. In dem in dieser Figur gezeigten Szenario empfängt das AV 100 sowohl die Kamerasystemausgabe 504c in der Form eines Bildes 702 als auch die LiDAR-Systemausgabe 504a in der Form von LiDAR-Datenpunkten 704. Im Gebrauch vergleichen die Datenverarbeitungssysteme des AV 100 das Bild 702 mit den Datenpunkten 704. Insbesondere wird ein im Bild 702 identifiziertes physisches Objekt 706 auch unter den Datenpunkten 704 identifiziert. Auf diese Weise nimmt das AV 100 die Abgrenzungen des physischen Objekts basierend auf der Kontur und der Dichte der Datenpunkte 704 wahr.
  • 8 zeigt den Betrieb des LiDAR-Systems 602 mit zusätzlichen Einzelheiten. Wie oben beschrieben, detektiert das AV 100 die Abgrenzung eines physischen Objekts basierend auf Charakteristiken der durch das LiDAR-System 602 detektierten Datenpunkte. Wie in 8 gezeigt, wird ein flaches Objekt, wie etwa der Boden 802, von einem LiDAR-System 602 emittiertes Licht 804a-d konsistent reflektieren. Anders ausgedrückt, da das LiDAR-System 602 Licht unter Verwendung eines konstanten Abstands emittiert, wird der Boden 802 Licht zurück zu dem LiDAR-System 602 mit dem gleichen konsistenten Abstand reflektieren. Während das AV 100 über den Boden 802 fährt, wird das LiDAR-System 602 fortfahren, durch den nächsten gültigen Bodenpunkt 806 reflektiertes Licht zu detektieren, falls nichts die Straße versperrt. Falls jedoch ein Objekt 808 die Straße versperrt, wird durch das LiDAR-System 602 emittiertes Licht 804e-f von Punkten 810a-b inkonsistent zu der voraussichtlichen konsistenten Weise reflektiert. Aus diesen Informationen kann das AV 100 bestimmen, dass das Objekt 808 vorhanden ist.
  • Pfadplanung
  • 9 zeigt ein Blockdiagramm 900 der Beziehungen zwischen Eingaben und Ausgaben eines Planungsmoduls 404 (z. B. wie in 4 gezeigt). Im Allgemeinen ist die Ausgabe eines Planungsmoduls 404 eine Route 902 von einem Startpunkt 904 (z. B. Quellstandort oder Anfangsstandort) zu einem Endpunkt 906 (z. B. Bestimmungsort oder endgültigen Ort). Die Route 902 wird typischerweise durch ein oder mehrere Segmente definiert. Beispielsweise ist ein Segment eine zu fahrende Distanz über zumindest einen Abschnitt einer Straße, Landstraße, Autobahn, Einfahrt oder ein anderer physischer Bereich, der sich zur Fahrt eines Kraftfahrzeugs eignet. In manchen Beispielen, falls z. B. das AV 100 ein geländefähiges Fahrzeug ist, wie etwa ein Vierrad(4WD)- oder Allrad(AWD)-Auto, SUV, Pickup-Truck oder dergleichen, beinhaltet die Route 902 „Off-Road“-Segmente, wie etwa unbefestigte Pfade oder offene Felder.
  • Zusätzlich zu der Route 902 gibt ein Planungsmodul auch Routenplanungsdaten 908 auf Fahrbahnebene aus. Die Routenplanungsdaten 908 auf Fahrbahnebene werden verwendet, um Segmente der Route 902 basierend auf Zuständen des Segments zu einer speziellen Zeit zu durchfahren. Falls die Route 902 eine mehrspurige Autobahn beinhaltet, beinhalten die Routenplanungsdaten 908 auf Fahrbahnebene zum Beispiel Trajektorieplanungsdaten 910, die das AV 100 verwendet kann, um eine Fahrbahn unter den mehreren Fahrbahnen zu wählen, z. B. basierend darauf, ob sich einer Ausfahrt genähert wird, ob eine oder mehrere der Fahrbahnen andere Fahrzeuge aufweisen, oder andere Faktoren, die im Verlauf weniger Minuten oder weniger variieren. Gleichermaßen beinhalten die Routenplanungsdaten 908 auf Fahrbahnebene in manchen Implementierungen für ein Segment der Route 902 spezifische Geschwindigkeitsbeschränkungen 912. Falls das Segment beispielsweise Fußgänger oder unerwarteten Verkehr beinhaltet, können die Geschwindigkeitsbeschränkungen 912 das AV 100 auf eine Fahrgeschwindigkeit einschränken, die langsamer als eine voraussichtliche Geschwindigkeit ist, z. B. eine Geschwindigkeit basierend auf Geschwindigkeitsbegrenzungsdaten für das Segment.
  • In einer Ausführungsform beinhalten die Eingaben in das Planungsmodul 404 Datenbankdaten 914 (z. B. von dem in 4 gezeigten Datenbankmodul 410), aktuelle Standortdaten 916 (z. B. die in 4 gezeigte AV-Position 418), Bestimmungsortdaten 918 (z. B. für den in 4 gezeigten Bestimmungsort 412) und Objektdaten 920 (z. B. die klassifizierten Objekte 416, wie durch das in 4 gezeigte Wahrnehmungsmodul 402 wahrgenommen). In manchen Ausführungsformen beinhalten die Datenbankdaten 914 bei der Planung verwendete Regeln. Regeln werden unter Verwendung einer formellen Sprache spezifiziert, z. B. unter Verwendung von boolescher Logik. In einer beliebigen gegebenen Situation, auf die das AV 100 trifft, werden zumindest manche der Regeln für die Situation gelten. Eine Regel gilt für eine gegebene Situation, falls die Regel Bedingungen aufweist, die basierend auf dem AV 100 zur Verfügung stehenden Informationen erfüllt werden, z. B. Informationen über die umliegende Umgebung. Regeln können eine Priorität aufweisen. Beispielsweise kann eine Regel, die besagt „falls die Straße eine Schnellstraße ist, soll sich zu der am weitesten links gelegenen Spur bewegt werden“, eine niedrigere Priorität aufweisen als „falls sich der Ausfahrt innerhalb einer Meile genähert wird, soll sich zu der am weitesten rechts gelegenen Spur bewegt werden“.
  • 10 zeigt einen gerichteten Graphen 1000, der bei der Pfadplanung z. B. durch das Planungsmodul 404 (4) verwendet wird. Im Allgemeinen wird ein gerichteter Graph 1000, wie der in 10 gezeigte, zum Bestimmen eines Pfads zwischen einem beliebigen Startpunkt 1002 und einem Endpunkt 1004 verwendet. In der realen Welt kann die den Startpunkt 1002 und den Endpunkt 1004 trennende Distanz relativ groß sein (z. B. in zwei unterschiedlichen Großstadtgebieten) oder kann relativ klein sein (z. B. zwei Kreuzungen, die an einen Häuserblock angrenzen, oder zwei Fahrbahnen einer mehrspurigen Straße).
  • In einer Ausführungsform weist der gerichtete Graph 1000 Knoten 1006a-d auf, die unterschiedliche Orte zwischen dem Startpunkt 1002 und dem Endpunkt 1004 repräsentieren, die durch ein AV 100 belegt sein könnten. In manchen Beispielen, z. B. wenn der Startpunkt 1002 und der Endpunkt 1004 unterschiedliche Großstadtgebiete repräsentieren, repräsentieren die Knoten 1006a-d Segmente von Straßen. In manchen Beispielen, z. B. wenn der Startpunkt 1002 und der Endpunkt 1004 unterschiedliche Orte auf derselben Straße repräsentieren, repräsentieren die Knoten 1006a-d unterschiedliche Positionen auf dieser Straße. Auf diese Weise beinhaltet der gerichtete Graph 1000 Informationen bei unterschiedlichen Granularitätsstufen. In einer Ausführungsform ist ein eine hohe Granularität aufweisender gerichteter Graph auch ein Teilgraph eines anderen gerichteten Graphen mit einem größeren Maßstab. Beispielsweise weist ein gerichteter Graph, in dem der Startpunkt 1002 und der Endpunkt 1004 weit voneinander entfernt sind (z. B. mehrere Meilen getrennt), den Großteil seiner Informationen mit niedriger Granularität auf und basiert auf gespeicherten Daten, beinhaltet aber auch einige hochgranulare Informationen für den Abschnitt des Graphen, der physische Orte im Sichtfeld des AV 100 repräsentiert.
  • Die Knoten 1006a-d unterscheiden sich von den Objekten 1008a-b, die sich nicht mit einem Knoten überlappen können. In einer Ausführungsform, wenn die Granularität niedrig ist, repräsentieren die Objekte 1008a-b Gebiete, die das Kraftfahrzeug nicht durchfahren kann, z. B. Bereiche, die keine Straßen oder Landstraßen aufweisen. Wenn die Granularität hoch ist, repräsentieren die Objekte 1008a-b physische Objekte im Sichtfeld des AV 100, z. B. andere Kraftfahrzeuge, Fußgänger oder andere Entitäten, mit denen das AV 100 keinen physischen Raum teilen kann. In einer Ausführungsform sind manche oder alle der Objekte 1008a-b statische Objekte (z. B. ein Objekt, das seine Position nicht ändert, wie etwa eine Straßenlampe oder ein Strommast) oder dynamische Objekte (z. B. ein Objekt, das in der Lage ist, seine Position zu ändern, wie etwa ein Fußgänger oder ein anderes Auto).
  • Die Knoten 1006a-d sind durch Kanten 1010a-c verbunden. Falls zwei Knoten 1006a-b durch eine Kante 1010a verbunden sind, ist es für ein AV 100 möglich, zwischen einem Knoten 1006a und dem anderen Knoten 1006b zu fahren, z. B. ohne zu einem Zwischenknoten fahren zu müssen, bevor es an dem anderen Knoten 1006b ankommt. (Wenn sich auf ein zwischen Knoten fahrendes AV 100 bezogen wird, bedeutet dies, dass das AV 100 zwischen den beiden physischen Positionen fährt, die durch die jeweiligen Knoten repräsentiert werden.) Die Kanten 1010a-c sind häufig bidirektional in dem Sinne, dass ein AV 100 von einem ersten Knoten zu einem zweiten Knoten oder vom zweiten Knoten zum ersten Knoten fährt. In einer Ausführungsform sind die Kanten 1010a-c unidirektional in dem Sinne, dass ein AV 100 von einem ersten Knoten zu einem zweiten Knoten fahren kann, das AV 100 jedoch nicht vom zweiten Knoten zum ersten Knoten fahren kann. Die Kanten 1010a-c sind unidirektional, wenn sie beispielsweise Einbahnstraßen, individuelle Fahrbahnen einer Straße, Landstraße oder Autobahn oder andere Merkmale, auf denen aufgrund rechtlicher oder physischer Beschränkungen nur in einer Richtung gefahren werden kann, repräsentieren.
  • In einer Ausführungsform verwendet das Planungsmodul 404 den gerichteten Graphen 1000, um einen Pfad 1012 zu identifizieren, der aus Knoten und Kanten zwischen dem Startpunkt 1002 und dem Endpunkt 1004 besteht.
  • Eine Kante 1010a-c weist assoziierte Kosten 1014a-b auf. Die Kosten 1014a-b sind ein Wert, der die Ressourcen repräsentiert, die verbraucht werden, falls das AV 100 diese Kante wählt. Eine typische Ressource ist Zeit. Falls beispielsweise eine Kante 1010a eine physische Distanz repräsentiert, die zweimal die einer anderen Kante 1010b ist, dann können die assoziierten Kosten 1014a der ersten Kante 1010a zweimal so groß sein wie die assoziierten Kosten 1014b der zweiten Kante 1010b. Andere Faktoren, die die Zeit beeinflussen, beinhalten erwarteten Verkehr, Anzahl von Kreuzungen, Geschwindigkeitsbegrenzung usw. Eine andere typische Ressource ist Kraftstoffeffizienz. Zwei Kanten 1010a-b können die gleiche physische Distanz repräsentieren, aber eine Kante 1010a kann mehr Kraftstoff erfordern als die andere Kante 1010b, z. B. infolge von Straßenbedingungen, erwartetem Wetter usw.
  • Wenn das Planungsmodul 404 einen Pfad 1012 zwischen dem Startpunkt 1002 und dem Endpunkt 1004 identifiziert, wählt das Planungsmodul 404 typischerweise einen für die Kosten optimierten Pfad, z. B. den Pfad, der die geringsten Gesamtkosten aufweist, wenn die individuellen Kosten der Kanten zusammenaddiert werden.
  • Steuerung des autonomen Fahrzeugs
  • 11 zeigt ein Blockdiagramm 1100 der Eingaben und Ausgaben eines Steuermoduls 406 (z. B. wie in 4 gezeigt). Ein Steuermodul arbeitet gemäß einer Steuerung 1102, die beispielsweise einen oder mehrere Prozessoren (z. B. einen oder mehrere Computerprozessoren wie etwa Mikroprozessoren oder Mikrocontroller oder beides) ähnlich dem Prozessor 304, Kurzzeit- und/oder Langzeit-Datenspeicherung (z. B. Speicher-Direktzugriffsspeicher oder Flash-Speicher oder beides) ähnlich dem Hauptspeicher 306, dem ROM 308 und der Speicherungsvorrichtung 210 und im Speicher gespeicherte Anweisungen, die Operationen der Steuerung 1102 ausführen, wenn die Anweisungen (z. B. durch den einen oder die mehreren Prozessoren) ausgeführt werden, beinhaltet.
  • In einer Ausführungsform empfängt die Steuerung 1102 Daten, die eine gewünschte Ausgabe 1104 repräsentieren. Die gewünschte Ausgabe 1104 beinhaltet typischerweise eine Bahngeschwindigkeit, z. B. eine Geschwindigkeit und einen Kurs. Die gewünschte Ausgabe 1104 kann beispielsweise auf Daten basieren, die von einem Planungsmodul 404 (z. B. wie in 4 gezeigt) empfangen werden. Gemäß der gewünschten Ausgabe 1104 erzeugt die Steuerung 1102 Daten, die als eine Gaspedaleingabe 1106 und eine Lenkeingabe 1108 verwendbar sind. Die Gaspedaleingabe 1106 repräsentiert den Betrag, mit dem das Gaspedal (z. B. Beschleunigungssteuerung) eines AV 100 zu betätigen ist, z. B. durch Einwirken auf das Lenkpedal oder Einwirken auf eine andere Gaspedalsteuerung, um die gewünschte Ausgabe 1104 zu erreichen. In manchen Beispielen beinhaltet die Gaspedaleingabe 1106 auch Daten, die zum Betätigen der Bremse (z. B. Verlangsamungssteuerung) des AV 100 verwendbar sind. Die Lenkeingabe 1108 repräsentiert einen Lenkwinkel, z. B. den Winkel, mit dem die Lenksteuerung (z. B. Lenkrad, Lenkwinkelaktor oder eine andere Funktionalität zum Steuern des Lenkwinkels) des AV positioniert werden sollte, um die gewünschte Ausgabe 1104 zu erreichen.
  • In einer Ausführungsform empfängt die Steuerung 1102 eine Rückmeldung, die zum Anpassen der Eingaben verwendet wird, die dem Gaspedal und der Lenkung bereitgestellt werden. Falls das AV 100 beispielsweise auf eine Beeinträchtigung 1110 trifft, wie etwa einen Hügel, wird die gemessene Geschwindigkeit 1112 des AV 100 unter die gewünschte Ausgabegeschwindigkeit gesenkt. In einer Ausführungsform wird eine jegliche gemessene Ausgabe 1114 der Steuerung 1102 bereitgestellt, sodass die notwendigen Anpassungen durchgeführt werden, z. B. basierend auf dem Unterschied 1113 zwischen der gemessenen Geschwindigkeit und der gewünschten Ausgabe. Die gemessene Ausgabe 1114 beinhaltet eine gemessene Position 1116, eine gemessene Bahngeschwindigkeit 1118 (einschließlich Geschwindigkeit und Kurs), eine gemessene Beschleunigung 1120 und andere Ausgaben, die durch Sensoren des AV 100 messbar sind.
  • In einer Ausführungsform werden Informationen über die Beeinträchtigung 1110 im Voraus detektiert, z. B. durch einen Sensor wie etwa eine Kamera oder einen LiDAR-Sensor, und einem Prädiktive-Rückmeldung-Modul 1122 bereitgestellt. Das Prädiktive-Rückmeldung-Modul 1122 stellt dann der Steuerung 1102 Informationen bereit, die die Steuerung 1102 verwenden kann, um eine entsprechende Anpassung vorzunehmen. Falls die Sensoren des AV 100 beispielsweise einen Hügel detektieren („sehen“), können diese Informationen durch die Steuerung 1102 verwendet werden, um sich darauf vorzubereiten, das Gaspedal zu der geeigneten Zeit zu betätigen, um eine erhebliche Verlangsamung zu vermeiden.
  • 12 zeigt ein Blockdiagramm 1200 der Eingaben, Ausgaben und Komponenten der Steuerung 1102. Die Steuerung 1102 weist einen Geschwindigkeitsprofilersteller 1202 auf, der den Betrieb einer Gaspedal-/Bremssteuerung 1204 beeinflusst. Beispielsweise weist der Geschwindigkeitsprofilersteller 1202 die Gaspedal-/Bremssteuerung 1204 an, Beschleunigung zu bewirken oder Verlangsamung zu bewirken, unter Verwendung des Gaspedals/der Bremse 1206, in Abhängigkeit von z. B. der Rückmeldung, die durch die Steuerung 1102 empfangen und durch den Geschwindigkeitsprofilersteller 1202 verarbeitet wird.
  • Die Steuerung 1102 weist auch eine Lateralverfolgungssteuerung 1208 auf, die den Betrieb einer Lenksteuerung 1210 beeinflusst. Beispielsweise weist die Lateralverfolgungssteuerung 1208 die Lenksteuerung 1210 an, die Position des Lenkwinkelaktors 1212 in Abhängigkeit von z. B. einer Rückmeldung, die durch die Steuerung 1102 empfangen und durch die Lateralverfolgungssteuerung 1208 verarbeitet wird, anzupassen.
  • Die Steuerung 1102 empfängt mehrere Eingaben, die zum Bestimmen verwendet werden, wie das Gaspedal/die Bremse 1206 und der Lenkwinkelaktor 1212 zu steuern sind. Ein Planungsmodul 404 stellt Informationen bereit, die durch die Steuerung 1102 verwendet werden, um z. B. einen Kurs zu wählen, wenn das AV 100 den Betrieb beginnt, und um zu bestimmen, welches Straßensegment zu durchfahren ist, wenn das AV 100 eine Kreuzung erreicht. Ein Lokalisierungsmodul 408 stellt der Steuerung 1102 Informationen bereit, die den aktuellen Standort des AV 100 beschreiben, sodass die Steuerung 1102 beispielsweise basierend auf der Weise, mit der das Gaspedal/die Bremse 1206 und der Lenkwinkelaktor 1212 gesteuert werden, bestimmen kann, ob sich das AV 100 an einem erwarteten Standort befindet. In einer Ausführungsform empfängt die Steuerung 1102 Informationen von anderen Eingaben 1214, z. B. Informationen, die von Datenbanken, Computernetzwerken usw. empfangen werden.
  • Computersystem für die automatisierte Objektannotation
  • 13 zeigt eine beispielhafte Architektur eines Computersystems 1300 zum Durchführen einer automatisierten Objektannotation für Kartendaten, die zum Navigieren eines Fahrzeugs verwendet werden. Das System 1300 ist als eine Pipeline zur automatisierten Annotation ausgelegt, um dreidimensionale Stellungen von Objekten zu extrahieren und diese unter Verwendung von Daten aus einem Protokoll eines autonomen Fahrzeugs mit Kameradaten (Bilddaten), LiDAR-Daten und Fahrzeugstellungsdaten in Katendaten für ein AV (z. B. AV 100) zu registrieren. In den hierin offenbarten Ausführungsformen verwendet das System 1300 eine Sensorfusionstechnik, bei der für eine Umgebung im Umfeld des AV erhaltene Bilddaten mit für die Umgebung erhaltenen LiDAR-Daten integriert werden. Das System 1300 führt dann eine Objektdetektion an den im integrierten Datensatz enthaltenen Bilddaten durch, um ein oder mehrere Zielobjekte zu detektieren. Das System 1300 extrahiert dann LiDAR-Datenpunkte, die den detektierten Zielobjekten entsprechen, um dreidimensionale Stellungsdaten für die detektierten Zielobjekte bereitzustellen, die das System 1300 dann in den zum Navigieren des AV verwendeten Kartendaten registriert. In den hierin offenbarten beispielhaften Ausführungsformen ist das Zielobjekt eine Verkehrsregelungseinheit wie etwa eine Ampel, und die Stellungsdaten für die Ampel geben eine dreidimensionale Orientierung/Position (z. B. Längengrad, Breitengrad, Höhe, Gieren, Nicken, Rollen) der Ampel in der Umgebung an. Diese Informationen werden in den Kartendaten so registriert, dass die Ampeln und in manchen Ausführungsformen ihr aktueller Status (z. B. Rot, Gelb, Grün usw.) leichter durch das AV erkannt werden können, wenn es in der Umgebung navigiert. Beispielsweise können die annotierten Ampelstellungsdaten ein bekanntes Gebiet von Interesse zur Detektion bereitstellen, das den Bildbereich reduziert, der ansonsten gescannt werden würde, um die Ampel zu detektieren. Zusätzlich reduziert das annotierte Gebiet von Interesse das Risiko eines Detektionsfehlers (z. B. Fehlschlag der Detektion der Ampel, falsch-positive Detektion usw.), insbesondere unter schwierigen Beleuchtungsbedingungen. Dementsprechend macht die Annotation der Ampeln die Ampeldetektion robuster, insbesondere, wenn sie in Echtzeit durchgeführt wird. Obwohl die hierin bereitgestellten Ausführungsformen die Verwendung des offenbarten Systems und der offenbarten Technik zum Detektieren einer Ampel besprechen, kann die offenbarte Technik zum Detektieren anderer Objekte in der Umgebung verwendet werden, wie etwa beispielsweise Verkehrsschilder, Geschwindigkeitsbegrenzungsschilder, Stoppschilder oder anderer Objekte, die allgemein statisch und dauerhaft in der Umgebung vorhanden sind.
  • In manchen Ausführungsformen kann das Computersystem 1300 eine oder mehrere sich an dem AV (z. B. AV 100) befindliche Komponenten beinhalten. In manchen Ausführungsformen kann das System 1300 Teil eines größeren Rechensystems sein, das algorithmisch Steuerhandlungen basierend auf Echtzeit-Sensordaten und vorherigen Informationen erzeugt, was dem Fahrzeug ermöglicht, autonome Fahrfähigkeiten auszuführen. In manchen Ausführungsformen kann das System 1300 auf ähnliche Weise wie die sich am AV 100 befindlichen und mit Bezug auf 1 beschriebenen Rechenvorrichtungen 146 implementiert werden.
  • Wie in 13 gezeigt, beinhaltet das System 1300 eine oder mehrere Kameras 1302 (z. B. ähnlich den Kameras 122, dem Kamerasystem 502c oder dem TLD-System 502d), die dazu ausgelegt sind, Bilddaten 1304 (z. B. ähnlich den Kameradaten 504c oder den TLD-Daten 504d) zu erzeugen. In manchen Ausführungsformen können die Kameras 1302 am AV 100 montiert und dazu ausgelegt sein, Bilddaten zumindest eines Teils der Umgebung im Umfeld des AV 100 aufzuzeichnen, während das AV 100 entlang einer Straße navigiert. In manchen Ausführungsformen können die Kameras 1302 eine Anzahl von Kameras beinhalten, um eine Teilansicht (z. B. weniger als 360 Grad) oder optional eine Vollansicht (z. B. 360 Grad) der Umgebung im Umfeld des AV 100 zu erzeugen, was in den Bilddaten 1304 repräsentiert wird.
  • 14 veranschaulicht eine beispielhafte Repräsentation eines Bildframes 1400, das ein Bildframe in den Bilddaten 1304 ist, die unter Verwendung der Kameras 1302 während des Betriebs des AV 100 aufgenommen werden. Das Bildframe 1400 beinhaltet eine Repräsentation der Umgebung im Umfeld des AV 100, einschließlich einer Straße 1402, Ampelmasten 1404a und 1404b, Ampeln 1406a-1406e und eines Gebäudes 1408. In der in 14 gezeigten Ausführungsform ist das Bildframe 1400 ein Frame der unter Verwendung der Kamera 1302 erhaltenen Bilddaten, während das AV 100 eine spezielle Fahrzeugstellung aufweist, während es entlang der Straße 1402 navigiert.
  • Erneut unter Bezugnahme auf 13 beinhaltet das System 1300 ferner ein LiDAR 1306 (z. B. ähnlich dem LiDAR 123, der LiDAR-Eingabe 502a oder dem LiDAR-System 602), das dazu ausgelegt ist, LiDAR-Daten (z. B. ähnlich der LiDAR-Ausgabe 504a) zu erzeugen. In manchen Ausführungsformen kann das LiDAR 1306 am AV 100 montiert und dazu ausgelegt sein, LiDAR-Datenpunkte zu erhalten, die physischen Objekten in der Umgebung im Umfeld des AV 100 entsprechen, während das AV 100 entlang einer Straße navigiert. Die LiDAR-Daten können verwendet werden, um zumindest einen Teil der physischen Umgebung im Umfeld des AV 100 zu erstellen, indem sie einen Tiefenwert (relativ zum LiDAR 1306) für in der Umgebung vorhandene und unter Verwendung der LiDAR-Daten repräsentierte Gegenstände bereitstellen. In den hierin offenbarten Ausführungsformen beinhaltet dies Bereitstellen eines Tiefenwerts für Ampeln, wie nachstehend ausführlicher besprochen wird.
  • Das System 1300 beinhaltet außerdem AV-Positionssensoren 1308 (z. B. ähnlich den Sensoren 121), die Stellungsdaten für das AV 100 erzeugen. Die Stellungsdaten liefern eine Indikation einer dreidimensionalen Position/Orientierung des AV 100 in der Umgebung (z. B. Position, Linear- und Winkelgeschwindigkeit, Beschleunigung, Kurs usw. des AV). In manchen Ausführungsformen werden diese Stellungsdaten verwendet, um einen relativen Standort von Objekten in der Umgebung bezüglich des AV 100 (und optional Komponenten des Systems 1300 wie etwa die Kameras 1302 und das LiDAR 1306) zu verankern und/oder zu bestimmen.
  • Wie in 13 gezeigt, kombiniert das System 1300 die LiDAR-Daten mit den Stellungsdaten für das AV 100, um eine lokalisierte LiDAR-Punktwolkenkarte 1310 zu erzeugen, die die LiDAR-Datenwolke in manchen Ausführungsformen relativ zu der Position des AV 100 orientiert. In manchen Ausführungsformen erzeugt dies eine Aggregation der LiDAR-Daten und der Fahrzeugstellungsdaten durch Akkumulieren von LiDAR-Scans in Schlüsselframes (z. B. aller 50 Frames der LiDAR-Daten), um eine lokale Punktwolke für jede Fahrzeugstellung zu bilden. In manchen Ausführungsformen ist die LiDAR-Punktwolke 1310 beispielsweise eine Aggregation der LiDAR-Daten von aktuellen Schlüsselframe-LiDAR-Daten und mehreren (z. B. 50) vorherigen Schlüsselframes.
  • Um LiDAR-Scans aus aktuellen und vorherigen Schlüsselframes in den gleichen Koordinaten zu akkumulieren, werden die Fahrzeugstellungsdaten (z. B. von den Sensoren 1308) verwendet, um die LiDAR-Daten in vorherigen Framekoordinaten in die aktuellen Schlüsselframekoordinaten umzuwandeln. In manchen Ausführungsformen beinhalten die gesammelten Daten eine Standortkomponente relativ zu der Position des AV 100. Die resultierenden aggregierten LiDAR-Daten im aktuellen Schlüsselframe sind daher eine Kombination aller LiDAR-Scans vom aktuellen Schlüsselframe und den vorherigen Schlüsselframes (z. B. den vorherigen 50 Schlüsselframes), die unter Verwendung der gleichen Koordinaten wie die aktuelle Fahrzeugstellung (z. B. mit dem AV 100 als der Mittelpunkt der Daten) repräsentiert werden. In manchen Ausführungsformen werden die durch die Sensoren 1308 erzeugten Fahrzeugstellungsdaten in einem globalen Koordinatensystem repräsentiert. In manchen Ausführungsformen werden die Daten in einem Koordinatensystem mit dem AV 100 als der Koordinatenursprung oder der Mittelpunkt der gesammelten Datenpunkte repräsentiert. In manchen Ausführungsformen wird das Punktwolkenmodell der physischen Umgebung in Echtzeit erzeugt, während das AV 100 in der Umgebung navigiert.
  • Wie in 13 gezeigt, wird die lokalisierte LiDAR-Punktwolkenkarte 1310 mit den Bilddaten 1304 fusioniert, um fusionierte Kamera-/LiDAR-Daten 1312 zu erzeugen. In manchen Ausführungsformen beinhaltet der Fusionsprozess Projizieren der LiDAR-Punktwolkenkarte 1310 auf die Bildframes in den Bilddaten 1304 (z. B. einschließlich Synchronisieren der Daten unter Verwendung von Zeitstempeln), um einen kombinierten Datensatz zu erzeugen, der Bilddaten und eine lokalisierte LiDAR-Punktwolke für jede Stellung des AV 100 beinhaltet. Infolgedessen weist jedes Schlüsselframe Stellungsinformationen, LiDAR-Daten und Bilddaten auf, wobei diese jeweils mit einem Zeitstempel assoziiert sind. In manchen Ausführungsformen werden die aggregierten LiDAR-Daten und die Bilddaten in einem aktuellen Schlüsselframe in den Koordinaten des aktuellen Schlüsselframes repräsentiert.
  • LiDAR erzeugt eine dichtere Punktwolke, die eine genauere Detektion und Identifikation von Objekten (z. B. wie etwa Ampeln) ermöglicht als anderweitig unter Verwendung anderer Femerfassungsverfahren wie etwa beispielsweise RADAR erreichbar wäre. In manchen Fällen liefert LiDAR auch eine leichtere Objektdetektion, als unter Verwendung von Bilddaten alleine erreicht werden kann. In manchen Fällen können Bilddaten jedoch eine genauere Objektidentifikation liefern. Somit nutzen die offenbarten Techniken durch das Verwenden einer Kombination von LiDAR-Daten und Bilddaten (fusionierte Kamera-/LiDAR-Daten 1312) die Objektidentifikationsvorteile der Bilddaten und die Objektpositionsinformationen (z. B. einschließlich Tiefen- und Stellungsinformationen) der LiDAR-Daten (z. B. LiDAR-Punktwolkenkarte 1310) aus, um eine Lösung zum Durchführen einer automatisierten Objektannotation für in den fusionierten Kamera-/LiDAR-Daten 1312 repräsentierte Objekte zu optimieren.
  • 15 veranschaulicht eine beispielhafte Repräsentation der fusionierten Kamera-/LiDAR-Daten 1312. Wie in 15 gezeigt, werden die LiDAR-Daten 1502 an dem Bildframe 1400 angewendet, um die Fusion der Tiefen- und Stellungsdaten der LiDAR-Punktwolkenkarte 1310 mit den Bilddaten 1304 für die im Bildframe 1400 repräsentierte Fahrzeugstellung zu veranschaulichen. In 15 sind die LiDAR-Daten 1502 als unterschiedliches Aussehen aufweisend gezeigt, um durch die LiDAR-Daten repräsentierte unterschiedliche Tiefenwerte zu veranschaulichen. Beispielsweise repräsentieren die LiDAR-Daten 1502a LiDAR-Daten mit einem niedrigen Tiefenwert, was bedeutet, dass die LiDAR-Daten 1502a physischen Objekten mit einer geringen Tiefe relativ zu dem AV 100 (oder LiDAR 1306) entsprechen. In diesem Beispiel liefern die LiDAR-Daten 1502a Tiefen- und dreidimensionale Stellungsinformationen für die Ampeln 1406a und 1406b und den Ampelmast 1404a, die sich in einer kurzen Entfernung vom AV 100 befinden. Die LiDAR-Daten 1502b entsprechen dem Gebäude 1408 und liefern somit Tiefen- und Stellungsinformationen für das Gebäude 1408. Die LiDAR-Daten 1502b repräsentieren LiDAR-Daten mit einer größeren Tiefe als die LiDAR-Daten 1502a. Dementsprechend befindet sich das Gebäude 1408 in einer größeren Entfernung vom AV 100 als die Ampeln 1406a und 1406b und der Ampelmast 1404a. Schließlich entsprechen die LiDAR-Daten 1502c den Ampeln 1406c-1406e und dem Ampelmast 1404b und liefern somit Tiefen- und Stellungsinformationen für die Ampeln 1406c-1406e und den Ampelmast 1404b. Die LiDAR-Daten 1502c repräsentieren LiDAR-Daten mit einer größeren Tiefe als die LiDAR-Daten 1502b. Dementsprechend befinden sich die Ampeln 1406c-1406e und der Ampelmast 1404b in einer größeren Entfernung vom AV 100 als die Ampeln 1406a und 1406b, der Ampelmast 1404a und das Gebäude 1408. Es sollte verstanden werden, dass die Veranschaulichung der LiDAR-Daten in 15 vereinfacht ist, indem nur die LiDAR-Daten an spezifischen Orten (z. B. 1502a-1502c) gezeigt sind, um die Übersichtlichkeit der Figur beizubehalten, während gleichzeitig das Konzept der fusionierten LiDAR-Daten und Bilddaten veranschaulicht wird.
  • Erneut unter Bezugnahme auf 13 beinhaltet das System 1300 ferner ein Objektdetektionsmodul 1314 zum Durchführen einer Objektdetektion an den fusionierten Kamera-/LiDAR-Daten 1312. In manchen Ausführungsformen beinhaltet das Objektdetektionsmodul 1314 ein maschinelles Lernnetzwerk, wie etwa beispielsweise ein neuronales Netzwerk, das dazu ausgelegt ist, eine Objekterkennung an den Bilddaten in den fusionierten Kamera-/LiDAR-Daten 1312 durchzuführen, um das Vorhandensein von Zielobjekten in den fusionierten Kamera-/LiDAR-Daten 1312 zu identifizieren. In manchen Ausführungsformen analysiert das Objektdetektionsmodul 1314 beispielsweise die Bilddaten in den fusionierten Kamera-/LiDAR-Daten 1312, um Ampeln zu identifizieren.
  • In manchen Ausführungsformen annotiert das Objektdetektionsmodul 1314 außerdem die fusionierten Kamera-/LiDAR-Daten 1312, um die identifizierten Ampeln anzugeben. 16 zeigt beispielsweise das Bildframe 1400, wie zuvor in 15 veranschaulicht, jedoch mit Begrenzungsrahmen 1600a-1600e auf den jeweiligen identifizierten Ampeln 1406a-1406e abgebildet. In manchen Ausführungsformen sind die Begrenzungsrahmen 1600a-1600e dreidimensionale Objekte, die den Standort und die dreidimensionale Position/Orientierung der identifizierten Ampeln repräsentieren.
  • Erneut unter Bezugnahme auf 13 extrahiert das System 1300 aus den fusionierten Kamera-/LiDAR-Daten 1312 LiDAR-Datenpunkte, die den Standorten der identifizierten Ampeln entsprechen, in den Koordinaten des aktuellen Schlüsselframes (z. B. mit Stellungsdaten relativ zu den Fahrzeugkoordinaten). Die extrahierten LiDAR-Datenpunkte sind in 13 als Ampelstandortdaten 1316 repräsentiert. In manchen Ausführungsformen beinhalten die Ampelstandortdaten 1316 die Punktwolkendaten und die dreidimensionalen Stellungsinformationen (z. B. in Form von Begrenzungsrahmen) für die identifizierten Ampeln relativ zu den Koordinaten des AV 100.
  • In manchen Ausführungsformen erzeugen die AV-Positionssensoren 1308 globale Koordinaten für die Fahrzeugstellungsdaten. In manchen Ausführungsformen kombiniert das System 1300 dementsprechend die Ampelstandortdaten 1316 mit den Stellungsdaten für das AV 100 (von den AV-Positionssensoren 1308), um die Punktwolkendaten und die Begrenzungsrahmen der Ampelstandortdaten 1316 zu einem globalen Koordinatensystem umzuwandeln (z. B. Zuweisen der Datenpunkte der Ampelstandortdaten zu jeweiligen Breitengraden, Längengraden, Höhen usw.). Dies wird in 13 als Ampelgeostandortdaten 1318 repräsentiert. Daher repräsentieren die Ampelgeostandortdaten 1318 in einem globalen Koordinatensystem die Punktwolkendaten und die dreidimensionalen Stellungsinformationen (in Form von Begrenzungsrahmen) für die durch das Objektdetektionsmodul 1314 identifizierten Ampeln.
  • In manchen Ausführungsformen analysiert das System 1300 die Ampelstandortdaten 1316 und/oder die Ampelgeostandortdaten 1318, um zu bestimmen, ob die Daten zum Verbessern der zum Navigieren des AV 100 verwendeten Kartendaten verwendet werden sollten. Insbesondere analysiert das System 1300 in manchen Ausführungsformen die Ampelstandortdaten 1316 und/oder die Ampelgeostandortdaten 1318, um zu bestimmen, ob der Standort und/oder die Stellungsdaten für jede identifizierte Ampel Registrierungskriterien erfüllt - das heißt, ob der Standort (z. B. relativ zu dem Standort des AV 100) und optional die Stellungsdaten einen Standard erfüllen, der nahelegt, dass das Objektdetektionsmodul 1314 das Objekt akkurat als das beabsichtigte Objekt (z. B. eine Ampel) identifizierte. In manchen Ausführungsformen kann dies das Bestimmen beinhalten, ob die mit dem identifizierten Objekt assoziierten Punktwolkendaten einen Standort- oder Entfernungswert (z. B. Tiefenwert) (z. B. relativ zu einem Standort des AV 100) aufweisen, der mit einem Bereich von für das Zielobjekt akzeptablen (z. B. erwarteten) Standort- oder Entfernungswerten konsistent ist. Falls die Punktwolkendaten für das identifizierte Zielobjekt einen Standort oder eine Entfernung angeben, der/die außerhalb dieses Bereichs liegt, bestimmt das System 1300, dass die Ampelstandortdaten 1316 und/oder die Ampelgeostandortdaten 1318 für dieses spezifische detektierte Objekt nicht in den Kartendaten registriert werden sollten. Falls im Gegensatz dazu die Punktwolkendaten für das identifizierte Zielobjekt einen Standort- oder Entfernungswert angeben, der innerhalb des akzeptablen Bereichs liegt, registriert das System 1300 das detektierte Zielobjekt in den Kartendaten. Dies kann das Annotieren des detektierten Objekts (z. B. der Ampel) in den Kartendaten beinhalten, sodass eine Repräsentation der Karte eine Repräsentation (z. B. eine Markierung oder einen Indikator, oder eine Repräsentation der Begrenzungsrahmen 1600) der Ampel (einschließlich in manchen Ausführungsformen einer Indikation der Stellungsinformationen für die Ampel) beinhaltet.
  • Beispielhafter Prozess zum Durchführen einer automatisierten Objektannotation
  • 17 ist ein Flussdiagramm eines beispielhaften Prozesses 1700 (auch als ein Verfahren bezeichnet) zum Durchführen einer automatisierten Objektannotation für Kartendaten, die zum Navigieren eines Fahrzeugs verwendet werden, gemäß den oben besprochenen Ausführungsformen. Zur Vereinfachung wird der Prozess 1700 so beschrieben, dass er durch ein System eines oder mehrerer Computer durchgeführt wird, die sich an einem oder mehreren Orten befinden. Beispielsweise kann das Computersystem 1300 von 13, zweckmäßig gemäß dieser Spezifikation programmiert, den Prozess 1700 durchführen.
  • Bei 1702 erhält das System (z. B. 1300) unter Verwendung eines LiDAR (z. B. LiDAR 1306) LiDAR-Datenpunkte, die Objekten in einer Umgebung im Umfeld eines Fahrzeugs (z. B. AV 100) entsprechen (z. B. LiDAR-Datenpunkte, die Objekten entsprechen, die in einer Umgebung (z. B. realen/physischen Umgebung) im Umfeld eines autonomen Fahrzeugs detektiert werden (z. B. eine Straße und naheliegende Objekte wie etwa Verkehrsmasten, Ampeln, Verkehrsschilder, Fußgänger, Autos, Bäume usw.)).
  • In manchen Ausführungsformen beinhaltet das Erhalten der LiDAR-Datenpunkte (z. B. 1310; 1502a-1502c) Erhalten der LiDAR-Datenpunkte während des Navigierens, unter Verwendung einer Steuerschaltung (z. B. Steuermodul 406), des Fahrzeugs in der Umgebung. In manchen Ausführungsformen beinhaltet das Erhalten der LiDAR-Datenpunkte ferner: Erhalten (z. B. unter Verwendung einer Verarbeitungsschaltung, von Kamerabildern, GPS oder einer Kombination davon) von Stellungsdaten für das Fahrzeug (z. B. Daten, die eine Position/Orientierung des Fahrzeugs repräsentieren) während des Navigierens des Fahrzeugs in der Umgebung; und Assoziieren, unter Verwendung der Verarbeitungsschaltung, der LiDAR-Datenpunkte mit den Stellungsdaten für das Fahrzeug. In manchen Ausführungsformen geben die Stellungsdaten für das Fahrzeug eine dreidimensionale Stellung (z. B. eine dreidimensionale Position/Orientierung) des Fahrzeugs bezüglich eines geografischen Standorts in der Umgebung an. In manchen Ausführungsformen umfasst das Verfahren ferner Bestimmen, unter Verwendung der Verarbeitungsschaltung, eines geografischen Standorts des detektierten Zielobjekts (z. B. zumindest teilweise) basierend auf der dreidimensionalen Stellung des Fahrzeugs. In manchen Ausführungsformen ist der geografische Standort des detektierten Zielobjekts eine dreidimensionale Position des Zielobjekts in der Umgebung. In manchen Ausführungsformen wird die dreidimensionale Position des Zielobjekts unter Verwendung der Stellung des Fahrzeugs in Kombination mit den LiDAR-Datenpunkten bestimmt, die eine Entfernung (z. B. Tiefe) und eine Position des Zielobjekts bezüglich der dreidimensionalen Stellung des Fahrzeugs bereitstellen.
  • Bei 1704 projiziert das System (z. B. 1300), unter Verwendung einer Verarbeitungsschaltung (z. B. Rechenprozessor 146), die LiDAR-Datenpunkte (z. B. 1502a-1502c) auf Bilddaten (z. B. Bilddaten 1304) (z. B. Bilddaten der Umgebung im Umfeld des Fahrzeugs) (z. B. Bilddaten, die während des Betriebs (Fahren/Navigieren/Steuern) eines autonomen Fahrzeugs erhalten werden) (z. B. Bilddaten, die von einer oder mehreren Kameras 1302 erhalten werden).
  • In manchen Ausführungsformen beinhaltet das Projizieren der LiDAR-Datenpunkte auf die Bilddaten Fusionieren der LiDAR-Datenpunkte (z. B. 1310) mit Bilddaten (z. B. 1304), die für die Umgebung im Umfeld des Fahrzeugs erhalten werden (z. B. Erzeugen der LiDAR-Punktwolkenkarte 1310). In manchen Ausführungsformen werden die Bilddaten und die LiDAR-Datenpunkte während des gleichen Zeitraums (z. B. gleichzeitig) erhalten. In manchen Ausführungsformen beinhaltet dies Navigieren des Fahrzeugs (z. B. AV 100) in der Umgebung während des Erhaltens der Bilddaten (z. B. unter Verwendung einer oder mehrerer Kameras) und der LiDAR-Datenpunkte (z. B. unter Verwendung des LiDAR) während des gleichen Zeitraums (z. B. gleichzeitig).
  • Bei 1706 detektiert das System (z. B. 1300), unter Verwendung der Verarbeitungsschaltung, ein Zielobjekt (z. B. 1406a-1406e) (z. B. eine Verkehrsregelungseinheit; eine Ampel) in den Bilddaten (z. B. 1304).
  • In manchen Ausführungsformen beinhaltet das Detektieren des Zielobjekts in den Bilddaten Annotieren des Zielobjekts in den Bilddaten. In manchen Ausführungsformen wird eine Annotation des detektierten Zielobjekts in den Bilddaten in Form einer visuellen Indikation bereitgestellt, die sich von den Bilddaten selbst unterscheidet. Beispielsweise kann die Annotation einen Begrenzungsrahmen (z. B. 1600a-1600e) beinhalten, der auf die Bilddaten an einem Ort entsprechend dem detektierten Zielobjekt überlagert ist (z. B. ein Rechteck um das detektierte Zielobjekt herum), um eine visuelle Indikation des detektierten Zielobjekts bereitzustellen.
  • In manchen Ausführungsformen umfasst der Prozess 1700 ferner, dass das System (z. B. 1300), unter Verwendung der Verarbeitungsschaltung, eine dreidimensionale Stellung des detektierten Zielobjekts bestimmt. In manchen Ausführungsformen gibt die dreidimensionale Stellung eine Position des Zielobjekts an, einschließlich beispielsweise einer Orientierung, einer Höhe und eines Standorts (z. B. GPS-Koordinaten/Breitengrad und Längengrad) des Zielobjekts bezüglich der realen Umgebung. In manchen Ausführungsformen beinhaltet das Registrieren des detektierten Zielobjekts in den Kartendaten Repräsentieren des detektierten Zielobjekts in den Kartendaten mit der dreidimensionalen Stellung. In manchen Ausführungsformen wird das Zielobjekt in den Kartendaten als eine Ampel mit der dreidimensionalen Stellung repräsentiert. In manchen Ausführungsformen beinhaltet die Repräsentation des Zielobjekts ein Bild des Zielobjekts, das mit einer Repräsentation einer Karte angezeigt werden kann und die dreidimensionale Stellung aufweist. Beispielsweise kann die Ampel in einem Querformat mit einer spezifischen Höhe über der Straßenoberfläche und in eine spezielle Richtung zeigend (z. B. Südost) angezeigt werden.
  • In manchen Ausführungsformen ist das Zielobjekt eine Ampel (z. B. 1406a-1406e).
  • In manchen Ausführungsformen beinhaltet das Detektieren des Zielobjekts in den Bilddaten Verwenden maschinellen Lernens (z. B. ein neuronales Netzwerk) (z. B. Objektdetektionsmodul 1314), um das Zielobjekt in den Bilddaten zu detektieren.
  • Bei 1708 extrahiert das System (z. B. 1300), unter Verwendung der Verarbeitungsschaltung, einen Teilsatz der LiDAR-Datenpunkte (z. B. Ampelstandortdaten 1316 oder Ampelgeostandortdaten 1318), die dem detektierten Zielobjekt entsprechen. In manchen Ausführungsformen beinhaltet das Extrahieren des Teilsatzes der LiDAR-Datenpunkte Identifizieren jeweiliger LiDAR-Datenpunkte, die dem in den Bilddaten identifizierten detektierten Zielobjekt entsprechen (z. B. LiDAR-Datenpunkte, die in die gleiche Richtung liegen (z. B. relativ zu einer Orientierung des AV 100) wie das detektierte Zielobjekt). In manchen Ausführungsformen sind die jeweiligen LiDAR-Datenpunkte, die dem detektierten Zielobjekt entsprechen (dem Teilsatz der LiDAR-Datenpunkte), in den Bilddaten mit dem detektierten Zielobjekt kolokalisiert. In manchen Ausführungsformen werden die Bilddaten zum Erkennen oder Identifizieren eines Zielobjekts verwendet, und der Teilsatz der LiDAR-Daten, der dem identifizierten Zielobjekt entspricht, wird zum Bereitstellen von Standortdaten (z. B. einer Entfernung vom AV, einer Orientierung des Zielobjekts, einem Standort des Zielobjekts in der Umgebung usw.) für das Zielobjekt verwendet. In manchen Ausführungsformen werden die Orte der LiDAR-Datenpunkte und der Standort des detektierten Zielobjekts basierend auf Stellungsdaten für das autonome Fahrzeug bestimmt. In manchen Ausführungsformen werden die LiDAR-Daten, die Bilddaten und die Stellungsdaten für das AV so synchronisiert, dass die LiDAR-Datenpunkte und die entsprechenden Bilddaten Daten repräsentieren, die an demselben Standort, zu derselben Zeit und mit derselben AV-Stellung gesammelt werden.
  • Bei 1710, gemäß einer Bestimmung, dass der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt (z. B. 1316 oder 1318) entspricht, Registrierungskriterien erfüllt (z. B. weist der extrahierte Teilsatz von LiDAR-Datenpunkten einen Standort- oder Entfernungswert (z. B. Tiefenwert) auf (z. B. relativ zu einem Standort des AV 100), der geringer ist als ein Standort- oder Entfernungsschwellenwert), registriert das System (z. B. 1300) (z. B. automatisch), unter Verwendung der Verarbeitungsschaltung, das detektierte Zielobjekt (z. B. eine Repräsentation oder Indikation des detektierten Zielobjekts (z. B. 1600a-1600e)) in Kartendaten (z. B. dreidimensionalen Kartendaten) (z. B. einschließlich einer Repräsentation des detektierten Zielobjekts in den Kartendaten, ohne Erfordernis einer manuellen Annotation der Kartendaten).
  • In manchen Ausführungsformen beinhaltet das Registrieren des detektierten Zielobjekts in den Kartendaten Angeben eines Standorts (z. B. eines geografischen Standorts) des detektierten Zielobjekts in den Kartendaten (z. B. Assoziieren des detektierten Zielobjekts mit einem Standort in den Kartendaten (z. B. einer Höhe über einer Kreuzung zwei spezieller Straßen)). In manchen Ausführungsformen basiert der Standort des detektierten Zielobjekts in den Kartendaten auf einem geografischen Standort, der mit dem extrahierten Teilsatz der LiDAR-Datenpunkte assoziiert ist (z. B. der Standort des Zielobjekts entspricht dem geografischen Standort der Kreuzung der beiden Straßen in der realen Umgebung entsprechend dem extrahierten Teilsatz der LiDAR-Datenpunkte).
  • In manchen Ausführungsformen beinhalten die Registrierungskriterien ein Kriterium, das erfüllt ist, wenn der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, mit einem Standort oder einer Entfernung (z. B. Tiefe) (z. B. Entfernung vom Fahrzeug) assoziiert ist, der geringer ist als eine Standort- oder Entfernungsschwelle (z. B. eine Standort- oder Entfernungsschwelle zum Bestimmen, ob ein Objekt innerhalb eines vorbestimmten Standorts oder einer vorbestimmten Entfernung vom Fahrzeug liegt, der/die ermöglicht, dass das Zielobjekt als ein spezielles Objekt (z. B. eine Ampel) klassifiziert wird). In manchen Ausführungsformen ist der extrahierte Teilsatz der LiDAR-Datenpunkte eine Sammlung von Datenpunkten, die dem detektierten Zielobjekt entspricht, und ein Standort oder eine Entfernung (z. B. Tiefe), der/die mit dem extrahierten Teilsatz der LiDAR-Datenpunkte assoziiert ist, repräsentiert einen Standort oder eine Entfernung des Zielobjekts (z. B. relativ zu dem Fahrzeug). In manchen Ausführungsformen können der Standort oder die Entfernung und optional eine bestimmte Größe des detektierten Zielobjekts evaluiert werden, um zu bestimmen, ob das detektierte Zielobjekt mit einem Satz von Kriterien zum Klassifizieren des detektierten Zielobjekts übereinstimmt (z. B. zum Identifizieren des detektierten Zielobjekts als eine Ampel).
  • In manchen Ausführungsformen umfasst der Prozess 1700 ferner: gemäß einer Bestimmung, dass der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, nicht die Registrierungskriterien erfüllt, Verzichten auf das Registrieren des detektierten Zielobjekts in den Kartendaten.
  • Bei 1712 navigiert das System (z. B. 1300) (z. B. steuert den Betrieb (z. B. Fahren) des Fahrzeugs), unter Verwendung einer Steuerschaltung (z. B. Steuermodul 406), das Fahrzeug in der Umgebung gemäß den Kartendaten.
  • In der vorstehenden Beschreibung wurden Ausführungsformen der Erfindung mit Bezug auf zahlreiche spezifische Einzelheiten beschrieben, die von Implementierung zu Implementierung variieren können. Die Beschreibung und Zeichnungen sind dementsprechend als veranschaulichend anstatt beschränkend anzusehen. Der alleinige und ausschließliche Indikator des Schutzumfangs der Erfindung, und was durch die Anmelder als der Schutzumfang der Erfindung beabsichtigt ist, ist der wörtliche und äquivalente Schutzumfang des Satzes von Ansprüchen, die aus dieser Anmeldung hervorgehen, in der spezifischen Form, in der derartige Ansprüche hervorgehen, einschließlich einer beliebigen anschließenden Korrektur. Jegliche hierin ausdrücklich dargelegte Definitionen für in derartigen Ansprüchen enthaltene Begriffe sollen die Bedeutung solcher Begriffe regulieren, wie in den Ansprüchen verwendet. Zusätzlich kann, wenn der Begriff „ferner umfassend“ in der vorstehenden Beschreibung oder in den folgenden Ansprüchen verwendet wird, das, was diesem Ausdruck folgt, ein zusätzlicher Schritt oder eine zusätzliche Entität oder ein Teilschritt/eine Teilentität eines zuvor vorgetragenen Schritts oder einer zuvor vorgetragenen Entität sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/949345 [0001]
  • Zitierte Nicht-Patentliteratur
    • 17. Dezember 2019 und mit dem Titel „AUTOMATED OBJECT ANNOTATION USING FUSED CAMERA/LIDAR DATA POINTS" [0001]

Claims (10)

  1. System, das Folgendes umfasst: einen oder mehrere Computerprozessoren; und ein oder mehrere Speicherungsmedien, die Anweisungen speichern, die bei Ausführung durch den einen oder die mehreren Computerprozessoren die Durchführung von Operationen bewirken, die Folgendes umfassen: Erhalten, unter Verwendung eines LiDAR, von LiDAR-Datenpunkten, die Objekten in einer Umgebung im Umfeld eines Fahrzeugs entsprechen; Projizieren, unter Verwendung einer Verarbeitungsschaltung, der LiDAR-Datenpunkte auf Bilddaten; Detektieren, unter Verwendung der Verarbeitungsschaltung, eines Zielobjekts in den Bilddaten; Extrahieren, unter Verwendung der Verarbeitungsschaltung, eines Teilsatzes der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht; gemäß einer Bestimmung, dass der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, Registrierungskriterien erfüllt, Registrieren, unter Verwendung der Verarbeitungsschaltung, des detektierten Zielobjekts in Kartendaten; und Navigieren, unter Verwendung einer Steuerschaltung, des Fahrzeugs in der Umgebung gemäß den Kartendaten.
  2. System nach Anspruch 1, wobei das Erhalten der LiDAR-Datenpunkte Erhalten der LiDAR-Datenpunkte während des Navigierens, unter Verwendung der Steuerschaltung, des Fahrzeugs in der Umgebung beinhaltet, und/oder vorzugsweise wobei das Erhalten der LiDAR-Datenpunkte ferner Folgendes beinhaltet: Erhalten von Stellungsdaten für das Fahrzeug während des Navigierens des Fahrzeugs in der Umgebung; und Assoziieren, unter Verwendung der Verarbeitungsschaltung, der LiDAR-Datenpunkte mit den Stellungsdaten für das Fahrzeug, und/oder vorzugsweise wobei die Stellungsdaten für das Fahrzeug eine dreidimensionale Stellung des Fahrzeugs bezüglich eines geografischen Standorts in der Umgebung angeben, und wobei die Operationen ferner umfassen: Bestimmen, unter Verwendung der Verarbeitungsschaltung, eines geografischen Standorts des detektierten Zielobjekts basierend auf der dreidimensionalen Stellung des Fahrzeugs, und/oder vorzugsweise wobei das Projizieren der LiDAR-Datenpunkte auf die Bilddaten Fusionieren der LiDAR-Datenpunkte mit Bilddaten, die für die Umgebung im Umfeld des Fahrzeugs erhalten werden, beinhaltet, und/oder vorzugsweise wobei: das Registrieren des detektierten Zielobjekts in den Kartendaten Angeben eines Standorts des detektierten Zielobjekts in den Kartendaten beinhaltet, und der Standort des detektierten Zielobjekts in den Kartendaten auf einem geografischen Standort basiert, der mit dem extrahierten Teilsatz der LiDAR-Datenpunkte assoziiert ist, und/oder vorzugsweise wobei das Detektieren des Zielobjekts in den Bilddaten Annotieren des Zielobjekts in den Bilddaten beinhaltet, und wobei das Registrieren des detektierten Zielobjekts in den Kartendaten Repräsentieren des detektierten Zielobjekts in den Kartendaten mit der dreidimensionalen Stellung beinhaltet, und/oder vorzugsweise wobei die Operationen ferner Folgendes umfassen: Bestimmen, unter Verwendung der Verarbeitungsschaltung, einer dreidimensionalen Stellung des detektierten Zielobjekts, wobei die Registrierungskriterien ein Kriterium beinhalten, das erfüllt ist, wenn der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, mit einer Entfernung assoziiert ist, die geringer ist als eine Entfernungsschwelle.
  3. System nach einem der Ansprüche 1 oder 2, wobei das Zielobjekt eine Ampel ist, und wobei das Detektieren des Zielobjekts in den Bilddaten Verwenden maschinellen Lernens zum Detektieren des Zielobjekts in den Bilddaten beinhaltet.
  4. System nach Anspruch 1, wobei die Operationen ferner Folgendes umfassen: gemäß einer Bestimmung, dass der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, nicht die Registrierungskriterien erfüllt, Verzichten auf das Registrieren des detektierten Zielobjekts in den Kartendaten.
  5. Verfahren, das Folgendes umfasst: Erhalten, unter Verwendung eines LiDAR, von LiDAR-Datenpunkten, die Objekten in einer Umgebung im Umfeld eines Fahrzeugs entsprechen; Projizieren, unter Verwendung einer Verarbeitungsschaltung, der LiDAR-Datenpunkte auf Bilddaten; Detektieren, unter Verwendung der Verarbeitungsschaltung, eines Zielobjekts in den Bilddaten; Extrahieren, unter Verwendung der Verarbeitungsschaltung, eines Teilsatzes der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht; gemäß einer Bestimmung, dass der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, Registrierungskriterien erfüllt, Registrieren, unter Verwendung der Verarbeitungsschaltung, des detektierten Zielobjekts in Kartendaten; und Navigieren, unter Verwendung einer Steuerschaltung, des Fahrzeugs in der Umgebung gemäß den Kartendaten.
  6. Verfahren nach Anspruch 5, wobei das Erhalten der LiDAR-Datenpunkte Erhalten der LiDAR-Datenpunkte während des Navigierens, unter Verwendung der Steuerschaltung, des Fahrzeugs in der Umgebung beinhaltet, und/oder vorzugsweise wobei das Erhalten der LiDAR-Datenpunkte ferner Folgendes beinhaltet: Erhalten von Stellungsdaten für das Fahrzeug während des Navigierens des Fahrzeugs in der Umgebung; und Assoziieren, unter Verwendung der Verarbeitungsschaltung, der LiDAR-Datenpunkte mit den Stellungsdaten für das Fahrzeug, und/oder vorzugsweise wobei die Stellungsdaten für das Fahrzeug eine dreidimensionale Stellung des Fahrzeugs bezüglich eines geografischen Standorts in der Umgebung angeben, und/oder vorzugsweise ferner umfassend: Bestimmen, unter Verwendung der Verarbeitungsschaltung, eines geografischen Standorts des detektierten Zielobjekts basierend auf der dreidimensionalen Stellung des Fahrzeugs, wobei das Projizieren der LiDAR-Datenpunkte auf die Bilddaten Fusionieren der LiDAR-Datenpunkte mit Bilddaten beinhaltet, die für die Umgebung im Umfeld des Fahrzeugs erhalten werden, und/oder vorzugsweise wobei: das Registrieren des detektierten Zielobjekts in den Kartendaten Angeben eines Standorts des detektierten Zielobjekts in den Kartendaten beinhaltet, und der Standort des detektierten Zielobjekts in den Kartendaten auf einem geografischen Standort basiert, der mit dem extrahierten Teilsatz der LiDAR-Datenpunkte assoziiert ist, und/oder vorzugsweise ferner umfassend: Bestimmen, unter Verwendung der Verarbeitungsschaltung, einer dreidimensionalen Stellung des detektierten Zielobjekts, wobei das Registrieren des detektierten Zielobjekts in den Kartendaten Repräsentieren des detektierten Zielobjekts in den Kartendaten mit der dreidimensionalen Stellung beinhaltet.
  7. Verfahren nach einem der Ansprüche 5 oder 6, wobei die Registrierungskriterien ein Kriterium beinhalten, das erfüllt ist, wenn der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, mit einer Entfernung assoziiert ist, die geringer ist als eine Entfernungsschwelle.
  8. Verfahren nach einem der Ansprüche 5-7, wobei das Zielobjekt eine Ampel ist.
  9. Verfahren nach Anspruch 8, ferner umfassend: gemäß einer Bestimmung, dass der extrahierte Teilsatz der LiDAR-Datenpunkte, der dem detektierten Zielobjekt entspricht, nicht die Registrierungskriterien erfüllt, Verzichten auf das Registrieren des detektierten Zielobjekts in den Kartendaten.
  10. ein Speicherungsmedium bzw. mehrere Speicherungsmedien, die Anweisungen speichern, die bei Ausführung durch eine oder mehrere Rechenvorrichtungen die Durchführung des in einem der Ansprüche 5-9 dargelegten Verfahrens bewirken.
DE102020133982.8A 2019-12-17 2020-12-17 Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte Pending DE102020133982A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962949345P 2019-12-17 2019-12-17
US62/949,345 2019-12-17

Publications (1)

Publication Number Publication Date
DE102020133982A1 true DE102020133982A1 (de) 2021-06-17

Family

ID=74189029

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020133982.8A Pending DE102020133982A1 (de) 2019-12-17 2020-12-17 Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte

Country Status (5)

Country Link
US (1) US11940804B2 (de)
KR (2) KR102552520B1 (de)
CN (1) CN112986979A (de)
DE (1) DE102020133982A1 (de)
GB (2) GB2594118B (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156972A1 (en) * 2020-11-16 2022-05-19 Waymo Llc Long range distance estimation using reference objects
US20220358328A1 (en) * 2021-05-05 2022-11-10 Motional Ad Llc End-to-end system training using fused images
CN113281780B (zh) * 2021-05-27 2024-04-30 北京地平线信息技术有限公司 对图像数据进行标注的方法、装置及电子设备
US20220414387A1 (en) * 2021-06-23 2022-12-29 Gm Cruise Holdings Llc Enhanced object detection system based on height map data
CN113609985B (zh) * 2021-08-05 2024-02-23 诺亚机器人科技(上海)有限公司 物体位姿检测方法、检测设备、机器人及可存储介质
CN114112426A (zh) * 2021-11-08 2022-03-01 东风汽车集团股份有限公司 一种自动驾驶测试方法、系统及装置
KR102584573B1 (ko) * 2021-11-24 2023-10-04 주식회사 유엑스팩토리 복합 센서 정보를 이용하여 영상 화질을 개선하는 통합 영상 처리 장치 및 그 방법
US20230169780A1 (en) * 2021-12-01 2023-06-01 Motional Ad Llc Automatically detecting traffic signals using sensor data
CN114593751A (zh) * 2022-03-11 2022-06-07 北京京东乾石科技有限公司 外参标定方法、装置、介质及电子设备
CN115123385A (zh) * 2022-06-24 2022-09-30 中科领航智能科技(苏州)有限公司 一种无人巴士线控底盘及其自动驾驶系统
CN116295463A (zh) * 2023-02-27 2023-06-23 北京辉羲智能科技有限公司 一种导航地图元素的自动标注方法
CN117706942B (zh) * 2024-02-05 2024-04-26 四川大学 一种环境感知与自适应驾驶辅助电子控制方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9632502B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US20180288320A1 (en) * 2017-04-03 2018-10-04 Uber Technologies, Inc. Camera Fields of View for Object Detection
US10409288B2 (en) * 2017-05-03 2019-09-10 Toyota Research Institute, Inc. Systems and methods for projecting a location of a nearby object into a map according to a camera image
EP3616422B1 (de) 2017-05-26 2021-02-17 Google LLC Maschinengelerntes modellsystem
US10303956B2 (en) * 2017-08-23 2019-05-28 TuSimple System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection
US20190072978A1 (en) * 2017-09-01 2019-03-07 GM Global Technology Operations LLC Methods and systems for generating realtime map information
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
US10620637B2 (en) * 2017-11-29 2020-04-14 GM Global Technology Operations LLC Systems and methods for detection, classification, and geolocation of traffic objects
JP2020507137A (ja) * 2017-12-11 2020-03-05 ベイジン ディディ インフィニティ テクノロジー アンド ディベロップメント カンパニー リミティッド 車両周辺の物体を識別して測位するためのシステムおよび方法
US10169678B1 (en) 2017-12-21 2019-01-01 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
US10717435B2 (en) * 2018-01-03 2020-07-21 Qualcomm Incorporated Adjustable object avoidance proximity threshold based on classification of detected objects
US10671862B2 (en) 2018-01-30 2020-06-02 Wipro Limited Method and system for detecting obstacles by autonomous vehicles in real-time
EP3759562B1 (de) 2018-03-02 2022-12-28 DeepMap Inc. Kamerabasierte lokalisierung für autonome fahrzeuge
US11618438B2 (en) 2018-03-26 2023-04-04 International Business Machines Corporation Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network
EP3998457A1 (de) * 2018-04-03 2022-05-18 Mobileye Vision Technologies Ltd. Systeme und verfahren zur fahrzeugnavigation
KR102162646B1 (ko) * 2019-03-11 2020-10-07 주식회사 에스더블유엠 자율주행차의 주행 제어방법
CN110057373B (zh) * 2019-04-22 2023-11-03 上海蔚来汽车有限公司 用于生成高精细语义地图的方法、装置和计算机存储介质
US11507789B2 (en) 2019-05-31 2022-11-22 Lg Electronics Inc. Electronic device for vehicle and method of operating electronic device for vehicle

Also Published As

Publication number Publication date
KR20230104841A (ko) 2023-07-11
GB202019873D0 (en) 2021-01-27
GB2594118B (en) 2024-04-03
KR102552520B1 (ko) 2023-07-05
US20210181745A1 (en) 2021-06-17
GB2594118A (en) 2021-10-20
US11940804B2 (en) 2024-03-26
GB202311451D0 (en) 2023-09-06
KR20210077617A (ko) 2021-06-25
CN112986979A (zh) 2021-06-18

Similar Documents

Publication Publication Date Title
DE102020133982A1 (de) Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte
DE102020129854A1 (de) Sequenzielle fusion zur 3d-objektdetektion
DE112020000487T5 (de) Automatisches wählen von datenproben zur annotation
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE102020111938A1 (de) Systeme und verfahren zum planen und aktualisieren einer fahrzeugtrajektorie
DE102021101758A1 (de) Ampeldetektionssystem für ein fahrzeug
DE102020111682A1 (de) Systeme und verfahren zum implementieren einer autonomen fahrzeugreaktion auf ein sensorversagen
DE112019006119T5 (de) Erstellung von bewegungsgraphen und routenplanung auf fahrspurebene
DE102020133744A1 (de) Vordergrundextraktion unter verwendung von flächenanpassung
DE112020000110T5 (de) Nutzung von in fahrzeugen erfassten fahrgastaufmerksamkeitsdaten fürlokalisierungs- und standortbezogene dienste
DE112020000653T5 (de) Zusammenführen von daten aus mehreren lidar-vorrichtungen
DE102021100584A1 (de) Erfassung und klassifizierung von sirenensignalen und lokalisierung von sirenensignalquellen
DE112019006128T5 (de) Systeme und verfahren zum validieren von sensorkalibrierung
DE102020135000A1 (de) Systeme und verfahren zur verkehrsampelerfassung
DE112019006282T5 (de) Betrieb eines Fahrzeugs unter Verwendung mehrerer Bewegungsbeschränkungen
DE112019004633T5 (de) Systeme und verfahren zum verbessern des fahrzeugbetriebs unter verwendung beweglicher sensoren
DE102021108068A1 (de) Schätzung von bodenebenen unter verwendung eines semantischen lidar-netzes
DE102020126217A1 (de) Navigieren von Mehrwege-Stopp-Kreuzungen mit einem autonomen Fahrzeug
DE102021112349A1 (de) Fahrzeugbetrieb unter verwendung eines dynamischen belegungsrasters
DE102020120873A1 (de) Lokalisierung basierend auf vordefinierten merkmalen der umgebung
DE102021118316A1 (de) Monokulare 3d-objekterkennung aus bildsemantiknetzwerk
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen
DE102021109466A1 (de) Trajektorieerzeugung unter verwendung eines strassennetzmodells
DE102021101206A1 (de) Auflösung von entfernungsratenmehrdeutigkeit in sensorrückmeldungen
DE102021114032A1 (de) Identifizieren von hintergrundmerkmalen mittels lidar

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication