DE102018100987A1 - Objektverfolgung durch unüberwachtes lernen - Google Patents

Objektverfolgung durch unüberwachtes lernen Download PDF

Info

Publication number
DE102018100987A1
DE102018100987A1 DE102018100987.9A DE102018100987A DE102018100987A1 DE 102018100987 A1 DE102018100987 A1 DE 102018100987A1 DE 102018100987 A DE102018100987 A DE 102018100987A DE 102018100987 A1 DE102018100987 A1 DE 102018100987A1
Authority
DE
Germany
Prior art keywords
data points
common
vehicle
determining
probabilities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018100987.9A
Other languages
English (en)
Inventor
Kevin Wyffels
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ford Global Technologies LLC
Original Assignee
Ford Global Technologies LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ford Global Technologies LLC filed Critical Ford Global Technologies LLC
Publication of DE102018100987A1 publication Critical patent/DE102018100987A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0028Mathematical models, e.g. for simulation
    • B60W2050/0031Mathematical model of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/09Other types of propulsion units, e.g. fluid motors, or type not specified
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Optimization (AREA)
  • Evolutionary Biology (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Game Theory and Decision Science (AREA)
  • Optics & Photonics (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)

Abstract

Eine Rechenvorrichtung in einem Fahrzeug kann ein Objekt durch Bestimmen einer ersten rechteckigen Grenze bestimmen, die auf Grundlage von gemeinsamen Wahrscheinlichkeiten erster 3D-Datenpunkte an dem Objekt zentriert ist, dann das Objekt durch Bestimmen einer zweiten rechteckigen Grenze bestimmen, die auf Grundlage von gemeinsamen Bayesschen Wahrscheinlichkeiten zweiter 3D-Datenpunkte an dem Objekt zentriert ist, die an der ersten rechteckigen Grenze konditioniert sind, und des Fahrzeugs auf Grundlage des bestimmten Objekts steuern.

Description

  • ALLGEMEINER STAND DER TECHNIK
  • Fahrzeuge können dazu ausgestattet sein, sowohl in einem autonomen als auch von einem Insassen gesteuerten Modus betrieben zu werden. Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um das Fahrzeug zu steuern und einen Insassen darin zu unterstützen, das Fahrzeug zu steuern. Eine Rechenvorrichtung kann die reale Umgebung des Fahrzeugs über Sensoren überwachen, um die Rechenvorrichtung darin zu unterstützen, das Fahrzeug zu steuern.
  • Figurenliste
    • 1 ist ein Blockdiagramm eines beispielhaften Fahrzeugs.
    • 2 ist ein Diagramm eines LIDAR-Sensors und von 3D-Datenpunkten.
    • 3 ist ein Diagramm eines LIDAR-Sensors und von 3D-Datenpunkten.
    • 4 ist ein Diagramm eines LIDAR-Sensors und von 3D-Datenpunkten.
    • 5 ist ein Diagramm eines LIDAR-Sensors und von 3D-Datenpunkten.
    • 6 ist ein Ablaufdiagramm eines beispielhaften Prozesses zum Steuern eines Fahrzeugs.
    • 7 ist ein Ablaufdiagramm eines beispielhaften Prozesses zum Steuern eines Fahrzeugs.
    • 8 ist ein Diagramm eines umschließenden Rechtecks.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Fahrzeuge können dazu ausgestattet sein, sowohl in einem autonomen als auch von einem Insassen gesteuerten Modus betrieben zu werden. Mit einem halb- oder vollständig autonomen Modus ist ein Betriebsmodus gemeint, bei dem ein Fahrzeug durch eine Rechenvorrichtung als Teil eines Fahrzeuginformationssystems mit Sensoren und Steuerungen gesteuert wird. Das Fahrzeug kann besetzt oder unbesetzt sein, in beiden Fällen jedoch kann das Fahrzeug ohne die Unterstützung eines Insassen gesteuert werden. Für die Zwecke dieser Offenbarung wird ein autonomer Modus als einer definiert, bei dem jedes von Fahrzeugantrieb (z. B. über einen Antriebsstrang, einschließlich einer Verbrennungsmotor und/oder eines Elektromotors), Bremsen und Lenkung durch einen oder mehrere Fahrzeugrechner gesteuert wird; in einem halbautonomen Modus steuert/steuern der/die Fahrzeugrechner eines oder zwei von Fahrzeugantrieb, Bremsen und Lenkung.
  • Fahrzeuge können mit Rechenvorrichtungen, Netzwerken, Sensoren und Steuerungen ausgestattet sein, um das Fahrzeug zu steuern und Karten der umgebenden realen Welt, einschließlich Merkmalen, wie etwa Straßen, zu bestimmen. Fahrzeuge können gesteuert werden und Karten können bestimmt werden basierend auf dem Lokalisieren und Identifizieren von Straßenverkehrszeichen in der umgebenden realen Welt. Mit Steuern ist das Lenken der Bewegung eines Fahrzeugs gemeint, um das Fahrzeug entlang einer Fahrbahn oder eines anderen Abschnitts eines Wegs zu bewegen.
  • 1 ist ein Diagramm eines Fahrzeuginformationssystems 100, das ein Fahrzeug 110 beinhaltet, das in einem autonomen („autonom“ alleinstehend bedeutet in dieser Offenbarung „vollständig autonom“) und von einem Insassen gesteuerten (auch bezeichnet als nichtautonomer) Modus betrieben werden kann, gemäß offenbarten Umsetzungen. Das Fahrzeug 110 beinhaltet ebenfalls eine oder mehrere Rechenvorrichtungen 115 zum Durchführen von Berechnungen zum Steuern des Fahrzeugs 110 während des autonomen Betriebs. Die Rechenvorrichtungen 115 können Informationen hinsichtlich des Betriebs des Fahrzeugs von den Sensoren 116 empfangen.
  • Die Rechenvorrichtung 115 beinhaltet einen Prozessor und einen Speicher, wie sie bekannt sind. Ferner beinhaltet der Speicher eine oder mehrere Arten von computerlesbaren Medien und speichert Anweisungen, die durch den Prozessor ausführbar sind, um verschiedene Vorgänge durchzuführen, darunter die in dieser Schrift offenbarten. Zum Beispiel kann die Rechenvorrichtung 115 Programmierung beinhalten, um eines oder mehrere von Fahrzeugbremsen, Antrieb (z. B. Steuerung der Beschleunigung in dem Fahrzeug 110 durch Steuern von einem oder mehreren von einem Verbrennungsmotor, Elektromotor, Hybridmotor usw.), Lenkung, Klimasteuerung, Innen- und/oder Außenleuchten usw. zu betreiben sowie um zu bestimmen, ob und wann die Rechenvorrichtung 115 im Gegensatz zu einem menschlichen Fahrzeugführer derartige Vorgänge steuern soll.
  • Die Rechenvorrichtung 115 kann mehr als eine Rechenvorrichtung, z. B. Steuerungen oder dergleichen, die in dem Fahrzeug 110 zum Überwachen und/oder Steuern verschiedener Fahrzeugkomponenten, z. B. einer Antriebsstrangsteuerung 112, einer Bremssteuerung 113, einer Lenksteuerung 114 usw. beinhaltet sind, beinhalten oder kommunikativ daran gekoppelt sein, z. B. über einen Fahrzeugkommunikationsbus, der ferner nachstehend beschrieben ist. Die Rechenvorrichtung 115 ist im Allgemeinen zur Kommunikation an einem Fahrzeugkommunikationsnetzwerk angeordnet, wie beispielsweise einem Bus in dem Fahrzeug 110, wie beispielsweise einem Controller Area Network (CAN) oder dergleichen; das Netzwerk des Fahrzeugs 110 kann drahtgebundene oder drahtlose Kommunikationsmechanismen wie die bekannten beinhalten, z. B. Ethernet oder andere Kommunikationsprotokolle.
  • Über das Fahrzeugnetzwerk kann die Rechenvorrichtung 115 Meldungen an verschiedene Vorrichtungen in dem Fahrzeug übertragen und/oder Meldungen von den verschiedenen Vorrichtungen, z. B. Steuerungen, Aktoren, Sensoren usw., einschließlich den Sensoren 116, empfangen. Alternativ oder zusätzlich kann in Fällen, bei denen die Rechenvorrichtung 115 tatsächlich mehrere Vorrichtungen umfasst, das Fahrzeugkommunikationsnetzwerk für Kommunikationen zwischen Vorrichtungen verwendet werden, die in dieser Offenbarung als die Rechenvorrichtung 115 dargestellt sind. Ferner können, wie nachstehend erwähnt, verschiedene Steuerungen oder Sensorelemente der Rechenvorrichtung 115 über das Fahrzeugkommunikationsnetzwerk Daten bereitstellen.
  • Zusätzlich kann die Rechenvorrichtung 115 zum Kommunizieren durch eine Fahrzeug-zu-Infrastruktur-(F-I-)Schnittstelle 111 mit einem Remote-Serverrechner 120, z. B. einem Cloud-Server, über ein Netzwerk 130 konfiguriert sein, das, wie nachstehend beschrieben, verschiedene drahtgebundene und/oder drahtlose Netzwerktechnologien, z. B. Mobilfunk, Bluetooth® und drahtgebundene und/oder drahtlose Paketnetzwerke verwenden kann. Die Rechenvorrichtung 115 beinhaltet ebenfalls nichtflüchtigen Speicher, wie er bekannt ist. Die Rechenvorrichtung 115 kann Informationen protokollieren, indem sie die Informationen zum späteren Abrufen und Übertragen über das Fahrzeugkommunikationsnetzwerk und einer Fahrzeug-zu-Infrastruktur-(F-I-)Schnittstelle 111 an einen Serverrechner 120 oder eine mobile Benutzervorrichtung 160 in nichtflüchtigem Speicher speichert.
  • Wie bereits erwähnt, ist in Anweisungen, die in dem Speicher gespeichert sind und durch den Prozessor der Rechenvorrichtung 115 ausgeführt werden, im Allgemeinen Programmierung zum Betreiben einer oder mehrerer Komponenten des Fahrzeugs 110, z. B. Bremsen, Lenken, Antrieb usw., ohne Eingreifen eines menschlichen Fahrzeugführers beinhaltet. Unter Verwendung der in der Rechenvorrichtung 115 empfangenen Daten, z. B. der Sensordaten von den Sensoren 116, dem Serverrechner 120 usw., kann die Rechenvorrichtung 115 ohne einen Fahrer zum Betreiben des Fahrzeugs 110 verschiedene Bestimmungen vornehmen und/oder verschiedene Komponenten und/oder Vorgänge des Fahrzeugs 110 steuern. Zum Beispiel kann die Rechenvorrichtung 115 Programmierung beinhalten, um Betriebsverhalten des Fahrzeugs 110, wie etwa Geschwindigkeit, Beschleunigung, Abbremsung, Lenken usw., sowie taktisches Verhalten, wie etwa einen Abstand zwischen Fahrzeugen und/oder eine Zeitspanne zwischen Fahrzeugen, Spurwechsel, Minimalabstand zwischen Fahrzeugen, minimalen Linksabbiegeweg, Zeit bis zur Ankunft an einem bestimmten Ort und minimale Zeit bis zur Ankunft an einer Kreuzung (ohne Ampel), um die Kreuzung zu überqueren, zu regulieren.
  • Steuerungen beinhalten im Sinne der Verwendung in dieser Schrift Rechenvorrichtungen, die üblicherweise zum Steuern eines konkreten Fahrzeugteilsystems programmiert sind. Zu Beispielen gehören eine Antriebsstrangsteuerung 112, eine Bremssteuerung 113 und eine Lenksteuerung 114. Eine Steuerung kann eine elektronische Steuereinheit (Electronic Control Unit - ECU) sein, wie sie bekannt ist, die möglicherweise zusätzliche Programmierung wie hierin beschrieben beinhaltet. Die Steuerungen können kommunikativ mit der Rechenvorrichtung 115 verbunden sein und Anweisungen davon empfangen, um das Untersystemsystem gemäß den Anweisungen zu betätigen. Zum Beispiel kann die Bremssteuerung 113 Anweisungen zum Betreiben der Bremsen des Fahrzeugs 110 von der Rechenvorrichtung 115 empfangen.
  • Die eine oder die mehreren Steuerungen 112, 113, 114 des Fahrzeugs 110 können bekannte elektronische Steuereinheiten (ECUs - Electronic Control Units) oder dergleichen beinhalten, zu denen als nicht einschränkende Beispiele eine oder mehrere Antriebsstrangsteuerungen 112, eine oder mehrere Bremssteuerungen 113 und eine oder mehrere Lenksteuerungen 114 gehören. Jede der Steuerungen 112, 113, 114 kann jeweilige Prozessoren und Speicher und einen oder mehrere Aktoren beinhalten. Die Steuerungen 112, 113, 114 können mit einem Kommunikationsbus des Fahrzeugs 110 programmiert und verbunden sein, wie etwa einem Controller-Area-Network-(CAN-)Bus oder einem Local-Interconnect-Network-(LIN-)Bus, um Anweisungen von dem Rechner 115 zu empfangen und Aktoren basierend auf den Anweisungen zu steuern.
  • Die Sensoren 116 können eine Vielzahl von Vorrichtungen beinhalten, die für die Bereitstellung von Daten über den Fahrzeugkommunikationsbus bekannt sind. Zum Beispiel kann ein Radar, das an einem vorderen Stoßfänger (nicht dargestellt) des Fahrzeugs 110 befestigt ist, einen Abstand des Fahrzeugs 110 zu einem nächsten Fahrzeug vor dem Fahrzeug 110 bereitstellen oder ein Sensor des globalen Positionierungssystems (GPS - Global Positioning System), der in dem Fahrzeug 110 angeordnet ist, kann geographische Koordinaten des Fahrzeugs 110 bereitstellen. Der durch das Radar bereitgestellte Abstand oder die durch den GPS-Sensor bereitgestellten geographischen Koordinaten können durch die Rechenvorrichtung 115 verwendet werden, um das Fahrzeug 110 autonom oder halbautonom zu betreiben.
  • Das Fahrzeug 110 ist im Allgemeinen ein landbasiertes autonomes Fahrzeug 110, das drei oder mehr Räder aufweist, z. B. ein PKW, ein Leicht-LKW usw. Das Fahrzeug 110 beinhaltet einen oder mehrere Sensoren 116, die F-I-Schnittstelle 111, die Rechenvorrichtung 115 und eine oder mehrere Steuerungen 112, 113, 114.
  • Die Sensoren 116 können dazu programmiert sein, Daten in Bezug auf das Fahrzeug 110 und die Umgebung, in der das Fahrzeug 110 betrieben wird, zu erfassen. Beispielsweise und nicht einschränkend können die Sensoren 116 z. B. Höhenmesser, Kameras, LIDAR, Radar, Ultraschallsensoren, Infrarotsensoren, Drucksensoren, Beschleunigungsmesser, Gyroskope, Temperatursensoren, Drucksensoren, Hall-Sensoren, optische Sensoren, Spannungssensoren, Stromsensoren, mechanische Sensoren, wie etwa Schalter, usw. einschließen. Die Sensoren 116 können verwendet werden, um die Umgebung zu erfassen, in der das Fahrzeug 110 betrieben wird, wie etwa Wetterbedingungen, die Neigung einer Straße, die Position einer Straße oder die Positionen von benachbarten Fahrzeugen 110. Die Sensoren 116 können ferner dazu verwendet werden, dynamische Daten des Fahrzeugs 110 in Bezug auf Vorgänge des Fahrzeugs 110 zu sammeln, wie etwa Geschwindigkeit, Gierrate, Lenkwinkel, Motordrehzahl, Bremsdruck, Öldruck, das auf die Steuerungen 112, 113, 114 in dem Fahrzeug 110 angewendete Leistungsniveau, Konnektivität zwischen Komponenten und Gesamtzustand der Elektrik und Logik des Fahrzeugs 110.
  • 2 ist ein Diagramm einer Verkehrszene 200, wobei eine Rechenvorrichtung 115 in einem Fahrzeug 110, das einen LIDAR-Sensor 202 aufweist, den LIDAR-Sensor 202 anleitet, um 3D-Datenpunkte 204, 206 zu erfassen. Die 3D-Datenpunkte 204, 206 sind in zwei Gruppen klassifiziert: Hintergrund-3D-Datenpunkte 204 (geschlossene Kreise) und Objekt-3D-Datenpunkte 206 (offene Kreise). Die 3D-Datenpunkte 204, 206 können unter Verwendung wohlbekannter Techniken maschinellen Sehens automatisch als Hintergrund-3D-Datenpunkte 204 oder Objekt-3D-Datenpunkte 206 markiert werden. Zum Beispiel kann eine vorherige Karte mit 3D-Datenpunkten erfasst werden, die den statischen oder bewegungslosen Hintergrund darstellt. Beliebige der 3D-Datenpunkte 204, 206, die nach diesem Zeitraum erfasst wurden und die mit dem statischen Hintergrund übereinstimmen, können als „Hintergrund-“3D-Datenpunkte 204 markiert werden und beliebige der 3D-Datenpunkte, die nicht mit dem statischen Hintergrund übereinstimmen, werden als „Objekt-“3D-Datenpunkte 206 markiert.
  • In der Verkehrszene 200 hat die Rechenvorrichtung 115 ein erstes geschätztes umschließendes Rechteck 208 (graue gestrichelte Linie) auf Grundlage der Objekt-3D-Datenpunkte 206 bestimmt. Ein umschließendes Rechteck 800 kann wie in 8 gezeigt definiert sein. 8 ist ein Diagramm eines umschließenden Rechtecks 800, das in Bezug auf X-Y-Koordinatenachsen 802 an der Schnittstelle von zwei Sätzen von parallelen Linien 804, 806, 808, 810 definiert ist. Die X-Y-Koordinatenachsen 802 können zum Beispiel in einer zu der befahrbaren Oberfläche einer Fahrbahn parallelen Ebene definiert sein. Die X-Y-Koordinatenachsen 802 können so definiert sind, dass sie in Ausrichtung mit geographischen Richtungen zeigen, wobei eine der Achsen zum Beispiel nach Norden zeigt. In einem weiteren Fall können die X-Y-Koordinatenachsen 802 so definiert sein, dass sie in Ausrichtung mit der Pose des Fahrzeugs 110 zeigen, wobei eine der Achsen zum Beispiel in die Fahrtrichtung des Fahrzeugs 110 zeigt. In beiden Fällen kann das umschließende Rechteck 800 durch eine Lage, Größe und Pose der orthogonalen Paare der parallelen Linien 804, 806, 808, 810 definiert sein.
  • Die Lage des umschließenden Rechtecks 800 kann als die X-Y-Koordinaten (x1, y1) eines Eckpunktes 814 definiert sein, zum Beispiel in Bezug auf die X-Y-Koordinaten (x0, y0) eines Ursprungspunktes 820 der X-Y-Koordinatenachsen 802 definiert sein. Der Ursprungsort 820 kann einer vorbestimmten Stelle an dem Fahrzeug 110, wie etwa einem Schwerpunkt, zugeordnet sein, und somit verschiebt sich zum Beispiel der Ursprungspunkt 820 in der X-Y-Ebene, wenn sich das Fahrzeug 110 auf der Fahrbahn bewegt. Die Größe und Pose des umschließenden Rechtecks 800 können zum Beispiel auf Grundlage der X-Y-Koordinaten (x1, y1), (x2, y2) von Eckpunkten 812, 814 bestimmt werden, wobei die Größe in Länge (L in 8) und Breite (W in 8) definiert sein kann als: W = x 2 x 1
    Figure DE102018100987A1_0001
    L = y 2 y 1
    Figure DE102018100987A1_0002
    und die Pose, die als ein Winkel (Θ in 8) in Bezug auf die X-Y-Koordinatenachsen 802 definiert ist, ist definiert als: Θ= tan 1 W L
    Figure DE102018100987A1_0003
  • Unter erneuter Bezugnahme auf 2 hat die Rechenvorrichtung 115 ein umschließendes Rechteck 208 (graue gestrichelte Linie) auf Grundlage der 3D-Datenpunkte 206, die durch den LIDAR-Sensor 202 von einem wahren, jedoch der Rechenvorrichtung 115 unbekannten, Rechteck 210, welches das Objekt umschließt, (linke diagonale Schraffurlinie) erfasst wurden, durch Verwenden eines regelbasierten Ansatzes, durch den Parameter für ein erstes umschließendes Rechteck 208 bestimmt werden, indem zuerst eine Anfangspose für das erste umschließende Rechteck 208 ausgewählt wird, geschätzt. Die Anfangspose kann die Seiten des ersten umschließenden Rechtecks 208 aufweisen, die zum Beispiel jeweils parallel zu den X-Y-Koordinatenachsen 802 sind. Die Rechenvorrichtung 115 passt die orthogonalen Paare von parallelen Linien dann iterativ auf die Mindestgröße an, die erforderlich ist, um zum Beispiel die Maximalanzahl von den 3D-Objekt-Datenpunkten 206 zu umschließen, während keine der Hintergrund-3D-Datenpunkte 204 umschlossen werden.
  • Die Anfangspose kann mit einer heuristischen Feldgröße eines ersten LIDAR-Scans initiiert werden oder die Anfangspose kann durch Bestimmen von Bounding Boxes initiiert werden, wie in dem nachfolgenden Abschnitt mit dem Titel „Bounding-Box-Schätzung“ beschrieben, wobei eine „diffuse“ oder einheitliche Verteilung von Modellparametern für das vorherige umschließende Rechteck zugewiesen wird. Auf diese Weise kann der Bounding-Box-Schätzalgorithmus darüber informiert werden, dass keine Informationen über die Bounding Boxes vorliegen; es wird dem Bounding-Box-Schätzalgorithmus jedoch ermöglicht, die beste konditionierte Übereinstimmung aus 3D-Datenpunkten zu finden, die durch den ersten LIDAR-Scan erfasst wurden.
  • Vorherige Informationen über eine Bounding-Box-Größe, die der Rechenvorrichtung 115 zu dem Zeitpunkt bekannt sind, zu dem die 3D-Datenpunkte durch einen ersten LIDAR-Scan erfasst werden, können verwendet werden, um die Bounding-Box-Schätzung zu konditionieren. Zum Beispiel ist bekannt, dass die Objekte in den Verkehrsspuren selten die Spurenbreite überschreiten und mit der Spur ausgerichtet werden können. Informationen in Bezug auf eine vorherige Anfangsverteilung der Modellparameter können in die erste Wiederholung des Bounding-Box-Schätzalgorithmus codiert sein.
  • 3 ist ein Diagramm einer Verkehrszene 300, die bei einem neuen Zeitschritt stattfindet, wobei sich das Fahrzeug 110 bewegt hat, einschließlich des LIDAR-Sensors 202. Der LIDAR-Sensor 202 hat der Rechenvorrichtung 115 eine neue Stichprobe von Hintergrund-3D-Datenpunkten 304 (geschlossene Sechsecke) und Objekt-3D-Datenpunkten 306 (offene Sechsecke) bereitgestellt. Die Rechenvorrichtung 115 hat bei dem neuen Zeitschritt ein zweites geschätztes umschließendes Rechteck 308 (gestrichelte Linie) eines wahren, jedoch unbekannten, Rechtecks 210, welches das Objekt umschließt (linke diagonale Schraffurlinie) durch gemeinsame Bayesschen Interferenz auf Grundlage der 3D-Datenpunkte 306 und dem ersten geschätzten umschließenden Rechteck 208 bereitgestellt, wie in dem nachfolgenden Abschnitt mit dem Titel „Bounding-Box-Schätzung“ erörtert.
  • Der nachfolgende Abschnitt mit dem Titel „Bounding-Box-Schätzung“ ist eine Ableitung der Berechnungen, die erforderlich sind, um eine Bounding-Box-Schätzung unter Verwendung der Bayesschen Interferenz durch Konditionieren der Wahrscheinlichkeitsverteilungen p an aktuellen und vorherigen Beobachtungen durchzuführen, die durch einen Vektor von Zufallsvariablen Z 1:k dargestellt sind, der umschließenden Feldern zugeordnete Parameter durch die folgende Gleichung darstellt: p ( B _ , C _ k , Θ k | Z _ 1 : k ) = p ( Z _ k | B _ , C _ k , Θ k , Z _ 1 : k 1 ) · p ( B _ | Z _ 1 : k 1 ) · C _ k 1 , Θ k 1 p ( C _ k , Θ k , C _ k 1 , Θ k 1 | B _ , Z _ 1 : k 1 ) p ( Z _ k )
    Figure DE102018100987A1_0004
    die nachfolgend auch als Gleichung (7) gezeigt ist, wobei p( Z k | B, C k, Θk, Z 1:k-1) die Messwahrscheinlichkeit bei einem Zeitschritt k darstellt, p(B | Z 1:k-1) die Feldgröße des vorherigen Zeitschritts darstellt und ∫ C k-1,Θk-1 p( C k, Θk, C k-1, Θk-1| B, Z 1:k-1) ein stochastisches Prozessmodell darstellt, durch das die gemeinsame Bayessche Wahrscheinlichkeit des 3D-Datenpunktes B (Lage) und umschließende Feldparameter C k, Θk (Größe und Pose) bei dem Zeitschritt k und k-1 modelliert werden, die an den Feldparametern konditioniert sind, die den umschließenden Feldern von vorherigen Zeitschritten zugeordnet sind. Diese Faktoren werden durch Teilen durch p(Z k), der Grenzwahrscheinlichkeit der Daten bezüglich umschließender Felder bei dem Zeitschritt k, normalisiert. Anhang A zeigt die Lösung von p ( Z k | B, C k, Θk, Z 1:k-1) , den Messwahrscheinlichkeiten, in Form von gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen durch Berechnen von Wahrscheinlichkeitsgradienten und somit Maximieren der Messwahrscheinlichkeiten.
  • Durch das Maximieren der gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen wird das zweite geschätzte umschließende Rechteck 308 auf Grundlage der Objekt-3D-Datenpunkte 306 und dem ersten geschätzten umschließenden Rechteck 208 bestimmt. Es ist anzumerken, dass das zweite geschätzte umschließende Rechteck 308 eine verbesserte Schätzung des umschließenden Rechtecks 210 darstellt, welches das Objekt umschließt und wahr, jedoch der Rechenvorrichtung 115 unbekannt ist, da die 3D-Datenpunkte 304, 306 aus der Verkehrszene 300 mit dem ersten geschätzten umschließenden Rechteck 208 kombiniert werden. Es ist außerdem anzumerken, dass sich die Pose des zweiten geschätzten umschließenden Rechtecks 308 in diesem Fall nicht gegenüber der Pose des erste geschätzten umschließenden Rechtecks 208 geändert hat. Dies muss nicht der Fall sein, wenn die Pose des ersten geschätzten umschließenden Rechtecks 208 nicht mit der Pose des wahren, jedoch unbekannten, umschließenden Rechtecks 210 übereinstimmt. In diesem Fall ist die Pose des zweiten geschätzten umschließenden Rechtecks 308 näher an der Pose des wahren, jedoch unbekannten, umschließenden Rechtecks 210 als die Pose des ersten geschätzten umschließenden Rechtecks 208.
  • 4 ist ein Diagramm einer Verkehrszene 400, die zu einem weiteren neuen Zeitschritt stattfindet, wobei sich das Fahrzeug 110 erneut bewegt hat, einschließlich des LIDAR-Sensors 202. Der LIDAR-Sensor 202 hat der Rechenvorrichtung 115 eine neue Stichprobe von Hintergrund-3D-Datenpunkten 404 (geschlossene Kreise) und Objekt-3D-Datenpunkten 406 (offene Kreise) bereitgestellt. Die Rechenvorrichtung 115 hat bei dem neuen Zeitschritt ein drittes geschätztes umschließendes Rechteck 408 (gestrichelte Linie) eines wahren, jedoch unbekannten, Rechtecks 210, welches das Objekt umschließt, (linke diagonale Schraffurlinie) auf Grundlage der Objekt-3D-Datenpunkte 406 und des zweiten geschätzten umschließenden Rechtecks 308 durch Maximieren der gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen gebildet, wie vorangehend in Bezug auf 3 und in dem durch „Bounding-Box-Schätzung“ gekennzeichneten Abschnitt erörtert.
  • Es ist erneut anzumerken, dass das geschätzte umschließende Rechteck 408 eine verbesserte Schätzung des wahren, jedoch unbekannten, Rechtecks 210 darstellt, welches das Objekt umschließt, da die 3D-Datenpunkte 404, 406 aus der Verkehrszene 400 mit dem vorangehend geschätzten umschließenden Rechteck 308 kombiniert werden. Wenn die Pose des zweiten geschätzten umschließenden Rechtecks 308 nicht der Pose des wahren, jedoch unbekannten, Rechtecks 210, welches das Objekt umschließt, entspricht, kann zum Beispiel die Pose des dritten geschätzten umschließenden Rechtecks 408 näher an der Pose des wahren, jedoch unbekannten, Rechtecks 210, welches das Objekt umschließt, sein als die Pose des zweiten geschätzten umschließenden Rechtecks 308.
  • 5 ist ein Diagramm einer Verkehrszene 500, die bei einem weiteren neuen Zeitschritt stattfindet, wobei sich das Fahrzeug 110 erneut bewegt hat, einschließlich des LIDAR-Sensors 202. Der LIDAR-Sensor 202 hat der Rechenvorrichtung 115 eine neue Stichprobe von Hintergrund-3D-Datenpunkten 504 (geschlossene Kreise) und Objekt-3D-Datenpunkten 506 (offene Kreise) bereitgestellt. Die Rechenvorrichtung 115 hat bei dem neuen Zeitschritt ein viertes geschätztes umschließendes Rechteck 508 (graue gestrichelte Linie) eines wahren, jedoch unbekannten, Rechtecks 210, welches das Objekt umschließt, (linke diagonale Schraffurlinie) auf Grundlage der Objekt-3D-Datenpunkte 406 und des dritten geschätzten umschließenden Rechtecks 406 durch Maximieren der gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen gebildet, wie vorangehend in Bezug auf 3 und in dem durch „Bounding-Box-Schätzung“ gekennzeichneten Abschnitt erörtert.
  • Es ist erneut anzumerken, dass das geschätzte vierte umschließende Rechteck 508 erneut eine verbesserte Schätzung des wahren, jedoch unbekannten, Rechtecks 210 darstellt, welches das Objekt umschließt, da die 3D-Datenpunkte 504, 506 aus der Verkehrszene 500 mit dem vorangehend geschätzten umschließenden Rechteck 408 kombiniert werden. Wenn die Pose des dritten geschätzten umschließenden Rechtecks 408 nicht der Pose des wahren, jedoch unbekannten, Rechtecks 210, welches das Objekt umschließt, entspricht, kann die Pose des vierten geschätzten umschließenden Rechtecks 508 näher an der Pose des wahren, jedoch unbekannten, Rechtecks 210, welches das Objekt umschließt, sein als die Pose des dritten geschätzten umschließenden Rechtecks 408.
  • 6 ist ein Diagramm eines Ablaufdiagramms eines Prozesses 600 zum Steuern eines Fahrzeugs 110 auf Grundlage eines bestimmten Objekts, z. B. wie vorangehend beschrieben, das in Bezug auf 1-5 beschrieben ist. Der Prozess 600 kann durch einen Prozessor der Rechenvorrichtung 115 umgesetzt werden, indem beispielsweise Informationen von Sensoren 116 als Eingabe herangezogen und Anweisungen ausgeführt und Steuersignale über die Steuerungen 112, 113, 114 gesendet werden. Der Prozess 600 beinhaltet mehrere Schritte, die in der offenbarten Reihenfolge vorgenommen werden. Der Prozess 600 beinhaltet außerdem Umsetzungen, die weniger Schritte beinhalten, oder kann die in anderen Reihenfolgen vorgenommenen Schritte beinhalten.
  • Der Prozess 600 beginnt bei Schritt 602, wo die Rechenvorrichtung 115 ein erstes Objekt auf Grundlage einer ersten Vielzahl von Objekt-3D-Datenpunkten 206 bestimmt. Das erste Objekt kann durch Bestimmen von Parametern eines ersten geschätzten umschließenden Rechtecks 208 unter Verwendung eines regelbasierten Ansatzes bestimmt werden, durch den Parameter für ein erstes umschließendes Rechteck 208 bestimmt werden, indem zuerst eine Anfangspose für das erste umschließende Rechteck 208 bestimmt wird und dann die orthogonalen Paare von parallelen Linien iterativ auf die Mindestgröße angepasst werden, die zum Umschließen der Maximalanzahl von den Objekt-3D-Datenpunkten 206 erforderlich ist, während keine Hintergrund-3D-Datenpunkte 204 umschlossen werden, wie vorangehend in Bezug auf 2 beschrieben. Die Rechenvorrichtung 115 kann außerdem eine Anfangspose durch Bestimmen von Modellparametern für die erste Wiederholung bestimmen, wie vorangehend in Bezug auf 2 erörtert.
  • Bei Schritt 604 bestimmt die Rechenvorrichtung 115 ein zweites Objekt durch Bestimmen von Parametern eines zweiten geschätzten umschließenden Rechtecks 308 auf Grundlage von Maximieren von gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen auf Grundlage der zweiten Vielzahl von Objekt-3D-Datenpunkten 306 und dem ersten geschätzten umschließenden Rechteck 208, wie vorangehend in Bezug auf 3 und den durch „Bounding-Box-Schätzung“ gekennzeichneten Abschnitt erörtert.
  • Bei Schritt 606 steuert die Rechenvorrichtung 115 das Fahrzeug 110 auf Grundlage des zweiten Objekts, das in Schritt 604 bestimmt wurde. Die Rechenvorrichtung kann mehr als ein Objekt in dem Sichtfeld des LIDAR-Sensors 202 bestimmen, indem es die gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen unter Verwendung von Techniken maximiert, die in der anhängigen Anmeldung XX/XXX,XXX mit dem Titel OBJEKTVERFOLGUNG DURCH UNUBERWACHTES LERNEN erörtert werden, das denselben Erfinder aufweist und dieselbe Anmelderin wie diese Anmeldung zugewiesen hat und die durch Bezugnahme in ihrer Gesamtheit in diese Schrift aufgenommen wird. Die Rechenvorrichtung 115 kann das Fahrzeug 110 durch Prognostizieren von Wegen für Objekte in dem Sichtfeld des LIDAR-Sensors 202 und dann Planen eines Wegs für das Fahrzeug 110 steuern, um einen vorbestimmten Ort zu erreichen und die Objekte gleichzeitig zu umfahren. Nach Block 606 endet der Prozess 600.
  • Zusammengefasst beschreibt der Prozess 600 einen Prozess, durch den eine Rechenvorrichtung 115 erste Objekt-3D-Datenpunkte 206 unter Verwendung eines LIDAR-Sensors 202 erfassen kann, ein erstes Objekt auf Grundlage der ersten Objekt-3D-Datenpunkte bestimmen kann, zweite Objekt-3D-Datenpunkte 306 unter Verwendung des LIDAR-Sensors 202 erfassen kann und ein zweites Objekt in dem Sichtfeld des LIDAR-Sensors 202 auf Grundlage des ersten Objekts und der zweiten Objekt-3D-Datenpunkte bestimmen kann und ein Fahrzeug 110 zu einem vorbestimmten Ort steuern kann, während das Objekt auf Grundlage des bestimmten zweiten Objekts umfahren wird.
  • 7 ist ein Diagramm eines Ablaufdiagramms eines Prozesses 700 zum Bestimmen eines geschätzten umschließenden Rechtecks auf Grundlage von 3D-Datenpunkten und vorher geschätzten umschließenden Rechtecken, z. B. wie vorangehend beschrieben, das in Bezug auf 1-5 beschrieben ist. Der Prozess 700 kann durch einen Prozessor der Rechenvorrichtung 115 umgesetzt werden, indem beispielsweise Informationen von Sensoren 116 als Eingabe herangezogen und Anweisungen ausgeführt und Steuersignale über die Steuerungen 112, 113, 114 gesendet werden. Der Prozess 700 beinhaltet mehrere Schritte, die in der offenbarten Reihenfolge vorgenommen werden. Der Prozess 700 beinhaltet außerdem Umsetzungen, die weniger Schritte beinhalten, oder kann die in anderen Reihenfolgen vorgenommenen Schritte beinhalten.
  • Der Prozess 700 beginnt bei Schritt 702, wo die Rechenvorrichtung 115 erfasste 3D-Datenpunkte mit vorangehend erfassten 3D-Datenpunkten vergleicht, um Hintergrund-3D-Datenpunkte und Objekt-3D-Datenpunkte wie vorangehend in Bezug auf 2 erörtert zu bestimmen. Bei Schritt 704 bildet die Rechenvorrichtung gemeinsame Bayessche Wahrscheinlichkeitsverteilungen, die für jeden Objekt-3D-Datenpunkt für jedes Objekt konditioniert wurden, das an den Ergebnissen eines vorherigen Zeitschritts, wie vorangehend in Bezug auf 3 und in Anhang A erörtert, konditioniert wurde.
  • Bei Schritt 706 bildet die Rechenvorrichtung ein 3x3-Gitter, das mit einem umschließenden Rechteck ausgerichtet ist, das bei einem vorherigen Zeitschritt geschätzt wurde, wie in Tabelle 1 durch „Bounding-Box-Schätzung“ gekennzeichneten Abschnitts gezeigt, wobei die gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen der Objekt-3D-Datenpunkte gemäß Klassenzugehörigkeitswahrscheinlichkeiten berechnet werden, wobei sich Objekt-3D-Datenpunkte in dem geschätzten umschließenden Rechteck in Klasse 1 befinden und sich 3D-Datenpunkte, die außerhalb des umschließenden Rechtecks auftreten, in Klasse 2-9 befinden.
  • Bei Schritt 708 wird die geschätzte rechteckige Grenze durch Maximieren der gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen der Objekt-3D-Datenpunkte bestimmt, die an einer vorherigen geschätzten rechteckigen Grenze gemäß der Klassenzugehörigkeitswahrscheinlichkeiten an dem 3x3-Gitter konditioniert wurden, wie in dem durch „Bounding-Box-Schätzung“ gekennzeichneten Abschnitt erörtert, und bei Schritt 710 kann die Rechenvorrichtung 115 die geschätzten rechteckigen Grenzen an einen Prozess ausgeben, wie etwa den Prozess 600, um zum Beispiel das Fahrzeug 110 zu steuern. Nach Block 708 endet der Prozess 700.
  • Zusammengefasst ist der Prozess 700 ein Prozess zum Vergleichen von 3D-Datenpunkten mit vorangehend erfassten Punkten, um Objekt-3D-Datenpunkte zu bestimmen, zum Bilden gemeinsamer Bayesscher Wahrscheinlichkeitsverteilungen auf Grundlage der Objekt-3D-Datenpunkte und an einem vorangehend geschätzten umschließenden Rechteck an einem 3x3-Gitter konditioniert und zum Schätzen eines neuen umschließenden Rechtecks auf Grundlage der Objekt-3D-Datenpunkte und eines vorangehend geschätzten umschließenden Rechtecks und Ausgeben des neuen geschätzten umschließenden Rechtecks.
  • BOUNDING-BOX-SCHÄTZUNG
  • Wahrscheinlichkeitsverteilungen p von Vektoren von Zufallsvariablen B, Ck, die Parameter darstellen, die 3D-Datenpunkte bei einem Zeitschritt k umschließenden Feldern zuordnen, und der Zufallsvariable Θk, die Parameter darstellt, die den umschließenden Feldern bei einem Zeitschritt k zugeordnet sind, können unter Verwendung der Bayesschen Interferenz geschätzt werden, um die Wahrscheinlichkeitsverteilungenp an aktuellen und vorherigen Beobachten zu konditionieren, die durch den Vektor der Zufallsvariablen Z1:k dargestellt werden, die den umschließenden Feldern zugeordnete Parameter durch die folgenden Gleichungen darstellen: p ( B _ , C _ k , Θ k | Z _ 1 : k ) = p ( Z _ k | B _ , C _ k , Θ k , Z _ 1 : k 1 ) · p ( B _ , C _ k , Θ k | Z _ 1 : k 1 ) p ( Z _ k ) = p ( Z _ k | B _ , C _ k , Θ k , Z _ 1 : k 1 ) · p ( B _ , | Z _ 1 : k 1 ) · p ( C _ k , Θ k | B _ , Z _ 1 : k 1 ) p ( Z _ k ) = p ( Z _ k | B _ , C _ k , Θ k , Z _ 1 : k 1 ) · p ( B _ , | Z _ 1 : k 1 ) · C _ k 1 , Θ k 1 p ( C _ k , Θ k , C _ k 1 , Θ k 1 | B _ , Z _ 1 : k 1 ) p ( Z _ k )
    Figure DE102018100987A1_0005
    wobei p(Zk |B, Ck, Θk, Z1:k-1) die Messwahrscheinlichkeit bei einem Zeitschritt k darstellt, p(B | Z1:k-1) die Feldgröße des vorherigen Zeitschritts darstellt und ∫C k-1 ,Θ k-1 p( Ck, Θk, Ck-1, Θk-1| B, Z1:k-1) ein stochastisches Prozessmodell darstellt, durch das die gemeinsame Bayessche Wahrscheinlichkeit des 3D-Datenpunkts B und umschließende Feldparameter Ck, Θk bei dem Zeitschritt k und k-1 modelliert werden, die an der Feldgröße und an Parametern konditioniert sind, die den umschließenden Feldern von vorherigen Zeitschritten zugeordnet sind. Diese Faktoren werden durch Teilen durch p(Zk), der Grenzwahrscheinlichkeit der Daten bezüglich umschließender Felder bei dem Zeitschritt k, normalisiert.
  • Bezogen auf die Messwahrscheinlichkeit wird zuerst angenommen, dass jeder Datenpunkt gemäß den folgenden Gleichungen unabhängig ist: Z _ k _ Z _ l l k
    Figure DE102018100987A1_0006
    Z _ i , k _ Z _ j , k i j
    Figure DE102018100987A1_0007
    wobei das Symbol _
    Figure DE102018100987A1_0008
    „statistisch unabhängig von“ bedeutet, was bedeutet, dass die Modellmaximalwahrscheinlichkeit wie folgt berechnet werden kann: p ( Z _ k | B _ , C _ k , Θ k , Z _ 1 : k 1 ) = l = 1 n z p ( Z _ l , k | B _ , C _ k , Θ k )
    Figure DE102018100987A1_0009
    wobei der Operator ⇑ „das Produkt aus den Bayesschen Wahrscheinlichkeitsverteilungen“ bedeutet, in diesem Fall über 3D-Datenpunkte l von 1 bis nz, der Anzahl von 3D-Datenpunkten. Aus Gründen der Übersichtlichkeit wird die Zeitschrittnotation (k) hier weggelassen und zur unabhängigen Betrachtung jeden 3D-Datenpunkts übergegangen, wobei jeder 3D-Datenpunkt aus einer Klassifizierungsperspektive betrachtet wird, wobei zwei Sätze von parallelen Linien (Grenze 1, Grenze 2 und Grenze 3, Grenze 4) orthogonal als eine Bounding-Box-Form eines Gitters angeordnet sind, wie in Tabelle 1 gezeigt: Tabelle 1. Bounding-Box-Klassen und Grenzen
    Klasse 6 Klasse 3 Klasse 9
    Klasse 4 Klasse 1 Klasse 5 Grenze 3
    Klasse 8 Klasse 2 Klasse 7 Grenze 4
    Grenze 2 Grenze 1
  • In lokalen Koordinaten, sind die Grenzbedingungen für Klasse 1 wie folgt: B _ _ T = [ U _ L T , U _ L T C _ + L 2 U _ L T , U _ L T C _ + L 2 U _ W T , U _ W T C _ + W 2 U _ W T , U _ W T C _ + W 2 ]
    Figure DE102018100987A1_0010
    wobei U _ L T = [ cos θ sin θ ]
    Figure DE102018100987A1_0011
    U _ W T = [ sin θ , cos θ ]
    Figure DE102018100987A1_0012
    und wobei Reihe 1 von Feld (A7) U _ L T , U _ L T C _ + L 2 = links von Grenze 1 ,
    Figure DE102018100987A1_0013
    Reihe 2 von Feld (A7) U _ L T , U _ L T C _ + L 2 = rechts von Grenze 2 ,
    Figure DE102018100987A1_0014
    Reihe 3 von Feld (A7) U _ W T , U _ W T C _ + W 2 = unter Grenze 3
    Figure DE102018100987A1_0015
    und Reihe 4 von Feld (A7) U _ W T , U _ W T C _ + W 2 = über Grenze 4 .
    Figure DE102018100987A1_0016
    Die Klassen können hinsichtlich dieser Begrenzungen durch die folgende Gleichung definiert werden: Θ _ _ T = Γ _ _ · B _ _ T
    Figure DE102018100987A1_0017
    wobei Γ _ _ = [ 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 ]
    Figure DE102018100987A1_0018
    und Θ _ _ T = 2 [ O _ 1 x 2 ( L + W ) 2 U _ W T U _ W T C _ + L 2 U _ W T U _ W T C _ + L 2 U _ L T U _ L T C _ + W 2 U _ L T U _ L T C _ + W 2 ( U _ L U _ W ) T ( U _ L U _ W ) T C _ ( U _ L U _ W ) T ( U _ L U _ W ) T C _ ( U _ L + U _ W ) T ( U _ L U _ W ) T C _ ( U _ L + U _ W ) T ( U _ L U _ W ) T C _ ]
    Figure DE102018100987A1_0019
    wobei die Reihen der 9x2-Matrix von oben nach unten jeweils die Klassen 1-9 darstellen. „Weiche“ Begrenzungen können unter Verwendung einer Logistik-/Softmax-Funktion bestimmt werden: p ( Z _ l | Z _ l Klasse n , B _ , C _ k , Θ _ k ) = e x p ( λ Θ _ n T Z _ ˜ l ) i = 1 9 e x p ( λ Θ _ i T Z _ ˜ l )
    Figure DE102018100987A1_0020
    wobei: Θ _ n T = die n . Reihe von Θ _ _ T
    Figure DE102018100987A1_0021
    und Z ˜ _ l = [ Z l 1 ]
    Figure DE102018100987A1_0022
  • Nun wird angenommen, dass die Softmax-Funktion das Objekt korrekt markiert (z. B. Klasse 1) oder nicht (z. B. Klasse 2-9). Dies legt nahe, eine „Superklasse“ gleich der Einheit aller Klassen > 1 zu bilden. p ( Z _ l | i n , B _ , C _ k , Θ _ k ) = e x p ( λ Θ _ n T Z _ ˜ l ) i = 1 9 e x p ( λ Θ _ i T Z _ ˜ l )
    Figure DE102018100987A1_0023
    p ( Z _ l | o u t , B _ , C _ k , Θ _ k ) = e x p ( λ Θ _ n T Z _ ˜ l ) i = 1 9 e x p ( λ Θ _ i T Z _ ˜ l )
    Figure DE102018100987A1_0024
  • Zurückkehrend zur Berechnung der Modellmaximalwahrscheinlichkeit und durch Ersetzen der Ergebnisse erhält man: p ( B _ , C _ k , Θ k | Z _ 1 : k ) = p ( B _ | Z _ 1 : k 1 ) · p ( C _ k , Θ k | B _ , Z _ 1 : k 1 ) · l = 1 n Z p ( Z l , k | B _ , C _ k , Θ k ) p ( Z _ k )
    Figure DE102018100987A1_0025
  • An diesem Punkt bestehen zwei Möglichkeiten, die Berechnung der Maximalwahrscheinlichkeit zu lösen:
    1. 1. Heranziehen der EKF-Prognose (Extended Kaman Filter Prediction - erweiterte Kaman-Filterprognose) p( C k, Θk| B, Z 1:k-1) . Es ist anzumerken, dass die späteren Grenzwahrscheinlichkeitsverteilungen über C k & dΘk in diesem Fall nicht für die EKF als eine Beobachtung verwendet werden können, da das eine das andere beeinflusst.
    2. 2. Annehmen von einheitlichen/wenig informativen/diffusen vorangehenden Grenzwahrscheinlichkeitsverteilungen über C k a: & k . Dann können die späteren Grenzwahrscheinlichkeitsverteilungen als eine Beobachtung in der EKF-Berechnung verwendet werden.
  • Es wird Möglichkeit 2 angenommen: p ( B _ , C _ k , Θ k | Z _ 1 : k ) p ( B _ | Z _ 1 : k 1 ) · l = 1 n Z p ( Z _ l , k | B _ , C _ k , Θ k )
    Figure DE102018100987A1_0026
  • Durch Ergänzen der Notation durch Cluster-Markierungen (Objektmarkierungen) ergibt sich aus dieser Gleichung: p ( B _ , C _ k , Θ k | Z _ 1 : k , Y _ k ) p ( B _ | Z _ 1 : k 1 ) · { l IN e x p ( λ Θ _ n T Z _ ˜ l ) i = 1 9 e x p ( λ Θ _ i T Z _ ˜ l ) Φ l IN · l OUT e x p ( λ Θ _ n T Z _ ˜ l ) i = 1 9 e x p ( λ Θ _ i T Z _ ˜ l ) Φ l OUT }
    Figure DE102018100987A1_0027
  • Es ist anzumerken, dass Φ l OUT = 1 Φ l IN = 1 Φ l .
    Figure DE102018100987A1_0028
    Unter Verwendung dieser Notation ergibt sich aus Gleichung 20: p ( B _ , C _ k , Θ k | Z _ 1 : k , Y _ k ) p ( B _ | Z _ 1 : k 1 ) · { l IN Φ l · l OUT ( 1 Φ l ) }
    Figure DE102018100987A1_0029
  • Durch Einsetzen des natürlichen Logarithmus ergibt sich: L = l n [ p ( B _ | Z _ 1 : k 1 ) ] + l IN l n ( Φ l ) + l OUT l n ( 1 Φ l )
    Figure DE102018100987A1_0030
  • Jetzt kann der Gradient berechnet werden. Zuerst gilt Folgendes: M _ = [ B _ C _ k Θ k ] = Satz von Modellparametern
    Figure DE102018100987A1_0031
    und L _ M _ = M _ l n [ p ( B _ | Z _ 1 : k 1 ) ] = [ B _ l n [ p ( B _ | Z _ 1 : k 1 ) ] O _ 2 x 1 O ] + l IN l n ( Φ l ) + l OUT l n ( 1 Φ l )
    Figure DE102018100987A1_0032
    wobei B _ l n [ p ( B _ | Z _ 1 : k 1 ) ]
    Figure DE102018100987A1_0033
    von der polaren Form abhängig ist und so eingestellt werden kann, dass es wahrscheinlich ist, dass sie „so groß“ ist wie bei dem vorherigen Zeitschritt.
  • Aus einer Fortsetzung der Ableitung ergibt sich: B _ l n ( Φ l ) = 1 Φ l · Φ l M _
    Figure DE102018100987A1_0034
    B _ l n ( 1 Φ l ) = 1 1 Φ l · Φ l M _
    Figure DE102018100987A1_0035
  • Durch Einsetzen ergibt sich: L _ M _ = M _ l n [ p ( B _ | Z _ 1 : k 1 ) ] l IN 1 Φ l · Φ l M _ + l OUT 1 1 Φ l · Φ l M _
    Figure DE102018100987A1_0036
    wobei: Φ l = e x p ( λ Θ _ n T Z _ ˜ l ) i = 1 9 e x p ( λ Θ _ i T Z _ ˜ l ) = f 1 j = 1 9 f j
    Figure DE102018100987A1_0037
  • Dann ergibt sich aus der Quotientenregel: Φ l M _ = f 1 M _ · j = 1 9 f j f 1 j = 1 9 f j M _ [ j = 1 9 f j ]
    Figure DE102018100987A1_0038
  • Und aus der Kettenregel: f j M _ = f j Θ j · Θ j M _ = Θ j T M _ T · f j Θ j T
    Figure DE102018100987A1_0039
    und f j Θ j T = λ · e x p ( λ Θ _ n T Z _ ˜ l ) · Z _ ˜ l = λ · f j · Z _ ˜ l
    Figure DE102018100987A1_0040
    wobei f j M _ 5 x 1 ,
    Figure DE102018100987A1_0041
    f j Θ j T 3 x 1
    Figure DE102018100987A1_0042
    und Θ j T M _ T 5 x 1 .
    Figure DE102018100987A1_0043
    Durch Einsetzen von 33 in 31 und Einsetzen des Ergebnisses in 29 und Vereinfachen der Ergebnisse ergibt sich: Φ l M _ = λ Φ l · [ j = 2 9 ( Θ _ _ 1 Θ _ _ j ) f j j = 1 9 f j ] · Z _ ˜ l
    Figure DE102018100987A1_0044
  • Und durch Ersetzen von fj ergibt sich: = λ Φ l · [ j = 2 9 ( Θ _ _ 1 Θ _ _ j ) e x p ( λ Θ _ n T Z _ ˜ l ) j = 1 9 e x p ( λ Θ _ n T Z _ ˜ l ) = α _ _ l 5 x 3 ] · Z _ ˜ l
    Figure DE102018100987A1_0045
  • Durch erneutes Einsetzen in den Gradienten der Logarithmus-Wahrscheinlichkeit und Rauskürzen von Φl ergibt sich: L _ M _ = M _ l n [ p ( B _ | Z _ 1 : k 1 ) ] + λ [ l IN α _ _ l Z _ ˜ l l OUT Φ l 1 Φ l α _ _ l Z _ ˜ l ]
    Figure DE102018100987A1_0046
    wobei: α _ _ l = j = 2 9 d Θ _ _ j · e x p ( λ Θ _ j T Z _ ˜ l ) j = 1 9 e x p ( λ Θ _ j T Z _ ˜ l )
    Figure DE102018100987A1_0047
  • Θ' kann berechnet werden als: Θ _ 1 = [ 0 0 1 /2 0 0 1 /2 0 0 0 0 0 0 0 0 0 ] Θ _ 2 = 2 [ 0 0 1 / 2 0 0 0   0 0   0 0 U _ W ( U _ W ) T ( U _ W ) T C _ ]
    Figure DE102018100987A1_0048
    Θ _ 3 = 2 [ 0 0 1 / 2 0 0 0   0 0   0 0 U _ W ( U _ W ) T ( U _ W ) T C _ ] Θ _ 4 = 2 [   0 0 0 0 0 1 /2 0 0 U _ L   0 0 ( U _ L ) T ( U _ L ) T C _ U _ W T ( U _ L ) T C _ ]
    Figure DE102018100987A1_0049
    Θ _ 5 = 2 [ 0 0 0 0 0 1 2 0 0 0 0 U _ L ( U _ L ) T ( U _ L ) T C ]
    Figure DE102018100987A1_0050
    Θ _ 6 = 2 [ 0 0 0 0 0 0 0 0 0 0 ( U _ L U W _ ) ( U _ L U _ W ) T ( U _ L U _ W ) T C _ ]
    Figure DE102018100987A1_0051
    Θ _ 7 = 2 [ 0 0 0 0 0 0 0 0 0 0 U _ L ( U _ L U _ W ) T ( U _ L U _ W ) T C _ ]
    Figure DE102018100987A1_0052
    Θ _ 8 = 2 [ 0 0 0 0 0 0 0 0 0 0 ( U _ L + U W _ ) ( U _ L + U _ W ) T ( U _ L + U _ W ) T C _ ( U _ L U _ W ) ( U _ L U _ W )   C _ ]
    Figure DE102018100987A1_0053
    Θ _ 9 = 2 [ 0 0 0 0 0 0         0 0         0 0 ( U _ L + U W _ ) ( U _ L + U _ W ) T ( U _ L + U _ W ) T C _ ]
    Figure DE102018100987A1_0054
    wobei: U _ L T = [ cos Θ sin Θ ]
    Figure DE102018100987A1_0055
    U _ W T = [ sin Θ cos Θ ]
    Figure DE102018100987A1_0056
    ( U _ L T ) = [ sin Θ cos Θ ]
    Figure DE102018100987A1_0057
    ( U _ W T ) = [ cos Θ sin Θ ]
    Figure DE102018100987A1_0058
    ( U _ L T ) = U _ W T , ( U _ W T ) = U _ L T
    Figure DE102018100987A1_0059
  • Und die Subtraktionen d Θ _ _ j = Θ _ _ 1 Θ _ _ j
    Figure DE102018100987A1_0060
    können berechnet werden als: d Θ _ _ 2 = 2 [ 0 0 0 0 0 1 / 2 0 0 U _ W 0 0 U _ L T U _ L T C _ ]   d Θ _ _ 3 = 2 [ 0 0 0 0 0 1 / 2   0   0 U _ W   0   0 U _ L T U _ L T C _ ]
    Figure DE102018100987A1_0061
    d Θ _ _ 4 = 2 [ 0 0 1 / 2 0 0 0 0 0 U _ L 0 0 U _ W T U _ W T C _ ]   d Θ _ 5 = 2 [ 0 0 1 / 2 0 0 0 0 0 U _ L U _ W T U _ W T C _ ]
    Figure DE102018100987A1_0062
    d Θ _ _ 6 = 2 [ 0 0 1 / 2 0 0 1 / 2        0 0        0 0 ( U _ L U W _ ) ( U _ L + U _ W ) T ( U _ L + U _ W ) T C _ ]
    Figure DE102018100987A1_0063
    d Θ _ _ 7 = 2 [ 0 0 1 / 2 0 0 1 / 2   0 0   0 0 ( U _ L U W _ ) ( U _ L + U _ W ) T ( U _ L + U _ W ) T C _ ]
    Figure DE102018100987A1_0064
    d Θ _ _ 8 = 2 [ 0 0 1 / 2 0 0 1 / 2      0 0      0 0 ( U _ L + U W _ ) ( U _ L U _ W ) T ( U _ L U _ W ) T C _ ]
    Figure DE102018100987A1_0065
    d Θ _ _ 9 = 2 [ 0 0 1 / 2 0 0 1 / 2   0 0   0 0 ( U _ L + U W _ ) ( U _ L U _ W ) T ( U _ L U _ W ) T C _ ]
    Figure DE102018100987A1_0066
  • Zusammenfassend lautet die zu maximierende Logarithmus-Wahrscheinlichkeitsfunktion: L = l n [ p ( B _ | Z _ 1 : k 1 ) ] + l IN l n ( Φ l ) + l OUT l n ( 1 Φ l )
    Figure DE102018100987A1_0067
  • Und ihr Gradient lautet: L _ M _ = M _ l n [ p ( B _ | Z _ 1 : k 1 ) ] + l IN l n ( Φ l ) + l OUT l n ( 1 Φ l )
    Figure DE102018100987A1_0068
    wobei: a _ _ l = j = 2 9 d Θ _ _ j · exp ( λ Θ _ j T Z _ ˜ l ) j = 1 9 exp ( λ Θ _ j T Z _ ˜ l ) ,   Z _ ˜ l = [ Z _ l 1 ]
    Figure DE102018100987A1_0069
    und: Φ l = e x p ( λ Θ _ n T Z _ ˜ l ) j = 1 9 e x p ( λ Θ _ i T Z _ ˜ l ) ,   d Θ _ _ j = M a t r i t z e n  A 49 A 54 j [ 2,   ,  9 ]
    Figure DE102018100987A1_0070
  • Nun ist λ ein Anpassungsparameter, der direkt proportional zu der „Schärfe“ der Softmax-Funktion ist, wobei:
    • Φl = gemessen Wahrscheinlichkeit, dass ein Punkt von einem Objekt stammt,
    • 1-Φl = gemessene Wahrscheinlichkeit, dass ein Punkt nicht von einem Objekt stammt, und
    • Φ l 1 Φ l = e x p ( λ Θ _ n T Z _ ˜ l ) i = 2 9 e x p ( λ Θ _ i T Z _ ˜ l )
      Figure DE102018100987A1_0071
      = Wahrscheinlichkeitsverhältnis eines Punktes innerhalb/außerhalb eines Objekts.
  • Der Gradient kann verwendet werden, um die Logarithmus-Wahrscheinlichkeitsfunktion durch Finden der Hesseschen Normalform zu maximieren: H _ _ = 2 L M _ 2 = 2 M _ 2 L B + λ [ l IN M _ · J _ l IN H _ _ l IN + l OUT M _ · Φ l 1 Φ l · J _ l IN H _ _ l OUT ]
    Figure DE102018100987A1_0072
    wobei: J _ l IN = a _ _ l · Z _ ˜ l ,   H _ _ l IN = 2 M _ · J _ l IN ,   H _ _ l OUT = d d M _ · Φ l 1 Φ l · J _ l IN
    Figure DE102018100987A1_0073
  • Unter Verwendung der Produktregel zum Ausdrücken von H _ _ l OUT
    Figure DE102018100987A1_0074
    im Nennerformat ergibt sich: H _ _ l OUT = Φ l 1 Φ l · H _ _ l OUT + [ d d M _ · Φ l 1 Φ l ] ( J _ l IN ) T
    Figure DE102018100987A1_0075
  • Nun ergibt sich aus der Anwendung der Quotientenregel: d d M _ · Φ l 1 Φ l = [ d d M _ · Φ l ] ( 1 Φ l ) Φ l · d d M _ ( 1 Φ l ) ( 1 Φ l ) 2 ( 67 ) = d d M _ · Φ l ( 1 Φ l ) 2 = λ Φ l ( 1 Φ l ) 2 · a _ _ l · Z _ ˜ l = J _ l IN ( 68 )
    Figure DE102018100987A1_0076
  • Durch erneutes Einsetzen in (66) ergibt sich: H _ _ l OUT = Φ l 1 Φ l · H _ _ l IN + λ · Φ l ( 1 Φ l ) 2 · J _ l IN · ( J _ l IN ) T
    Figure DE102018100987A1_0077
    und H _ _ l IN = M _ J _ l IN = M _ a _ _ l Z _ ˜ l = M _ j = 2 9 Θ _ _ j f j j = 1 9 f j Z _ ˜ l
    Figure DE102018100987A1_0078
  • Was gemäß der Quotientenregel Folgendes ergibt: = [ j = 2 9 d d M _ Θ _ _ ¯ j f j Z _ ˜ l ] · j = 1 9 f j [ j = 1 9 d d M _ f j ] · [ j = 2 9 d d M _ Θ _ _ ¯ j f j Z _ ˜ l ] [ j = 1 9 f j ] 2
    Figure DE102018100987A1_0079
    wobei: d d M _ f j = λ f j = f j Θ _ _ ¯ j Z _ ˜ l
    Figure DE102018100987A1_0080
  • Was in (71) eingesetzte werden kann: [ j = 2 9 d d M _ Θ _ _ ¯ j Z _ ˜ l f j ] j = 1 9 f j λ ( j = 1 9 Θ _ _ j f j j = 1 9 f j ) Z _ ˜ l Z _ ˜ l T a _ _ l T
    Figure DE102018100987A1_0081
    und = [ j = 2 9 d d M _ Θ _ _ ¯ j Z _ ˜ l f j ] j = 1 9 f j λ ( a _ _ l Θ _ _ ) Z _ ˜ l Z _ ˜ l T a _ _ l T
    Figure DE102018100987A1_0082
    wobei: d d M _ Θ _ _ ¯ j Z _ ˜ l f j = f j d d M _ Θ _ _ ¯ j Z _ ˜ l = i = 1 3 Θ _ _ ¯ j ( : , i ) d M _ Z _ ˜ l = Θ _ _ ¯ j + d f j d M _ Z _ ˜ l T ( Θ _ _ ¯ j ) T
    Figure DE102018100987A1_0083
  • Was erneut in (74) eingesetzte werden kann: = j = 2 9 [ f j Θ _ _ ¯ j + λ f j Θ _ _ ¯ j Z _ ˜ l Z _ ˜ l T ( Θ _ _ ¯ j ) T ] j = 1 9 f j + λ ( a _ _ l Θ _ _ j ) Z _ ˜ l Z _ ˜ l T a _ _ l T
    Figure DE102018100987A1_0084
  • Und aus dem erneuten Einsetzen in (70) ergibt sich: H _ _ l IN = j = 2 9 Θ _ _ ¯ j f j j = 1 9 f j + λ { j = 2 9 Θ _ _ j Z _ ˜ l Z _ ˜ l T ( Θ _ _ ¯ j ) T f j j = 1 9 f j + ( a _ _ l Θ _ _ 1 ) Z _ ˜ l Z _ ˜ l T Θ _ _ 1 = J _ l IN · ( J _ l IN ) T Θ _ _ 1 Z _ ˜ l ( J _ l IN ) T = ( J _ l IN Θ _ _ 1 Z _ ˜ l ) ( J _ l IN ) T }
    Figure DE102018100987A1_0085
  • Daraus ergibt sich: H _ _ l IN = j = 2 9 ( Θ _ _ 1 Θ _ _ j ) j = 1 9 f j + λ { j = 2 9 Θ _ _ j Z _ ˜ l Z _ ˜ l T ( Θ _ _ 1 Θ _ _ j ) T j = 1 9 f j ( J _ l IN Θ _ _ 1 Z _ ˜ l ) ( J _ l IN ) T }
    Figure DE102018100987A1_0086
    wobei es sich um die erwünschte Hessesche Normalform handelt. Θ _ _ l
    Figure DE102018100987A1_0087
    kann berechnet werden als: Θ _ _ l   1 = O _ 5 × 5
    Figure DE102018100987A1_0088
    Θ _ _ l  2 = 2 [ O _ _ 4 × 4 O _ 2 × 1 U _ L O _ 1 × 2 U _ L T U _ W T ( Z _ l C _ ) ] U _ L = [ cos  Θ sin  Θ ] U _ W = [ sin  Θ cos  Θ ]
    Figure DE102018100987A1_0089
    Θ _ _ l  3 = Θ _ _ l  2
    Figure DE102018100987A1_0090
    Θ _ _ l  4 = 2 [ O _ _ 4 × 4 O _ 2 × 1 U _ W O _ 1 × 2 U _ W U _ W T ( Z _ l C _ ) ]
    Figure DE102018100987A1_0091
    Θ _ _ l  5 = Θ _ _ l  4
    Figure DE102018100987A1_0092
    Θ _ _ l  6 = 2 [ O _ _ 4 × 4 O _ 2 × 1 ( U _ L + U _ W ) O _ 1 × 2 ( U _ L + U _ W ) T ( U _ L U _ W ) T ( Z _ l C _ ) ]
    Figure DE102018100987A1_0093
    Θ _ _ l  7 = Θ _ _ l  6
    Figure DE102018100987A1_0094
    Θ _ _ l  8 = 2 [ O _ _ 4 × 4 O _ 2 × 1 ( U _ L U _ W ) O _ 1 × 2 ( U _ L U _ W ) T ( U _ L + U _ W ) T ( Z _ l C _ ) ]
    Figure DE102018100987A1_0095
    Θ _ _ l  7 = Θ _ _ l  6
    Figure DE102018100987A1_0096
  • Rechenvorrichtungen, wie etwa die in dieser Schrift erörterten, beinhalten im Allgemeinen jeweils Anweisungen, die durch eine oder mehrere Rechenvorrichtungen, wie etwa die vorstehend genannten, und zum Ausführen von Blöcken oder Schritten von vorstehend beschriebenen Prozessen ausgeführt werden können. Zum Beispiel können die vorstehend erörterten Prozessblöcke als computerausführbare Anweisungen ausgeführt sein.
  • Computerausführbare Anweisungen können von Computerprogrammen zusammengestellt oder interpretiert werden, die unter Verwendung einer Vielzahl von Programmiersprachen und/oder -technologien erstellt wurden, einschließlich unter anderem, entweder einzeln oder in Kombination, Java™, C, C++, Visual Basic, Java Script, Perl, HTML usw. Im Allgemeinen empfängt ein Prozessor (z. B. ein Mikroprozessor) Anweisungen, z. B. von einem Speicher, einem computerlesbaren Medium usw., und führt diese Anweisungen aus, wodurch er ein oder mehrere Prozesse durchführt, einschließlich einem oder mehrere der hierin beschriebenen Vorgänge. Derartige Anweisungen und sonstige Daten können unter Verwendung einer Vielzahl computerlesbarer Medien in Dateien gespeichert und übertragen werden. Eine Datei in einer Rechenvorrichtung ist im Allgemeinen eine Sammlung von Daten, die auf einem computerlesbaren Medium, wie etwa einem Speichermedium, einem Direktzugriffsspeicher usw., gespeichert sind.
  • Ein computerlesbares Medium schließt jedes Medium es, das am Bereitstellen von Daten (z. B. Anweisungen), die durch einen Computer gelesen werden können, beteiligt ist. Ein derartiges Medium kann viele Formen annehmen, einschließlich unter anderem nichtflüchtige Medien, flüchtige Medien usw. Nichtflüchtige Medien schließen zum Beispiel optische oder magnetische Platten und andere Dauerspeicher ein. Zu flüchtigen Medien gehört ein dynamischer Direktzugriffsspeicher (Dynamic Random Access Memory - DRAM), welcher üblicherweise einen Hauptspeicher darstellt. Gängige Formen computerlesbarer Medien beinhalten zum Beispiel eine Diskette, eine Folienspeicherplatte, eine Festplatte, ein Magnetband, ein beliebiges anderes magnetisches Medium, eine CD-ROM, eine DVD, ein beliebiges anderes optisches Medium, Lochkarten, Lochstreifen, ein beliebiges anderes physikalisches Medium mit Lochmustern, einen RAM, einen PROM, einen EPROM, einen FLASH-EEPROM, einen beliebigen anderen Speicherchip oder eine beliebige andere Speicherkassette oder ein beliebiges anderes Medium, welches von einem Computer gelesen werden kann.
  • Allen in den Ansprüchen verwendeten Ausdrücken soll deren allgemeine Bedeutung zugeordnet werden, wie sie dem Fachmann auf dem Gebiet der hier beschriebenen Technologien bekannt ist, sofern hier kein ausdrücklicher Hinweis auf das Gegenteil erfolgt. Insbesondere ist die Verwendung der Singularartikel, wie etwa „ein“, „einer“, „eine“, „der“, „die“, „das“ usw. dahingehend auszulegen, dass ein oder mehrere der aufgeführten Elemente genannt werden, sofern ein Anspruch nicht eine ausdrücklich gegenteilige Einschränkung enthält.
  • Der Ausdruck „beispielhaft“ wird in dieser Schrift in dem Sinne verwendet, dass er ein Beispiel angibt, z. B. sollte ein Verweis auf eine „beispielhafte Vorrichtung“ einfach als Bezugnahme auf ein Beispiel für eine Vorrichtung gelesen werden.
  • Das einen Wert oder ein Ergebnis modifizierende Adverb „etwa“ bedeutet, dass eine Form, eine Struktur, eine Messung, ein Wert, eine Bestimmung, eine Berechnung usw. von einer/einem genau beschriebenen Geometrie, Entfernung, Messung, Wert, Bestimmung, Berechnung usw. aufgrund von Mängeln hinsichtlich Materialien, Bearbeitung, Herstellung, Sensormessungen, Berechnungen, Bearbeitungszeit, Kommunikationszeit usw. abweichen kann.
  • In den Zeichnungen kennzeichnen die gleichen Bezugszeichen die gleichen Elemente. Ferner könnten manche oder alle dieser Elemente geändert werden. Hinsichtlich der in der vorliegenden Schrift beschriebenen Medien, Prozesse, Systeme, Verfahren usw. ist davon auszugehen, dass, wenngleich die Schritte derartiger Vorgänge usw. als in einer entsprechenden Reihenfolge erfolgend beschrieben wurden, derartige Vorgänge durchgeführt werden könnten, wobei die beschriebenen Schritte in einer Reihenfolge durchgeführt werden, welche von der in der vorliegenden Schrift beschriebenen Reihenfolge abweicht. Es versteht sich ferner, dass bestimmte Schritte gleichzeitig durchgeführt, andere Schritte hinzugefügt oder bestimmte in der vorliegenden Schrift beschriebene Schritte weggelassen werden könnten. Anders ausgedrückt, werden die vorliegenden Beschreibungen von Prozessen zum Zwecke der Veranschaulichung bestimmter Ausführungsformen bereitgestellt und sollten keinesfalls dahingehend ausgelegt werden, dass sie die beanspruchte Erfindung einschränken.

Claims (15)

  1. Verfahren, umfassend: Bestimmen eines Objekts auf Grundlage einer ersten Vielzahl von 3D-Datenpunkten durch Bestimmen einer ersten rechteckigen Grenze, die auf Grundlage von gemeinsamen Wahrscheinlichkeiten an dem Objekt zentriert ist; Bestimmen des Objekts in einer zweiten Vielzahl von 3D-Datenpunkten durch Bestimmen einer zweiten rechteckigen Grenze, die auf Grundlage der ersten rechteckigen Grenze und den gemeinsamen Wahrscheinlichkeiten an dem Objekt zentriert ist; und Steuern eines Fahrzeugs auf Grundlage des Objekts.
  2. Verfahren nach Anspruch 1, wobei 3D-Datenpunkte durch LIDAR bestimmt werden.
  3. Verfahren nach Anspruch 1, wobei das Bestimmen des Objekts Bestimmen einer Lage, Pose und Größe der ersten rechteckigen Grenze und der zweiten rechteckigen Grenze beinhaltet.
  4. Verfahren nach Anspruch 1, wobei das Bestimmen des Objekts Vergleichen der ersten 3D-Datenpunkte mit den vorher erfassten 3D-Datenpunkten beinhaltet, um Objekt-Datenpunkte und Hintergrund-Datenpunkte zu bestimmen.
  5. Verfahren nach Anspruch 4, wobei die erste rechteckige Grenze und die zweite rechteckige Grenze durch Maximieren der gemeinsamen Wahrscheinlichkeiten der Objekt-Datenpunkte in Bezug auf die Hintergrund-Datenpunkte bestimmt werden.
  6. Verfahren nach Anspruch 5, wobei durch das Maximieren der gemeinsamen Wahrscheinlichkeiten ein 3×3-Gitter bestimmt wird, das an den Objekt-Datenpunkten zentriert ist, wobei ein mittleres Rastergitter des 3x3-Gitters einen oder mehrere Objekt-Punkte und keine Hintergrund-Datenpunkte beinhaltet.
  7. Verfahren nach Anspruch 6, wobei die erste rechteckige Grenze als das mittlere Rastergitter des 3x3-Gitters definiert ist und als Ausgangspunkt zum Bestimmen der zweiten rechteckigen Grenze auf Grundlage der gemeinsamen Wahrscheinlichkeiten verwendet wird.
  8. Verfahren nach Anspruch 7, wobei die gemeinsamen Wahrscheinlichkeiten Bayessche Wahrscheinlichkeiten sind, wobei eine Wahrscheinlichkeit, dass ein Objekt-Datenpunkt zu dem Objekt gehört, an einer Wahrscheinlichkeit konditioniert wurde, dass der Objekt-Datenpunkt bei einem früheren Zeitschritt zu dem Objekt gehörte.
  9. Verfahren nach Anspruch 8, wobei die gemeinsamen Wahrscheinlichkeiten durch Maximieren natürlicher Logarithmen der gemeinsamen Wahrscheinlichkeiten bestimmt werden.
  10. Verfahren nach Anspruch 9, wobei die gemeinsamen Wahrscheinlichkeiten durch Bestimmen von Gradienten natürlicher Logarithmen von jeder der gemeinsamen Wahrscheinlichkeiten maximiert werden.
  11. Verfahren nach Anspruch 3, wobei die rechteckige Grenze ein Rechteck ist, das durch zwei Punkte und einen Winkel definiert ist.
  12. Verfahren nach Anspruch 5, wobei die aktuellen Objekte durch gemeinsame Bayessche Wahrscheinlichkeitsverteilungen p(B, C k, Θk | Z 1:k) von Zufallsvariablen Z 1:k modelliert werden.
  13. Verfahren nach Anspruch 12, wobei die gemeinsamen Bayesschen Wahrscheinlichkeitsverteilungen p(B, C k, Θk | Z 1:k) durch die Gleichung p ( Z _ k | B _ , C _ k , Θ k , Z _ 1 : k 1 ) · p ( B _ | Z _ 1 : k 1 ) · C _ k 1 , Θ k 1 p ( C _ k , Θ k , C _ k 1 , Θ k 1 | B _ , Z _ 1 : k 1 ) p ( Z _ k )
    Figure DE102018100987A1_0097
    bestimmt werden.
  14. Verfahren nach Anspruch 13, wobei p( Z k| B, C k, Θk, Z 1:k-1) die Messwahrscheinlichkeit bei einem Zeitschritt k ist, p(B | Z 1:k-1) die Feldgröße des vorherigen Zeitschritts darstellt und ∫ C k-1 k-1 p( C k, Θk, C k-1, Θk-1| B, Z1:k-1) ein stochastisches Prozessmodell darstellt, durch das die gemeinsame Bayessche Wahrscheinlichkeit des 3D-Datenpunkts B (Lage) und der umschließenden Feldparameter C k, Θk (Größe und Pose) bei dem Zeitschritt k und k-1 modelliert werden.
  15. System, das einen Rechner umfasst, der dazu programmiert ist, die Verfahren nach einem der Ansprüche 1-14 durchzuführen.
DE102018100987.9A 2017-01-18 2018-01-17 Objektverfolgung durch unüberwachtes lernen Pending DE102018100987A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/408,877 2017-01-18
US15/408,877 US10254758B2 (en) 2017-01-18 2017-01-18 Object tracking by unsupervised learning

Publications (1)

Publication Number Publication Date
DE102018100987A1 true DE102018100987A1 (de) 2018-07-19

Family

ID=61256256

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018100987.9A Pending DE102018100987A1 (de) 2017-01-18 2018-01-17 Objektverfolgung durch unüberwachtes lernen

Country Status (6)

Country Link
US (1) US10254758B2 (de)
CN (1) CN108327724B (de)
DE (1) DE102018100987A1 (de)
GB (1) GB2560619A (de)
MX (1) MX2018000123A (de)
RU (1) RU2717616C2 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018049602A1 (zh) * 2016-09-14 2018-03-22 深圳大学 一种适用于杂波环境的多目标跟踪方法及跟踪系统
US10963706B2 (en) 2018-01-13 2021-03-30 Toyota Jidosha Kabushiki Kaisha Distributable representation learning for associating observations from multiple vehicles
US10916135B2 (en) 2018-01-13 2021-02-09 Toyota Jidosha Kabushiki Kaisha Similarity learning and association between observations of multiple connected vehicles
US10586118B2 (en) * 2018-01-13 2020-03-10 Toyota Jidosha Kabushiki Kaisha Localizing traffic situation using multi-vehicle collaboration
US11204605B1 (en) * 2018-08-03 2021-12-21 GM Global Technology Operations LLC Autonomous vehicle controlled based upon a LIDAR data segmentation system
EP3654064B1 (de) * 2018-11-16 2021-01-13 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und verfahren zur charakterisierung eines objekts auf basis von messproben von einem oder mehreren ortssensoren
CA3118155A1 (en) * 2018-12-11 2020-06-18 SafeAI, Inc. Techniques for kinematic and dynamic behavior estimation in autonomous vehicles
US10891518B1 (en) 2018-12-14 2021-01-12 Waymo Llc Auto labeler
US11420647B2 (en) * 2020-08-13 2022-08-23 Argo AI, LLC Enhanced static object classification using lidar

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080065328A1 (en) 2006-09-08 2008-03-13 Andreas Eidehall Method and system for collision avoidance
PE20080048A1 (es) 2006-12-20 2008-02-25 Scanalyse Pty Ltd Sistema para la medicion del desplazamiento de una superficie relativa a una base de referencia
US8217938B2 (en) 2007-05-31 2012-07-10 Ford Global Technologies, Llc Method and apparatus for determining item orientation
US20090312985A1 (en) 2008-06-12 2009-12-17 Eliazar Austin I D Multiple hypothesis tracking
GB0818561D0 (en) * 2008-10-09 2008-11-19 Isis Innovation Visual tracking of objects in images, and segmentation of images
CN101872476A (zh) * 2009-04-24 2010-10-27 索尼株式会社 估计图像中对象姿势视角的方法、设备
US8270732B2 (en) 2009-08-31 2012-09-18 Behavioral Recognition Systems, Inc. Clustering nodes in a self-organizing map using an adaptive resonance theory network
US9317965B2 (en) 2009-11-16 2016-04-19 Autodesk, Inc. Uniform point cloud decimation
EP2345998B1 (de) 2009-12-01 2019-11-20 Honda Research Institute Europe GmbH Mehrobjektverfolgung mit einer wissensbasierten, autonomen Angleichung der Verfolgungsmodellierungsstufe
US8655513B2 (en) * 2010-03-12 2014-02-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of real time image enhancement of flash LIDAR data and navigating a vehicle using flash LIDAR data
GB201004232D0 (en) 2010-03-15 2010-04-28 Bae Systems Plc Target tracking
US8818702B2 (en) 2010-11-09 2014-08-26 GM Global Technology Operations LLC System and method for tracking objects
US8953888B2 (en) 2011-02-10 2015-02-10 Microsoft Corporation Detecting and localizing multiple objects in images using probabilistic inference
KR101740259B1 (ko) 2011-10-07 2017-05-29 한국전자통신연구원 3차원 포인트 클라우드의 공간 분할 방법
US8923606B2 (en) 2012-01-09 2014-12-30 Chrysler Group Llc System and method for identifying an aperture in a representation of an object
US8736463B1 (en) * 2012-01-30 2014-05-27 Google Inc. Object bounding box estimation
US9129211B2 (en) 2012-03-15 2015-09-08 GM Global Technology Operations LLC Bayesian network to track objects using scan points using multiple LiDAR sensors
GB2501466A (en) * 2012-04-02 2013-10-30 Univ Oxford Localising transportable apparatus
CN103064086B (zh) * 2012-11-04 2014-09-17 北京工业大学 一种基于深度信息的车辆跟踪方法
US9081385B1 (en) * 2012-12-21 2015-07-14 Google Inc. Lane boundary detection using images
US9523772B2 (en) * 2013-06-14 2016-12-20 Microsoft Technology Licensing, Llc Object removal using lidar-based classification
US9150224B2 (en) * 2013-09-24 2015-10-06 Ford Global Technologies, Llc Transitioning from autonomous vehicle control to to driver control to responding to driver control
DE102013223803A1 (de) 2013-11-21 2015-05-21 Robert Bosch Gmbh Verfahren und Vorrichtung zur Segmentierung eines Belegungsgitters für ein Umfeldmodell eines Fahrerassistenzsystems für ein Fahrzeug
US9607228B2 (en) * 2014-02-14 2017-03-28 Toyota Motor Engineering & Manufacturing North America, Inc. Parts based object tracking method and apparatus
US20150310601A1 (en) 2014-03-07 2015-10-29 Digimarc Corporation Methods and arrangements for identifying objects
US9821813B2 (en) * 2014-11-13 2017-11-21 Nec Corporation Continuous occlusion models for road scene understanding
GB2541153A (en) 2015-04-24 2017-02-15 Univ Oxford Innovation Ltd Processing a series of images to identify at least a portion of an object

Also Published As

Publication number Publication date
CN108327724A (zh) 2018-07-27
US20180203447A1 (en) 2018-07-19
MX2018000123A (es) 2018-11-09
GB2560619A (en) 2018-09-19
US10254758B2 (en) 2019-04-09
RU2017143389A3 (de) 2019-10-23
RU2717616C2 (ru) 2020-03-24
CN108327724B (zh) 2023-01-13
GB201800770D0 (en) 2018-02-28
RU2017143389A (ru) 2019-06-13

Similar Documents

Publication Publication Date Title
DE102018100987A1 (de) Objektverfolgung durch unüberwachtes lernen
DE102019101938A1 (de) Erstellung kognitiver Karten für Fahrzeuge
DE102017120112A1 (de) Tiefenkartenschätzung mit stereobildern
DE102019131384A1 (de) Strassenbelagcharakterisierung unter verwendung von posenbeobachtungen von benachbarten fahrzeugen
DE102019127058A1 (de) Fahrzeugwegplanung
DE102019122826A1 (de) Adaptives fahrzeuglernen
DE102019133536A1 (de) Verfahren und Vorrichtung zum Ermöglichen der sequentiellen Bodenansichts-Bildprojektionssynthese und der komplizierten Szenenrekonstruktion an Kartenanomalie-Hotspots
DE102021100101A1 (de) Fahrzeugsensorkalibrierung
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE102019126542A1 (de) Lokalisierung einer stationären kamera
DE102019129232A1 (de) Sprachverarbeitung für ein fahrzeug
DE102019119162A1 (de) Posenschätzung
DE102018125207A1 (de) Fahrzeuginterne verkehrsassistenz
DE102020126155A1 (de) Trainieren eines neuronalen netzwerks eines fahrzeugs
DE102021101270A1 (de) Trainieren eines neuronalen netzwerks eines fahrzeugs
DE102019122536A1 (de) Exzentrizitätskarten
DE102020107149A1 (de) Fahrzeugkapsel-netzwerke
DE102021109413A1 (de) Augmentation von fahrzeugdaten
DE102017129501A1 (de) Autonome Kraftfahrzeug-Objekterkennung
DE102020116964A1 (de) Visuelle odometrie für fahrzeug
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102020107339A1 (de) Objektverfolgung für fahrzeuge
DE102020128819A1 (de) Selbstkorrigierende fahrzeuglokalisierung
DE112021006111T5 (de) Systeme und Verfahren zur monokularisierten Objekterkennung
DE102020124331A1 (de) Fahrzeugspurkartierung

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: BONSMANN - BONSMANN - FRANK PATENTANWAELTE, DE

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000