DE102013102153A1 - Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided - Google Patents

Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided Download PDF

Info

Publication number
DE102013102153A1
DE102013102153A1 DE201310102153 DE102013102153A DE102013102153A1 DE 102013102153 A1 DE102013102153 A1 DE 102013102153A1 DE 201310102153 DE201310102153 DE 201310102153 DE 102013102153 A DE102013102153 A DE 102013102153A DE 102013102153 A1 DE102013102153 A1 DE 102013102153A1
Authority
DE
Germany
Prior art keywords
sensors
transformation value
value
lidar
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE201310102153
Other languages
German (de)
Inventor
Shuqing Zeng
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US13/777,469 external-priority patent/US9329269B2/en
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102013102153A1 publication Critical patent/DE102013102153A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

The method involves defining a transformation value for one of the two LiDAR sensors (16,20,24,30), which identifies a navigation angle and a position of the sensor. The target scanning points of the objects are provided, and are detected by the sensors. The target scanning points provide a separate target scanning map for each sensor. The target scanning map is projected from one sensor to the other sensor through a current transformation value. The multiplicity of the weighting values is determined through the current transformation value.

Description

Querverweis auf verwandte AnmeldungenCross-reference to related applications

Diese Anmeldung beansprucht den Zeitrang der Priorität von der vorläufigen US-Patentanmeldung Nummer 61/611,465 mit dem Titel ”Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDARs”, angemeldet am 15. März 2012.This application claims the priority of priority from US Provisional Patent Application No. 61 / 611,465 entitled "Method for Registration of Range Images of Multiple LiDARs" filed on Mar. 15, 2012.

HINTERGRUND DER ERFINDUNGBACKGROUND OF THE INVENTION

1. Gebiet der Erfindung1. Field of the invention

Diese Erfindung bezieht sich allgemein auf ein System und ein Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren und insbesondere auf ein System und ein Verfahren zum Registrieren von Entfernungsbildern von mehreren LiDAR-Sensoren auf einem Fahrzeug, wobei das Verfahren das Registrieren von zwei Datenrahmen von den mehreren LiDAR-Sensoren zur selben Zeit umfasst.This invention relates generally to a system and method for registration of range images of multiple LiDAR sensors, and more particularly to a system and method for registering range images of multiple LiDAR sensors on a vehicle, the method comprising registering two frames of data includes multiple LiDAR sensors at the same time.

2. Diskussion des Standes der Technik2. Discussion of the Related Art

Viele moderne Fahrzeuge beinhalten Objektdetektionssensoren, die dazu verwendet werden, um vor einer Kollision zu warnen oder diese zu vermeiden, und andere aktive Sicherheitsanwendungen. Die Objektdetektionssensoren können jede Zahl von Detektionstechniken verwenden, beispielsweise Radar mit einer kurzen Reichweite, Kameras mit Bildverarbeitung, Laser oder LiDAR, Ultraschall etc. Die Objektedetektionssensoren detektieren Fahrzeuge und andere Objekte, die sich im Pfad des Trägerfahrzeuges befinden, und die Anwendungssoftware verwendet die Objektdetektionsinformation, um Warnungen bereitzustellen oder geeignete Aktionen vorzunehmen. In vielen Fahrzeugen sind die Objektdetektionssensoren direkt in den vorderen Stoßfängern oder anderen vorderen Verkleidungsteilen des Fahrzeuges integriert.Many modern vehicles include object detection sensors that are used to warn of or avoid a collision and other active safety applications. The object detection sensors may use any number of detection techniques, such as short range radar, image processing cameras, laser or LiDAR, ultrasound, etc. The object detection sensors detect vehicles and other objects located in the path of the host vehicle, and the application software uses the object detection information. to provide alerts or take appropriate action. In many vehicles, the object detection sensors are integrated directly into the front bumpers or other front trim panels of the vehicle.

Damit die Anwendungssoftware optimal ausgeführt werden kann, müssen die Objektdetektionssensoren korrekt am Fahrzeug ausgerichtet sein. Wenn beispielsweise ein Sensor ein Objekt, das sich im Weg des Trägerfahrzeuges befindet, aufgrund einer fehlerhaften Ausrichtung bestimmt, dass das Objekt leicht links verschoben zu dem Weg des Trägerfahrzeugs ist, kann dies signifikante Konsequenzen für die Anwendungssoftware haben. Auch wenn eine Vielzahl von nach vorne gerichteten Objektdetektionssensoren sich auf einem Fahrzeug befinden, ist es wichtig, dass diese alle korrekt ausgerichtet sind, um sich widersprechende Sensorauswertungen zu minimieren oder zu eliminieren.In order for the application software to run optimally, the object detection sensors must be correctly aligned with the vehicle. For example, if a sensor determines an object that is in the path of the host vehicle due to misalignment that the object is slightly shifted left to the path of the host vehicle, this can have significant consequences for the application software. Even though a plurality of forward-looking object detection sensors are located on a vehicle, it is important that all of them are properly aligned to minimize or eliminate conflicting sensor evaluations.

LiDAR-Sensoren sind eine Art von Sensor, welche manchmal auf Fahrzeugen verwendet werden, um Objekte, die sich um das Fahrzeug herum befinden, zu detektieren. Diese Sensoren stellen die Entfernung zu diesen Objekten bereit. LiDAR-Sensoren sind wünschenswert, da sie in der Lage sind, die Orientierung eines verfolgten Objekts bereitzustellen, was andere Arten von Sensoren, beispielsweise Bildsysteme und Radarsensoren im Allgemeinen nicht tun können. Bei einer Art von LiDAR-Sensor werden die Reflektionen von einem Objekt als ein Abtastpunkt als ein Teil von einer Punkt-Cluster-Bereichskarte wiedergegeben, wobei ein separater Abtastpunkt alle 0,5° über das Sichtfeld des Sensors bereitgestellt wird. Demzufolge können mehrere Abtastpunkte, welche wiedergegeben werden, die die Distanz des Zielfahrzeugs von dem Trägerfahrzeug identifizieren vorhanden sein, wenn ein Zielfahrzeug vor dem Trägerfahrzeug detektiert wird.LiDAR sensors are a type of sensor that is sometimes used on vehicles to detect objects that are around the vehicle. These sensors provide the distance to these objects. LiDAR sensors are desirable because they are able to provide the orientation of a tracked object, which other types of sensors, such as vision systems and radar sensors, generally can not. In one type of LiDAR sensor, the reflections from an object are represented as a sample point as part of a dot cluster area map, with a separate sample point provided every 0.5 ° across the field of view of the sensor. As a result, multiple sample points that are displayed representing the distance of the target vehicle from the host vehicle may be present when a target vehicle is detected in front of the host vehicle.

Ein Fahrzeug kann mehrere LiDAR-Sensoren aufweisen, um ein 360°-Sichtfeld um das Fahrzeug bereitzustellen. Diese mehreren LiDAR-Sensoren beinhalten zur Seite gerichtete Sensoren, nach hinten gerichtete Sensoren und nach vorne gerichtete Sensoren. Jeder dieser Sensoren verfolgt Objekte in seinem Sichtfeld unabhängig von den anderen Sensoren. Unter Verwendung von der Wiedergabe von Abtastpunkten von den mehreren Sensoren wird eine Entfernungskarte erzeugt, um die Objekte in der Nähe zum Trägerfahrzeug zu verfolgen. Für ein Fahrzeug mit mehreren LiDAR-Sensoren werden mehrere Punkt-Clusterkarten herausgegeben und für Sensoren, bei denen das Sichtfeld überlappt, können die Sensoren dasselbe Objekt verfolgen. Es ist notwendig, die Abtastpunktkarten der Sensoren so zu kombinieren, dass das gleiche Objekt, das von den Sensoren verfolgt wird, als einzelnes Ziel verarbeitet wird.A vehicle may include multiple LiDAR sensors to provide a 360 ° field of vision around the vehicle. These multiple LiDAR sensors include side-facing sensors, rear-facing sensors, and front-facing sensors. Each of these sensors tracks objects in its field of view independently of the other sensors. Using the reproduction of sampling points from the plurality of sensors, a distance map is generated to track the objects in proximity to the host vehicle. For a vehicle with multiple LiDAR sensors, multiple point cluster maps are issued, and for sensors where the field of view overlaps, the sensors can track the same object. It is necessary to combine the sampling point maps of the sensors so that the same object tracked by the sensors is processed as a single target.

Die US Patentanmeldung 12/942,456 mit dem Titel ”Systeme und Verfahren zum Verfolgen von Objekten”, angemeldet am 9. November 2010 von dem Anmelder der vorliegenden Anmeldung und hiermit inkorporiert durch Bezugnahme, offenbart eine Technik zum Überwachen der Entfernung und der Orientierung eines Zielobjekts von einem Trägerfahrzeug unter Verwendung von LiDAR-Sensoren. Diese Patentanmeldung ist auf einen einzelnen LiDAR-Sensor beschränkt und diskutiert nicht die Verbindung von mehreren LiDAR-Sensoren.US Patent Application 12 / 942,456 entitled "Systems and Methods for Tracking Objects" filed on Nov. 9, 2010 by the assignee of the present application and incorporated herein by reference, discloses a technique for monitoring the range and orientation of a target object of US Patent Application Serial Numbers a host vehicle using LiDAR sensors. This patent application is limited to a single LiDAR sensor and does not discuss the connection of multiple LiDAR sensors.

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Im Einklang mit den Lehren der vorliegenden Erfindung werden ein System und ein Verfahren zum Registrieren von Entfernungsbildern von Objekten offenbart, die von mehreren LiDAR-Sensoren auf einem Fahrzeug detektiert werden. Das Verfahren beinhaltet das Ausrichten von Datenrahmen von zumindest zwei LiDAR-Sensoren, die überlappende Sichtfelder in einer Sensorsignalzusammenführungsoperation aufweisen, um Objekte, die von den Sensoren detektiert werden, zu verfolgen. Das Verfahren definiert einen Transformationswert für zumindest einen der LiDAR-Sensoren, der einen Orientierungswinkel und eine Position des Sensors identifiziert und Zielabtastpunkte von den Objekten, die von den Sensoren detektiert werden, bereitstellt, wobei die Zielabtastpunkte für jeden Sensor eine separate Zielpunktkarte bereitstellt. Das Verfahren projiziert die Zielpunktkarte von dem zumindest einen Sensor auf einen anderen der LiDAR-Sensoren unter Verwendung eines gegenwärtigen Transformationswertes, um die Zielabtastpunkte von den Sensoren zu überlappen, und bestimmt eine Vielzahl von Gewichtungswerten unter Verwendung des gegenwärtigen Transformationswertes, wobei jeder Gewichtungswert eine Positionsänderung von einem der Abtastpunkte für den zumindest einen Sensor auf einen Ort eines Abtastpunktes für einen anderen der Sensoren identifiziert. Das Verfahren berechnet einen neuen Transformationswert unter Verwendung der Gewichtungswerte, vergleicht den neuen Transformationswert mit dem gegenwärtigen Transformationswert, um eine Differenz daraus zu bestimmen, und korrigiert die Vielzahl der Gewichtungswerte basierend auf der Differenz zwischen dem neuen Transformationswert und dem gegenwärtigen Transformationswert bis der neue Transformationswert mit dem gegenwärtigen Transformationswert übereinstimmt, wobei die Sensoren zueinander ausgerichtet sind.In accordance with the teachings of the present invention, a system and method for registering range images of objects detected by multiple LiDAR sensors on a vehicle is disclosed. The method includes aligning data frames of at least two LiDAR sensors having overlapping fields of view in a sensor signal combining operation to track objects detected by the sensors. The method defines a transformation value for at least one of the LiDAR sensors that identifies an orientation angle and position of the sensor and provides target scan points from the objects detected by the sensors, the target scan points providing a separate target point map for each sensor. The method projects the target point map from the at least one sensor to another of the LiDAR sensors using a current transform value to overlap the target scan points from the sensors, and determines a plurality of weight values using the current transform value, each weight value representing a position change of one of the sampling points for the at least one sensor is identified to a location of a sampling point for another one of the sensors. The method computes a new transformation value using the weighting values, compares the new transformation value with the current transformation value to determine a difference thereof, and corrects the plurality of weighting values based on the difference between the new transformation value and the current transformation value until the new transformation value the current transformation value, the sensors being aligned with each other.

Weitere Merkmale der vorliegenden Erfindung werden aus der folgenden Beschreibung und den beigefügten Patentansprüchen in Verbindung mit den beigefügten Figuren deutlich.Further features of the present invention will become apparent from the following description and the appended claims, taken in conjunction with the accompanying drawings.

KURZE BESCHREIBUNG DER FIGURENBRIEF DESCRIPTION OF THE FIGURES

1 ist eine Veranschaulichung eines Trägerfahrzeugs, das einem Zielfahrzeug folgt, und das die Sichtfelder von vier LiDAR-Sensoren auf dem Trägerfahrzeug zeigt; 1 Fig. 11 is an illustration of a host vehicle following a target vehicle, showing the fields of view of four LiDAR sensors on the host vehicle;

2 ist ein allgemeines Blockdiagramm eines Zusammenführungssystems zum Zusammenführen von Abtastpunkten von mehreren LiDAR-Sensoren auf einem Fahrzeug; 2 Figure 4 is a general block diagram of a merging system for merging sampling points of multiple LiDAR sensors on a vehicle;

3(A) und (B) zeigen Abtastpunkte von einem LiDAR-Sensor; 3 (A) and (B) show sample points from a LiDAR sensor;

4 ist ein Flussdiagramm, das ein Verfahren zum Registrieren von Abtastpunkten von mehreren LiDAR-Sensoren zeigt; 4 Fig. 10 is a flow chart showing a method of registering sample points of multiple LiDAR sensors;

5 ist eine Konturwahrscheinlichkeitsdichtefunktion von der Rückseite eines Objekts; 5 is a contour probability density function from the back of an object;

6 ist ein iterativer Grenzoptimierungsgraph; 6 is an iterative boundary optimization graph;

7 ist ein Blockdiagramm, das zwei miteinander verwobene Verfahren zum Abschätzen einer Objektbewegung und zum Aktualisieren eines Objektmodells zeigt, wenn eine neue LiDAR-Abtastpunktkarte verfügbar ist; 7 Fig. 10 is a block diagram showing two interwoven methods for estimating object movement and updating an object model when a new LiDAR sample point map is available;

8 ist ein dynamisches Bayes-Netzwerk für ein Objekt, das von einem Verfolgungsalgorithmus verfolgt wird; 8th is a dynamic Bayesian network for an object that is tracked by a tracking algorithm;

9 ist ein Flussdiagramm, das ein Verfahren für einen Mehrobjektverfolgungsalgorithmus in einem einzelnen Zeitschritt zeigt; 9 FIG. 10 is a flowchart showing a method for a multi-object tracking algorithm in a single time step; FIG.

10 ist ein bipartiter Graph, der vorhergesagte Objektmodellpunkte und segmentierte Abtastkartenpunkte für einen Schritt zum Matchen von Abtastclustern mit vorhergesagten Objektmodellen in dem Diagramm der 9 zeigt; 10 FIG. 12 is a bipartite graph illustrating predicted object model points and segmented scan map points for a step of matching sample clusters to predicted object models in the diagram of FIG 9 shows;

11 ist ein induzierter bipartiter Graph, der aus dem bipartiten Graph aus der 10 erzeugt wurde; 11 is an induced bipartite graph derived from the bipartite graph of the 10 was generated;

12 ist eine Veranschaulichung von Abtastpunkten von einem LiDAR-Sensor, einem Bildsystem und einem Radarsensor; 12 Fig. 10 is an illustration of sampling points of a LiDAR sensor, an image system, and a radar sensor;

13 ist eine Darstellung eines Trägerfahrzeugs, das einem Zielfahrzeug folgt und das die Sichtfelder von einem LiDAR-Sensor, einem Radar-Sensor und einem Bildsystem auf dem Trägerfahrzeug zeigt; 13 Figure 11 is an illustration of a host vehicle following a target vehicle and showing the fields of view of a LiDAR sensor, a radar sensor and an imaging system on the host vehicle;

14 ist ein allgemeines Flussdiagramm für einen Verfolgungsalgorithmus für einen LiDAR-Sensor, der ein Cueing von einem Radarsensor oder einem Bildsystem verwendet; 14 Figure 4 is a general flowchart for a tracking algorithm for a LiDAR sensor using cueing from a radar sensor or imaging system;

15 ist ein Flussdiagramm, das ein Verfahren für einen Mehrobjektverfolgungsalgorithmus zeigt, der ein Cueing von einem Radarsensor oder einem Bildsystem verwendet; 15 FIG. 10 is a flowchart showing a method for a multi-object tracking algorithm using cueing from a radar sensor or an imaging system; FIG.

16 ist ein bipartiter Graph, der das Matchen von Zieldaten mit Objektmodellen von allen LiDAR-Abtastpunkten, Radarsensorwiedergaben und Bildsystembildern zeigt; 16 Fig. 10 is a bipartite graph showing match of target data with object models from all LiDAR sample points, radar sensor readings and image system images;

17 ist ein induzierter bipartiter Graph, der aus dem bipartiten Graph aus der 16 erzeugt wurde; 17 is an induced bipartite graph derived from the bipartite graph of the 16 was generated;

18 ist ein bipartiter Graph, der das Zusammenlegen von zwei projizierten Objektmodellen durch die Bereitstellung von Matchen unter Verwendung eines Bildsystems zeigt; 18 FIG. 4 is a bipartite graph showing merging of two projected object models by providing matches using an image system; FIG.

19 ist ein induzierter bipartiter Graph, der das Matchen der Objektmodelle aus der 18 zeigt; 19 is an induced bipartite graph that matches the object models 18 shows;

20 ist ein bipartiter Graph, der das Aufspalten der projizierten Objektmodelle durch Matchen unter Verwendung eines Bildsystems zeigt; 20 is a bipartite graph showing the splitting of the projected object models by matching using an image system;

21 ist ein induzierter bipartiter Graph, der das Matchen der Objektmodelle aus der 20 zeigt; 21 is an induced bipartite graph that matches the object models 20 shows;

22 ist ein bipartiter Graph, der die projizierten Objektmodelle durch Matchen unter Verwendung eines Radarsensors zeigt; 22 is a bipartite graph showing the projected object models by matching using a radar sensor;

23 ist ein induzierter bipartiter Graph, der das Matchen der Modelle aus der 22 zeigt; und 23 is an induced bipartite graph that matches the models of the 22 shows; and

24 ist ein dynamisches Bayes-Netzwerk für einen Verfolgungsalgorithmus und zum Modellieren einer Aktualisierung mit Cueing-Information von einem Radarsensor oder einem Bildsystem. 24 is a dynamic Bayesian network for a tracking algorithm and for modeling an update with cueing information from a radar sensor or imaging system.

DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELEDETAILED DESCRIPTION OF THE EMBODIMENTS

Die folgende Diskussion der Ausführungsformen der Erfindung, die auf ein System und ein Verfahren zum Registrieren von Entfernungsbildern von mehreren LiDAR-Sensoren auf einem Fahrzeug gerichtet ist, ist rein beispielhafter Natur und in keiner Weise dazu gedacht, die Erfindung oder ihre Anwendungen oder Verwendungen einzuschränken. Beispielsweise wird die vorliegende Erfindung anhand der Registrierung von Entfernungsbildern für LiDAR-Sensoren auf einem Fahrzeug beschrieben. Fachleuten ist es jedoch klar, dass das Registrierungsverfahren der Erfindung auch eine Anwendung außerhalb von Fahrzeuganwendungen haben wird.The following discussion of embodiments of the invention directed to a system and method for registering range images of multiple LiDAR sensors on a vehicle is merely exemplary in nature and is in no way intended to limit the invention or its applications or uses. For example, the present invention will be described in terms of registration of range images for LiDAR sensors on a vehicle. However, those skilled in the art will appreciate that the registration method of the invention will also have application outside of vehicle applications.

1 zeigt eine Übersicht eines Fahrzeugsystems 10 mit einem Trägerfahrzeug 12, das hinter einem Zielfahrzeug 14 liegt und dieses verfolgt. Das Trägerfahrzeug 12 beinhaltet vier LiDAR-Sensoren, nämlich einen nach vorne gerichteten Sensor 16 mit einem Sichtfeld 18, einen nach hinten gerichteten Sensor 20 mit einem Sichtfeld 22, einen nach links gerichteten Sensor 24 mit einem Sichtfeld 26 und einen nach rechts gerichteten Sensor 28 mit einem Sichtfeld 30. Die Sensoren 16, 24 und 28 sind auf der Front des Fahrzeugs 12 angebracht und weisen, wie gezeigt, überlappende Sichtfelder auf. Wenn ein Objekt, beispielsweise das Zielfahrzeug 14, sich in dem Sichtfeld eines bestimmten Sensors der Sensoren 16, 20, 24 und 30 befindet, gibt der jeweilige Sensor eine Vielzahl von Abtastpunkten wieder, die das Objekt identifizieren. Die Punkte 32 auf dem Zielfahrzeug 14 stellen die Abtastpunkte dar, die von dem Zielfahrzeug 14 von jedem der Sensoren 16, 24 und 28 wiedergegeben werden. Die Punkte 32 werden in das Fahrzeugkoordinatensystem (x, y) auf dem Trägerfahrzeug 12 unter Verwendung einer Koordinatentransformationstechnik transferiert. Danach wird die Objektdetektion in dem Fahrzeugkoordinatensystem unter Verwendung der Punkte 32 ausgeführt. Die Punkte 32 können dazu verwendet werden, um die rückwärtige Gestalt des Zielfahrzeugs 14, wie unten diskutiert werden wird, zu definieren. 1 shows an overview of a vehicle system 10 with a carrier vehicle 12 behind a target vehicle 14 lies and pursues this. The carrier vehicle 12 includes four LiDAR sensors, a front-facing sensor 16 with a field of view 18 , a rear-facing sensor 20 with a field of view 22 , a left-facing sensor 24 with a field of view 26 and a rightward sensor 28 with a field of view 30 , The sensors 16 . 24 and 28 are on the front of the vehicle 12 attached and have, as shown, overlapping fields of view. If an object, such as the target vehicle 14 , in the field of view of a particular sensor of the sensors 16 . 20 . 24 and 30 the respective sensor reproduces a plurality of sample points identifying the object. The points 32 on the target vehicle 14 represent the sampling points of the target vehicle 14 from each of the sensors 16 . 24 and 28 be reproduced. The points 32 be in the vehicle coordinate system (x, y) on the host vehicle 12 transferred using a coordinate transformation technique. Thereafter, the object detection in the vehicle coordinate system using the points 32 executed. The points 32 can be used to rear the shape of the target vehicle 14 as will be discussed below.

Jeder Sensor 16, 20, 24 und 28 wird eine Abtastpunktwolke für jedes separate Objekt, das von dem Sensor detektiert wird, bereitstellen. Die vorliegende Erfindung schlägt einen Zusammenführungsalgorithmus vor, der die Ausgänge von jedem der Sensoren 16, 20, 24 und 28 so kombiniert, dass, wenn die Sensoren 16, 20, 24 und 28 das gleiche Objekt verfolgen, dieses Objekt als ein einzelnes Ziel verarbeitet wird, wobei der Algorithmus die Position, die Orientierung und die Geschwindigkeit jedes verfolgten Objekts ausgibt. Obwohl diese Diskussion vier LiDAR-Sensoren beinhaltet, kann der vorgeschlagene Zusammenführungsalgorithmus für jegliche Anzahl und Positionen von mehreren LiDAR-Sensoren, die miteinander überlappende Sichtfelder haben, anwendbar sein. Every sensor 16 . 20 . 24 and 28 will provide a sample point cloud for each separate object detected by the sensor. The present invention proposes a merging algorithm that includes the outputs of each of the sensors 16 . 20 . 24 and 28 so combined that when the sensors 16 . 20 . 24 and 28 tracking the same object, this object is processed as a single target, the algorithm outputting the position, orientation and velocity of each tracked object. Although this discussion includes four LiDAR sensors, the proposed merging algorithm may be applicable to any number and location of multiple LiDAR sensors having overlapping fields of view.

Die Position des Zielfahrzeugs 14 wird in diesem Diagramm durch einen Ankerpunkt 34, nämlich dem Zentrum der Abtastkarte, dargestellt. Die folgenden Werte werden dazu verwendet, um ein Objektmodell M des Zielfahrzeugs 14 in einem Zeitschritt t darzustellen. Insbesondere definiert das Objektmodell M die relative longitudinale Geschwindigkeit VX, die relative laterale Geschwindigkeit VY, die laterale Verschiebung Y und die Fahrzeugrichtung ξ, oder die Richtung des Bodengeschwindigkeitsvektors des Zieles dar. Der Wert M ist eine Liste von Gauß-Komponenten, die durch den Parametermittelwert mJ und die Varianz σ2 dargestellt werden. Der Mittelwert ist durch mehrere Hyperparameter vj, ηj, kj und Flags als gesehen und gealtert charakterisiert.The position of the target vehicle 14 is represented in this diagram by an anchor point 34 , the center of the scan card. The following values are used to construct an object model M of the target vehicle 14 to represent in a time step t. In particular, the object model M defines the relative longitudinal velocity V X , the relative lateral velocity V Y , the lateral displacement Y and the vehicle direction ξ, or the direction of the ground velocity vector of the target. The value M is a list of Gaussian components generated by the parameter mean value m J and the variance σ 2 are shown. The mean value is characterized by several hyperparameters v j , η j , k j and flags as seen and aged.

2 ist ein schematisches Blockdiagramm für ein Zusammenführungssystem 36 zum Zusammenführen von Abtastpunktwolkenwerten von mehreren LiDAR-Sensoren, beispielsweise den Sensoren 16, 20, 24 und 28. Der Kasten 38 stellt die Abtastpunktwolkendarstellung aus dem nach links gerichteten LiDAR-Sensor 24, der Kasten 40 die Abtastpunktwolkendarstellung aus dem nach rechts gerichteten LiDAR-Sensor 28, der Kasten 42 die Abtastpunktwolkendarstellung aus dem nach vorne gerichteten LiDAR-Sensor 16 und der Kasten 44 die Abtastpunktwolkendarstellung aus dem nach hinten gerichteten LiDAR-Sensor 20 dar. Die Entfernungskarten aus den LiDAR-Sensoren 16, 20, 24 und 28 werden registriert und im Kasten 46 wird eine 360°-Entfernungskarte (Punktwolke) konstruiert. Sobald die Punktwolken aus den Sensoren 16, 20, 24 und 28 registriert sind und eine 360°-Punktwolke in den Fahrzeugkoordinaten aufgestellt ist, legt der Algorithmus die Punktwolken von den mehreren Zielen im Kasten 48 zusammen, wie unten diskutiert werden wird. Nachdem die Ziele in dem Fahrzeugkoordinatenrahmen zusammengelegt sind, gibt der Algorithmus die Position, die Orientierung und die Geschwindigkeit der Ziele im Kasten 50 aus. 2 is a schematic block diagram for a merge system 36 for merging sample point cloud values from multiple LiDAR sensors, such as the sensors 16 . 20 . 24 and 28 , The box 38 Sets the sample point cloud representation from the left-facing LiDAR sensor 24 , the box 40 the sample point cloud representation from the rightward LiDAR sensor 28 , the box 42 the sample point cloud representation from the forward-looking LiDAR sensor 16 and the box 44 the sample point cloud representation from the backward LiDAR sensor 20 The distance maps from the LiDAR sensors 16 . 20 . 24 and 28 are registered and in the box 46 A 360 ° distance map (point cloud) is constructed. Once the point clouds from the sensors 16 . 20 . 24 and 28 are registered and a 360 ° point cloud is placed in the vehicle coordinates, the algorithm places the point clouds from the multiple targets in the box 48 together, as will be discussed below. After the targets are merged into the vehicle coordinate frame, the algorithm gives the position, orientation, and velocity of the targets in the box 50 out.

Bevor das Zusammenlegungsverfahren zum Kombinieren der Abtastpunkte von mehreren LiDAR-Sensoren genau diskutiert werden wird, wird eine Diskussion eines Abtastpunktregistrieralgorithmus, der in dem Kasten 46 ausgeführt wird, vorgenommen, um die Bewegung des Objekts zu schätzen, falls das Objektmodell M und die gegenwärtige Abtastrate S, die zu dem Objekt gehören, verfügbar sind.Before the merging method of combining the sample points of multiple LiDAR sensors will be discussed in detail, a discussion of a sample point registration algorithm disclosed in the box 46 is performed to estimate the movement of the object if the object model M and the current sampling rate S associated with the object are available.

In vielen Fahrzeugen werden die Objektdetektionssensoren direkt in den vorderen Aufbau des Fahrzeugs integriert. Diese Art von Installation ist einfach, effektiv und ästhetisch ansprechend, hat aber den Nachteil, dass es keinen praktischen Weg gibt, um die Sensoren physisch zueinander auszurichten. Demzufolge gibt es herkömmlicherweise keinen anderen Weg, um eine Fehlausrichtung zu korrigieren, die davon herrühren kann, dass ein Sensor gegenüber der echten Fahrzeugrichtung aufgrund eines Schadens am Vorderaufbau oder einer Alterung oder einer witterungsbedingten Verbiegung fehlausgerichtet ist, als den gesamten Vorderaufbau mit den Sensoren auszutauschen.In many vehicles, the object detection sensors are integrated directly into the front body of the vehicle. This type of installation is simple, effective, and aesthetically pleasing, but has the disadvantage that there is no practical way to physically align the sensors. Accordingly, conventionally, there is no other way to correct a misalignment that may result from a sensor being misaligned with respect to the real vehicle direction due to damage to the front structure or aging or weathering distortion, than by replacing the entire front structure with the sensors.

Wie unten diskutiert werden wird, matcht die Rahmenregistrierung, die im Kasten 46 ausgeführt wird, die Entfernungsabtastpunkte von den Sensoren 20, 24 und 28, um eine mögliche Drift in der Position und Orientierung der Sensoren 20, 24 und 28 anzupassen. Die Sensoren 20, 24 und 28 werden am Anfang kalibriert, wenn das Fahrzeug 12 neu ist. Wie erwähnt, verursachen verschiedene Faktoren, dass sich diese Orientierungen mit der Zeit ändern und demzufolge muss ein Verfahren implementiert werden, um die Sensororientierung erneut zu kalibrieren, so dass Objekte, die in dem überlappenden Bereich der Sichtfelder 26 und 30 detektiert werden, genauer erfasst werden. Die vorliegende Erfindung schlägt einen Erwartungs-Maximierungs (EM)-Match-Algorithmus vor, um eine Transformation T zwischen mehreren LiDAR-Sensoren zu finden, der einen Orientierungswinkel und die x- und y-Position der Sensoren zu definieren. Beispielsweise wird der Algorithmus die Transformation T von dem nach links gerichteten LiDAR-Sensor 24 auf den nach rechts gerichteten LiDAR-Sensor 28 matchen und wenn die Transformationen T aus aufeinanderfolgenden Berechnungen miteinander übereinstimmen, werden die Sensoren 24 und 28 zueinander ausgerichtet werden.As will be discussed below, the frame registration in the box matches 46 is executed, the distance sampling points from the sensors 20 . 24 and 28 To detect a possible drift in the position and orientation of the sensors 20 . 24 and 28 adapt. The sensors 20 . 24 and 28 are calibrated in the beginning when the vehicle 12 new is. As noted, various factors cause these orientations to change over time, and accordingly, a method must be implemented to recalibrate the sensor orientation so that objects located in the overlapping region of the fields of view 26 and 30 be detected, to be detected more accurately. The present invention proposes an expectation maximization (EM) match algorithm to find a transformation T between multiple LiDAR sensors that define an orientation angle and the x and y position of the sensors. For example, the algorithm becomes the transformation T from the left-handed LiDAR sensor 24 on the right-facing LiDAR sensor 28 match and when the transformations T from consecutive calculations agree with each other, the sensors become 24 and 28 aligned with each other.

Der EM-Algorithmus beginnt mit dem Auswählen eines Anfangstransformationswertes T0, der Null, ein vorher geschätzten Wert, eine Orientierung zwischen den Sensoren 24 und 28, die von dem Hersteller bereitgestellt wird, etc. sein kann. Der Algorithmus projiziert dann eine linke Sensorentfernungskarte unter Verwendung der Transformation T auf den Rahmen für den nach rechts gerichteten LiDAR-Sensor 28. 3 ist eine Darstellung einer Abtastpunktkarte 120, wobei Kreise 124 Abtastpunktdarstellungen von dem linken LiDAR-Sensor 24 und Ovale 126 Abtastpunktdarstellungen von dem nach rechts gerichteten LiDAR-Sensor 28 darstellen. 3(A) zeigt alle Abtastpunktdarstellungen und 3(B) zeigt einen vergrößerten Bereich in dem Kreis 122 für einige der Abtastpunktdarstellungen. 3(B) zeigt, wie die Abtastpunktdarstellungen 124 des nach links gerichteten LiDAR-Sensors auf die Abtastpunktdarstellungen 126 des nach rechts gerichteten LiDAR-Sensors mit den Pfeilen 128 abgebildet werden. Unter Verwendung der gegenwärtig verfügbaren Transformation T für die Projektionskartenpfeile 128 werden die Abtastpunktdarstellungen 124 des nach links gerichteten LiDAR-Sensors relativ zu den Abtastpunktdarstellungen 126 des nach rechts gerichteten LiDAR-Sensors bewegt, um diese zu einer Überlappung zu bringen.The EM algorithm begins by selecting an initial transformation value T 0 , zero, a previously estimated value, an orientation between the sensors 24 and 28 which is provided by the manufacturer, etc. may be. The algorithm then projects a left sensor removal map to the rightward LiDAR sensor frame using transformation T 28 , 3 is an illustration of a sample point map 120 , where circles 124 Sample point representations from the left LiDAR sensor 24 and ovals 126 Sample point representations from the right-handed LiDAR sensor 28 represent. 3 (A) shows all sample point representations and 3 (B) shows an enlarged area in the circle 122 for some of the sample point representations. 3 (B) shows how the sample point representations 124 of the left-facing LiDAR sensor on the sample point representations 126 of the right-facing LiDAR sensor with the arrows 128 be imaged. Using the currently available transformation T for the projection map arrows 128 become the sample point representations 124 of the left-facing LiDAR sensor relative to the sample point representations 126 of the rightward LiDAR sensor moves to make it overlap.

Die gegenwärtig verwendete Transformation T kann für die vorliegende Orientierung des nach links gerichteten LiDAR-Sensors 24 auf den nach rechts gerichteten LiDAR-Sensor 28 nicht genau genug sein, so dass die Transformation T für die gegenwärtige Position der Sensoren 24 und 28 aktualisiert werden muss. Der Algorithmus verwendet die gegenwärtige Transformation T, um eine Gewichtung ajk zwischen dem linken Sensorabtastpunkt sj und dem rechten Sensorabtastpunkt mk folgendermaßen zu aktualisieren:

Figure 00130001
wobei die Kernel-Funktion K ist:
Figure 00130002
The presently used transformation T may be for the present orientation of the left-handed LiDAR sensor 24 on the right-facing LiDAR sensor 28 not be accurate enough so that the transformation T for the current position of the sensors 24 and 28 must be updated. The algorithm uses the current transformation T to update a weight a jk between the left sensor sample point s j and the right sensor sample point m k as follows:
Figure 00130001
where the kernel function is K:
Figure 00130002

Eine neue Transformation T' wird dann unter Verwendung des neu berechneten Gewichts ajk folgendermaßen bestimmt: T' = argminT – 1 / 2Σj,kajklogK(||sj – T ∘ mk||). (3) A new transformation T 'is then determined using the newly calculated weight a jk as follows: T '= argmin T - 1 / 2Σ j, k a jk logK (|| s j - T ∘ m k ||). (3)

Die neue Transformation T' wird dann mit der vorher berechneten Transformation T verglichen und basierend auf ihrer Differenz wird das Gewicht ajk unter Verwendung der neuen Transformation T' erneut berechnet, bis die neu berechnete Transformation T' mit der zuvor berechneten Transformation T übereinstimmt, wobei die Sensoren 24 und 28 zueinander ausgerichtet sind.The new transformation T 'is then compared with the previously calculated transformation T and based on its difference, the weight a jk is recalculated using the new transformation T' until the newly calculated transformation T 'matches the previously calculated transformation T, where the sensors 24 and 28 aligned with each other.

In bestimmten Fällen wird die Transformation T zur Ausrichtung der Abtastdatenpunkte hinreichend groß sein, wobei es von Vorteil sein kann, die Lösung von T' in der Gleichung (3) zu verbessern. Für dieses Beispiel wird die Transformation T als x' = T·x definiert, wobei x' = Rx + t ist, und, wobei R eine Rotationsmatrix und t ein Translationsvektor ist. In dieser Analyse sei: S = [S1, S2, ..., SL]T, (4) M = [m1, m2, ..., mN]T, (5) A = [ajk], (6) 1 = [1, 1, ..., 1]T, (7) μs = 1 / LSTAT1, (8) μm = 1 / NMTA1, (9) Ŝ = S – 1μ T / S (10) M ^ = M – 1μ T / m (11) In certain cases, the transformation T to align the sample data points will be sufficiently large, and it may be advantageous to improve the solution of T 'in equation (3). For this example, the transformation T is defined as x '= T * x, where x' = Rx + t, and, where R is a rotation matrix and t is a translation vector. In this analysis: S = [S 1 , S 2 , ..., S L ] T , (4) M = [m 1 , m 2 , ..., m N ] T , (5) A = [ ajk ], (6) 1 = [1, 1, ..., 1] T , (7) μ s = 1 / LS T A T 1, (8) μ m = 1 / NM T A1, (9) Ŝ = S - 1μ T / S (10) M ^ = M - 1μ T / m (11)

Die Lösung der neuen Transformation T' in der Gleichung (3) kann nun folgendermaßen wiedergegeben werden: T' = [R', t'], (12) wobei: R' = UCV, (13) t' = μs – R'μm, (14) und wobei U und V als die Faktoren für eine Einzelwertzerlegung von: USV = sνd(ŜTATM ^), (15) sind und C ist:

Figure 00150001
The solution of the new transformation T 'in equation (3) can now be represented as follows: T '= [R', t '], (12) in which: R '= UCV, (13) t '= μ s - R'μ m, (14) and where U and V are the factors for a single value decomposition of: UPS = sνd (Ŝ T A T M ^), (15) are and C is:
Figure 00150001

Der oben beschriebene EM-Algorithmus zum Bestimmen der Transformation T kann nur lokal optimal sein und sensitiv für den Anfangstransformationswert sein. Der Algorithmus kann dahingehend verbessert werden, dass eine Partikelschwarmoptimierung (PSO) verwendet wird, um die Anfangstransformation T0 zu finden. Bei dieser Optimierung sei E die Menge der auswählbaren Transformationen T von dem linken LiDAR-Sensor 24 auf den rechten LiDAR-Sensor 28. Der Algorithmus erzeugt zufällig N Partikel (ti|t, ∊ E) gemäß einer gleichförmigen Verteilung in der auswählbaren Transformation E und jeder Partikel ti ist mit einem normierten Gewicht wi = 1/N assoziiert. Für jeden Partikel ti wird der EM-Algorithmus auf die beste Transformation Ti gesetzt, wobei ti als Anfangswert vorgegeben wird. Das Gewicht wi sei dabei der Prozentsatz für die Übereinstimmung zwischen den beiden Abtastungen für die Transformation Ti. Der Algorithmus gibt dann die Transformation Tk mit dem besten Übereinstimmungsprozentsatz als Nominalwert für die Transformation von dem linken LiDAR-Sensor 24 auf den rechten LiDAR-Sensor 28 aus, wobei wk = max(wi) gilt.The above-described EM algorithm for determining the transformation T can only be locally optimal and sensitive to the initial transformation value. The algorithm can be improved so that a particle swarm optimization (PSO) is used to find the initial transformation T 0th In this optimization, let E be the set of selectable transforms T from the left LiDAR sensor 24 on the right LiDAR sensor 28 , The algorithm randomly generates N particles (t i | t, ε E) according to a uniform distribution in the selectable transformation E and each particle t i is associated with a normalized weight w i = 1 / N. For each particle t i , the EM algorithm is set to the best transformation T i , where t i is given as the initial value. The weight w i is the percentage of the correspondence between the two samples for the transformation T i . The algorithm then returns the transformation T k with the best match percentage as the nominal value for the transformation from the left LiDAR sensor 24 on the right LiDAR sensor 28 from where w k = max (w i ).

In den meisten Fällen wird der Wechsel in der Transformation T von einer Abtastzeit auf die nächste Abtastzeit typischerweise gering sein und demzufolge ist es nicht notwendig, ein rechenintensives Verfahren zur Berechnung der neuen Transformation T' für große Änderungen in der Transformation T, wie oben beschrieben, zu verwenden. Insbesondere kann die neue Schätzung aus dem obigen PSO-Algorithmus der Transformation Tn rekursiv unter Verwendung des folgenden wenig rechenintensiven EM-Match-Algorithmus verfeinert werden. Zuerst wird die Transformation Tn auf jeden Abtastpunkt des rechten LiDAR-Sensors 28 wie folgt angewendet: Sj ← Tn ∘ Sj. (17) In most cases, the change in the transformation T from one sample time to the next sample time will typically be small, and hence it is not necessary to use a computationally intensive method of computing the new large transformation transformation T 'T as described above. to use. In particular, the new estimate from the above PSO algorithm of the transform T n can be recursively refined using the following low-computational EM match algorithm. First, the transformation T n is applied to each sample point of the right LiDAR sensor 28 applied as follows: S j ← T n ∘ S j . (17)

Die korrigierte Transformation ΔT wird bestimmt als: ΔT:x' = ΔT ∘ x, (18) und definiert als: x' = x – Ɛy + tx, (19) y' = Ɛx + y + ty, (20) wobei die Transformation ΔT modelliert ist als (tx, ty, Ɛ), und wobei die vorhergehende Transformation ΔTo (txo, tyo, Ɛo) ist.The corrected transformation ΔT is determined as: ΔT: x '= ΔT ∘ x, (18) and defined as: x '= x - Ɛy t + x, (19) y '= y + t y + Ɛx, (20) wherein the transformation ΔT is modeled as (t x , t y , Ɛ), and wherein the previous transformation ΔT o (t xo , t yo , Ɛ o ).

Gleichung (3) wird dann ersetzt durch: T' = argminT – 1 / 2Σj,kαjklogK(||Sj – T ∘ mk||) + λ||ΔT – ΔTo||2, (21) und die Lösung ist:

Figure 00170001
wobei: Sj = (x ' / j, y ' / j), (23) mk = (xk, yk), (24)
Figure 00180001
und wobei λ ein Richtungsfaktor ist, der dazu eingestellt werden kann, inwieweit die vorausgegangene Schätzung verwendet wird.Equation (3) is then replaced by: T '= argmin T - 1 / 2Σ j, k α jk logK (|| S j - T ∘ m k ||) + λ || ΔT - ΔT o || 2 , (21) and the solution is:
Figure 00170001
in which: S j = (x '/ j, y' / j), (23) mk = ( xk , yk ), (24)
Figure 00180001
and where λ is a direction factor that can be adjusted to what extent the previous estimate is used.

4 ist ein Flussdiagramm 130, das die Operation zum Ausrichten der LiDAR-Sensoren, beispielsweise der LiDAR-Sensoren 24 und 28, wie oben diskutiert, zeigt. Im Kasten 132 wählt der Algorithmus die Anfangstransformation Tn, beispielsweise die vom Hersteller stammende Ursprungseinstellung, aus. Im Kasten 134 sammelt der Algorithmus Abtastentfernungskartendaten von den LiDAR-Sensoren 24 und 28 und bestimmt, falls eine genügende Anzahl von Abtastpunkten von einem Objekt in dem Sichtfeld der LiDAR-Sensoren 24 und 28 vorhanden sind, dass die Berechnungen adäquat in der Entscheidungsraute 136 ausgeführt werden. Falls nicht genügend Abtastpunkte vorhanden sind, kehrt der Algorithmus zu dem Kasten 134 zurück, um mehr Entfernungskartendaten zu sammeln. Falls genügend Abtastpunkte in der Entscheidungsraute 136 vorhanden sind, verwendet der Algorithmus dann den EM-Matching-Algorithmus, um die korrigierte Transformation ΔT der Daten im Kasten 138 zu finden. Der Algorithmus bestimmt dann, ob die korrigierte Transformation ΔT grösser als ein vorbestimmter Schwellenwert in der Entscheidungsraute 140 ist, und falls dies der Fall ist, wird eine große Transformationsschätzung verwendet, unter Verwendung des PSO-Algorithmus, um die neue Nominaltransformation Tn im Kasten 142 zu finden. Falls der Übereinstimmungsprozentsatz nicht größer als der Schwellenwert in der Entscheidungsraute 140 ist, kehrt der Algorithmus dann zu dem Kasten 134 zurück, um die nächsten Abtastpunkte zu sammeln. 4 is a flowchart 130 This is the operation to align the LiDAR sensors, such as the LiDAR sensors 24 and 28 as discussed above. In the box 132 For example, the algorithm selects the initial transformation T n , such as the manufacturer's origin setting. In the box 134 The algorithm collects scanning distance map data from the LiDAR sensors 24 and 28 and determines if a sufficient number of sample points from an object in the field of view of the LiDAR sensors 24 and 28 are present, that the calculations adequate in the decision diamond 136 be executed. If there are not enough sample points, the algorithm returns to the box 134 back to collect more distance map data. If there are enough sample points in the decision diamond 136 The algorithm then uses the EM matching algorithm to find the corrected transformation ΔT of the data in the box 138 to find. The algorithm then determines if the corrected transform ΔT is greater than a predetermined threshold in the decision diamond 140 and, if so, a large transform estimate is used, using the PSO algorithm, to construct the new nominal transform T n in the box 142 to find. If the match percentage is not greater than the threshold in the decision diamond 140 then the algorithm returns to the box 134 back to collect the next sample points.

Um zum Zusammenlegungsalgorithmus zurückzukommen, führt die unten geführte Diskussion zuerst einen vorgeschlagenen Abtastregistrieralgorithmus ein, der die Bewegung des Zielfahrzeugs 14 schätzt, falls das Objektmodell M und die gegenwärtige Abtastkarte S, die zu dem Zielfahrzeug 14 korrespondiert, vorgegeben sind. Die oben zum EM-Algorithmus geführte Diskussion zum Bestimmen der Transformation T, welche die Rahmen zwischen den LiDAR-Sensoren ausrichtet, gibt ein räumliches Matchen, insbesondere ein Matchen zwischen zwei Rahmen von verschiedenen LiDAR-Sensoren zur selben Zeit wieder. Die Diskussion bezüglich der Abtastpunktregistrierung verwendet ferner einen Abtastpunktregistrieralgorithmus, um die Transformation T aufzufinden, die zwei Rahmen zeitlich zwischen der gegenwärtigen Abtastkarte S und dem Objektmodell M, die von den vorangegangenen Abtastkarten abgeleitet wurde, zu matchen.To return to the merging algorithm, the discussion below first introduces a proposed sample registration algorithm that determines the movement of the target vehicle 14 if the object model M and the current scan map S that belong to the target vehicle 14 corresponds, are given. The discussion above about the EM algorithm for determining the transformation T, which aligns the frames between the LiDAR sensors, reflects spatial matching, in particular matching between two frames of different LiDAR sensors at the same time. The discussion of sample point registration also uses a sample point registration algorithm to find the transformation T matching the two frames in time between the current sample card S and the object model M derived from the previous sample cards.

Ein wahrscheinlichkeitstheoretisches Objektmodell M wird zuerst definiert und danach wird ein vorgeschlagener iterativer Algorithmus bereitgestellt, um eine feste Transformation aufzufinden, so dass die Wahrscheinlichkeit maximiert wird, weil die Abtastkarten des darauf folgenden Rahmens vorgegeben sind. Um die geometrische Gestalt eines Objekts zu charakterisieren, wird eine Kontur-Wahrscheinlichkeitsdichtefunktion (PDF) in einem Abtastraum

Figure 00190001
definiert. 5 zeigt einen Schnappschuss für eine beispielhafte PDF für die Rückseite des Zielfahrzeugs 14. Die PDF wird lieber direkt durch eine Liste von Partikeln (Dots) dargestellt, welche als M = (m1, m2, ..., mnM)T bezeichnet werden, als dass sie unter Verwendung bestimmter Parameter dargestellt werden.A probabilistic object model M is first defined, and then a proposed iterative algorithm is provided to find a fixed transform so that the probability is maximized because the next succeeding frame's scan maps are predetermined. To characterize the geometric shape of an object, a contour probability density function (PDF) is used in a sample space
Figure 00190001
Are defined. 5 shows a snapshot for an exemplary PDF for the back of the target vehicle 14 , The PDF is rather represented directly by a list of particles (dots), which are referred to as M = (m 1 , m 2 , ..., m nM ) T , as being represented using particular parameters.

Diese Nichtparametrisierung der Art der Darstellung der PDF kann wiedergegeben werden als:

Figure 00200001
wobei
Figure 00200002
eine Gauß-Kernek-Funktion ist und σ > 0 ein Glättungsparameter, der als Bandbreite oder als Größe eines Parzen-Fensters bezeichnet wird. This non-parameterization of the way the PDF is displayed can be represented as:
Figure 00200001
in which
Figure 00200002
is a Gauss-Kernek function and σ> 0 is a smoothing parameter called the bandwidth or the size of a Parzen window.

Seien y die Parameter der Transformation TY. Die Operatoren werden als Transformationsoperator Ty(·) mit den Parametern Y und der korrespondierenden inversen Transformation T –1 / y(·) definiert. Ohne Verlust der Allgemeingültigkeit kann das Objektmodell M als im Ursprung 34 zentriert betrachtet werden. In dem darauf folgenden Rahmen wird ein Objekt am Ort Y durch die PDF charakterisiert:

Figure 00200003
Let y be the parameters of the transformation T Y. The operators are called transformation operator T y (·) with the parameters Y and the corresponding inverse transformation T -1 / y (·) Are defined. Without loss of generality, the object model M may be considered as originating 34 be considered centered. In the following frame, an object at location Y is characterized by the PDF:
Figure 00200003

Sei S = (s1, s2, ..., sns)T die gegenwärtige Abtastkarte, die aus einer Liste von Abtastpunkten besteht. Die Wahrscheinlichkeitsfunktion kann ausgedrückt werden durch:

Figure 00200004
wobei Abtastpunkte sk als unabhängig und gleichförmig verteilte Bereiche des Objektmodells M am Ort y angenommen werden.Let S = (s 1 , s 2 , ..., s ns ) T be the current scan map consisting of a list of sample points. The probability function can be expressed by:
Figure 00200004
wherein sample points s k are assumed to be independent and uniformly distributed regions of the object model M at location y.

Die Aufgabe ist es hier, das Maximum von L(S; y, M) im Hinblick auf die Transformationsparameter y zu finden, was äquivalent dazu ist, das Minimum von J(y; M) ≡ –Log L(S; y, M) zu finden: y* = argminyJ(y; M), (31) wobei:

Figure 00210001
The task here is to find the maximum of L (S; y, M) with respect to the transformation parameters y, which is equivalent to the minimum of J (y; M) ≡ -log L (S; y, M ) to find: y * = argmin y J (y; M), (31) in which:
Figure 00210001

Dieses lokale Minimum zeigt die Gegenwart des Objekts in dem folgenden Rahmen an, der eine Darstellung ähnlich definiert zu p(x; M) am Ursprung 34 aufweist.This local minimum indicates the presence of the object in the following frame, which defines a representation similar to p (x; M) at the origin 34 having.

Eine Hilfsmatrix A ≡ {akj} with akj ≥ 0 for j = 1, ..., nM and k = 1, ..., ns wird eingeführt, wobei:

Figure 00210002
für alle k.An auxiliary matrix A ≡ {a kj } with a kj ≥ 0 for j = 1, ..., n M and k = 1, ..., n s is introduced, where:
Figure 00210002
for all k.

Demzufolge wird die Gleichung (32):

Figure 00210003
Figure 00220001
As a result, the equation (32) becomes:
Figure 00210003
Figure 00220001

In der Gleichung (32) wird der Normierungsfaktor

Figure 00220002
in einen konstanten Term aufgenommen, welcher vernachlässigt wird. Gleichung (36) ergibt sich dann durch Anwenden der Ungleichung von Jensen auf die Gleichung (34).In the equation (32), the normalization factor becomes
Figure 00220002
taken into a constant term, which is neglected. Equation (36) is then obtained by applying the inequality of Jensen to equation (34).

Unter der Vorgabe, dass die negative Logarithmusfunktion konvex ist, kann die beste obere Grenze

Figure 00220003
für die Gleichung (36) durch Bilden der Ableitung des Ausdrucks der Gleichung (36) und des Lagrange-Multiplikators der Randbedingung aus der Gleichung (33) im Hinblick auf akj und durch Nullsetzen erlangt werden. Die optimale Hilfsvariable kann ausgedrückt werden durch:
Figure 00220004
für j = 1, ..., nM and k = 1, ..., ns.Assuming the negative logarithm function is convex, the best upper bound can be
Figure 00220003
for the equation (36), by taking the derivative of the expression of the equation (36) and the Lagrange multiplier of the constraint from the equation (33) with respect to a kj and zeroing. The optimal auxiliary variable can be expressed by:
Figure 00220004
for j = 1, ..., n M and k = 1, ..., n s .

Demzufolge kann die Gleichung (31) iterativ durch ”Grenzoptimierung” gelöst werden, welche zwischen Optimieren von

Figure 00220005
in Hinblick auf die Hilfsmatrix A, der Parameter y der Transformation T und der Bandbreite der Kernel-Funktion σ terminiert wird.As a result, equation (31) can be iteratively solved by "boundary optimization", which is between optimizing
Figure 00220005
with respect to the auxiliary matrix A, the parameter y of the transformation T and the bandwidth of the kernel function σ is terminated.

6 ist ein Graph, bei der y auf der horizontalen Achse abgetragen ist, der die iterative ”Grenzoptimierungsbeziehung” zeigt, wobei die Linie 52 die durchgezogene Kurve J(y; M) ist und die gebrochenen Kurven aufeinanderfolgende obere Grenzen von y0, y1 und y2 sind, nämlich die Graphenlinie 54

Figure 00230001
die Graphenlinie 56
Figure 00230002
und die Graphenlinie 58
Figure 00230003
6 is a graph in which y is plotted on the horizontal axis showing the iterative "boundary optimization relationship", where the line 52 is the solid curve J (y; M) and the broken curves are consecutive upper limits of y 0 , y 1 and y 2 , namely the graph line 54
Figure 00230001
the graph line 56
Figure 00230002
and the graph line 58
Figure 00230003

Das iterative Verfahren aus dem Algorithmus 1 unten wird so lange wiederholt, bis Konvergenz auftritt, d. h. die Differenz des geschätzten y in zwei Iterationen weniger als eine vorbestimmte kleine Zahl ist. Empirische Resultate zeigen, dass 2–3 Iterationen für den vorgeschlagenen Algorithmus zur Konvergenzbildung ausreichen.The iterative procedure of Algorithm 1 below is repeated until convergence occurs; H. the difference of the estimated y in two iterations is less than a predetermined small number. Empirical results show that 2-3 iterations are sufficient for the proposed convergence algorithm.

Algorithmus 1: AbtastpunktregistrierungAlgorithm 1: Sample Point Registration

  • Input: Objektmodell M, gegenwärtige Abtastkarte S und Anfangstransformationsparameter y0.Input: object model M, current scan map S and start transformation parameter y 0 .

  • 1) Sei σ = σ0, wobei σ0 eine positive Zahl ist.1) Let σ = σ 0 , where σ 0 is a positive number.
  • 2) Berechnen von A: unter Vorgabe der vorhergehenden Schätzung des Transformationsparameters yn wird akj unter Verwendung der Gleichung (37) aktualisiert.2) Compute A: Given the previous estimate of the transformation parameter y n , a kj is updated using equation (37).
  • 3) Minimieren von
    Figure 00230004
    Berechne y* zum Minimieren von
    Figure 00230005
    d. h.: y* = argminy – Σk,jakjlogKσ(T –1 / y(sk) – mj). (38)
    3) Minimize
    Figure 00230004
    Compute y * to minimize
    Figure 00230005
    ie: y * = argmin y - Σ k, j a kj logK σ (T -1 / y (s k ) - m j ). (38)
  • 4) Berechnen von σ: Differenzieren der Gleichung (36) nach σ, Setzen der Ableitung auf Null ergibt:
    Figure 00230006
    4) Calculate σ: differentiating equation (36) according to σ, setting the derivative to zero gives:
    Figure 00230006
  • 5) Sei yn+1 = y*. Falls
    Figure 00240001
    dann gehe zu Schritt 2. Ansonsten wird Ausgang y* als der geschätzte Parameter für die Transformation verwendet.
    5) Let y n + 1 = y *. If
    Figure 00240001
    then go to step 2. Otherwise, output y * is used as the estimated parameter for the transformation.

Die folgende Diskussion beschreibt einen speziellen Fall von Punktmengenregistrierungen, die in der Robotik mit LiDAR-Abtastern verwendet werden können. Eine feste Transformation x' = Ty(x) und x' = Rx + t können festgelegt werden, wobei der Parametervektor y aus einer Rotationsmatrix R und dem Translationsvektor t besteht. Gleichung (38) kann vereinfacht werden zu: y* = argminyΣk,jakj||sk – Rmj – t||2, (40) so dass det(R) = 1 und RTR = I ist. The following discussion describes a specific case of dot-set registrations that can be used in robotics with LiDAR scanners. A fixed transformation x '= T y (x) and x' = Rx + t can be defined, wherein the parameter vector y consists of a rotation matrix R and the translation vector t. Equation (38) can be simplified to: y * = argmin y Σ k, j a kj || s k - Rm j - t || 2 , (40) such that det (R) = 1 and R T R = I.

Durch Bilden der partiellen Ableitung von Gleichung (40) jeweils nach t und R, kann die Gleichung (40) gelöst werden. Um die Lösung zu veranschaulichen, werden die folgenden Größen definiert:

Figure 00240002
wobei 1 = [1, 1, ..., 1]T ist By forming the partial derivative of Equation (40) respectively after t and R, Equation (40) can be solved. To illustrate the solution, the following quantities are defined:
Figure 00240002
where 1 = [1, 1, ..., 1] T

Die Lösung der Gleichung (40) ist: R = UCVT, (45) t = μs – Rμm, (46) wobei U und V als die Faktoren einer Einzelwertzerlegung definiert sind, d. h. USVT = sνd(ŜTATM ^) und C = diag(1, det(UVT)).The solution of equation (40) is: R = UCV T , (45) t = μ s - Rμ m, (46) wherein U and V as the factors of singular value decomposition are defined, that is, T = USV sνd (S T A T M ^) and C = diag (1, det (UV T)).

Die unten geführte Diskussion schlägt einen Bayes-basierenden Algorithmus vor, der rekursiv die Bewegung schätzt und das Objektmodell M aktualisiert. Sei S0, ..., St, und St+1 die Abtastkarten, die von einem dynamischen Objekt zu den Zeitschritten 0, ..., t, and t + 1 jeweils aufgenommen wurden.The discussion below suggests a Bayesian algorithm that recursively estimates the motion and updates the object model M. Let S 0 , ..., S t , and S t + 1 be the scan maps taken by a dynamic object at time steps 0, ..., t, and t + 1, respectively.

7 zeigt, dass das Verfolgen als i) ein Problem für das Schätzen der Bewegung eines Objekts und ii) ein Problem für das Aktualisieren des Objektmodells M angesehen werden kann, wenn eine neue Rahmenabtastkarte empfangen wird. Insbesondere zeigt die 7 ein Verfahren 60 zum Schätzen eines Objektortes im Kasten 64, wobei der Objektort verwendet wird, um ein Objektmodell im Kasten 62 zu aktualisieren und den Objektort zu schätzen, wenn eine neue Abtastkarte verfügbar ist. 7 shows that tracking as i) can be considered a problem for estimating the motion of an object and ii) a problem for updating the object model M when a new frame scan map is received. In particular, the shows 7 a procedure 60 to appreciate an object location in the box 64 where the object location is used to represent an object model in the box 62 to update and estimate the object location if a new scan card is available.

Die unten geführte Diskussion wird eine Bezugnahme auf bipartite Graphen und Bayes-Graphen beinhalten. Diese zwei Arten von Graphen beinhalten Knoten, die verschiedene Dinge darstellen. Die Knoten in einem Bayes-Graphen stellen Variablen dar, die geschätzt werden müssen, so beispielsweise die Transformation T und das Objektmodell M, welche zufällig sind und nur durch eine PDF dargestellt werden können. Diese Knoten sind in einer Sequenz über verschiedene Zeitrahmen angeordnet und jede einzelne Sequenz modelliert nur ein Objekt. Im Gegensatz dazu sind die Knoten in den bipartiten Graphen Segmentierungen von Abtastkarten. Jede Abtastkarte kann viele Objekte im selben Zeitrahmen enthalten. Demzufolge ist es Aufgabe, die Segmente aufzufinden, welche zu einem Objekt korrespondieren. Das Bilden der Assoziationen der Segmente (s1, s2, ..., sn) entlang der Zeitachse kann zum Erhalten mehrerer Sequenzen führen, welche jeweils zu einem Objekt korrespondieren. Auf diese Art können die bipartiten Graphen dazu verwendet werden, um das Bayes-Verfahren anzuwenden, um jedes einzelne Objekt zu verfolgen.The discussion below will include references to bipartite graphs and Bayesian graphs. These two types of graphs contain nodes that represent different things. The nodes in a Bayes graph represent variables that must be estimated, such as the transform T and the object model M, which are random and can only be represented by a PDF. These nodes are arranged in a sequence over different time frames and each individual sequence models only one object. In contrast, the nodes in the bipartite graphs are segmentations of scancards. Each scan card can contain many objects in the same time frame. Consequently, it is the task to find the segments that correspond to an object. Forming the associations of the segments (s 1 , s 2 , ..., s n ) along the time axis may result in obtaining a plurality of sequences, each corresponding to an object. In this way, the bipartite graphs can be used to apply the Bayesian method to track each individual object.

8 veranschaulicht ein dynamisches Bayes-Netzwerk 70, das zwei Schritte des vorgeschlagenen Verfolgungsalgorithmus darstellt. In dem Netzwerk 70 stellen die Knoten 72 die Transformationsparameter yt und yt+1 dar, d. h. die Objektposition und die Lage der Ziele, die Knoten 74 stellen die Objektmodelle Mt und Mt+1 dar und die Knoten 76 stellen die Abtastkarten St und St+1 dar. In der 8 werden die Parameter yt und yt+1 der Transformation zu den Zeitschritten t und t + 1 jeweils geschätzt und Mt und Mt+1 sind die Objektmodelle zu den Zeitschritten t und t + 1. Um das Bayes-Netzwerk 70 anzupassen, wird p(y) als eine Dirac-Delta-Verteilungsparametrisierung um ihr Zentrum y und das Objektmodell M wird als die verbundene PDF der Gauß-Komponenten durch ihren Mittelwert {mj} und eine feste Varianz σ2 jeweils parametrisiert angesehen. Jeder Mittelwert mj wird durch eine Gauß-PDF mit Hyperparametern dargestellt, nämlich dem Mittelwert und der Varianz

Figure 00260001
8th illustrates a dynamic Bayesian network 70 representing two steps of the proposed tracking algorithm. In the network 70 put the knots 72 the transformation parameters y t and y t + 1 , ie the object position and the location of the targets, the nodes 74 represent the object models M t and M t + 1 and the nodes 76 represent the scan cards S t and S t + 1. In the 8th The parameters y t and y t + 1 of the transformation at the time steps t and t + 1 are respectively estimated and M t and M t + 1 are the object models at the time steps t and t + 1. To the Bayes network 70 p (y) becomes a Dirac delta distribution parameter around its center y and the object model M is considered to be the associated PDF of the Gaussian components parameterized by their mean {m j } and a fixed variance σ 2, respectively. Each mean m j is represented by a Gauss PDF with hyperparameters, namely the mean and variance
Figure 00260001

Die unten geführte Diskussion detailliert die Aktualisierungsregeln für den Parameter y und die Hyperparameter {vj, ηj|j = 1, ..., nM}. Unter Verwendung von Bayes- und Kettenregeln jeweils wird die nachfolgende PDF mit vorgegebenen Mengen von Abtastkarten bis zu der Zeit t + 1 geschrieben als: p(y, M|S(0:t+1)) ∝ p(S|y, M)p(y, M|S(0:t)) = p(S|y, M)p(y|S(0:t))p(M|S0:t), (47) wobei y und M zu t + 1 verkürzt sind, S(0:t+1) Abtastkarten bis zum Zeitschritt t + 1 darstellen, S die Abtastkarte zur Zeit t + 1, p(S|y, M) eine äquivalente Darstellung von L(S; y, M) in der Gleichung (30) ist, und die letzte Gleichung durch Annehmen einer bedingten Unabhängigkeit gegeben durch S(0:t) folgt.The discussion below details the update rules for the parameter y and the hyperparameters {v j , η j | j = 1, ..., n M }. Using Bayesian and Chain rules respectively, the following PDF is written with given sets of scancards up to time t + 1 as: p (y, M | S (0: t + 1) ) α p (S | y, M) p (y, M | S (0: t) ) = p (S | y, M) p (y | S (0: t) ) p (M | S 0: t ), (47) where y and M are shortened to t + 1, S (0: t + 1) represent scan maps until time step t + 1, S the scan map at time t + 1, p (S | y, M) an equivalent representation of L (S; y, M) in equation (30), and the last equation follows by assuming a conditional independence given by S (0: t) .

In Gleichung (47) ist p(y|S(0:t)) die vorhergehende PDF des Parameters y zum Zeitschritt t – 1 bei gegebenen vorherigen Abtastkarten S(0:t), welche berechnet werden können als: p(y|S(0:t)) = ∫p(y|yt)p(yt|S(0:t))dyt. (48) In Equation (47), p (y | S (0: t) ) is the previous PDF of the parameter y at time step t-1 for given prior sampling maps S (0: t) , which can be calculated as: p (y | S (0: t) ) = ∫ p (y | y t ) p (y t | S (0: t) ) dy t . (48)

In Gleichung (48) bezeichnet p(yt|S(0:t)) die nachfolgende PDF für Transformationsparameter zur Zeit t und p(y|yt) die bedingte Wahrscheinlichkeit des folgenden Fortpflanzungsmodells der Objektbewegung: y = f(yt) + w, (49) wobei w eine null-gemittelte Gauß-Zufallsvariable mit Varianzmatrix

Figure 00270001
ist. Falls p(yt|S(0:t)) eine Dirac-Delta-Verteilung zentriert um y ist, kann die vorhergehende PDF zum Zeitschritt t = 1 geschrieben werden als:
Figure 00280001
wobei ỹ ein vorhergesagter Wert des folgenden Fortpflanzungsmodells des Objekts ỹ = f(yt) ist.In equation (48), p (y t | S (0: t) ) denotes the following PDF for transformation parameters at time t and p (y | y t ) the conditional probability of the following propagation model of object motion: y = f (y t ) + w, (49) where w is a zero-mean Gaussian random variable with variance matrix
Figure 00270001
is. If p (y t | S (0: t) ) centers a Dirac delta distribution y is, the previous PDF can be written at time step t = 1 as:
Figure 00280001
where ỹ is a predicted value of the following propagation model of the object ỹ = f ( y t) is.

Der Ausdruck p(Mt-1|S(0:t)) kann als die konjugierte Verteilungsfamilie von L(S; y, M) in der Gleichung (30) modelliert werden, um eine verfolgbare nachfolgende PDF zu erzeugen. Ein Produkt der Gauß-Dichten mit bekannter Varianz σ2 wird angenommen als:

Figure 00280002
wobei:
Figure 00280003
und wobei (ηj, νj) Hyperparameter der vorhergehenden PDF für die j-te Komponente von Mt-1 sind und c(ηj) ein Normierungsfaktor ist.The expression p (M t-1 | S (0: t) ) may be modeled as the conjugate distribution family of L (S; y, M) in equation (30) to produce a traceable subsequent PDF. A product of Gaussian densities with known variance σ 2 is taken as:
Figure 00280002
in which:
Figure 00280003
and where (η j , ν j ) are hyperparameters of the previous PDF for the jth component of M t-1 and c (η j ) is a normalization factor.

Wie aus der 8 hervorgeht, sind die vorhergehenden Daten für das Objektmodell M zum Zeitschritt t:

Figure 00280004
Like from the 8th indicates that the preceding data for the object model M at time step t:
Figure 00280004

Wir betrachten nun das Problem des Schätzens der vorhergehenden p(y, M|S(0:t+1) zur Zeit t + 1. Da y und M konditional unabhängig sind, d. h. p(y, M|S(0:t+1) = p(y|S(0:t+1))p(M|S(0:t+1)), (54) können die darauf folgenden im Hinblick auf y und M separat voneinander mit den folgenden zwei Schritten geschätzt werden.We now consider the problem of estimating the preceding p (y, M | S (0: t + 1) at time t + 1. Since y and M are conditionally independent, ie p (y, M | S (0: t + 1) = p (y | S (0: t + 1) ) p (M | S (0: t + 1) ), (54) the following may be estimated separately with respect to y and M with the following two steps.

Unter der Annahme, dass p(y|S(0:t+1)) die Dirac-Delta-PDF bei y t+1 zentriert ist, welche durch Maximieren der Gleichung (47) im Hinblick auf y geschätzt werden kann, ergibt sich durch Einsetzen der Gleichung (50) in die Gleichung (47), Anwenden eines negativen Logarithmus auf die Gleichung (47) und Vernachlässigen von Termen, die für y irrelevant sind: y t+1 = argminy – Σk,jakjlogKσ(T –1 / y(sk) – mj) + ||y – ỹ|| 2 / Q, (55) wobei

Figure 00290001
und ||x|| 2 / Q = xTQ–1x sind. Demzufolge kann die Gleichung (38) durch die Gleichung (55) zum Integrieren von einer vorangegangenen Information von vorhergehenden Zeitschritten ersetzt werden und durch folgendes Anwenden des Algorithmus 1 kann y t+1. abgeleitet werden.Assuming that p (y | S (0: t + 1) ) adds the Dirac delta PDF y t + 1 is obtained by maximizing equation (47) with respect to y, by substituting equation (50) into equation (47), applying a negative logarithm to equation (47) and neglecting terms, that are irrelevant for y: y t + 1 = argmin y - Σ k, j a kj logK σ (T -1 / y (s k ) - m j ) + || y - ỹ || 2 / Q, (55) in which
Figure 00290001
and || x || 2 / Q = x T Q -1 x are. Accordingly, the equation (38) can be replaced with the equation (55) for integrating a previous information of previous time steps and can be followed by applying the algorithm 1 as follows y t + 1 . be derived.

Durch Vernachlässigen von Termen, die relevant sind für das Objektmodell M, kann der negative Logarithmus der Gleichung (47) geschrieben werden als:

Figure 00290002
By neglecting terms relevant to the object model M, the negative logarithm of equation (47) can be written as:
Figure 00290002

Es wird angemerkt, dass Gleichung (56) die beste obere Grenze von J(M) für alle möglichen Werte von y ist.It is noted that equation (56) is the best upper bound of J (M) for all possible values of y.

Wie in der 6 zu sehen ist, kann die Grenzoptimierung dazu verwendet werden, um iterativ das optimale Objektmodell M durch Auffinden des Minimums der oben erwähnten oberen Grenzfunktion zu finden. Durch Setzen der Ableitungen der Gleichung (56) mit dem jeweiligen Objektmodell M auf Null kann die Schätzung für das Objektmodell M erhalten werden als:

Figure 00300001
wobei: ρj = Σkakj (58) s j = Σkakjsk/pj. (59) Like in the 6 can be seen, the boundary optimization can be used to iteratively find the optimal object model M by finding the minimum of the above-mentioned upper limit function. By setting the derivatives of equation (56) with the respective object model M to zero, the estimate for the object model M can be obtained as:
Figure 00300001
in which: ρ j = Σ k a kj (58) s j = Σ k a kj s k / p j . (59)

Die Aktualisierungsregeln für die neuen Hyperparameter (η ' / j, ν ' / j) für die darauffolgende Verteilung des Objektmodells M nach S zur Zeit t + 1 kann geschrieben werden als:

Figure 00300002
The update rules for the new hyperparameters (η '/ j, ν' / j) for the subsequent distribution of the object model M to S at time t + 1 can be written as:
Figure 00300002

Demzufolge ist die darauffolgende PDF des Ziels zur Zeit t:

Figure 00310001
As a result, the subsequent PDF of the target is at time t:
Figure 00310001

Es wird angemerkt, dass m in der Gleichung (57) der Mode ist und ν ' / i in Gleichung (61) der Mittelwert der j-ten Komponente (Partikel) des Objektmodells M ist. Aufgrund der Gauß-Annahme sind diese identisch.It is noted that m in the equation (57) is the mode and ν '/ i in equation (61), the mean value of the j-th component (particle) of the object model is M. Due to the Gaussian assumption these are identical.

Das rekursive Verfolgungs- und Modellaktualisierungsverfahren wird im Algorithmus 2 unten zusammengefasst. Schritt 1 stellt das Objektmodell M für den gegenwärtigen Zeitrahmen bereit, wobei Schritt 2 die Bewegung des Objektmodells M schätzt. Schritt 3 aktualisiert das Objektmodell M basierend auf der gegenwärtigen Abtastkarte. Schritt 4 addiert neue Partikel in das Objektmodell M, wobei Schritt 5 die „Ausreißer” aus dem Objektmodell M entfernt.The recursive tracking and model update method is summarized in Algorithm 2 below. Step 1 provides the object model M for the current time frame, with step 2 estimating the motion of the object model M. Step 3 updates the object model M based on the current scan map. Step 4 adds new particles to the object model M, where step 5 removes the "outliers" from the object model M.

Algorithmus 2: Verfolgen und Aktualisieren des ObjektmodellsAlgorithm 2: Track and update the object model

  • Input: gegenwärtige Abtastkarte St+1, Objektmodell Mt-1 = {νj, ηj} und Transformation y t. Input: current scan map S t + 1 , object model M t-1 = {ν j , η j } and transformation y t .
  • Output: geschätztes y t+1, und aktualisiertes M.Output: estimated y t + 1 , and updated M.

  • 1) Berechnete Hyperparameter
    Figure 00310002
    für alle J von p(Mt|S(0:t)) in Gleichung (51). Setze alle Partikel als unbetrachtet.
    1) Calculated hyperparameters
    Figure 00310002
    for all J of p (M t | S (0: t) ) in equation (51). Set all particles as unobserved.
  • 2) Sei
    Figure 00310003
    für alle J. Ersetze Gleichung (38) durch Gleichung (55) und lasse dann den Algorithmus 1 ablaufen, um y t+1 und At+1 zu erhalten.
    2) Be
    Figure 00310003
    for all J. Replace equation (38) with equation (55) and then let algorithm 1 expire y t + 1 and to get A t + 1 .
  • 3) Falls ρj – Σkakj größer ist als ein Schwellenwert, berechne die Hyperparameter unter Verwendung der Gleichungen (60) und (61), setze die Partikel als betrachtet und erhöhe den Betrachtungswert Kj um 1. Wenn Kj > 5, wird der j-te Partikel als reif markiert.3) If ρ j - Σ k a kj is greater than a threshold, compute the hyperparameters using equations (60) and (61), consider the particles as considered, and increase the view value K j by 1. If K j > 5 , the jth particle is marked as ripe.
  • 4) Berechne
    Figure 00320001
    für alle K. Falls
    Figure 00320002
    kleiner als ein Schwellenwert ist, addiere einen neuen Partikel sk mit den folgenden Werten Kk = 1, νk = sk, ηk = 1 und markiere ihn als betrachtet.
    4) Calculate
    Figure 00320001
    for all K. Falls
    Figure 00320002
    is less than a threshold, add a new particle s k with the following values K k = 1, ν k = s k , η k = 1 and mark it as considered.
  • 5) Entferne Partikel, die nicht als betrachtet und nicht reif markiert sind.5) Remove particles that are not marked as viewed and not ripe.

9 ist ein Flussdiagramm 80, das den vorgeschlagenen Zusammenführungsalgorithmus, der zu jedem Zeitschritt t ausgeführt wird, zeigt. Der Kasten 78 stellt die Objekt-Files dar, die zu jedem Zeitschritt erzeugt werden und stellt die Position, die Geschwindigkeit und die Ausrichtung der Objekte, die detektiert und verfolgt werden, dar, und das Objektmodell M für jedes Objekt, das verfolgt wird. Wenn ein neuer Rahmen von Entfernungsdaten von den Sensoren 16, 20, 24 und 28 bei dem Trägerfahrzeug 12 im Kasten 82 angelangen, konstruiert der Algorithmus zuerst die 360°-Punktwolke im Kasten 84 in der oben diskutierten Art und Weise. Sobald die Punktwolke konstruiert ist, segmentiert der Algorithmus dann die Abtastpunkte in der Wolke in Cluster, die spezifische Objekte im Kasten 86 identifizieren können. Um die Segmentierungsoperation auszuführen, soll die Abtastkarte im gegenwärtigen Rahmen (t + 1) bezeichnen und

Figure 00320003
soll ein ungerichteter Graph mit der Textmenge R sein. Eine Kante
Figure 00320004
verbindet p1 und p2, falls ||p1 – p2|| kleiner ist als ein vorbestimmter Distanzschwellenwert. Das Bezeichnen der verbundenen Komponenten wird dann dazu verwendet, um die Abtastkarte R in eine Liste von Clustern {S (t+1) / n} zu segmentieren. Das Segmentieren der Abtastpunkte in Cluster beinhaltet das Separieren der Cluster von Abtastpunkten in Wiedergabepunktewolken, so dass die Cluster ein separates Objekt identifizieren, das verfolgt wird. 9 is a flowchart 80 showing the proposed merge algorithm executed at each time step t. The box 78 represents the object files generated at each time step and represents the position, velocity and orientation of the objects being detected and tracked, and the object model M for each object being tracked. If a new frame of distance data from the sensors 16 . 20 . 24 and 28 at the carrier vehicle 12 in the box 82 The algorithm first constructs the 360 ° point cloud in the box 84 in the manner discussed above. Once the point cloud is constructed, the algorithm then segments the sample points in the cloud into cluster, the specific objects in the box 86 can identify. To perform the segmentation operation, the scan card in the current frame should designate (t + 1) and
Figure 00320003
should be an undirected graph with the text set R. An edge
Figure 00320004
connects p 1 and p 2 if || p 1 - p 2 || is less than a predetermined distance threshold. The designation of the connected components is then used to put the scan card R into a list of clusters {S (t + 1) / n} to segment. Segmenting the Sample points in clusters involves separating the clusters of sample points into rendering point clouds so that the clusters identify a separate object that is being tracked.

Sobald die Abtastpunkte in Cluster segmentiert sind, matcht der Algorithmus dann die Cluster mit vorhergesagten Objektmodellen M ~ im Kasten 88. Insbesondere projiziert der Algorithmus verfolgte Objektmodelle M im vorhergegangenen Zeitschritt im Kasten 90 unter Verwendung der Objekt-Files 78. Um die projizierten Objektmodelle vorherzusagen, soll {M n / t} eine Liste von Objektmodellen M zum Zeitschritt t sein. Für jedes Objektmodell M n / t wird der Mittelwert einer Gauß-Komponente bezeichnet als ν n / j. Falls y n / t die Schätzung der Transformation zum Zeitschritt t ist, ist die vorhergesagte Transformation zum Zeitschritt t + 1 ỹ n / t+1 = f(y n / t). Demzufolge ist das vorhergesagte Objektmodell M ~ für das n-te Objekt

Figure 00330001
für alle j. Durch
Figure 00330002
werden die vorhergesagten Objektpunkte aus dem Zeitschritt t bezeichnet.Once the sample points are segmented into clusters, the algorithm then matches the clusters with predicted object models M ~ in the box 88 , In particular, the algorithm projects tracked object models M in the previous time step in the box 90 using the object files 78 , To predict the projected object models, should {Mn / t} a list of object models M to the time step t. For every object model M n / t the mean of a Gaussian component is referred to as ν n / j. If y n / t is the estimate of the transformation to the time step t, is the predicted transformation to the time step t + 1 ỹ n / t + 1 = f ( y n / t). As a result, the predicted object model is M ~ for the nth object
Figure 00330001
for all j. By
Figure 00330002
the predicted object points from the time step t are designated.

Unter Verwendung der projizierten verfolgten Objektmodelle werden die segmentierten Cluster

Figure 00330003
mit vorhergesagten Objektmodellen
Figure 00330004
im Kasten 88 gematcht. Ein bipartiter Graph
Figure 00330005
wird aus der gesetzten Vertexmenge
Figure 00330006
über die Kantenmenge EB konstruiert. Eine Kante existiert zwischen den Punkten
Figure 00330007
und
Figure 00330008
nur dann, wenn ||p – q|| < D, wobei D ein Distanzschwellenwert ist. Das Gewicht der Kante (p, q) ist definiert als w(p, q) = ||p – q||. Die Nachbarschaft von
Figure 00330009
ist definiert als
Figure 00330010
Using the projected tracked object models, the segmented clusters become
Figure 00330003
with predicted object models
Figure 00330004
in the box 88 matched. A bipartite graph
Figure 00330005
becomes from the set vertex amount
Figure 00330006
designed over the edge set E B. An edge exists between the points
Figure 00330007
and
Figure 00330008
only if || p - q || <D, where D is a distance threshold. The weight of the edge (p, q) is defined as w (p, q) = || p - q ||. The neighborhood of
Figure 00330009
is defined as
Figure 00330010

Ein induzierter bipartiter Graph

Figure 00330011
kann definiert werden aus dem bipartiten Graph B, wobei die Kantenmenge EB die mögliche Assoziierung zwischen den Objekten in
Figure 00340001
und den segmentierten Clustern
Figure 00340002
darstellt. Eine Kante zwischen
Figure 00340003
und
Figure 00340004
existiert dann und nur dann, wenn eine Kante (p, q) in B so existiert, dass
Figure 00340005
und
Figure 00340006
gilt.An induced bipartite graph
Figure 00330011
can be defined from the bipartite graph B, where the edge set E B is the possible association between the objects in
Figure 00340001
and the segmented clusters
Figure 00340002
represents. An edge between
Figure 00340003
and
Figure 00340004
exists if and only if an edge (p, q) exists in B such that
Figure 00340005
and
Figure 00340006
applies.

Sei E(p', q') die Untermenge der Kantenmenge in B, d. h.

Figure 00340007
Das Gewicht und die Kardinalität der Kante werden jeweils definiert als:
Figure 00340008
Let E (p ', q') be the subset of the set of edges in B, ie
Figure 00340007
The weight and cardinality of the edge are defined as:
Figure 00340008

Sobald der induzierte bipartite Graph B' konstruiert ist und das Gewicht und die Kardinalität der Kanten berechnet sind, werden die starke Kante und die vorgeschobene schwache Verbindung unter Verwendung des Algorithmus 3 unten ausgewählt.Once the induced bipartite graph B 'is constructed and the weight and cardinality of the edges are calculated, the strong edge and the advanced weak connection are selected using Algorithm 3 below.

10 ist ein bipartiter Graph 100, nämlich B in einem Abtastpunktgrad für fünf vorhergesagte Objektmodelle M ~ und fünf Cluster S zum gegenwärtigen Zeitschritt t, wie oben diskutiert. In dem bipartiten Graphen 100 repräsentieren Dots 102 die vorhergesagten Objektmodellpunkte und Dreiecke 104 stellen die segmentierten Abtastkartenpunkte dar. Die Linien 106 zwischen den Dots 102 und den Dreiecken 104 sind die Kanten des Graphen 100. 10 is a bipartite graph 100 that is, B at a sample point degree for five predicted object models M ~ and five clusters S at the current time step t, as discussed above. In the bipartite graph 100 represent dots 102 the predicted object model points and triangles 104 put the segmented scancard points. The lines 106 between the dots 102 and the triangles 104 are the edges of the graph 100 ,

Der Algorithmus legt dann die Datenpunktcluster zusammen und spaltet sie im Kasten 92 auf, um die detektierten Objekte, die gleich sind, zu kombinieren, und spaltet Objekte, die ursprünglich als ein einzelnes Objekt detektiert worden waren, sich aber als mehrere Objekte gezeigt haben, auf. Um das Zusammenlegen und Aufspalten der Cluster vorzunehmen, nimmt der Algorithmus 3 unten eine Abtastassoziierung vor.The algorithm then collapses the data point clusters and splits them in the box 92 on to combine the detected objects that are the same, and splits objects that were originally detected as a single object but have been shown as multiple objects. To perform the merging and splitting of the clusters, Algorithm 3 below performs a sample association.

11 veranschaulicht einen induzierten bipartiten Graphen 110, nämlich B', der von dem Graphen B durch Konsolidieren von Punkten in Gruppen abgeleitet ist. In dem induzierten bipartiten Graphen 110 stellen die Knoten 114 die Objektmodellpunkte (M), die Knoten 112 die Cluster der segmentierten Abtastpunkte (M) und die Linien 116 die Kanten, die das Übereinstimmen zwischen den Objektmodellpunkten (M) und den segmentierten Abtastpunkten (S) definieren, dar. Wie unten diskutiert werden wird, wird M ~1 zur Zeit t auf S1 zur Zeit t + 1 gematcht, M ~2 und M ~3 auf S2 zur Zeit t + 1 zusammengelegt und M ~4 aufgespalten. M ~5 ist zur Zeit am Verschwinden und wird aus der Abtastkarte zur Zeit t + 1 entfernt und S5 kommt zur Zeit t + 1 an. Im Schritt 3 des Algorithmus 3 werden die Kanten (M ~1, S1), (M ~2, S2), (M ~4, S3), und (M ~4, S4) hervorgehoben. Im Schritt 4 wird M ~3 mit S2 gematcht und die Kante (M ~3, S2) wird hervorgehoben. Demzufolge wird im Schritt 5 die gebrochene Linie (M ~5, S2) als die weiche Verbindung beschnitten. 11 veranschaulicht, dass M ~1 direkt mit S1 gematcht wird. Die zwei anderen Fälle benötigen jedoch ein Zusammenlegen und Aufspalten der Cluster. 11 illustrates an induced bipartite graph 110 that is, B 'derived from the graph B by consolidating points into groups. In the induced bipartite graph 110 put the knots 114 the object model points (M), the nodes 112 the clusters of segmented sample points (M) and the lines 116 the edges defining the coincidence between the object model points (M) and the segmented sampling points (S), is. As will be discussed below, M is ~ 1 at time t to S 1 at time t + matched 1, M ~ 2 and M ~ 3 on S 2 at time t + 1 combined and M ~ 4 split. M ~ 5 is currently disappearing and is removed from the scan card at time t + 1 and S5 arrives at time t + 1. In step 3 of the algorithm 3, the edges (M ~ 1 , S 1 ), (M ~ 2 , S 2 ), (M ~ 4 , S 3 ), and (M ~ 4 , S 4 ) are highlighted. In step 4, M ~ 3 is matched with S 2 and the edge (M ~ 3 , S 2 ) is highlighted. As a result, in step 5, the broken line (M ~ 5 , S 2 ) is trimmed as the soft connection. 11 illustrates that M ~ 1 is directly matched with S 1 . However, the two other cases require clustering and splitting of the clusters.

Das vorhergesagte Objektmodell M ~4 wird in zwei gemischte Cluster S3 und S4. aufgespalten. Die Abtastpunkte der gegenwärtigen Cluster S3 und S4 werden erneut geclustert unter Verwendung der vorherigen Kenntnis, dass es ein Objekt in dem vorhergehenden Rahmen gegeben hat. Gewöhnlicherweise wird eine stärkere Evidenz von Unähnlichkeit für ein Aufspalten eines existierenden verfolgbaren Objekts in zwei Cluster benötigt.The predicted object model M ~ 4 is divided into two mixed clusters S 3 and S 4 . split. The sample points of the current clusters S 3 and S 4 are clustered again using the prior knowledge that there was an object in the previous frame. Usually, a stronger evidence of dissimilarity is needed for splitting an existing trackable object into two clusters.

Die zwei vorhergesagten Objektmodelle M ~2 und M ~3 sind zu einem Cluster S2 in dem gegenwärtigen Rahmen assoziiert.The two predicted object models M ~ 2 and M ~ 3 are associated to a cluster S 2 in the current frame.

Die Abtastpunkte in dem Cluster S2 werden erneut geclustert, da eine stärkere Nähe unter den Abtastpunkten für das Zusammenlegen der zwei verfolgbaren Objekte zu einem Objekt benötigt wird.The sample points in the cluster S 2 are clustered again because a greater proximity among the sample points is needed for collapsing the two trackable objects into one object.

Algorithmus 3: AbtastassoziierungsalgorithmusAlgorithm 3: Sample Association Algorithm

  • Input: der Cluster
    Figure 00360001
    und die vorhergesagten Objektmodelle
    Figure 00360002
    Input: the cluster
    Figure 00360001
    and the predicted object models
    Figure 00360002
  • Output: der verkürzte induzierte bipartite Graph B'.Output: the shortened induced bipartite graph B '.

  • 1) Konstruiere den bipartiten Graph B mit Abtastpunkten als Vertices.1) Construct the bipartite graph B with sampling points as vertices.
  • 2) Konstruiere den induzierten Graph B' mit Clustern und Konturen wie den Vertices und berechne das Gewicht und die Kardinalität der Kante unter Verwendung der Gleichungen (63) und (64) jeweils.2) Construct the induced graph B 'with clusters and contours such as the vertices and calculate the weight and cardinality of the edge using equations (63) and (64), respectively.
  • 3) Für jeden
    Figure 00360003
    finde
    Figure 00360004
    so dass die Kardinalität größer als ein Schwellenwert (d. h., c(p ' / *, q') > C ) und
    Figure 00360005
    Figure 00360006
    ist und hebe die Kante (p ' / *, q') hervor.
    3) For everyone
    Figure 00360003
    find
    Figure 00360004
    so the cardinality is greater than a threshold (ie c (p '/ *, q')> C ) and
    Figure 00360005
    Figure 00360006
    is and lift the edge (p '/ *, q') out.
  • 4) Für jeden
    Figure 00360007
    der nicht durch die hervorgehobenen Kanten abgedeckt ist, finde die Menge
    Figure 00360008
    so dass jedes Element q'' durch eine und nur eine hervorgehobene Kante abgedeckt ist. Finde p'', so dass (p'', q'') > C und
    Figure 00360009
    gilt, und hebe die Kante hervor.
    4) For everyone
    Figure 00360007
    which is not covered by the highlighted edges, find the amount
    Figure 00360008
    such that each element q '' is covered by one and only one highlighted edge. Find p '' such that (p '', q '')> C and
    Figure 00360009
    applies, and lift out the edge.
  • 5) Verkürze alle Kanten, die in B' nicht hervorgehoben sind.5) Shorten all edges that are not highlighted in B '.

Wie oben erwähnt werden neue Objekte erzeugt und verschwindende Objekte werden im Kasten 94 entfernt. Insbesondere müssen zwei spezielle Fälle abgehandelt werden, um neue Objekte zu erzeugen und existierende Objekte in dem Objekt-File zu entfernen, wobei keine Kante für den Abtastcluster S5 existiert. Ein Verfolgungsinitialisierungsschritt wird ausgelöst und ein neues Objekt wird in das Objekt-File zum Abtasten des Clusters S5, hinzugefügt und das vorhergesagte Objektmodell M ~5 verschwindet, da keine Kante vorliegt. Demzufolge wird sie aus dem Objekt-File entfernt.As mentioned above, new objects are created and vanishing objects are in the box 94 away. In particular, two special cases must be dealt with in order to create new objects and to remove existing objects in the object file, with no edge for the Abtastcluster S 5 exists. One Trace initialization step is triggered and a new object is added to the object file for scanning the cluster S 5 , and the predicted object model M ~ 5 disappears because there is no edge. As a result, it is removed from the object file.

Sobald die neuen Objekte erzeugt sind und die verschwindenden Objekte im Kasten 94 entfernt sind, stellt der Algorithmus dann ein Verfolgen und Modellaktualisieren im Kasten 96 bereit. Für jedes gematchte Paar von Objektmodellen Mt und Abtastclustern St+1, wird beispielsweise durch das Abtastregistrierverfahren des Algorithmus 1 der Algorithmus 2 zum Verfolgen und Aktualisieren des Objektmodells verwendet.Once the new objects are created and the disappearing objects in the box 94 the algorithm then sets a trace and model update in the box 96 ready. For each matched pair of object models M t and sample clusters S t + 1 , the algorithm 2 is used, for example, by the sample registration method of algorithm 1 to track and update the object model.

Das Objekt-File 78 wird dann im Kasten 98 aktualisiert und für den nächsten Zeitschritt für das Objekt-File 78 abgespeichert. Die neue Transformation yt+1 und das aktualisierte Objektmodell Mt für jedes Objekt werden auf das Objekt-File gespeichert und der Algorithmus wartet auf die Ankunft einer neuen Abtastkarte zum nächsten Zeitschritt.The object file 78 is then in the box 98 updated and for the next time step for the object file 78 stored. The new transform y t + 1 and the updated object model M t for each object are stored on the object file and the algorithm waits for the arrival of a new scan map to the next time step.

Falls die Rotation zwischen zwei aufeinanderfolgenden Abtastrahmen klein ist, können die Parameter einer 2D-Transformation approximiert werden durch:

Figure 00370001
Figure 00380001
wobei (x, y) und (x', y') zwei Punkte in vorangegangenen und gegenwärtigen Rahmen jeweils sind,
Figure 00380002
der Rotationswinkel und (t, t) die Translationen sind.If the rotation between two consecutive sample frames is small, the parameters of a 2D transformation can be approximated by:
Figure 00370001
Figure 00380001
where (x, y) and (x ', y') are two points in previous and present frames, respectively,
Figure 00380002
the angle of rotation and (t, t) are the translations.

Sei mj = (xj, yj) und Sk = (x ' / k, y ' / k). Durch Einsetzen der Gleichungen (65) und (66) in die Gleichung (55) können die partiellen Ableitungen nach tx, ty und

Figure 00380003
jeweils gebildet werden und auf Null gesetzt werden. Möge
Figure 00380004
den vorhergesagten y mit der Gleichung (49) bezeichnen. Wenn ein konstantes Modell angenommen wird, werden t ~x = νxδt, t ~y = yxδt und
Figure 00380005
mit bereitgestellt, wobei δt die Dauer zwischen den Zeitschritten t und t – 1 ist.Let m j = (x j , y j ) and S k = (x '/ k, y' / k). By substituting equations (65) and (66) into equation (55), the partial derivatives after t x , t y and
Figure 00380003
each be formed and set to zero. May
Figure 00380004
denote the predicted y by the equation (49). If a constant model is assumed, t ~ x = ν x δt, t ~ y = y x δt and
Figure 00380005
with δt being the duration between the time steps t and t-1.

Die folgenden Aktualisierungsregeln können abgeleitet werden:

Figure 00380006
wobei λx, λy und
Figure 00380007
die von der Varianzmatrix Q in der Gleichung (50) abgeleiteten Gewichte sind.The following update rules can be derived:
Figure 00380006
where λ x , λ y and
Figure 00380007
are the weights derived from the variance matrix Q in equation (50).

Durch Ersetzen der Gleichung (38) mit den Gleichungen (67) bis (69) wird der Algorithmus 1 iterativ angewendet, um tx, ty und

Figure 00390001
bei y t+1 zu berechnen.By replacing equation (38) with equations (67) through (69), algorithm 1 is iteratively applied to t x , t y and
Figure 00390001
at y t + 1 to calculate.

Wenn ν und ωH die HV-Bodengeschwindigkeit und Gierrate jeweils bezeichnen. Die Bodengeschwindigkeit des Fahrzeugs 14 wird berechnet durch: νgx = νx + νH – xcωH, (70) νgy = νy + ycωH, (71) und die Orientierung des Fahrzeugs 14 durch:

Figure 00390002
When ν and ω H denote the HV ground speed and yaw rate, respectively. The ground speed of the vehicle 14 is calculated by: ν gx = ν x + ν H - x c ω H , (70) ν gy = ν y + y c ω H , (71) and the orientation of the vehicle 14 by:
Figure 00390002

Das Verfahren und die Vorrichtung zum Detektieren und Verfolgen mehrerer Objekte, wie oben beschrieben, kann eine 360°-Sichtfeldlösung für das Detektieren von Objekten durch das Trägerfahrzeug 12 bereitstellen. Die folgenden Probleme für einen LiDAR-Sensor müssen jedoch adressiert werden.The method and apparatus for detecting and tracking multiple objects as described above may provide a 360 ° field of view solution for detecting objects by the host vehicle 12 provide. However, the following issues for a LiDAR sensor need to be addressed.

Das erste Problem ist der Teil der Observierung, die entweder durch Okklusion oder Lasermessausfall, beispielsweise wegen niedrigerer Reflektanz oder Spiegelreflexion. Beispielsweise ist der Detektionsbereich eines schwarzen Fahrzeugs viel kleiner als der eines weißen Fahrzeugs.The first problem is that part of the observation, either by occlusion or laser measurement loss, for example, due to lower reflectance or specular reflection. For example, the detection range of a black vehicle is much smaller than that of a white vehicle.

Das nächste Problem ist die unzureichende Messung aufgrund einer niedrigen Auflösung, ein Herausragen von Merkmalen bewirkt und demzufolge unzureichend ist, um Fernfeldobjekte zu detektieren.The next problem is the insufficient measurement due to a low resolution, causing feature protrusion and hence is insufficient to detect far-field objects.

Ein anderes Problem ist das limitierte vertikale Sichtfeld, beispielsweise von 4 das die Detektion von Objekten auf einer nichtebenen Straßenoberfläche auslässt.Another problem is the limited vertical field of view, such as that which omits the detection of objects on a non-planar road surface.

Ein anderes Problem ist das Fehlen von Kontextinformationen, dass ein Objekt aus dem Hintergrund unterscheiden kann.Another problem is the lack of context information that can distinguish an object from the background.

Die vorliegende Erfindung schlägt einen verbesserten Zusammenführungsalgorithmus vor, der die oben diskutierten Einschränkungen für die LiDAR-Sensoren adressiert. Insbesondere verwendet die vorliegende Erfindung die Ausgangssignale von einem oder beiden von einem Radarsensor oder einem Bildsystem auf dem Fahrzeug, um als Cueing-Signal betrieben zu werden, um das Zusammenlegungssystem für die LiDAR-Sensor-Ausgänge dazu zu bringen, ein Ziel zu identifizieren. Radarsensoren haben typischerweise eine weite Reichweite aber ein enges Sichtfeld. Bildsysteme haben typischerweise eine kurze Reichweite, stellen aber Kontakte zu den detektierten Zielen dar. Wie oben erwähnt, ist das verbesserte Zusammenlegungssystem, das oben diskutiert wird, dazu gedacht, die Parameter x, y, vx, vy und ξ für jedes detektierte Objekt zu schätzen.The present invention proposes an improved merging algorithm that addresses the limitations discussed above for the LiDAR sensors. In particular, the present invention utilizes the output signals from one or both of a radar sensor or an imaging system on the vehicle to operate as a cueing signal to cause the LiDAR sensor output merging system to identify a target. Radar sensors typically have a long range but a narrow field of view. Image systems typically have a short range, but are contacts to the detected targets. As mentioned above, the improved merging system discussed above is intended to provide the parameters x, y, v x , v y, and ξ for each detected object appreciate.

12 ist ein Bild 150 eines Ziels, das innerhalb einer Straße 152 dargestellt wird, wie es von einem LiDAR-Sensor, einem Radar-Sensor und einem Bildsystem auf einem Trägerfahrzeug detektiert wird. Insbesondere ist das Ziel weit genug entfernt oder ausgeschlossen, so dass die LiDAR-Abtastpunkte wenige sind und von den Punkten 156 dargestellt werden. Um die Detektion des Ziels zu verbessern, definiert ein Bildsystem 154 dasselbe Ziel von einem Bildsystemausgang und einem Radardatenpunkt 158, der dasselbe Ziel darstellt, welches von einem Radarsensor detektiert wird. 12 is a picture 150 a goal that is within a street 152 as detected by a LiDAR sensor, a radar sensor and an imaging system on a host vehicle. In particular, the target is far enough away or excluded that the LiDAR sample points are few and of the points 156 being represented. To improve the detection of the target, defines an image system 154 same destination from an image system output and a radar data point 158 representing the same target detected by a radar sensor.

13 ist eine Darstellung eines Fahrzeugsystems 160 ähnlich zu dem System 10, das oben für ein Trägerfahrzeug 162 diskutiert wurde, welches einem Zielfahrzeug 164 folgt und dieses verfolgt. Dieselben Variablen für Position, Geschwindigkeit, Richtungswinkel etc. werden so verwendet, wie in der 1 gezeigt. In diesem Beispiel beinhaltet das Trägerfahrzeug 162 einen LiDAR-Sensor 166 mit einem Sichtfeld 168, einen Radarsensor 170 mit einem Sichtfeld 172 und ein Bildsystem 174 mit einem Sichtfeld 176. Die Darstellungen von dem LiDAR-Sensor 166 werden als Abtastpunkte 178 gezeigt, die Darstellung von dem Radarsensor 170 wird als Dreieck 180 bezeichnet und die Darstellung von dem Bildsystem 174 wird als Kasten 182 dargestellt. Wie im Stand der Technik bekannt ist, geben Bildsysteme und Radarsensoren vier Ausgänge von einem Ziel aus, nämlich die Entfernung zu dem Ziel, die Entfernungsänderung zu dem Ziel, d. h. die Entfernungsrate, den Richtungswinkel des Ziels und den Wechsel in dem Azimuthwinkel des Ziels, d. h. die Azimuthwinkelrate. 13 is a representation of a vehicle system 160 similar to the system 10 That up for a vehicle 162 which was a target vehicle 164 follow and pursue this. The same variables for position, velocity, direction angle, etc. are used as in the 1 shown. In this example, the host vehicle includes 162 a LiDAR sensor 166 with a field of view 168 , a radar sensor 170 with a field of view 172 and an image system 174 with a field of view 176 , The illustrations of the LiDAR sensor 166 are called sample points 178 shown, the representation of the radar sensor 170 is called a triangle 180 and the representation of the image system 174 is called a box 182 shown. As known in the art, image systems and radar sensors output four outputs from a target, namely the distance to the target, the range change to the target, ie the range rate, the heading angle of the target, and the change in the azimuth angle of the target, ie the azimuth angle rate.

14 ist ein Blockdiagramm mit einer generellen Übersicht eines vorgeschlagenen Zusammenlegungssystems 190, wobei das zu jedem Zeitschritt aufgenommene Ziel O = (o1, o2, ...,

Figure 00410001
) von dem Radarsensor 170 und/oder dem Bildsystem 174 im Kasten 192 an einen Cueing-Kontextblock 194 gesendet wird. Wie oben diskutiert, werden die LiDAR-Abtastclusterkarten im Block 196 an ein LiDAR-Verfolgungsalgorithmusblock 198 bereitgestellt. Der Verfolgungsalgorithmus empfängt die Cueing-Kontextzieldaten von dem Block 194 und die Zieldaten werden mit dem abgespeicherten Objektmodell gematcht, wobei der Wert no die Zahl der detektierten Ziele ist. Jedes Ziel o = (x '' / i, y '' / i, ν '' / i, w '' / i) hat die Parameter einer longitudinalen Verschiebung (x''), einer lateralen Verschiebung (y''), einer Radialgeschwindigkeit (ν'') und einer Lateralgeschwindigkeit (w''). Die LiDAR-Abtastrate
Figure 00420001
mit jedem Abtastpunkt sk beinhaltet einen longitudinalen Offset x und einen lateralen Offset yi, wobei N die Anzahl der Abtastpunkte ist. Der Verfolgungsalgorithmus überwacht den Eingang von dem Cueing-Kontext-Kasten 194 und die LiDAR-Abtastkarte und erzeugt die Ausgangsparameter x, y, vx, vy, und ξ für jedes detektierte Objekt. Ein Anwendungsblock 200 verwendet die geschätzten Parameter der Objekte und implementiert aktive Fahrzeugsicherheitsanwendungen, beispielsweise eine adaptive Fahrzeugkontrolle, ein Kollisionsvermeidungssystem etc. 14 is a block diagram with a general overview of a proposed merging system 190 , wherein the target O = (o 1 , o 2 ,.
Figure 00410001
) from the radar sensor 170 and / or the image system 174 in the box 192 to a cueing context block 194 is sent. As discussed above, the LiDAR sample cluster maps are in block 196 to a LiDAR tracking algorithm block 198 provided. The tracking algorithm receives the cueing context target data from the block 194 and the target data is matched with the stored object model, where the value n o is the number of targets detected. Every goal o = (x '' / i, y '' / i, v '' / i, w '' / i) has the parameters of a longitudinal displacement (x ''), a lateral displacement (y ''), a radial velocity (ν '') and a lateral velocity (w ''). The LiDAR sampling rate
Figure 00420001
with each sample point s k includes a longitudinal offset x and a lateral offset y i , where N is the number of sample points. The tracking algorithm monitors the Input from the cueing context box 194 and the LiDAR scan map and generates the output parameters x, y, v x , v y , and ξ for each detected object. An application block 200 uses the estimated parameters of the objects and implements active vehicle safety applications, such as an adaptive vehicle control, a collision avoidance system, etc.

15 ist ein Flussdiagramm 204, das ähnlich zu dem Flussdiagramm 80, das oben diskutiert wurde, ist, wobei dieselben Operationen mit den gleichen Bezugszeichen versehen sind. Das Flussdiagramm 204 beinhaltet den Kasten 206, der die Zieldaten von dem Radarsensor 170 oder dem Bildsystem 174 einliest. Danach registriert der Algorithmus die Zieldaten zu den LiDAR-Koordinatenrahmen im Kasten 208. Um dies zu erreichen soll yo die Parameter (Translation und Rotation) der starren Transformation T sein, die ein Ziel von dem Radarsensor 170 oder dem Bildsystem 174 auf den LiDAR-Koordinatenrahmen abbildet, so dass die abgebildeten Ziele in dem LiDAR-Rahmen sind:

Figure 00420002
15 is a flowchart 204 similar to the flowchart 80 discussed above, with the same operations provided with the same reference numerals. The flowchart 204 includes the box 206 , which is the target data from the radar sensor 170 or the image system 174 reads. Thereafter, the algorithm registers the target data to the LiDAR coordinate frames in the box 208 , To achieve this, y o should be the parameters (translation and rotation) of the rigid transformation T that is a target of the radar sensor 170 or the image system 174 maps to the LiDAR coordinate frame so that the mapped targets are in the LiDAR frame:
Figure 00420002

Die Registierparameter yo können automatisch durch gematchte Paare zwischen den verfolgten LiDAR-Objekten und Zielen von dem Radarsensor 170 oder dem Bildsystem 174 geschätzt werden. Die US 7,991,550 mit dem Titel ”Verfahren und Vorrichtung für eine auf dem Fahrzeug befindliche Kalibrierung und Orientierung von Objektverfolgungssystemen”, erteilt am 7. August 2011 und eingetragen auf den Anmelder dieser Patentanmeldung und hiermit inkorporiert durch Bezugnahme, offenbart eine für diesen Zweck geeignete Technik.The registration parameters y o can be automatically determined by matched pairs between the tracked LiDAR objects and targets from the radar sensor 170 or the image system 174 to be appreciated. The US 7,991,550 entitled "Method and Apparatus for On-Vehicle Calibration and Orientation of Object Tracking Systems" issued Aug. 7, 2011 and assigned to the assignee of this patent application and incorporated herein by reference, discloses a technique suitable for this purpose.

Danach matcht der Algorithmus die Zieldaten von dem Radarsensor 170 oder dem Bildsystem 174 auf die Objektmodelle M im Kasten 210. Dieses Verfahren ist in der 16 als Bild 230 mit einem Trägerfahrzeug 232 gezeigt, wobei Punkte 234 Objektmodellpunkte sind, Dreiecke 236 Radarziele und Rauten 238 virtuelle Abtastpunkte sind, die aus den Bilddaten von dem Bildsystem 174 abgeleitet sind. Ein Radarziel or wird durch einen Punkt modelliert, der durch die Dreiecke 236 dargestellt ist. Ein Bildziel Oν wird als Rechteck modelliert, welches durch eine Liste von aufgenommenen Punkten auf der Kante des Rechtecks mit ”virtuellen” Abtastlinien, die von dem Trägerfahrzeug 232 ausgehen, dargestellt sind. Der Wert Oν = {ol|l = 1, ...., 6} wird als die Rauten 238 gezeigt. Die Menge von Objektmodellen

Figure 00430001
und Abtastpunkten von allen Objektmodellen
Figure 00430002
sind definiert. Dabei bezeichnet
Figure 00430003
alle Zielpunkte, entweder Dreiecke oder Rauten, von dem Radarsensor 170 oder dem Bildsystem 174.Thereafter, the algorithm matches the target data from the radar sensor 170 or the image system 174 on the object models M in the box 210 , This procedure is in the 16 as a picture 230 with a carrier vehicle 232 shown, where points 234 Object model points are triangles 236 Radar targets and diamonds 238 virtual samples are taken from the image data from the image system 174 are derived. A radar target o r is modeled by a point represented by the triangles 236 is shown. An image target O ν is modeled as a rectangle, represented by a list of recorded points on the edge of the rectangle with "virtual" scan lines drawn from the host vehicle 232 go out, are shown. The value O ν = {o l | l = 1, ...., 6} is called the diamonds 238 shown. The set of object models
Figure 00430001
and sample points of all object models
Figure 00430002
are defined. This designates
Figure 00430003
all target points, either triangles or diamonds, from the radar sensor 170 or the image system 174 ,

Das oben diskutierte Verfahren wird dazu verwendet, um einen beschnittenen bipartiten Graphen 240 aus der 17 zu konstruieren. Der Graph 240 zeigt die Objektbewegung 242 in den Knoten 246 und den Objektmodellen 244 in den Knoten 248, wobei o1 ↔ M ~1, o2 ↔ M ~2, o3 ein Kandidat zum Erzeugen eines neuen Objekts ist, und das vorhergesagte Objektmodell M ~3 als verschwindend gekennzeichnet ist, das aus dem Objekt-File entfernt werden kann.The method discussed above is used to construct a truncated bipartite graph 240 from the 17 to construct. The graph 240 shows the object movement 242 in the knot 246 and the object models 244 in the knot 248 , where o 1 ↔ M ~ 1 , o 2 ↔ M ~ 2 , o 3 is a candidate for creating a new object, and the predicted object model M ~ 3 is marked as disappearing, which can be removed from the object file.

Unter Verwendung der projizierten Verfolgungsobjektmodelle M ~ aus dem Kasten 90 und der gematchten Cluster mit projizierten Objektmodellen M ~ aus dem Kasten 88 und den gematchten Zieldaten mit den Objektmodellen aus dem Kasten 210 stellt der Algorithmus das Zusammenlegen und Aufspalten von Objektmodellen M im Kasten 212 bereit. Zwei Fälle werden betrachtet, nämlich Bildziele und Radarziele. 18 zeigt einen bipartiten Graphen 250 für den Fall, wo zwei vorhergesagte Objektmodelle M ~1 und M ~2 auf das Bildziel O1 gematcht werden. Diese Cueing-Information aus dem Bildsystem 74 veranschaulicht, dass die zwei Objektmodelle M ~1 und M ~2 zu einem neuen Objektmodell M ~1-2 zusammengefasst werden müssen.Using the projected tracking object models M ~ out of the box 90 and the matched cluster with projected object models M ~ out of the box 88 and the matched target data with the object models from the box 210 the algorithm makes the merging and splitting of object models M in the box 212 ready. Two cases are considered, namely image targets and radar targets. 18 shows a bipartite graph 250 in the case where two predicted object models M ~ 1 and M ~ 2 are matched to the image target O 1 . This cueing information from the image system 74 illustrates that the two object models M ~ 1 and M ~ 2 must be combined into a new object model M ~ 1-2 .

19 ist ein induzierter bipartiter Graph 252, der das Zusammenfassen von den Objektmodellen M ~1 und M ~2 in den Knoten 256 von dem Bildziel O1 im Knoten 254 in das einzelne Objektmodell M ~1-2 zeigt. 19 is an induced bipartite graph 252 that summarizes the object models M ~ 1 and M ~ 2 in the node 256 from the image target O 1 in the node 254 into the single object model M ~ 1-2 .

20 ist ein bipartiter Graph 260, der einen weiteren Fall zeigt, wobei ein Objektmodell M ~1 zwei Bildziele O1 und O2 matcht. Die Cueing-Information aus dem Bildsystem 174 verdeutlicht, dass das Objektmodell M ~1 in zwei separate Objektmodelle M ~1a und M ~1b aufgespaltet werden muss. 20 is a bipartite graph 260 showing another case wherein an object model M ~ 1 matches two image targets O 1 and O 2 . The cueing information from the image system 174 illustrates that the object model M ~ 1 has to be split into two separate object models M ~ 1a and M ~ 1b .

21 ist ein induzierter bipartiter Graph 262, der das Aufspalten des Objektmodells M ~1 im Knoten 264 zeigt, welcher von den zwei Bildzielen O1 und O2, die in den Knoten 266 und 268 dargestellt sind, detektiert werden, in die Objektmodelle M ~1a und M ~1b, die durch die Knoten 270 und 272 jeweils dargestellt sind. 21 is an induced bipartite graph 262 that splits the object model M ~ 1 in the node 264 shows which of the two image targets O 1 and O 2 that are in the node 266 and 268 are detected in the object models M ~ 1a and M ~ 1b passing through the nodes 270 and 272 are each shown.

22 ist ein bipartiter Graph 270, der einen Fall zeigt, wo die Punktmenge R für zwei Objektmodelle M ~1 und M ~2 mit drei Radarzielen o1, o2 und o3 gematcht werden. 22 is a bipartite graph 270 showing a case where the point set R for two object models M ~ 1 and M ~ 2 are matched with three radar targets o 1 , o 2 and o 3 .

23 ist ein induzierter bipartiter Graph 276, der die Zuordnungen o1 → M ~1, o2 → M ~2 und o3 → M ~2 zeigt. Insbesondere zeigt der Graph 276, dass das Radarziel im Knoten 278 auf das Objektmodell M ~1 im Knoten 280 und die Radarziele o2 und o3 in den Knoten 282 und 284 gematcht werden, welche als in ein einzelnes Objektmodell M ~2 im Knoten 286 zusammengefasst gezeigt sind. 23 is an induced bipartite graph 276 showing the maps o 1 → M ~ 1 , o 2 → M ~ 2 and o 3 → M ~ 2 . In particular, the graph shows 276 that the radar target in the node 278 on the object model M ~ 1 in the node 280 and the radar targets o 2 and o 3 in the nodes 282 and 284 which are considered to be in a single object model M ~ 2 in the node 286 are shown summarized.

Danach erzeugt der Algorithmus neue Objekte und entfernt verschwindende Objekte im Kasten 214. Ähnlich zu den oben diskutierten Verfahren für das Flussdiagramm 80 müssen zwei spezielle Fälle behandelt werden, um neue Objekte zu erzeugen und verschwindende Objekte aus dem Objekt-File zu entfernen. Für jedes nicht gematchte Abtastcluster S aus einem LiDAR-Segment und jedes nicht gematchte Ziel von dem Radarsensor 170 oder dem Bildsystem 174 wird ein Verfolgungsinitialisierungsverfahren verwendet, um ein neues Objekt zu dem Objekt-File hinzuzufügen. Für ein Objekt in dem Objekt-File wird das Objekt als verschwindend gekennzeichnet, wenn es kein Match entweder zu einem segmentierten Cluster S von dem LiDAR-Sensor 166 oder zu einem Ziel von Radarsensor 170 oder dem Bildsystem 174 gibt. Wenn das Objekt konsistent in verschiedenen aufeinanderfolgenden Zeitschritten als verschwindend gekennzeichnet wird, wird es dann aus dem Objekt-File entfernt.Then the algorithm creates new objects and removes vanishing objects in the box 214 , Similar to the methods discussed above for the flowchart 80 Two special cases need to be handled to create new objects and remove vanishing objects from the object file. For each unmatched sample cluster S of a LiDAR segment and each unmatched target from the radar sensor 170 or the image system 174 For example, a trace initialization method is used to add a new object to the object file. For an object in the object file, the object is marked as vanishing if there is no match either to a segmented cluster S from the LiDAR sensor 166 or to a target of radar sensor 170 or the image system 174 gives. If the object is consistently marked as disappearing in different consecutive time steps, it is then removed from the object file.

Danach stellt der Algorithmus ein Verfolgen und Modellaktualisieren im Kasten 216 bereit. Um dies zu erreichen, werden oo, ..., ot, und ot+1 die abgebildeten Messungen in dem Li-DAR-Koordinatenrahmen eines dynamischen Objekts durch den Radarsensor 170 oder das Bildsystem 174 in den Zeitschritten O, t und t + 1 jeweils sein. Durch

Figure 00460001
wird die Messung von dem Zeitschritt O bis zu dem Zeitschritt t bezeichnet.After that, the algorithm sets a trace and model update in the box 216 ready. To achieve this, o o , ..., o t , and o t + 1 become the mapped measurements in the Li-DAR coordinate frame of a dynamic object by the radar sensor 170 or the image system 174 in each of the time steps O, t and t + 1. By
Figure 00460001
the measurement is called from the time step O to the time step t.

24 veranschaulicht ein überarbeitetes dynamisches Bayes-Netzwerk 290 aus der 8, welches zwei Zeitschritte für den vorgeschlagenen Verfolgungsalgorithmus mit Cueing-Information darstellt. Die Werte yt und yt+1 sind Parameter, die für die Transformation bei den Zeitschritten t und t + 1 jeweils geschätzt werden müssen. Die Modelle Mt und Mt+1 sind die Objektmodelle in den Zeitschritten t und t + 1. In dem Netzwerk 290, sind die Knoten 292 die Zieldaten ot und ot+1 zu den Zeitschritten t und t + 1, die Knoten 294 sind die Transformationsparameter y zu den Zeitschritten t und t + 1, die Knoten 296 sind die Objektmodelle M zu den Zeitschritten t und t + 1 und die Knoten 298 sind die Abtastkarten zu den Zeitschritten t und t + 1. 24 illustrates a revised dynamic Bayesian network 290 from the 8th which represents two time steps for the proposed tracking algorithm with cueing information. The values y t and y t + 1 are parameters that must be estimated for the transformation in the time steps t and t + 1, respectively. The models M t and M t + 1 are the object models in the time steps t and t + 1. In the network 290 , are the knots 292 the target data o t and o t + 1 at the time steps t and t + 1, the nodes 294 are the transformation parameters y at the time steps t and t + 1, the nodes 296 are the object models M at the time steps t and t + 1 and the nodes 298 are the scancards at time steps t and t + 1.

Ähnlich zu der Gleichung (47) werden Bayes- und Kettenregeln jeweils dazu verwendet, um die nachfolgende PDF-gegebenen LiDAR-Abtastkarten und Zieldaten von dem Radar-Sensor 170 oder dem Bildsystem 174 bis zu dem Zeitschritt t + 1 abzuleiten: p(y, M|S(0:t+1), o(0:t+1)) ∝ p(S|y, M)p(o|y, M)p(y, M|S(0:t), o(0:t)) = p(S|y, M)p(o|y)p(y,|S(0:t), o(0:t))p(M|S(0:t), o(0:t)), (74) wobei y und M yt+1 sind und M abgekürzt S(0:t+1), Abtastkarten bis zu dem Zeitschritt t + 1 darstellt, S die Abtastkarte bei t + 1, o = ot+1 ist, das gemessene Ziel im Zeitschritt t + 1 zusammengefasst ist und die letzte Gleichung unter der Annahme konditionaler Unabhängigkeit bei gegebenen S(0:t) und o(0:t) folgt.Similar to Equation (47), Bayesian and Chain rules are each used to approximate the following PDF given LiDAR scancards and target data from the radar sensor 170 or the image system 174 derive up to the time step t + 1: p (y, M | S (0: t + 1) , o (0: t + 1) ) α p (S | y, M) p (o | y, M) p (y, M | S (0 : t) , o (0: t) ) = p (S | y, M) p (o | y) p (y, | S (0: t) , o (0: t) ) p (M | S (0: t) , o (0: t) ), (74) where y and M y are t + 1 and M is abbreviated S (0: t + 1) , scanning boards up to the time step t + 1, S is the scan map at t + 1, o = o t + 1 , the measured target is summarized in the time step t + 1 and the last equation follows assuming conditional independence given S (0: t) and o (0: t) .

In Gleichung (74) ist p(y, M|S(0:t), o(0:t)) die vorhergegangene PDF von y zum Zeitschritt t + 1 bei gegebenen vorhergehenden Abtastkarten S(0:t) und Zieldaten o(0:t), welche berechnet werden können als: p(y|S(0:t), o(0:t)) = ∫p(y|yt)p(yt|S(0:t), o(0:t))dyt, (75) wobei p(yt|S(0:t), o(0:t))) die darauffolgende PDF für den Transformationsparameter bei t, und p(y|yt) bezeichnet und einen Ausdruck für die Fortpflanzungsmodellgleichung (49) darstellt.In Equation (74), p (y, M | S (0: t) , o (0: t) ) is the previous PDF of y at time step t + 1 for given preceding scan maps S (0: t) and target data o ( 0: t) , which can be calculated as: p (y | S (0: t) , o (0: t) ) = ∫ p (y | y t ) p (y t | S (0: t) , o (0: t) ) dy t , ( 75) where p (y t | S (0: t) , o (0: t) )) denotes the subsequent PDF for the transformation parameter at t, and p (y | y t ) and represents an expression for the propagation model equation (49).

Wenn p(yt|S(0:t)), o(0:t))) als eine Dirac-Delta-Verteilung zentriert um y t angenommen wird, kann die vorhergehende PDF im Zeitschritt t + 1 geschrieben werden als:

Figure 00470001
wobei ỹ der vorhergesagte Wert für das folgende Fortpflanzungsmodell des Objekts ỹ = f(y t) ist.When p (y t | S (0: t) ), o (0: t) )) centers as a Dirac delta distribution y t is assumed, the previous PDF can be written in time step t + 1 as:
Figure 00470001
where ỹ is the predicted value for the following propagation model of the object ỹ = f ( y t ) is.

Im Folgenden wird das darauffolgende Objektmodell M angenommen als:

Figure 00480001
und wobei
Figure 00480002
definiert ist in Gleichung (51). Wie aus der 24 zu sehen ist, kann das vorhergehende Netzwerk für das Objektmodell im Zeitschritt t geschrieben werden als:
Figure 00480003
In the following, the following object model M is assumed as:
Figure 00480001
and where
Figure 00480002
is defined in equation (51). Like from the 24 can be seen, the previous network for the object model can be written in time step t as:
Figure 00480003

Nun wird das Problem für das Schätzen des Folgenden im Zeitschritt t + 1 betrachtet, welches zerlegt werden kann als: p(y, M|S(0:t+1), o(0:t+1)) = p(y|S(0:t+1), o(0:t+1))p(M|S(0:t+1), o(0:t+1)) (79) und unabhängig als die folgenden zwei Schritte berechnet wird.Now consider the problem for estimating the following in time step t + 1, which can be decomposed as: p (y, M | S (0: t + 1) , o (0: t + 1) ) = p (y | S (0: t + 1) , o (0: t + 1) ) p (M | S (0: t + 1) , o (0: t + 1) ) (79) and independently calculated as the following two steps.

Es wird angenommen, dass p(y|S(0:t+1), o(0:t+1)) die Dirac-Delta PDF zentriert ist um y t+1,, welche durch Maximieren der Gleichung (74) im Hinblick auf y geschätzt werden kann.It is assumed that p (y | S (0: t + 1) , o (0: t + 1) ) the Dirac-Delta PDF is centered at y t + 1,, which can be estimated by maximizing equation (74) with respect to y.

Das Messmodell der Zieldaten p(o|y) wird modelliert als: o = h(y) + ν, (80) wobei v eine Gauß-Zufallsvariable mit Mittelwert Null mit der Covarianzmatrix E ist. Demzufolge ist p(o|y) ein Gauß-PDF, d. h.:The measurement model of the target data p (o | y) is modeled as: o = h (y) + ν, (80) where v is a zero mean Gaussian random variable with the covariance matrix E. As a result, p (o | y) is a Gaussian PDF, ie:

Figure 00490001
Figure 00490001

Bei Einsetzen der Gleichungen (76) und (81) in die Gleichung (74) und Anwenden eines negativen Logarithmus auf die Gleichung (74) und Vernachlässigen irrelevanter Terme bei y wird das Folgende erhalten: y t+1 = argminy – ΣkjakjlogKσ(T –1 / y(sk) – mj) + ||o – h(y)|| 2 / E + ||y - ỹ|| 2 / Q, (82) wobei

Figure 00490002
ist.Substituting equations (76) and (81) into equation (74) and applying a negative logarithm to equation (74) and neglecting irrelevant terms at y, the following is obtained: y t + 1 = argmin y - Σ kj a kj logK σ (T -1 / y (s k ) - m j ) + || o - h (y) || 2 / E + || y - ỹ || 2 / Q, (82) in which
Figure 00490002
is.

Demzufolge kann die Gleichung (38) im Algorithmus 1 durch die Gleichung (55) für das Integrieren vorhergegangener Information aus vorherigen Zeitschritten und für das Cueing von Information vom Radarsensor 170 oder dem Bildsystem 174 ersetzt werden, und darauffolgendes Anwenden des Algorithmus 1, um y t+1 abzuleiten.Thus, equation (38) in algorithm 1 can be given by equation (55) for integrating previous information from previous time steps and for cueing information from the radar sensor 170 or the image system 174 and then applying Algorithm 1 to y t + 1 derive.

Beim Berechnen von p(M|S(o:t+1), 0(0:t+1)) wird angemerkt, dass die Gleichung (78) und die Gleichung (53) äquivalent sind und demzufolge die gleichen Aktualisierungsregeln für die oben beschriebenen Hyperparameter angewandt werden.When calculating p (M | S (o: t + 1) , 0 (0: t + 1) ), it is noted that Equation (78) and Equation (53) are equivalent and therefore the same update rules for the above described hyperparameters are applied.

Das Objekt-File 78 wird dann in dem Kasten 98 in der oben diskutierten Art und Weise aktualisiert.The object file 78 will then be in the box 98 updated in the manner discussed above.

Wie von Fachleuten gut verstanden wird, können verschiedene oder einige Schritte und Verfahren, die hier erörtert wurden, um die Erfindung zu beschreiben, von einem Computer, einem Prozessor oder einer anderen elektronischen Recheneinheit ausgeführt werden, die mit Hilfe elektrischer Phänomene Daten manipuliert und/oder transformiert. Diese Computer und elektrischen Geräte können verschiedene flüchtige und/oder nicht flüchtige Speicher inklusive einem festen computerlesbaren Medium mit einem darauf befindlichen ausführbaren Programm beinhalten, das verschiedene Codes oder ausführbare Instruktionen beinhaltet, die von dem Computer oder Prozessor ausgeführt werden, wobei der Speicher und/oder das computerlesbare Medium alle Formen und Arten von einem Speicher und anderen computerlesbaren Medien beinhalten kann. As will be well understood by those skilled in the art, various or some of the steps and methods discussed herein to describe the invention may be performed by a computer, processor, or other electronic processing unit that manipulates and / or manipulates data using electrical phenomena transformed. These computers and electrical devices may include various volatile and / or nonvolatile memories including a fixed computer readable medium having an executable program thereon containing various codes or executable instructions executed by the computer or processor, the memory and / or the computer readable medium may include all forms and types of memory and other computer readable media.

Die vorhergehende Diskussion zeigt und beschreibt rein exemplarische Ausführungsbeispiele der vorliegenden Erfindung. Ein Fachmann kann leicht aus der Diskussion an den beigefügten Figuren und Patentansprüchen erkennen, dass zahlreiche Änderungen, Modifikationen und Variationen gemacht werden können, ohne dabei den Geist und den Bereich der Erfindung zu verlassen, wie er mit den folgenden Patentansprüchen definiert ist.The foregoing discussion shows and describes purely exemplary embodiments of the present invention. One skilled in the art will readily recognize from the discussion of the attached figures and claims that numerous changes, modifications and variations can be made therein without departing from the spirit and scope of the invention as defined by the following claims.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • US 7991550 [0118] US 7991550 [0118]

Claims (10)

Ein Verfahren zum Zusammenfassen von Sensorsignalen von zumindest zwei LiDAR-Sensoren, die überlappende Sichtfelder aufweisen, um Objekte, die von diesen Sensoren detektiert werden, zu verfolgen, wobei das Verfahren umfasst: – Definieren eines Transformationswertes für zumindest einen der LiDAR-Sensoren, der einen Orientierungswinkel und eine Position des Sensors identifiziert; – Bereitstellen von Zielabtastpunkten von den Objekten, die von den Sensoren detektiert werden, wobei die Zielabtastpunkte für jeden Sensor eine separate Zielabtastkarte bereitstellt; – Projizieren der Zielabtastkarte von dem zumindest einen Sensor zu dem anderen der LiDAR-Sensoren unter Verwendung eines gegenwärtigen Transformationswerts, um die Zielabtastpunkte von den Sensoren zu überlappen; – Bestimmen einer Vielzahl von den Gewichtungswerten unter Verwendung des gegenwärtigen Transformationswerts, wobei jeder Gewichtungswert eine Positionsänderung von einem der Abtastpunkte für den zumindest einen Sensor zu einem Ort eines Abtastpunktes für den anderen von den Sensoren identifiziert; – Berechnen eines neuen Transformationswerts unter Verwendung der Gewichtungswerte; – Vergleichen des neuen Transformationswerts mit dem gegenwärtigen Transformationswert, um eine Differenz aus beiden zu bestimmen; und – Überarbeiten der Vielzahl von Gewichtungswerten basierend auf der Differenz zwischen dem neuen Transformationswert und dem gegenwärtigen Transformationswert bis der neue Transformationswert mit dem gegenwärtigen Transformationswert übereinstimmt.A method for combining sensor signals from at least two LiDAR sensors having overlapping fields of view to track objects detected by these sensors, the method comprising: - defining a transformation value for at least one of the LiDAR sensors that identifies an orientation angle and a position of the sensor; Providing target scan points from the objects detected by the sensors, the target scan points providing a separate target scan map for each sensor; Projecting the target scan map from the at least one sensor to the other of the LiDAR sensors using a current transform value to overlap the target scan points from the sensors; Determining a plurality of the weighting values using the current transform value, each weighting value identifying a position change from one of the sampling points for the at least one sensor to a location of a sampling point for the other of the sensors; Calculating a new transformation value using the weighting values; Comparing the new transformation value with the current transformation value to determine a difference between the two; and - revising the plurality of weight values based on the difference between the new transformation value and the current transformation value until the new transformation value matches the current transformation value. Verfahren nach Anspruch 1, wobei die LiDAR-Sensoren auf einem Fahrzeug sind.The method of claim 1, wherein the LiDAR sensors are on a vehicle. Verfahren nach Anspruch 1, des Weiteren umfassend das Auswählen eines Anfangstransformationswerts für den zumindest einen der Sensoren, der am Anfang als der gegenwärtige Transformationswert verwendet wird.The method of claim 1, further comprising selecting an initial transformation value for the at least one of the sensors initially used as the current transformation value. Verfahren nach Anspruch 3, wobei das Auswählen eines Anfangstransformationswerts das Auswählen eines Anfangstransformationswerts aus der Gruppe bestehend aus einer Hersteller-Voreinstellung, Null und einem geschätzten Wert beinhaltet.The method of claim 3, wherein selecting an initial transformation value includes selecting an initial transformation value from the group consisting of a manufacturer default, zero, and an estimated value. Verfahren nach Anspruch 1, wobei das Bestimmen einer Vielzahl von Gewichtungswerten das Verwenden der Gleichung
Figure 00520001
beinhaltet, wobei ajk der Gewichtungswert für einen bestimmten Abtastpunkt ist, Sj die Abtastpunkte von dem zumindest einen der LiDAR-Sensoren sind, mk die Abtastpunkte von dem anderen der LiDAR-Sensoren sind, T der Transformationswert und K eine Kernel-Funktion ist, die definiert ist als
Figure 00520002
Figure 00520003
wobei σ eine Varianz ist.
The method of claim 1, wherein determining a plurality of weighting values comprises using the equation
Figure 00520001
where a jk is the weighting value for a given sampling point, S j are the sampling points of the at least one of the LiDAR sensors, m k are the sampling points of the other of the LiDAR sensors, T is the transform value, and K is a kernel function which is defined as
Figure 00520002
Figure 00520003
where σ is a variance.
Verfahren nach Anspruch 1, des Weiteren umfassend das Bestimmen, dass der gegenwärtige Transformationswert größer als ein vorbestimmter Schwellenwert ist, wobei falls der gegenwärtige Transformationswert größer als der vorbestimmte Schwellenwert ist, dann der Transformationswert basierend auf einer Rotationsmatrix und einem Translationsvektor definiert wird.The method of claim 1, further comprising determining that the current transformation value is greater than a predetermined threshold, and if the current transformation value is greater than the predetermined threshold, then defining the transformation value based on a rotation matrix and a translation vector. Verfahren nach Anspruch 6, wobei das Definieren eines Transformationswertes das Verwenden eines Partikelschwarmoptimierungsverfahrens beinhaltet, welches das Erzeugen einer Vielzahl von Partikeln über eine vorbestimmte Anzahl von auswählbaren Transformationswerten, das Assoziieren eines normierten Gewichts zu jedem Partikel, das Setzen eines besten Transformationswertes für jeden Partikel und das Bereitstellen eines nominalen Transformationswerts mit einem besten Übereinstimmungsprozentsatz von dem zumindest einen der LiDAR-Sensoren auf den anderen der beiden LiDAR-Sensoren beinhaltet.The method of claim 6, wherein defining a transformation value includes using a particle swarm optimization method comprising generating a plurality of particles over a predetermined number of selectable transformation values, associating a normalized weight to each particle, setting a best transformation value for each particle, and Providing a nominal transformation value having a best match percentage, which includes at least one of the LiDAR sensors on the other of the two LiDAR sensors. Verfahren nach Anspruch 1, des Weiteren umfassend das Bestimmen, dass eine Änderung in dem Transformationswert von einer Abtastzeit zu einer nächsten Abtastzeit unter einem vorbestimmten Schwellenwert ist, und wenn dies der Fall ist, das Reduzieren der Rechenkomplexität für das Bestimmen des gegenwärtigen Transformationswerts.The method of claim 1, further comprising determining that a change in the transformation value from a sample time to a next sample time is below a predetermined threshold, and if so reducing the computational complexity for determining the current transformation value. Verfahren nach Anspruch 8, wobei das Bestimmen, ob der gegenwärtige Transformationswert unterhalb eines vorbestimmten Schwellenwertes ist, dass Modellieren des gegenwärtigen Transformationswerts als Transformationen zwischen den Abtastpunkten beinhaltet.The method of claim 8, wherein determining whether the current transformation value is below a predetermined threshold includes modeling the current transformation value as transformations between the sample points. Verfahren nach Anspruch 1, wobei das Definieren eines Transformationswertes das Verwenden eines Erwartungsmaximierungsalgorithmus umfasst.The method of claim 1, wherein defining a transformation value comprises using an expectation maximization algorithm.
DE201310102153 2012-03-15 2013-03-05 Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided Pending DE102013102153A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261611465P 2012-03-15 2012-03-15
US61/611,465 2012-03-15
US13/777,469 2013-02-26
US13/777,469 US9329269B2 (en) 2012-03-15 2013-02-26 Method for registration of range images from multiple LiDARS

Publications (1)

Publication Number Publication Date
DE102013102153A1 true DE102013102153A1 (en) 2013-09-19

Family

ID=49044100

Family Applications (1)

Application Number Title Priority Date Filing Date
DE201310102153 Pending DE102013102153A1 (en) 2012-03-15 2013-03-05 Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided

Country Status (2)

Country Link
CN (1) CN103308923B (en)
DE (1) DE102013102153A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015205087A1 (en) * 2015-03-20 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Method for determining the misalignment of a driver assistance sensor
WO2018069405A1 (en) * 2016-10-14 2018-04-19 Audi Ag Motor vehicle and method for a 360° detection of the surroundings
EP3422050A1 (en) * 2017-06-30 2019-01-02 Aptiv Technologies Limited Lidar sensor alignment system
DE102018201154A1 (en) * 2018-01-25 2019-07-25 HELLA GmbH & Co. KGaA Method for calibrating sensors and / or sensor arrangements
CN117485595A (en) * 2023-11-21 2024-02-02 北京易动宇航科技有限公司 Energy management method for electric propulsion system

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9255988B2 (en) * 2014-01-16 2016-02-09 GM Global Technology Operations LLC Object fusion system of multiple radar imaging sensors
EP3164860A4 (en) * 2014-07-03 2018-01-17 GM Global Technology Operations LLC Vehicle cognitive radar methods and systems
CN104713560B (en) * 2015-03-31 2017-10-20 西安交通大学 Multi-source distance measuring sensor spatial registration method based on expectation maximization
CN105549586B (en) * 2015-06-17 2018-06-19 电子科技大学 Shuttlecock robotic tracking people control method for movement and system
US9983301B2 (en) * 2015-10-02 2018-05-29 Delphi Technologies, Inc. Automated vehicle radar system to determine yaw-rate of a target vehicle
CN108474854B (en) * 2015-10-06 2022-06-14 日本先锋公司 Information processing apparatus, information processing method, and program
CN105828029A (en) * 2016-03-11 2016-08-03 乐卡汽车智能科技(北京)有限公司 Vehicle collision monitoring system, method and apparatus
CN108120447B (en) * 2016-11-28 2021-08-31 沈阳新松机器人自动化股份有限公司 Multi-laser equipment data fusion method
CN106934347B (en) * 2017-02-10 2021-03-19 百度在线网络技术(北京)有限公司 Obstacle identification method and device, computer equipment and readable medium
CN106919908B (en) * 2017-02-10 2020-07-28 百度在线网络技术(北京)有限公司 Obstacle identification method and device, computer equipment and readable medium
US10509120B2 (en) * 2017-02-16 2019-12-17 GM Global Technology Operations LLC Lidar-radar relative pose calibration
WO2018195996A1 (en) * 2017-04-28 2018-11-01 SZ DJI Technology Co., Ltd. Multi-object tracking based on lidar point cloud
CN109991019B (en) * 2017-08-11 2021-02-23 西华大学 Automobile visual field checking method
CN111492403A (en) * 2017-10-19 2020-08-04 迪普迈普有限公司 Lidar to camera calibration for generating high definition maps
CN109765569B (en) * 2017-11-09 2022-05-17 电子科技大学中山学院 Method for realizing virtual dead reckoning sensor based on laser radar
CN108062600B (en) * 2017-12-18 2021-06-18 北京星云互联科技有限公司 Vehicle collision early warning method and device based on rectangular modeling
EP3517996B1 (en) * 2018-01-25 2022-09-07 Aptiv Technologies Limited Method for determining the position of a vehicle
CN108333562A (en) * 2018-01-30 2018-07-27 西安电子科技大学 A kind of dimensionality reduction method for registering images that landform altitude is adaptive
US10529089B2 (en) * 2018-02-23 2020-01-07 GM Global Technology Operations LLC Crowd-sensed point cloud map
JP2019159380A (en) * 2018-03-07 2019-09-19 株式会社デンソー Object detection device, object detection method, and program
CN108445468B (en) * 2018-04-03 2019-11-05 上海禾赛光电科技有限公司 A kind of distribution type laser radar
EP3572841B1 (en) * 2018-05-23 2024-02-14 Aptiv Technologies Limited Method of modelling a scanning distance sensor for prototyping parameters of such sensor and/or for prototyping software processing the output of such sensor
CN108710367B (en) * 2018-05-23 2022-02-11 广州视源电子科技股份有限公司 Laser data identification method and device, robot and storage medium
JP7091963B2 (en) * 2018-09-14 2022-06-28 オムロン株式会社 Object detection sensor and object detection system
US10984540B2 (en) * 2018-10-15 2021-04-20 Tusimple, Inc. Tracking and modeling processing of image data for LiDAR-based vehicle tracking system and method
CN210212200U (en) * 2019-01-03 2020-03-31 华域视觉科技(上海)有限公司 Three-dimensional detection lighting system and car
CN110027018B (en) * 2019-04-28 2020-12-01 森思泰克河北科技有限公司 Omnidirectional detection system and method
CN114063076A (en) * 2020-07-30 2022-02-18 华为技术有限公司 Imaging method, imaging apparatus, radar system, electronic device, and storage medium
CN111983633B (en) * 2020-08-26 2023-12-05 中国科学院半导体研究所 Multi-line three-dimensional radar for railway monitoring and scanning method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3750512B2 (en) * 2000-10-12 2006-03-01 日産自動車株式会社 Vehicle obstacle detection device
US7460951B2 (en) * 2005-09-26 2008-12-02 Gm Global Technology Operations, Inc. System and method of target tracking using sensor fusion
US20070182623A1 (en) * 2006-02-03 2007-08-09 Shuqing Zeng Method and apparatus for on-vehicle calibration and orientation of object-tracking systems
CN101393264B (en) * 2008-10-12 2011-07-20 北京大学 Moving target tracking method and system based on multi-laser scanner
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7991550B2 (en) 2006-02-03 2011-08-02 GM Global Technology Operations LLC Method and apparatus for on-vehicle calibration and orientation of object-tracking systems

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015205087A1 (en) * 2015-03-20 2016-09-22 Bayerische Motoren Werke Aktiengesellschaft Method for determining the misalignment of a driver assistance sensor
WO2018069405A1 (en) * 2016-10-14 2018-04-19 Audi Ag Motor vehicle and method for a 360° detection of the surroundings
US11513212B2 (en) 2016-10-14 2022-11-29 Audi Ag Motor vehicle and method for a 360° detection of the motor vehicle surroundings
EP3422050A1 (en) * 2017-06-30 2019-01-02 Aptiv Technologies Limited Lidar sensor alignment system
CN109212508A (en) * 2017-06-30 2019-01-15 安波福技术有限公司 LIDAR sensor is to Barebone
DE102018201154A1 (en) * 2018-01-25 2019-07-25 HELLA GmbH & Co. KGaA Method for calibrating sensors and / or sensor arrangements
CN117485595A (en) * 2023-11-21 2024-02-02 北京易动宇航科技有限公司 Energy management method for electric propulsion system
CN117485595B (en) * 2023-11-21 2024-04-05 北京易动宇航科技有限公司 Energy management method for electric propulsion system

Also Published As

Publication number Publication date
CN103308923A (en) 2013-09-18
CN103308923B (en) 2016-08-10

Similar Documents

Publication Publication Date Title
DE102013102153A1 (en) Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided
DE102013113570A1 (en) Bayes network for tracking objects using search points using multiple LiDAR sensors
DE102013113571A1 (en) Methods and apparatus for merging radar / camera object data and LiDAR search points
DE102015122825B4 (en) Techniques for grouping target elements for object fusion
DE102006057552B4 (en) System and method for measuring the distance of a preceding vehicle
DE102013113619B4 (en) Probabilistic target selection and hazard assessment method and application to an intersection collision warning system
DE102018114042A1 (en) DEVICE, METHOD AND SYSTEM FOR THE MULTIMODAL FUSION PROCESSING OF DATA OF MULTIPLE DIFFERENT FORMATS RECORDED BY HETEROGENIC DEVICES
DE102018205915A1 (en) Monocular localization in urban environments using road markings
DE112018000899T5 (en) Joint 3D object detection and orientation estimation via multimodal fusion
DE102018124108A1 (en) METHOD AND DEVICE FOR DETECTING ROAD LIMITATION
DE102020214283A1 (en) DEVICE FOR DETECTION OF OBSTACLES, VEHICLE SYSTEM WITH THIS AND METHOD FOR IT
DE102011119767A1 (en) APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS
DE112011103690T5 (en) Detection and tracking of moving objects
DE102011100927A1 (en) Object and vehicle detection and tracking using 3-D laser rangefinder
DE102017218366A1 (en) METHOD AND PEDESTRIAN DETECTION APPROACH IN A VEHICLE
DE112016005947B4 (en) Vehicle determination device, vehicle determination method, and vehicle determination program
DE102015115786B4 (en) METHOD AND SYSTEM REALIZED ON A COMPUTER FOR PROCESSING A SEQUENCE OF IMAGES
DE102020105642A1 (en) DESIGN AND PROCESSING WITH ANTENNA ARRAYS TO ELIMINATE MALDETECTIONS IN A RADAR SYSTEM
DE102016212193A1 (en) Device and method for detecting an object on a road
DE102018132805A1 (en) Procedure for improved object detection
DE102016104730A1 (en) Method for detecting an object along a road of a motor vehicle, computing device, driver assistance system and motor vehicle
DE102021114078A1 (en) Detection of three-dimensional structure models at runtime in vehicles
DE102022102934A1 (en) EVENT-BASED VEHICLE POSE ESTIMATION USING MONOCHROMIC IMAGING
DE102015115789B4 (en) METHOD AND SYSTEM REALIZED ON A COMPUTER FOR PROCESSING AN IMAGE
DE102020100230A1 (en) RECONSTRUCTION OF LANDMARK POSITIONS IN AUTONOMOUS MACHINE APPLICATIONS

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: SCHWEIGER, MARTIN, DIPL.-ING. UNIV., DE