DE102021105659A1 - Method, device and radar system for tracking objects - Google Patents
Method, device and radar system for tracking objects Download PDFInfo
- Publication number
- DE102021105659A1 DE102021105659A1 DE102021105659.4A DE102021105659A DE102021105659A1 DE 102021105659 A1 DE102021105659 A1 DE 102021105659A1 DE 102021105659 A DE102021105659 A DE 102021105659A DE 102021105659 A1 DE102021105659 A1 DE 102021105659A1
- Authority
- DE
- Germany
- Prior art keywords
- radar
- tracklets
- tracklet
- detection points
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 93
- 238000001514 detection method Methods 0.000 claims abstract description 133
- 239000013598 vector Substances 0.000 claims description 51
- 238000005259 measurement Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 13
- 230000001133 acceleration Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 6
- 230000001902 propagating effect Effects 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- 230000000052 comparative effect Effects 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 abstract description 12
- 238000013459 approach Methods 0.000 abstract description 4
- 230000006399 behavior Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000012935 Averaging Methods 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000670 limiting effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004378 air conditioning Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 239000010432 diamond Substances 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
Abstract
Detektionspunkte können zunächst über mehrere Radarbilder beobachtet werden. Die beobachteten Detektionspunkte, die die Tracklets bilden, können dazu verwendet werden, eine Segmentierung des aktuellen Radarbildes zu erzeugen, indem die Tracklets mindestens einer Objektspur zugeordnet werden, die mindestens ein Objekt basierend auf mindestens einem Merkmalsparameter darstellt. Die Segmentierung ergibt sich aus der Verfolgung von Detektionspunkten über mehrere Radarbilder (d.h. Nutzung von Tracking-Informationen), die für die Zuordnung von Detektionspunkten zu Objekten verwendet werden (Segmentierung durch Tracking). Es kann ein zweistufiger Tracking-Ansatz implementiert werden, bei dem für ein aktuelles Radarbild (neue) Detektionspunkte Tracklets zugeordnet werden, was als erste Stufe verstanden werden kann, und dann die Tracklets Objektspuren zugeordnet werden, was als zweite Stufe verstanden werden kann.Detection points can initially be observed over several radar images. The observed detection points that form the tracklets can be used to generate a segmentation of the current radar image by associating the tracklets with at least one object track that represents at least one object based on at least one feature parameter. The segmentation results from tracking detection points across multiple radar images (i.e. using tracking information) that is used for assigning detection points to objects (segmentation by tracking). A two-stage tracking approach can be implemented, where for a current radar image (new) detection points are assigned to tracklets, which can be understood as the first stage, and then the tracklets are assigned to object tracks, which can be understood as the second stage.
Description
FELD DER OFFENBARUNGFIELD OF REVELATION
Die vorliegende Offenbarung betrifft allgemein Verfahren, Systeme, Fahrzeuge und Vorrichtungen zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems und insbesondere ein Radarsystem, das dazu ausgestaltet ist, mindestens ein Objekt in seinen Messdaten verfolgt.The present disclosure relates generally to methods, systems, vehicles, and apparatus for tracking at least one object in measurement data from a radar system, and more particularly to a radar system configured to track at least one object in its measurement data.
HINTERGRUNDBACKGROUND
Im Bereich des autonomen oder quasi-autonomen Betriebs von Fahrzeugen wie Flugzeugen, Wasserfahrzeugen oder Landfahrzeugen, insbesondere Automobilen, die bemannt oder unbemannt sein können, kann das Erfassen der Umgebung des Fahrzeugs sowie das Verfolgen von Objekten in der Umgebung des Fahrzeugs als entscheidend für hochentwickelte Funktionalitäten angesehen werden. Diese Funktionalitäten können von Fahrerassistenzsystemen in verschiedenen Autonomiestufen bis hin zum vollständig autonomen Fahren des Fahrzeugs reichen.In the field of autonomous or quasi-autonomous operation of vehicles such as airplanes, watercraft or land vehicles, especially automobiles, which can be manned or unmanned, sensing the vehicle's surroundings and tracking objects in the vehicle's surroundings can be crucial for sophisticated functionalities be considered. These functionalities can range from driver assistance systems with different levels of autonomy to fully autonomous driving of the vehicle.
In bestimmten Umgebungen werden mehrere verschiedene Sensortypen zum Erfassen der Umgebung eines Fahrzeugs verwendet, wie z. B. monoskopische oder stereoskopische Kameras, Light-Detection-and-Ranging-Sensoren (LiDAR) und Radio-Detection-and-Ranging-Sensoren (Radar). Die verschiedenen Sensortypen haben unterschiedliche Eigenschaften, die für unterschiedliche Aufgaben genutzt werden können.In certain environments, several different types of sensors are used to sense a vehicle's surroundings, such as: B. monoscopic or stereoscopic cameras, light detection and ranging sensors (LiDAR) and radio detection and ranging sensors (radar). The different sensor types have different properties that can be used for different tasks.
Ausführungsformen der vorliegenden Offenbarung betreffen Aspekte der Verarbeitung von Messdaten von Radarsystemen, wodurch die rechenintensive Fusion von Daten unterschiedlicher Sensortypen vermieden werden kann.Embodiments of the present disclosure relate to aspects of the processing of measurement data from radar systems, as a result of which the computationally intensive fusion of data from different sensor types can be avoided.
Radarsysteme können Messdaten, insbesondere Entfernungs-, Doppler- und/oder Winkelmessungen (Azimut und/oder Elevation), mit hoher Präzision in einer radialen Richtung liefern. Damit lassen sich sowohl (radiale) Entfernungen als auch (radiale) Geschwindigkeiten in einem Sichtfeld des Radarsystems zwischen verschiedenen Reflexionspunkten und der (jeweiligen) Antenne des Radarsystems genau messen.Radar systems can supply measurement data, in particular distance, Doppler and/or angle measurements (azimuth and/or elevation), with high precision in a radial direction. This allows both (radial) distances and (radial) speeds in a field of view of the radar system between different reflection points and the (respective) antenna of the radar system to be measured precisely.
Grundsätzlich senden (emittieren) Radarsysteme Radarsignale in das Sichtfeld des Radarsystems, wobei die Radarsignale von Objekten, die sich im Sichtfeld des Radarsystems befinden, reflektiert und vom Radarsystem empfangen werden. Die Sendesignale sind beispielsweise frequenzmodulierte Dauerstrichsignale (FMCW). Radiale Entfernungen können unter Ausnutzung der Laufzeit des Radarsignals gemessen werden, wobei Radialgeschwindigkeiten unter Ausnutzung der durch den Dopplereffekt verursachten Frequenzverschiebung gemessen werden.Basically, radar systems transmit (emit) radar signals into the field of view of the radar system, where the radar signals are reflected from objects that are in the field of view of the radar system and are received by the radar system. The transmission signals are, for example, frequency-modulated continuous wave signals (FMCW). Radial distances can be measured using the time it takes the radar signal to travel, while radial velocities can be measured using the frequency shift caused by the Doppler effect.
Durch wiederholtes Senden und Empfangen der Radarsignale können Radarsysteme das Sichtfeld des Radarsystems über die Zeit beobachten, indem sie Messdaten liefern, die mehrere, insbesondere aufeinanderfolgende, Radarbilder (Radarframes) umfassen.By repeatedly sending and receiving the radar signals, radar systems can monitor the field of view of the radar system over time by supplying measurement data that includes a number of, in particular consecutive, radar images (radar frames).
Ein einzelnes Radarbild kann beispielsweise ein Entfernungs-Azimut-Bild (Range-Azimuth-Frame) oder ein Entfernungs-Doppler-Azimut-Bild (Range-Doppler-Azimuth-Frame) sein. Denkbar wäre auch ein Entfernungs-Doppler-Azimut-Elevation-Bild (Range-Doppler-Azimuth-Elevation-Frame), wenn Daten in Elevationsrichtung vorhanden sind.A single radar image can be, for example, a range-azimuth image (range-azimuth frame) or a range-doppler-azimuth image (range-doppler azimuth frame). A range-doppler-azimuth-elevation image (range-doppler-azimuth-elevation frame) would also be conceivable if data is available in the elevation direction.
In jedem der mehreren Radarbilder kann eine Vielzahl von Reflexionspunkten detektiert werden, die Reflexionspunktwolken bilden können. Die Reflexionspunkte bzw. Punktwolken in den Radarbildern enthalten jedoch nicht per se eine semantische Bedeutung. Dementsprechend ist eine semantische Segmentierung der Radarbilder notwendig, um die Szene der Fahrzeugumgebung auswerten („verstehen“) zu können.A large number of reflection points, which can form reflection point clouds, can be detected in each of the plurality of radar images. However, the reflection points or point clouds in the radar images do not per se contain a semantic meaning. Accordingly, a semantic segmentation of the radar images is necessary in order to be able to evaluate (“understand”) the scene surrounding the vehicle.
Die Segmentierung eines Radarbildes bedeutet, dass den einzelnen Reflexionspunkten in den einzelnen Radarbildern eine Bedeutung zugeordnet wird. Beispielsweise können die Reflexionspunkte dem Hintergrund der Szene, dem Vordergrund der Szene, stationären Objekten wie Gebäuden, Mauern, parkenden Fahrzeugen oder Teilen einer Straße und/oder bewegten Objekten wie anderen Fahrzeugen, Radfahrern und/oder Fußgängern in der Szene zugeordnet werden.The segmentation of a radar image means that a meaning is assigned to the individual reflection points in the individual radar images. For example, the reflection points can be assigned to the background of the scene, the foreground of the scene, stationary objects such as buildings, walls, parked vehicles or parts of a street, and/or moving objects such as other vehicles, cyclists and/or pedestrians in the scene.
Im Stand der Technik wird die semantische Bildsegmentierung in der Regel in Bildern, die von einem Kamerasensor aufgenommen werden, (Kamerabildern) durchgeführt, wie unter anderem in „No Blind Spots“: Full-Surround Multi-Object Tracking for Autonomous Vehicles using Cameras & LiDARs“ von Akshay Rangesh und Mohan Trivedi beschrieben.In the prior art, the semantic image segmentation is usually carried out in images that are recorded by a camera sensor (camera images), such as in "No Blind Spots": Full-Surround Multi-Object Tracking for Autonomous Vehicles using Cameras & LiDARs ' described by Akshay Rangesh and Mohan Trivedi.
Bei Kamerabildern ist es für die semantische Segmentierung von Vorteil, dass das meiste Licht diffus in den Sensor reflektiert wird, so dass zusammenhängende Regionen im Kamerabild beobachtet werden können. Die semantische Segmentierung in Radarbildern ist jedoch besonders schwierig.In the case of camera images, it is advantageous for semantic segmentation that most of the light is diffusely reflected into the sensor, so that connected regions in the camera image can be observed. However, semantic segmentation in radar images is particularly difficult.
Im Allgemeinen beobachten Radarsysteme spiegelartige Reflexionen der Sendesignale, die vom Radarsystem ausgesendet werden, da die zu detektierenden Objekte tendenziell glattere Reflexionscharakteristiken aufweisen als die (modulierten) Wellenlängen der Sendesignale.In general, radar systems observe specular reflections of the transmitted signals that emitted by the radar system, since the objects to be detected tend to have smoother reflection characteristics than the (modulated) wavelengths of the transmitted signals.
Folglich enthalten die erhaltenen Radarbilder keine zusammenhängenden Regionen, die einzelne Objekte repräsentieren, sondern vielmehr einzelne markante Reflexionspunkte (wie beispielsweise die Kante eines Stoßfängers), die über Regionen des Radarbildes verteilt sind.Consequently, the radar images obtained do not contain contiguous regions representing individual objects, but rather individual prominent reflection points (such as the edge of a bumper) distributed over regions of the radar image.
Für das Verfolgen von Objekten in der Szene (im Sichtfeld des Radarsystems), also das Verfolgen eines Objekts über mehrere Bilder (Frames), wird es noch schwieriger, da die einzelnen Reflexionspunkte, die zu einem Objekt gehören können, von Radarbild (Radar-Frame) zu Radarbild (Radar-Frame) variieren können. Das bedeutet, dass beispielsweise Reflexionspunkte eines ersten Radarbilds in einem zweiten, beispielsweise (unmittelbar) folgenden Radarbild verschwinden können, während andere Reflexionspunkte im zweiten Radarbild auftauchen können.For tracking objects in the scene (in the field of view of the radar system), i.e. tracking an object over several images (frames), it becomes even more difficult, since the individual reflection points that can belong to an object depend on the radar image (radar frame ) to radar image (radar frame) may vary. This means that, for example, reflection points of a first radar image can disappear in a second, for example (immediately) following radar image, while other reflection points can appear in the second radar image.
In Anbetracht der obigen Ausführungen besteht die Aufgabe der Ausführungsformen der vorliegenden Offenbarung darin, ein Verfahren zur Verfolgung mindestens eines Objekts in Radarbildern eines Radarsystems und ein entsprechendes Radarsystem bereitzustellen, wobei Objekte von Interesse in einer effizienten und zuverlässigen Weise verfolgt werden.In view of the above, the object of the embodiments of the present disclosure is to provide a method for tracking at least one object in radar images of a radar system and a corresponding radar system, wherein objects of interest are tracked in an efficient and reliable manner.
Die Aufgaben der Ausführungsformen der vorliegenden Offenbarung können insbesondere durch das Verfahren zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems nach Anspruch 1 erreicht werden.In particular, the objects of the embodiments of the present disclosure can be achieved by the method for tracking at least one object in measurement data of a radar system according to
ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION
Insbesondere wird eine Aufgabe der vorliegenden Offenbarung gelöst durch ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems, die mehrere, insbesondere aufeinanderfolgende, von einem Radarsystem erfasste Radarbilder (Radarframes) enthalten, umfassend:
- - Detektieren von Detektionspunkten in den Radarbildern;
- - Zuordnen der Detektionspunkte eines aktuellen Radarbildes zu einer Vielzahl von Tracklets, wobei jedes Tracklet eine Spur von mindestens einem über mehrere Radarbilder beobachteten Detektionspunkt ist; und
- - Zuordnen (insbesondere Gruppieren) der Tracklets basierend auf mindestens einem Merkmalsparameter zu mindestens einer Objektspur (die das mindestens eine zu verfolgende Objekt darstellt).
- - detecting detection points in the radar images;
- - Assigning the detection points of a current radar image to a plurality of tracklets, each tracklet being a trace of at least one detection point observed over a plurality of radar images; and
- - Assigning (in particular grouping) the tracklets based on at least one feature parameter to at least one object track (representing the at least one object to be tracked).
Ein Aspekt der vorliegenden Offenbarung beruht auf der Idee, dass in den Radarbildern zunächst Detektionspunkte über mehrere Radarbilder beobachtet werden können, wobei die beobachteten Detektionspunkte, die die Tracklets bilden, dazu verwendet werden können, eine Segmentierung des vorliegenden Radarbildes zu erzeugen, indem die Tracklets mindestens einer Objektspur zugeordnet werden, die mindestens ein Objekt basierend auf mindestens einem Merkmalsparameter repräsentiert.One aspect of the present disclosure is based on the idea that in the radar images initially detection points can be observed over several radar images, the observed detection points that form the tracklets can be used to generate a segmentation of the present radar image by the tracklets at least be assigned to an object track that represents at least one object based on at least one feature parameter.
Die Segmentierung nach dem erfindungsgemäßen Verfahren ergibt sich aus dem Verfolgen von Detektionspunkten über mehrere Radarbilder (d.h. Nutzung von Tracking-Informationen), die für die Zuordnung von Detektionspunkten zu Objekten verwendet werden (Segmentierung durch Tracking).The segmentation according to the method according to the invention results from following detection points over several radar images (i.e. using tracking information), which is used for assigning detection points to objects (segmentation by tracking).
Dementsprechend kann das vorliegende Verfahren als Zwei-Stufen-Ansatz betrachtet werden, bei dem für ein aktuelles Radarbild (neue) Detektionspunkte Tracklets zugeordnet werden, was als eine erste Stufe (des Verfolgungsverfahrens) angesehen werden kann, und dann die Tracklets Objektspuren zugeordnet werden, was als eine zweite Stufe (des Verfolgungsverfahrens) angesehen werden kann.Accordingly, the present method can be viewed as a two-stage approach, in which for a current radar image (new) detection points are assigned to tracklets, which can be viewed as a first stage (of the tracking method), and then the tracklets are assigned to object tracks, what can be seen as a second stage (of the prosecution process).
Ein Verfahren gemäß der vorliegenden Offenbarung unterscheidet sich von der herkömmlichen Vorgehensweise, bei der jedes Radarbild üblicherweise unabhängig auf einer Stufe durch Segmentierung behandelt wird, ohne Tracking-Informationen für die Segmentierung zu verwenden.A method according to the present disclosure differs from the conventional approach, where each radar image is usually treated independently at one stage through segmentation without using tracking information for segmentation.
Das Detektieren von Detektionspunkten kann als das Ermitteln von Intensitätsspitzen (Intensitätspeaks) im Radarbild verstanden werden, wobei die Radarbilder als eine dreidimensionale Intensitätskarte verstanden werden können, beispielsweise in einer Winkel-Entfernungs-Bin (Angle-Range-Bin) oder einer Winkel-Doppler-Entfernungs-Bin (Angle-Doppler-Range-Bin). Der Begriff „Detektionspunkt“ ist nicht als nulldimensionaler Punkt im geometrischen Sinne zu verstehen, sondern vorzugsweise als ein Bereich der oben genannten Intensitätsspitze (beispielsweise bezogen auf eine Kante eines Stoßfängers oder einer anderen Struktur, insbesondere Kante und/oder Ecke eines Fahrzeugs, insbesondere ein Bereich mit ausgeprägter Reflexion). Der Detektionspunkt kann mindestens eine, insbesondere mehrere Auflösungszellen (beispielsweise Pixel und/oder Voxel) im Radarbild umfassen.The detection of detection points can be understood as finding intensity peaks (intensity peaks) in the radar image, where the radar images can be understood as a three-dimensional intensity map, for example in an angle-range bin (angle-range bin) or an angle-doppler Range bin (angle-doppler range bin). The term "detection point" is not to be understood as a zero-dimensional point in the geometric sense, but preferably as an area of the above-mentioned intensity peak (e.g. related to an edge of a bumper or another structure, in particular an edge and / or corner of a vehicle, in particular an area with pronounced reflection). The detection point can include at least one, in particular multiple, resolution cells (for example pixels and/or voxels) in the radar image.
Die von einem Radarsystem erfassten Messdaten können ein zweidimensionales oder mehrdimensionales, komplexwertiges Array sein, welches Dimensionen umfasst, die den (Azimut- und/oder Elevations-) Winkel, die (radiale) Geschwindigkeit (auch Doppler genannt) und den radialen Abstand (auch Entfernung genannt) enthalten können. Beispielsweise ist es möglich, den Betrag in jedem Winkel-Doppler-Entfernung-Bin zu verwenden, um zu beschreiben, wie viel Energie der Radarsensor von jedem Punkt der Szenerie (im Sichtfeld) für eine radiale Geschwindigkeit empfängt.The measurement data recorded by a radar system can be a two-dimensional or multi-dimensional, complex-valued array that includes dimensions that include the (azimuth and/or elevation) angle, the (radial) velocity (also called Doppler) and the radial distance (also called distance called) may contain. For example, it is possible to use the magnitude in each angular-doppler-range bin to describe how much energy the radar sensor receives from each point in the scene (in the field of view) for a radial velocity.
Aufeinanderfolgende Radarbilder können als eine Vielzahl von Radarbildern verstanden werden, wobei jedes Radarbild (außer einem ersten Radarbild) einem anderen Radarbild zeitlich folgt. Von einer gegebenen (gemessenen bzw. ermittelten) Vielzahl von Radarbilder können alle Radarbilder verwendet werden oder nur eine Teilmenge der Radarbilder.Consecutive radar images can be understood as a plurality of radar images, each radar image (except for a first radar image) following another radar image in time. From a given (measured or determined) plurality of radar images, all radar images can be used or only a subset of the radar images.
Insbesondere basiert das Erhalten und/oder Beibehalten der Tracklets und der Objektspuren auf mindestens einem dynamischen Systemmodell, wodurch ein robustes und genaues Verfolgen der Tracklets und der Objektspuren erreicht werden kann.In particular, obtaining and/or maintaining the tracklets and the object tracks is based on at least one dynamic system model, as a result of which a robust and precise tracking of the tracklets and the object tracks can be achieved.
Das mindestens eine dynamische Systemmodell kann verwendet werden, um zu schätzen, an welcher Position in einem Radarbild, insbesondere einem nachfolgenden Radarbild, ein Tracklet und/oder eine Objektspur erwartet werden kann.The at least one dynamic system model can be used to estimate at which position in a radar image, in particular a subsequent radar image, a tracklet and/or an object track can be expected.
Vorzugsweise umfasst das Verfahren ferner die folgenden Schritte:
- - Prädizieren (Vorhersagen) eines oder mehrerer Parameter jedes Tracklets für das aktuelle Radarbild durch Propagieren des dynamischen Systemmodells, wobei die Parameter jedes Tracklets mindestens eine Position, insbesondere eine Position und eine Geschwindigkeit, vorzugsweise eine Position und eine Geschwindigkeit und eine Beschleunigung, und eine Kovarianz des Tracklets in einem Radarbild umfassen; und
- - Korrigieren der Parameter jedes Tracklets basierend auf den Detektionspunkten, die dem entsprechenden Tracklet zugeordnet sind.
- - Predicate (predict) one or more parameters of each tracklet for the current radar image by propagating the dynamic system model, the parameters of each tracklet at least a position, in particular a position and a speed, preferably a position and a speed and an acceleration, and a covariance of the tracklet in a radar image; and
- - Correcting the parameters of each tracklet based on the detection points associated with the corresponding tracklet.
Vorzugsweise wird das Prädizieren vor dem Zuordnen der Detektionspunkte zu den Tracklets und das Korrigieren nach dem Zuordnen der Detektionspunkte zu den Tracklets durchgeführt.The prediction is preferably carried out before the detection points are assigned to the tracklets and the correction is carried out after the detection points are assigned to the tracklets.
Durch das Prädizieren der Parameter der Tracklets vor dem Zuordnen der Detektionspunkte ist es möglich, das Zuordnen der Detektionspunkte zu den Tracklets zu verbessern. Durch das Korrigieren der Parameter der Tracklets nach dem Zuordnen der Detektionspunkte ist es möglich, die Ungenauigkeiten des Modells zu korrigieren, wodurch die Performanz der Tracking-Lösung verbessert werden kann.By predicting the parameters of the tracklets before assigning the detection points, it is possible to improve the assignment of the detection points to the tracklets. By correcting the parameters of the tracklets after assigning the detection points, it is possible to correct the inaccuracies of the model, which can improve the performance of the tracking solution.
Insbesondere wird im Schritt des Zuordnens der Detektionspunkte zu den Tracklets ein Detektionspunkt einem Tracklet zugeordnet, wenn eine Position des Detektionspunktes innerhalb eines Gates eines Tracklets liegt; wobei neue Tracklets aus den Detektionspunkten immer dann initialisiert werden, wenn das Kriterium für die Zuordnung einer Detektion für keines der vorhandenen Tracklets erfüllt ist, insbesondere wenn eine Position eines Detektionspunktes außerhalb der Gates aller vorhandenen Tracklets liegt.In particular, in the step of assigning the detection points to the tracklets, a detection point is assigned to a tracklet if a position of the detection point lies within a gate of a tracklet; wherein new tracklets are always initialized from the detection points when the criterion for the assignment of a detection is not met for any of the existing tracklets, in particular when a position of a detection point is outside the gates of all existing tracklets.
Das oben beschriebene Verfahren zur Zuordnung von Detektionspunkten zu Tracklets ist besonders einfach und rechnerisch leicht. Das Gate eines Tracklets kann ein Assoziationsgebiet sein, wie beispielsweise ein Polytop (z. B. Polygon, insbesondere Tetragon, oder Polyeder, insbesondere Hexaeder), insbesondere ein, vorzugsweise rechteckiges, Parallelogramm (z. B. Parallelogramm, insbesondere Rechteck oder Quadrat, oder Parallelepiped, insbesondere Quader oder Würfel), ein (Hyper-)Ellipsoid oder eine Ellipse oder eine (Hyper-)Kugel oder ein Kreis (insbesondere in Abhängigkeit von den Dimensionen des/der entsprechenden Bilder).The method described above for assigning detection points to tracklets is particularly simple and computationally easy. The gate of a tracklet can be an association area, such as a polytope (e.g. polygon, in particular tetragon, or polyhedron, in particular hexahedron), in particular a, preferably rectangular, parallelogram (e.g. parallelogram, in particular rectangle or square, or parallelepiped, in particular a cuboid or cube), a (hyper)ellipsoid or an ellipse or a (hyper)sphere or a circle (in particular depending on the dimensions of the corresponding image(s).
Neue Tracklets werden vorzugsweise aus unzugeordneten Detektionspunkten initialisiert, welche Detektionspunkte sind, die keinem Tracklet zugeordnet sind, d. h. die unzugeordneten Detektionspunkte liegen in keinem Gate der Tracklets (was vorzugsweise das Kriterium für die Zuordnung ist). Dies ermöglicht eine einfache, aber schnelle und effektive Methode zur Initialisierung neuer Tracklets.New tracklets are preferably initialized from unassigned detection points, which are detection points that are not assigned to any tracklet, i. H. the unassigned detection points are not in any gate of the tracklets (which is preferably the criterion for the assignment). This allows for a simple, but quick and effective method of initializing new tracklets.
Vorzugsweise ist ein Gate für jedes Tracklet entweder in der Größe festgelegt oder in der Größe adaptiv. Wenn es adaptiv ist, kann die Größe des Gates mit der Kovarianz des Tracklets korrelieren, insbesondere so, dass die Größe des Gates vergrößert wird, wenn die Kovarianz zunimmt, und umgekehrt. Preferably, a gate for each tracklet is either fixed in size or adaptive in size. When it is adaptive, the size of the gate can correlate with the covariance of the tracklet, specifically such that the size of the gate increases as the covariance increases, and vice versa.
Dementsprechend ist es möglich, die Größe des Gates der Tracklets in Abhängigkeit von der Kovarianz der prädizierten Position des Tracklets im aktuellen Radarbild zu variieren. Dadurch wird die Zuordnung der Detektionspunkte zu den Tracklets weiter verbessert, da die Anzahl der falschen Zuordnungen zwischen Detektionspunkten und Tracklets reduziert werden kann, insbesondere wenn die Position eines Tracklets mit einer höheren Wahrscheinlichkeit prädiziert wird (was mit einer höheren Kovarianz korreliert).Accordingly, it is possible to vary the size of the gate of the tracklet depending on the covariance of the tracklet's predicted position in the current radar image. This further improves the assignment of the detection points to the tracklets, since the number of incorrect assignments between detection points and tracklets can be reduced, in particular when the position of a tracklet is more likely probability is predicted (which correlates with a higher covariance).
Es wird bevorzugt, dass beim Zuordnen der Detektionspunkte zu den Tracklets ein Detektionspunkt dem Tracklet zugeordnet wird, dessen Position dem Detektionspunkt am nächsten liegt.When assigning the detection points to the tracklets, it is preferred that a detection point is assigned to the tracklet whose position is closest to the detection point.
Dies ermöglicht ein einfaches, aber effektives Verfahren zum Zuordnen der Detektionspunkte zu den Tracklets.This allows for a simple but effective method of assigning the detection points to the tracklets.
Alternativ oder zusätzlich kann ein Detektionspunkt beim Zuordnen der Detektionspunkte zu den Tracklets mehreren Tracklets probabilistisch zugeordnet werden. Vorzugsweise werden probabilistische Werte, die die Wahrscheinlichkeit angeben, dass ein Detektionspunkt einem Tracklet zugeordnet ist, erhöht, wenn der Abstand zwischen der Position des Detektionspunkts und der prädizierten Position des Tracklets abnimmt, und umgekehrt.Alternatively or additionally, a detection point can be probabilistically assigned to multiple tracklets when assigning the detection points to the tracklets. Preferably, probabilistic values indicating the probability that a detection point is associated with a tracklet are increased as the distance between the position of the detection point and the predicted position of the tracklet decreases, and vice versa.
Beispielsweise kann der Mahalanobis-Abstand als Maß für das Zuordnen der Detektionspunkte zu den Tracklets verwendet werden.For example, the Mahalanobis distance can be used as a measure for assigning the detection points to the tracklets.
Das Zuordnen von Detektionspunkten zu mehreren Tracklets ist insbesondere in schwierigen Zuordnungssituationen von Vorteil, z. B. wenn Detektionspunkte innerhalb von zwei oder mehr Gates verschiedener Tracklets liegen.The assignment of detection points to several tracklets is particularly advantageous in difficult assignment situations, e.g. B. when detection points are within two or more gates of different tracklets.
Insbesondere umfasst der Merkmalsparameter für das Zuordnen (Gruppieren) der Tracklets, anhand dessen die Tracklets zu den Objektspuren geclustert werden, eine Überlappung der Gates der einzelnen Tracklets in mindestens dem aktuellen Radarbild und/oder eine summierte Überlappung der Gates der einzelnen Tracklets in mehreren vorherigen Radarbildern.In particular, the feature parameter for assigning (grouping) the tracklets, based on which the tracklets are clustered into the object tracks, includes an overlap of the gates of the individual tracklets in at least the current radar image and/or a summed overlap of the gates of the individual tracklets in several previous radar images .
Die Überlappung der Gates der einzelnen Tracklets in mindestens dem aktuellen Radarbild und/oder eine (summierte) Überlappung der Gates der einzelnen Tracklets in mehreren vorherigen Radarbildern als Merkmalsparameter ist ein sinnvolles Kriterium für das Zuordnen (Gruppieren) von Tracklets zu Objektspuren.The overlap of the gates of the individual tracklets in at least the current radar image and/or a (cumulative) overlap of the gates of the individual tracklets in several previous radar images as feature parameters is a useful criterion for assigning (grouping) tracklets to object tracks.
Insbesondere kann die Verwendung der summierten Überlappung der Gates der einzelnen Tracklets in mehreren vorhergehenden Radarbildern als Merkmalsparameter die Robustheit der Zuordnung erhöhen.In particular, using the summed overlap of the gates of the individual tracklets in several previous radar images as a feature parameter can increase the robustness of the assignment.
Vorzugsweise wird das Zuordnen (Gruppieren) der Tracklets durch ein Clustering-Verfahren durchgeführt, insbesondere durch ein Density-Based-Spatial-Clusteringot-Applications-with-Noise (DBSCAN)-Verfahren, welches ein einfaches aber effektives Clustering-Verfahren ist.The association (grouping) of the tracklets is preferably performed by a clustering method, in particular by a Density-Based-Spatial-Clusteringot-Applications-with-Noise (DBSCAN) method, which is a simple but effective clustering method.
Es wird bevorzugt, dass das Verfahren weiterhin das Korrigieren von Parametern der Objektspur, insbesondere einer Position, einer Geschwindigkeit und/oder einer Beschleunigung der Objektspur, umfasst, indem die Parameter der Objektspur basierend auf einer prädizierten Geschwindigkeit und/oder einer prädizierten Beschleunigung der Tracklets der entsprechenden Objektspur aktualisiert werden.It is preferred that the method further includes the correction of parameters of the object track, in particular a position, a speed and/or an acceleration of the object track, by the parameters of the object track based on a predicted speed and/or a predicted acceleration of the tracklets of the corresponding object track are updated.
Dementsprechend ist es möglich, die Trackinglösung von Objektspuren zu verbessern, indem die prädizierten Parameter der Tracklets, die den Objektspuren zugeordnet werden, als Messungen für die Objektspuren verwendet werden.Accordingly, it is possible to improve the tracking solution of object tracks by using the predicted parameters of the tracklets, which are assigned to the object tracks, as measurements for the object tracks.
Insbesondere umfasst jedes Tracklet Metadaten, die mindestens einen Status des Tracklets, einen Track-Count-Wert und einen Lost-Track-Count-Wert enthalten. Vorzugsweise enthalten die Metadaten der Tracklets auch eine Identifikationsnummer, die angibt, welcher Objektspur das Tracklet zugeordnet ist.In particular, each tracklet includes metadata that includes at least a status of the tracklet, a track count value, and a lost track count value. The metadata of the tracklets preferably also contain an identification number which indicates which object track the tracklet is assigned to.
Der Status kann sich durch einen Zustand des Tracklets unterscheiden, der z.B. einer von einem verfolgten und nicht verfolgten (z.B. verlorenen bzw. nicht mehr verfolgten) Zustand, oder einer von einem vorläufigen Zustand, einem verfolgten Zustand und einem (zumindest zeitweise) verlorenen Zustand, oder einer von einem vorläufigen Zustand, einem verfolgten Zustand, einem (zumindest zeitweise) verlorenen Zustand und einem vollständig verlorenen Zustand sein kann.The status may differ by a state of the tracklet, e.g. one of a tracked and untracked (e.g. lost or untracked) state, or one of a preliminary state, a tracked state and a (at least temporarily) lost state, or one of a preliminary state, a tracked state, a (at least temporarily) lost state, and a completely lost state.
Insbesondere umfasst das Verfahren ferner die folgenden Schritte:
- - Aktualisieren der Metadaten der Tracklets; und
- - Initialisieren von Detektionspunkten als neue Tracklets, die nicht den bestehenden Tracklets zugeordnet sind,
- - Updating the metadata of the tracklets; and
- - initialize detection points as new tracklets not mapped to existing tracklets,
Vorzugsweise werden unterschiedliche Filter zum Modellieren der Dynamik der Tracklets und zum Modellieren der Dynamik der Objektspuren verwendet. Vorzugsweise ist der Filter zum Modellieren der Dynamik der Tracklets weniger rechenintensiv als der Filter zum Modellieren der Dynamik der Objektspuren.Preferably, different filters are used to model the dynamics of the tracklets and to model the dynamics of the object tracks. The filter for modeling the dynamics of the tracklets is preferably less computationally intensive than the filter for modeling the dynamics of the object tracks.
Vorzugsweise wird ein Alpha-Beta-Filter für das Modellieren der Dynamik der Tracklets und ein Kalman-Filter für das Modellieren der Dynamik der Objektspuren verwendet, wodurch ein vernünftiger Kompromiss zwischen dem Rechenaufwand und der Performanz der Tracking-Ergebnisse erreicht werden kann.An alpha-beta filter is preferably used for modeling the dynamics of the tracklets and a Kalman filter for modeling the dynamics of the object tracks, as a result of which a reasonable compromise between the computational effort and the performance of the tracking results can be achieved.
Alternativ wird jeweils ein Alpha-Beta-Filter zum Modellieren der Dynamik der Tracklets und der Objektspuren verwendet, wodurch der Rechenaufwand weiter verringert werden kann.Alternatively, an alpha-beta filter is used to model the dynamics of the tracklets and the object tracks, which further reduces the computational effort.
Alternativ oder zusätzlich kann für jede Objektgruppe (Objektspur) ein Objektmodell aus einer Bibliothek von Objektmodellen hergeleitet werden und zum Modellieren der Objektspuren ein Switching-Kalman-Filter verwendet werden, wobei ein Schaltzustand des Switching-Kalman-Filters eine Objektklasse repräsentiert.Alternatively or additionally, an object model can be derived from a library of object models for each object group (object track) and a switching Kalman filter can be used to model the object tracks, with a switching state of the switching Kalman filter representing an object class.
Die Bibliothek von Objektmodellen kann z. B. Objektmodelle für Fahrzeuge, wie Autos oder Lastwagen, Radfahrer oder Fußgänger enthalten.The library of object models can e.g. B. object models for vehicles such as cars or trucks, cyclists or pedestrians.
Dies kann es ermöglichen, die Verteilung des Objekts über einen Bereich im Radarbild herzuleiten, was die Genauigkeit des Zuordnens der Detektionspunkte zu den Tracklets sowie des Zuordnens der Tracklets zu den Objektspuren verbessern kann. Zusätzlich oder alternativ können dadurch die dynamischen Systemmodelle in Übereinstimmung mit den Objektmodellen umgeschaltet werden, so dass das Modellieren der Dynamik der Objekte an das zu verfolgende Objekt angepasst werden kann.This can make it possible to derive the distribution of the object over an area in the radar image, which can improve the accuracy of assigning the detection points to the tracklets as well as assigning the tracklets to the object tracks. Additionally or alternatively, the dynamic system models can thereby be switched in accordance with the object models, so that the modeling of the dynamics of the objects can be adapted to the object to be tracked.
Vorzugsweise werden die klassenspezifischen Objektmodelle aus Datensätzen gelernt (abgeleitet). Es ist auch denkbar, dass ein Objektklassifikator, wie z. B. eine Support-Vector-Machine (SVM), neuronale Netze oder ein (tiefes) Convolutional-Neural-Network (CNN), verwendet wird, um eine Objektspur in eine der Objektklassen der Bibliothek zu klassifizieren.The class-specific object models are preferably learned (derived) from data sets. It is also conceivable that an object classifier, such as e.g. B. a support vector machine (SVM), neural networks or a (deep) convolutional neural network (CNN), is used to classify an object trace into one of the object classes of the library.
In einem weiteren (unabhängigen oder abhängigen) Aspekt der vorliegenden Offenbarung wird eine Aufgabe der Offenbarung insbesondere durch ein Radarverfahren gelöst, wobei die (oder, falls ein unabhängiger Aspekt: eine) Vielzahl von Radarbildern, die in den Messdaten enthalten sind, eine erste Vielzahl von Radarbildern ist, die von einer ersten Radareinheit erfasst werden, wobei die Messdaten ferner eine zweite Vielzahl von Radarbildern enthalten, die von einer zweiten Radareinheit erfasst werden, die nicht der ersten Radareinheit zugehörig ist (und/oder nicht kohärent sind), wobei die erste und die zweite Vielzahl von Radarbildern (zeitlich) synchronisiert sind und sich zumindest teilweise (räumlich) überlappen, wobei die Radarbilder Entfernungs-, Doppler- und Winkelmessungen enthalten, wobei aus den Dopplermessungen ein mehrdimensionaler Geschwindigkeitsvektor für mindestens einen, insbesondere für mehrere, vorzugsweise für jeden Detektionspunkt, der in synchronisierten Radarbildern der ersten und der zweiten Vielzahl von Radarbildern erfassbar ist, bestimmt wird, wobei das Bestimmen des mehrdimensionalen Geschwindigkeitsvektors auf den entsprechenden Dopplermessungen der ersten und der zweiten Radareinheit basiert. Bei diesem weiteren Aspekt wird der Zwei-Stufen-Verfolgungsansatz bevorzugt, aber ist nicht zwingend erforderlich (d.h. alle folgenden Ausführungsformen des weiteren Aspekts können sich auf die Zwei-Stufen-Verfolgung beziehen oder können sich auf jede andere, z.B. einstufige oder konventionelle, Verfolgungsmethode beziehen).In a further (independent or dependent) aspect of the present disclosure, an object of the disclosure is achieved in particular by a radar method, the (or, if an independent aspect: a) plurality of radar images contained in the measurement data, a first plurality of radar images acquired by a first radar unit, the measurement data further including a second plurality of radar images acquired by a second radar unit which is not associated (and/or not coherent) with the first radar unit, the first and the second plurality of radar images are (chronologically) synchronized and at least partially (spatially) overlap, the radar images containing distance, Doppler and angle measurements, with a multi-dimensional velocity vector for at least one, in particular for several, preferably for each detection point from the Doppler measurements , which appears in synchronized radar images d which is detectable from the first and the second plurality of radar images, the determination of the multi-dimensional velocity vector being based on the corresponding Doppler measurements of the first and the second radar unit. In this further aspect, the two-step tracking approach is preferred, but not mandatory (i.e. all following embodiments of the further aspect may refer to the two-step tracking or may refer to any other, e.g. single-step or conventional, tracking method ).
Der mehrdimensionale Geschwindigkeitsvektor kann verwendet werden, um das Initialisieren neuer (Objekt-)Spuren zu beschleunigen, was besonders vorteilhaft sein kann, wenn Objekte schnell im Sichtfeld des Radarsystems auftauchen.The multi-dimensional velocity vector can be used to speed up the initialization of new (object) tracks, which can be particularly beneficial when objects are rapidly appearing in the radar system's field of view.
Insbesondere werden die mehrdimensionalen Geschwindigkeitsvektoren bei einem Korrigieren von Parametern einer Spur (eines Tracks) verwendet, insbesondere bei der Korrektur der Parameter des Tracklets (t1 bis tm).In particular, the multi-dimensional velocity vectors are used in correcting parameters of a lane (a track), in particular in correcting the parameters of the tracklet (t1 to tm).
Insbesondere werden die mehrdimensionalen Geschwindigkeitsvektoren bei einem Aktualisieren der Metadaten von Spuren (insbesondere der Tracklets) verwendet. In particular, the multi-dimensional velocity vectors are used when updating the metadata of tracks (especially the tracklets).
Weiterhin können sie beim Initialisieren von Erfassungen (Detektionspunkten) als neue Spuren bzw. Tracks (Tracklets) verwendet werden, wodurch das Aktualisieren der Metadaten der Tracks (Tracklets) und das Initialisieren von Detektionspunkten als neue Tracks (Tracklets) beschleunigt werden kann. Insbesondere kann ein Übergang des Status des jeweiligen Tracks (Tracklets) von einem vorläufigen Zustand in einen verfolgten Zustand beschleunigt werden.Furthermore, they can be used as new tracks (tracklets) when initializing acquisitions (detection points), whereby updating the metadata of the tracks (tracklets) and initializing detection points as new tracks (tracklets) can be accelerated. In particular, a transition of the status of the respective track (tracklet) from a preliminary state to a tracked state can be accelerated.
Vorzugsweise wird der Status eines Tracks (Tracklets) sofort von einem vorläufigen Zustand in einen verfolgten Zustand geändert, wenn sich die Spur (das Tracklet) innerhalb eines Bereichs um die Position eines Detektionspunkts befindet, für den ein mehrdimensionaler Vektor bestimmt wird, und wenn ein Vergleichsmaß, insbesondere eine Summe des Innenprodukts, des mehrdimensionalen Geschwindigkeitsvektors und der mehrdimensionalen Geschwindigkeitsvektoren der benachbarten mehrdimensionalen Geschwindigkeitsvektoren des Detektionspunkts gleich oder größer als ein vorbestimmten Schwellenwert ist.Preferably, the status of a track (tracklet) is immediately changed from a preliminary state to a tracked state when the track (tracklet) is within a range of the position of a detection point for which a multidimensional vector is determined and when a comparative measure , in particular a sum of the inner product, the multi-dimensional velocity vector and the multi-dimensional velocity vectors of the neighboring multi-dimensional velocity vectors of the detection point is equal to or larger than a predetermined threshold value.
Dementsprechend kann ermittelt werden, ob die mehrdimensionalen Geschwindigkeitsvektoren benachbarter Detektionspunkte zumindest annähernd kongruent sind. Wenn die mehrdimensionalen Geschwindigkeitsvektoren benachbarter Detektionspunkte zumindest annähernd kongruent sind, kann davon ausgegangen werden, dass sich die benachbarten Detektionspunkte auf eine Spur (Tracklet) beziehen.Accordingly, it can be determined whether the multidimensional speed vectors of adjacent detection points are at least approximately congruent. If the multi-dimensional velocity vectors of adjacent detection points are at least approximately congruent, it can be assumed that the adjacent detection points relate to a track (tracklet).
Eine Aufgabe der vorliegenden Offenbarung wird ferner gelöst durch ein Radarsystem, das dazu ausgestaltet ist, mindestens ein oder mehrere Objekte in Messdaten des Radarsystems zu verfolgen, die eine Vielzahl von, insbesondere aufeinanderfolgenden, Radarbildern enthalten, unter Verwendung eines Verfahrens der oben beschriebenen Art, umfassend:
- - eine erste Radareinheit, die dazu ausgestaltet ist, eine Vielzahl von Radarbildern durch Senden und Empfangen von Radarsignalen zu detektieren, die an potentiellen zu verfolgenden Objekten in einem Sichtfeld der ersten Radareinheit reflektiert werden; und
- - eine Verfolgungsberechnungseinheit, die dazu ausgestaltet ist, die erfassten Radarbilder durch Ausführen der Schritte eines Verfahrens der oben beschriebenen Art zu verarbeiten.
- - a first radar unit configured to detect a plurality of radar images by transmitting and receiving radar signals reflected on potential objects to be tracked in a field of view of the first radar unit; and
- - a tracking calculation unit arranged to process the acquired radar images by performing the steps of a method of the type described above.
Vorzugsweise umfasst das Radarsystem ferner:
- - eine zweite Radareinheit, die dazu ausgestaltet ist, eine Vielzahl von Radarbildern durch Senden und Empfangen von Radarsignalen zu detektieren, die an potentiellen zu verfolgenden Objekten in einem Sichtfeld der ersten Radareinheit reflektiert werden.
- - a second radar unit configured to detect a plurality of radar images by transmitting and receiving radar signals reflected on potential objects to be tracked in a field of view of the first radar unit.
Vorzugsweise überlappen sich das Sichtfeld der ersten Radareinheit und das Sichtfeld der zweiten Radareinheit zumindest teilweise.The field of view of the first radar unit and the field of view of the second radar unit preferably overlap at least partially.
Das Radarsystem kann eine oder mehrere (z. B. mindestens zwei oder mindestens vier) Antennen zum Senden und/oder Empfangen von Radarsignalen umfassen. Jede der ersten und/oder der zweiten Radareinheit kann eine oder mehrere (z. B. mindestens zwei oder mindestens vier) Antennen zum Senden und/oder Empfangen von Radarsignalen umfassen.The radar system may include one or more (e.g. at least two or at least four) antennas for transmitting and/or receiving radar signals. Each of the first and/or the second radar unit can comprise one or more (e.g. at least two or at least four) antennas for transmitting and/or receiving radar signals.
Ferner wird eine Aufgabe der vorliegenden Offenbarung durch ein Fahrzeug gelöst, in das ein Radarsystem der oben beschriebenen Art eingebaut ist, wobei das Fahrzeug ein Luftfahrzeug und/oder ein Wasserfahrzeug und/oder ein Landfahrzeug, vorzugsweise ein Kraftfahrzeug, ist, wobei das Fahrzeug bemannt oder unbemannt sein kann.Furthermore, an object of the present disclosure is achieved by a vehicle in which a radar system of the type described above is installed, the vehicle being an aircraft and/or a watercraft and/or a land vehicle, preferably a motor vehicle, the vehicle being manned or can be unmanned.
Merkmale und damit verbundene Vorteile, die im Zusammenhang mit dem erfindungsgemäßen Verfahren zur Verfolgung mindestens eines Objekts in Messdaten eines Radarsystems beschrieben sind, sind auf das Radarsystem bzw. Fahrzeug der vorliegenden Offenbarung anwendbar und übertragbar. Die oben erläuterten Verfahrensschritte können in dem Radarsystem oder dem Fahrzeug als entsprechende Konfigurationen (z.B. einer Steuer- und/oder Recheneinheit) einzeln oder in Kombination realisiert werden.Features and advantages associated therewith, which are described in connection with the method according to the invention for tracking at least one object in measurement data of a radar system, can be applied and transferred to the radar system or vehicle of the present disclosure. The method steps explained above can be implemented individually or in combination in the radar system or the vehicle as corresponding configurations (e.g. a control and/or computing unit).
Weitere vorteilhafte Ausführungsformen können den Unteransprüchen entnommen werden.Further advantageous embodiments can be found in the dependent claims.
Figurenlistecharacter list
Im Folgenden wird die vorliegende Offenbarung anhand von nicht einschränkenden Ausführungsformen oder Beispielen unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. In den Figuren ist Folgendes dargestellt:
-
1 zeigt ein Ablaufdiagramm eines Beispiels des erfindungsgemäßen Verfahrens zur Verfolgung mindestens eines Objekts in einer Vielzahl von Radarbildern; -
2 zeigt eine schematische Darstellung eines Beispiels für ein erfindungsgemäßes Radarsystem; -
3A zeigt ein Beispiel für ein aktuelles Radarbild, in welchem der Schritt S1 des Verfahrens zur Verfolgung mindestens eines Objekts durchgeführt wird; -
3B zeigt ein Beispiel für ein aktuelles Radarbild, in welchem Schritt S2 und Schritt S3 des Verfahrens zur Verfolgung mindestens eines Objekts durchgeführt wird; -
3C zeigt ein Beispiel für ein aktuelles Radarbild, in welchem Schritt S4 des Verfahrens zur Verfolgung mindestens eines Objekts durchgeführt wird; -
4 zeigt eine schematische Darstellung eines weiteren Radarsystems gemäß der Erfindung.
-
1 shows a flow chart of an example of the method according to the invention for tracking at least one object in a plurality of radar images; -
2 shows a schematic representation of an example of a radar system according to the invention; -
3A shows an example of a current radar image in which step S1 of the method for tracking at least one object is carried out; -
3B shows an example of a current radar image, in which step S2 and step S3 of the method for tracking at least one object is carried out; -
3C shows an example of a current radar image, in which step S4 of the method for tracking at least one object is carried out; -
4 shows a schematic representation of another radar system according to the invention.
AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION
In
Im Verfahrensschritt S0 wird die Verfolgungsschleife initialisiert, indem sowohl für die Tracklets als auch für die Objektspuren leere Listen angelegt werden.In method step S0, the tracking loop is initialized by creating empty lists for both the tracklets and the object tracks.
Nach dem Initialisieren der Verfolgungsschleife werden die Verfahrensschritte der Verfolgungsschleife S1 bis S8 durchgeführt, bis das letzte zu verarbeitende Radarbild erreicht ist. Wenn das letzte zu verarbeitende Radarbild erreicht ist, wird die Verfolgungsschleife in Schritt S8 beendet.After the tracking loop has been initialized, the method steps of the tracking loop S1 to S8 are carried out until the last radar image to be processed is reached. When the last radar image to be processed is reached, the tracking loop is ended in step S8.
In der Verfolgungsschleife wird der Verfahrensschritt S1 durchgeführt, der das Detektieren von Detektionspunkten d in einem ersten Radarbild f1 ist. In diesem Beispiel sind die Radarbilder (zumindest im Wesentlichen) Heatmap s, in denen die (radiale) Geschwindigkeit über die Entfernungs- und Winkelmessungen eingezeichnet ist.In the tracking loop, method step S1 is performed, which is the detection of detection points d in a first radar image f1. In this example, the radar images are (at least essentially) heatmaps in which the (radial) speed is plotted against the distance and angle measurements.
In der Praxis werden die Radarbilder vorverarbeitet, indem Verfahren zur Unterdrückung von Rauschen und Artefakten sowie Verfahren zur Extraktion auffälliger Regionen im Radarbild eingesetzt werden. Diese Verfahren beinhalten zum Beispiel die Schätzung eines Hintergrundmodells und die Entfernung des modellierten Hintergrunds aus dem Radarbild oder die Erstellung einer Maske, die gewünschte Bereiche hervorhebt und andere durch elementweise Multiplikation unterdrückt.In practice, the radar images are pre-processed using methods for suppressing noise and artifacts and methods for extracting conspicuous regions in the radar image. These methods include, for example, estimating a background model and removing the modeled background from the radar image, or creating a mask that highlights desired areas and suppresses others through element-by-element multiplication.
Für die Vorverarbeitung des Radarbildes kann z. B. das Verfahren des Constant-False-Alarm-Rate (CFAR)-Thresholding verwendet werden, bei dem ein Hintergrundmodell durch lokale Mittelung geschätzt wird. Die Grundidee hierbei ist, dass die Rauschstatistiken über das Array (das Radarbild) ungleichmäßig sein können.For the pre-processing of the radar image z. For example, the Constant False Alarm Rate (CFAR) thresholding method can be used, in which a background model is estimated by local averaging. The basic idea here is that the noise statistics can be uneven across the array (the radar image).
Eine weitere mögliche Variante des obigen Verfahrens wäre Cell-Averaging- (CA-) CFAR, bei dem ein gleitender Mittelwert berechnet wird, während ein Bereich in der Mitte des Mittelungsfensters (Schutzzellen) ausgeschlossen wird, um zu vermeiden, dass ein gewünschtes Objekt in die Hintergrundschätzung einbezogen wird. Außerdem ist Order-Statistic- (OS-) CFAR eine Variante von CA-CFAR, bei der eine Perzentil-Operation anstelle einer Mittelwert-Operation verwendet wird.Another possible variation of the above method would be Cell Averaging (CA) CFAR, in which a moving average is calculated while excluding an area in the center of the averaging window (guard cells) to avoid introducing a desired object into the background estimation is included. Also, Order-Statistic (OS) CFAR is a variant of CA-CFAR that uses a percentile operation instead of a mean operation.
Darüber hinaus können auch Verfahren, die eine zeitadaptive Hintergrundmodellierung verwenden, zur Vorverarbeitung der Radar-Frames eingesetzt werden. Zum Beispiel kann ein Multi-Tap-Filter, vorzugsweise ein 5-Tap-Filter, insbesondere ein 3-Tap-Filter, insbesondere ein 2-Tap-Filter mit infiniten Impulsantwort (IIR-Filter) zur zeitlichen Glättung der Vordergrunddetektion verwendet werden, um die Notwendigkeit zu vermeiden, das gesamte Hintergrundmodell bei jedem Radarbild neu zu berechnen.In addition, methods that use time-adaptive background modeling can also be used to preprocess the radar frames. For example, a multi-tap filter, preferably a 5-tap filter, in particular a 3-tap filter, in particular a 2-tap filter with an infinite impulse response (IIR) filter can be used for temporal smoothing of the foreground detection in order to to avoid the need to recalculate the entire background model with each radar image.
Nach der Vorverarbeitung der Radar-Frames mit Hilfe einer Schwellenwertmethode wie oben beschrieben, werden die Vordergrundbereiche im Radar-Frame extrahiert. Einige Störspitzen können jedoch immer noch den Schwellenwert überschreiten. Die Störspitzen können entfernt werden, indem man annimmt, dass alle interessierenden Regionen als dreidimensionale Blob-Formen betrachtet werden können.After pre-processing the radar frames using a thresholding method as described above, the foreground areas in the radar frame are extracted. However, some glitches may still exceed the threshold. The glitches can be removed by assuming that all regions of interest can be viewed as three-dimensional blob shapes.
In diesem Beispiel umfasst die Erkennung der Detektionspunkte das Auffinden lokaler Maxima in den vorverarbeiteten Radarbild nach dem Extrahieren der Vordergrundregionen in einem Radarbild.In this example, detecting the detection points involves finding local maxima in the pre-processed radar image after extracting the foreground regions in a radar image.
Die wie oben beschrieben erfassten Detektionspunkte d1 bis dn werden dann in der weiteren Verarbeitung der Verfolgungsschleife als Messwerte für das Verfolgen verwendet.The detection points d1 to dn recorded as described above are then used as measurement values for the tracking in the further processing of the tracking loop.
Im ersten Radarbild gibt es keine Tracklets und keine Objektspuren, da die Verfolgungsschleife mit leeren Listen von Tracklets und Objektspuren initialisiert wird. Folglich werden im ersten Radarbild die Detektionspunkte d1 bis dn verwendet, um die neuen Tracklets t1 bis tm zu initialisieren, die einen vorläufigen Zustand tragen.In the first radar image there are no tracklets and no object trails because the tracking loop is initialized with empty lists of tracklets and object trails. Consequently, in the first radar image, the detection points d1 to dn are used to initialize the new tracklets t1 to tm, which carry a preliminary state.
Im Folgenden wird die Verfolgungsschleife gemäß einem Beispiel der vorliegenden Offenbarung für ein vorliegendes nicht-erstes Radarbild fp beschrieben, bei dem die Liste der Tracklets t1 bis tm nicht leer ist.In the following, the tracking loop is described according to an example of the present disclosure for a present non-first radar image fp where the list of tracklets t1 to tm is not empty.
Im Verfahrensschritt S2 der Verfolgungsschleife gemäß diesem Beispiel wird ein oder eine Vielzahl von Parametern jedes Tracklets t1 bis tm für das aktuelle Radarbild fp durch Propagieren des dynamischen Systemmodells vorhergesagt (prädiziert).In method step S2 of the tracking loop according to this example, one or a plurality of parameters of each tracklet t1 to tm for the current radar image fp is predicted (predicted) by propagating the dynamic system model.
Die Parameter jedes Tracklets t1 bis tm können eine Position und eine Geschwindigkeit, eine Beschleunigung und eine Kovarianz des Tracklets t1 bis tm in einem Radarbild umfassen. Das dynamische Systemmodell kann ein einfaches Modell mit konstanter Geschwindigkeit oder auch ein Modell mit konstanter Beschleunigung sein. Das Propagieren des Modells mit konstanter Geschwindigkeit kann wie folgt ausgedrückt werden:
Nach dem Prädizieren der Parameter jedes Tracklets t1 bis tm im Verfahrensschritt S2 werden die Detektionspunkte d1 bis dn den Tracklets t1 bis tm im Verfahrensschritt S3 zugeordnet.After the parameters of each tracklet t1 to tm have been predicted in method step S2, the detection points d1 to dn are assigned to the tracklets t1 to tm in method step S3.
Das Zuordnen der Detektionspunkte d1 bis dn zu den Tracklets t1 bis tm kann unter Verwendung eines Gating-Verfahrens erfolgen. Bei dem Gating-Verfahren wird ein Gate, das ein Assoziationsbereich ist, wie z. B. ein Rechteck, ein Quadrat, eine Ellipse oder ein Kreis, um die (vorhergesagte) Mittelposition jedes Tracklets t1 bis tm gelegt. In diesem Beispiel ist die Assoziationsregion eine Ellipse mit fester Größe.The detection points d1 to dn can be assigned to the tracklets t1 to tm using a gating method. In the gating method, a gate that is an association area such as a a rectangle, square, ellipse or circle, around the (predicted) center position of each tracklet t1 to tm. In this example, the association region is a fixed-size ellipse.
Nach dem Zuordnen von Detektionspunkten d1 bis dn zu den Tracklets t1 bis tm in Verfahrensschritt S3 werden die Tracklets t1 bis tm in Verfahrensschritt S4 auf der Basis von mindestens einem Merkmalsparameter den Objektspuren g1 bis gk zugeordnet. In diesem Beispiel werden die Tracklets t1 bis tm basierend auf der Überlappung der Gates der Tracklets t1 bis tm zu Objektspuren g1 bis gk zugeordnet, wobei ein DBSCAN-Verfahren zur Gruppierung der Tracklets t1 bis tm zu Objektspuren verwendet wird.After the assignment of detection points d1 to dn to the tracklets t1 to tm in method step S3, the tracklets t1 to tm are assigned to the object tracks g1 to gk in method step S4 on the basis of at least one feature parameter. In this example, tracklets t1 through tm are assigned to object tracks g1 through gk based on the overlap of the gates of tracklets t1 through tm, using a DBSCAN method to group tracklets t1 through tm into object tracks.
Im Verfahrensschritt S5 werden die Metadaten der Tracklets t1 bis tm aktualisiert. In diesem Beispiel wird der Status der Tracklets t1 bis tm beibehalten, wobei der Status einen tentativen Zustand, einen verfolgten Zustand, einen verlorenen Zustand und einen vollständig verlorenen Zustand umfassen kann.In method step S5, the metadata of the tracklets t1 to tm are updated. In this example, the status of tracklets t1 through tm is retained, where the status can include a tentative state, a tracked state, a lost state, and a completely lost state.
Weiterhin können die Metadaten der Tracklets t1 bis tm einen Track-Count-Wert und einen Lost- Track-Count-Wert sowie eine eindeutige Identifikationsnummer umfassen, die identifiziert, zu welcher Objektspur g1 bis gk das Tracklet t1 bis tm gehört.Furthermore, the metadata of the tracklets t1 to tm can include a track count value and a lost track count value as well as a unique identification number that identifies to which object track g1 to gk the tracklet t1 to tm belongs.
Die Regeln für die Aktualisierung des Status erlauben es, dass ein Tracklet t1 bis tm für mehrere Radarbilder verloren geht, wenn es keine Detektionspunkte gibt, die dem Tracklet zugeordnet werden können. Schließlich, wenn das Tracklet t1 bis tm für eine vorbestimmte Zeitspanne verloren ist, wird das Tracklet als im vollständig verlorenen Zustand befindlich betrachtet.The status update rules allow a tracklet t1 to tm to be lost for multiple radar images when there are no detection points that can be associated with the tracklet. Finally, if the tracklet t1 to tm is lost for a predetermined period of time, the tracklet is considered to be in the completely lost state.
Der Track-Count-Wert wird in jeder Iteration der Verfolgungsschleife erhöht, in der das Tracklet t1 bis tm verfolgt werden kann, d. h. dem Tracklet t1 bis tm Detektionspunkte zugeordnet werden können. Der Lost- Track-Count-Wert wird in jeder Iteration der Verfolgungsschleife erhöht, in der das Tracklet nicht verfolgt werden kann, d. h. dem Tracklet t1 bis tm kann kein Detektionspunkt zugeordnet werden.The track count value is incremented in each iteration of the tracking loop that tracklet t1 through tm can be tracked, i.e. H. detection points can be assigned to the tracklet t1 to tm. The Lost Track Count value is increased in each iteration of the tracking loop in which the tracklet cannot be tracked, i.e. H. no detection point can be assigned to the tracklet t1 to tm.
Neu initialisierte Tracklets t1 bis tm haben zunächst einen vorläufigen Zustand, bis der Track-Count-Wert einen vorbestimmten Wert erreicht.Newly initialized tracklets t1 to tm initially have a preliminary state until the track count value reaches a predetermined value.
Ein Tracklet in einem vorläufigen Zustand, dem kein Detektionspunkt zugeordnet ist, wird sofort in den vollständig verlorenen Zustand aktualisiert und aus der Liste der Tracklets t1 bis tm entfernt.A tracklet in a preliminary state with no associated detection point is immediately updated to the completely lost state and removed from the list of tracklets t1 to tm.
Wenn ein Tracklet einen verfolgten Zustand hat und dem Tracklet keine Detektionspunkte d1 bis dn zugeordnet werden können, wird der Status des Tracklets auf den verlorenen Zustand aktualisiert und das Erhöhen des Lost-Track-Count-Wertes beginnt. Sobald dem Tracklet t1 bis tm wieder ein Detektionspunkt zugeordnet werden kann, wird der Status des Tracklets wieder in den verfolgten Zustand versetzt und der Track-Count-Wert sowie der Lost- Track-Count-Wert auf Null gesetzt.If a tracklet has a tracked state and no detection points d1 through dn can be assigned to the tracklet, the tracklet's status is updated to the lost state and the incrementing of the Lost Track Count value begins. As soon as a detection point can again be assigned to the tracklet t1 to tm, the status of the tracklet is set back to the tracked state and the track count value and the lost track count value are set to zero.
Wenn der Lost-Track-Count Wert eines Tracklets einen vorbestimmten Wert erreicht, wird es in einen vollständig verlorenen Zustand aktualisiert und aus der Liste der Tracklets entfernt.When a tracklet's Lost Track Count value reaches a predetermined value, it is updated to a completely lost state and removed from the list of tracklets.
Im Verfahrensschritt S6 wird jeder Detektionspunkt, der nicht den Tracklets t1 bis tm zugeordnet wird, verwendet, um neue Tracklets zu initialisieren, die einen vorläufigen Zustand wie oben beschrieben tragen. Für jeden (nicht zugeordneten) Detektionspunkt wird ein neues Tracklet initialisiert. Die meisten solcher Tracklets sind falsch und gehen nach einigen Iterationen der Verfolgungsschleife vollständig verloren.In method step S6, each detection point that is not assigned to tracklets t1 to tm is used to initialize new tracklets that have a preliminary status as described above. A new tracklet is initialized for each (unassigned) detection point. Most such tracklets are bogus and are lost entirely after a few iterations of the tracking loop.
Im Verfahrensschritt S7 werden die Parameter aller aktiven Tracklets t1 bis tm (das sind Tracklets mit einem verfolgten Zustand), die im Verfahrensschritt S2 vorhergesagt (prädiziert) wurden, korrigiert. Diese Korrektur basiert auf den zugeordneten Detektionen, gemäß Regeln, die heuristisch sind oder die sich als Lösungen der Bayes'schen Filtergleichungen ergeben, die den angenommenen dynamischen Systemmodellen entsprechen. Insbesondere werden synthetische Beobachtungen durch eine gewichtete Mittelung der Detektionspunkte gebildet:
Im Verfahrensschritt S8 wird abgefragt, ob die Verfolgungsschleife beendet werden soll, z. B. wenn das aktuelle Radarbild das letzte zu verfolgende Radarbild ist. Wenn das Verfolgen fortgesetzt werden soll, werden die Verfahrensschritte S1 bis S7 für das nächste Radarbild durchgeführt. Wenn das aktuelle Radarbild das letzte zu verfolgende Radarbild ist, wird die Verfolgungsschleife abgebrochen.In method step S8 it is queried whether the tracking loop should be ended, e.g. B. if the current radar picture is the last radar picture to be tracked. If tracking is to be continued, the method steps S1 to S7 are carried out for the next radar image. If the current radar picture is the last radar picture to be tracked, the track loop is cancelled.
Im Zusammenhang mit der Reihenfolge der einzelnen Schritte der Verfolgungsschleife ist zu beachten, dass die Reihenfolge der Verfahrensschritte im vorliegenden Beispiel nicht einschränkend ist. Entsprechend kann die Reihenfolge der einzelnen Verfahrensschritte vertauscht werden, wenn dies technisch sinnvoll ist.In connection with the order of the individual steps of the tracking loop, it should be noted that the order of the method steps in the present example is not limiting. Accordingly, the order of the individual process steps can be reversed if this makes technical sense.
In
In dem Sichtfeld FoV des Radarsystems 100 kann ein erstes sich bewegendes Objekt O1 über mehrere Radarbilder beobachtet werden, beginnend mit einem aktuellen Radarbild fp. In
Weiterhin ist in
Ein aktuelles Radarbild fp ist in den
Weiterhin werden die Detektionspunkte d1 bis d16 nach dem Verfahrensschritt S1 detektiert und in den
In dem in den
In
In
Die Detektionspunkte d1 bis d18 sind den Tracklets t1 bis t6 gemäß Verfahrensschritt S3 der Verfolgungsschleife zugeordnet, wie oben erläutert. Die Detektionspunkte d7 bis d9 sind nicht zugeordnete Detektionspunkte ud, da die Detektionspunkte d7 bis d9 innerhalb keines Gates a1 bis a6 der Tracklets t1 bis t6 liegen.The detection points d1 to d18 are assigned to the tracklets t1 to t6 according to method step S3 of the tracking loop, as explained above. The detection points d7 to d9 are unassigned detection points ud, since the detection points d7 to d9 do not lie within any gate a1 to a6 of the tracklets t1 to t6.
In dem in
In
Es wird angemerkt, dass die Verfolgungsberechnungseinheit 130 auch Teil von mindestens einer der Radareinheiten 110 und 120 sein kann. Im Beispiel von
Die Radareinheiten 110, 120 weisen jeweils ein Sichtfeld FoV-110, FoV-120 auf, wobei sich die Sichtfelder FoV-110, FoV-120 der Radareinheiten 110, 120 in einem Sichtfeld FoV des Radarsystems 100 zumindest teilweise (räumlich) überlappen.
Im Sichtfeld FoV befindet sich ein bewegtes Objekt O1 mit einer tatsächlichen Geschwindigkeit
Die beiden radialen Geschwindigkeitskomponenten jedes Detektionspunktes d1 bis d4 können mit einer Least-Squares-Lösung gelöst werden, um einen zweidimensionalen Geschwindigkeitsvektor zu schätzen. Entsprechend kann ein mehrdimensionaler Geschwindigkeitsvektor geschätzt werden, wenn die Messdaten z.B. auch Messungen in Elevationsrichtung umfassen.The two radial velocity components of each detection point d1 to d4 can be solved with a least squares solution to estimate a two-dimensional velocity vector. Accordingly, a multi-dimensional velocity vector can be estimated if the measurement data also include measurements in the elevation direction, for example.
Die Berechnung des zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektors beinhaltet eine Interpolationsoperation zwischen den Entfernungs-Winkel-Koordinatenrastern der Radargeräte 110, 120. Für jedes Radarbild wird eine Liste von zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren entsprechend den Größen der Radarbilder (z.B. das Minimum der Größen der Radareinheiten 110, 120) entsprechend bewertet.The calculation of the two-dimensional or multi-dimensional velocity vector involves an interpolation operation between the range-angle coordinate grids of the
In
Die zwei- oder mehrdimensionalen Geschwindigkeitsvektoren können in den Aktualisierungsschritt S5, in den Initialisierungsschritt S6 und in den Korrekturschritt S7 der Verfolgungsschleife wie folgt einbezogen werden:
- Im Aktualisierungsschritt S5 ist es möglich, die Genauigkeit der Verfolgungsschleife zu verbessern. Insbesondere kann ein Übergang zwischen einem vorläufigen Zustand und einem verfolgten Zustand eines Tracklets beschleunigt werden, wenn sich das Tracklet innerhalb eines Bereichs um die Position eines Detektionspunkts befindet, für den ein zweidimensionaler Vektor bestimmt wird, und wenn ein Vergleichsmaß des mehrdimensionalen Geschwindigkeitsvektors und der mehrdimensionalen Geschwindigkeitsvektoren der benachbarten mehrdimensionalen Geschwindigkeitsvektoren des Detektionspunkts gleich oder größer als ein vorgegebener Schwellenwert ist.
- In the updating step S5, it is possible to improve the accuracy of the tracking loop. In particular, a transition between a preliminary state and a tracked state of a tracklet can be accelerated when the tracklet is within a range of the position of a detection point for which a two-dimensional vector is determined and when a comparative measure of the multi-dimensional velocity vector and the multi-dimensional velocity vectors of the neighboring multi-dimensional velocity vectors of the detection point is equal to or larger than a predetermined threshold.
Beispielsweise erzeugt ein zweidimensionaler oder mehrdimensionaler Geschwindigkeitsvektor, dessen der Bewegungsrichtung mit denen seiner Nachbarn übereinstimmt, einen sogenannten Hotspot um den entsprechenden Detektionspunkt des zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektors.For example, a two-dimensional or multi-dimensional velocity vector whose direction of movement corresponds to that of its neighbors generates a so-called hotspot around the corresponding detection point of the two-dimensional or multi-dimensional velocity vector.
Der sogenannte Hotspot kann z. B. ein elliptischer Bereich, ein rechteckiger Bereich, ein kreisförmiger Bereich oder dergleichen in kartesischen Koordinaten sein.The so-called hotspot can e.g. B. be an elliptical area, a rectangular area, a circular area or the like in Cartesian coordinates.
Die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren können durch die Position des entsprechenden Detektionspunkts um die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren aussortiert werden, um die Nachbarn der zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren zu identifizieren.The two-dimensional or multi-dimensional velocity vectors can be sorted out by the position of the corresponding detection point around the two-dimensional or multi-dimensional velocity vectors to identify the neighbors of the two-dimensional or multi-dimensional velocity vectors.
Als Vergleichsmaßstab hoti kann das normierte Innenprodukt der Geschwindigkeitsvektoren mit den Geschwindigkeitsvektoren des Nachbarn berechnet und aufsummiert werden. Das aufsummierte, normierte Innenprodukt der Geschwindigkeitsvektoren hoti kann dann mit einem vorgegebenen Schwellwert hotthresh verglichen werden, um zu bestimmen, ob ein Hotspot erzeugt wird oder nicht:
Das normalisierte Innenprodukt misst die Übereinstimmung darüber, in welche Richtung sich das Objekt an diesem Ort bewegt. Die Summe ist eine Anhäufungsmetrik, die für eine Anzahl n von Geschwindigkeitsvektoren von -n (perfekte Nichtübereinstimmung) über 0 (Erwartungswert, wenn die Richtungen gleichmäßig zufällig sind) bis n (perfekte Übereinstimmung) reicht.The normalized interior product measures agreement about which direction the object is moving at that location. The sum is an accumulation metric ranging from -n (perfect mismatch) through 0 (expected value when directions are uniformly random) to n (perfect match) for a number n of velocity vectors.
In ähnlicher Weise können im Initialisierungsschritt S6 Tracklets schneller mit einem verfolgten Zustand initialisiert werden, wenn zwei- oder mehrdimensionale Geschwindigkeitsvektoren von beobachteten Detektionspunkten verfügbar sind.Similarly, in the initialization step S6, tracklets can be initialized more quickly with a tracked state if two or more dimensional velocity vectors of observed detection points are available.
Tracklets oder Objektspuren (Gruppen von Tracklets) können mit einem verfolgten Zustand anstelle eines tentativen Zustands initialisiert werden, wenn das gleiche Vergleichsmaß gilt.Tracklets or object tracks (groups of tracklets) can be initialized with a tracked state instead of a tentative state if the same measure of comparison applies.
So können z. B. sowohl Tracklets als auch Objektspuren in einem Radarbild mit einem verfolgten Zustand für ein Objekt initialisiert werden, solange die beobachteten Detektionspunkte und genügend zwei- oder mehrdimensionale Geschwindigkeitsvektoren in seiner Nachbarschaft übereinstimmen.So e.g. B. Both tracklets and object traces in a radar image can be initialized with a tracked state for an object as long as the observed detection points and enough two- or multi-dimensional velocity vectors in its neighborhood match.
Außerdem können die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren in den Korrekturschritt S7 der Verfolgungsschleife einbezogen werden.In addition, the two-dimensional or multi-dimensional velocity vectors can be included in the correction step S7 of the tracking loop.
Zum Beispiel kann der Aktualisierungsschritt S5 durchgeführt werden und dann ein weiterer (separater) Aktualisierungsschritt auf der Basis der benachbarten zwei- oder mehrdimensionalen Geschwindigkeitsvektoren. Hier enthalten die zu korrigierenden Tracklets Geschwindigkeitsvektoren als Parameter, so dass die Mittelposition und der Geschwindigkeitsvektor des Tracklets zum Gaten (Aussortieren) der Position und Geschwindigkeit verwendet werden können. Dann kann ein Median über die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren berechnet werden, um weitere Ausreißer zu verwerfen und die Geschwindigkeit des Tracklets mit einer entsprechend gewichteten konvexen Kombination zu aktualisieren:
Das System 1000 kann eine Fahrgastschnittstelle 1200, einen Fahrzeugkoordinator 1300 und/oder eine Fern-Expertenschnittstelle 1400 umfassen. In bestimmten Ausführungsformen erlaubt die Fern-Expertenschnittstelle 1400 einer Nicht-Passagier-Entität, die Verhaltenseinstellungen des autonomen Fahrzeugs 1100 einzustellen und/oder zu ändern. Die Nicht-Passagier- Entität kann sich von dem Fahrzeugkoordinator 1300 unterscheiden, der ein Server sein kann.The
Das System 1000 funktioniert derart, dass das autonome Fahrzeug 1100 in der Lage ist, ein Fahrverhalten in Reaktion auf Parameter zu ändern und/oder einzustellen, die vom Fahrgast (z. B. über die Fahrgastschnittstelle 1200) und/oder anderen interessierten Beteiligten (z. B. über den Fahrzeugkoordinator 1300 oder die Fern-Expertenschnittstelle 1400) eingestellt wurden. Das Fahrverhalten eines autonomen Fahrzeugs kann entsprechend expliziter Eingaben oder Rückmeldungen (z. B. ein Fahrgast, der eine Höchstgeschwindigkeit oder ein relatives Komfortniveau vorgibt), impliziter Eingaben oder Rückmeldungen (z. B. die Herzfrequenz eines Fahrgastes) oder jeder anderen geeigneten Daten oder Art der Übermittlung von Fahrverhaltenspräferenzen geändert werden.The
Das autonome Fahrzeug 1100 ist vorzugsweise ein vollständig autonomes Automobil, kann aber zusätzlich oder alternativ jedes beliebige teilautonome oder vollständig autonome Fahrzeug sein; z. B. ein Boot, ein unbemanntes Luftfahrzeug, ein fahrerloses Auto usw. Zusätzlich oder alternativ kann das autonome Fahrzeug ein Fahrzeug sein, das zwischen einem teilautonomen Zustand und einem vollständig autonomen Zustand umschaltet, und somit können die autonomen Fahrzeuge je nach Zustand des Fahrzeugs sowohl Attribute eines teilautonomen Fahrzeugs als auch eines vollständig autonomen Fahrzeugs aufweisen.The autonomous vehicle 1100 is preferably a fully autonomous automobile, but may additionally or alternatively be any semi-autonomous or fully autonomous vehicle; e.g. a boat, an unmanned aerial vehicle, a driverless car, etc. Additionally or alternatively, the autonomous vehicle can be a vehicle that switches between a semi-autonomous state and a fully autonomous state, and thus the autonomous vehicles can have both attributes depending on the state of the vehicle a semi-autonomous vehicle and a fully autonomous vehicle.
Das autonome Fahrzeug 1100 umfasst vorzugsweise eine Gaspedalschnittstelle, die eine Motordrossel, die Motordrehzahl (z. B. die Drehzahl eines Elektromotors) oder einen anderen Mechanismus zur Bewegungsermöglichung steuert; eine Bremsschnittstelle, die die Bremsen des autonomen Fahrzeugs (oder einen anderen Mechanismus zur Bewegungshemmung) steuert; und eine Lenkschnittstelle, die die Lenkung des autonomen Fahrzeugs steuert (z. B. durch Ändern des Winkels der Räder des autonomen Fahrzeugs). Das autonome Fahrzeug 1100 kann zusätzlich oder alternativ Schnittstellen zur Steuerung beliebiger anderer Fahrzeugfunktionen enthalten; z. B. Scheibenwischer, Scheinwerfer, Blinker, Klimaanlage usw.The autonomous vehicle 1100 preferably includes an accelerator pedal interface that controls an engine throttle, engine speed (e.g., speed of an electric motor), or other mechanism mus controls to enable movement; a braking interface that controls the autonomous vehicle's brakes (or other motion-inhibiting mechanism); and a steering interface that controls the steering of the autonomous vehicle (e.g., by changing the angle of the wheels of the autonomous vehicle). The autonomous vehicle 1100 may additionally or alternatively include interfaces for controlling any other vehicle function; e.g. B. Windscreen wipers, headlights, turn signals, air conditioning, etc.
Darüber hinaus umfasst das autonome Fahrzeug 1100 vorzugsweise einen Bordcomputer 1450.In addition, the autonomous vehicle 1100 preferably includes an on-
Die Verfolgungsberechnungseinheit 130 kann zumindest teilweise im und/oder am Fahrzeug 1100 angeordnet sein und kann (zumindest teilweise) in den Bordcomputer 1450 integriert sein und/oder kann (zumindest teilweise) in eine Recheneinheit zusätzlich zum Bordcomputer 1450 integriert sein. Alternativ oder zusätzlich kann die Ortungseinheit (zumindest teilweise) in die erste und/oder zweite Radareinheit 110, 120 integriert sein. Wenn die Verfolgungseinheit 130 (zumindest teilweise) zusätzlich zum Bordcomputer 1450 vorgesehen ist, kann sie in Kommunikation mit dem Bordcomputer stehen, so dass Daten von der Verfolgungseinheit 130 an den Bordcomputer 1450 und/oder umgekehrt übertragen werden können.The tracking
Zusätzlich oder alternativ kann die Verfolgungsberechnungseinheit 130 (zumindest teilweise) in eine oder mehrere oder alle der Beifahrerschnittstelle 1200, des Fahrzeugkoordinators 1300 und/oder einer Fern-Expertenschnittstelle 1400 integriert sein. Insbesondere kann in einem solchen Fall das Radarsystem die Fahrgastschnittstelle 1200, den Fahrzeugkoordinator 1300 und/oder eine Fern-Expertenschnittstelle 1400 umfassen.Additionally or alternatively, the tracking
Zusätzlich zu der/den einen oder zwei oder mehreren RADAR-Einheit(en) umfasst das autonome Fahrzeug 1100 vorzugsweise eine Sensoreinheit 1500 (einschließlich z. B. eines oder mehrerer oder aller Computer-Vision-Systeme („CV“), LIDAR, Radgeschwindigkeitssensoren, GPS, Kameras usw.).In addition to the one or two or more RADAR unit(s), the autonomous vehicle 1100 preferably includes a sensor unit 1500 (including, e.g., one or more or all computer vision ("CV") systems, LIDAR, wheel speed sensors , GPS, cameras, etc.).
Der Bordcomputer 1450 kann als ADSC implementiert sein und funktioniert, um das autonome Fahrzeug 1100 zu steuern und verarbeitet erfasste Daten von der Sensoreinheit 1500 und/oder anderen Sensoren, insbesondere Sensoren, die von den Radareinheiten 110, 120 bereitgestellt werden, und/oder Daten von der Verfolgungsberechnungseinheit 130, um den Zustand des autonomen Fahrzeugs 1100 zu bestimmen. Basierend auf dem Fahrzeugzustand und programmierten Anweisungen modifiziert oder steuert der Bordcomputer 1450 vorzugsweise das Fahrverhalten des autonomen Fahrzeugs 1100.The
Das Fahrverhalten kann alle Informationen umfassen, die sich darauf beziehen, wie ein autonomes Fahrzeug fährt (z. B. das Betätigen von Bremsen, Gaspedal, Lenkung), wenn ein Satz von Anweisungen (z. B. eine Route oder ein Plan) gegeben ist. Das Fahrverhalten kann eine Beschreibung des kontrollierten Betriebs und der Bewegung eines autonomen Fahrzeugs und der Art und Weise, wie das autonome Fahrzeug Verkehrsregeln während einer oder mehrerer Fahrsitzungen anwendet, beinhalten. Das Fahrverhalten kann zusätzlich oder alternativ alle Informationen darüber enthalten, wie ein autonomes Fahrzeug Routen berechnet (z. B. Priorisierung der schnellsten Zeit gegenüber der kürzesten Strecke), anderes Betätigungsverhalten des autonomen Fahrzeugs (z. B. Betätigung von Lichtern, Scheibenwischern, Einstellungen der Antriebsschlupfregelung usw.) und/oder wie ein autonomes Fahrzeug auf Umwelteinflüsse reagiert (z. B. wie sich ein autonomes Fahrzeug verhält, wenn es regnet oder wenn ein Tier vor das Fahrzeug springt). Einige Beispiele für Elemente, die zum Fahrverhalten beitragen können, sind Beschleunigungsbeschränkungen, Verzögerungsbeschränkungen, Geschwindigkeitsbeschränkungen, Lenkungsbeschränkungen, Federungseinstellungen, Routenpräferenzen (z. B. landschaftlich reizvolle Routen, schnellere Routen, keine Autobahnen), Beleuchtungspräferenzen, Verhalten bei „rechtlicher Unklarheit“ (z. B., (z. B. ob ein Fahrzeug bei Grün in die Kreuzung einfährt oder an der Kreuzungslinie wartet), Aktionsprofile (z. B. wie ein Fahrzeug abbiegt, die Spur wechselt oder ein Fahrmanöver durchführt) und Aktionshäufigkeitsbeschränkungen (z. B. wie oft ein Fahrzeug die Spur wechselt).Driving behavior may include any information related to how an autonomous vehicle drives (eg, applying the brakes, accelerator, steering) when given a set of instructions (eg, a route or a plan). . Driving behavior may include a description of the controlled operation and movement of an autonomous vehicle and how the autonomous vehicle applies traffic rules during one or more driving sessions. The driving behavior can additionally or alternatively contain all information about how an autonomous vehicle calculates routes (e.g. prioritizing the fastest time over the shortest route), other operating behavior of the autonomous vehicle (e.g. operating lights, windshield wipers, settings of the traction control, etc.) and/or how an autonomous vehicle reacts to environmental influences (e.g. how an autonomous vehicle behaves when it rains or when an animal jumps in front of the vehicle). Some examples of elements that may contribute to driving behavior are acceleration restrictions, deceleration restrictions, speed restrictions, steering restrictions, suspension settings, route preferences (e.g. scenic routes, faster routes, not freeways), lighting preferences, "legal ambiguity" behavior (e.g. e.g., (e.g. whether a vehicle enters the intersection on green or waits at the intersection line), action profiles (e.g. how a vehicle turns, changes lanes or performs a driving manoeuvre), and action frequency constraints (e.g. how often a vehicle changes lanes).
Der Bordcomputer 1450 steuert den Betrieb und die Funktionalität der autonomen Fahrzeuge 1100 und verarbeitet Messdaten von der Sensoreinheit 1500 und/oder anderen Sensoren, insbesondere von den Radareinheiten 110, 120, und/oder Daten von der Verfolgungsberechnungseinheit 130, um Zustände der autonomen Fahrzeuge 1100 zu bestimmen. Basierend auf dem Fahrzeugzustand und programmierten Anweisungen modifiziert oder steuert der Bordcomputer 1450 vorzugsweise das Verhalten der autonomen Fahrzeuge 1100. Die Verfolgungsberechnungseinheit und/oder der Bordcomputer 1450 ist/sind vorzugsweise ein Allzweckcomputer, der/die für die I/O-Kommunikation mit Fahrzeugsteuerungssystemen und Sensorsystemen geeignet ist, kann aber zusätzlich oder alternativ jede geeignete Recheneinheit sein. Der Bordcomputer 1450 ist vorzugsweise über eine drahtlose Verbindung (z. B. über eine zellulare Datenverbindung) mit dem Internet verbunden. Zusätzlich oder alternativ kann der Bordcomputer 1450 mit einer beliebigen Anzahl von drahtlosen oder drahtgebundenen Kommunikationssystemen verbunden sein.The
Die Sensoreinheit 1500 umfasst vorzugsweise Lokalisierungs- und Fahrsensoren, z. B. Fotodetektoren, Kameras, SONAR, LIDAR, GPS, Inertialmesseinheiten (IMUs), Beschleunigungsmesser, Mikrofone, Dehnungsmessstreifen, Druckwächter, Barometer, Thermometer, Höhenmesser usw.The
In einem Ausführungsbeispiel kann eine beliebige Anzahl elektrischer Schaltungen aus
BezugszeichenlisteReference List
- S0S0
- Verfahrensschritt des Initialisierens der Verfolgungsschleife;step of initializing the tracking loop;
- S1S1
- Verfahrensschritt des Erkennens von Detektionspunkten in dem aktuellen Radarbild;method step of recognizing detection points in the current radar image;
- S2S2
- Verfahrensschritt der Vorhersage eines oder mehrerer Parameter jedes Tracklets;step of predicting one or more parameters of each tracklet;
- S3S3
- Verfahrensschritt des Zuordnens der Detektionspunkte zu den Tracklets;method step of assigning the detection points to the tracklets;
- S4S4
- Verfahrensschritt des Zuordnens der Tracklets zu den Objektspuren;Method step of assigning the tracklets to the object tracks;
- S5S5
- Verfahrensschritt des Aktualisierens der Metadaten der Tracklets;method step of updating the metadata of the tracklets;
- S6S6
- Verfahrensschritt des Initialisierens neuer Tracklets;Method step of initializing new tracklets;
- S7S7
- Verfahrensschritt des Korrigierens der Parameter der Tracklets;step of correcting the parameters of the tracklets;
- S8S8
- Verfahrensschritt des Abfragens, ob der vorliegende Radarbild der letzte zu verarbeitende Radarbild ist;step of querying whether the present radar image is the last radar image to be processed;
- a1 bis ala1 to al
- Gates (Assoziationsbereiche) der Tracklets;Gates (association areas) of the tracklets;
- d1 bis dnd1 to dn
- Detektionspunkte;detection points;
- t1 bis tmt1 to tm
- Tracklets;tracklets;
- g1 bis gkg1 to gk
- Objektspuren;object traces;
- duyou
- nichtzugeordnete Detektionspunkt;unassigned detection points;
- fpfp
- aktuelles Radarbild;current radar image;
-
fp+1
fp+ 1 - Radarbild, das auf das aktuelle Radarbild folgt;Radar image following the current radar image;
-
fp+2
fp+ 2 - weiteres Radarbild, das auf das aktuelle Radarbild folgt;another radar image following the current radar image;
- O1, O2O1, O2
- erste und zweite Objekte;first and second objects;
- O1(fp)O1(fp)
- erstes Objekt in einem aktuellen Radarbild;first object in a current radar image;
- TT
- Trajektorie;trajectory;
- FoVFoV
- Sichtfeld des Radarsystems;field of view of the radar system;
- FoV-110FoV-110
- Sichtfeld der ersten Radareinheit;field of view of the first radar unit;
- FoV-120FoV-120
- Sichtfeld der zweiten Radareinheit;field of view of the second radar unit;
- Ist-Geschwindigkeit des Objekts;actual speed of the object;
- zwei- oder mehrdimensionale Geschwindigkeitsvektoren eines Detektionspunktes;two or more dimensional velocity vectors of a detection point;
- 100100
- Radarsystem;radar system;
- 110110
- erste Radareinheit;first radar unit;
- 111111
- erste Radarantenne;first radar antenna;
- 120120
- zweite Radareinheit;second radar unit;
- 121121
- zweite Radarantenne;second radar antenna;
- 130130
- Verfolgungsberechnungseinheittracking calculation unit
- 10001000
- Systemsystem
- 11001100
- Fahrzeugvehicle
- 12001200
-
Fahrgastschnittstelle 1200
Passenger Interface 1200 - 13001300
-
Fahrzeugkoordinator 1300
Vehicle Coordinator 1300 - 14001400
- Fern-ExpertenschnittstelleRemote Expert Interface
- 14501450
- Bordcomputeron-board computer
- 15001500
- Sensoreinheitsensor unit
Die obige Beschreibung der dargestellten Ausführungsformen erhebt keinen Anspruch auf Vollständigkeit oder Einschränkung hinsichtlich der genauen Formen, die offengelegt werden. Während spezifische Implementierungen von und Beispiele für verschiedene Ausführungsformen oder Konzepte hier zur Veranschaulichung beschrieben werden, sind verschiedene äquivalente Modifikationen möglich, wie Fachleute auf dem entsprechenden Gebiet erkennen werden. Diese Modifikationen können unter Berücksichtigung der obigen detaillierten Beschreibung oder der Figuren vorgenommen werden.The above description of the illustrated embodiments is not intended to be exhaustive or limited as to the precise forms disclosed. While specific implementations of, and examples for, various embodiments or concepts are described herein for purposes of illustration, various equivalent modifications are possible, as will be appreciated by those skilled in the relevant art. These modifications can be made in light of the above detailed description or figures.
Verschiedene Ausführungsformen können jede geeignete Kombination der oben beschriebenen Ausführungsformen umfassen, einschließlich alternativer (oder) Ausführungsformen von Ausführungsformen, die oben in konjunktiver Form (und) beschrieben sind (z. B. kann das „und“ „und/oder“ sein). Darüber hinaus können einige Ausführungsformen einen oder mehrere Herstellungsgegenstände (z. B. nicht-flüchtige computerlesbare Medien) mit darauf gespeicherten Anweisungen umfassen, die bei ihrer Ausführung zu Aktionen einer der oben beschriebenen Ausführungsformen führen. Darüber hinaus können einige Ausführungsformen Vorrichtungen oder Systeme mit allen geeigneten Mitteln zur Ausführung der verschiedenen Vorgänge der oben beschriebenen Ausführungsformen umfassen.Various embodiments may include any suitable combination of the embodiments described above, including alternative (or) embodiments of embodiments described above in the conjunctive form (and) (e.g., the "and" may be "and/or"). Additionally, some embodiments may include one or more articles of manufacture (e.g., non-transitory computer-readable media) having instructions stored thereon that, when executed, result in actions of any of the embodiments described above. Furthermore, some embodiments may include devices or systems having any suitable means for performing the various operations of the embodiments described above.
In bestimmten Kontexten können die hier besprochenen Ausführungsformen auf Automobilsysteme (insbesondere autonome Fahrzeuge, vorzugsweise autonome Automobile), (sicherheitskritische) industrielle Anwendungen und industrielle Prozesssteuerung anwendbar sein.In certain contexts, the embodiments discussed herein may be applicable to automotive systems (particularly autonomous vehicles, preferably autonomous automobiles), industrial (safety-critical) applications, and industrial process control.
Darüber hinaus können bestimmte hier besprochene Ausführungsformen zur Verfolgung mindestens eines Objekts in Messdaten eines Radarsystems in digitalen Signalverarbeitungstechnologien für medizinische Bildgebung, Automobiltechnologien für Sicherheitssysteme (z. B. Stabilitätskontrollsysteme, Fahrerassistenzsysteme, Bremssysteme, Infotainment- und Innenraumanwendungen jeglicher Art) bereitgestellt werden.Additionally, certain embodiments discussed herein may be provided for tracking at least one object in measurement data from a radar system in digital signal processing technologies for medical imaging, automotive technologies for safety systems (e.g., stability control systems, driver assistance systems, braking systems, infotainment, and interior applications of any kind).
Teile verschiedener Systeme zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems, wie hier vorgeschlagen, können elektronische Schaltungen enthalten, um die hier beschriebenen Funktionen auszuführen. In einigen Fällen können ein oder mehrere Teile des Systems durch einen Prozessor bereitgestellt werden, der speziell für die Ausführung der hierin beschriebenen Funktionen ausgestaltet ist. Beispielsweise kann der Prozessor eine oder mehrere anwendungsspezifische Komponenten enthalten, oder er kann programmierbare Logikgatter enthalten, die dazu ausgestaltet sind, die hier beschriebenen Funktionen auszuführen. Die Schaltung kann im analogen Bereich, im digitalen Bereich oder in einem Mixed-Signal-Bereich arbeiten. In einigen Fällen kann der Prozessor dazu ausgestaltet sein, die hierin beschriebenen Funktionen auszuführt, indem er eine oder mehrere Anweisungen ausführt, die auf einem nicht-flüchtigen, computerlesbaren Speichermedium gespeichert sind.Portions of various systems for tracking at least one object in measurement data from a radar system as proposed herein may include electronic circuitry to perform the functions described herein. In some cases, one or more portions of the system may be provided by a processor that is specifically configured to perform the functions described herein. For example, the processor may include one or more application specific components, or it may include programmable logic gates configured to perform the functions described herein. The circuit can operate in the analog domain, in the digital domain, or in a mixed-signal domain. In some cases, the processor may be configured to perform the functions described herein by executing one or more instructions stored on a non-transitory, computer-readable storage medium.
In einem Ausführungsbeispiel kann eine beliebige Anzahl von elektrischen Schaltungen der vorliegenden Figuren auf einer Platine eines zugehörigen elektronischen Geräts implementiert sein. Die Platine kann eine allgemeine Leiterplatte sein, die verschiedene Komponenten des internen elektronischen Systems des elektronischen Geräts aufnehmen kann und darüber hinaus Anschlüsse für andere Peripheriegeräte bereitstellen kann. Genauer gesagt, kann die Platine die elektrischen Verbindungen bereitstellen, über die die anderen Komponenten des Systems elektrisch kommunizieren können. Alle geeigneten Prozessoren (einschließlich digitaler Signalprozessoren, Mikroprozessoren, unterstützender Chipsätze usw.), computerlesbare nicht-flüchtige Speicherelemente usw. können in geeigneter Weise mit der Platine verbunden werden, basierend auf bestimmten Konfigurationsanforderungen, Verarbeitungsanforderungen, Computerdesigns usw. Andere Komponenten, wie z. B. externe Speicher, zusätzliche Sensoren, Controller für die Audio-/Videowiedergabe und Peripheriegeräte können als Steckkarten, über Kabel oder integriert in die Platine selbst an die Platine angeschlossen werden. In verschiedenen Ausführungsformen können die hier beschriebenen Funktionalitäten in Emulationsform als Software oder Firmware implementiert werden, die innerhalb eines oder mehrerer konfigurierbarer (z. B. programmierbarer) Elemente läuft, die in einer Struktur angeordnet sind, die diese Funktionen unterstützt. Die Software oder Firmware, die die Emulation bereitstellt, kann auf einem nicht-flüchtigen, computerlesbaren Speichermedium bereitgestellt werden, das Anweisungen enthält, die es einem Prozessor ermöglichen, diese Funktionalitäten auszuführen.In one embodiment, any number of the electrical circuits of the present figures may be implemented on a circuit board of an associated electronic device. The circuit board can be a general circuit board that can house various components of the electronic device's internal electronic system and can also provide connections for other peripheral devices. More specifically, the circuit board can provide the electrical connections that allow the other components of the system to communicate electrically. Any suitable processors (including digital signal processors, microprocessors, supporting chipsets, etc.), computer readable non-volatile memory elements, etc. may be suitably connected to the board based on particular configuration needs, processing requirements, computer design, etc. Other components such as Devices such as external storage, additional sensors, controllers for audio/video playback and peripherals can be connected to the board as plug-in cards, via cables or integrated into the board itself. In various embodiments, the functionality described herein may be implemented in emulation form as software or firmware running within one or more configurable (e.g., programmable) elements arranged in a structure that supports those functionality. The software or firmware that provides the emulation may be provided on a non-transitory, computer-readable storage medium that contains instructions that enable a processor to perform these functionalities.
Claims (21)
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/EP2021/083747 WO2022122500A1 (en) | 2020-12-09 | 2021-12-01 | Method, apparatus and radar system for tracking objects |
EP21823858.2A EP4260092A1 (en) | 2020-12-09 | 2021-12-01 | Method, apparatus and radar system for tracking objects |
US18/256,823 US20240045052A1 (en) | 2020-12-09 | 2021-12-01 | Method, apparatus and radar system for tracking objects |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202063123403P | 2020-12-09 | 2020-12-09 | |
US63/123,403 | 2020-12-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021105659A1 true DE102021105659A1 (en) | 2022-06-09 |
Family
ID=81655164
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021105659.4A Pending DE102021105659A1 (en) | 2020-12-09 | 2021-03-09 | Method, device and radar system for tracking objects |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021105659A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115410370A (en) * | 2022-08-31 | 2022-11-29 | 南京慧尔视智能科技有限公司 | Abnormal parking detection method and device, electronic equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100271257A1 (en) | 2004-08-06 | 2010-10-28 | Yuji Hirogari | Radar apparatus |
DE102018100469A1 (en) | 2017-01-13 | 2018-07-19 | Ford Global Technologies, Llc | GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS |
EP3196668B1 (en) | 2016-01-19 | 2019-08-14 | Aptiv Technologies Limited | Object tracking system with radar/vision fusion for automated vehicles |
JP2019196994A (en) | 2018-05-10 | 2019-11-14 | 株式会社デンソーテン | Rader device and target detection method |
-
2021
- 2021-03-09 DE DE102021105659.4A patent/DE102021105659A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100271257A1 (en) | 2004-08-06 | 2010-10-28 | Yuji Hirogari | Radar apparatus |
EP3196668B1 (en) | 2016-01-19 | 2019-08-14 | Aptiv Technologies Limited | Object tracking system with radar/vision fusion for automated vehicles |
DE102018100469A1 (en) | 2017-01-13 | 2018-07-19 | Ford Global Technologies, Llc | GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS |
JP2019196994A (en) | 2018-05-10 | 2019-11-14 | 株式会社デンソーテン | Rader device and target detection method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115410370A (en) * | 2022-08-31 | 2022-11-29 | 南京慧尔视智能科技有限公司 | Abnormal parking detection method and device, electronic equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112019000279T5 (en) | CONTROLLING AUTONOMOUS VEHICLES USING SAFE ARRIVAL TIMES | |
DE102018114042A1 (en) | DEVICE, METHOD AND SYSTEM FOR THE MULTIMODAL FUSION PROCESSING OF DATA OF MULTIPLE DIFFERENT FORMATS RECORDED BY HETEROGENIC DEVICES | |
DE112018000899T5 (en) | Joint 3D object detection and orientation estimation via multimodal fusion | |
DE102019133703A1 (en) | METHODS AND SYSTEMS FOR PRODUCING AND LOCALIZING A VEHICLE | |
DE112015002788T5 (en) | Improved blind spot detection for a trailer vehicle | |
DE102013102153A1 (en) | Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided | |
DE102019110927A1 (en) | Generalized inverse 3D sensor model | |
DE102013113570A1 (en) | Bayes network for tracking objects using search points using multiple LiDAR sensors | |
DE102006045115A1 (en) | System and method for target tracking using sensor fusion | |
DE102020100685A1 (en) | PREDICTION OF TEMPORARY INFORMATION IN AUTONOMOUS MACHINE APPLICATIONS | |
DE102018120405A1 (en) | FUSION OF RADAR AND IMAGE SENSORS | |
DE102009014105A1 (en) | Detection system for a vehicle | |
US20240045052A1 (en) | Method, apparatus and radar system for tracking objects | |
DE102019108610A1 (en) | IMPROVING VEHICLE BEHAVIOR USING INFORMATION FROM OTHER VEHICLE LIGHTS | |
WO2020207528A1 (en) | Method and processing unit for ascertaining the size of an object | |
DE102017129135A1 (en) | Electronic Control Unit (ECU), autonomous vehicle having the ECU, and method for recognizing a nearby vehicle therefor | |
DE102015105089B4 (en) | radar device | |
DE102020126973A1 (en) | PROCEDURE AND SYSTEM FOR LOCALIZED LANE DETECTION | |
DE112021005806T5 (en) | Systems and methods for camera-based reduction of incorrectly detected radar tracks | |
DE112019005326T5 (en) | OBJECT TRACKER | |
DE102021105659A1 (en) | Method, device and radar system for tracking objects | |
DE102021121712A1 (en) | GROUP OBJECT TRACKING | |
DE102021100701A1 (en) | SITUATIONAL AWARENESS FOR SIMULTANEOUSLY CHANGING LANES | |
DE102020124331A1 (en) | VEHICLE TRACK MAPPING | |
DE112020002753T5 (en) | VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R081 | Change of applicant/patentee |
Owner name: SYMEO GMBH, DE Free format text: FORMER OWNER: ANALOG DEVICES INTERNATIONAL UNLIMITED COMPANY, LIMERICK, IE |
|
R163 | Identified publications notified |