DE102021105659A1 - Method, device and radar system for tracking objects - Google Patents

Method, device and radar system for tracking objects Download PDF

Info

Publication number
DE102021105659A1
DE102021105659A1 DE102021105659.4A DE102021105659A DE102021105659A1 DE 102021105659 A1 DE102021105659 A1 DE 102021105659A1 DE 102021105659 A DE102021105659 A DE 102021105659A DE 102021105659 A1 DE102021105659 A1 DE 102021105659A1
Authority
DE
Germany
Prior art keywords
radar
tracklets
tracklet
detection points
track
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021105659.4A
Other languages
German (de)
Inventor
Peter Gulden
Andrew Schweitzer
Atulya Yellepeddi
Johannes Traa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Symeo De GmbH
Original Assignee
Symeo GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Symeo GmbH filed Critical Symeo GmbH
Priority to PCT/EP2021/083747 priority Critical patent/WO2022122500A1/en
Priority to EP21823858.2A priority patent/EP4260092A1/en
Priority to US18/256,823 priority patent/US20240045052A1/en
Publication of DE102021105659A1 publication Critical patent/DE102021105659A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles

Abstract

Detektionspunkte können zunächst über mehrere Radarbilder beobachtet werden. Die beobachteten Detektionspunkte, die die Tracklets bilden, können dazu verwendet werden, eine Segmentierung des aktuellen Radarbildes zu erzeugen, indem die Tracklets mindestens einer Objektspur zugeordnet werden, die mindestens ein Objekt basierend auf mindestens einem Merkmalsparameter darstellt. Die Segmentierung ergibt sich aus der Verfolgung von Detektionspunkten über mehrere Radarbilder (d.h. Nutzung von Tracking-Informationen), die für die Zuordnung von Detektionspunkten zu Objekten verwendet werden (Segmentierung durch Tracking). Es kann ein zweistufiger Tracking-Ansatz implementiert werden, bei dem für ein aktuelles Radarbild (neue) Detektionspunkte Tracklets zugeordnet werden, was als erste Stufe verstanden werden kann, und dann die Tracklets Objektspuren zugeordnet werden, was als zweite Stufe verstanden werden kann.Detection points can initially be observed over several radar images. The observed detection points that form the tracklets can be used to generate a segmentation of the current radar image by associating the tracklets with at least one object track that represents at least one object based on at least one feature parameter. The segmentation results from tracking detection points across multiple radar images (i.e. using tracking information) that is used for assigning detection points to objects (segmentation by tracking). A two-stage tracking approach can be implemented, where for a current radar image (new) detection points are assigned to tracklets, which can be understood as the first stage, and then the tracklets are assigned to object tracks, which can be understood as the second stage.

Description

FELD DER OFFENBARUNGFIELD OF REVELATION

Die vorliegende Offenbarung betrifft allgemein Verfahren, Systeme, Fahrzeuge und Vorrichtungen zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems und insbesondere ein Radarsystem, das dazu ausgestaltet ist, mindestens ein Objekt in seinen Messdaten verfolgt.The present disclosure relates generally to methods, systems, vehicles, and apparatus for tracking at least one object in measurement data from a radar system, and more particularly to a radar system configured to track at least one object in its measurement data.

HINTERGRUNDBACKGROUND

Im Bereich des autonomen oder quasi-autonomen Betriebs von Fahrzeugen wie Flugzeugen, Wasserfahrzeugen oder Landfahrzeugen, insbesondere Automobilen, die bemannt oder unbemannt sein können, kann das Erfassen der Umgebung des Fahrzeugs sowie das Verfolgen von Objekten in der Umgebung des Fahrzeugs als entscheidend für hochentwickelte Funktionalitäten angesehen werden. Diese Funktionalitäten können von Fahrerassistenzsystemen in verschiedenen Autonomiestufen bis hin zum vollständig autonomen Fahren des Fahrzeugs reichen.In the field of autonomous or quasi-autonomous operation of vehicles such as airplanes, watercraft or land vehicles, especially automobiles, which can be manned or unmanned, sensing the vehicle's surroundings and tracking objects in the vehicle's surroundings can be crucial for sophisticated functionalities be considered. These functionalities can range from driver assistance systems with different levels of autonomy to fully autonomous driving of the vehicle.

In bestimmten Umgebungen werden mehrere verschiedene Sensortypen zum Erfassen der Umgebung eines Fahrzeugs verwendet, wie z. B. monoskopische oder stereoskopische Kameras, Light-Detection-and-Ranging-Sensoren (LiDAR) und Radio-Detection-and-Ranging-Sensoren (Radar). Die verschiedenen Sensortypen haben unterschiedliche Eigenschaften, die für unterschiedliche Aufgaben genutzt werden können.In certain environments, several different types of sensors are used to sense a vehicle's surroundings, such as: B. monoscopic or stereoscopic cameras, light detection and ranging sensors (LiDAR) and radio detection and ranging sensors (radar). The different sensor types have different properties that can be used for different tasks.

Ausführungsformen der vorliegenden Offenbarung betreffen Aspekte der Verarbeitung von Messdaten von Radarsystemen, wodurch die rechenintensive Fusion von Daten unterschiedlicher Sensortypen vermieden werden kann.Embodiments of the present disclosure relate to aspects of the processing of measurement data from radar systems, as a result of which the computationally intensive fusion of data from different sensor types can be avoided.

Radarsysteme können Messdaten, insbesondere Entfernungs-, Doppler- und/oder Winkelmessungen (Azimut und/oder Elevation), mit hoher Präzision in einer radialen Richtung liefern. Damit lassen sich sowohl (radiale) Entfernungen als auch (radiale) Geschwindigkeiten in einem Sichtfeld des Radarsystems zwischen verschiedenen Reflexionspunkten und der (jeweiligen) Antenne des Radarsystems genau messen.Radar systems can supply measurement data, in particular distance, Doppler and/or angle measurements (azimuth and/or elevation), with high precision in a radial direction. This allows both (radial) distances and (radial) speeds in a field of view of the radar system between different reflection points and the (respective) antenna of the radar system to be measured precisely.

Grundsätzlich senden (emittieren) Radarsysteme Radarsignale in das Sichtfeld des Radarsystems, wobei die Radarsignale von Objekten, die sich im Sichtfeld des Radarsystems befinden, reflektiert und vom Radarsystem empfangen werden. Die Sendesignale sind beispielsweise frequenzmodulierte Dauerstrichsignale (FMCW). Radiale Entfernungen können unter Ausnutzung der Laufzeit des Radarsignals gemessen werden, wobei Radialgeschwindigkeiten unter Ausnutzung der durch den Dopplereffekt verursachten Frequenzverschiebung gemessen werden.Basically, radar systems transmit (emit) radar signals into the field of view of the radar system, where the radar signals are reflected from objects that are in the field of view of the radar system and are received by the radar system. The transmission signals are, for example, frequency-modulated continuous wave signals (FMCW). Radial distances can be measured using the time it takes the radar signal to travel, while radial velocities can be measured using the frequency shift caused by the Doppler effect.

Durch wiederholtes Senden und Empfangen der Radarsignale können Radarsysteme das Sichtfeld des Radarsystems über die Zeit beobachten, indem sie Messdaten liefern, die mehrere, insbesondere aufeinanderfolgende, Radarbilder (Radarframes) umfassen.By repeatedly sending and receiving the radar signals, radar systems can monitor the field of view of the radar system over time by supplying measurement data that includes a number of, in particular consecutive, radar images (radar frames).

Ein einzelnes Radarbild kann beispielsweise ein Entfernungs-Azimut-Bild (Range-Azimuth-Frame) oder ein Entfernungs-Doppler-Azimut-Bild (Range-Doppler-Azimuth-Frame) sein. Denkbar wäre auch ein Entfernungs-Doppler-Azimut-Elevation-Bild (Range-Doppler-Azimuth-Elevation-Frame), wenn Daten in Elevationsrichtung vorhanden sind.A single radar image can be, for example, a range-azimuth image (range-azimuth frame) or a range-doppler-azimuth image (range-doppler azimuth frame). A range-doppler-azimuth-elevation image (range-doppler-azimuth-elevation frame) would also be conceivable if data is available in the elevation direction.

In jedem der mehreren Radarbilder kann eine Vielzahl von Reflexionspunkten detektiert werden, die Reflexionspunktwolken bilden können. Die Reflexionspunkte bzw. Punktwolken in den Radarbildern enthalten jedoch nicht per se eine semantische Bedeutung. Dementsprechend ist eine semantische Segmentierung der Radarbilder notwendig, um die Szene der Fahrzeugumgebung auswerten („verstehen“) zu können.A large number of reflection points, which can form reflection point clouds, can be detected in each of the plurality of radar images. However, the reflection points or point clouds in the radar images do not per se contain a semantic meaning. Accordingly, a semantic segmentation of the radar images is necessary in order to be able to evaluate (“understand”) the scene surrounding the vehicle.

Die Segmentierung eines Radarbildes bedeutet, dass den einzelnen Reflexionspunkten in den einzelnen Radarbildern eine Bedeutung zugeordnet wird. Beispielsweise können die Reflexionspunkte dem Hintergrund der Szene, dem Vordergrund der Szene, stationären Objekten wie Gebäuden, Mauern, parkenden Fahrzeugen oder Teilen einer Straße und/oder bewegten Objekten wie anderen Fahrzeugen, Radfahrern und/oder Fußgängern in der Szene zugeordnet werden.The segmentation of a radar image means that a meaning is assigned to the individual reflection points in the individual radar images. For example, the reflection points can be assigned to the background of the scene, the foreground of the scene, stationary objects such as buildings, walls, parked vehicles or parts of a street, and/or moving objects such as other vehicles, cyclists and/or pedestrians in the scene.

Im Stand der Technik wird die semantische Bildsegmentierung in der Regel in Bildern, die von einem Kamerasensor aufgenommen werden, (Kamerabildern) durchgeführt, wie unter anderem in „No Blind Spots“: Full-Surround Multi-Object Tracking for Autonomous Vehicles using Cameras & LiDARs“ von Akshay Rangesh und Mohan Trivedi beschrieben.In the prior art, the semantic image segmentation is usually carried out in images that are recorded by a camera sensor (camera images), such as in "No Blind Spots": Full-Surround Multi-Object Tracking for Autonomous Vehicles using Cameras & LiDARs ' described by Akshay Rangesh and Mohan Trivedi.

Bei Kamerabildern ist es für die semantische Segmentierung von Vorteil, dass das meiste Licht diffus in den Sensor reflektiert wird, so dass zusammenhängende Regionen im Kamerabild beobachtet werden können. Die semantische Segmentierung in Radarbildern ist jedoch besonders schwierig.In the case of camera images, it is advantageous for semantic segmentation that most of the light is diffusely reflected into the sensor, so that connected regions in the camera image can be observed. However, semantic segmentation in radar images is particularly difficult.

Im Allgemeinen beobachten Radarsysteme spiegelartige Reflexionen der Sendesignale, die vom Radarsystem ausgesendet werden, da die zu detektierenden Objekte tendenziell glattere Reflexionscharakteristiken aufweisen als die (modulierten) Wellenlängen der Sendesignale.In general, radar systems observe specular reflections of the transmitted signals that emitted by the radar system, since the objects to be detected tend to have smoother reflection characteristics than the (modulated) wavelengths of the transmitted signals.

Folglich enthalten die erhaltenen Radarbilder keine zusammenhängenden Regionen, die einzelne Objekte repräsentieren, sondern vielmehr einzelne markante Reflexionspunkte (wie beispielsweise die Kante eines Stoßfängers), die über Regionen des Radarbildes verteilt sind.Consequently, the radar images obtained do not contain contiguous regions representing individual objects, but rather individual prominent reflection points (such as the edge of a bumper) distributed over regions of the radar image.

Für das Verfolgen von Objekten in der Szene (im Sichtfeld des Radarsystems), also das Verfolgen eines Objekts über mehrere Bilder (Frames), wird es noch schwieriger, da die einzelnen Reflexionspunkte, die zu einem Objekt gehören können, von Radarbild (Radar-Frame) zu Radarbild (Radar-Frame) variieren können. Das bedeutet, dass beispielsweise Reflexionspunkte eines ersten Radarbilds in einem zweiten, beispielsweise (unmittelbar) folgenden Radarbild verschwinden können, während andere Reflexionspunkte im zweiten Radarbild auftauchen können.For tracking objects in the scene (in the field of view of the radar system), i.e. tracking an object over several images (frames), it becomes even more difficult, since the individual reflection points that can belong to an object depend on the radar image (radar frame ) to radar image (radar frame) may vary. This means that, for example, reflection points of a first radar image can disappear in a second, for example (immediately) following radar image, while other reflection points can appear in the second radar image.

In Anbetracht der obigen Ausführungen besteht die Aufgabe der Ausführungsformen der vorliegenden Offenbarung darin, ein Verfahren zur Verfolgung mindestens eines Objekts in Radarbildern eines Radarsystems und ein entsprechendes Radarsystem bereitzustellen, wobei Objekte von Interesse in einer effizienten und zuverlässigen Weise verfolgt werden.In view of the above, the object of the embodiments of the present disclosure is to provide a method for tracking at least one object in radar images of a radar system and a corresponding radar system, wherein objects of interest are tracked in an efficient and reliable manner.

Die Aufgaben der Ausführungsformen der vorliegenden Offenbarung können insbesondere durch das Verfahren zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems nach Anspruch 1 erreicht werden.In particular, the objects of the embodiments of the present disclosure can be achieved by the method for tracking at least one object in measurement data of a radar system according to claim 1 .

ZUSAMMENFASSUNG DER ERFINDUNGSUMMARY OF THE INVENTION

Insbesondere wird eine Aufgabe der vorliegenden Offenbarung gelöst durch ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems, die mehrere, insbesondere aufeinanderfolgende, von einem Radarsystem erfasste Radarbilder (Radarframes) enthalten, umfassend:

  • - Detektieren von Detektionspunkten in den Radarbildern;
  • - Zuordnen der Detektionspunkte eines aktuellen Radarbildes zu einer Vielzahl von Tracklets, wobei jedes Tracklet eine Spur von mindestens einem über mehrere Radarbilder beobachteten Detektionspunkt ist; und
  • - Zuordnen (insbesondere Gruppieren) der Tracklets basierend auf mindestens einem Merkmalsparameter zu mindestens einer Objektspur (die das mindestens eine zu verfolgende Objekt darstellt).
In particular, an object of the present disclosure is achieved by a method according to an embodiment of the present invention for tracking at least one object in measurement data of a radar system, which contain multiple, in particular consecutive, radar images (radar frames) captured by a radar system, comprising:
  • - detecting detection points in the radar images;
  • - Assigning the detection points of a current radar image to a plurality of tracklets, each tracklet being a trace of at least one detection point observed over a plurality of radar images; and
  • - Assigning (in particular grouping) the tracklets based on at least one feature parameter to at least one object track (representing the at least one object to be tracked).

Ein Aspekt der vorliegenden Offenbarung beruht auf der Idee, dass in den Radarbildern zunächst Detektionspunkte über mehrere Radarbilder beobachtet werden können, wobei die beobachteten Detektionspunkte, die die Tracklets bilden, dazu verwendet werden können, eine Segmentierung des vorliegenden Radarbildes zu erzeugen, indem die Tracklets mindestens einer Objektspur zugeordnet werden, die mindestens ein Objekt basierend auf mindestens einem Merkmalsparameter repräsentiert.One aspect of the present disclosure is based on the idea that in the radar images initially detection points can be observed over several radar images, the observed detection points that form the tracklets can be used to generate a segmentation of the present radar image by the tracklets at least be assigned to an object track that represents at least one object based on at least one feature parameter.

Die Segmentierung nach dem erfindungsgemäßen Verfahren ergibt sich aus dem Verfolgen von Detektionspunkten über mehrere Radarbilder (d.h. Nutzung von Tracking-Informationen), die für die Zuordnung von Detektionspunkten zu Objekten verwendet werden (Segmentierung durch Tracking).The segmentation according to the method according to the invention results from following detection points over several radar images (i.e. using tracking information), which is used for assigning detection points to objects (segmentation by tracking).

Dementsprechend kann das vorliegende Verfahren als Zwei-Stufen-Ansatz betrachtet werden, bei dem für ein aktuelles Radarbild (neue) Detektionspunkte Tracklets zugeordnet werden, was als eine erste Stufe (des Verfolgungsverfahrens) angesehen werden kann, und dann die Tracklets Objektspuren zugeordnet werden, was als eine zweite Stufe (des Verfolgungsverfahrens) angesehen werden kann.Accordingly, the present method can be viewed as a two-stage approach, in which for a current radar image (new) detection points are assigned to tracklets, which can be viewed as a first stage (of the tracking method), and then the tracklets are assigned to object tracks, what can be seen as a second stage (of the prosecution process).

Ein Verfahren gemäß der vorliegenden Offenbarung unterscheidet sich von der herkömmlichen Vorgehensweise, bei der jedes Radarbild üblicherweise unabhängig auf einer Stufe durch Segmentierung behandelt wird, ohne Tracking-Informationen für die Segmentierung zu verwenden.A method according to the present disclosure differs from the conventional approach, where each radar image is usually treated independently at one stage through segmentation without using tracking information for segmentation.

Das Detektieren von Detektionspunkten kann als das Ermitteln von Intensitätsspitzen (Intensitätspeaks) im Radarbild verstanden werden, wobei die Radarbilder als eine dreidimensionale Intensitätskarte verstanden werden können, beispielsweise in einer Winkel-Entfernungs-Bin (Angle-Range-Bin) oder einer Winkel-Doppler-Entfernungs-Bin (Angle-Doppler-Range-Bin). Der Begriff „Detektionspunkt“ ist nicht als nulldimensionaler Punkt im geometrischen Sinne zu verstehen, sondern vorzugsweise als ein Bereich der oben genannten Intensitätsspitze (beispielsweise bezogen auf eine Kante eines Stoßfängers oder einer anderen Struktur, insbesondere Kante und/oder Ecke eines Fahrzeugs, insbesondere ein Bereich mit ausgeprägter Reflexion). Der Detektionspunkt kann mindestens eine, insbesondere mehrere Auflösungszellen (beispielsweise Pixel und/oder Voxel) im Radarbild umfassen.The detection of detection points can be understood as finding intensity peaks (intensity peaks) in the radar image, where the radar images can be understood as a three-dimensional intensity map, for example in an angle-range bin (angle-range bin) or an angle-doppler Range bin (angle-doppler range bin). The term "detection point" is not to be understood as a zero-dimensional point in the geometric sense, but preferably as an area of the above-mentioned intensity peak (e.g. related to an edge of a bumper or another structure, in particular an edge and / or corner of a vehicle, in particular an area with pronounced reflection). The detection point can include at least one, in particular multiple, resolution cells (for example pixels and/or voxels) in the radar image.

Die von einem Radarsystem erfassten Messdaten können ein zweidimensionales oder mehrdimensionales, komplexwertiges Array sein, welches Dimensionen umfasst, die den (Azimut- und/oder Elevations-) Winkel, die (radiale) Geschwindigkeit (auch Doppler genannt) und den radialen Abstand (auch Entfernung genannt) enthalten können. Beispielsweise ist es möglich, den Betrag in jedem Winkel-Doppler-Entfernung-Bin zu verwenden, um zu beschreiben, wie viel Energie der Radarsensor von jedem Punkt der Szenerie (im Sichtfeld) für eine radiale Geschwindigkeit empfängt.The measurement data recorded by a radar system can be a two-dimensional or multi-dimensional, complex-valued array that includes dimensions that include the (azimuth and/or elevation) angle, the (radial) velocity (also called Doppler) and the radial distance (also called distance called) may contain. For example, it is possible to use the magnitude in each angular-doppler-range bin to describe how much energy the radar sensor receives from each point in the scene (in the field of view) for a radial velocity.

Aufeinanderfolgende Radarbilder können als eine Vielzahl von Radarbildern verstanden werden, wobei jedes Radarbild (außer einem ersten Radarbild) einem anderen Radarbild zeitlich folgt. Von einer gegebenen (gemessenen bzw. ermittelten) Vielzahl von Radarbilder können alle Radarbilder verwendet werden oder nur eine Teilmenge der Radarbilder.Consecutive radar images can be understood as a plurality of radar images, each radar image (except for a first radar image) following another radar image in time. From a given (measured or determined) plurality of radar images, all radar images can be used or only a subset of the radar images.

Insbesondere basiert das Erhalten und/oder Beibehalten der Tracklets und der Objektspuren auf mindestens einem dynamischen Systemmodell, wodurch ein robustes und genaues Verfolgen der Tracklets und der Objektspuren erreicht werden kann.In particular, obtaining and/or maintaining the tracklets and the object tracks is based on at least one dynamic system model, as a result of which a robust and precise tracking of the tracklets and the object tracks can be achieved.

Das mindestens eine dynamische Systemmodell kann verwendet werden, um zu schätzen, an welcher Position in einem Radarbild, insbesondere einem nachfolgenden Radarbild, ein Tracklet und/oder eine Objektspur erwartet werden kann.The at least one dynamic system model can be used to estimate at which position in a radar image, in particular a subsequent radar image, a tracklet and/or an object track can be expected.

Vorzugsweise umfasst das Verfahren ferner die folgenden Schritte:

  • - Prädizieren (Vorhersagen) eines oder mehrerer Parameter jedes Tracklets für das aktuelle Radarbild durch Propagieren des dynamischen Systemmodells, wobei die Parameter jedes Tracklets mindestens eine Position, insbesondere eine Position und eine Geschwindigkeit, vorzugsweise eine Position und eine Geschwindigkeit und eine Beschleunigung, und eine Kovarianz des Tracklets in einem Radarbild umfassen; und
  • - Korrigieren der Parameter jedes Tracklets basierend auf den Detektionspunkten, die dem entsprechenden Tracklet zugeordnet sind.
Preferably, the method further includes the following steps:
  • - Predicate (predict) one or more parameters of each tracklet for the current radar image by propagating the dynamic system model, the parameters of each tracklet at least a position, in particular a position and a speed, preferably a position and a speed and an acceleration, and a covariance of the tracklet in a radar image; and
  • - Correcting the parameters of each tracklet based on the detection points associated with the corresponding tracklet.

Vorzugsweise wird das Prädizieren vor dem Zuordnen der Detektionspunkte zu den Tracklets und das Korrigieren nach dem Zuordnen der Detektionspunkte zu den Tracklets durchgeführt.The prediction is preferably carried out before the detection points are assigned to the tracklets and the correction is carried out after the detection points are assigned to the tracklets.

Durch das Prädizieren der Parameter der Tracklets vor dem Zuordnen der Detektionspunkte ist es möglich, das Zuordnen der Detektionspunkte zu den Tracklets zu verbessern. Durch das Korrigieren der Parameter der Tracklets nach dem Zuordnen der Detektionspunkte ist es möglich, die Ungenauigkeiten des Modells zu korrigieren, wodurch die Performanz der Tracking-Lösung verbessert werden kann.By predicting the parameters of the tracklets before assigning the detection points, it is possible to improve the assignment of the detection points to the tracklets. By correcting the parameters of the tracklets after assigning the detection points, it is possible to correct the inaccuracies of the model, which can improve the performance of the tracking solution.

Insbesondere wird im Schritt des Zuordnens der Detektionspunkte zu den Tracklets ein Detektionspunkt einem Tracklet zugeordnet, wenn eine Position des Detektionspunktes innerhalb eines Gates eines Tracklets liegt; wobei neue Tracklets aus den Detektionspunkten immer dann initialisiert werden, wenn das Kriterium für die Zuordnung einer Detektion für keines der vorhandenen Tracklets erfüllt ist, insbesondere wenn eine Position eines Detektionspunktes außerhalb der Gates aller vorhandenen Tracklets liegt.In particular, in the step of assigning the detection points to the tracklets, a detection point is assigned to a tracklet if a position of the detection point lies within a gate of a tracklet; wherein new tracklets are always initialized from the detection points when the criterion for the assignment of a detection is not met for any of the existing tracklets, in particular when a position of a detection point is outside the gates of all existing tracklets.

Das oben beschriebene Verfahren zur Zuordnung von Detektionspunkten zu Tracklets ist besonders einfach und rechnerisch leicht. Das Gate eines Tracklets kann ein Assoziationsgebiet sein, wie beispielsweise ein Polytop (z. B. Polygon, insbesondere Tetragon, oder Polyeder, insbesondere Hexaeder), insbesondere ein, vorzugsweise rechteckiges, Parallelogramm (z. B. Parallelogramm, insbesondere Rechteck oder Quadrat, oder Parallelepiped, insbesondere Quader oder Würfel), ein (Hyper-)Ellipsoid oder eine Ellipse oder eine (Hyper-)Kugel oder ein Kreis (insbesondere in Abhängigkeit von den Dimensionen des/der entsprechenden Bilder).The method described above for assigning detection points to tracklets is particularly simple and computationally easy. The gate of a tracklet can be an association area, such as a polytope (e.g. polygon, in particular tetragon, or polyhedron, in particular hexahedron), in particular a, preferably rectangular, parallelogram (e.g. parallelogram, in particular rectangle or square, or parallelepiped, in particular a cuboid or cube), a (hyper)ellipsoid or an ellipse or a (hyper)sphere or a circle (in particular depending on the dimensions of the corresponding image(s).

Neue Tracklets werden vorzugsweise aus unzugeordneten Detektionspunkten initialisiert, welche Detektionspunkte sind, die keinem Tracklet zugeordnet sind, d. h. die unzugeordneten Detektionspunkte liegen in keinem Gate der Tracklets (was vorzugsweise das Kriterium für die Zuordnung ist). Dies ermöglicht eine einfache, aber schnelle und effektive Methode zur Initialisierung neuer Tracklets.New tracklets are preferably initialized from unassigned detection points, which are detection points that are not assigned to any tracklet, i. H. the unassigned detection points are not in any gate of the tracklets (which is preferably the criterion for the assignment). This allows for a simple, but quick and effective method of initializing new tracklets.

Vorzugsweise ist ein Gate für jedes Tracklet entweder in der Größe festgelegt oder in der Größe adaptiv. Wenn es adaptiv ist, kann die Größe des Gates mit der Kovarianz des Tracklets korrelieren, insbesondere so, dass die Größe des Gates vergrößert wird, wenn die Kovarianz zunimmt, und umgekehrt. Preferably, a gate for each tracklet is either fixed in size or adaptive in size. When it is adaptive, the size of the gate can correlate with the covariance of the tracklet, specifically such that the size of the gate increases as the covariance increases, and vice versa.

Dementsprechend ist es möglich, die Größe des Gates der Tracklets in Abhängigkeit von der Kovarianz der prädizierten Position des Tracklets im aktuellen Radarbild zu variieren. Dadurch wird die Zuordnung der Detektionspunkte zu den Tracklets weiter verbessert, da die Anzahl der falschen Zuordnungen zwischen Detektionspunkten und Tracklets reduziert werden kann, insbesondere wenn die Position eines Tracklets mit einer höheren Wahrscheinlichkeit prädiziert wird (was mit einer höheren Kovarianz korreliert).Accordingly, it is possible to vary the size of the gate of the tracklet depending on the covariance of the tracklet's predicted position in the current radar image. This further improves the assignment of the detection points to the tracklets, since the number of incorrect assignments between detection points and tracklets can be reduced, in particular when the position of a tracklet is more likely probability is predicted (which correlates with a higher covariance).

Es wird bevorzugt, dass beim Zuordnen der Detektionspunkte zu den Tracklets ein Detektionspunkt dem Tracklet zugeordnet wird, dessen Position dem Detektionspunkt am nächsten liegt.When assigning the detection points to the tracklets, it is preferred that a detection point is assigned to the tracklet whose position is closest to the detection point.

Dies ermöglicht ein einfaches, aber effektives Verfahren zum Zuordnen der Detektionspunkte zu den Tracklets.This allows for a simple but effective method of assigning the detection points to the tracklets.

Alternativ oder zusätzlich kann ein Detektionspunkt beim Zuordnen der Detektionspunkte zu den Tracklets mehreren Tracklets probabilistisch zugeordnet werden. Vorzugsweise werden probabilistische Werte, die die Wahrscheinlichkeit angeben, dass ein Detektionspunkt einem Tracklet zugeordnet ist, erhöht, wenn der Abstand zwischen der Position des Detektionspunkts und der prädizierten Position des Tracklets abnimmt, und umgekehrt.Alternatively or additionally, a detection point can be probabilistically assigned to multiple tracklets when assigning the detection points to the tracklets. Preferably, probabilistic values indicating the probability that a detection point is associated with a tracklet are increased as the distance between the position of the detection point and the predicted position of the tracklet decreases, and vice versa.

Beispielsweise kann der Mahalanobis-Abstand als Maß für das Zuordnen der Detektionspunkte zu den Tracklets verwendet werden.For example, the Mahalanobis distance can be used as a measure for assigning the detection points to the tracklets.

Das Zuordnen von Detektionspunkten zu mehreren Tracklets ist insbesondere in schwierigen Zuordnungssituationen von Vorteil, z. B. wenn Detektionspunkte innerhalb von zwei oder mehr Gates verschiedener Tracklets liegen.The assignment of detection points to several tracklets is particularly advantageous in difficult assignment situations, e.g. B. when detection points are within two or more gates of different tracklets.

Insbesondere umfasst der Merkmalsparameter für das Zuordnen (Gruppieren) der Tracklets, anhand dessen die Tracklets zu den Objektspuren geclustert werden, eine Überlappung der Gates der einzelnen Tracklets in mindestens dem aktuellen Radarbild und/oder eine summierte Überlappung der Gates der einzelnen Tracklets in mehreren vorherigen Radarbildern.In particular, the feature parameter for assigning (grouping) the tracklets, based on which the tracklets are clustered into the object tracks, includes an overlap of the gates of the individual tracklets in at least the current radar image and/or a summed overlap of the gates of the individual tracklets in several previous radar images .

Die Überlappung der Gates der einzelnen Tracklets in mindestens dem aktuellen Radarbild und/oder eine (summierte) Überlappung der Gates der einzelnen Tracklets in mehreren vorherigen Radarbildern als Merkmalsparameter ist ein sinnvolles Kriterium für das Zuordnen (Gruppieren) von Tracklets zu Objektspuren.The overlap of the gates of the individual tracklets in at least the current radar image and/or a (cumulative) overlap of the gates of the individual tracklets in several previous radar images as feature parameters is a useful criterion for assigning (grouping) tracklets to object tracks.

Insbesondere kann die Verwendung der summierten Überlappung der Gates der einzelnen Tracklets in mehreren vorhergehenden Radarbildern als Merkmalsparameter die Robustheit der Zuordnung erhöhen.In particular, using the summed overlap of the gates of the individual tracklets in several previous radar images as a feature parameter can increase the robustness of the assignment.

Vorzugsweise wird das Zuordnen (Gruppieren) der Tracklets durch ein Clustering-Verfahren durchgeführt, insbesondere durch ein Density-Based-Spatial-Clusteringot-Applications-with-Noise (DBSCAN)-Verfahren, welches ein einfaches aber effektives Clustering-Verfahren ist.The association (grouping) of the tracklets is preferably performed by a clustering method, in particular by a Density-Based-Spatial-Clusteringot-Applications-with-Noise (DBSCAN) method, which is a simple but effective clustering method.

Es wird bevorzugt, dass das Verfahren weiterhin das Korrigieren von Parametern der Objektspur, insbesondere einer Position, einer Geschwindigkeit und/oder einer Beschleunigung der Objektspur, umfasst, indem die Parameter der Objektspur basierend auf einer prädizierten Geschwindigkeit und/oder einer prädizierten Beschleunigung der Tracklets der entsprechenden Objektspur aktualisiert werden.It is preferred that the method further includes the correction of parameters of the object track, in particular a position, a speed and/or an acceleration of the object track, by the parameters of the object track based on a predicted speed and/or a predicted acceleration of the tracklets of the corresponding object track are updated.

Dementsprechend ist es möglich, die Trackinglösung von Objektspuren zu verbessern, indem die prädizierten Parameter der Tracklets, die den Objektspuren zugeordnet werden, als Messungen für die Objektspuren verwendet werden.Accordingly, it is possible to improve the tracking solution of object tracks by using the predicted parameters of the tracklets, which are assigned to the object tracks, as measurements for the object tracks.

Insbesondere umfasst jedes Tracklet Metadaten, die mindestens einen Status des Tracklets, einen Track-Count-Wert und einen Lost-Track-Count-Wert enthalten. Vorzugsweise enthalten die Metadaten der Tracklets auch eine Identifikationsnummer, die angibt, welcher Objektspur das Tracklet zugeordnet ist.In particular, each tracklet includes metadata that includes at least a status of the tracklet, a track count value, and a lost track count value. The metadata of the tracklets preferably also contain an identification number which indicates which object track the tracklet is assigned to.

Der Status kann sich durch einen Zustand des Tracklets unterscheiden, der z.B. einer von einem verfolgten und nicht verfolgten (z.B. verlorenen bzw. nicht mehr verfolgten) Zustand, oder einer von einem vorläufigen Zustand, einem verfolgten Zustand und einem (zumindest zeitweise) verlorenen Zustand, oder einer von einem vorläufigen Zustand, einem verfolgten Zustand, einem (zumindest zeitweise) verlorenen Zustand und einem vollständig verlorenen Zustand sein kann.The status may differ by a state of the tracklet, e.g. one of a tracked and untracked (e.g. lost or untracked) state, or one of a preliminary state, a tracked state and a (at least temporarily) lost state, or one of a preliminary state, a tracked state, a (at least temporarily) lost state, and a completely lost state.

Insbesondere umfasst das Verfahren ferner die folgenden Schritte:

  • - Aktualisieren der Metadaten der Tracklets; und
  • - Initialisieren von Detektionspunkten als neue Tracklets, die nicht den bestehenden Tracklets zugeordnet sind,
wobei das Aktualisieren der Metadaten und das Initialisieren von Detektionspunkten als neue Tracklets nach dem Zuordnen der Detektionspunkte zu den Tracklets durchgeführt werden.In particular, the method further includes the following steps:
  • - Updating the metadata of the tracklets; and
  • - initialize detection points as new tracklets not mapped to existing tracklets,
wherein updating the metadata and initializing detection points as new tracklets are performed after associating the detection points with the tracklets.

Vorzugsweise werden unterschiedliche Filter zum Modellieren der Dynamik der Tracklets und zum Modellieren der Dynamik der Objektspuren verwendet. Vorzugsweise ist der Filter zum Modellieren der Dynamik der Tracklets weniger rechenintensiv als der Filter zum Modellieren der Dynamik der Objektspuren.Preferably, different filters are used to model the dynamics of the tracklets and to model the dynamics of the object tracks. The filter for modeling the dynamics of the tracklets is preferably less computationally intensive than the filter for modeling the dynamics of the object tracks.

Vorzugsweise wird ein Alpha-Beta-Filter für das Modellieren der Dynamik der Tracklets und ein Kalman-Filter für das Modellieren der Dynamik der Objektspuren verwendet, wodurch ein vernünftiger Kompromiss zwischen dem Rechenaufwand und der Performanz der Tracking-Ergebnisse erreicht werden kann.An alpha-beta filter is preferably used for modeling the dynamics of the tracklets and a Kalman filter for modeling the dynamics of the object tracks, as a result of which a reasonable compromise between the computational effort and the performance of the tracking results can be achieved.

Alternativ wird jeweils ein Alpha-Beta-Filter zum Modellieren der Dynamik der Tracklets und der Objektspuren verwendet, wodurch der Rechenaufwand weiter verringert werden kann.Alternatively, an alpha-beta filter is used to model the dynamics of the tracklets and the object tracks, which further reduces the computational effort.

Alternativ oder zusätzlich kann für jede Objektgruppe (Objektspur) ein Objektmodell aus einer Bibliothek von Objektmodellen hergeleitet werden und zum Modellieren der Objektspuren ein Switching-Kalman-Filter verwendet werden, wobei ein Schaltzustand des Switching-Kalman-Filters eine Objektklasse repräsentiert.Alternatively or additionally, an object model can be derived from a library of object models for each object group (object track) and a switching Kalman filter can be used to model the object tracks, with a switching state of the switching Kalman filter representing an object class.

Die Bibliothek von Objektmodellen kann z. B. Objektmodelle für Fahrzeuge, wie Autos oder Lastwagen, Radfahrer oder Fußgänger enthalten.The library of object models can e.g. B. object models for vehicles such as cars or trucks, cyclists or pedestrians.

Dies kann es ermöglichen, die Verteilung des Objekts über einen Bereich im Radarbild herzuleiten, was die Genauigkeit des Zuordnens der Detektionspunkte zu den Tracklets sowie des Zuordnens der Tracklets zu den Objektspuren verbessern kann. Zusätzlich oder alternativ können dadurch die dynamischen Systemmodelle in Übereinstimmung mit den Objektmodellen umgeschaltet werden, so dass das Modellieren der Dynamik der Objekte an das zu verfolgende Objekt angepasst werden kann.This can make it possible to derive the distribution of the object over an area in the radar image, which can improve the accuracy of assigning the detection points to the tracklets as well as assigning the tracklets to the object tracks. Additionally or alternatively, the dynamic system models can thereby be switched in accordance with the object models, so that the modeling of the dynamics of the objects can be adapted to the object to be tracked.

Vorzugsweise werden die klassenspezifischen Objektmodelle aus Datensätzen gelernt (abgeleitet). Es ist auch denkbar, dass ein Objektklassifikator, wie z. B. eine Support-Vector-Machine (SVM), neuronale Netze oder ein (tiefes) Convolutional-Neural-Network (CNN), verwendet wird, um eine Objektspur in eine der Objektklassen der Bibliothek zu klassifizieren.The class-specific object models are preferably learned (derived) from data sets. It is also conceivable that an object classifier, such as e.g. B. a support vector machine (SVM), neural networks or a (deep) convolutional neural network (CNN), is used to classify an object trace into one of the object classes of the library.

In einem weiteren (unabhängigen oder abhängigen) Aspekt der vorliegenden Offenbarung wird eine Aufgabe der Offenbarung insbesondere durch ein Radarverfahren gelöst, wobei die (oder, falls ein unabhängiger Aspekt: eine) Vielzahl von Radarbildern, die in den Messdaten enthalten sind, eine erste Vielzahl von Radarbildern ist, die von einer ersten Radareinheit erfasst werden, wobei die Messdaten ferner eine zweite Vielzahl von Radarbildern enthalten, die von einer zweiten Radareinheit erfasst werden, die nicht der ersten Radareinheit zugehörig ist (und/oder nicht kohärent sind), wobei die erste und die zweite Vielzahl von Radarbildern (zeitlich) synchronisiert sind und sich zumindest teilweise (räumlich) überlappen, wobei die Radarbilder Entfernungs-, Doppler- und Winkelmessungen enthalten, wobei aus den Dopplermessungen ein mehrdimensionaler Geschwindigkeitsvektor für mindestens einen, insbesondere für mehrere, vorzugsweise für jeden Detektionspunkt, der in synchronisierten Radarbildern der ersten und der zweiten Vielzahl von Radarbildern erfassbar ist, bestimmt wird, wobei das Bestimmen des mehrdimensionalen Geschwindigkeitsvektors auf den entsprechenden Dopplermessungen der ersten und der zweiten Radareinheit basiert. Bei diesem weiteren Aspekt wird der Zwei-Stufen-Verfolgungsansatz bevorzugt, aber ist nicht zwingend erforderlich (d.h. alle folgenden Ausführungsformen des weiteren Aspekts können sich auf die Zwei-Stufen-Verfolgung beziehen oder können sich auf jede andere, z.B. einstufige oder konventionelle, Verfolgungsmethode beziehen).In a further (independent or dependent) aspect of the present disclosure, an object of the disclosure is achieved in particular by a radar method, the (or, if an independent aspect: a) plurality of radar images contained in the measurement data, a first plurality of radar images acquired by a first radar unit, the measurement data further including a second plurality of radar images acquired by a second radar unit which is not associated (and/or not coherent) with the first radar unit, the first and the second plurality of radar images are (chronologically) synchronized and at least partially (spatially) overlap, the radar images containing distance, Doppler and angle measurements, with a multi-dimensional velocity vector for at least one, in particular for several, preferably for each detection point from the Doppler measurements , which appears in synchronized radar images d which is detectable from the first and the second plurality of radar images, the determination of the multi-dimensional velocity vector being based on the corresponding Doppler measurements of the first and the second radar unit. In this further aspect, the two-step tracking approach is preferred, but not mandatory (i.e. all following embodiments of the further aspect may refer to the two-step tracking or may refer to any other, e.g. single-step or conventional, tracking method ).

Der mehrdimensionale Geschwindigkeitsvektor kann verwendet werden, um das Initialisieren neuer (Objekt-)Spuren zu beschleunigen, was besonders vorteilhaft sein kann, wenn Objekte schnell im Sichtfeld des Radarsystems auftauchen.The multi-dimensional velocity vector can be used to speed up the initialization of new (object) tracks, which can be particularly beneficial when objects are rapidly appearing in the radar system's field of view.

Insbesondere werden die mehrdimensionalen Geschwindigkeitsvektoren bei einem Korrigieren von Parametern einer Spur (eines Tracks) verwendet, insbesondere bei der Korrektur der Parameter des Tracklets (t1 bis tm).In particular, the multi-dimensional velocity vectors are used in correcting parameters of a lane (a track), in particular in correcting the parameters of the tracklet (t1 to tm).

Insbesondere werden die mehrdimensionalen Geschwindigkeitsvektoren bei einem Aktualisieren der Metadaten von Spuren (insbesondere der Tracklets) verwendet. In particular, the multi-dimensional velocity vectors are used when updating the metadata of tracks (especially the tracklets).

Weiterhin können sie beim Initialisieren von Erfassungen (Detektionspunkten) als neue Spuren bzw. Tracks (Tracklets) verwendet werden, wodurch das Aktualisieren der Metadaten der Tracks (Tracklets) und das Initialisieren von Detektionspunkten als neue Tracks (Tracklets) beschleunigt werden kann. Insbesondere kann ein Übergang des Status des jeweiligen Tracks (Tracklets) von einem vorläufigen Zustand in einen verfolgten Zustand beschleunigt werden.Furthermore, they can be used as new tracks (tracklets) when initializing acquisitions (detection points), whereby updating the metadata of the tracks (tracklets) and initializing detection points as new tracks (tracklets) can be accelerated. In particular, a transition of the status of the respective track (tracklet) from a preliminary state to a tracked state can be accelerated.

Vorzugsweise wird der Status eines Tracks (Tracklets) sofort von einem vorläufigen Zustand in einen verfolgten Zustand geändert, wenn sich die Spur (das Tracklet) innerhalb eines Bereichs um die Position eines Detektionspunkts befindet, für den ein mehrdimensionaler Vektor bestimmt wird, und wenn ein Vergleichsmaß, insbesondere eine Summe des Innenprodukts, des mehrdimensionalen Geschwindigkeitsvektors und der mehrdimensionalen Geschwindigkeitsvektoren der benachbarten mehrdimensionalen Geschwindigkeitsvektoren des Detektionspunkts gleich oder größer als ein vorbestimmten Schwellenwert ist.Preferably, the status of a track (tracklet) is immediately changed from a preliminary state to a tracked state when the track (tracklet) is within a range of the position of a detection point for which a multidimensional vector is determined and when a comparative measure , in particular a sum of the inner product, the multi-dimensional velocity vector and the multi-dimensional velocity vectors of the neighboring multi-dimensional velocity vectors of the detection point is equal to or larger than a predetermined threshold value.

Dementsprechend kann ermittelt werden, ob die mehrdimensionalen Geschwindigkeitsvektoren benachbarter Detektionspunkte zumindest annähernd kongruent sind. Wenn die mehrdimensionalen Geschwindigkeitsvektoren benachbarter Detektionspunkte zumindest annähernd kongruent sind, kann davon ausgegangen werden, dass sich die benachbarten Detektionspunkte auf eine Spur (Tracklet) beziehen.Accordingly, it can be determined whether the multidimensional speed vectors of adjacent detection points are at least approximately congruent. If the multi-dimensional velocity vectors of adjacent detection points are at least approximately congruent, it can be assumed that the adjacent detection points relate to a track (tracklet).

Eine Aufgabe der vorliegenden Offenbarung wird ferner gelöst durch ein Radarsystem, das dazu ausgestaltet ist, mindestens ein oder mehrere Objekte in Messdaten des Radarsystems zu verfolgen, die eine Vielzahl von, insbesondere aufeinanderfolgenden, Radarbildern enthalten, unter Verwendung eines Verfahrens der oben beschriebenen Art, umfassend:

  • - eine erste Radareinheit, die dazu ausgestaltet ist, eine Vielzahl von Radarbildern durch Senden und Empfangen von Radarsignalen zu detektieren, die an potentiellen zu verfolgenden Objekten in einem Sichtfeld der ersten Radareinheit reflektiert werden; und
  • - eine Verfolgungsberechnungseinheit, die dazu ausgestaltet ist, die erfassten Radarbilder durch Ausführen der Schritte eines Verfahrens der oben beschriebenen Art zu verarbeiten.
An object of the present disclosure is also achieved by a radar system that is designed to track at least one or more objects in measurement data of the radar system that contain a large number of, in particular consecutive, radar images, using a method of the type described above :
  • - a first radar unit configured to detect a plurality of radar images by transmitting and receiving radar signals reflected on potential objects to be tracked in a field of view of the first radar unit; and
  • - a tracking calculation unit arranged to process the acquired radar images by performing the steps of a method of the type described above.

Vorzugsweise umfasst das Radarsystem ferner:

  • - eine zweite Radareinheit, die dazu ausgestaltet ist, eine Vielzahl von Radarbildern durch Senden und Empfangen von Radarsignalen zu detektieren, die an potentiellen zu verfolgenden Objekten in einem Sichtfeld der ersten Radareinheit reflektiert werden.
Preferably, the radar system further includes:
  • - a second radar unit configured to detect a plurality of radar images by transmitting and receiving radar signals reflected on potential objects to be tracked in a field of view of the first radar unit.

Vorzugsweise überlappen sich das Sichtfeld der ersten Radareinheit und das Sichtfeld der zweiten Radareinheit zumindest teilweise.The field of view of the first radar unit and the field of view of the second radar unit preferably overlap at least partially.

Das Radarsystem kann eine oder mehrere (z. B. mindestens zwei oder mindestens vier) Antennen zum Senden und/oder Empfangen von Radarsignalen umfassen. Jede der ersten und/oder der zweiten Radareinheit kann eine oder mehrere (z. B. mindestens zwei oder mindestens vier) Antennen zum Senden und/oder Empfangen von Radarsignalen umfassen.The radar system may include one or more (e.g. at least two or at least four) antennas for transmitting and/or receiving radar signals. Each of the first and/or the second radar unit can comprise one or more (e.g. at least two or at least four) antennas for transmitting and/or receiving radar signals.

Ferner wird eine Aufgabe der vorliegenden Offenbarung durch ein Fahrzeug gelöst, in das ein Radarsystem der oben beschriebenen Art eingebaut ist, wobei das Fahrzeug ein Luftfahrzeug und/oder ein Wasserfahrzeug und/oder ein Landfahrzeug, vorzugsweise ein Kraftfahrzeug, ist, wobei das Fahrzeug bemannt oder unbemannt sein kann.Furthermore, an object of the present disclosure is achieved by a vehicle in which a radar system of the type described above is installed, the vehicle being an aircraft and/or a watercraft and/or a land vehicle, preferably a motor vehicle, the vehicle being manned or can be unmanned.

Merkmale und damit verbundene Vorteile, die im Zusammenhang mit dem erfindungsgemäßen Verfahren zur Verfolgung mindestens eines Objekts in Messdaten eines Radarsystems beschrieben sind, sind auf das Radarsystem bzw. Fahrzeug der vorliegenden Offenbarung anwendbar und übertragbar. Die oben erläuterten Verfahrensschritte können in dem Radarsystem oder dem Fahrzeug als entsprechende Konfigurationen (z.B. einer Steuer- und/oder Recheneinheit) einzeln oder in Kombination realisiert werden.Features and advantages associated therewith, which are described in connection with the method according to the invention for tracking at least one object in measurement data of a radar system, can be applied and transferred to the radar system or vehicle of the present disclosure. The method steps explained above can be implemented individually or in combination in the radar system or the vehicle as corresponding configurations (e.g. a control and/or computing unit).

Weitere vorteilhafte Ausführungsformen können den Unteransprüchen entnommen werden.Further advantageous embodiments can be found in the dependent claims.

Figurenlistecharacter list

Im Folgenden wird die vorliegende Offenbarung anhand von nicht einschränkenden Ausführungsformen oder Beispielen unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. In den Figuren ist Folgendes dargestellt:

  • 1 zeigt ein Ablaufdiagramm eines Beispiels des erfindungsgemäßen Verfahrens zur Verfolgung mindestens eines Objekts in einer Vielzahl von Radarbildern;
  • 2 zeigt eine schematische Darstellung eines Beispiels für ein erfindungsgemäßes Radarsystem;
  • 3A zeigt ein Beispiel für ein aktuelles Radarbild, in welchem der Schritt S1 des Verfahrens zur Verfolgung mindestens eines Objekts durchgeführt wird;
  • 3B zeigt ein Beispiel für ein aktuelles Radarbild, in welchem Schritt S2 und Schritt S3 des Verfahrens zur Verfolgung mindestens eines Objekts durchgeführt wird;
  • 3C zeigt ein Beispiel für ein aktuelles Radarbild, in welchem Schritt S4 des Verfahrens zur Verfolgung mindestens eines Objekts durchgeführt wird;
  • 4 zeigt eine schematische Darstellung eines weiteren Radarsystems gemäß der Erfindung.
The present disclosure is explained in more detail below using non-limiting embodiments or examples with reference to the accompanying drawings. The figures show the following:
  • 1 shows a flow chart of an example of the method according to the invention for tracking at least one object in a plurality of radar images;
  • 2 shows a schematic representation of an example of a radar system according to the invention;
  • 3A shows an example of a current radar image in which step S1 of the method for tracking at least one object is carried out;
  • 3B shows an example of a current radar image, in which step S2 and step S3 of the method for tracking at least one object is carried out;
  • 3C shows an example of a current radar image, in which step S4 of the method for tracking at least one object is carried out;
  • 4 shows a schematic representation of another radar system according to the invention.

AUSFÜHRLICHE BESCHREIBUNGDETAILED DESCRIPTION

In 1 ist ein Ablaufdiagramm eines Beispiels des Verfahrens zur Verfolgung mindestens eines Objekts in einer Vielzahl von Radarbildern gemäß der vorliegenden Offenbarung dargestellt. In diesem Beispiel werden die Verfahrensschritte S0 bis S8 durchgeführt, wobei die Schritte S1 bis S8 eine Verfolgungsschleife (Tracking-Schleife) bilden. Y ist die Abkürzung für „Ja“, N ist die Abkürzung für „Nein“, und E ist die Abkürzung für „Ende“.In 1 1 is a flowchart of an example of the method for tracking at least one object in a plurality of radar images, in accordance with the present disclosure. In this example, method steps S0 to S8 are carried out, with steps S1 to S8 forming a tracking loop. Y is the abbreviation for "yes", N is the abbreviation for "no", and E is the abbreviation for "end".

Im Verfahrensschritt S0 wird die Verfolgungsschleife initialisiert, indem sowohl für die Tracklets als auch für die Objektspuren leere Listen angelegt werden.In method step S0, the tracking loop is initialized by creating empty lists for both the tracklets and the object tracks.

Nach dem Initialisieren der Verfolgungsschleife werden die Verfahrensschritte der Verfolgungsschleife S1 bis S8 durchgeführt, bis das letzte zu verarbeitende Radarbild erreicht ist. Wenn das letzte zu verarbeitende Radarbild erreicht ist, wird die Verfolgungsschleife in Schritt S8 beendet.After the tracking loop has been initialized, the method steps of the tracking loop S1 to S8 are carried out until the last radar image to be processed is reached. When the last radar image to be processed is reached, the tracking loop is ended in step S8.

In der Verfolgungsschleife wird der Verfahrensschritt S1 durchgeführt, der das Detektieren von Detektionspunkten d in einem ersten Radarbild f1 ist. In diesem Beispiel sind die Radarbilder (zumindest im Wesentlichen) Heatmap s, in denen die (radiale) Geschwindigkeit über die Entfernungs- und Winkelmessungen eingezeichnet ist.In the tracking loop, method step S1 is performed, which is the detection of detection points d in a first radar image f1. In this example, the radar images are (at least essentially) heatmaps in which the (radial) speed is plotted against the distance and angle measurements.

In der Praxis werden die Radarbilder vorverarbeitet, indem Verfahren zur Unterdrückung von Rauschen und Artefakten sowie Verfahren zur Extraktion auffälliger Regionen im Radarbild eingesetzt werden. Diese Verfahren beinhalten zum Beispiel die Schätzung eines Hintergrundmodells und die Entfernung des modellierten Hintergrunds aus dem Radarbild oder die Erstellung einer Maske, die gewünschte Bereiche hervorhebt und andere durch elementweise Multiplikation unterdrückt.In practice, the radar images are pre-processed using methods for suppressing noise and artifacts and methods for extracting conspicuous regions in the radar image. These methods include, for example, estimating a background model and removing the modeled background from the radar image, or creating a mask that highlights desired areas and suppresses others through element-by-element multiplication.

Für die Vorverarbeitung des Radarbildes kann z. B. das Verfahren des Constant-False-Alarm-Rate (CFAR)-Thresholding verwendet werden, bei dem ein Hintergrundmodell durch lokale Mittelung geschätzt wird. Die Grundidee hierbei ist, dass die Rauschstatistiken über das Array (das Radarbild) ungleichmäßig sein können.For the pre-processing of the radar image z. For example, the Constant False Alarm Rate (CFAR) thresholding method can be used, in which a background model is estimated by local averaging. The basic idea here is that the noise statistics can be uneven across the array (the radar image).

Eine weitere mögliche Variante des obigen Verfahrens wäre Cell-Averaging- (CA-) CFAR, bei dem ein gleitender Mittelwert berechnet wird, während ein Bereich in der Mitte des Mittelungsfensters (Schutzzellen) ausgeschlossen wird, um zu vermeiden, dass ein gewünschtes Objekt in die Hintergrundschätzung einbezogen wird. Außerdem ist Order-Statistic- (OS-) CFAR eine Variante von CA-CFAR, bei der eine Perzentil-Operation anstelle einer Mittelwert-Operation verwendet wird.Another possible variation of the above method would be Cell Averaging (CA) CFAR, in which a moving average is calculated while excluding an area in the center of the averaging window (guard cells) to avoid introducing a desired object into the background estimation is included. Also, Order-Statistic (OS) CFAR is a variant of CA-CFAR that uses a percentile operation instead of a mean operation.

Darüber hinaus können auch Verfahren, die eine zeitadaptive Hintergrundmodellierung verwenden, zur Vorverarbeitung der Radar-Frames eingesetzt werden. Zum Beispiel kann ein Multi-Tap-Filter, vorzugsweise ein 5-Tap-Filter, insbesondere ein 3-Tap-Filter, insbesondere ein 2-Tap-Filter mit infiniten Impulsantwort (IIR-Filter) zur zeitlichen Glättung der Vordergrunddetektion verwendet werden, um die Notwendigkeit zu vermeiden, das gesamte Hintergrundmodell bei jedem Radarbild neu zu berechnen.In addition, methods that use time-adaptive background modeling can also be used to preprocess the radar frames. For example, a multi-tap filter, preferably a 5-tap filter, in particular a 3-tap filter, in particular a 2-tap filter with an infinite impulse response (IIR) filter can be used for temporal smoothing of the foreground detection in order to to avoid the need to recalculate the entire background model with each radar image.

Nach der Vorverarbeitung der Radar-Frames mit Hilfe einer Schwellenwertmethode wie oben beschrieben, werden die Vordergrundbereiche im Radar-Frame extrahiert. Einige Störspitzen können jedoch immer noch den Schwellenwert überschreiten. Die Störspitzen können entfernt werden, indem man annimmt, dass alle interessierenden Regionen als dreidimensionale Blob-Formen betrachtet werden können.After pre-processing the radar frames using a thresholding method as described above, the foreground areas in the radar frame are extracted. However, some glitches may still exceed the threshold. The glitches can be removed by assuming that all regions of interest can be viewed as three-dimensional blob shapes.

In diesem Beispiel umfasst die Erkennung der Detektionspunkte das Auffinden lokaler Maxima in den vorverarbeiteten Radarbild nach dem Extrahieren der Vordergrundregionen in einem Radarbild.In this example, detecting the detection points involves finding local maxima in the pre-processed radar image after extracting the foreground regions in a radar image.

Die wie oben beschrieben erfassten Detektionspunkte d1 bis dn werden dann in der weiteren Verarbeitung der Verfolgungsschleife als Messwerte für das Verfolgen verwendet.The detection points d1 to dn recorded as described above are then used as measurement values for the tracking in the further processing of the tracking loop.

Im ersten Radarbild gibt es keine Tracklets und keine Objektspuren, da die Verfolgungsschleife mit leeren Listen von Tracklets und Objektspuren initialisiert wird. Folglich werden im ersten Radarbild die Detektionspunkte d1 bis dn verwendet, um die neuen Tracklets t1 bis tm zu initialisieren, die einen vorläufigen Zustand tragen.In the first radar image there are no tracklets and no object trails because the tracking loop is initialized with empty lists of tracklets and object trails. Consequently, in the first radar image, the detection points d1 to dn are used to initialize the new tracklets t1 to tm, which carry a preliminary state.

Im Folgenden wird die Verfolgungsschleife gemäß einem Beispiel der vorliegenden Offenbarung für ein vorliegendes nicht-erstes Radarbild fp beschrieben, bei dem die Liste der Tracklets t1 bis tm nicht leer ist.In the following, the tracking loop is described according to an example of the present disclosure for a present non-first radar image fp where the list of tracklets t1 to tm is not empty.

Im Verfahrensschritt S2 der Verfolgungsschleife gemäß diesem Beispiel wird ein oder eine Vielzahl von Parametern jedes Tracklets t1 bis tm für das aktuelle Radarbild fp durch Propagieren des dynamischen Systemmodells vorhergesagt (prädiziert).In method step S2 of the tracking loop according to this example, one or a plurality of parameters of each tracklet t1 to tm for the current radar image fp is predicted (predicted) by propagating the dynamic system model.

Die Parameter jedes Tracklets t1 bis tm können eine Position und eine Geschwindigkeit, eine Beschleunigung und eine Kovarianz des Tracklets t1 bis tm in einem Radarbild umfassen. Das dynamische Systemmodell kann ein einfaches Modell mit konstanter Geschwindigkeit oder auch ein Modell mit konstanter Beschleunigung sein. Das Propagieren des Modells mit konstanter Geschwindigkeit kann wie folgt ausgedrückt werden: μ t | t 1 μ t 1 | t 1 + v t 1 | t 1

Figure DE102021105659A1_0001
v t | t 1 v t 1 | t 1
Figure DE102021105659A1_0002
wobei µt-1| t-1 die korrigierte Schätzung zum Zeitpunkt t - 1 angibt und µt|t-1 die vorhergesagte Schätzung zum Zeitpunkt t. Das Propagieren des Modells mit konstanter Beschleunigung kann wie folgt ausgedrückt werden: μ t | t 1 μ t 1 | t 1 + v t 1 | t 1 + 0.5 α t 1 | t 1
Figure DE102021105659A1_0003
v t | t 1 c t 1 | t 1 + α t | t 1
Figure DE102021105659A1_0004
α t | t 1 α t 1 | t 1
Figure DE102021105659A1_0005
wobei vt-1lt-1 die korrigierte Geschwindigkeitsschätzung zum Zeitpunkt t - 1, vt|t-1 die vorhergesagte Geschwindigkeitsschätzung zum Zeitpunkt t und at-1|t-1 die korrigierte Beschleunigungsschätzung zum Zeitpunkt t - 1 angibt.The parameters of each tracklet t1 to tm may include a position and a velocity, an acceleration and a covariance of the tracklet t1 to tm in a radar image. The dynamic system model can be a simple constant velocity model or a constant acceleration model. Propagating the model at constant speed can be expressed as: µ t | t 1 µ t 1 | t 1 + v t 1 | t 1
Figure DE102021105659A1_0001
v t | t 1 v t 1 | t 1
Figure DE102021105659A1_0002
where µ t-1| t- 1 indicates the corrected estimate at time t - 1 and µ t|t- 1 indicates the predicted estimate at time t. Propagating the constant acceleration model can be expressed as: µ t | t 1 µ t 1 | t 1 + v t 1 | t 1 + 0.5 a t 1 | t 1
Figure DE102021105659A1_0003
v t | t 1 c t 1 | t 1 + a t | t 1
Figure DE102021105659A1_0004
a t | t 1 a t 1 | t 1
Figure DE102021105659A1_0005
where v t-1lt-1 is the corrected velocity estimate at time t - 1, v t|t-1 is the predicted velocity estimate at time t, and a t-1|t-1 is the corrected acceleration estimate at time t - 1.

Nach dem Prädizieren der Parameter jedes Tracklets t1 bis tm im Verfahrensschritt S2 werden die Detektionspunkte d1 bis dn den Tracklets t1 bis tm im Verfahrensschritt S3 zugeordnet.After the parameters of each tracklet t1 to tm have been predicted in method step S2, the detection points d1 to dn are assigned to the tracklets t1 to tm in method step S3.

Das Zuordnen der Detektionspunkte d1 bis dn zu den Tracklets t1 bis tm kann unter Verwendung eines Gating-Verfahrens erfolgen. Bei dem Gating-Verfahren wird ein Gate, das ein Assoziationsbereich ist, wie z. B. ein Rechteck, ein Quadrat, eine Ellipse oder ein Kreis, um die (vorhergesagte) Mittelposition jedes Tracklets t1 bis tm gelegt. In diesem Beispiel ist die Assoziationsregion eine Ellipse mit fester Größe.The detection points d1 to dn can be assigned to the tracklets t1 to tm using a gating method. In the gating method, a gate that is an association area such as a a rectangle, square, ellipse or circle, around the (predicted) center position of each tracklet t1 to tm. In this example, the association region is a fixed-size ellipse.

Nach dem Zuordnen von Detektionspunkten d1 bis dn zu den Tracklets t1 bis tm in Verfahrensschritt S3 werden die Tracklets t1 bis tm in Verfahrensschritt S4 auf der Basis von mindestens einem Merkmalsparameter den Objektspuren g1 bis gk zugeordnet. In diesem Beispiel werden die Tracklets t1 bis tm basierend auf der Überlappung der Gates der Tracklets t1 bis tm zu Objektspuren g1 bis gk zugeordnet, wobei ein DBSCAN-Verfahren zur Gruppierung der Tracklets t1 bis tm zu Objektspuren verwendet wird.After the assignment of detection points d1 to dn to the tracklets t1 to tm in method step S3, the tracklets t1 to tm are assigned to the object tracks g1 to gk in method step S4 on the basis of at least one feature parameter. In this example, tracklets t1 through tm are assigned to object tracks g1 through gk based on the overlap of the gates of tracklets t1 through tm, using a DBSCAN method to group tracklets t1 through tm into object tracks.

Im Verfahrensschritt S5 werden die Metadaten der Tracklets t1 bis tm aktualisiert. In diesem Beispiel wird der Status der Tracklets t1 bis tm beibehalten, wobei der Status einen tentativen Zustand, einen verfolgten Zustand, einen verlorenen Zustand und einen vollständig verlorenen Zustand umfassen kann.In method step S5, the metadata of the tracklets t1 to tm are updated. In this example, the status of tracklets t1 through tm is retained, where the status can include a tentative state, a tracked state, a lost state, and a completely lost state.

Weiterhin können die Metadaten der Tracklets t1 bis tm einen Track-Count-Wert und einen Lost- Track-Count-Wert sowie eine eindeutige Identifikationsnummer umfassen, die identifiziert, zu welcher Objektspur g1 bis gk das Tracklet t1 bis tm gehört.Furthermore, the metadata of the tracklets t1 to tm can include a track count value and a lost track count value as well as a unique identification number that identifies to which object track g1 to gk the tracklet t1 to tm belongs.

Die Regeln für die Aktualisierung des Status erlauben es, dass ein Tracklet t1 bis tm für mehrere Radarbilder verloren geht, wenn es keine Detektionspunkte gibt, die dem Tracklet zugeordnet werden können. Schließlich, wenn das Tracklet t1 bis tm für eine vorbestimmte Zeitspanne verloren ist, wird das Tracklet als im vollständig verlorenen Zustand befindlich betrachtet.The status update rules allow a tracklet t1 to tm to be lost for multiple radar images when there are no detection points that can be associated with the tracklet. Finally, if the tracklet t1 to tm is lost for a predetermined period of time, the tracklet is considered to be in the completely lost state.

Der Track-Count-Wert wird in jeder Iteration der Verfolgungsschleife erhöht, in der das Tracklet t1 bis tm verfolgt werden kann, d. h. dem Tracklet t1 bis tm Detektionspunkte zugeordnet werden können. Der Lost- Track-Count-Wert wird in jeder Iteration der Verfolgungsschleife erhöht, in der das Tracklet nicht verfolgt werden kann, d. h. dem Tracklet t1 bis tm kann kein Detektionspunkt zugeordnet werden.The track count value is incremented in each iteration of the tracking loop that tracklet t1 through tm can be tracked, i.e. H. detection points can be assigned to the tracklet t1 to tm. The Lost Track Count value is increased in each iteration of the tracking loop in which the tracklet cannot be tracked, i.e. H. no detection point can be assigned to the tracklet t1 to tm.

Neu initialisierte Tracklets t1 bis tm haben zunächst einen vorläufigen Zustand, bis der Track-Count-Wert einen vorbestimmten Wert erreicht.Newly initialized tracklets t1 to tm initially have a preliminary state until the track count value reaches a predetermined value.

Ein Tracklet in einem vorläufigen Zustand, dem kein Detektionspunkt zugeordnet ist, wird sofort in den vollständig verlorenen Zustand aktualisiert und aus der Liste der Tracklets t1 bis tm entfernt.A tracklet in a preliminary state with no associated detection point is immediately updated to the completely lost state and removed from the list of tracklets t1 to tm.

Wenn ein Tracklet einen verfolgten Zustand hat und dem Tracklet keine Detektionspunkte d1 bis dn zugeordnet werden können, wird der Status des Tracklets auf den verlorenen Zustand aktualisiert und das Erhöhen des Lost-Track-Count-Wertes beginnt. Sobald dem Tracklet t1 bis tm wieder ein Detektionspunkt zugeordnet werden kann, wird der Status des Tracklets wieder in den verfolgten Zustand versetzt und der Track-Count-Wert sowie der Lost- Track-Count-Wert auf Null gesetzt.If a tracklet has a tracked state and no detection points d1 through dn can be assigned to the tracklet, the tracklet's status is updated to the lost state and the incrementing of the Lost Track Count value begins. As soon as a detection point can again be assigned to the tracklet t1 to tm, the status of the tracklet is set back to the tracked state and the track count value and the lost track count value are set to zero.

Wenn der Lost-Track-Count Wert eines Tracklets einen vorbestimmten Wert erreicht, wird es in einen vollständig verlorenen Zustand aktualisiert und aus der Liste der Tracklets entfernt.When a tracklet's Lost Track Count value reaches a predetermined value, it is updated to a completely lost state and removed from the list of tracklets.

Im Verfahrensschritt S6 wird jeder Detektionspunkt, der nicht den Tracklets t1 bis tm zugeordnet wird, verwendet, um neue Tracklets zu initialisieren, die einen vorläufigen Zustand wie oben beschrieben tragen. Für jeden (nicht zugeordneten) Detektionspunkt wird ein neues Tracklet initialisiert. Die meisten solcher Tracklets sind falsch und gehen nach einigen Iterationen der Verfolgungsschleife vollständig verloren.In method step S6, each detection point that is not assigned to tracklets t1 to tm is used to initialize new tracklets that have a preliminary status as described above. A new tracklet is initialized for each (unassigned) detection point. Most such tracklets are bogus and are lost entirely after a few iterations of the tracking loop.

Im Verfahrensschritt S7 werden die Parameter aller aktiven Tracklets t1 bis tm (das sind Tracklets mit einem verfolgten Zustand), die im Verfahrensschritt S2 vorhergesagt (prädiziert) wurden, korrigiert. Diese Korrektur basiert auf den zugeordneten Detektionen, gemäß Regeln, die heuristisch sind oder die sich als Lösungen der Bayes'schen Filtergleichungen ergeben, die den angenommenen dynamischen Systemmodellen entsprechen. Insbesondere werden synthetische Beobachtungen durch eine gewichtete Mittelung der Detektionspunkte gebildet: x ¯ t = i = 1 N w i x t i i = 1 N w i

Figure DE102021105659A1_0006
und der Alpha-Beta-Filter wird wie folgt angewendet: r t = x ¯ t μ t | t 1
Figure DE102021105659A1_0007
μ t | t = μ t | t 1 + α r t
Figure DE102021105659A1_0008
v t | t = v t | t 1 + β r t
Figure DE102021105659A1_0009
a t | t = a t | t 1 + 2 γ r t
Figure DE102021105659A1_0010
wobei α, β und 2γ ∈ [0,1] Adaptionsraten sind.In step S7, the parameters of all active tracklets t1 to tm (that is, tracklets with a tracked state) that were predicted (predicated) in step S2 are corrected. This correction is based on the associated detections, according to rules that are heuristic or that result as solutions to Bayesian filter equations corresponding to the assumed dynamic system models. In particular, synthetic observations are formed by a weighted averaging of the detection points: x ¯ t = i = 1 N w i x t i i = 1 N w i
Figure DE102021105659A1_0006
and the alpha-beta filter is applied as follows: right t = x ¯ t µ t | t 1
Figure DE102021105659A1_0007
µ t | t = µ t | t 1 + a right t
Figure DE102021105659A1_0008
v t | t = v t | t 1 + β right t
Figure DE102021105659A1_0009
a t | t = a t | t 1 + 2 g right t
Figure DE102021105659A1_0010
where α, β and 2γ ∈ [0,1] are adaptation rates.

Im Verfahrensschritt S8 wird abgefragt, ob die Verfolgungsschleife beendet werden soll, z. B. wenn das aktuelle Radarbild das letzte zu verfolgende Radarbild ist. Wenn das Verfolgen fortgesetzt werden soll, werden die Verfahrensschritte S1 bis S7 für das nächste Radarbild durchgeführt. Wenn das aktuelle Radarbild das letzte zu verfolgende Radarbild ist, wird die Verfolgungsschleife abgebrochen.In method step S8 it is queried whether the tracking loop should be ended, e.g. B. if the current radar picture is the last radar picture to be tracked. If tracking is to be continued, the method steps S1 to S7 are carried out for the next radar image. If the current radar picture is the last radar picture to be tracked, the track loop is cancelled.

Im Zusammenhang mit der Reihenfolge der einzelnen Schritte der Verfolgungsschleife ist zu beachten, dass die Reihenfolge der Verfahrensschritte im vorliegenden Beispiel nicht einschränkend ist. Entsprechend kann die Reihenfolge der einzelnen Verfahrensschritte vertauscht werden, wenn dies technisch sinnvoll ist.In connection with the order of the individual steps of the tracking loop, it should be noted that the order of the method steps in the present example is not limiting. Accordingly, the order of the individual process steps can be reversed if this makes technical sense.

In 2 ist eine schematische Darstellung eines Beispiels eines Radarsystems 100 gemäß der vorliegenden Offenbarung dargestellt. Das Radarsystem 100 ist dazu ausgestaltet, Messdaten zu detektieren, die eine Vielzahl von (aufeinanderfolgenden) Radarbildern eines Sichtfeldes FoV des Radarsystems 100 umfassen.In 2 1 is a schematic representation of an example of a radar system 100 in accordance with the present disclosure. The radar system 100 is designed to detect measurement data that includes a large number of (consecutive) radar images of a field of view FoV of the radar system 100 .

In dem Sichtfeld FoV des Radarsystems 100 kann ein erstes sich bewegendes Objekt O1 über mehrere Radarbilder beobachtet werden, beginnend mit einem aktuellen Radarbild fp. In 2 sind drei verschiedene Positionen O1(fp), 01(fp+n, mit n=1 in diesem Beispiel) und 01(fp+m, mit m= 3 in diesem Beispiel) des bewegten Objekts O1 entlang einer Trajektorie T des bewegten Objekts O1 dargestellt.In the field of view FoV of the radar system 100, a first moving object O1 can be observed over several radar images, starting with a current radar image fp. In 2 are three different positions O1(fp), 01(fp+n, with n=1 in this example) and 01(fp+m, with m=3 in this example) of the moving object O1 along a trajectory T of the moving object O1 shown.

Weiterhin ist in 2 ein stationäres Objekt O2 im Sichtfeld FoV des Radarsystems 100 dargestellt.Furthermore, in 2 a stationary object O2 in the field of view FoV of the radar system 100 is shown.

Ein aktuelles Radarbild fp ist in den 3A bis 3C als Radar-Doppler-Visualisierung dargestellt, wobei die Geschwindigkeit als Heatmap über die Entfernungs- und Winkeldimension dargestellt ist. In den 3A bis 3C wird der Hintergrund extrahiert, zum Beispiel nach einem Verfahren wie oben beschrieben.A current radar image fp is in the 3A until 3C presented as a radar doppler visualization, with velocity presented as a heatmap over the range and angle dimension. In the 3A until 3C the background is extracted, for example by a method as described above.

Weiterhin werden die Detektionspunkte d1 bis d16 nach dem Verfahrensschritt S1 detektiert und in den bis als Kreise eingezeichnet. Die Anzahl der möglichen Detektionspunkte gemäß der vorliegenden Offenbarung ist in diesem Beispiel nicht auf die Anzahl der Detektionspunkte d1 bis d18 beschränkt. Der extrahierte Hintergrund ist in einem breit schraffierten Bereich der 3A bis 3C dargestellt.Furthermore, the detection points d1 to d16 are detected after step S1 and in the until drawn as circles. The number of possible detection points according to the present disclosure is not limited to the number of detection points d1 to d18 in this example. The extracted background is in a broadly shaded area of the 3A until 3C shown.

In dem in den 3A bis 3C dargestellten Beispiel repräsentiert ein fein schraffierter Bereich, der von rechts unten nach links oben schraffiert ist, Geschwindigkeiten, die um den Nullpunkt herum liegen. Darüber hinaus stellt ein fein schraffierter Bereich, der von links unten nach rechts oben schraffiert ist, in dem in den 3A bis 3C dargestellten Beispiel Geschwindigkeiten dar, die ungleich Null sind.In the in the 3A until 3C In the example shown, a finely shaded area, which is hatched from bottom right to top left, represents velocities that are around the zero point. In addition, a finely hatched area hatched from bottom left to top right in the in the 3A until 3C illustrated example represent velocities that are not equal to zero.

In 3B wird das Modell des dynamischen Systems gemäß Methodenschritt S2 propagiert, so dass die vorhergesagten (mittleren) Positionen der Tracklets t1 bis t6 geschätzt werden. Die vorhergesagten (mittleren) Positionen der Tracklets t1 bis t6 sind in 3B als Quadrate dargestellt.In 3B the model of the dynamic system is propagated according to method step S2, so that the predicted (mean) positions of the tracklets t1 to t6 are estimated. The predicted (mean) positions of tracklets t1 to t6 are in 3B shown as squares.

In 3B sind die Gates a1 bis a6 der Tracklets t1 bis t6 mit einer gestrichelten Linie eingezeichnet. Im Beispiel der 3A bis 3C sind die Gates a1 bis a6 der Tracklets t1 bis t6 als Ellipsen mit fester Größe dargestellt. Wie oben erläutert, können die Gates a1 bis a6 der Tracklets t1 bis t6 auch in der Größe adaptiv sein.In 3B the gates a1 to a6 of the tracklets t1 to t6 are drawn with a dashed line. In the example of 3A until 3C the gates a1 to a6 of the tracklets t1 to t6 are shown as fixed-size ellipses. As explained above, the gates a1 to a6 of the tracklets t1 to t6 can also be adaptive in size.

Die Detektionspunkte d1 bis d18 sind den Tracklets t1 bis t6 gemäß Verfahrensschritt S3 der Verfolgungsschleife zugeordnet, wie oben erläutert. Die Detektionspunkte d7 bis d9 sind nicht zugeordnete Detektionspunkte ud, da die Detektionspunkte d7 bis d9 innerhalb keines Gates a1 bis a6 der Tracklets t1 bis t6 liegen.The detection points d1 to d18 are assigned to the tracklets t1 to t6 according to method step S3 of the tracking loop, as explained above. The detection points d7 to d9 are unassigned detection points ud, since the detection points d7 to d9 do not lie within any gate a1 to a6 of the tracklets t1 to t6.

In dem in 3B gezeigten Beispiel liegt der Detektionspunkt d13 innerhalb von zwei Gates a3 und a4. Dementsprechend ist der Detektionspunkt d13 dem Tracklet t3 zugeordnet, da der Abstand zwischen dem Detektionspunkt d13 und der vorhergesagten (mittleren) Position des Tracklets t3 kleiner ist als der Abstand zwischen dem Detektionspunkt d13 und der vorhergesagten (mittleren) Position des Tracklets t4.in the in 3B In the example shown, the detection point d13 lies within two gates a3 and a4. Accordingly, the detection point d13 is assigned to the tracklet t3 because the distance between the detection point d13 and the predicted (mean) position of the tracklet t3 is smaller than the distance between the detection point d13 and the predicted (mean) position of the tracklet t4.

In 3C werden die Tracklets t1 bis t6 gemäß Verfahrensschritt S4 den Objektspuren g1 und g2 zugeordnet. In diesem speziellen Beispiel wird ein Clustering-Verfahren verwendet, um die Tracklets t1 bis t6 in Objektspuren zu clustern, basierend auf der Überlappung der Gates a1 bis a6 der Tracklets t1 bis t6 im aktuellen Radarbild. Die Objektspuren stellen die Objekte dar, die von der Verfolgungsschleife verfolgt werden sollen. Die Zentren der Objektspuren g1 und g2 sind in 3C als Rauten dargestellt.In 3C the tracklets t1 to t6 are assigned to the object tracks g1 and g2 according to method step S4. In this particular example, a clustering technique is used to Cluster tracklets t1 to t6 into object tracks based on the overlap of gates a1 to a6 of tracklets t1 to t6 in the current radar image. The object tracks represent the objects to be tracked by the tracking loop. The centers of the object tracks g1 and g2 are in 3C shown as diamonds.

4 zeigt eine schematische Darstellung eines weiteren Radarsystems 100 mit einer ersten Radareinheit 110 und einer zweiten Radareinheit 120. In diesem Beispiel umfasst das Radarsystem 100 ferner eine Verfolgungsberechnungseinheit 130, die dazu ausgestaltet ist, die erfassten Radarbilder zu verarbeiten, indem sie die Schritte des Verfahrens wie oben erläutert durchführt. 4 shows a schematic representation of another radar system 100 with a first radar unit 110 and a second radar unit 120. In this example, the radar system 100 further comprises a tracking calculation unit 130, which is configured to process the acquired radar images by performing the steps of the method as above explained performs.

Es wird angemerkt, dass die Verfolgungsberechnungseinheit 130 auch Teil von mindestens einer der Radareinheiten 110 und 120 sein kann. Im Beispiel von 4 sind die Radareinheiten 110, 120 dazu ausgestaltet, die von jeder Radareinheit 110, 120 erfassten Messdaten an die Verfolgungsberechnungseinheit 130 zu übermitteln. Bei den Radareinheiten 110, 120 handelt es sich um nicht-zugehörige Radare, d.h. die Radareinheiten 110, 120 teilen sich z.B. keine Antennen in einem größeren Antennenfeld.It is noted that the tracking calculation unit 130 can also be part of at least one of the radar units 110 and 120 . In the example of 4 the radar units 110, 120 are designed to transmit the measurement data acquired by each radar unit 110, 120 to the tracking calculation unit 130. The radar units 110, 120 are non-associated radars, ie the radar units 110, 120 do not share any antennas in a larger antenna field, for example.

Die Radareinheiten 110, 120 weisen jeweils ein Sichtfeld FoV-110, FoV-120 auf, wobei sich die Sichtfelder FoV-110, FoV-120 der Radareinheiten 110, 120 in einem Sichtfeld FoV des Radarsystems 100 zumindest teilweise (räumlich) überlappen.Radar units 110, 120 each have a field of view FoV-110, FoV-120, with fields of view FoV-110, FoV-120 of radar units 110, 120 overlapping at least partially (spatially) in a field of view FoV of radar system 100.

Im Sichtfeld FoV befindet sich ein bewegtes Objekt O1 mit einer tatsächlichen Geschwindigkeit v 01

Figure DE102021105659A1_0011
und wird von beiden Radareinheiten 110, 120 beobachtet. Starke, zuverlässige Reflexionspunkte des Objekts O1 in der Szene (Sichtfeld FoV) werden von beiden Radargeräten 110, 120 erfasst, um zwei radiale Geschwindigkeitskomponenten zu erhalten.A moving object O1 with an actual speed is located in the field of view FoV v 01
Figure DE102021105659A1_0011
and is observed by both radar units 110,120. Strong, reliable reflection points of the object O1 in the scene (field of view FoV) are detected by both radar devices 110, 120 in order to obtain two radial velocity components.

Die beiden radialen Geschwindigkeitskomponenten jedes Detektionspunktes d1 bis d4 können mit einer Least-Squares-Lösung gelöst werden, um einen zweidimensionalen Geschwindigkeitsvektor zu schätzen. Entsprechend kann ein mehrdimensionaler Geschwindigkeitsvektor geschätzt werden, wenn die Messdaten z.B. auch Messungen in Elevationsrichtung umfassen.The two radial velocity components of each detection point d1 to d4 can be solved with a least squares solution to estimate a two-dimensional velocity vector. Accordingly, a multi-dimensional velocity vector can be estimated if the measurement data also include measurements in the elevation direction, for example.

Die Berechnung des zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektors beinhaltet eine Interpolationsoperation zwischen den Entfernungs-Winkel-Koordinatenrastern der Radargeräte 110, 120. Für jedes Radarbild wird eine Liste von zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren entsprechend den Größen der Radarbilder (z.B. das Minimum der Größen der Radareinheiten 110, 120) entsprechend bewertet.The calculation of the two-dimensional or multi-dimensional velocity vector involves an interpolation operation between the range-angle coordinate grids of the radars 110, 120. For each radar image, a list of two-dimensional or multi-dimensional velocity vectors corresponding to the magnitudes of the radar images (e.g. the minimum of the sizes of the radar units 110, 120 ) rated accordingly.

In 4 sind vier Detektionspunkte d1 bis d4 mit den entsprechenden berechneten zwei- oder mehrdimensionalen Geschwindigkeitsvektoren v d 1

Figure DE102021105659A1_0012
bis v d 4
Figure DE102021105659A1_0013
. dargestellt.In 4 are four detection points d1 to d4 with the corresponding calculated two or more dimensional velocity vectors v i.e 1
Figure DE102021105659A1_0012
until v i.e 4
Figure DE102021105659A1_0013
. shown.

Die zwei- oder mehrdimensionalen Geschwindigkeitsvektoren können in den Aktualisierungsschritt S5, in den Initialisierungsschritt S6 und in den Korrekturschritt S7 der Verfolgungsschleife wie folgt einbezogen werden:

  • Im Aktualisierungsschritt S5 ist es möglich, die Genauigkeit der Verfolgungsschleife zu verbessern. Insbesondere kann ein Übergang zwischen einem vorläufigen Zustand und einem verfolgten Zustand eines Tracklets beschleunigt werden, wenn sich das Tracklet innerhalb eines Bereichs um die Position eines Detektionspunkts befindet, für den ein zweidimensionaler Vektor bestimmt wird, und wenn ein Vergleichsmaß des mehrdimensionalen Geschwindigkeitsvektors und der mehrdimensionalen Geschwindigkeitsvektoren der benachbarten mehrdimensionalen Geschwindigkeitsvektoren des Detektionspunkts gleich oder größer als ein vorgegebener Schwellenwert ist.
The two or more dimensional velocity vectors can be included in the update step S5, in the initialization step S6 and in the correction step S7 of the tracking loop as follows:
  • In the updating step S5, it is possible to improve the accuracy of the tracking loop. In particular, a transition between a preliminary state and a tracked state of a tracklet can be accelerated when the tracklet is within a range of the position of a detection point for which a two-dimensional vector is determined and when a comparative measure of the multi-dimensional velocity vector and the multi-dimensional velocity vectors of the neighboring multi-dimensional velocity vectors of the detection point is equal to or larger than a predetermined threshold.

Beispielsweise erzeugt ein zweidimensionaler oder mehrdimensionaler Geschwindigkeitsvektor, dessen der Bewegungsrichtung mit denen seiner Nachbarn übereinstimmt, einen sogenannten Hotspot um den entsprechenden Detektionspunkt des zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektors.For example, a two-dimensional or multi-dimensional velocity vector whose direction of movement corresponds to that of its neighbors generates a so-called hotspot around the corresponding detection point of the two-dimensional or multi-dimensional velocity vector.

Der sogenannte Hotspot kann z. B. ein elliptischer Bereich, ein rechteckiger Bereich, ein kreisförmiger Bereich oder dergleichen in kartesischen Koordinaten sein.The so-called hotspot can e.g. B. be an elliptical area, a rectangular area, a circular area or the like in Cartesian coordinates.

Die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren können durch die Position des entsprechenden Detektionspunkts um die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren aussortiert werden, um die Nachbarn der zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren zu identifizieren.The two-dimensional or multi-dimensional velocity vectors can be sorted out by the position of the corresponding detection point around the two-dimensional or multi-dimensional velocity vectors to identify the neighbors of the two-dimensional or multi-dimensional velocity vectors.

Als Vergleichsmaßstab hoti kann das normierte Innenprodukt der Geschwindigkeitsvektoren mit den Geschwindigkeitsvektoren des Nachbarn berechnet und aufsummiert werden. Das aufsummierte, normierte Innenprodukt der Geschwindigkeitsvektoren hoti kann dann mit einem vorgegebenen Schwellwert hotthresh verglichen werden, um zu bestimmen, ob ein Hotspot erzeugt wird oder nicht: h o t i = [ ( j n e i g h v i v j v i 2 v j 2 ) h o t t h r e s h ]

Figure DE102021105659A1_0014
The normalized inner product of the velocity vectors with the velocity vectors of the neighbor can be calculated and summed up as a standard of comparison hot i . The summed, normalized inner product of the velocity vectors hot i can then be compared to a predetermined threshold value hot thresh to determine whether a hotspot is created or not: H O t i = [ ( j n e i G H v i v j v i 2 v j 2 ) H O t t H right e s H ]
Figure DE102021105659A1_0014

Das normalisierte Innenprodukt misst die Übereinstimmung darüber, in welche Richtung sich das Objekt an diesem Ort bewegt. Die Summe ist eine Anhäufungsmetrik, die für eine Anzahl n von Geschwindigkeitsvektoren von -n (perfekte Nichtübereinstimmung) über 0 (Erwartungswert, wenn die Richtungen gleichmäßig zufällig sind) bis n (perfekte Übereinstimmung) reicht.The normalized interior product measures agreement about which direction the object is moving at that location. The sum is an accumulation metric ranging from -n (perfect mismatch) through 0 (expected value when directions are uniformly random) to n (perfect match) for a number n of velocity vectors.

In ähnlicher Weise können im Initialisierungsschritt S6 Tracklets schneller mit einem verfolgten Zustand initialisiert werden, wenn zwei- oder mehrdimensionale Geschwindigkeitsvektoren von beobachteten Detektionspunkten verfügbar sind.Similarly, in the initialization step S6, tracklets can be initialized more quickly with a tracked state if two or more dimensional velocity vectors of observed detection points are available.

Tracklets oder Objektspuren (Gruppen von Tracklets) können mit einem verfolgten Zustand anstelle eines tentativen Zustands initialisiert werden, wenn das gleiche Vergleichsmaß gilt.Tracklets or object tracks (groups of tracklets) can be initialized with a tracked state instead of a tentative state if the same measure of comparison applies.

So können z. B. sowohl Tracklets als auch Objektspuren in einem Radarbild mit einem verfolgten Zustand für ein Objekt initialisiert werden, solange die beobachteten Detektionspunkte und genügend zwei- oder mehrdimensionale Geschwindigkeitsvektoren in seiner Nachbarschaft übereinstimmen.So e.g. B. Both tracklets and object traces in a radar image can be initialized with a tracked state for an object as long as the observed detection points and enough two- or multi-dimensional velocity vectors in its neighborhood match.

Außerdem können die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren in den Korrekturschritt S7 der Verfolgungsschleife einbezogen werden.In addition, the two-dimensional or multi-dimensional velocity vectors can be included in the correction step S7 of the tracking loop.

Zum Beispiel kann der Aktualisierungsschritt S5 durchgeführt werden und dann ein weiterer (separater) Aktualisierungsschritt auf der Basis der benachbarten zwei- oder mehrdimensionalen Geschwindigkeitsvektoren. Hier enthalten die zu korrigierenden Tracklets Geschwindigkeitsvektoren als Parameter, so dass die Mittelposition und der Geschwindigkeitsvektor des Tracklets zum Gaten (Aussortieren) der Position und Geschwindigkeit verwendet werden können. Dann kann ein Median über die zweidimensionalen oder mehrdimensionalen Geschwindigkeitsvektoren berechnet werden, um weitere Ausreißer zu verwerfen und die Geschwindigkeit des Tracklets mit einer entsprechend gewichteten konvexen Kombination zu aktualisieren: v i ζ v i + ( 1 ζ ) m e d i a n ( v e c s i )

Figure DE102021105659A1_0015
wobei ζ ∈ [0,1]. Dieser Schritt der Median-Aggregation und der konvexen Kombination kann auch verwendet werden, um die Geschwindigkeit eines Tracklets, das aufgrund von zwei- oder mehrdimensionalen Geschwindigkeitsvektoren (wie oben beschrieben) initialisiert wurde, warm zu starten.For example, update step S5 can be performed and then another (separate) update step based on the neighboring two or more dimensional velocity vectors. Here, the tracklets to be corrected contain velocity vectors as parameters, so the tracklet's center position and velocity vector can be used to gate the position and velocity. Then a median can be computed over the two-dimensional or multi-dimensional velocity vectors to discard further outliers and update the tracklet's velocity with an appropriately weighted convex combination: v i ζ v i + ( 1 ζ ) m e i.e i a n ( v e c s i )
Figure DE102021105659A1_0015
where ζ ∈ [0,1]. This step of median aggregation and convex combination can also be used to warm start the velocity of a tracklet that has been initialized due to two or more dimensional velocity vectors (as described above).

5 zeigt ein System 1000 mit einem autonomen Fahrzeug 1100 und einem Radarsystem 100 gemäß Ausführungsformen. Das Radarsystem 100 umfasst eine erste Radareinheit 110 mit mindestens einer ersten Radarantenne 111 (zum Senden und/oder Empfangen entsprechender Radarsignale), eine zweite Radareinheit 120 mit mindestens einer zweiten Radarantenne 121 (zum Senden und/oder Empfangen entsprechender Radarsignale) und eine Verfolgungsberechnungseinheit 130. 5 10 shows a system 1000 including an autonomous vehicle 1100 and a radar system 100 according to embodiments. The radar system 100 comprises a first radar unit 110 with at least one first radar antenna 111 (for transmitting and/or receiving corresponding radar signals), a second radar unit 120 with at least one second radar antenna 121 (for transmitting and/or receiving corresponding radar signals) and a tracking calculation unit 130.

Das System 1000 kann eine Fahrgastschnittstelle 1200, einen Fahrzeugkoordinator 1300 und/oder eine Fern-Expertenschnittstelle 1400 umfassen. In bestimmten Ausführungsformen erlaubt die Fern-Expertenschnittstelle 1400 einer Nicht-Passagier-Entität, die Verhaltenseinstellungen des autonomen Fahrzeugs 1100 einzustellen und/oder zu ändern. Die Nicht-Passagier- Entität kann sich von dem Fahrzeugkoordinator 1300 unterscheiden, der ein Server sein kann.The system 1000 may include a passenger interface 1200, a vehicle coordinator 1300, and/or a remote expert interface 1400. In certain embodiments, the remote expert interface 1400 allows a non-passenger entity to adjust and/or change the behavior settings of the autonomous vehicle 1100 . The non-passenger entity may be different from the vehicle coordinator 1300, which may be a server.

Das System 1000 funktioniert derart, dass das autonome Fahrzeug 1100 in der Lage ist, ein Fahrverhalten in Reaktion auf Parameter zu ändern und/oder einzustellen, die vom Fahrgast (z. B. über die Fahrgastschnittstelle 1200) und/oder anderen interessierten Beteiligten (z. B. über den Fahrzeugkoordinator 1300 oder die Fern-Expertenschnittstelle 1400) eingestellt wurden. Das Fahrverhalten eines autonomen Fahrzeugs kann entsprechend expliziter Eingaben oder Rückmeldungen (z. B. ein Fahrgast, der eine Höchstgeschwindigkeit oder ein relatives Komfortniveau vorgibt), impliziter Eingaben oder Rückmeldungen (z. B. die Herzfrequenz eines Fahrgastes) oder jeder anderen geeigneten Daten oder Art der Übermittlung von Fahrverhaltenspräferenzen geändert werden.The system 1000 operates such that the autonomous vehicle 1100 is able to change and/or adjust driving behavior in response to parameters provided by the passenger (e.g., via the passenger interface 1200) and/or other interested parties (e.g., (e.g. via vehicle coordinator 1300 or remote expert interface 1400). The driving behavior of an autonomous vehicle may be modified according to explicit input or feedback (e.g., a passenger specifying a maximum speed or relative comfort level), implicit input or feedback (e.g., a passenger's heart rate), or any other suitable data or type the transmission of driving behavior preferences can be changed.

Das autonome Fahrzeug 1100 ist vorzugsweise ein vollständig autonomes Automobil, kann aber zusätzlich oder alternativ jedes beliebige teilautonome oder vollständig autonome Fahrzeug sein; z. B. ein Boot, ein unbemanntes Luftfahrzeug, ein fahrerloses Auto usw. Zusätzlich oder alternativ kann das autonome Fahrzeug ein Fahrzeug sein, das zwischen einem teilautonomen Zustand und einem vollständig autonomen Zustand umschaltet, und somit können die autonomen Fahrzeuge je nach Zustand des Fahrzeugs sowohl Attribute eines teilautonomen Fahrzeugs als auch eines vollständig autonomen Fahrzeugs aufweisen.The autonomous vehicle 1100 is preferably a fully autonomous automobile, but may additionally or alternatively be any semi-autonomous or fully autonomous vehicle; e.g. a boat, an unmanned aerial vehicle, a driverless car, etc. Additionally or alternatively, the autonomous vehicle can be a vehicle that switches between a semi-autonomous state and a fully autonomous state, and thus the autonomous vehicles can have both attributes depending on the state of the vehicle a semi-autonomous vehicle and a fully autonomous vehicle.

Das autonome Fahrzeug 1100 umfasst vorzugsweise eine Gaspedalschnittstelle, die eine Motordrossel, die Motordrehzahl (z. B. die Drehzahl eines Elektromotors) oder einen anderen Mechanismus zur Bewegungsermöglichung steuert; eine Bremsschnittstelle, die die Bremsen des autonomen Fahrzeugs (oder einen anderen Mechanismus zur Bewegungshemmung) steuert; und eine Lenkschnittstelle, die die Lenkung des autonomen Fahrzeugs steuert (z. B. durch Ändern des Winkels der Räder des autonomen Fahrzeugs). Das autonome Fahrzeug 1100 kann zusätzlich oder alternativ Schnittstellen zur Steuerung beliebiger anderer Fahrzeugfunktionen enthalten; z. B. Scheibenwischer, Scheinwerfer, Blinker, Klimaanlage usw.The autonomous vehicle 1100 preferably includes an accelerator pedal interface that controls an engine throttle, engine speed (e.g., speed of an electric motor), or other mechanism mus controls to enable movement; a braking interface that controls the autonomous vehicle's brakes (or other motion-inhibiting mechanism); and a steering interface that controls the steering of the autonomous vehicle (e.g., by changing the angle of the wheels of the autonomous vehicle). The autonomous vehicle 1100 may additionally or alternatively include interfaces for controlling any other vehicle function; e.g. B. Windscreen wipers, headlights, turn signals, air conditioning, etc.

Darüber hinaus umfasst das autonome Fahrzeug 1100 vorzugsweise einen Bordcomputer 1450.In addition, the autonomous vehicle 1100 preferably includes an on-board computer 1450.

Die Verfolgungsberechnungseinheit 130 kann zumindest teilweise im und/oder am Fahrzeug 1100 angeordnet sein und kann (zumindest teilweise) in den Bordcomputer 1450 integriert sein und/oder kann (zumindest teilweise) in eine Recheneinheit zusätzlich zum Bordcomputer 1450 integriert sein. Alternativ oder zusätzlich kann die Ortungseinheit (zumindest teilweise) in die erste und/oder zweite Radareinheit 110, 120 integriert sein. Wenn die Verfolgungseinheit 130 (zumindest teilweise) zusätzlich zum Bordcomputer 1450 vorgesehen ist, kann sie in Kommunikation mit dem Bordcomputer stehen, so dass Daten von der Verfolgungseinheit 130 an den Bordcomputer 1450 und/oder umgekehrt übertragen werden können.The tracking calculation unit 130 may be at least partially located in and/or on the vehicle 1100 and may be (at least partially) integrated into the on-board computer 1450 and/or may be (at least partially) integrated into a computing unit in addition to the on-board computer 1450 . Alternatively or additionally, the locating unit can be integrated (at least partially) into the first and/or second radar unit 110, 120. When tracking unit 130 is (at least in part) additional to onboard computer 1450, it may be in communication with the onboard computer such that data may be transferred from tracking unit 130 to onboard computer 1450 and/or vice versa.

Zusätzlich oder alternativ kann die Verfolgungsberechnungseinheit 130 (zumindest teilweise) in eine oder mehrere oder alle der Beifahrerschnittstelle 1200, des Fahrzeugkoordinators 1300 und/oder einer Fern-Expertenschnittstelle 1400 integriert sein. Insbesondere kann in einem solchen Fall das Radarsystem die Fahrgastschnittstelle 1200, den Fahrzeugkoordinator 1300 und/oder eine Fern-Expertenschnittstelle 1400 umfassen.Additionally or alternatively, the tracking calculation unit 130 may be integrated (at least in part) into one or more or all of the passenger interface 1200, the vehicle coordinator 1300, and/or a remote expert interface 1400. In particular, in such a case, the radar system may include the passenger interface 1200, the vehicle coordinator 1300, and/or a remote expert interface 1400.

Zusätzlich zu der/den einen oder zwei oder mehreren RADAR-Einheit(en) umfasst das autonome Fahrzeug 1100 vorzugsweise eine Sensoreinheit 1500 (einschließlich z. B. eines oder mehrerer oder aller Computer-Vision-Systeme („CV“), LIDAR, Radgeschwindigkeitssensoren, GPS, Kameras usw.).In addition to the one or two or more RADAR unit(s), the autonomous vehicle 1100 preferably includes a sensor unit 1500 (including, e.g., one or more or all computer vision ("CV") systems, LIDAR, wheel speed sensors , GPS, cameras, etc.).

Der Bordcomputer 1450 kann als ADSC implementiert sein und funktioniert, um das autonome Fahrzeug 1100 zu steuern und verarbeitet erfasste Daten von der Sensoreinheit 1500 und/oder anderen Sensoren, insbesondere Sensoren, die von den Radareinheiten 110, 120 bereitgestellt werden, und/oder Daten von der Verfolgungsberechnungseinheit 130, um den Zustand des autonomen Fahrzeugs 1100 zu bestimmen. Basierend auf dem Fahrzeugzustand und programmierten Anweisungen modifiziert oder steuert der Bordcomputer 1450 vorzugsweise das Fahrverhalten des autonomen Fahrzeugs 1100.The onboard computer 1450 can be implemented as an ADSC and functions to control the autonomous vehicle 1100 and processes collected data from the sensor unit 1500 and/or other sensors, in particular sensors provided by the radar units 110, 120 and/or data from the tracking calculation unit 130 to determine the state of the autonomous vehicle 1100 . Based on the vehicle state and programmed instructions, the onboard computer 1450 preferably modifies or controls the driving behavior of the autonomous vehicle 1100.

Das Fahrverhalten kann alle Informationen umfassen, die sich darauf beziehen, wie ein autonomes Fahrzeug fährt (z. B. das Betätigen von Bremsen, Gaspedal, Lenkung), wenn ein Satz von Anweisungen (z. B. eine Route oder ein Plan) gegeben ist. Das Fahrverhalten kann eine Beschreibung des kontrollierten Betriebs und der Bewegung eines autonomen Fahrzeugs und der Art und Weise, wie das autonome Fahrzeug Verkehrsregeln während einer oder mehrerer Fahrsitzungen anwendet, beinhalten. Das Fahrverhalten kann zusätzlich oder alternativ alle Informationen darüber enthalten, wie ein autonomes Fahrzeug Routen berechnet (z. B. Priorisierung der schnellsten Zeit gegenüber der kürzesten Strecke), anderes Betätigungsverhalten des autonomen Fahrzeugs (z. B. Betätigung von Lichtern, Scheibenwischern, Einstellungen der Antriebsschlupfregelung usw.) und/oder wie ein autonomes Fahrzeug auf Umwelteinflüsse reagiert (z. B. wie sich ein autonomes Fahrzeug verhält, wenn es regnet oder wenn ein Tier vor das Fahrzeug springt). Einige Beispiele für Elemente, die zum Fahrverhalten beitragen können, sind Beschleunigungsbeschränkungen, Verzögerungsbeschränkungen, Geschwindigkeitsbeschränkungen, Lenkungsbeschränkungen, Federungseinstellungen, Routenpräferenzen (z. B. landschaftlich reizvolle Routen, schnellere Routen, keine Autobahnen), Beleuchtungspräferenzen, Verhalten bei „rechtlicher Unklarheit“ (z. B., (z. B. ob ein Fahrzeug bei Grün in die Kreuzung einfährt oder an der Kreuzungslinie wartet), Aktionsprofile (z. B. wie ein Fahrzeug abbiegt, die Spur wechselt oder ein Fahrmanöver durchführt) und Aktionshäufigkeitsbeschränkungen (z. B. wie oft ein Fahrzeug die Spur wechselt).Driving behavior may include any information related to how an autonomous vehicle drives (eg, applying the brakes, accelerator, steering) when given a set of instructions (eg, a route or a plan). . Driving behavior may include a description of the controlled operation and movement of an autonomous vehicle and how the autonomous vehicle applies traffic rules during one or more driving sessions. The driving behavior can additionally or alternatively contain all information about how an autonomous vehicle calculates routes (e.g. prioritizing the fastest time over the shortest route), other operating behavior of the autonomous vehicle (e.g. operating lights, windshield wipers, settings of the traction control, etc.) and/or how an autonomous vehicle reacts to environmental influences (e.g. how an autonomous vehicle behaves when it rains or when an animal jumps in front of the vehicle). Some examples of elements that may contribute to driving behavior are acceleration restrictions, deceleration restrictions, speed restrictions, steering restrictions, suspension settings, route preferences (e.g. scenic routes, faster routes, not freeways), lighting preferences, "legal ambiguity" behavior (e.g. e.g., (e.g. whether a vehicle enters the intersection on green or waits at the intersection line), action profiles (e.g. how a vehicle turns, changes lanes or performs a driving manoeuvre), and action frequency constraints (e.g. how often a vehicle changes lanes).

Der Bordcomputer 1450 steuert den Betrieb und die Funktionalität der autonomen Fahrzeuge 1100 und verarbeitet Messdaten von der Sensoreinheit 1500 und/oder anderen Sensoren, insbesondere von den Radareinheiten 110, 120, und/oder Daten von der Verfolgungsberechnungseinheit 130, um Zustände der autonomen Fahrzeuge 1100 zu bestimmen. Basierend auf dem Fahrzeugzustand und programmierten Anweisungen modifiziert oder steuert der Bordcomputer 1450 vorzugsweise das Verhalten der autonomen Fahrzeuge 1100. Die Verfolgungsberechnungseinheit und/oder der Bordcomputer 1450 ist/sind vorzugsweise ein Allzweckcomputer, der/die für die I/O-Kommunikation mit Fahrzeugsteuerungssystemen und Sensorsystemen geeignet ist, kann aber zusätzlich oder alternativ jede geeignete Recheneinheit sein. Der Bordcomputer 1450 ist vorzugsweise über eine drahtlose Verbindung (z. B. über eine zellulare Datenverbindung) mit dem Internet verbunden. Zusätzlich oder alternativ kann der Bordcomputer 1450 mit einer beliebigen Anzahl von drahtlosen oder drahtgebundenen Kommunikationssystemen verbunden sein.The onboard computer 1450 controls the operation and the functionality of the autonomous vehicles 1100 and processes measurement data from the sensor unit 1500 and/or other sensors, in particular from the radar units 110, 120, and/or data from the tracking calculation unit 130 to states of the autonomous vehicles 1100 determine. Based on vehicle state and programmed instructions, onboard computer 1450 preferably modifies or controls the behavior of autonomous vehicles 1100. Tracking calculation unit and/or onboard computer 1450 is/are preferably a general purpose computer used for I/O communication with vehicle control systems and sensor systems is suitable, but may additionally or alternatively be any suitable computing unit. The onboard computer 1450 is preferably connected to the Internet via a wireless connection (e.g., via a cellular data connection). Additionally or alternatively, the onboard computer 1450 with any Number of wireless or wired communication systems to be connected.

Die Sensoreinheit 1500 umfasst vorzugsweise Lokalisierungs- und Fahrsensoren, z. B. Fotodetektoren, Kameras, SONAR, LIDAR, GPS, Inertialmesseinheiten (IMUs), Beschleunigungsmesser, Mikrofone, Dehnungsmessstreifen, Druckwächter, Barometer, Thermometer, Höhenmesser usw.The sensor unit 1500 preferably comprises location and driving sensors, e.g. B. Photodetectors, Cameras, SONAR, LIDAR, GPS, Inertial Measurement Units (IMUs), Accelerometers, Microphones, Strain Gauges, Pressure Switches, Barometers, Thermometers, Altimeters, etc.

In einem Ausführungsbeispiel kann eine beliebige Anzahl elektrischer Schaltungen aus 5, insbesondere als Teil der Verfolgungsrecheneinheit 130, des Bordcomputers 1450, der Fahrgastschnittstelle 1200, des Fahrzeugkoordinators 1300 und/oder der Fern-Expertenschnittstelle 1400 auf einer Platine eines zugehörigen elektronischen Geräts implementiert werden. Bei der Platine kann es sich um eine allgemeine Leiterplatte handeln, die verschiedene Komponenten des internen elektronischen Systems des elektronischen Geräts aufnehmen kann und darüber hinaus Anschlüsse für andere Peripheriegeräte bereitstellen kann. Genauer gesagt, kann die Platine die elektrischen Verbindungen bereitstellen, über die die anderen Komponenten des Systems elektrisch kommunizieren können. Alle geeigneten Prozessoren (einschließlich digitaler Signalprozessoren, Mikroprozessoren, unterstützender Chipsätze usw.), computerlesbare nicht-flüchtige Speicherelemente usw. können in geeigneter Weise mit der Platine verbunden werden, basierend auf bestimmten Konfigurationsanforderungen, Verarbeitungsanforderungen, Computerdesigns usw. Andere Komponenten, wie z. B. externe Speicher, zusätzliche Sensoren, Controller für die Audio-/Videowiedergabe und Peripheriegeräte können als Steckkarten, über Kabel oder integriert in die Platine selbst an die Platine angeschlossen werden. In verschiedenen Ausführungsformen können die hier beschriebenen Funktionalitäten in Emulationsform als Software oder Firmware implementiert werden, die innerhalb eines oder mehrerer konfigurierbarer (z. B. programmierbarer) Elemente läuft, die in einer Struktur angeordnet sind, die diese Funktionen unterstützt. Die Software oder Firmware, die die Emulation bereitstellt, kann auf einem nicht-flüchtigen, computerlesbaren Speichermedium bereitgestellt werden, das Anweisungen enthält, die es einem oder mehreren Prozessoren ermöglichen, diese Funktionalitäten auszuführen.In one embodiment, any number of electrical circuits can be made 5 , particularly as part of the tracking computing unit 130, the on-board computer 1450, the passenger interface 1200, the vehicle coordinator 1300 and/or the remote expert interface 1400 on a circuit board of an associated electronic device. The circuit board can be a general circuit board that can house various components of the electronic device's internal electronic system and can also provide connections for other peripheral devices. More specifically, the circuit board can provide the electrical connections that allow the other components of the system to communicate electrically. Any suitable processors (including digital signal processors, microprocessors, supporting chipsets, etc.), computer readable non-volatile memory elements, etc. may be suitably connected to the board based on particular configuration needs, processing requirements, computer design, etc. Other components such as Devices such as external storage, additional sensors, controllers for audio/video playback and peripherals can be connected to the board as plug-in cards, via cables or integrated into the board itself. In various embodiments, the functionality described herein may be implemented in emulation form as software or firmware running within one or more configurable (e.g., programmable) elements arranged in a structure that supports those functionality. The software or firmware that provides the emulation may be provided on a non-transitory, computer-readable storage medium that includes instructions that enable one or more processors to perform those functionalities.

BezugszeichenlisteReference List

S0S0
Verfahrensschritt des Initialisierens der Verfolgungsschleife;step of initializing the tracking loop;
S1S1
Verfahrensschritt des Erkennens von Detektionspunkten in dem aktuellen Radarbild;method step of recognizing detection points in the current radar image;
S2S2
Verfahrensschritt der Vorhersage eines oder mehrerer Parameter jedes Tracklets;step of predicting one or more parameters of each tracklet;
S3S3
Verfahrensschritt des Zuordnens der Detektionspunkte zu den Tracklets;method step of assigning the detection points to the tracklets;
S4S4
Verfahrensschritt des Zuordnens der Tracklets zu den Objektspuren;Method step of assigning the tracklets to the object tracks;
S5S5
Verfahrensschritt des Aktualisierens der Metadaten der Tracklets;method step of updating the metadata of the tracklets;
S6S6
Verfahrensschritt des Initialisierens neuer Tracklets;Method step of initializing new tracklets;
S7S7
Verfahrensschritt des Korrigierens der Parameter der Tracklets;step of correcting the parameters of the tracklets;
S8S8
Verfahrensschritt des Abfragens, ob der vorliegende Radarbild der letzte zu verarbeitende Radarbild ist;step of querying whether the present radar image is the last radar image to be processed;
a1 bis ala1 to al
Gates (Assoziationsbereiche) der Tracklets;Gates (association areas) of the tracklets;
d1 bis dnd1 to dn
Detektionspunkte;detection points;
t1 bis tmt1 to tm
Tracklets;tracklets;
g1 bis gkg1 to gk
Objektspuren;object traces;
duyou
nichtzugeordnete Detektionspunkt;unassigned detection points;
fpfp
aktuelles Radarbild;current radar image;
fp+1fp+1
Radarbild, das auf das aktuelle Radarbild folgt;Radar image following the current radar image;
fp+2fp+2
weiteres Radarbild, das auf das aktuelle Radarbild folgt;another radar image following the current radar image;
O1, O2O1, O2
erste und zweite Objekte;first and second objects;
O1(fp)O1(fp)
erstes Objekt in einem aktuellen Radarbild;first object in a current radar image;
TT
Trajektorie;trajectory;
FoVFoV
Sichtfeld des Radarsystems;field of view of the radar system;
FoV-110FoV-110
Sichtfeld der ersten Radareinheit;field of view of the first radar unit;
FoV-120FoV-120
Sichtfeld der zweiten Radareinheit;field of view of the second radar unit;
Ist-Geschwindigkeit des Objekts;actual speed of the object;
zwei- oder mehrdimensionale Geschwindigkeitsvektoren eines Detektionspunktes;two or more dimensional velocity vectors of a detection point;
100100
Radarsystem;radar system;
110110
erste Radareinheit;first radar unit;
111111
erste Radarantenne;first radar antenna;
120120
zweite Radareinheit;second radar unit;
121121
zweite Radarantenne;second radar antenna;
130130
Verfolgungsberechnungseinheittracking calculation unit
10001000
Systemsystem
11001100
Fahrzeugvehicle
12001200
Fahrgastschnittstelle 1200Passenger Interface 1200
13001300
Fahrzeugkoordinator 1300Vehicle Coordinator 1300
14001400
Fern-ExpertenschnittstelleRemote Expert Interface
14501450
Bordcomputeron-board computer
15001500
Sensoreinheitsensor unit

Die obige Beschreibung der dargestellten Ausführungsformen erhebt keinen Anspruch auf Vollständigkeit oder Einschränkung hinsichtlich der genauen Formen, die offengelegt werden. Während spezifische Implementierungen von und Beispiele für verschiedene Ausführungsformen oder Konzepte hier zur Veranschaulichung beschrieben werden, sind verschiedene äquivalente Modifikationen möglich, wie Fachleute auf dem entsprechenden Gebiet erkennen werden. Diese Modifikationen können unter Berücksichtigung der obigen detaillierten Beschreibung oder der Figuren vorgenommen werden.The above description of the illustrated embodiments is not intended to be exhaustive or limited as to the precise forms disclosed. While specific implementations of, and examples for, various embodiments or concepts are described herein for purposes of illustration, various equivalent modifications are possible, as will be appreciated by those skilled in the relevant art. These modifications can be made in light of the above detailed description or figures.

Verschiedene Ausführungsformen können jede geeignete Kombination der oben beschriebenen Ausführungsformen umfassen, einschließlich alternativer (oder) Ausführungsformen von Ausführungsformen, die oben in konjunktiver Form (und) beschrieben sind (z. B. kann das „und“ „und/oder“ sein). Darüber hinaus können einige Ausführungsformen einen oder mehrere Herstellungsgegenstände (z. B. nicht-flüchtige computerlesbare Medien) mit darauf gespeicherten Anweisungen umfassen, die bei ihrer Ausführung zu Aktionen einer der oben beschriebenen Ausführungsformen führen. Darüber hinaus können einige Ausführungsformen Vorrichtungen oder Systeme mit allen geeigneten Mitteln zur Ausführung der verschiedenen Vorgänge der oben beschriebenen Ausführungsformen umfassen.Various embodiments may include any suitable combination of the embodiments described above, including alternative (or) embodiments of embodiments described above in the conjunctive form (and) (e.g., the "and" may be "and/or"). Additionally, some embodiments may include one or more articles of manufacture (e.g., non-transitory computer-readable media) having instructions stored thereon that, when executed, result in actions of any of the embodiments described above. Furthermore, some embodiments may include devices or systems having any suitable means for performing the various operations of the embodiments described above.

In bestimmten Kontexten können die hier besprochenen Ausführungsformen auf Automobilsysteme (insbesondere autonome Fahrzeuge, vorzugsweise autonome Automobile), (sicherheitskritische) industrielle Anwendungen und industrielle Prozesssteuerung anwendbar sein.In certain contexts, the embodiments discussed herein may be applicable to automotive systems (particularly autonomous vehicles, preferably autonomous automobiles), industrial (safety-critical) applications, and industrial process control.

Darüber hinaus können bestimmte hier besprochene Ausführungsformen zur Verfolgung mindestens eines Objekts in Messdaten eines Radarsystems in digitalen Signalverarbeitungstechnologien für medizinische Bildgebung, Automobiltechnologien für Sicherheitssysteme (z. B. Stabilitätskontrollsysteme, Fahrerassistenzsysteme, Bremssysteme, Infotainment- und Innenraumanwendungen jeglicher Art) bereitgestellt werden.Additionally, certain embodiments discussed herein may be provided for tracking at least one object in measurement data from a radar system in digital signal processing technologies for medical imaging, automotive technologies for safety systems (e.g., stability control systems, driver assistance systems, braking systems, infotainment, and interior applications of any kind).

Teile verschiedener Systeme zum Verfolgen mindestens eines Objekts in Messdaten eines Radarsystems, wie hier vorgeschlagen, können elektronische Schaltungen enthalten, um die hier beschriebenen Funktionen auszuführen. In einigen Fällen können ein oder mehrere Teile des Systems durch einen Prozessor bereitgestellt werden, der speziell für die Ausführung der hierin beschriebenen Funktionen ausgestaltet ist. Beispielsweise kann der Prozessor eine oder mehrere anwendungsspezifische Komponenten enthalten, oder er kann programmierbare Logikgatter enthalten, die dazu ausgestaltet sind, die hier beschriebenen Funktionen auszuführen. Die Schaltung kann im analogen Bereich, im digitalen Bereich oder in einem Mixed-Signal-Bereich arbeiten. In einigen Fällen kann der Prozessor dazu ausgestaltet sein, die hierin beschriebenen Funktionen auszuführt, indem er eine oder mehrere Anweisungen ausführt, die auf einem nicht-flüchtigen, computerlesbaren Speichermedium gespeichert sind.Portions of various systems for tracking at least one object in measurement data from a radar system as proposed herein may include electronic circuitry to perform the functions described herein. In some cases, one or more portions of the system may be provided by a processor that is specifically configured to perform the functions described herein. For example, the processor may include one or more application specific components, or it may include programmable logic gates configured to perform the functions described herein. The circuit can operate in the analog domain, in the digital domain, or in a mixed-signal domain. In some cases, the processor may be configured to perform the functions described herein by executing one or more instructions stored on a non-transitory, computer-readable storage medium.

In einem Ausführungsbeispiel kann eine beliebige Anzahl von elektrischen Schaltungen der vorliegenden Figuren auf einer Platine eines zugehörigen elektronischen Geräts implementiert sein. Die Platine kann eine allgemeine Leiterplatte sein, die verschiedene Komponenten des internen elektronischen Systems des elektronischen Geräts aufnehmen kann und darüber hinaus Anschlüsse für andere Peripheriegeräte bereitstellen kann. Genauer gesagt, kann die Platine die elektrischen Verbindungen bereitstellen, über die die anderen Komponenten des Systems elektrisch kommunizieren können. Alle geeigneten Prozessoren (einschließlich digitaler Signalprozessoren, Mikroprozessoren, unterstützender Chipsätze usw.), computerlesbare nicht-flüchtige Speicherelemente usw. können in geeigneter Weise mit der Platine verbunden werden, basierend auf bestimmten Konfigurationsanforderungen, Verarbeitungsanforderungen, Computerdesigns usw. Andere Komponenten, wie z. B. externe Speicher, zusätzliche Sensoren, Controller für die Audio-/Videowiedergabe und Peripheriegeräte können als Steckkarten, über Kabel oder integriert in die Platine selbst an die Platine angeschlossen werden. In verschiedenen Ausführungsformen können die hier beschriebenen Funktionalitäten in Emulationsform als Software oder Firmware implementiert werden, die innerhalb eines oder mehrerer konfigurierbarer (z. B. programmierbarer) Elemente läuft, die in einer Struktur angeordnet sind, die diese Funktionen unterstützt. Die Software oder Firmware, die die Emulation bereitstellt, kann auf einem nicht-flüchtigen, computerlesbaren Speichermedium bereitgestellt werden, das Anweisungen enthält, die es einem Prozessor ermöglichen, diese Funktionalitäten auszuführen.In one embodiment, any number of the electrical circuits of the present figures may be implemented on a circuit board of an associated electronic device. The circuit board can be a general circuit board that can house various components of the electronic device's internal electronic system and can also provide connections for other peripheral devices. More specifically, the circuit board can provide the electrical connections that allow the other components of the system to communicate electrically. Any suitable processors (including digital signal processors, microprocessors, supporting chipsets, etc.), computer readable non-volatile memory elements, etc. may be suitably connected to the board based on particular configuration needs, processing requirements, computer design, etc. Other components such as Devices such as external storage, additional sensors, controllers for audio/video playback and peripherals can be connected to the board as plug-in cards, via cables or integrated into the board itself. In various embodiments, the functionality described herein may be implemented in emulation form as software or firmware running within one or more configurable (e.g., programmable) elements arranged in a structure that supports those functionality. The software or firmware that provides the emulation may be provided on a non-transitory, computer-readable storage medium that contains instructions that enable a processor to perform these functionalities.

Claims (21)

Verfahren zum Verfolgen mindestens eines Objekts (o1, o2) in Messdaten eines Radarsystems (100), die mehrere, insbesondere aufeinanderfolgende, von einem Radarsystem (100) erfasste Radarbilder enthalten, umfassend: - Detektieren von Detektionspunkten (d1 bis dn) in den Radarbildern (fp); - Zuordnen der Detektionspunkte (d1 bis dn) eines aktuellen Radarbildes (fp) zu einer Vielzahl von Tracklets (t1 bis tm), wobei jedes Tracklet (t1 bis tm) eine Spur von mindestens einem über mehrere Radarbilder beobachten Detektionspunkt (d1 bis dn) ist; und - Zuordnen der Tracklets (t1 bis tm) basierend auf mindestens einem Merkmalsparameter zu mindestens einer Objektspur (g1 bis gk).Method for tracking at least one object (o1, o2) in measurement data of a radar system (100), which contain several, in particular consecutive, radar images recorded by a radar system (100), comprising: - detecting detection points (d1 to dn) in the radar images (fp); - Assigning the detection points (d1 to dn) of a current radar image (fp) to a large number of tracklets (t1 to tm), each tracklet (t1 to tm) being a trace of at least one detection point (d1 to dn) observed over a number of radar images ; and - Assigning the tracklets (t1 to tm) based on at least one feature parameter to at least one object track (g1 to gk). Verfahren nach Anspruch 1, wobei das Erhalten und/oder Beibehalten der Tracklets (t1 bis tm) und der Objektspuren (g1 bis gk) auf mindestens einem dynamischen Systemmodell basiert. procedure after claim 1 , wherein obtaining and/or maintaining the tracklets (t1 to tm) and the object tracks (g1 to gk) is based on at least one dynamic system model. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend: - Prädizieren eines oder mehrerer Parameter jedes Tracklets (t1 bis tm) für das aktuelle Radarbild (fp) durch Propagieren des dynamischen Systemmodells, wobei die Parameter jedes Tracklets (t1 bis tm) mindestens eine Position, insbesondere eine Position und eine Geschwindigkeit, vorzugsweise eine Position und eine Geschwindigkeit und eine Beschleunigung, und eine Kovarianz des Tracklets in einem Radarbild umfassen; und - Korrigieren der Parameter jedes Tracklets (t1 bis tm) basierend auf den Detektionspunkten (d1 bis dn), die dem entsprechenden Tracklet (t1 bis tm) zugeordnet sind, wobei das Prädizieren vor dem Zuordnen der Detektionspunkte zu den Tracklets durchgeführt wird und das Korrigieren nach dem Zuordnen der Detektionspunkte zu den Tracklets durchgeführt wird.A method according to any one of the preceding claims, further comprising: - Predicting one or more parameters of each tracklet (t1 to tm) for the current radar image (fp) by propagating the dynamic system model, the parameters of each tracklet (t1 to tm) having at least a position, in particular a position and a speed, preferably a position and a velocity and an acceleration, and a covariance of the tracklet in a radar image; and - Correcting the parameters of each tracklet (t1 to tm) based on the detection points (d1 to dn) associated with the corresponding tracklet (t1 to tm), where the prediction is performed before associating the detection points with the tracklets and the correcting is performed after the assignment of the detection points to the tracklets is carried out. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Zuordnen der Detektionspunkte (d1 bis dn) zu den Tracklets (t1 bis tm) ein Detektionspunkt einem Tracklet zugeordnet wird, wenn eine Position des Detektionspunkts innerhalb eines Gates eines Tracklets liegt, wobei neue Tracklets aus den Detektionspunkten immer dann initialisiert werden, wenn das Kriterium für die Zuordnung einer Detektion für keines der vorhandenen Tracklets erfüllt ist, insbesondere wenn eine Position eines Detektionspunktes außerhalb der Gates aller vorhandenen Tracklets liegt.Method according to one of the preceding claims, wherein when assigning the detection points (d1 to dn) to the tracklets (t1 to tm), a detection point is assigned to a tracklet if a position of the detection point is within a gate of a tracklet, with new tracklets from the detection points be initialized whenever the criterion for the assignment of a detection is not met for any of the tracklets present, in particular when a position of a detection point is outside the gates of all tracklets present. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 4, wobei ein Gate für jedes Tracklet (t1 bis tm) entweder in der Größe festgelegt ist oder in der Größe adaptiv ist, wobei die Größe des Gates mit der Kovarianz des Tracklets korreliert, insbesondere derart, dass die Größe des Gates vergrößert wird, wenn die Kovarianz zunimmt, und umgekehrt.Method according to one of the preceding claims, in particular according to claim 4 , where a gate for each tracklet (t1 to tm) is either fixed in size or adaptive in size, where the size of the gate correlates with the covariance of the tracklet, in particular such that the size of the gate is increased when the covariance increases, and vice versa. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Zuordnen der Detektionspunkte (d1 bis dn) zu den Tracklets (t1 bis tm) ein Detektionspunkt demjenigen Tracklet zugeordnet wird, das eine Position aufweist, die dem Detektionspunkt am nächsten liegt.Method according to one of the preceding claims, wherein when assigning the detection points (d1 to dn) to the tracklets (t1 to tm), a detection point is assigned to that tracklet which has a position which is closest to the detection point. Verfahren nach einem der vorhergehenden Ansprüche, wobei beim Zuordnen der Detektionspunkte (d1 bis dn) zu den Tracklets (t1 bis tm) ein Detektionspunkt probabilistisch mehreren Tracklets (t1 bis tm) zugeordnet wird, wobei probabilistische Werte, die die Wahrscheinlichkeit angeben, dass ein Detektionspunkt einem Tracklet zugeordnet ist, erhöht werden, wenn der Abstand zwischen der Position des Detektionspunkts und der prädizierten Position des Tracklets abnimmt, und umgekehrt.Method according to one of the preceding claims, wherein when assigning the detection points (d1 to dn) to the tracklets (t1 to tm), a detection point is probabilistically assigned to a plurality of tracklets (t1 to tm), wherein probabilistic values indicating the probability that a detection point is associated with a tracklet are increased as the distance between the position of the detection point and the predicted position of the tracklet decreases, and vice versa. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Merkmalsparameter für das Gruppieren der Tracklets (t1 bis tm), aufgrund dessen die Tracklets (t1 bis tm) in die Objektspuren (g1 bis gk) geclustert werden, eine Überlappung der Gates der einzelnen Tracklets (t1 bis tm) in mindestens dem aktuellen Radarbild (fp) und/oder eine summierte Überlappung der Gates der einzelnen Tracklets (t1 bis tm) in mehreren vorherigen Radarbildern umfasst.Method according to one of the preceding claims, wherein the feature parameter for grouping the tracklets (t1 to tm), on the basis of which the tracklets (t1 to tm) are clustered into the object tracks (g1 to gk), an overlap of the gates of the individual tracklets (t1 to tm) in at least the current radar image (fp) and/or a summed overlap of the gates of the individual tracklets (t1 to tm) in several previous radar images. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Gruppieren der Tracklets (t1 bis tm) durch ein Clustering-Verfahren, insbesondere durch ein DBSCAN-Verfahren, durchgeführt wird.Method according to one of the preceding claims, wherein the grouping of the tracklets (t1 to tm) is carried out using a clustering method, in particular using a DBSCAN method. Verfahren nach einem der vorangehenden Ansprüche, ferner umfassend das Korrigieren von Parametern der Objektspur (g1 bis gk), insbesondere einer Position, einer Geschwindigkeit und/oder einer Beschleunigung der Objektspur (g1 bis gk), durch Aktualisieren der Parameter der Objektspur basierend auf einer prädizierten Geschwindigkeit und/oder einer prädizierten Beschleunigung der Tracklets der entsprechenden Objektspur.Method according to one of the preceding claims, further comprising correcting parameters of the object track (g1 to gk), in particular a position, a speed and/or an acceleration of the object track (g1 to gk), by updating the parameters of the object track based on a predicted one Speed and/or a predicted acceleration of the tracklets of the corresponding object track. Verfahren nach einem der vorhergehenden Ansprüche, wobei jedes Tracklet (t1 bis tm) Metadaten umfasst, die mindestens einen von einem Status des Tracklets (t1 bis tm), einen Track-Count-Wert und einen Lost- Track-Count-Wert enthalten.A method according to any one of the preceding claims, wherein each tracklet (t1 to tm) comprises metadata identifying at least one of a status of the tracklet (t1 to tm), a track count value and a lost track count value. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 11, ferner umfassend: - Aktualisieren der Metadaten der Tracklets (t1 bis tm); und - Initialisieren von Detektionspunkten als neue Tracklets, die nicht den bestehenden Tracklets (t1 bis tm) zugeordnet sind, wobei das Aktualisieren der Metadaten und das Initialisieren von Detektionspunkten als neue Tracklets nach dem Zuordnen der Detektionspunkte zu den Tracklets durchgeführt werden.Method according to one of the preceding claims, in particular according to claim 11 , further comprising: - updating the metadata of the tracklets (t1 to tm); and - initializing detection points as new tracklets that are not assigned to the existing tracklets (t1 to tm), wherein updating the metadata and initializing detection points as new tracklets are performed after assigning the detection points to the tracklets. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Alpha-Beta-Filter zum Modellieren der Dynamik der Tracklets und ein Kalman-Filter zum Modellieren der Dynamik der Objektspuren verwendet wird, oder wobei ein Alpha-Beta-Filter zum Modellieren der Dynamik der Tracklets und der Objektspuren verwendet wird.Method according to one of the preceding claims, wherein an alpha-beta filter for modeling the dynamics of the tracklets and a Kalman filter for modeling the dynamics of the object tracks is used, or wherein an alpha-beta filter for modeling the dynamics of the tracklets and the Object tracks is used. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach einem der Ansprüche 1 bis 12, wobei für jede Objektspur (g1 bis gk) ein Objektmodell aus einer Bibliothek von Objektmodellen hergeleitet wird und ein Switching-Kalman-Filter zum Modellieren der Objektspuren verwendet wird, wobei ein Schaltzustand des Switching-Kalman-Filters eine Objektklasse repräsentiert.Method according to one of the preceding claims, in particular according to one of Claims 1 until 12 , wherein for each object track (g1 to gk) an object model is derived from a library of object models and a switching Kalman filter is used to model the object tracks, with a switching state of the switching Kalman filter representing an object class. Verfahren, insbesondere nach einem der vorhergehenden Ansprüche, zum Verfolgen mindestens eines Objekts (o1, o2) in Messdaten eines Radarsystems (100), die mehrere, insbesondere aufeinanderfolgende, von einem Radarsystem (100) erfasste Radarbild umfassen, umfassend: - Detektieren von Detektionspunkten (d1 bis dn) in den Radarbildern (fp); wobei die Vielzahl von Radarbildern, die in den Messdaten enthalten sind, eine erste Vielzahl von Radarbildern ist, die von einer ersten Radareinheit (110) erfasst werden, wobei die Messdaten ferner eine zweite Vielzahl von Radarbildern enthalten, die von einer zweiten Radareinheit (120) erfasst werden, die nicht der ersten Radareinheit (110) zugehörig ist, wobei die erste und die zweite Vielzahl von Radarbildern synchronisiert sind und sich zumindest teilweise überlappen, wobei die Radarbilder Entfernungs-, Doppler- und Winkelmessungen enthalten, wobei aus den Dopplermessungen ein mehrdimensionaler Geschwindigkeitsvektor für mindestens einen, insbesondere für mehrere, vorzugsweise für jeden Detektionspunkt, der in synchronisierten Radarbildern der ersten und der zweiten Vielzahl von Radarbild erfassbar ist, bestimmt wird, wobei das Bestimmen des mehrdimensionalen Geschwindigkeitsvektors auf den entsprechenden Dopplermessungen der ersten und der zweiten Radareinheit (110, 120) basiert.Method, in particular according to one of the preceding claims, for tracking at least one object (o1, o2) in measurement data of a radar system (100), which comprise several, in particular consecutive, radar images recorded by a radar system (100), comprising: - detecting detection points (d1 to dn) in the radar images (fp); wherein the plurality of radar images included in the measurement data is a first plurality of radar images acquired by a first radar unit (110), wherein the measurement data further includes a second plurality of radar images acquired by a second radar unit (120) are detected that is not associated with the first radar unit (110), the first and second plurality of radar images being synchronized and at least partially overlapping, the radar images containing distance, Doppler and angle measurements, the Doppler measurements being used to produce a multi-dimensional velocity vector is determined for at least one, in particular for several, preferably for each detection point that can be detected in synchronized radar images of the first and the second plurality of radar images, the determination of the multi-dimensional velocity vector on the corresponding Doppler measurements of the first and the second radar unit (110, 120) based. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 15, wobei die mehrdimensionalen Geschwindigkeitsvektoren bei einem Korrigieren von Parametern einer Spur, insbesondere bei dem Korrigieren der Parameter des Tracklets (t1 bis tm), verwendet werden.Method according to one of the preceding claims, in particular according to claim 15 , wherein the multi-dimensional velocity vectors are used when correcting parameters of a track, in particular when correcting the parameters of the tracklet (t1 to tm). Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 15 oder 16, wobei die mehrdimensionalen Geschwindigkeitsvektoren bei einem Aktualisieren von Metadaten einer Spur und bei einem Initialisieren von Detektionspunkten als neue Spur verwendet werden, insbesondere beim Aktualisieren der Metadaten der Tracklets (t1 bis tm) und beim Initialisieren von Detektionspunkten als neue Tracklets.Method according to one of the preceding claims, in particular according to claim 15 or 16 , wherein the multi-dimensional velocity vectors are used when updating metadata of a track and when initializing detection points as a new track, in particular when updating the metadata of the tracklets (t1 to tm) and when initializing detection points as new tracklets. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 15, 16 oder 17, wobei der Status einer Spur sofort von einem vorläufigen Zustand in einen verfolgten Zustand geändert wird, wenn sich die Spur innerhalb eines Bereichs um die Position eines Detektionspunktes befindet, für den ein mehrdimensionaler Vektor ermittelt wird, und wenn ein Vergleichsmaß, insbesondere eine Summe des Innenprodukts, des mehrdimensionalen Geschwindigkeitsvektors und der mehrdimensionalen Geschwindigkeitsvektoren der benachbarten mehrdimensionalen Geschwindigkeitsvektoren des Detektionspunkts gleich oder größer als ein vorbestimmter Schwellenwert ist, insbesondere wobei der Status eines Tracklets sofort von einem vorläufigen Zustand in einen verfolgten Zustand geändert wird, wenn sich das Tracklet innerhalb eines Bereichs um die Position eines Detektionspunkts befindet, für den ein mehrdimensionaler Vektor bestimmt wird, und wenn ein Vergleichsmaß, insbesondere eine Summe des Innenprodukts, des mehrdimensionalen Geschwindigkeitsvektors und der mehrdimensionalen Geschwindigkeitsvektoren der benachbarten mehrdimensionalen Geschwindigkeitsvektoren des Detektionspunkts gleich oder größer als ein vorbestimmter Schwellenwert ist.Method according to one of the preceding claims, in particular according to claim 15 , 16 or 17 , wherein the status of a lane is immediately changed from a preliminary state to a tracked state when the lane is within a range around the position of a detection point for which a multidimensional vector is determined and when a comparison measure, in particular a sum of the inner product , the multi-dimensional velocity vector and the multi-dimensional velocity vectors of the neighboring multi-dimensional velocity vectors of the detection point is equal to or greater than a predetermined threshold, in particular wherein the status of a tracklet is immediately changed from a preliminary state to a tracked state when the tracklet moves within a range around the Position of a detection point is for which a multi-dimensional vector is determined, and when a comparative measure, in particular a sum of the inner product, the multi-dimensional velocity vector and the multi-dimensional velocity vectors of the adjacent multidimensional velocity vectors of the detection point is equal to or greater than a predetermined threshold. Radarsystem (100), das dazu ausgestaltet ist, mindestens ein Objekt (o1, o2) in Messdaten des Radarsystems (100) zu verfolgen, die eine Vielzahl von, insbesondere aufeinanderfolgenden, Radarbildern umfassen, unter Verwendung des Verfahrens nach einem der vorhergehenden Ansprüche, aufweisend: - eine erste Radareinheit (110), die dazu ausgestaltet ist, eine Vielzahl von Radarbildern durch Senden und Empfangen von Radarsignalen zu detektieren, die an potentiellen zu verfolgenden Objekten (o1, o2) in einem Sichtfeld der ersten Radareinheit (110) reflektiert werden; und - eine Verfolgungsberechnungseinheit (130), die dazu ausgestaltet ist, erfassten Radarbilder durch Ausführen der Schritte des Verfahrens nach einem der vorhergehenden Ansprüche zu verarbeiten.Radar system (100), which is designed to track at least one object (o1, o2) in measurement data of the radar system (100), which include a large number of, in particular consecutive, radar images, using the method according to any one of the preceding claims, having : - a first radar unit (110) which is designed to detect a plurality of radar images by transmitting and receiving radar signals which are present at potential objects to be tracked (o1, o2) reflected in a field of view of the first radar unit (110); and - a tracking calculation unit (130) arranged to process acquired radar images by performing the steps of the method according to any one of the preceding claims. Radarsystem (100) nach Anspruch 19, ferner aufweisend: - eine zweite Radareinheit (120), die dazu ausgestaltet ist, eine Vielzahl von Radarbildern durch Senden und Empfangen von Radarsignalen zu detektieren, die an potentiellen zu verfolgenden Objekten (o1, o2) in einem Sichtfeld der ersten Radareinheit (110) reflektiert werden, wobei sich das Sichtfeld der ersten Radareinheit (110) und das Sichtfeld der zweiten Radareinheit (120) zumindest teilweise überlappen.Radar system (100) after claim 19 , further comprising: - a second radar unit (120), which is designed to detect a plurality of radar images by transmitting and receiving radar signals that are at potential objects to be tracked (o1, o2) in a field of view of the first radar unit (110) are reflected, wherein the field of view of the first radar unit (110) and the field of view of the second radar unit (120) at least partially overlap. Fahrzeug, in dem ein Radarsystem (100) nach Anspruch 19 oder 20 angebracht ist, wobei das Fahrzeug ein Luft- oder Wasserfahrzeug oder ein Landfahrzeug, vorzugsweise ein Automobil, ist, wobei das Fahrzeug entweder bemannt oder unbemannt ist.Vehicle in which a radar system (100) after claim 19 or 20 is attached, the vehicle being an aircraft or watercraft or a land vehicle, preferably an automobile, the vehicle being either manned or unmanned.
DE102021105659.4A 2020-12-09 2021-03-09 Method, device and radar system for tracking objects Pending DE102021105659A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/EP2021/083747 WO2022122500A1 (en) 2020-12-09 2021-12-01 Method, apparatus and radar system for tracking objects
EP21823858.2A EP4260092A1 (en) 2020-12-09 2021-12-01 Method, apparatus and radar system for tracking objects
US18/256,823 US20240045052A1 (en) 2020-12-09 2021-12-01 Method, apparatus and radar system for tracking objects

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202063123403P 2020-12-09 2020-12-09
US63/123,403 2020-12-09

Publications (1)

Publication Number Publication Date
DE102021105659A1 true DE102021105659A1 (en) 2022-06-09

Family

ID=81655164

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021105659.4A Pending DE102021105659A1 (en) 2020-12-09 2021-03-09 Method, device and radar system for tracking objects

Country Status (1)

Country Link
DE (1) DE102021105659A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115410370A (en) * 2022-08-31 2022-11-29 南京慧尔视智能科技有限公司 Abnormal parking detection method and device, electronic equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100271257A1 (en) 2004-08-06 2010-10-28 Yuji Hirogari Radar apparatus
DE102018100469A1 (en) 2017-01-13 2018-07-19 Ford Global Technologies, Llc GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS
EP3196668B1 (en) 2016-01-19 2019-08-14 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
JP2019196994A (en) 2018-05-10 2019-11-14 株式会社デンソーテン Rader device and target detection method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100271257A1 (en) 2004-08-06 2010-10-28 Yuji Hirogari Radar apparatus
EP3196668B1 (en) 2016-01-19 2019-08-14 Aptiv Technologies Limited Object tracking system with radar/vision fusion for automated vehicles
DE102018100469A1 (en) 2017-01-13 2018-07-19 Ford Global Technologies, Llc GENERATED SIMULATED SENSOR DATA FOR TRAINING AND VERIFYING RECOGNITION MODELS
JP2019196994A (en) 2018-05-10 2019-11-14 株式会社デンソーテン Rader device and target detection method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115410370A (en) * 2022-08-31 2022-11-29 南京慧尔视智能科技有限公司 Abnormal parking detection method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
DE112019000279T5 (en) CONTROLLING AUTONOMOUS VEHICLES USING SAFE ARRIVAL TIMES
DE102018114042A1 (en) DEVICE, METHOD AND SYSTEM FOR THE MULTIMODAL FUSION PROCESSING OF DATA OF MULTIPLE DIFFERENT FORMATS RECORDED BY HETEROGENIC DEVICES
DE112018000899T5 (en) Joint 3D object detection and orientation estimation via multimodal fusion
DE102019133703A1 (en) METHODS AND SYSTEMS FOR PRODUCING AND LOCALIZING A VEHICLE
DE112015002788T5 (en) Improved blind spot detection for a trailer vehicle
DE102013102153A1 (en) Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided
DE102019110927A1 (en) Generalized inverse 3D sensor model
DE102013113570A1 (en) Bayes network for tracking objects using search points using multiple LiDAR sensors
DE102006045115A1 (en) System and method for target tracking using sensor fusion
DE102020100685A1 (en) PREDICTION OF TEMPORARY INFORMATION IN AUTONOMOUS MACHINE APPLICATIONS
DE102018120405A1 (en) FUSION OF RADAR AND IMAGE SENSORS
DE102009014105A1 (en) Detection system for a vehicle
US20240045052A1 (en) Method, apparatus and radar system for tracking objects
DE102019108610A1 (en) IMPROVING VEHICLE BEHAVIOR USING INFORMATION FROM OTHER VEHICLE LIGHTS
WO2020207528A1 (en) Method and processing unit for ascertaining the size of an object
DE102017129135A1 (en) Electronic Control Unit (ECU), autonomous vehicle having the ECU, and method for recognizing a nearby vehicle therefor
DE102015105089B4 (en) radar device
DE102020126973A1 (en) PROCEDURE AND SYSTEM FOR LOCALIZED LANE DETECTION
DE112021005806T5 (en) Systems and methods for camera-based reduction of incorrectly detected radar tracks
DE112019005326T5 (en) OBJECT TRACKER
DE102021105659A1 (en) Method, device and radar system for tracking objects
DE102021121712A1 (en) GROUP OBJECT TRACKING
DE102021100701A1 (en) SITUATIONAL AWARENESS FOR SIMULTANEOUSLY CHANGING LANES
DE102020124331A1 (en) VEHICLE TRACK MAPPING
DE112020002753T5 (en) VEHICLE CONTROL METHOD, VEHICLE CONTROL DEVICE AND VEHICLE CONTROL SYSTEM INCLUDING THEM

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: SYMEO GMBH, DE

Free format text: FORMER OWNER: ANALOG DEVICES INTERNATIONAL UNLIMITED COMPANY, LIMERICK, IE

R163 Identified publications notified