DE102022125695A1 - Method and device for efficient object tracking and correspondingly equipped motor vehicle - Google Patents

Method and device for efficient object tracking and correspondingly equipped motor vehicle Download PDF

Info

Publication number
DE102022125695A1
DE102022125695A1 DE102022125695.2A DE102022125695A DE102022125695A1 DE 102022125695 A1 DE102022125695 A1 DE 102022125695A1 DE 102022125695 A DE102022125695 A DE 102022125695A DE 102022125695 A1 DE102022125695 A1 DE 102022125695A1
Authority
DE
Germany
Prior art keywords
sensor
data
objects
detections
stationary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022125695.2A
Other languages
German (de)
Inventor
Dominik Kellner
Sascha Steyer
Daniel Meissner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022125695.2A priority Critical patent/DE102022125695A1/en
Priority to PCT/EP2023/075887 priority patent/WO2024074304A1/en
Publication of DE102022125695A1 publication Critical patent/DE102022125695A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (1) und eine Objektnachverfolgungseinrichtung (13) zur Objektnachverfolgung. Die Erfindung betrifft weiter ein entsprechend eingerichtetes Kraftfahrzeug (13). In dem Verfahren (1) wird für anhand von Sensordaten (3) einer Sensorik (12) detektierte Objekte (17) deren Bewegungszustand bestimmt und demgemäß jeweils eine Einstufung als bewegtes oder ruhendes Objekt (17) vorgenommen. Zu den Objekten (17) werden Objektdaten (2) gespeichert, die mehrere Eigenschaften des jeweiligen Objekts (17) und den dafür bestimmten Bewegungszustand umfassen. Jeweils anhand der aktuellen Sensordaten (3) werden die Objektdaten (2) bereits in einem vorausgehenden Messzyklus detektierter Objekte (17) aktualisiert. Dabei werden nur für diejenigen detektierten Objekte (17), die als ruhendes Objekt (17) eingestuft wurden, jeweils deren in den Objektdaten (2) gespeicherte Eigenschaften unabhängig voneinander aktualisiert.The invention relates to a method (1) and an object tracking device (13) for object tracking. The invention further relates to a motor vehicle (13) equipped accordingly. In the method (1), the state of motion of objects (17) detected using sensor data (3) from a sensor system (12) is determined and, accordingly, each object (17) is classified as a moving or stationary object. Object data (2) is stored for the objects (17), which includes several properties of the respective object (17) and the state of motion determined for it. The object data (2) are updated using the current sensor data (3) for objects (17) already detected in a previous measurement cycle. In this case, only for those detected objects (17) that were classified as a stationary object (17) do their properties stored in the object data (2) become updated independently of one another.

Description

Die vorliegende Erfindung betrifft ein Verfahren für eine Objektnachverfolgung basierend auf Sensordaten. Die Erfindung betrifft weiter eine entsprechende Einrichtung für das Verfahren und ein damit ausgestattetes Kraftfahrzeug.The present invention relates to a method for object tracking based on sensor data. The invention further relates to a corresponding device for the method and a motor vehicle equipped therewith.

In verschiedenen technischen Anwendungen und Bereichen - beispielsweise, aber nicht ausschließlich im Fahrzeug- und Verkehrsbereich - kann eine sensorische Erfassung und Nachverfolgung, also ein Tracking von Objekten in einer jeweiligen Umgebung nützlich sein, etwa zum Vermeiden von Kollisionen, zum Planen von Trajektorien, zur Überwachung und/oder dergleichen mehr. Dabei eingesetzte Sensoren und Messmethoden, insbesondere kombiniert mit einer automatischen Objekterkennung, sind jedoch nicht immer ganz exakt und präzise, was je nach Anwendungsfall unerwünscht oder sogar sicherheitsrelevant sein kann. Beispielsweise benötigt ein Abstandsregeltempomat (ACC, Adaptive Cruise Control) eines Kraftfahrzeugs eine möglichst präzise Erkennung eines vorausfahrenden Fahrzeugs und eine möglichst präzise Bestimmung von dessen Position. Insbesondere soll ein Abstand des eigenen Kraftfahrzeugs zu einem vorausfahrenden Fahrzeug nicht überschätzt werden, wenn das vorausfahrende Fahrzeug aktuell stillsteht. Resultat einer solchen Überschätzung könnte ein ungewolltes automatisches Wiederanfahren des eigenen Kraftfahrzeugs sein, was wiederum zu einem Unterschreiten eines vorgeschriebenen Mindestabstands oder zu einer Kollision führen könnte.In various technical applications and areas - for example, but not exclusively in the vehicle and traffic sector - sensory detection and tracking, i.e. tracking of objects in a particular environment, can be useful, for example to avoid collisions, to plan trajectories, for monitoring and/or the like. However, the sensors and measurement methods used, especially when combined with automatic object recognition, are not always completely exact and precise, which can be undesirable or even safety-relevant depending on the application. For example, an adaptive cruise control (ACC) in a motor vehicle requires the most precise detection of a vehicle in front and the most precise determination of its position. In particular, the distance between the driver's own vehicle and a vehicle in front should not be overestimated if the vehicle in front is currently stationary. The result of such an overestimation could be an unintentional automatic restart of the driver's own vehicle, which in turn could lead to a prescribed minimum distance being undercut or to a collision.

Einen Ansatz für eine erweiterte Objektverfolgung mittels Radar beschreibt beispielsweise die DE 10 2020 123 585 A1 . Das dortige Verfahren umfasst ein Erzeugen eines oder mehrerer Cluster basierend auf empfangenen Rückkehrpunkten eines Radarsensors eines Fahrzeugs. Für diese Cluster wird dann jeweils eine geschätzte Position und Geschwindigkeit berechnet. Weiter wird bestimmen, ob die Cluster mit einer vorhandenen Objektspur verknüpft sind. Gemäß dem einen oder den mehreren Clustern, die mit der vorhandenen Objektspur verknüpft sind, erfolgt dann ein Aktualisieren der vorhandenen Objektspur unter Verwendung mindestens der jeweiligen Position dieses einen oder dieser mehreren Cluster.An approach for advanced object tracking using radar is described, for example, by EN 10 2020 123 585 A1 The method therein includes generating one or more clusters based on received return points from a radar sensor of a vehicle. An estimated position and speed are then calculated for each of these clusters. It is also determined whether the clusters are linked to an existing object track. According to the one or more clusters that are linked to the existing object track, the existing object track is then updated using at least the respective position of this one or more clusters.

Für eine effektive Objektnachverfolgung kann typischerweise in irgendeiner Form ein Zustand eines jeweiligen Objekts bestimmt werden. Dazu beschreibt beispielsweise die DE 10 2019 109 332 A1 ein Verfahren zur Ermittlung eines Objekt-Zustandes an einer Sequenz von Zeitpunkten. Dabei wird auf Basis von Sensordaten ein Belegungsraster ermittelt, das für jede einer Vielzahl von Zellen eine Evidenz dafür anzeigt, dass die jeweilige Zelle an einem Zeitpunkt frei ist oder durch ein Objekt belegt ist. Darauf basierend wird eine Teilmenge der Zellen, die an dem Zeitpunkt zu dem Objekt gehören, ermittelt. Schließlich wird der Objekt-Zustand für den Zeitpunkt ermittelt auf Basis eines für diesen Zeitpunkt prädizierten Objekt-Zustands und auf Basis der ermittelten Teilmenge von Zellen des Objekts. Damit können in präziser und robuster Weise ein Objekt detektiert und Informationen in Bezug auf das Objekt ermittelt werden.For effective object tracking, a state of a particular object can typically be determined in some form. For example, the EN 10 2019 109 332 A1 a method for determining an object state at a sequence of points in time. An occupancy grid is determined on the basis of sensor data, which shows evidence for each of a large number of cells that the respective cell is free or occupied by an object at a point in time. Based on this, a subset of the cells that belong to the object at that point in time is determined. Finally, the object state for the point in time is determined on the basis of an object state predicted for that point in time and on the basis of the determined subset of cells of the object. This allows an object to be detected and information relating to the object to be determined in a precise and robust manner.

Aufgabe der vorliegenden Erfindung ist es, eine besonders effiziente sensorbasierte Objektnachverfolgung zu ermöglichen.The object of the present invention is to enable particularly efficient sensor-based object tracking.

Diese Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Weitere mögliche Ausgestaltungen der Erfindung sind in den Unteransprüchen, der Beschreibung und den Figuren offenbart. Merkmale, Vorteile und mögliche Ausgestaltungen, die im Rahmen der Beschreibung für einen der Gegenstände der unabhängigen Ansprüche dargelegt sind, sind zumindest analog als Merkmale, Vorteile und mögliche Ausgestaltungen des jeweiligen Gegenstands der anderen unabhängigen Ansprüche sowie jeder möglichen Kombination der Gegenstände der unabhängigen Ansprüche, gegebenenfalls in Verbindung mit einem oder mehr der Unteransprüche, anzusehen.This object is achieved by the subject matter of the independent patent claims. Further possible embodiments of the invention are disclosed in the subclaims, the description and the figures. Features, advantages and possible embodiments that are set out in the description for one of the subject matter of the independent claims are to be regarded at least analogously as features, advantages and possible embodiments of the respective subject matter of the other independent claims and of any possible combination of the subject matter of the independent claims, if appropriate in conjunction with one or more of the subclaims.

Das erfindungsgemäße Verfahren kann für eine Objektnachverfolgung, also für ein Objekttracking über mehrere Messzyklen einer Sensorik zur Umgebungs- bzw. Objekterfassung hinweg angewendet werden. Insbesondere kann das Verfahren in einem Kraftfahrzeug angewendet werden, ist jedoch nicht auf diesen Anwendungsfall beschränkt. In einem Verfahrensschritt des erfindungsgemäßen Verfahrens werden jeweils anhand von in einem Messzyklus der Sensorik erfassten Sensordaten Objekte detektiert. Mit anderen Worten können also in jedem Messzyklus jeweils aktuelle Sensordaten der Sensorik erfasst und zur Objektdetektion oder Objekterkennung ausgewertet oder verarbeitet werden. Die Sensorik kann einen oder mehrere einzelne Sensoren umfassen, wobei mehrere solcher einzelnen Sensoren der Sensorik insbesondere von unterschiedlicher Art sein können. Es können also in einem Messzyklus Sensordaten eines einzelnen Sensors oder mehrerer Sensoren erfasst werden, beispielsweise abhängig von Mess- oder Aufnahmefrequenzen oder einer Synchronisation mehrerer einzelner Sensoren. Die Sensorik oder die von dieser umfassten einzelnen Sensoren können selbst bereits intern Objekte detektieren und nachverfolgen. Entsprechende sensorintern detektierte und nachverfolgte, also verwaltete Objekte können dann als Sensorobjekte bezeichnet werden. Ebenso können von der Sensorik gelieferte Sensordaten zum Detektieren von Objekten außerhalb der Sensorik verarbeitet werden, beispielsweise durch eine zur Durchführung oder Anwendung des erfindungsgemäßen Verfahrens eingerichtete bzw. mit der Sensorik gekoppelte Objektnachverfolgungs- oder Trackingeinrichtung, also etwa ein entsprechend eingerichtetes Steuergerät oder Assistenzsystem oder dergleichen.The method according to the invention can be used for object tracking, i.e. for object tracking over several measurement cycles of a sensor system for environmental or object detection. In particular, the method can be used in a motor vehicle, but is not limited to this application. In a method step of the method according to the invention, objects are detected using sensor data recorded in a measurement cycle of the sensor system. In other words, current sensor data from the sensor system can be recorded in each measurement cycle and evaluated or processed for object detection or object recognition. The sensor system can comprise one or more individual sensors, whereby several such individual sensors of the sensor system can in particular be of different types. Sensor data from a single sensor or several sensors can therefore be recorded in a measurement cycle, for example depending on measurement or recording frequencies or a synchronization of several individual sensors. The sensor system or the individual sensors it comprises can themselves detect and track objects internally. Corresponding objects detected and tracked within the sensor, i.e. managed, can then be referred to as sensor objects. Sensor data provided by the sensor system can also be processed to detect objects outside the sensor system. for example, by an object tracking or tracking device set up to carry out or apply the method according to the invention or coupled to the sensor system, i.e., for example, a correspondingly set up control device or assistance system or the like.

In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens wird für detektierte Objekte anhand der Sensordaten deren Bewegungszustand bestimmt. Dabei wird jedes detektierte Objekt als ruhendes Objekt oder als bewegtes, also sich bewegendes Objekt eingestuft. Der Bewegungszustand eines Objekts kann also angeben, ob dieses Objekt sich in Bewegung befindet oder ruht. Ein ruhendes Objekt kann beispielsweise ein angehaltenes Objekt sein, das sich prinzipiell bewegen könnte, oder ein stationäres Objekt, das naturgemäß ortsfest ist und/oder zumindest im Rahmen der jeweils aktuellen Anwendung des Verfahrens noch nie in Bewegung detektiert worden ist. Die Bewegungszustände der detektierten Objekte können beispielsweise bezogen auf ein vorgegebenes weltfestes Koordinatensystem oder relativ zu der Sensorik bzw. einer damit ausgestatteten Vorrichtung, wie etwa einem Kraftfahrzeug oder dergleichen, bestimmt werden. Für das Bestimmen des Bewegungszustand als können die Sensordaten oder daraus abgeleitete Daten oder Größen beispielsweise hinsichtlich wenigstens eines vorgegebenen Kriteriums ausgewertet werden. Dabei kann beispielsweise ein Geschwindigkeitsschwellenwert oder eine Statistik über mehrere Detektionen des jeweiligen Objekts in aufeinanderfolgenden Messzyklen und/oder über mehrere einzelne dem jeweiligen Objekt zugeordnete Sensordetektionen, insbesondere aus dem jeweils aktuellen Messzyklus, hinweg ausgewertet werden. Solche einzelnen Sensordetektionen können im vorliegenden Sinne einzelne Daten- oder Messpunkte sein, also beispielsweise einzelne Radarechos bzw. Radardetektionen oder Lidardetektionen bzw. Lidarreflektionen und/oder dergleichen mehr.In a further method step of the method according to the invention, the motion state of detected objects is determined based on the sensor data. Each detected object is classified as a stationary object or as a moving object. The motion state of an object can therefore indicate whether this object is in motion or at rest. A stationary object can, for example, be a stopped object that could in principle move, or a stationary object that is naturally stationary and/or has never been detected in motion at least within the scope of the current application of the method. The motion states of the detected objects can, for example, be determined in relation to a predetermined global coordinate system or relative to the sensor system or a device equipped with it, such as a motor vehicle or the like. To determine the motion state, the sensor data or data or quantities derived therefrom can, for example, be evaluated with regard to at least one predetermined criterion. For example, a speed threshold value or statistics can be evaluated across multiple detections of the respective object in successive measurement cycles and/or across multiple individual sensor detections assigned to the respective object, in particular from the current measurement cycle. Such individual sensor detections can be individual data or measurement points in the present sense, for example individual radar echoes or radar detections or lidar detections or lidar reflections and/or the like.

Weiter werden in dem erfindungsgemäßen Verfahren zu jedem anhand der Sensordaten detektierten Objekt zugehörige Objektdaten gespeichert, die mehrere Eigenschaften des jeweiligen Objekts und dessen bestimmten Bewegungszustand umfassen. Die Objektdaten können also jeweils ein das jeweilige Objekt beschreibender oder charakterisierender Objektdatensatz sein, der auch als Objekttrack bezeichnet wird. Es können also jeweils in den Sensordaten bzw. durch diese repräsentierte detektierte Objekte jeweils zu einem solchen Objektdatensatz oder Objekttrack zugeordnet werden, worin die jeweiligen Eigenschaften des Objekts gespeichert bzw. verwaltet werden. Die Objektdaten sind also jeweils objektspezifisch, sodass für jedes detektierte Objekt jeweils ein entsprechender Objekttrack angelegt bzw. verwaltet wird. Über mehrere Messzyklen hinweg können in den Objektdaten somit die Objekte oder deren Eigenschaften nachverfolgt oder verwaltet werden. Für im aktuellen Messzyklus neu detektierte Objekte, für die noch kein Objekttrack mit anhand von Sensordaten aus wenigstens einem früheren Messzyklus bestimmten Eigenschaften angelegt wurde bzw. besteht, kann jeweils ein neuer Objekttrack angelegt werden.Furthermore, in the method according to the invention, object data associated with each object detected using the sensor data is stored, which includes several properties of the respective object and its determined state of motion. The object data can therefore each be an object data set describing or characterizing the respective object, which is also referred to as an object track. Objects detected in the sensor data or represented by it can therefore each be assigned to such an object data set or object track, in which the respective properties of the object are stored or managed. The object data is therefore each object-specific, so that a corresponding object track is created or managed for each detected object. The objects or their properties can thus be tracked or managed in the object data over several measurement cycles. A new object track can be created for objects newly detected in the current measurement cycle for which no object track with properties determined using sensor data from at least one previous measurement cycle has been created or exists.

Die in den Objektdaten bzw. Objekttracks gespeicherten oder angegebenen Eigenschaften können statische Eigenschaften und/oder dynamische Zustände oder Zustandsdaten des jeweiligen Objekts sein oder angeben. Statische Eigenschaften in diesem Sinne können beispielsweise eine Art oder ein Typ des jeweiligen Objekts sein oder angeben. Dynamische Zustände oder Zustandsdaten können - beispielsweise von Messzyklus zu Messzyklus - zumindest potenziell veränderliche Daten oder Größen des jeweiligen Objekts sein oder angeben, wie etwa eine Position und/oder eine Geschwindigkeit und/oder eine Beschleunigung und/oder ein Gierwinkel und/oder eine Gierrate und/oder dergleichen mehr. Die Objekttracks können auch als interne Tracks bezeichnet werden, da sie beispielsweise sensorikintern bzw. sensorintern oder innerhalb der entlang einer entsprechenden Signal- oder Datenverarbeitungspipeline sensornahen Objektnachverfolgungseinrichtung verwaltet werden können. Der in den Sensorobjekten bzw. als Teil der Sensorobjekte und/oder in den jeweiligen Objektdaten gespeicherte Bewegungszustand kann beispielsweise direkt aus der Bewegungsgeschwindigkeit des Objekts abgeleitet und/oder von der Sensorik bzw. dem jeweiligen einzelnen Sensor geschätzt werden und/oder - beispielsweise durch die Objektnachverfolgungseinrichtung - aus den von der Sensorik stammenden Sensordaten oder Sensorobjekten oder Objektdaten bestimmt oder abgeschätzt werden. Dabei können - sofern verfügbar - Daten oder abgeschätzte Bewegungszustände von mehreren Sensoren kombiniert werden. Die Bewegungsgeschwindigkeit eines Objekts kann je nach Sensor beispielsweise direkt gemessen oder aus verfügbaren Sensordaten abgeschätzt werden, beispielsweise über mehrere Messzyklen hinweg, also etwa anhand von einer Veränderung in den Sensordaten über mehrere Messzyklen hinweg.The properties stored or specified in the object data or object tracks can be or specify static properties and/or dynamic states or state data of the respective object. Static properties in this sense can be or specify, for example, a type or kind of the respective object. Dynamic states or state data can be or specify - for example from measurement cycle to measurement cycle - at least potentially changeable data or quantities of the respective object, such as a position and/or a speed and/or an acceleration and/or a yaw angle and/or a yaw rate and/or the like. The object tracks can also be referred to as internal tracks because they can be managed, for example, within the sensor or within the sensor or within the object tracking device close to the sensor along a corresponding signal or data processing pipeline. The motion state stored in the sensor objects or as part of the sensor objects and/or in the respective object data can, for example, be derived directly from the movement speed of the object and/or estimated by the sensor system or the respective individual sensor and/or - for example by the object tracking device - determined or estimated from the sensor data or sensor objects or object data originating from the sensor system. In this case, data or estimated motion states from several sensors can be combined - if available. Depending on the sensor, the movement speed of an object can, for example, be measured directly or estimated from available sensor data, for example over several measuring cycles, i.e. based on a change in the sensor data over several measuring cycles.

Ein ruhendes Objekt kann als solches beispielsweise direkt aus dem jeweiligen Bewegungs- oder Objektzustand, also den Daten oder Eigenschaften für ein Objekt, wie sie etwa von einem Sensor und/oder anhand der von einem oder mehreren Sensoren stammenden Sensordaten bestimmt wurden, erkannt werden. Ein Objekt kann also beispielsweise als ruhendes Objekt erkannt oder eingestuft werden, wenn in den vollständigen Objektdaten zu diesem Objekt eine unterhalb eines vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit angegeben ist. Als solcher Geschwindigkeitsschwellenwert kann beispielsweise 0,5 m/s vorgegeben sein, wobei aber je nach Anwendungsfall oder Anforderungen ebenso andere Werte möglich sein können. Die vollständigen Objektdaten können hier beispielsweise im Gegensatz zu einzelnen, dem Objekt zugeordneten Sensordetektionen oder Sensorrohdaten verstanden werden. Die Objektdaten können aus solchen Sensordetektionen oder Sensorrohdaten bestimmte oder abgeleitete Daten oder Eigenschaften des jeweiligen Objekts sein oder umfassen.A stationary object can be recognized as such, for example, directly from the respective movement or object state, i.e. the data or properties for an object, as determined by a sensor and/or based on the sensor data from one or more sensors. An object can therefore be recognized or classified as a stationary object, for example, if the complete object data for this object contains a value below a specified value. speed threshold value is specified. Such a speed threshold value can be specified as 0.5 m/s, for example, although other values may also be possible depending on the application or requirements. The complete object data can be understood here, for example, in contrast to individual sensor detections or raw sensor data assigned to the object. The object data can be or include data or properties of the respective object determined or derived from such sensor detections or raw sensor data.

Je nach Ausgestaltung der Sensorik können bereits sensor- oder sensorikintern durch einen oder mehr Sensoren, die ein bestimmtes Objekt detektiert haben, für detektierte Objekte deren Bewegungszustand bestimmt oder klassifiziert und/oder zumindest einige der statischen und/oder dynamischen Eigenschaften bestimmt oder abgeschätzt werden. Dies kann gegebenenfalls ebenso als Basis für die Einstufung von Objekten als ruhendes Objekt oder als bewegtes Objekt verwendet werden. Umfasst die Sensorik mehrere, insbesondere unterschiedliche, Sensoren, so kann beispielsweise ein Objekt als ruhendes Objekt oder als bewegtes Objekt eingestuft werden, wenn die von mehreren Sensoren intern für dieses Objekt ermittelten Bewegungszustände entsprechend übereinstimmen. Dies kann eine besonders schnelle und gleichzeitig besonders zuverlässige Einstufung ermöglichen. Zudem kann eine solche Einstufung auch besonders flexibel und robust möglich sein, da beispielsweise nicht immer dieselben Sensoren verwendet werden müssen. Dies kann beispielsweise besonders nützlich sein, wenn ein Objekt von einem Sensor zwischenzeitlich nicht detektiert werden kann, etwa aufgrund einer Verdeckung oder dergleichen.Depending on the design of the sensor system, the state of motion of detected objects can be determined or classified and/or at least some of the static and/or dynamic properties can be determined or estimated for them by one or more sensors that have detected a specific object, either within the sensor or within the sensor system. This can also be used as a basis for classifying objects as a stationary object or as a moving object. If the sensor system includes several, in particular different, sensors, an object can be classified as a stationary object or as a moving object, for example, if the states of motion determined internally for this object by several sensors match accordingly. This can enable a particularly fast and at the same time particularly reliable classification. In addition, such a classification can also be particularly flexible and robust, since, for example, the same sensors do not always have to be used. This can be particularly useful, for example, if an object cannot be detected by a sensor in the meantime, for example due to obscuration or the like.

In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens werden jeweils anhand der aktuellen, also im aktuellen Messzyklus erfassten Sensordaten die Objektdaten oder zumindest die darin enthaltenen dynamischen Zustände bereits in einem vorausgehenden Messzyklus detektierter Objekte automatisch aktualisiert. Damit kann sichergestellt werden, dass in den Objektdaten jeweils aktuelle Daten oder Angaben zu den jeweils zugeordneten Objekt gespeichert sind bzw. werden, die gespeicherten Objektdaten also die jeweils aktuellen Mess- oder Sensordaten berücksichtigen. Das hier vorgesehene Aktualisieren der Objektdaten kann zumindest für bestehende, also bereits in einem oder mehreren vorausgehenden Messzyklen detektierte Objekte durchgeführt werden. Für in den aktuellen Sensordaten neu enthaltene oder neu, also erstmalig detektierte Objekte kann jeweils ein neuer Objekttrack angelegt werden, in dem dann ebenfalls die aktuellen Sensordaten berücksichtigt werden.In a further method step of the method according to the invention, the object data or at least the dynamic states contained therein of objects already detected in a previous measurement cycle are automatically updated on the basis of the current sensor data, i.e. data recorded in the current measurement cycle. This ensures that current data or information on the respectively assigned object is or will be stored in the object data, i.e. that the stored object data takes into account the current measurement or sensor data. The updating of the object data provided here can be carried out at least for existing objects, i.e. objects already detected in one or more previous measurement cycles. For objects newly contained in the current sensor data or newly, i.e. objects detected for the first time, a new object track can be created in which the current sensor data is also taken into account.

Erfindungsgemäß werden dabei nur für diejenigen Objekte, die als ruhendes Objekt eingestuft wurden, jeweils deren in den Objektdaten gespeicherte Eigenschaften unabhängig voneinander aktualisiert. Mit anderen Worten werden also für ein ruhendes Objekt dessen Eigenschaften oder zumindest dessen dynamische Zustände oder Zustandsdaten voneinander entkoppelt, also beispielsweise ohne Kreuzkorrelationen oder gegenseitige Beeinflussungen oder Abhängigkeiten aktualisiert. Dieses Vorgehen zur Aktualisierung kann auch als ruhende Aktualisierung oder ruhendes Update bezeichnet werden, da es für ruhende Objekte angewendet wird. Umfassen die gespeicherten Eigenschaften beispielsweise eine Position und eine Geschwindigkeit des Objekts, so hat dann für ein ruhendes Objekt eine gegenüber den bisherigen Objektdaten veränderte aktualisierte Position keinen Einfluss auf die bestimmte oder gespeicherte Geschwindigkeit. Durch das voneinander unabhängige Aktualisieren der Eigenschaften, hier also beispielsweise der Position und der Geschwindigkeit, führt somit beispielsweise eine im Vergleich zu der bisher in den Objektdaten gespeicherten Position veränderte neue Position gemäß der aktuellen Sensordaten nicht automatisch zu einer veränderten oder von null verschiedenen Geschwindigkeit des jeweiligen Objekts. So kann beispielsweise für ein als ruhend eingestuftes Objekt dessen Geschwindigkeit automatisch auf null gehalten werden, sofern beispielsweise nicht eine unabhängige Geschwindigkeitsmessung eine von null verschiedene oder über einem vorgegebenen Schwellenwert liegende Geschwindigkeit des jeweiligen Objekts anzeigt. Es kann hier also für ein ruhendes, das heißt stillstehendes Objekt bei der Aktualisierung jegliche entsprechende Dynamik unterbunden werden.According to the invention, only for those objects that have been classified as stationary objects are their properties stored in the object data updated independently of one another. In other words, for a stationary object, its properties or at least its dynamic states or state data are decoupled from one another, i.e., updated without cross-correlations or mutual influences or dependencies, for example. This updating procedure can also be referred to as a stationary update or stationary update, since it is used for stationary objects. If the stored properties include, for example, a position and a speed of the object, then for a stationary object an updated position that has changed compared to the previous object data has no influence on the determined or stored speed. By updating the properties independently of one another, in this case the position and the speed, for example, a new position that has changed compared to the position previously stored in the object data does not automatically lead to a changed speed of the respective object or a speed that is different from zero, according to the current sensor data. For example, the speed of an object classified as stationary can be automatically kept at zero, unless an independent speed measurement shows a speed of the respective object that is different from zero or above a predetermined threshold. In this case, any corresponding dynamics can be prevented during the update for a stationary object.

Damit ergibt sich als Resultat ein entsprechend stabiles Tracking ruhender, also stillstehender Objekte hinsichtlich dynamischer, also potenziell veränderlicher Eigenschaften. Dies stellt einen Vorteil des erfindungsgemäßen Verfahrens gegenüber herkömmlichen Ansätzen dar. Solche herkömmlichen Ansätze verwenden für ein Objekttracking und eine Aktualisierung entsprechender Objektdaten oftmals Datenfusionsmethoden, die für sämtliche detektierten Objekte angewendet werden. In herkömmlichen Ansätzen werden also keine separaten Logiken oder Datenverarbeitungsmethoden für ruhende und bewegte Objekte verwendet, sondern stets eine vollumfängliche Erfassung des jeweiligen Objekts und eine entsprechend vollumfängliche Verarbeitung der entsprechenden Sensor- bzw. Objektdaten ohne Anpassung auf ein tatsächliches physikalisches bzw. physikalisch mögliches Verhalten des jeweiligen physisch realen Objekts durchgeführt. So kann real beispielsweise ein ruhendes Fahrzeug seine Orientierung nicht ändern bzw. keine Gierrate aufbauen, solange es ruht. Zudem zeigen Messunsicherheiten oder Varianzen in den Sensordaten beispielsweise über mehrere Messzyklen hinweg für ein während der gesamten Zeit ruhendes Objekt keine reale Geschwindigkeit des Objekts an.This results in a correspondingly stable tracking of stationary objects with regard to dynamic, i.e. potentially changeable properties. This represents an advantage of the method according to the invention over conventional approaches. Such conventional approaches often use data fusion methods for object tracking and updating corresponding object data, which are applied to all detected objects. In conventional approaches, no separate logic or data processing methods are used for stationary and moving objects, but rather a complete recording of the respective object and a correspondingly complete processing of the corresponding sensor or object data is always carried out without adaptation to an actual physical or physically possible behavior of the respective physically real object. In reality, for example, a stationary vehicle cannot change its orientation or build up a yaw rate as long as it is stationary. In addition, measurements show uncertainties or variances in the sensor data, for example over several measurement cycles for an object that is at rest the entire time, do not indicate the real speed of the object.

Herkömmliche Ansätze fitten also beispielsweise alle Messpunkte bzw. Sensordaten für ein Objekt mit einem vorgegebenen Modell, um letztlich beispielsweise eine Begrenzungsbox (englisch: bounding box) für das jeweilige Objekt zu bestimmen und damit die jeweiligen Objektdaten zu aktualisieren. Werden solche Begrenzungsboxen oder Begrenzungsrahmen für ein Objekt in jedem Messzyklus neu bestimmt, so sind sie von Messzyklus zu Messzyklus nicht immer stabil, also nicht immer gleichbleibend, obwohl sich das jeweilige detektierte Objekt tatsächlich nicht bewegt. Dann kann in solchen Fällen somit fälschlicherweise dennoch eine - real nicht vorhandene - Bewegung des jeweiligen Objekts detektiert werden. Beispielsweise können bei entsprechend hoher Verkehrsdichte oder in innerstädtischen Umgebungen oder dergleichen oftmals stationäre Messpunkte in unmittelbarer Umgebung eines detektierten Fremdfahrzeugs auftreten, etwa aufgrund von dem Fremdfahrzeug zugeordneten Sensordetektionen, die tatsächlich von einer Verkehrsinfrastruktur, wie dem Boden oder einem Randstein oder dergleichen, oder von einer Abgasfahne oder dergleichen stammen können. Derartige Messpunkte bzw. Sensordetektionen können ohne Bewegung des Fremdfahrzeugs, also des jeweils detektierten Objekts, vorübergehend detektierbar sein oder detektiert werden und fälschlicherweise dem jeweiligen Objekt zugeordnet bzw. in die für dieses bestimmte Begrenzungsbox integriert werden. Dies kann dazu führen, dass auch für ein ruhendes Objekt fälschlicherweise eine Geschwindigkeit oder Drehung oder Verschiebung detektiert wird. Solche Fehldetektionen oder Fehleinschätzungen wiederum können zu entsprechenden Fehlreaktionen automatisierter Systeme und damit potenziell zu Unfällen oder einem erratischen Verhalten führen.Conventional approaches therefore fit all measurement points or sensor data for an object with a given model in order to ultimately determine a bounding box for the respective object and thus update the respective object data. If such bounding boxes or bounding frames for an object are redefined in each measurement cycle, they are not always stable from measurement cycle to measurement cycle, i.e. they are not always the same, even though the respective detected object is not actually moving. In such cases, a movement of the respective object - which does not actually exist - can still be falsely detected. For example, with a correspondingly high traffic density or in inner-city environments or the like, stationary measurement points can often occur in the immediate vicinity of a detected foreign vehicle, for example due to sensor detections assigned to the foreign vehicle, which can actually come from traffic infrastructure, such as the ground or a curb or the like, or from an exhaust plume or the like. Such measuring points or sensor detections can be temporarily detectable or detected without movement of the other vehicle, i.e. the object being detected, and can be incorrectly assigned to the respective object or integrated into the boundary box intended for it. This can lead to a speed, rotation or displacement being incorrectly detected even for a stationary object. Such incorrect detections or misjudgments can in turn lead to corresponding incorrect reactions by automated systems and thus potentially to accidents or erratic behavior.

Die vorliegende Erfindung begegnet dieser Problematik, indem Sensor- und Objektdaten für als ruhend eingestufte Objekte und für bewegte Objekte unterschiedlich gehandhabt werden, wobei für ruhende Objekte die Aktualisierung der Objektdaten derart durchgeführt wird, dass dadurch oder dabei eine fehlerhafte Erkennung nicht real vorhandener Bewegungen oder Dynamiker ruhende Objekte vermieden oder reduziert wird.The present invention addresses this problem by handling sensor and object data differently for objects classified as stationary and for moving objects, whereby the object data for stationary objects is updated in such a way that, as a result, an erroneous detection of non-existent movements or dynamic stationary objects is avoided or reduced.

Für die übrigen, also bewegten Objekte kann die Aktualisierung der Sensordaten hingegen auf andere bzw. herkömmliche Weise durchgeführt werden, etwa basierend auf Sensorobjekten, die bereits von oder in der Sensorik getrackt und von dieser ausgegeben werden, und ein filterbasiertes Fusionieren mit den jeweils bestehenden, also bisherigen Objektdaten. Dabei können beispielsweise ein Kalmanfilter oder dergleichen verwendet werden, Abhängigkeiten oder Kreuzkorrelationen zwischen verschiedenen Eigenschaften des jeweiligen Objekts berücksichtigt werden und/oder dergleichen mehr. Ebenso kann aber ein anderer Datenfilter oder Fusionsmechanismus angewendet werden, insbesondere wenn dieser effektiv als Tiefpass fungiert. Durch einen solchen vorgegebenen Filter oder Fusionsmechanismus können aktuellen Sensordaten und die bereits in jeweiligen Objektdaten gespeicherten Daten oder Eigenschaften des jeweiligen Objekts gewichtet miteinander kombiniert oder fusioniert werden. Dies kann bei besondere bei gleichförmigen Bewegungen detektierter Objekte zu einem vorteilhaft glatten und konsistenten Tracking beitragen. Für nicht als ruhend eingestufte detektierte Objekte können deren Eigenschaften oder zumindest deren dynamische Zustände oder Zustandsdaten also beispielsweise unter Berücksichtigung entsprechender Abhängigkeiten zwischen den jeweils aktuellen Sensordaten oder daraus bestimmten entsprechenden Eigenschaften oder Größen und den bisherigen Objektdaten aktualisiert werden. Damit kann berücksichtigt werden, dass sich diese Eigenschaften oder dynamischen Zustände bewegter Objekte tatsächlich dynamisch in nicht genau vorhersehbarer Weise aber dennoch mit begrenzter Dynamik oder Rate von Messzyklus zu Messzyklus verändern können.For the remaining, i.e. moving objects, the sensor data can be updated in a different or conventional way, for example based on sensor objects that are already tracked by or in the sensor system and output by it, and a filter-based fusion with the existing, i.e. previous object data. For example, a Kalman filter or the like can be used, dependencies or cross-correlations between different properties of the respective object can be taken into account and/or the like. However, another data filter or fusion mechanism can also be used, especially if it effectively functions as a low-pass filter. Using such a predefined filter or fusion mechanism, current sensor data and the data or properties of the respective object already stored in the respective object data can be combined or fused in a weighted manner. This can contribute to advantageously smooth and consistent tracking, particularly in the case of uniform movements of detected objects. For detected objects that are not classified as stationary, their properties or at least their dynamic states or state data can be updated, for example, taking into account corresponding dependencies between the current sensor data or the corresponding properties or sizes determined from it and the previous object data. This allows for the fact that these properties or dynamic states of moving objects can actually change dynamically in a manner that cannot be precisely predicted but nevertheless with limited dynamics or rate from measurement cycle to measurement cycle.

Es kann der Fall auftreten, dass die Sensorik oder zumindest ein bestimmter Sensor, wie etwa eine zumindest als Teil der Sensorik verwendete Kamera oder dergleichen, in einem aktuellen Messzyklus für ein bestimmtes, insbesondere ein bereits in einem vorherigen Messzyklus detektiertes, Objekt keine Detektionen bzw. Sensordaten liefert. Wenn dieses Objekt bisher bereits als ruhendes Objekt eingestuft war, so kann dann für dieses Objekt auch im aktuellen Messzyklus die beschriebene für ruhende Objekte vorgesehene Aktualisierung durchgeführt bzw. angewendet werden.It may happen that the sensor system or at least a specific sensor, such as a camera or the like used at least as part of the sensor system, does not provide any detections or sensor data in a current measurement cycle for a specific object, in particular an object already detected in a previous measurement cycle. If this object was previously classified as a stationary object, the update described for stationary objects can then also be carried out or applied for this object in the current measurement cycle.

Das erfindungsgemäße Verfahren kann mit weiteren Maßnahmen oder Verfahrensschritten kombiniert oder erweitert werden. Beispielsweise können die bisherigen Objektdaten von bereits zuvor detektierten Objekten nach einem vorgegebenen Modell zunächst auf den aktuellen Zeitpunkt, also beispielsweise den Aufnahmezeitpunkt der Sensordaten des aktuellen Messzyklus prädiziert oder extrapoliert werden, bevor sie wie beschrieben verwendet werden.The method according to the invention can be combined or expanded with further measures or method steps. For example, the previous object data from previously detected objects can first be predicted or extrapolated to the current point in time according to a predetermined model, for example the time at which the sensor data of the current measurement cycle was recorded, before they are used as described.

In einer möglichen Ausgestaltung der vorliegenden Erfindung wird der jeweilige Bewegungszustand der detektierten Objekte - zumindest für bereits in einem vorausgehenden Mess- oder Aktualisierungszyklus als ruhend eingestufte Objekte - anhand von Radardetektionen, also Radardaten oder Radarechos, bestimmt. Diese Radardetektionen können den hier also insbesondere Teil der jeweils erfassten Sensordaten sein. Ein Objekt wird dabei als ruhendes Objekt eingestuft, wenn eine radarbasiert, also anhand der dem jeweiligen Objekt zugeordneten Radardetektionen bestimmte Geschwindigkeit des jeweiligen Objekts betragsmäßig kleiner als ein vorgegebener Geschwindigkeitsschwellenwert ist. Ein solcher Geschwindigkeitsschwellenwert kann sich beispielsweise an einer jeweiligen Messunsicherheit des verwendeten Radarsensors orientieren, also diese berücksichtigen. Mit anderen Worten können hier also die Radardetektionen, insbesondere eine darauf basierend ermittelte basierte Geschwindigkeit für eine entsprechende Stillstandsabschätzung verwendet werden.In a possible embodiment of the present invention, the respective movement state of the detected objects - at least for objects already classified as stationary in a previous measurement or update cycle - is determined using radar detections, i.e. radar data or radar echoes. These radar detections can therefore be part of the respective sensor data recorded. An object is classified as a stationary object if a speed of the respective object determined based on radar, i.e. based on the radar detections assigned to the respective object, is smaller in magnitude than a predefined speed threshold. Such a speed threshold can, for example, be based on a respective measurement uncertainty of the radar sensor used, i.e. take this into account. In other words, the radar detections, in particular a speed determined based on them, can be used for a corresponding standstill estimate.

Dies beruht auf der Erkenntnis, dass Radardetektionen sich aufgrund der damit möglichen direkten Messung der Doppelgeschwindigkeit besonders gut zum Bestimmen des Bewegungszustands eignen können. Zudem kann anhand von Radardetektionen über einen oder mehrere Messzyklen hinweg mittels eines vorgegebenen robusten Schätzverfahrens, das beispielsweise auf einer Medianbestimmung oder einem Histogramm basierend kann, ein stabiler Abstand der Sensorik zu dem jeweiligen Objekt geschätzt werden. Dies kann ein potenziell gefährliches Über- oder Unterschätzen des Abstands, wie es beispielsweise bei kamerabasierten Abstandsschätzung auftreten kann, vermieden oder reduziert werden. Damit können beispielsweise auf der Position und/oder der Geschwindigkeit und/oder dem Abstand des jeweiligen Objekts basierende Funktionen, wie etwa eine automatische Abstandshaltung bzw. ein Abstandsregeltempomat oder dergleichen besonders sicher und zuverlässig realisiert werden.This is based on the knowledge that radar detections can be particularly well suited to determining the state of motion due to the direct measurement of the double speed that they enable. In addition, radar detections can be used over one or more measurement cycles to estimate a stable distance between the sensor and the respective object using a predetermined robust estimation method that can be based, for example, on a median determination or a histogram. This can avoid or reduce a potentially dangerous overestimation or underestimation of the distance, as can occur, for example, with camera-based distance estimation. This means that functions based on the position and/or speed and/or distance of the respective object, such as automatic distance keeping or adaptive cruise control or the like, can be implemented particularly safely and reliably.

Wenn der Betrag der radarbasiert bestimmten Geschwindigkeit des jeweiligen Objekts kleiner als der vorgegebene Geschwindigkeitsschwellenwert ist, kann dann beispielsweise automatisch an einer entsprechenden Datenverarbeitung, beispielsweise in den Objektdaten für das jeweilige Objekt ein entsprechendes Flag gesetzt werden, wodurch das jeweilige Objekt als ruhendes Objekt eingestuft oder definiert wird. Für ein ruhendes Objekt kann zudem ein Prozessrauschen in der jeweiligen Signal- oder Datenverarbeitung reduziert werden. Zeigt in einem Messzyklus die für das jeweilige Objekt radarbasiert bestimmte Geschwindigkeit eine Bewegung dieses Objekts an, so kann das Prozessrauschen hingegen automatisch wieder erhöht werden. Auf diese Weise kann eine schnellere Reaktion auf ein Sich-in-Bewegung-setzen des jeweiligen Objekts, beispielsweise durch die Objektdaten als Input nutzende Assistenzsystem oder Funktionen erreicht werden.If the amount of the radar-based determined speed of the respective object is less than the specified speed threshold, a corresponding flag can then be automatically set in the corresponding data processing, for example in the object data for the respective object, whereby the respective object is classified or defined as a stationary object. For a stationary object, process noise in the respective signal or data processing can also be reduced. If the radar-based determined speed for the respective object indicates movement of this object in a measurement cycle, the process noise can be automatically increased again. In this way, a faster reaction to the respective object starting to move can be achieved, for example by an assistance system or function that uses the object data as input.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung wird ein Objekt jeweils erst, insbesondere nur dann als ruhendes Objekt eingestuft, wenn wenigstens eine vorgegebene Anzahl von Messungen und/oder wenigstens ein vorgegebener Anteil mehrerer durchgeführter Messungen eine unterhalb eines bzw. des an anderer Stelle genannten vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit des jeweiligen Objekts ergeben oder anzeigen. Wird als Kriterium hier der vorgegebene Anteil von Messungen verwendet, so kann dafür zudem eine vorgegebene Mindestanzahl von Messungen, anhand derer dieser Anteil ermittelt wird oder wurde, vorgegeben sein, bevor er hinsichtlich der Einstufung des Bewegungszustands des jeweiligen Objekts als Kriterium verwendet oder ausgewertet wird. In der hier vorgeschlagenen Ausgestaltung der vorliegenden Erfindung wird in jedem Fall der Bewegungszustand des jeweiligen Objekts nicht basierend auf einer einzelnen Geschwindigkeitsmessung, sondern basierend auf mehreren Geschwindigkeitsmessungen bestimmt. So kann beispielsweise die beschriebene Dynamik in den Objektdaten bei deren Aktualisierung für ein Objekt erst dann unterbunden werden, wenn für dieses Objekt mehrere Dopplermessungen über ein oder mehrere Messzyklen hinweg einen kompletten Stillstand des jeweiligen Objekts angezeigt oder bestätigt haben.In a further possible embodiment of the present invention, an object is only classified as a stationary object, in particular only if at least a predetermined number of measurements and/or at least a predetermined proportion of several measurements carried out result in or indicate a speed of the respective object that is below a predetermined speed threshold value specified elsewhere. If the predetermined proportion of measurements is used as a criterion here, a predetermined minimum number of measurements on the basis of which this proportion is or was determined can also be specified before it is used or evaluated as a criterion for classifying the state of motion of the respective object. In the embodiment of the present invention proposed here, the state of motion of the respective object is not determined based on a single speed measurement, but rather based on several speed measurements. For example, the dynamics described in the object data can only be prevented when updating it for an object if several Doppler measurements for this object over one or more measurement cycles have indicated or confirmed that the respective object is completely at a standstill.

Beispielsweise kann als entsprechendes Kriterium zum Einstufen eines Objekts als ruhendes Objekt vorgegeben sein, das wenigstens fünf Messungen, die aufeinanderfolgend oder innerhalb einer vorgegebenen Zeitspanne durchgeführt wurden, eine unterhalb des vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit des jeweiligen Objekts ergeben oder anzeigen. Der Geschwindigkeitsschwellenwert kann beispielsweise 0,1 m/s oder 0,5 m/s oder dergleichen betragen. Je nach Anwendungsfall und Anforderung können aber ebenso andere Werte vorgegeben werden. Bezüglich des Anteils durchgeführter Messungen als Kriterium kann beispielsweise vorgegeben sein, das von allen Messungen oder Sensordetektionen für das jeweilige Objekt innerhalb einer vorgegebenen Zeitspanne bzw. innerhalb eines gleitenden Zeitfensters vorgegebener Länge höchstens 10 % oder höchstens 20 % oder höchstens 30 % eine oberhalb des Geschwindigkeitsschwellenwertes liegende Geschwindigkeit anzeigen dürfen, um das Objekt noch als ruhendes Objekt einzustufen. Auch hier kann der entsprechende gegebene Anteil abhängig von einem jeweiligen Anwendungsfall oder von jeweiligen Anforderungen oder sensorspezifisch sein. Insgesamt ermöglicht die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung eine besonders zuverlässige und robuste Bestimmung des jeweiligen Bewegungszustands der detektierten Objekte und eine entsprechend robuste Anwendung des erfindungsgemäßen Verfahrens.For example, the appropriate criterion for classifying an object as a stationary object can be that at least five measurements, which were carried out consecutively or within a predetermined period of time, result in or indicate a speed of the respective object that is below the predetermined speed threshold value. The speed threshold value can be, for example, 0.1 m/s or 0.5 m/s or the like. However, depending on the application and requirements, other values can also be specified. With regard to the proportion of measurements carried out as a criterion, it can be specified, for example, that of all measurements or sensor detections for the respective object within a predetermined period of time or within a sliding time window of a predetermined length, a maximum of 10% or a maximum of 20% or a maximum of 30% may indicate a speed that is above the speed threshold value in order to still classify the object as a stationary object. Here, too, the corresponding given proportion can depend on a particular application or on particular requirements or be sensor-specific. Overall, the embodiment of the present invention proposed here enables a particularly reliable and robust determination of the respective movement state of the detected objects and a correspondingly robust application of the method according to the invention.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden für als ruhend eingestufte Objekte deren Objektdaten basierend auf einzelnen Sensordetektionen aktualisiert, wohingegen für als bewegt eingestufte Objekte deren Objektdaten basierend auf von der Sensorik ausgegebenen Sensorobjekten aktualisiert werden. Solche Sensorobjekte können beispielsweise in jedem Messzyklus, etwa in Form einer Liste oder dergleichen, von der Sensorik bzw. von einem jeweiligen Sensor ausgegeben werden. Sensorobjekten sind hier also Objekte, die von der Sensorik bzw. dem jeweiligen Sensor selbst, also intern detektiert auch über mehrere Messzyklen hinweg nachverfolgt werden. Die Sensorobjekte können also jeweils bereits durch die Sensorik bzw. den jeweiligen Sensor aus mehreren Sensordetektionen gebildet oder rekonstruiert worden sein. Dabei können die Sensorobjekte mehrere Eigenschaften des jeweiligen zugrundeliegenden realen Objekts umfassen oder angeben. Beispielsweise können die Sensorobjekte jeweils einen Begrenzungsrahmen und/oder eine Position und/oder eine Ausrichtung und/oder eine Geschwindigkeit und/oder eine Gierrate und/oder dergleichen mehr für das jeweilige Objekt insgesamt, also nicht nur für die einzelnen, dem Objekt zugeordneten Sensordetektionen angeben.In a further possible embodiment of the present invention, for objects classified as stationary, their object data is updated based on individual sensor detections, whereas for objects classified as moving, their object data is updated based on sensor objects output by the sensor system. Such sensor objects can, for example, be output by the sensor system or by a respective sensor in each measurement cycle, for example in the form of a list or the like. Sensor objects here are therefore objects that are tracked by the sensor system or the respective sensor itself, i.e. internally detected, and also over several measurement cycles. The sensor objects can therefore each have already been formed or reconstructed by the sensor system or the respective sensor from several sensor detections. The sensor objects can include or specify several properties of the respective underlying real object. For example, the sensor objects can each specify a bounding box and/or a position and/or an orientation and/or a speed and/or a yaw rate and/or the like for the respective object as a whole, i.e. not just for the individual sensor detections assigned to the object.

Basierend auf solchen Sensorobjekten kann für die als bewegt eingestuften Objekte die jeweilige Aktualisierung durch Anwendung eines vorgegebenen Filter- oder Fusionsmechanismus durchgeführt werden, was hier auch als vollständige Aktualisierung oder vollständiges Update bezeichnet werden kann.Based on such sensor objects, the respective update can be carried out for the objects classified as moving by applying a predefined filter or fusion mechanism, which can also be referred to here as a full update or complete update.

Für als ruhend eingestufte Objekte kann demgegenüber eine vereinfachte Aktualisierung durchgeführt werden. Dabei können neben wenigstens einer dem jeweiligen Objekt zugeordneten Sensordetektion auch in den zugehörigen Objektdaten bereits aus einem oder mehr vorherigen Messzyklen gespeicherte Eigenschaften des jeweiligen Objekts verwendet oder berücksichtigt werden. Die einzelnen Sensordetektionen können gegebenenfalls einfacher und/oder schneller, also insgesamt mit weniger Aufwand zum Aktualisieren der jeweiligen Objektdaten verarbeitet werden als die nur für das Aktualisieren der Objektdaten der als bewegt eingestuften Objekte verwendeten Sensorobjekte.In contrast, a simplified update can be carried out for objects classified as stationary. In addition to at least one sensor detection assigned to the respective object, properties of the respective object already stored in the associated object data from one or more previous measurement cycles can also be used or taken into account. The individual sensor detections can be processed more easily and/or more quickly, i.e. with less effort overall, to update the respective object data than the sensor objects used only for updating the object data of the objects classified as moving.

Die zu einem als ruhend eingestuften Objekt zugehörigen Sensordetektionen können hier basierend auf den Objektdaten, also dem jeweiligen, insbesondere außerhalb des jeweiligen Sensors selbst gespeicherten, Objekttrack, insbesondere dem darin gespeicherten dynamischen Zustand oder dem darauf basierend für den jeweiligen Messzeitpunkt prädizierten dynamischen Zustand des jeweiligen Objekts, bestimmt werden. Dies kann insbesondere deshalb möglich sein, da sich die Position und Lage eines ruhenden Objekt definitionsgemäß nicht verändern kann und somit zu dem jeweiligen Objekt zugehörige Sensordetektionen mittels eines vorgegebenen positions- oder ortsbasierten Kriteriums aus sämtlichen verfügbaren Sensordetektionen ausgewählt werden können. Dadurch können besonders zuverlässig und robust tatsächlich zu einem ruhenden Objekt zugehörige Sensordetektionen ausgewählt und für das Aktualisieren der jeweiligen Objektdaten verwendet werden. Insbesondere kann dadurch, dass hier also die Zuordnung der Sensordetektionen zu einem ruhenden Objekt nicht durch den jeweiligen Sensor selbst durchgeführt wird, die Wahrscheinlichkeit dafür reduziert werden, dass etwa Ausreißer, Messfehler, Störungen und/oder ein Driften des jeweiligen Sensors zu Fehlzuordnungen von Sensordetektionen zu dem jeweiligen Objekt bzw. zu einer letztlich fehlerhaften Positionsaktualisierung für das jeweilige Objekt führen.The sensor detections associated with an object classified as stationary can be determined here based on the object data, i.e. the respective object track, in particular stored outside the respective sensor itself, in particular the dynamic state stored therein or the dynamic state of the respective object predicted based on this for the respective measurement time. This can be possible in particular because the position and location of a stationary object cannot change by definition and thus sensor detections associated with the respective object can be selected from all available sensor detections using a predetermined position- or location-based criterion. This means that sensor detections actually associated with a stationary object can be selected in a particularly reliable and robust manner and used to update the respective object data. In particular, the fact that the assignment of the sensor detections to a stationary object is not carried out by the respective sensor itself can reduce the probability that outliers, measurement errors, disturbances and/or drifting of the respective sensor lead to incorrect assignments of sensor detections to the respective object or to an ultimately incorrect position update for the respective object.

Sofern die Sensorik mehrere verschiedene Sensoren umfasst bzw. in dem aktuellen Messzyklus jeweilige Objekt Sensordetektionen von verschiedenen Sensoren erfasst wurden, können diese Sensordetektionen sämtlich oder nur teilweise berücksichtigt, also für das jeweilige Aktualisieren verwendet werden. Dies kann beispielsweise abhängig sein von detektierten Abweichungen oder Inkonsistenzen zwischen den Sensordetektionen verschiedener Sensoren und einer vorgegebenen Priorisierungsliste für die verschiedenen Sensoren. Eine solche Priorisierungsliste kann angeben, welcher Sensor für ruhende Objekte allgemein oder für die Zuordnung von Sensordetektionen zu einem ruhenden Objekt oder für das Bestimmen oder Aktualisieren jeweils einer bestimmten Eigenschaft eines ruhenden Objekts über andere Sensoren bzw. deren Sensordaten zu priorisieren ist. Beispielsweise können für ein ruhendes Objekt als Sensordetektionen sowohl Lidardetektionen als auch Radardetektionen vorliegen und/oder der in den bereits vorhandenen Objektdaten gespeicherte dynamische Zustand, insbesondere die Position des jeweiligen ruhenden Objekts auf älteren Lidardetektionen basieren. Da Radardetektionen für ruhende Objekte, beispielsweise aufgrund einer Neigung von Radarsensoren zum Driften, schlechter geeignet, also niedriger priorisiert sein können als Lidardetektionen, können dann die dem ruhenden Objekt zuzuordnenden Radardetektionen beispielsweise anhand der lidarbasiert bestimmten Position oder eines lidarbasiert bestimmten Begrenzungsrahmens für das jeweilige ruhende Objekt bestimmt oder ausgewählt werden. Dies kann insbesondere dann erfolgen, wenn die Lidardetektionen aus dem aktuellen Messzyklus weiterhin mit einem Stillstand des jeweiligen Objekts an der bekannten, bereits in den zugehörigen Objektdaten gespeicherten Position konsistent sind. Damit können dann gegebenenfalls auch bei einem Driften oder Inkonsistenzen der Radardetektionen zumindest ein Teil der zur aktuellen Position des jeweiligen ruhenden Objekts passenden Radardetektionen verwendet werden. Somit können insgesamt die dem jeweiligen ruhenden Objekt zugeordneten Sensordetektionen genauer und zuverlässiger bestimmt und gegebenenfalls mehr Sensordetektionen, also mehr Daten für das jeweilige Aktualisieren der Objektdaten verwendet oder berücksichtigt werden.If the sensor system comprises several different sensors or if respective object sensor detections were recorded by different sensors in the current measurement cycle, these sensor detections can be taken into account in full or only in part, i.e. used for the respective update. This can, for example, depend on detected deviations or inconsistencies between the sensor detections of different sensors and a predefined prioritization list for the different sensors. Such a prioritization list can specify which sensor is to be prioritized for stationary objects in general or for the assignment of sensor detections to a stationary object or for determining or updating a specific property of a stationary object via other sensors or their sensor data. For example, for a stationary object, both lidar detections and radar detections can be present as sensor detections and/or the dynamic state stored in the existing object data, in particular the position of the respective stationary object, can be based on older lidar detections. Since radar detections for stationary objects, for example due to a tendency of radar sensors to drift, may be less suitable, and therefore have a lower priority, than lidar detections, the radar detections to be assigned to the stationary object can then be determined or selected, for example, based on the lidar-based position or a lidar-based bounding box for the respective stationary object. This can be done in particular if the lidar detections from the current measurement cycle continue to be associated with a standstill of the respective object at the known position already stored in the associated object data is consistent. This means that even if the radar detections drift or are inconsistent, at least some of the radar detections that match the current position of the respective stationary object can be used. This means that the sensor detections assigned to the respective stationary object can be determined more precisely and reliably and, if necessary, more sensor detections, i.e. more data, can be used or taken into account for the respective updating of the object data.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung wird für als ruhend eingestufte Objekte aus allen aktuellen Sensordetektionen, die dem jeweiligen Objekt zugeordnet sind bzw. aktuell zugeordnet wurden, zum Bestimmen oder Festlegen der als eine Eigenschaft in den Objektdaten zu aktualisierenden aktuellen Position des jeweiligen Objekts jeweils eine stabile Enddetektion bestimmt oder ausgewählt. Diese Enddetektion kann eine der dem jeweiligen Objekt zugeordneten Sensordetektionen, die als ein der Sensorik - oder beispielsweise einem damit ausgestatteten Kraftfahrzeug oder dergleichen - zugewandtes Ende oder als entsprechende Seite des jeweiligen Objekts verwendet, also als solches bzw. als solche interpretiert oder betrachtet wird. Die Sensordetektionen sind dabei dem jeweiligen Objekt nach einem vorgegebenen Kriterium zugeordnet. Dieses vorgegebene Kriterium kann insbesondere bezüglich der bisherigen, also bereits aus einem früheren Messzyklus bekannten oder ermittelten und in den jeweiligen Objektdaten gespeicherten oder angegebenen Position des jeweiligen ruhenden Objekts abstandsbasiert sein. Mit anderen Worten kann das Kriterium also beispielsweise abfragen, ob eine bestimmte Sensordetektion sich innerhalb eines vorgegebenen Abstandes zu der in den Objektdaten angegebenen Position des jeweiligen ruhenden Objekts befindet. Nur wenn dies der Fall ist, wird die jeweilige Sensordetektion dann dem jeweiligen ruhenden Objekt zugeordnet. Die bestimmte oder ausgewählte stabile Enddetektion kann dann, beispielsweise über mehrere Messzyklen hinweg, stabil als Ende des jeweiligen Objekts bzw. als Referenz zum Bestimmen der Position des jeweiligen Objekts angesehen oder verwendet werden.In a further possible embodiment of the present invention, for objects classified as stationary, a stable end detection is determined or selected from all current sensor detections that are assigned to the respective object or have currently been assigned in order to determine or set the current position of the respective object to be updated as a property in the object data. This end detection can be one of the sensor detections assigned to the respective object that is used as an end facing the sensor system - or, for example, a motor vehicle or the like equipped with it - or as the corresponding side of the respective object, i.e. is interpreted or viewed as such. The sensor detections are assigned to the respective object according to a predetermined criterion. This predetermined criterion can be distance-based in particular with regard to the previous position of the respective stationary object, i.e. already known or determined from a previous measurement cycle and stored or specified in the respective object data. In other words, the criterion can, for example, query whether a certain sensor detection is within a predetermined distance from the position of the respective stationary object specified in the object data. Only if this is the case is the respective sensor detection then assigned to the respective stationary object. The determined or selected stable end detection can then be viewed or used as the end of the respective object or as a reference for determining the position of the respective object, for example over several measurement cycles.

Es kann also beispielsweise für ein ruhendes Objekt über mehrere Messzyklen hinweg bzw. so lange, wie das jeweilige Objekt als ruhend eingestuft ist oder bleibt, die gleiche, also beispielsweise jeweils eine von der gleichen Stelle des jeweiligen Objekts stammende Sensordetektion als stabile Enddetektion verwendet werden. Anhand dieser stabilen Enddetektion kann das Ende bzw. die Position des jeweiligen Objekts dann unverändert, also stabil bestimmt werden. Dies ist insbesondere auch dann möglich, wenn beispielsweise andere aktuelle Sensordetektionen scheinbar eine andere Position des jeweiligen Objekts anzeigen.For example, for a stationary object, the same sensor detection, for example one sensor detection from the same location on the respective object, can be used as a stable end detection over several measurement cycles or as long as the respective object is or remains classified as stationary. Based on this stable end detection, the end or position of the respective object can then be determined unchanged, i.e. stably. This is particularly possible if, for example, other current sensor detections appear to indicate a different position for the respective object.

Ebenso kann die stabile Enddetektion beispielsweise als Median oder Mittelwert der über mehrere Messzyklen hinweg jeweils der Sensorik nächstliegenden dem Objekt zugeordneten Sensordetektionen bestimmt werden. Dadurch kann die Position der stabilen Enddetektion und damit auch des jeweiligen ruhenden Objekts auch dann stabil gehalten oder bestimmt werden, wenn über mehrere Messzyklen hinweg nicht alle dem jeweiligen Objekt zugeordneten Sensordetektionen gleichbleibend, insbesondere nicht positionsstabil erfasst werden.The stable end detection can also be determined, for example, as a median or mean value of the sensor detections assigned to the object that are closest to the sensor over several measuring cycles. This means that the position of the stable end detection and thus also of the respective stationary object can be kept stable or determined even if not all sensor detections assigned to the respective object are recorded consistently, in particular not in a positionally stable manner, over several measuring cycles.

Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann somit auch bei konsistenten oder schwankenden Sensordetektionen ein ruhendes Objekt besonders zuverlässig, genau, robust und stabil nachverfolgt und dementsprechend angemessen und robust darauf reagiert werden.The embodiment of the present invention proposed here thus makes it possible to track a stationary object particularly reliably, precisely, robustly and stably even in the case of consistent or fluctuating sensor detections and to react to it accordingly in an appropriate and robust manner.

In einer möglichen Weiterbildung der vorliegenden Erfindung wird dann, wenn die dem jeweiligen ruhenden Objekt zugeordneten Sensordetektionen Radardetektionen umfassen, die stabile Enddetektion unter Berücksichtigung von den entsprechenden Radarquerschnitten (RCS, Radar Cross Section) bestimmt oder ausgewählt. Dies kann also angewendet werden, falls die Sensorik ein Radarsensor ist oder einen solchen umfasst. Insbesondere kann als Enddetektion die der Sensorik nächstliegende Radardetektion, deren Radarquerschnitt größer als ein vorgegebener Schwellenwert ist, bestimmt werden. Dazu können beispielsweise, insbesondere über mehrere Messzyklen hinweg, in ein Histogramm eingetragen werden, in dem der Radarquerschnitt in Abhängigkeit von dem Abstand der Radardetektionen zu der Sensorik aufgetragen wird.In a possible development of the present invention, if the sensor detections assigned to the respective stationary object include radar detections, the stable final detection is determined or selected taking into account the corresponding radar cross sections (RCS, Radar Cross Section). This can therefore be used if the sensor system is a radar sensor or includes one. In particular, the radar detection closest to the sensor system, whose radar cross section is larger than a predetermined threshold value, can be determined as the final detection. For this purpose, for example, in particular over several measurement cycles, a histogram can be entered in which the radar cross section is plotted as a function of the distance of the radar detections from the sensor system.

Durch die Berücksichtigung der Radarquerschnitte bzw. des vorgegebenen Schwellenwerts dafür kann die Wahrscheinlichkeit dafür verringert werden, dass Streu- oder Clutterdetektionen im Bereich des jeweiligen Objekts zum Bestimmen von dessen Position berücksichtigt werden, die eine Position und Lage des Begrenzungsrahmens für das jeweilige Objekt verfälschen könnten.By taking into account the radar cross sections or the specified threshold value therefor, the probability that scatter or clutter detections in the area of the respective object are taken into account to determine its position, which could distort the position and location of the bounding box for the respective object, can be reduced.

Der Schwellenwert für den Radarquerschnitt kann abhängig von einem Objekttyp vorgegeben sein. Somit können also für unterschiedliche Typen oder Arten von Objekten unterschiedliche Schwellenwerte für den Radarquerschnitt berücksichtigt werden. Dadurch kann das Verfahren robust und zuverlässig unterschiedliche Typen oder Arten von Objekten angewendet werden.The threshold value for the radar cross section can be specified depending on an object type. This means that different threshold values for the radar cross section can be considered for different types or kinds of objects. This makes the method robust and reliably applied to different types or kinds of objects.

Für eine weitere Verbesserung kann vorgesehen sein, dass je Messzyklus mehrere oder alle der dem jeweiligen Objekt zugeordneten Radardetektionen berücksichtigt, also hinsichtlich ihres Radarquerschnitts zum Bestimmen oder Auswählen der Enddetektion evaluiert werden. Dadurch kann letztlich die Position des jeweiligen Objekts besonders zuverlässig und robust bestimmt werden. Da die Radardetektionen inhärent auch Messungen oder Angaben zur Dopplergeschwindigkeit darstellen oder umfassen können, kann ebenso die Geschwindigkeit des jeweiligen Objekts basierend auf diesen Dopplergeschwindigkeiten gemäß der dem Objekt zugeordneten Radardetektionen bestimmt oder abgeschätzt werden. Die so abgeschätzte Geschwindigkeit kann dann ebenfalls bei dem Aktualisieren der Objektdaten berücksichtigt, also beispielsweise in diese eingetragen oder einfusioniert werden.For a further improvement, it can be provided that several or all of the radar detections assigned to the respective object are taken into account for each measurement cycle, i.e. evaluated with regard to their radar cross-section to determine or select the final detection. This ultimately allows the position of the respective object to be determined particularly reliably and robustly. Since the radar detections can inherently also represent or include measurements or information on the Doppler speed, the speed of the respective object can also be determined or estimated based on these Doppler speeds according to the radar detections assigned to the object. The speed estimated in this way can then also be taken into account when updating the object data, i.e., for example, entered into it or merged.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden zumindest für als ruhend eingestufte Objekte zumindest ein Teil der in den jeweiligen Objektdaten gespeicherten oder zu speichernden Eigenschaften basierend auf Lidardetektionen bestimmt. Die Sensorik kann hier also ein Lidarsensor sein oder einen solchen umfassen. Die Lidardetektionen sind hier dementsprechend Sensordetektionen eines solchen Lidarsensors. Die Lidardetektionen aus dem jeweils aktuellen Messzyklus werden hier dem Begrenzungsrahmen für das jeweilige Objekt zugeordnet. Für diese Zuordnung oder Assoziierung kann beispielsweise ein vorgegebenes positions- oder ortsbasiertes Kriterium ausgewertet werden. Demnach können dem Begrenzungsrahmen, beispielsweise nur solche Lidardetektionen zugeordnet werden, die sich innerhalb eines vorgegebenen Bereiches um die in den Objektdaten angegebene Position des jeweiligen Objekts befinden. Dazu kann beispielsweise ein entsprechender Abstand und/oder ein Winkel- und Entfernungsbereich oder dergleichen vorgegeben sein. Ebenso können beispielsweise die Abstände der Lidardetektionen von der Sensorik bestimmt und ausgewertet werden, beispielsweise ähnlich wie an anderer Stelle im Zusammenhang mit den Radardetektionen beschrieben.In a further possible embodiment of the present invention, at least for objects classified as stationary, at least some of the properties stored or to be stored in the respective object data are determined based on lidar detections. The sensor system can therefore be a lidar sensor or include one. The lidar detections here are accordingly sensor detections of such a lidar sensor. The lidar detections from the current measurement cycle are assigned to the boundary frame for the respective object. For this assignment or association, for example, a predetermined position- or location-based criterion can be evaluated. Accordingly, only those lidar detections that are within a predetermined area around the position of the respective object specified in the object data can be assigned to the boundary frame. For this purpose, for example, a corresponding distance and/or an angle and distance range or the like can be specified. Likewise, for example, the distances of the lidar detections can be determined and evaluated by the sensor system, for example in a similar way to what is described elsewhere in connection with the radar detections.

Weiter wird hier anhand einer Verteilung, insbesondere eines Entfernungshistogramms, dieser dem Begrenzungsrahmen des jeweiligen Objekts zugeordneten Lidardetektionen eine stabile Enddetektion bestimmt, die als ein der Sensorik - oder beispielsweise einem damit ausgestatteten Kraftfahrzeug oder dergleichen - zugewandtes Ende oder eine entsprechende Seite des jeweiligen Objekts verwendet, also als solches bzw. solche betrachtet oder interpretiert wird. Damit wird als Eigenschaft des jeweiligen Objekts insbesondere dessen Position lidarbasiert bestimmt. Die Position der Enddetektion bzw. des durch diese definierten Endes des jeweiligen Objekts dient hier also zum Festlegen der Position des Objekts als entsprechende Eigenschaft des Objekts in den zugeordneten Objektdaten. In das Entfernungshistogramms können, insbesondere über mehrere Messzyklen hinweg, die Lidardetektionen sortiert nach ihrem Abstand - beispielsweise zu der Sensorik oder einem anderen vorgegebenen Referenzpunkt - eingetragen werden.Furthermore, a stable end detection is determined here based on a distribution, in particular a distance histogram, of these lidar detections assigned to the boundary frame of the respective object, which is used as an end or a corresponding side of the respective object facing the sensor system - or, for example, a motor vehicle or the like equipped with it - and is therefore viewed or interpreted as such. In this way, the position of the respective object is determined in particular on a lidar basis as a property of the respective object. The position of the end detection or of the end of the respective object defined by it is used here to determine the position of the object as a corresponding property of the object in the assigned object data. The lidar detections can be entered into the distance histogram, in particular over several measurement cycles, sorted according to their distance - for example to the sensor system or another specified reference point.

Als Enddetektion kann dann die oder eine Lidardetektion bestimmt oder ausgewählt werden, die sich in dem signifikanten Abstandsbin mit dem oder für den kleinsten Abstand oder Abstandsbereich befindet. Ein Abstandsbin des Entfernungshistogramms kann im vorliegenden Sinne dann signifikant sein, wenn durch diesen oder darin ein vorgegebener Schwellenwert überschritten wird. Ein solcher Schwellenwert kann beispielsweise für die Anzahl von Lidardetektionen in dem Abstandsbin oder für eine Intensität, also einen entsprechenden Reflektivitätswert der Lidardetektion oder Lidardetektionen in dem Abstandsbin vorgegeben sein. Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann die Position eines ruhenden Objekts besonders stabil, zuverlässig und robust bestimmt und nachverfolgt werden. Damit können darauf aufbauende Funktionen besonders zuverlässig und intuitiv, also etwa ohne erratisch erscheinende Schwankungen oder dergleichen angewendet werden. Dies ist durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung insbesondere auch dann möglich, wenn beispielsweise über mehrere Messzyklen hinweg für ein bestimmtes ruhendes Objekt nicht immer die gleichen Lidardetektionen bzw. nicht immer von denselben Stellen des Objekts stammende Lidardetektionen erfasst werden. Die hier vorgeschlagene Verwendung von Lidardetektionen kann dabei gerade für die Positionsbestimmung von ruhenden Objekten besonders nützlich und effektiv sein, da Lidarsensoren für ruhende Objekte nicht oder zumindest weniger stark als Radarsensoren zum Driften neigen können.The or a lidar detection that is in the significant distance bin with or for the smallest distance or distance range can then be determined or selected as the final detection. A distance bin of the distance histogram can be significant in the present sense if a predetermined threshold value is exceeded by it or in it. Such a threshold value can be specified, for example, for the number of lidar detections in the distance bin or for an intensity, i.e. a corresponding reflectivity value of the lidar detection or lidar detections in the distance bin. The design of the present invention proposed here allows the position of a stationary object to be determined and tracked in a particularly stable, reliable and robust manner. Functions based on this can thus be used particularly reliably and intuitively, i.e. without erratic fluctuations or the like. This is possible thanks to the design of the present invention proposed here, in particular, if, for example, not always the same lidar detections or lidar detections originating from the same places on the object are recorded for a specific stationary object over several measurement cycles. The use of lidar detection proposed here can be particularly useful and effective for determining the position of stationary objects, since lidar sensors for stationary objects do not tend to drift or at least do so less than radar sensors.

In einer weiteren Ausgestaltung der vorliegenden Erfindung werden für als ruhend eingestufte Objekte für das Aktualisieren von deren Objektdaten jeweils Abhängigkeiten zwischen verschiedenen in den jeweiligen Objektdaten gespeicherten oder angegebenen Eigenschaften des jeweiligen Objekts aufgehoben. Mit anderen Worten können hier also etwa Kreuzkorrelationen oder Kopplungen zwischen verschiedenen Eigenschaften des jeweiligen Objekts gelöscht oder entfernt oder auf null zurückgesetzt werden. Dies kann beispielsweise Abhängigkeiten zwischen der Position und/oder der Geschwindigkeit und/oder der Beschleunigung und/oder des Gierwinkels und/oder der Gierrate des jeweiligen Objekts und/oder dergleichen mehr umfassen. Durch das Aufheben dieser Abhängigkeiten werden diese Eigenschaften also voneinander entkoppelt. Dadurch führt beispielsweise eine Veränderung in der Position des jeweiligen Objekts von dem letzten Messzyklus bzw. der letzten Aktualisierung der Position zu dem aktuellen Messzyklus für ein ruhendes Objekt nicht automatisch dazu, dass eine entsprechende Geschwindigkeit oder Beschleunigung oder ein veränderter Gierwinkel oder eine Gierrate induziert bzw. im Rahmen der Aktualisierung in den Objektdaten gespeichert wird.In a further embodiment of the present invention, for objects classified as dormant, dependencies between different properties of the respective object stored or specified in the respective object data are removed for updating their object data. In other words, cross-correlations or couplings between different properties of the respective object can be deleted or removed or reset to zero. This can, for example, be dependencies between the position and/or the speed and/or the acceleration and/or the yaw rate. angle and/or the yaw rate of the respective object and/or the like. By removing these dependencies, these properties are decoupled from one another. As a result, for example, a change in the position of the respective object from the last measurement cycle or the last update of the position to the current measurement cycle for a stationary object does not automatically lead to a corresponding speed or acceleration or a changed yaw angle or yaw rate being induced or stored in the object data as part of the update.

Zusätzlich oder alternativ wird für als ruhend eingestufte Objekte für eine Modellierung oder Verwaltung des jeweiligen Objekts in den zugehörigen Objektdaten zu einer diagonalen bzw. diagonalisierten P-Matrix gewechselt bzw. eine solche Matrix verwendet. Eine P-Matrix kann beispielsweise Unsicherheiten eines Objektmodells oder Abweichungen von diesem bzw. dessen Prädiktionen für die Eigenschaften des jeweiligen Objekts angeben. Durch die Verwendung einer diagonalen bzw. diagonalisierten P-Matrix kann verhindert werden, dass sich durch das Aktualisieren einer Eigenschaft entsprechende Abhängigkeiten oder Kreuzkorrelationen oder dergleichen zu einer oder mehr anderen Eigenschaften des Objekts aufbauen. Dies kann beispielsweise im Gegensatz zu bewegten Objekten gesehen werden, bei denen eine veränderte Position oder eine bestimmte oder veränderte Geschwindigkeit oder eine bestimmte oder veränderte Beschleunigung jeweils mit Veränderungen der jeweils anderen Werte gegenüber den bisherigen Objektdaten einhergehen. Daher kann für bewegte Objekte beispielsweise eine P-Matrix mit von null verschiedenen Nebendiagonalelementen verwendet werden. Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann das voneinander unabhängige Aktualisieren der Eigenschaften ruhender Objekte besonders einfach, effektiv und zuverlässig realisiert oder implementiert werden. Additionally or alternatively, for objects classified as stationary, a diagonal or diagonalized P-matrix is used or switched to for modeling or managing the respective object in the associated object data. A P-matrix can, for example, indicate uncertainties of an object model or deviations from it or its predictions for the properties of the respective object. By using a diagonal or diagonalized P-matrix, it is possible to prevent corresponding dependencies or cross-correlations or the like from building up with one or more other properties of the object as a result of updating a property. This can be seen, for example, in contrast to moving objects, where a changed position or a specific or changed speed or a specific or changed acceleration are each accompanied by changes in the other values compared to the previous object data. Therefore, for moving objects, for example, a P-matrix with non-zero secondary diagonal elements can be used. The embodiment of the present invention proposed here makes it possible to realize or implement the independent updating of the properties of stationary objects in a particularly simple, effective and reliable manner.

Die Erfindung betrifft auch eine Objektnachverfolgungseinrichtung, die insbesondere für ein Kraftfahrzeug ausgestaltet bzw. ausgelegt sein kann. Beispielsweise kann die Objektnachverfolgungseinrichtung also als Assistenzsystem für ein Kraftfahrzeug oder als Teil eines solchen Assistenzsystems ausgestaltet sein. Die erfindungsgemäße Objektnachverfolgungseinrichtung weist eine Schnittstelle zum Erfassen von Sensordaten und eine Datenverarbeitungseinrichtung zum Verarbeiten der erfassten Sensordaten auf. Dazu können die Objektnachverfolgungseinrichtung, insbesondere deren Datenverarbeitungseinrichtung beispielsweise eine Prozesseinrichtung, also etwa einen Mikrochip, Mikroprozessor oder Mikrocontroller oder dergleichen, und einen damit gekoppelten computerlesbaren Datenspeicher umfassen. In diesem Datenspeicher kann dann ein entsprechendes Betriebs- oder Computerprogramm gespeichert sein, das die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschriebenen Verfahrensschritte, Maßnahmen oder Abläufe oder entsprechende Steueranweisungen codiert oder implementiert. Dieses Betriebs- oder Computerprogramm kann dann mittels der Prozesseinrichtung ausführbar sein, um die Ausführung des entsprechenden Verfahrens zu bewirken. Die Sensordaten können beispielsweise Rohdaten, Sensordetektionen, Sensorobjekte und/oder dergleichen mehr sein oder umfassen. Die erfindungsgemäße Objektnachverfolgungseinrichtung kann insbesondere die im Zusammenhang mit dem erfindungsgemäßen Verfahren genannte Objektnachverfolgungseinrichtung oder Trackingeinrichtung sein oder dieser entsprechen. Die erfindungsgemäße Objektnachverfolgungseinrichtung kann also insbesondere zum Verwalten von Objektdaten, also Objekttracks für durch die Sensorik detektierte bzw. in den erfassten Sensordaten repräsentierte Objekte eingerichtet sein. Diese Objektdaten können beispielsweise in dem genannten Datenspeicher gespeichert oder verwaltet werden. Die Objektnachverfolgungseinrichtung kann die Objektdaten beispielsweise über die genannte oder eine andere Schnittstelle bereitstellen oder abrufbar machen oder ausgeben, beispielsweise für ein anderes Assistenzsystem.The invention also relates to an object tracking device that can be designed or configured in particular for a motor vehicle. For example, the object tracking device can be designed as an assistance system for a motor vehicle or as part of such an assistance system. The object tracking device according to the invention has an interface for recording sensor data and a data processing device for processing the recorded sensor data. For this purpose, the object tracking device, in particular its data processing device, can comprise, for example, a processing device, such as a microchip, microprocessor or microcontroller or the like, and a computer-readable data storage device coupled thereto. A corresponding operating or computer program can then be stored in this data storage device, which codes or implements the method steps, measures or sequences described in connection with the method according to the invention or corresponding control instructions. This operating or computer program can then be executable by means of the processing device in order to effect the execution of the corresponding method. The sensor data can be or comprise, for example, raw data, sensor detections, sensor objects and/or the like. The object tracking device according to the invention can in particular be the object tracking device or tracking device mentioned in connection with the method according to the invention or correspond to this. The object tracking device according to the invention can therefore in particular be set up to manage object data, i.e. object tracks for objects detected by the sensor system or represented in the recorded sensor data. This object data can, for example, be stored or managed in the data storage device mentioned. The object tracking device can, for example, provide the object data via the interface mentioned or another interface or make it retrievable or output it, for example for another assistance system.

Die Erfindung betrifft auch ein Kraftfahrzeug, das eine Sensorik zur Umgebungserfassung und eine damit gekoppelte erfindungsgemäße Objektnachverfolgungseinrichtung aufweist. Das erfindungsgemäße Kraftfahrzeug kann insbesondere das im Zusammenhang mit dem erfindungsgemäßen Verfahren und/oder Zusammenhang mit der erfindungsgemäßen Objektnachverfolgungseinrichtung genannte Kraftfahrzeug sein oder diesem entsprechen. Dementsprechend kann das erfindungsgemäße Kraftfahrzeug einige oder alle der in diesen Zusammenhängen genannten Eigenschaften oder Merkmale aufweisen. Beispielsweise kann das erfindungsgemäße Kraftfahrzeug ein Assistenzsystem für eine vorgegebene Fahrassistenzfunktionen oder zum assistierten oder zumindest teilweise automatisierten Führen des Kraftfahrzeugs aufweisen. Dieses Assistenzsystem kann dann dazu eingerichtet sein, seine Funktion basierend auf den durch die erfindungsgemäß Objektnachverfolgungseinrichtung verwalteten Objektdaten auszuführen.The invention also relates to a motor vehicle that has a sensor system for detecting the environment and an object tracking device according to the invention coupled thereto. The motor vehicle according to the invention can in particular be the motor vehicle mentioned in connection with the method according to the invention and/or in connection with the object tracking device according to the invention or correspond to this. Accordingly, the motor vehicle according to the invention can have some or all of the properties or features mentioned in these contexts. For example, the motor vehicle according to the invention can have an assistance system for a predetermined driver assistance function or for assisted or at least partially automated driving of the motor vehicle. This assistance system can then be set up to carry out its function based on the object data managed by the object tracking device according to the invention.

Weitere Merkmale der Erfindung können sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung ergeben. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung und/oder in den Figuren allein gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.Further features of the invention can be derived from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description as well as the features and combinations of features shown below in the description of the figures and/or in the figures alone are not only in the combination specified, but also in other combinations or alone, without departing from the scope of the invention.

Die Zeichnung zeigt in:

  • 1 ein beispielhaftes Schemas zur Veranschaulichung eines Verfahrens zur sensorbasierten Objektnachverfolgung;
  • 2 eine schematische Darstellung zur Veranschaulichung einer radarbasierten Objektzustandsabschätzung für die Objektnachverfolgung;
  • 3 eine beispielhafte Histogrammdarstellung zur weiteren Veranschaulichung der Objektzustandsabschätzung; und
  • 4 eine schematische Darstellung zur Veranschaulichung einer lidarbasierten Objektzustandsabschätzung.
The drawing shows in:
  • 1 an example scheme to illustrate a method for sensor-based object tracking;
  • 2 a schematic diagram illustrating a radar-based object state estimation for object tracking;
  • 3 an exemplary histogram representation to further illustrate the object state estimation; and
  • 4 a schematic diagram illustrating a lidar-based object state estimation.

In den Figuren sind gleiche und funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figures, identical and functionally equivalent elements are provided with the same reference symbols.

1 zeigt beispielhaft ein Verfahrensschema 1 für ein Verfahren zur Objektnachverfolgung, wie es beispielsweise in einem Fahrzeug zur Nachverfolgung, also zum Tracken von Objekten in einer jeweiligen Umgebung angewendet werden kann. Eigenschaften nachverfolgter Objekte werden in Objekttracks 2, von denen jeder jeweils einem nachverfolgten Objekt zugeordnet ist, verwaltet. In einem Messzyklus oder Durchlauf des Verfahrens werden jeweils Sensordaten 3 erfasst. Es kann dann zunächst eine Prädiktion 4 der Objekttracks 2 bzw. der darin gespeicherten Daten oder Eigenschaften der nachverfolgten, also bereits bekannten Objekte auf den aktuellen Zeitpunkt oder einen Aufnahmezeitpunkt der jeweils erfassten Sensordaten 3 durchgeführt werden. Die Objekttracks 2 bzw. die entsprechenden Objekte ebenso wie in den oder anhand der aktuellen Sensordaten 3 detektierten oder in den Sensordaten 3 angegebenen Objekte, die hier auch als Sensorobjekte bezeichnet werden können, werden dann in einer Objektassoziierung 5 verarbeitet. Dabei werden die Sensorobjekte aus dem aktuellen Messzyklus soweit möglich jeweils einem der Objekttracks 2 zugeordnet. Dies kann beispielsweise basierend auf einer - gegebenenfalls abstrakten - vorgegebenen Abstandsmetrik oder dergleichen erfolgen. Für dabei nicht zuordenbare Sensorobjekte kann gegebenenfalls jeweils ein neuer Objekttrack 2 angelegt werden. 1 shows an example of a process diagram 1 for a method for object tracking, such as can be used in a vehicle for tracking, i.e. for tracking objects in a respective environment. Properties of tracked objects are managed in object tracks 2, each of which is assigned to a tracked object. In a measurement cycle or run of the method, sensor data 3 is recorded. A prediction 4 of the object tracks 2 or the data or properties of the tracked, i.e. already known, objects stored therein can then be carried out for the current time or a recording time of the respectively recorded sensor data 3. The object tracks 2 or the corresponding objects as well as objects detected in or based on the current sensor data 3 or specified in the sensor data 3, which can also be referred to here as sensor objects, are then processed in an object association 5. The sensor objects from the current measurement cycle are assigned to one of the object tracks 2 as far as possible. This can be done, for example, based on a - possibly abstract - predetermined distance metric or the like. For sensor objects that cannot be assigned, a new object track 2 can be created if necessary.

Anhand der Objekttracks 2 und/oder der in den zugeordneten Sensorobjekten gespeicherten oder angegebenen Eigenschaften als bewegt eingestufte Umgebungsobjekte können dann in einer Vollaktualisierung 6 weiterverarbeitet werden. Hier können jeweils die aktuellen Sensordaten 3 bzw. Sensorobjekte in den jeweils zugeordneten Objekttrack 2 einfusioniert werden, insbesondere unter Anwendung eines vorgegebenen Filtermechanismus, wie etwa eines Kalmanfilters oder dergleichen. Dabei werden die Objekttracks 2 also aktualisiert, woraus sich dann entsprechend aktualisierte Objekttracks 2 als Ausgangspunkt für den nächsten Messzyklus oder Durchlauf des Verfahrens ergeben.Environmental objects classified as moving can then be further processed in a full update 6 based on the object tracks 2 and/or the properties stored or specified in the associated sensor objects. Here, the current sensor data 3 or sensor objects can be fused into the respectively associated object track 2, in particular using a predetermined filter mechanism, such as a Kalman filter or the like. The object tracks 2 are thus updated, which then results in correspondingly updated object tracks 2 as the starting point for the next measurement cycle or run of the method.

Die Objekttracks 2 beziehen sich jeweils auf ein sensorisch detektiertes reales Objekt, dessen Eigenschaften oder Zustand in einem oder durch einen rekursiven Trackingalgorithmus rekursiv über die Zeit geschätzt werden. Die Objekttracks 2 können auch als interne Tracks bezeichnet werden und werden jeweils über mehrere Messzyklen hinweg gespeichert und jeweils aktualisiert. In jedem solchen Messzyklus oder Frame, also Durchlauf des Verfahrens können die Sensordaten von einem oder mehr Sensoren erfasst werden, die Messdaten für Sensorobjekte angeben, die bereits innerhalb des jeweiligen Sensors über die Zeit getrackt werden. Es können hier nicht nur direkt gemessene Eigenschaften, wie etwa eine Position und Orientierung, sondern auch dynamische Zustände, wie etwa eine Geschwindigkeit oder eine Gierrate oder dergleichen über die Zeit geschätzt werdenThe object tracks 2 each refer to a real object detected by a sensor, the properties or state of which are estimated recursively over time in one or by a recursive tracking algorithm. The object tracks 2 can also be referred to as internal tracks and are each stored over several measurement cycles and updated in each case. In each such measurement cycle or frame, i.e. run through the method, the sensor data from one or more sensors can be recorded, which indicate measurement data for sensor objects that are already tracked over time within the respective sensor. Not only directly measured properties, such as position and orientation, but also dynamic states, such as speed or yaw rate or the like, can be estimated over time.

Jeder Objekttrack 2 kann hier auch einen Eintrag oder ein Datum bzw. Datenfeld umfassen, worin gespeichert oder angegeben ist, ob das jeweilige Objekt bewegt oder ruhend, also gestoppt oder stationär ist.Each object track 2 can also include an entry or a date or data field in which it is stored or indicated whether the respective object is moving or at rest, i.e. stopped or stationary.

Die Objekttracks 2 für ruhende Objekte werden separat, also auf andere Weise als für die bewegten Objekte beschrieben, verwaltet bzw. aktualisiert. Dazu werden in einer entsprechenden Detektionsassoziierung 7 nicht die Sensorobjekte, sondern einzelne Sensordetektionen 18 (siehe 2, 4) zu den Objekttracks 2 bzw. den darin verwalteten Objekten zugeordnet. Zur weiteren Erläuterung zeigt dazu 2 eine schematische Übersichtsdarstellung mit einem Kraftfahrzeug 11, in welchem das hier beschriebene Verfahren angewendet wird. Dazu weist das Kraftfahrzeug 11 eine Sensorik 12 auf, die hier insbesondere einen Radarsensor und/oder einen Lidarsensor umfassen kann. Zur Durchführung des Verfahrens weist das Kraftfahrzeug 11 zudem eine Objektnachverfolgungseinrichtung 13 auf, die mit der Sensorik 12 über eine Schnittstelle 14 gekoppelt ist. Die von der Sensorik 12 gelieferten Sensordaten 3 können durch die Objektnachverfolgungseinrichtung 13 beispielsweise mittels eines hier schematisch angedeuteten Prozessors 15 und Datenspeichers 16 verarbeitet werden.The object tracks 2 for stationary objects are described, managed and updated separately, i.e. in a different way than for the moving objects. For this purpose, not the sensor objects but individual sensor detections 18 (see 2 , 4 ) to the object tracks 2 or the objects managed therein. For further explanation, 2 a schematic overview of a motor vehicle 11 in which the method described here is used. For this purpose, the motor vehicle 11 has a sensor system 12, which can in particular comprise a radar sensor and/or a lidar sensor. To carry out the method, the motor vehicle 11 also has an object tracking device 13, which is coupled to the sensor system 12 via an interface 14. The sensor data 3 supplied by the sensor system 12 can be processed by the object tracking device 13, for example by means of a processor 15 and data memory 16, which are indicated schematically here.

Mittels der Sensorik 12 kann das Kraftfahrzeug 11 seine Umgebung abtasten und dortige Objekt detektieren. Als ein solches Objekt ist hier schematisch einen Fremdfahrzeug 17 bzw. ein entsprechender Begrenzungsrahmen angedeutet. Weiter sind hier mehrere Sensordetektionen 18 der Sensorik 12 angedeutet. Diese Sensordetektionen 18 umfassen Objektdetektionen 19, die tatsächlich von dem Fremdfahrzeug 17 stammen und Clutterdetektionen 20, die nicht von dem Fremdfahrzeug 17 stammen und/oder auf Messfehler oder Störungen zurückzuführen sind. Für die Detektionsassoziierung 7 können nun aus den aktuellen Sensordaten 3 alle in einem dem jeweiligen Objekt, hier also dem Fremdfahrzeug 17 zugeordneten Suchbereich 21 verorteten Sensordetektionen 18 ermittelt werden. Es kommen dann für eine Zuordnung oder Assoziierung zu dem Fremdfahrzeug 17 bzw. dem entsprechenden Begrenzungsrahmen nur innerhalb des Suchbereichs 21 liegende Sensordetektionen 18 infrage.Using the sensor system 12, the motor vehicle 11 can scan its surroundings and detect objects there. A foreign vehicle 17 or a corresponding boundary frame is schematically indicated here as such an object. Furthermore, several sensor detections 18 of the sensor system 12 are indicated here. These sensor detections 18 include object detections 19 that actually originate from the foreign vehicle 17 and clutter detections 20 that do not originate from the foreign vehicle 17 and/or are due to measurement errors or disturbances. For the detection association 7, all sensor detections 18 located in a search area 21 assigned to the respective object, in this case the foreign vehicle 17, can now be determined from the current sensor data 3. Only sensor detections 18 located within the search area 21 are then considered for assignment or association with the foreign vehicle 17 or the corresponding boundary frame.

3 zeigt eine entsprechende Darstellung zur Veranschaulichung einer möglichen Verteilung von Sensordetektionen 18 bei Verwendung eines Lidarsensors. Bei Verwendung eines Lidarsensors kann typischerweise eine im Vergleich zu den in 2 dargestellten Radardetektionen eine größere Anzahl stabiler Objektdetektionen 19 am Heck bzw. am der Sensorik 12 zugewandten Ende des Fremdfahrzeugs 17 auftreten. Jedoch können zusätzliche Clutterdetektionen 20 auftreten. Diese können beispielsweise von einer Abgasfahne des Fremdfahrzeugs 17 stammen und/oder im Inneren des Fremdfahrzeugs 17 bzw. des Begrenzungsrahmens für das Fremdfahrzeug 17 auftreten, beispielsweise aufgrund von Fenstern oder Reflektionen von Teilen eines Unterbodens des Fremdfahrzeugs 17 oder dergleichen. Beispielhaft ist hier für die Verwendung eines Lidarsensors eine andere Form des Suchbereichs 21 dargestellt. 3 shows a corresponding representation to illustrate a possible distribution of sensor detections 18 when using a lidar sensor. When using a lidar sensor, a typically higher distribution of sensor detections 18 can be achieved compared to the 2 In addition to the radar detections shown, a larger number of stable object detections 19 occur at the rear or at the end of the other vehicle 17 facing the sensor system 12. However, additional clutter detections 20 can occur. These can originate, for example, from an exhaust plume of the other vehicle 17 and/or occur inside the other vehicle 17 or the boundary frame for the other vehicle 17, for example due to windows or reflections from parts of an underbody of the other vehicle 17 or the like. As an example, a different form of the search area 21 is shown here for the use of a lidar sensor.

Je nach verwendetem oder verfügbarem Sensor bzw. je nach Art der Sensordetektionen 18 kann die Zuordnung der Sensordetektionen 18 zu dem Fremdfahrzeug 17 beispielsweise basierend auf einem vorgegebenen Abstandskriterium und/oder einem vorgegebenen Clusterkriterium und/oder einem vorgegebenen Ähnlichkeitskriterium durchgeführt werden. So kann beispielsweise für jede Radardetektion die zugehörige Doppelgeschwindigkeit bestimmt und mit der in dem Objekttrack 2 für das Fremdfahrzeug 17 gespeicherten Geschwindigkeit verglichen werden. Es können dann nur solche Radar- bzw. Sensordetektionen 18 dem Fremdfahrzeug 17 zugeordnet werden, deren Dopplergeschwindigkeit höchstens um einen vorgegebenen Betrag von der in dem zugehörigen Objekttrack 2 gespeicherten Geschwindigkeit abweicht. Ist beispielsweise für ein ruhendes Objekt in dem zugehörigen Objekttrack 2 eine Geschwindigkeit von 0 m/s gespeichert und ein Abweichungsschwellenwert von beispielsweise höchstens 5 m/s vorgegeben, so können Radar- oder Sensordetektionen 18, deren Dopplergeschwindigkeit entsprechend beispielsweise größer als 5 m/s ist, verworfen werden, sodass sie also nicht dem Fremdfahrzeug 17 zugeordnet werden.Depending on the sensor used or available or depending on the type of sensor detections 18, the assignment of the sensor detections 18 to the other vehicle 17 can be carried out, for example, based on a predetermined distance criterion and/or a predetermined cluster criterion and/or a predetermined similarity criterion. For example, the associated double speed can be determined for each radar detection and compared with the speed stored in the object track 2 for the other vehicle 17. Only those radar or sensor detections 18 can then be assigned to the other vehicle 17 whose Doppler speed deviates by a maximum of a predetermined amount from the speed stored in the associated object track 2. If, for example, a speed of 0 m/s is stored for a stationary object in the associated object track 2 and a deviation threshold value of, for example, a maximum of 5 m/s is specified, radar or sensor detections 18 whose Doppler speed is, for example, greater than 5 m/s can be discarded, so that they are not assigned to the foreign vehicle 17.

Für den Fall, dass die Sensorik 12 einen Radarsensor umfasst bzw. die Sensordaten 3 Radardetektionen umfassen, kann darauf basierend eine Stillstandsabschätzung 8 für das jeweilige Objekt, hier also das Fremdfahrzeug 17 durchgeführt werden. Beispielhaft sind in 2 die Doppelgeschwindigkeiten der Sensordetektionen 18 durch entsprechende Pfeile angedeutet, deren Länge mit dem Betrag der jeweiligen Dopplergeschwindigkeit korreliert. Eine zwar im Bereich des Begrenzungsrahmens für das Fremdfahrzeug 17 liegende Sensordetektion 18, deren Dopplergeschwindigkeit jedoch sehr viel größer ist als die Dopplergeschwindigkeiten der übrigen Objektdetektionen 19, insbesondere als der oder vorgegebener Geschwindigkeitsschwellenwert, kann darauf basierend als Clutterdetektion 20 eingestuft werden. Wenn die Dopplergeschwindigkeiten der Objektdetektionen 19 oder beispielsweise deren Mittelwert oder Median betragsmäßig kleiner als der vorgegebene Geschwindigkeitsschwellenwert sind, der eine Messunsicherheit des Radarsensors berücksichtigen oder abbilden kann, so kann daraus bestimmt werden, dass das Fremdfahrzeug 17 stillsteht. Dementsprechend kann dann beispielsweise ein entsprechendes Flag zum Anzeigen dieses Stillstands gesetzt werden. Insbesondere kann dieses Stillstands-Flag dann gesetzt werden, wenn die Dopplergeschwindigkeiten mehrerer Radardetektionen, also beispielsweise einer vorgegebenen Mindestanzahl oder eines vorgegebenen Mindestanteils der dem jeweiligen Objekt zugeordneten Radar- bzw. Objektdetektionen 19, mit einem Stillstand des jeweiligen Objekts konsistent sind. Ist dies nicht der Fall, ist also beispielsweise ein entsprechendes vorgegebenes Stillstandskriterium nicht erfüllt, so kann das Flag nicht gesetzt oder zurückgesetzt oder gelöscht werden.In the event that the sensor system 12 includes a radar sensor or the sensor data 3 includes radar detections, a standstill estimation 8 can be carried out for the respective object, in this case the foreign vehicle 17. Examples are shown in 2 the double speeds of the sensor detections 18 are indicated by corresponding arrows, the length of which correlates with the amount of the respective Doppler speed. A sensor detection 18 that is in the area of the boundary frame for the other vehicle 17, but whose Doppler speed is much greater than the Doppler speeds of the other object detections 19, in particular than the or specified speed threshold value, can be classified as clutter detection 20 on this basis. If the Doppler speeds of the object detections 19 or, for example, their mean or median are smaller in magnitude than the specified speed threshold value, which can take into account or map a measurement uncertainty of the radar sensor, it can be determined from this that the other vehicle 17 is stationary. Accordingly, for example, a corresponding flag can then be set to indicate this standstill. In particular, this standstill flag can be set if the Doppler speeds of several radar detections, for example a predetermined minimum number or a predetermined minimum proportion of the radar or object detections 19 assigned to the respective object, are consistent with a standstill of the respective object. If this is not the case, for example if a corresponding predetermined standstill criterion is not met, the flag cannot be set or reset or deleted.

Weiter kann basierend auf den dem Fremdfahrzeug 17 zugeordneten Objektdetektionen 19 eine Zustandsabschätzung 9 durchgeführt werden. Beispielsweise können die entsprechenden Radardetektionen in einem Histogramm ausgewertet werden. Ein solches Histogramm ist beispielhaft in 4 dargestellt. Dort sind auf einer x-Achse ein Abstand d und auf einer y-Achse der Radarquerschnitt RCS für die Radardetektionen aufgetragen. Insbesondere können über mehrere Messzyklen hinweg anfallende Radardetektionen kumulativ in das Histogramm eingetragen werden. Weiter ist hier auch ein Signifikanzschwellenwert 22 angedeutet. Dieser kann beispielsweise als fester Wert oder als Anteil oder Prozentwert eines Maximalwerts der Radarquerschnitte RCS in dem Histogramm vorgegeben sein. Beispielsweise kann als der Signifikanzschwellenwert 22 ein Radarquerschnitt RCS von 75 % des größten in dem Histogramm enthaltenen Radarquerschnitts RCS bestimmt werden. Es kann dann der kleinste Abstand d bzw. der von einem Abstand d = 0 aus betrachtet erste Abstand d oder Abstandsbin bestimmt werden, bei oder in dem der Signifikanzschwellenwert 22 überschritten wird. Dieser ist hier als erster Signifikanzbin 23 gekennzeichnet. Es kann aus diesem ersten Signifikanzbin 23 dann die oder eine dort einsortierte, dem Fremdfahrzeug 17 zugeordnete Radardetektion als stabile Enddetektion bestimmt werden oder es kann eine virtuelle, also nicht zwangsläufig einer realen Sensordetektion 18 entsprechende Enddetektion aus diesen, in den ersten Signifikanzbin 23 einsortierten Radardetektionen gebildet oder errechnet werden, etwa durch Mittelwert- oder Medianbildung oder dergleichen.Furthermore, a state assessment 9 can be carried out based on the object detections 19 assigned to the other vehicle 17. For example, the corresponding radar detections can be evaluated in a histogram. Such a histogram is shown as an example in 4 There, a distance d is plotted on an x-axis and the radar cross section RCS for the radar detections is plotted on a y-axis. In particular, radar detections occurring over several measurement cycles can be entered cumulatively in the histogram. A significance threshold 22 is also indicated here. This can be, for example, a fixed value or a proportion or percentage of a maximum value of the radar cross section. sections RCS in the histogram can be specified. For example, a radar cross-section RCS of 75% of the largest radar cross-section RCS contained in the histogram can be determined as the significance threshold value 22. The smallest distance d or the first distance d or distance bin, viewed from a distance d = 0, at or in which the significance threshold value 22 is exceeded can then be determined. This is identified here as the first significance bin 23. From this first significance bin 23, the radar detection sorted there and assigned to the other vehicle 17 can then be determined as a stable final detection, or a virtual final detection, i.e. not necessarily corresponding to a real sensor detection 18, can be formed or calculated from these radar detections sorted into the first significance bin 23, for example by calculating an average or median or the like.

In ähnlicher Weise kann ebenso für dem Fremdfahrzeug 17 zugeordnete Lidardetektionen ein Histogramm aufgebaut werden, in dem beispielsweise anstelle des Radarquerschnitts RCS die Intensität oder ein Reflektivitätswert der Lidardetektionen verwendet werden kann.In a similar way, a histogram can also be constructed for lidar detections assigned to the other vehicle 17, in which, for example, the intensity or a reflectivity value of the lidar detections can be used instead of the radar cross section RCS.

Die basierend auf den Objektdetektionen 19 derart bestimmte stabile Enddetektion kann als Haltepunkt (englisch: hold point) für das jeweilige Fremdfahrzeug 17 verwendet werden. Diese Enddetektion oder dieser Haltepunkt kann also das Fremdfahrzeug 17 repräsentieren oder zum Bestimmen von dessen aktuellen Eigenschaften bzw. Objektdaten, insbesondere der Position oder des Abstands d von der Sensorik 12 b oder dem Kraftfahrzeug 11 verwendet werden.The stable end detection determined in this way based on the object detections 19 can be used as a hold point for the respective foreign vehicle 17. This end detection or this hold point can therefore represent the foreign vehicle 17 or be used to determine its current properties or object data, in particular the position or the distance d from the sensor system 12 b or the motor vehicle 11.

Die als ruhend eingestuften Objekte bzw. die entsprechenden Objekttracks 2 mit den zugeordneten aktuellen Objektdetektionen 19 und/oder den daraus bestimmten Eigenschaften, wie etwa dem Abstand d bzw. der entsprechenden Position oder auch der radarbasiert bestimmten Geschwindigkeit oder dergleichen, können dann einer Aktualisierung 10 zugeführt bzw. im Rahmen einer Aktualisierung 10 weiterverarbeitet werden. Die Aktualisierung 10 bezeichnet hier also den Verfahrensschritt zum Aktualisieren der Objekttracks 2 basierend auf den aktuellen Sensordaten 3 für ruhende Objekte. Diese Aktualisierung 10 für ruhende Objekte kann also separat von der Vollaktualisierung 6 für bewegte Objekte durchgeführt werden und sich auch von dieser unterscheiden.The objects classified as stationary or the corresponding object tracks 2 with the associated current object detections 19 and/or the properties determined from them, such as the distance d or the corresponding position or the radar-based speed or the like, can then be fed into an update 10 or further processed as part of an update 10. The update 10 here therefore refers to the method step for updating the object tracks 2 based on the current sensor data 3 for stationary objects. This update 10 for stationary objects can therefore be carried out separately from the full update 6 for moving objects and can also differ from it.

Für die Aktualisierung 10 können in den entsprechenden Objekttracks 2 sämtliche Abhängigkeiten oder Kreuzkorrelationen zwischen verschiedenen Daten oder Eigenschaften, wie etwa Position, Geschwindigkeit, Beschleunigung, Gierwinkel, Gierrate und/oder dergleichen mehr, aufgehoben werden. Die verschiedenen Eigenschaften oder Zustände des jeweiligen Objekts können also voneinander entkoppelt werden. Beispielsweise führt dann bei der Aktualisierung 10 eine Veränderung der Position des jeweiligen Objekts in x-Richtung, also etwa entlang der Fahrzeuglängsrichtung des Kraftfahrzeugs 11 nicht dazu, dass eine Geschwindigkeit oder Beschleunigung des Objekts eingeführt wird. Ebenso führt beispielsweise eine Veränderung der Position des jeweiligen Objekts in y-Richtung, also beispielsweise in oder parallel zur Fahrzeugquerrichtung des Kraftfahrzeugs 11 nicht dazu, dass eine Gierrate oder ein veränderter Gierwinkel des jeweiligen Objekts eingeführt wird. Solange also das jeweilige Objekt als ruhend eingestuft, also beispielsweise das entsprechende Flag gesetzt ist, wird bei dem Aktualisieren 10 der Objekttracks 2 also keine Bewegung oder Dynamik des Objekts eingeführt. Bei der Aktualisierung 10 können beispielsweise die anhand der jeweils aktuellen Objektdetektionen 19 bestimmten aktuellen, insbesondere dynamischen, Eigenschaften in den jeweiligen Objekttrack 2 geschrieben werden. Diese können beispielsweise anhand der für das jeweilige Objekt bestimmten stabilen Enddetektion, also dem Haltepunkt bestimmt werden oder bestimmt worden sein.For the update 10, all dependencies or cross-correlations between different data or properties, such as position, speed, acceleration, yaw angle, yaw rate and/or the like, can be removed in the corresponding object tracks 2. The different properties or states of the respective object can therefore be decoupled from one another. For example, during the update 10, a change in the position of the respective object in the x direction, i.e. along the longitudinal direction of the motor vehicle 11, does not lead to a speed or acceleration of the object being introduced. Likewise, for example, a change in the position of the respective object in the y direction, i.e. in or parallel to the transverse direction of the motor vehicle 11, does not lead to a yaw rate or a changed yaw angle of the respective object being introduced. So as long as the respective object is classified as stationary, i.e. for example the corresponding flag is set, no movement or dynamics of the object are introduced when the object tracks 2 are updated 10. During the update 10, for example, the current, in particular dynamic, properties determined on the basis of the respective current object detections 19 can be written into the respective object track 2. These can be determined or have been determined, for example, on the basis of the stable end detection determined for the respective object, i.e. the stopping point.

Selbst wenn sich das jeweilige Objekt gerade in Bewegung gesetzt hat, die Radardetektionen aber noch konsistent mit einem Stillstand des Objekts sind, kann hier durch das unabhängige Aktualisieren der Position diese dennoch genau und zuverlässig aktualisiert werden. Dies ermöglicht beispielsweise für ein entsprechendes Assistenzsystem auch in einer solchen Situation ein stabiles und präzises Einhalten eines bestimmten Abstand d zwischen dem Kraftfahrzeug 11 und dem jeweiligen Objekt, hier also dem Fremdfahrzeug 17.Even if the respective object has just started moving, but the radar detections are still consistent with the object being stationary, the position can still be updated accurately and reliably by independently updating it. This enables, for example, a corresponding assistance system to maintain a stable and precise distance d between the motor vehicle 11 and the respective object, in this case the other vehicle 17, even in such a situation.

Wenn die aktuellen Radardetektionen hingegen eine von null verschiedene und nicht mehr mit einem Stillstand konsistente Geschwindigkeit des Fremdfahrzeug 17 anzeigen, kann im Rahmen der Aktualisierung 10 diese Geschwindigkeit in den jeweiligen Objekttrack 2 geschrieben werden. Damit ist das jeweilige Objekt dann also im nächsten Messzyklus bzw. beim nächsten Durchlauf des Verfahrens nicht mehr als ruhendes Objekt eingestuft.If, however, the current radar detections indicate a speed of the other vehicle 17 that is different from zero and no longer consistent with a standstill, this speed can be written into the respective object track 2 as part of the update 10. This means that the respective object is then no longer classified as a stationary object in the next measurement cycle or during the next run of the procedure.

Im Rahmen der Aktualisierung 10 oder auch der Zustandsabschätzung 9 für ruhende Objekte können insbesondere nur die einzelnen Eigenschaften des jeweiligen Objekts bestimmt und gegebenenfalls aktualisiert werden, ohne beispielsweise einen neuen Begrenzungsrahmen für das jeweilige ruhende Objekte zu schätzen oder zu bestimmen. Dadurch kann insgesamt eine verbesserte Stabilität der Objektnachverfolgung für ruhende Objekte erreicht werden, etwa im Vergleich zu einer Handhabung oder Verwaltung ruhender Objekte in gleicher Weise wie für bewegte Objekte mit jeweils vollständiger Neubestimmung des jeweiligen Begrenzungsrahmen.As part of the update 10 or the state estimation 9 for stationary objects, in particular only the individual properties of the respective object can be determined and, if necessary, updated, without, for example, estimating or determining a new bounding box for the respective stationary object. This can result in an overall improved stability of the object tracking for stationary objects, for example in comparison to a handling Control or management of stationary objects in the same way as for moving objects, with complete redefinition of the respective bounding box.

Für den Fall, dass beispielsweise in einem Messzyklus die Sensorik 12 oder zumindest ein Sensor für ein bereits zuvor detektiertes Objekt keine Sensordetektionen 18 bzw. keine Objektdetektionen 19 liefert, kann dementsprechend die Detektionsassoziierung 7 für dieses Objekt in dem aktuellen Messzyklus gegebenenfalls nicht oder nicht sinnvoll durchgeführt werden. Ebenso kann der Fall auftreten, dass unter den aktuellen Umständen die Detektionsassoziierung 7 für bestimmte Sensordetektionen, beispielsweise eines Lidarsensors, zu aufwändig sein kann. Ausgehend von dem bereits für das Objekt bestehenden Objekttrack 2 kann dann aber gegebenenfalls dennoch die Objektassoziierung 5 durchgeführt werden. Handelt es sich um ein als ruhend eingestuftes Objekt, kann dann auch für dieses Objekt die Aktualisierung 10 durchgeführt werden. Der Bewegungszustand des Objekts kann dafür beispielsweise aus dem jeweiligen Objekttrack 2 bzw. den darin gespeicherten Objektdaten übernommen werden und/oder es kann ein von wenigstens einem Sensor, der das Objekt detektiert hat, sensorintern für das Objekt bestimmter Bewegungszustand verwendet werden.If, for example, in a measurement cycle the sensor system 12 or at least one sensor does not provide any sensor detections 18 or object detections 19 for an object that has already been detected, the detection association 7 for this object may not be carried out or may not be carried out sensibly in the current measurement cycle. It may also be the case that under the current circumstances the detection association 7 may be too complex for certain sensor detections, for example of a lidar sensor. However, based on the object track 2 that already exists for the object, the object association 5 can still be carried out. If the object is classified as stationary, the update 10 can then also be carried out for this object. The movement state of the object can be taken from the respective object track 2 or the object data stored therein, for example, and/or a movement state determined internally for the object by at least one sensor that has detected the object can be used.

Das hier für ruhende Objekte beschriebene Vorgehen, beispielsweise zur Stillstandsabschätzung 8 und/oder zur Aktualisierung 10, kann prinzipiell für beliebige ruhende Objekte angewendet werden. Es kann jedoch besonders nützlich sein, das beschriebene Verfahren zumindest oder nur für ein unmittelbar vorausliegendes Objekt, also beispielsweise ein dem Kraftfahrzeug 11 in dessen Fahrtrichtung gesehen nächstliegendes Vorausfahrzeug anzuwenden. Als dieses Vorausfahrzeug kann beispielsweise dasjenige Fahrzeug verwendet oder betrachtet werden, dass sich vor, also frontseitig von dem Kraftfahrzeug 11 befindet, eine ähnliche Orientierung wie das Kraftfahrzeug 11 aufweist und sich auf demselben Fahrstreifen wie das Kraftfahrzeug 11 befindet. Ein solches Vorausfahrzeug kann beispielsweise anhand der Sensordaten 3 und/oder anhand von Straßen- oder Fahrstreifenerkennungsdaten und/oder Kartendaten und/oder über eine Car2Car- oder Car2X-Datenverbindung empfangene Fahrzeugdaten und/oder dergleichen mehr ermittelt werden. Eine präzise Kenntnis und Aktualisierung oder Nachverfolgung der Position und Geschwindigkeit eines solchen Vorausfahrzeugs kann beispielsweise für ein auch sicherheitsrelevantes möglichst präzises Einhalten eines vorgegebenen Zielabstands zwischen dem Kraftfahrzeug 11 und dem jeweiligen Vorausfahrzeug wichtig sein. Es kann also beispielsweise ein Abstandsregeltempomat oder dergleichen auf ein entsprechend präzises Tracking des Vorausfahrzeugs in stärkerem Maße angewiesen sein als auf ein präzises Tracking anderer Objekte, die sich beispielsweise in größerer Entfernung und/oder auf einem anderen Fahrstreifen befinden können.The procedure described here for stationary objects, for example for estimating standstill 8 and/or for updating 10, can in principle be used for any stationary object. However, it can be particularly useful to apply the described method at least or only for an object immediately ahead, for example a vehicle closest to the motor vehicle 11 in its direction of travel. This vehicle in front can be used or considered to be the vehicle that is in front of, i.e. to the front of, the motor vehicle 11, has a similar orientation to the motor vehicle 11 and is in the same lane as the motor vehicle 11. Such a vehicle in front can be determined, for example, based on the sensor data 3 and/or based on road or lane detection data and/or map data and/or vehicle data received via a Car2Car or Car2X data connection and/or the like. Precise knowledge and updating or tracking of the position and speed of such a vehicle in front can be important, for example, for maintaining a specified target distance between the motor vehicle 11 and the respective vehicle in front as precisely as possible, which is also relevant for safety. For example, an adaptive cruise control or the like can therefore be more dependent on correspondingly precise tracking of the vehicle in front than on precise tracking of other objects that may be located at a greater distance and/or in a different lane.

Zusammenfassend kann im vorliegenden Verfahren also automatisch geschätzt werden, ob oder wann ein detektiertes Objekt annähernd oder vollständig stillsteht. Beim solchen erkannten Stillstand werden dann alle Eigenschaften oder Zustände dieses Objekts separat geschätzt. Es gibt dann also beispielsweise keinen Einfluss der Position auf die Geschwindigkeit. Zum Erkennen des Stillstands können - sofern verfügbar - insbesondere Radardetektionen verwendet werden. Solche Radardetektionen können sich aufgrund der damit möglichen direkten Messung der Dopplergeschwindigkeit besonders gut dafür eignen. Bestätigen beispielsweise mehrere solche Dopplermessungen über einen oder mehrere Messzyklen hinweg einen kompletten Stillstand des jeweiligen Objekts, kann in den zugehörigen Objektdaten jegliche Dynamik, also jegliche Abhängigkeiten zwischen verschiedenen Eigenschaften oder Zuständen unterbunden werden. Ebenso kann anhand der Radardetektionen und/oder anhand von Lidardetektionen über einen oder mehr Messzyklen hinweg mittels eines vorgegebenen robusten, beispielsweise histogramm- oder medianbasierten, Schätzverfahrens ein stabiler Abstand d zu dem jeweiligen Objekt geschätzt werden. Damit kann also ein besonders stabiles und robustes Tracking auch stillstehender Objekte ermöglicht werden. Entsprechende Daten oder Eigenschaften können dann direkt in die jeweiligen Objektdaten geschrieben oder einfusioniert werden. Auf diese Weise kann ein Über- oder Unterschätzen beispielsweise des Abstands d zu dem jeweiligen Objekt verhindert oder im Vergleich zu herkömmlichen Ansätzen reduziert werden. Durch das vorliegend beschriebenen Verfahren wird also eine besonders stabile Nachverfolgung auch ruhender Objekte ermöglicht, ein scheinbares Auftreten oder Erkennen von Bewegungen oder Rotationen aufgrund von Messunsicherheiten verhindert und eine präzise und stabile Abstandsschätzung oder Abstandsüberwachung auch für bisher ruhende, sich gerade in Bewegung setzende Objekte ermöglicht. Dies wiederum ermöglicht eine besonders zuverlässige, robuste und sichere Implementierung positions- oder abstandsbasierter Assistenzfunktionen.In summary, the present method can therefore automatically estimate whether or when a detected object is almost or completely stationary. When such a standstill is detected, all properties or states of this object are then estimated separately. For example, there is no influence of the position on the speed. Radar detections in particular can be used to detect standstill - if available. Such radar detections can be particularly well suited for this because they enable direct measurement of the Doppler speed. If, for example, several such Doppler measurements over one or more measurement cycles confirm that the respective object is completely stationary, any dynamics, i.e. any dependencies between different properties or states, can be prevented in the associated object data. Likewise, a stable distance d to the respective object can be estimated based on the radar detections and/or lidar detections over one or more measurement cycles using a predetermined robust estimation method, for example histogram- or median-based. This enables particularly stable and robust tracking of stationary objects. Corresponding data or properties can then be written or fused directly into the respective object data. In this way, overestimation or underestimation of, for example, the distance d to the respective object can be prevented or reduced compared to conventional approaches. The method described here enables particularly stable tracking of stationary objects, prevents the apparent occurrence or detection of movements or rotations due to measurement uncertainties, and enables precise and stable distance estimation or distance monitoring even for objects that were previously stationary but are just starting to move. This in turn enables particularly reliable, robust and safe implementation of position- or distance-based assistance functions.

Insgesamt zeigen die beschriebenen Beispiele damit wie eine verbesserte Objektzustandsabschätzung für gestoppte oder stationären Objekte, insbesondere Fahrzeuge, realisiert werden kann.Overall, the examples described show how an improved object state estimation for stopped or stationary objects, especially vehicles, can be realized.

BezugszeichenlisteList of reference symbols

11
VerfahrensschemaProcess diagram
22
ObjekttracksObject tracks
33
SensordatenSensor data
44
PrädiktionPrediction
55
ObjektassoziierungObject association
66
VollaktualisierungFull update
77
DetektionsassoziierungDetection association
88th
StillstandsabschätzungDowntime estimation
99
ZustandsabschätzungCondition assessment
1010
AktualisierungUpdate
1111
KraftfahrzeugMotor vehicle
1212
SensorikSensor technology
1313
ObjektnachverfolgungseinrichtungObject tracking facility
1414
Schnittstelleinterface
1515
Prozessorprocessor
1616
DatenspeicherData storage
1717
FremdfahrzeugThird-party vehicle
1818
SensordetektionSensor detection
1919
ObjektdetektionObject detection
2020
ClutterdetektionClutter detection
2121
SuchbereichSearch area
2222
SignifikanzschwellenwertSignificance threshold
2323
erster Signifikanzbinfirst significance bin
RCSRCS
RadarquerschnittRadar cross section
dd
AbstandDistance

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents listed by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA accepts no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • DE 102020123585 A1 [0003]DE 102020123585 A1 [0003]
  • DE 102019109332 A1 [0004]DE 102019109332 A1 [0004]

Claims (10)

Verfahren (1) für eine Objektnachverfolgung über mehrere Messzyklen einer Sensorik (12) hinweg, in dem -jeweils anhand von in einem Messzyklus der Sensorik (12) erfassten Sensordaten Objekte (17) detektiert werden, - für detektierte Objekte (17) anhand der Sensordaten (3) deren Bewegungszustand bestimmt wird, wobei jedes Objekt (17) als ruhendes Objekt (17) oder als bewegtes Objekt eingestuft wird, - zu jedem detektierten Objekt (17) Objektdaten (2) gespeichert werden, die mehrere Eigenschaften des jeweiligen Objekts (17) und dessen bestimmten Bewegungszustand umfassen, -jeweils anhand der aktuellen Sensordaten (3) die Objektdaten (2) bereits in einem vorausgehenden Messzyklus detektierter Objekte (17) aktualisiert werden, wobei - nur für diejenigen Objekte (17), die als ruhendes Objekt (17) eingestuft wurden, jeweils deren in den Objektdaten (2) gespeicherte Eigenschaften unabhängig voneinander aktualisiert werden.Method (1) for object tracking over several measuring cycles of a sensor system (12), in which -objects (17) are detected in each case based on sensor data recorded in a measuring cycle of the sensor system (12), - for detected objects (17) the state of motion is determined based on the sensor data (3), wherein each object (17) is classified as a stationary object (17) or as a moving object, - object data (2) are stored for each detected object (17), which include several properties of the respective object (17) and its determined state of motion, -the object data (2) of objects (17) already detected in a previous measuring cycle are updated in each case based on the current sensor data (3), wherein - only for those objects (17) that were classified as a stationary object (17), their properties stored in the object data (2) are updated independently of one another. Verfahren (1) nach Anspruch 1, dadurch gekennzeichnet, dass der Bewegungszustand anhand von Radardetektionen (18, 19) bestimmt wird, wobei ein Objekt (17) als ruhendes Objekt (17) eingestuft wird, wenn eine radarbasiert bestimmte Geschwindigkeit des Objekts (17) betragsmäßig kleiner als ein vorgegebener Geschwindigkeitsschwellenwert ist.Procedure (1) according to Claim 1 , characterized in that the state of motion is determined on the basis of radar detections (18, 19), wherein an object (17) is classified as a stationary object (17) if a radar-based determined speed of the object (17) is smaller in magnitude than a predetermined speed threshold value. Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Objekt (17) jeweils erst dann als ruhendes Objekt (17) eingestuft wird, wenn wenigstens eine vorgegebene Anzahl von Messungen und/oder wenigstens ein vorgegebener Anteil mehrerer durchgeführter Messungen eine unterhalb eines vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit des Objekts (17) ergeben.Method (1) according to one of the preceding claims, characterized in that an object (17) is only classified as a stationary object (17) if at least a predetermined number of measurements and/or at least a predetermined proportion of several measurements carried out result in a speed of the object (17) that is below a predetermined speed threshold value. Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) deren Objektdaten (2) basierend auf einzelnen Sensordetektionen (18) aktualisiert werden und für als bewegt eingestufte Objekte deren Objektdaten (2) basierend auf von der Sensorik (12) ausgegebenen Sensorobjekten aktualisiert werden.Method (1) according to one of the preceding claims, characterized in that for objects (17) classified as stationary, their object data (2) are updated based on individual sensor detections (18) and for objects classified as moving, their object data (2) are updated based on sensor objects output by the sensor system (12). Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) aus allen aktuellen Sensordetektionen (18, 19), die nach einem vorgegebenen, insbesondere bezüglich der bisherigen Position des jeweiligen Objekts (17) abstandbasierten, Kriterium dem jeweiligen Objekt (17) zugeordnet sind, zum Bestimmen der als eine Eigenschaft in den Objektdaten (2) zu aktualisierenden aktuellen Position des jeweiligen Objekts (17) jeweils eine stabile Enddetektion bestimmt wird, die als ein der Sensorik (12) zugewandtes Ende des jeweiligen Objekts (17) verwendet wird.Method (1) according to one of the preceding claims, characterized in that for objects (17) classified as stationary, from all current sensor detections (18, 19) which are assigned to the respective object (17) according to a predetermined criterion, in particular a distance-based criterion with respect to the previous position of the respective object (17), a stable end detection is determined in each case for determining the current position of the respective object (17) to be updated as a property in the object data (2), which is used as an end of the respective object (17) facing the sensor system (12). Verfahren (1) nach Anspruch 5, dadurch gekennzeichnet, dass in dem Fall, dass die dem jeweiligen Objekt (17) zugeordneten Sensordetektionen (19) Radardetektionen umfassen, die stabile Enddetektion unter Berücksichtigung von deren Radarquerschnitten (RCS) bestimmt wird, insbesondere als die der Sensorik (12) nächstliegende Radardetektion, deren Radarquerschnitt (RCS) größer als ein vorgegebener Schwellenwert (22) ist.Procedure (1) according to Claim 5 , characterized in that in the case that the sensor detections (19) assigned to the respective object (17) comprise radar detections, the stable final detection is determined taking into account their radar cross sections (RCS), in particular as the radar detection closest to the sensor system (12) whose radar cross section (RCS) is greater than a predetermined threshold value (22). Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) zumindest ein Teil der Eigenschaften, insbesondere die Position des jeweiligen Objekts (17), basierend auf Lidardetektionen bestimmt werden, wobei Lidardetektionen aus dem aktuellen Messzyklus einem Begrenzungsrahmen (17) für das jeweilige Objekt (17) zugeordnet werden und anhand einer Verteilung, insbesondere eines Entfernungshistogramms, dieser Lidardetektionen eine stabile Enddetektion bestimmt wird, die als ein der Sensorik (12) zugewandtes Ende des jeweiligen Objekts (17) verwendet wird.Method (1) according to one of the preceding claims, characterized in that for objects (17) classified as stationary, at least some of the properties, in particular the position of the respective object (17), are determined based on lidar detections, wherein lidar detections from the current measurement cycle are assigned to a boundary frame (17) for the respective object (17) and a stable end detection is determined on the basis of a distribution, in particular a distance histogram, of these lidar detections, which is used as an end of the respective object (17) facing the sensor system (12). Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) für das Aktualisieren (10) von deren zugehörigen Objektdaten (2) jeweils Abhängigkeiten zwischen verschiedenen in den jeweiligen Objektdaten (2) gespeicherten Eigenschaften des jeweiligen Objekts (17) aufgehoben werden und/oder für eine Modellierung des jeweiligen Objekts in den zugehörigen Objektdaten (2) zu einer diagonalen P-Matrix gewechselt wird.Method (1) according to one of the preceding claims, characterized in that for objects (17) classified as dormant, for the updating (10) of their associated object data (2), dependencies between different properties of the respective object (17) stored in the respective object data (2) are canceled and/or a switch is made to a diagonal P-matrix for modeling the respective object in the associated object data (2). Objektnachverfolgungseinrichtung (13), insbesondere für ein Kraftfahrzeug (11), aufweisend eine Schnittstelle (14) zum Erfassen von Sensordaten (3) und eine Datenverarbeitungseinrichtung (15, 16) zum Verarbeiten der erfassten Sensordaten (3), wobei die Objektnachverfolgungseinrichtung (13) zum Ausführen eines Verfahrens (1) nach einem der vorhergehenden Ansprüche eingerichtet ist.Object tracking device (13), in particular for a motor vehicle (11), comprising an interface (14) for detecting sensor data (3) and a data processing device (15, 16) for processing the detected sensor data (3), wherein the object tracking device (13) is set up to carry out a method (1) according to one of the preceding claims. Kraftfahrzeug (11), aufweisend eine Sensorik (12) zur Umgebungserfassung und eine damit gekoppelte Objektnachverfolgungseinrichtung (13) nach Anspruch 9.Motor vehicle (11), comprising a sensor system (12) for detecting the environment and an object tracking device (13) coupled thereto according to Claim 9 .
DE102022125695.2A 2022-10-05 2022-10-05 Method and device for efficient object tracking and correspondingly equipped motor vehicle Pending DE102022125695A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022125695.2A DE102022125695A1 (en) 2022-10-05 2022-10-05 Method and device for efficient object tracking and correspondingly equipped motor vehicle
PCT/EP2023/075887 WO2024074304A1 (en) 2022-10-05 2023-09-20 Method and device for efficient object tracking and correspondingly configured motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022125695.2A DE102022125695A1 (en) 2022-10-05 2022-10-05 Method and device for efficient object tracking and correspondingly equipped motor vehicle

Publications (1)

Publication Number Publication Date
DE102022125695A1 true DE102022125695A1 (en) 2024-04-11

Family

ID=88143859

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022125695.2A Pending DE102022125695A1 (en) 2022-10-05 2022-10-05 Method and device for efficient object tracking and correspondingly equipped motor vehicle

Country Status (2)

Country Link
DE (1) DE102022125695A1 (en)
WO (1) WO2024074304A1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015100134A1 (en) 2014-01-16 2015-07-16 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Object unification system of multiple radar imaging sensors
DE102016200642A1 (en) 2016-01-19 2017-07-20 Conti Temic Microelectronic Gmbh METHOD AND DEVICE FOR CLASSIFYING TRAFFIC LIMITS AND VEHICLE
DE102019109332A1 (en) 2019-04-09 2020-10-15 Bayerische Motoren Werke Aktiengesellschaft Method and processing unit for determining an object status of an object
EP3832341A1 (en) 2019-11-21 2021-06-09 NVIDIA Corporation Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
DE102020123585A1 (en) 2019-09-13 2021-08-19 Motional AD LLC (n.d.Ges.d. Staates Delaware) ADVANCED OBJECT TRACKING USING RADAR
DE102021207609A1 (en) 2021-07-16 2023-01-19 Continental Autonomous Mobility Germany GmbH Procedure for marking a movement path

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220146667A1 (en) * 2022-01-25 2022-05-12 Intel Corporation Apparatus, system and method of radar tracking

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015100134A1 (en) 2014-01-16 2015-07-16 GM Global Technology Operations, LLC (n.d. Ges. d. Staates Delaware) Object unification system of multiple radar imaging sensors
DE102016200642A1 (en) 2016-01-19 2017-07-20 Conti Temic Microelectronic Gmbh METHOD AND DEVICE FOR CLASSIFYING TRAFFIC LIMITS AND VEHICLE
DE102019109332A1 (en) 2019-04-09 2020-10-15 Bayerische Motoren Werke Aktiengesellschaft Method and processing unit for determining an object status of an object
DE102020123585A1 (en) 2019-09-13 2021-08-19 Motional AD LLC (n.d.Ges.d. Staates Delaware) ADVANCED OBJECT TRACKING USING RADAR
EP3832341A1 (en) 2019-11-21 2021-06-09 NVIDIA Corporation Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
DE102021207609A1 (en) 2021-07-16 2023-01-19 Continental Autonomous Mobility Germany GmbH Procedure for marking a movement path

Also Published As

Publication number Publication date
WO2024074304A1 (en) 2024-04-11

Similar Documents

Publication Publication Date Title
DE10133945A1 (en) Method and device for exchanging and processing data
EP2867093B1 (en) Method and system for information usage
WO2019141311A1 (en) Method for detecting an object
EP2137042A1 (en) Method for object formation
DE102016225915A1 (en) System and method for detecting the surroundings of a vehicle
DE102019205008B3 (en) Backward collision avoidance system
DE102019113345A1 (en) SYSTEMS AND METHODS FOR USING THE STREET UNDERSTANDING TO RESTRICT RADAR TRACKS
DE112018000448T5 (en) System and method for automatic trailer detection
EP3024709B1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102013217486A1 (en) Method for representing an environment of a vehicle in an occupancy grid
DE102019123483B4 (en) Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
WO2022247994A1 (en) System for sensor data fusion for environmental perception
EP1298012B1 (en) Method for recognizing and tracking objects
DE102020117340A1 (en) A method for capturing the surroundings with at least two independent imaging sensors for capturing the surroundings, a device for carrying out the method, a vehicle and a correspondingly designed computer program
WO2015010902A1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102022125695A1 (en) Method and device for efficient object tracking and correspondingly equipped motor vehicle
WO2020048560A1 (en) Method and processing unit for tracking an object
WO2021078335A1 (en) Method for capturing a target object
DE102019102919A1 (en) Method, device, computer program and computer program product for operating a vehicle
DE102020200876A1 (en) Method for processing sensor data from a sensor system of a vehicle
DE102020127776B4 (en) Method for determining a length of an object in an environment of a motor vehicle using an assistance system, computer program product, computer-readable storage medium and assistance system
DE102022115620A1 (en) Method and assistance system for assessing the relevance of surrounding objects in a motor vehicle
DE102022123303A1 (en) Method and object tracking device for sensor-based object tracking and correspondingly equipped motor vehicle
DE102022211839A1 (en) Determination of height information for an object in the vicinity of a vehicle
WO2023021045A1 (en) Method and localisation device for localising a motor vehicle, and motor vehicle

Legal Events

Date Code Title Description
R163 Identified publications notified