DE102022124192A1 - Method and device for updating the object status of an object - Google Patents

Method and device for updating the object status of an object Download PDF

Info

Publication number
DE102022124192A1
DE102022124192A1 DE102022124192.0A DE102022124192A DE102022124192A1 DE 102022124192 A1 DE102022124192 A1 DE 102022124192A1 DE 102022124192 A DE102022124192 A DE 102022124192A DE 102022124192 A1 DE102022124192 A1 DE 102022124192A1
Authority
DE
Germany
Prior art keywords
bounding box
object state
edge
update
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022124192.0A
Other languages
German (de)
Inventor
Sascha Steyer
Dominik Kellner
Daniel Meissner
Vinzenz Dallabetta
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bayerische Motoren Werke AG
Original Assignee
Bayerische Motoren Werke AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bayerische Motoren Werke AG filed Critical Bayerische Motoren Werke AG
Priority to DE102022124192.0A priority Critical patent/DE102022124192A1/en
Publication of DE102022124192A1 publication Critical patent/DE102022124192A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/589Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves

Abstract

Es wird eine Vorrichtung zur Aktualisierung des Objektzustands eines Objektes beschrieben, das in dem Umfeld eines Fahrzeugs angeordnet ist. Der Objektzustand beschreibt ein oder mehrere Eigenschaften einer Bounding-Box für das Objekt. Die Vorrichtung ist eingerichtet, einen Detektionspunkt eines Umfeldsensors des Fahrzeugs einer Kante der Bounding-Box zuzuordnen, und den Abstand des Detektionspunktes von der zugeordneten Kante der Bounding-Box zu ermitteln. Die Vorrichtung ist ferner eingerichtet, den Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box, auf Basis des ermittelten Abstands zu aktualisieren.A device for updating the object status of an object that is arranged in the surroundings of a vehicle is described. The object state describes one or more properties of a bounding box for the object. The device is set up to assign a detection point of an environment sensor of the vehicle to an edge of the bounding box and to determine the distance of the detection point from the assigned edge of the bounding box. The device is further set up to update the object state, in particular the one or more properties of the bounding box, based on the determined distance.

Description

Die Erfindung betrifft ein Verfahren und eine entsprechende Vorrichtung zur Aktualisierung des Objektzustands eines Objektes im Umfeld eines Fahrzeugs.The invention relates to a method and a corresponding device for updating the object status of an object in the surroundings of a vehicle.

Ein Fahrzeug kann eine Fahrfunktion aufweisen, die eingerichtet ist, das Fahrzeug zumindest teilweise oder vollständig automatisiert längs- und/oder querzuführen. Die Fahrfunktion greift dabei typischerweise auf ein Umfeldmodell des Umfelds des Fahrzeugs zurück, welches den Objektzustand (wie z.B. die Position, die Größe, die Orientierung, die Bewegungsrichtung, die Bewegungsgeschwindigkeit, etc.) in Bezug auf ein oder mehrere Objekte im Umfeld des Fahrzeugs anzeigt. Das Fahrzeug kann in Abhängigkeit von dem Umfeldmodell automatisiert längs- und/oder quergeführt werden. Die Güte der Fahrfunktion hängt dabei meist von der Güte des Umfeldmodells ab.A vehicle can have a driving function that is set up to guide the vehicle longitudinally and/or transversely at least partially or completely automatically. The driving function typically relies on an environment model of the vehicle's surroundings, which displays the object state (such as the position, size, orientation, direction of movement, speed of movement, etc.) in relation to one or more objects in the vehicle's surroundings . The vehicle can be automatically guided longitudinally and/or laterally depending on the surrounding model. The quality of the driving function usually depends on the quality of the environment model.

Das Umfeldmodell kann wiederholt, insbesondere periodisch, auf Basis der Sensordaten von ein oder mehreren Umfeldsensoren des Fahrzeugs angepasst werden. Dabei kann an einem bestimmten Zeitschritt das für den vorhergehenden Zeitschritt ermittelte Umfeldmodell aktualisiert werden. Die Aktualisierung des Umfeldmodells umfasst insbesondere die Aktualisierung des Objektzustands für die ein oder mehreren Objekte des für den vorhergehenden Zeitschritt ermittelten Umfeldmodells. Die Aktualisierung des Objektzustands für ein bereits zuvor detektiertes Objekt kann als Nachverfolgung des Objektes bezeichnet werden. Die Aktualisierung und/oder die Nachverfolgung kann unter Verwendung eines Kalman-Filters bewirkt werden.The environment model can be adapted repeatedly, in particular periodically, based on the sensor data from one or more environment sensors of the vehicle. The environment model determined for the previous time step can be updated at a specific time step. The updating of the environment model includes in particular the updating of the object state for the one or more objects of the environment model determined for the previous time step. Updating the object state for a previously detected object can be referred to as tracking the object. The updating and/or tracking can be effected using a Kalman filter.

Das vorliegende Dokument befasst sich mit der technischen Aufgabe, eine besonders effiziente und präzise Nachverfolgung eines Objektes im Umfeld eines Fahrzeugs zu bewirken.This document deals with the technical task of achieving particularly efficient and precise tracking of an object in the vicinity of a vehicle.

Die Aufgabe wird durch jeden der unabhängigen Ansprüche gelöst. Vorteilhafte Ausführungsformen werden u.a. in den abhängigen Ansprüchen beschrieben. Es wird darauf hingewiesen, dass zusätzliche Merkmale eines von einem unabhängigen Patentanspruch abhängigen Patentanspruchs ohne die Merkmale des unabhängigen Patentanspruchs oder nur in Kombination mit einer Teilmenge der Merkmale des unabhängigen Patentanspruchs eine eigene und von der Kombination sämtlicher Merkmale des unabhängigen Patentanspruchs unabhängige Erfindung bilden können, die zum Gegenstand eines unabhängigen Anspruchs, einer Teilungsanmeldung oder einer Nachanmeldung gemacht werden kann. Dies gilt in gleicher Weise für in der Beschreibung beschriebene technische Lehren, die eine von den Merkmalen der unabhängigen Patentansprüche unabhängige Erfindung bilden können.The task is solved by each of the independent claims. Advantageous embodiments are described, among other things, in the dependent claims. It should be noted that additional features of a patent claim dependent on an independent patent claim can form a separate invention independent of the combination of all the features of the independent patent claim, without the features of the independent patent claim or only in combination with a subset of the features of the independent patent claim can be made the subject of an independent claim, a division application or a subsequent application. This applies equally to technical teachings described in the description, which may constitute an invention independent of the features of the independent patent claims.

Gemäß einem Aspekt wird eine Vorrichtung zur Aktualisierung des Objektzustands eines Objektes beschrieben, das in dem Umfeld eines (Kraft-) Fahrzeugs angeordnet ist. Die Aktualisierung des Objektzustands kann unter Verwendung eines (extended und/oder unscented) Kalman-Filters erfolgen. Der Objektzustand kann ein oder mehrere Eigenschaften einer (ggf. rechteckförmigen) Bounding-Box für das Objekt beschreiben. Dabei kann die Bounding-Box das Objekt umschließen (wobei die Bounding-Box nach Möglichkeit die kleinstmögliche Größe aufweist, um das Objekt zu vollständig zu umschließen). Die ein oder mehreren Eigenschaften der Bounding-Box können zu einem Zustandsvektor zusammengefasst werden, der den Objektzustand beschreibt.According to one aspect, a device for updating the object status of an object that is arranged in the surroundings of a (motor) vehicle is described. Updating the object state can be done using an (extended and/or unscented) Kalman filter. The object state can describe one or more properties of a (possibly rectangular) bounding box for the object. The bounding box can enclose the object (whereby the bounding box has the smallest possible size to completely enclose the object). The one or more properties of the bounding box can be combined into a state vector that describes the object state.

Der Objektzustand, insbesondere der Zustandsvektor, des Objektes kann umfassen: die (zweidimensionale) Position der Bounding-Box (insbesondere eines Referenzpunktes der Bounding-Box); die Breite der Bounding-Box; die Länge der Bounding-Box; die Orientierung der Bounding-Box; die (Längs-) Geschwindigkeit der Bounding-Box; die (Längs-) Beschleunigung der Bounding Box; und/oder die Drehrate der Bounding-Box.The object state, in particular the state vector, of the object can include: the (two-dimensional) position of the bounding box (in particular a reference point of the bounding box); the width of the bounding box; the length of the bounding box; the orientation of the bounding box; the (longitudinal) speed of the bounding box; the (longitudinal) acceleration of the bounding box; and/or the rotation rate of the bounding box.

Die Vorrichtung ist eingerichtet, einen Detektionspunkt eines Umfeldsensors des Fahrzeugs (genau) einer Kante der Bounding-Box zuzuordnen. Der Umfeldsensor kann ein abstandsmessender Umfeldsensor, etwa ein Radarsensor, ein Lidarsensor und/oder ein Ultraschallsensor sein. In entsprechender Weise können mehrere Detektionspunkte des Umfeldsensors oder ggf. Detektionspunkte von mehreren unterschiedlichen Umfeldsensoren jeweils (genau) einer Kante der Bounding-Box zugeordnet werden. Dabei kann ein Detektionspunkt jeweils der Kante zugeordnet werden, die dem Detektionspunkt am nächsten liegt.The device is set up to (exactly) assign a detection point of an environment sensor of the vehicle to an edge of the bounding box. The surroundings sensor can be a distance-measuring surroundings sensor, such as a radar sensor, a lidar sensor and/or an ultrasonic sensor. In a corresponding manner, several detection points of the surroundings sensor or possibly detection points of several different surroundings sensors can each be assigned (exactly) to one edge of the bounding box. A detection point can be assigned to the edge that is closest to the detection point.

Die Vorrichtung ist ferner eingerichtet, den Abstand des jeweiligen Detektionspunktes von der jeweils zugeordneten Kante der Bounding-Box zu ermitteln. Dabei wird bevorzugt als Abstand der orthogonale Abstand zwischen dem jeweiligen Detektionspunkt und der jeweils zugeordneten Kante der Bounding-Box, senkrecht zu der Kante, ermittelt.The device is also set up to determine the distance of the respective detection point from the respectively assigned edge of the bounding box. The orthogonal distance between the respective detection point and the respectively assigned edge of the bounding box, perpendicular to the edge, is preferably determined as the distance.

Es kann somit für zumindest einen Detektionspunkt der (orthogonale) Abstand zu der zugeordneten Kante der Bounding-Box ermittelt werden. Der Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box, kann dann in präziser Weise auf Basis des ermittelten Abstands aktualisiert werden. Dabei kann auf Basis des ermittelten Abstands des Detektionspunktes ein Messupdate eines Kalman-Filters bewirkt werden, um den Objektzustand zu aktualisieren.The (orthogonal) distance to the assigned edge of the bounding box can therefore be determined for at least one detection point. The object state, in particular the one or more properties of the bounding box, can then be updated precisely based on the determined distance. Based on the determined distance of the detection point, a measurement update of a Kalman filter can be effected in order to update the object status.

Es können somit direkt ein oder mehrere Detektionspunkte dazu verwendet werden, um die Bounding-Box für ein Objekt (im Rahmen eines Messupdates eines Kalman-Filters) zu aktualisieren. So kann der Objektzustand des Objekts in besonders präziser Weise aktualisiert werden. Die Detektionspunkte können dabei direkt für das Messupdate verwendet werden, ohne dass die Detektionspunkte zu einer Objekt-Box abstrahiert werden.One or more detection points can therefore be used directly to update the bounding box for an object (as part of a measurement update of a Kalman filter). In this way, the object state of the object can be updated in a particularly precise manner. The detection points can be used directly for the measurement update without the detection points being abstracted into an object box.

Die Vorrichtung kann eingerichtet sein, jeden Detektionspunkt einer Vielzahl von Detektionspunkten des Umfeldsensors jeweils genau einer Kante der Bounding-Box zuzuordnen, um für ein oder mehrere Kanten der Bounding-Box jeweils eine Menge von Detektionspunkten zu ermitteln. Es kann somit für ein oder mehrere Kanten der Bounding-Box jeweils eine Menge von Detektionspunkten ermittelt werden, die der jeweiligen Kante zugeordnet sind. Dabei wird ein Detektionspunkt typischerweise jeweils nur genau einer Kante zugeordnet.The device can be set up to assign each detection point of a plurality of detection points of the environment sensor to exactly one edge of the bounding box in order to determine a set of detection points for one or more edges of the bounding box. A set of detection points that are assigned to the respective edge can therefore be determined for one or more edges of the bounding box. A detection point is typically only assigned to exactly one edge.

Für zumindest einen Teil (oder für alle Detektionspunkte) der Menge von Detektionspunkten, die einer Kante zugeordnet wurden, kann dann jeweils der (orthogonale) Abstand des jeweiligen Detektionspunktes von der jeweils zugeordneten Kante der Bounding-Box ermittelt werden. Der Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box, kann dann in besonders präziser Weise auf Basis der ermittelten Abstände aktualisiert werden. Dabei könnten ggf. sequentiell mehrere Messupdates durchgeführt werden (jeweils basierend auf einem Teil der ermittelten Abstände). Alternativ können die ermittelten Abstände zu einem gemeinsamen Innovationsvektor zusammengefasst werden, durch den dann ein gemeinsames Messupdate bewirkt wird.For at least a part (or for all detection points) of the set of detection points that have been assigned to an edge, the (orthogonal) distance of the respective detection point from the respectively assigned edge of the bounding box can then be determined. The object state, in particular the one or more properties of the bounding box, can then be updated in a particularly precise manner based on the determined distances. If necessary, several measurement updates could be carried out sequentially (each based on part of the determined distances). Alternatively, the determined distances can be combined into a common innovation vector, which then results in a common measurement update.

Die Vorrichtung kann eingerichtet sein, eine Kante der Bounding-Box in unterschiedliche (ggf. gleichgroße) Teilintervalle zu unterteilen. Für jedes Teilintervall können dann jeweils null, ein oder mehrere Detektionspunkte aus der der Kante zugeordneten Menge von Detektionspunkten ausgewählt werden. Ferner kann der Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box, auf Basis der Abstände für die ausgewählten Detektionspunkte aktualisiert werden.The device can be set up to divide an edge of the bounding box into different (possibly the same size) subintervals. For each subinterval, zero, one or more detection points can then be selected from the set of detection points assigned to the edge. Furthermore, the object state, in particular the one or more properties of the bounding box, can be updated based on the distances for the selected detection points.

Es können somit entlang der gesamten Kante der Bounding-Box einzelne Detektionspunkte ausgewählt werden, um das Messupdate durchzuführen. So kann das Messupdate in besonders präziser und effizienter Weise bewirkt werden.Individual detection points can therefore be selected along the entire edge of the bounding box in order to carry out the measurement update. This means that the measurement update can be carried out in a particularly precise and efficient manner.

Die Vorrichtung kann eingerichtet sein, zumindest zwei unterschiedlichen Kanten der Bounding-Box jeweils zumindest einen Detektionspunkt des Umfeldsensors des Fahrzeugs zuzuordnen. Es kann dann für jeden der Detektionspunkte jeweils der (orthogonale) Abstand des jeweiligen Detektionspunktes von der jeweils zugeordneten Kante der Bounding-Box ermittelt werden. Ferner kann der Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box, in besonders präziser Weise auf Basis der ermittelten Abstände (zu den unterschiedlichen Kanten) aktualisiert werden. Durch die Berücksichtigung von mehreren Kanten der Bounding-Box kann das Messupdate in besonders präziser Weise bewirkt werden.The device can be set up to assign at least one detection point of the surroundings sensor of the vehicle to at least two different edges of the bounding box. The (orthogonal) distance of the respective detection point from the respectively assigned edge of the bounding box can then be determined for each of the detection points. Furthermore, the object state, in particular the one or more properties of the bounding box, can be updated in a particularly precise manner based on the determined distances (to the different edges). By taking several edges of the bounding box into account, the measurement update can be carried out in a particularly precise manner.

Die Vorrichtung kann eingerichtet sein, auf Basis des Objektzustands für einen vorhergehenden Zeitpunkt (k-1) einen prädizierten Objektzustand für einen aktuellen Zeitpunkt (k) zu ermitteln. Dies kann im Rahmen einer Kalman-Prädiktion erfolgen. Insbesondere kann zu diesem Zweck ein Bewegungs- und/oder Prädiktions-Modell für das Objekt verwendet werden. Der prädizierte Objektzustand für den aktuellen Zeitpunkt kann eine prädizierte Bounding-Box und/oder prädizierte Eigenschaften der (prädizierten) Bounding-Box beschreiben.The device can be set up to determine a predicted object state for a current time (k) based on the object state for a previous time (k-1). This can be done as part of a Kalman prediction. In particular, a movement and/or prediction model for the object can be used for this purpose. The predicted object state for the current point in time can describe a predicted bounding box and/or predicted properties of the (predicated) bounding box.

Der prädizierte Objektzustand kann dann auf Basis des ermittelten Abstands für zumindest einen Detektionspunkt aktualisiert werden, um den Objektzustand für den aktuellen Zeitpunkt zu ermitteln. Zu diesem Zweck kann auf Basis des Abstands ein Messupdate des Kalman-Filters bewirkt werden. Als Abstand kann dabei der Abstand des Detektionspunktes von der zugeordneten Kante der prädizierten Bounding-Box ermittelt und verwendet werden.The predicted object state can then be updated based on the determined distance for at least one detection point in order to determine the object state for the current point in time. For this purpose, a measurement update of the Kalman filter can be effected based on the distance. The distance between the detection point and the assigned edge of the predicted bounding box can be determined and used as the distance.

Die Vorrichtung kann insbesondere eingerichtet sein, auf Basis des prädizierten Objektzustands für den aktuellen Zeitpunkt eine Kalman-Verstärkung zu ermitteln. Die Kalman-Verstärkung weist dabei, für den Fall eines eindimensionalen Messupdates, typischerweise eine der Dimension des Objektzustands, insbesondere der Dimension des Zustandsvektors, entsprechende Dimension auf.The device can in particular be set up to determine a Kalman gain for the current point in time based on the predicted object state. In the case of a one-dimensional measurement update, the Kalman gain typically has a dimension corresponding to the dimension of the object state, in particular the dimension of the state vector.

Der ermittelte Abstand kann mit der Kalman-Verstärkung multipliziert werden, um ein Update des Objektzustands zu ermitteln (wobei das Update des Objektzustands die gleiche Dimension aufweist wie der Objektzustand). Der prädizierte Objektzustand kann mit dem ermittelten Update des Objektzustands aktualisiert werden (z.B. durch Addition des prädizierten Objektzustands und des Updates des Objektzustands), um den Objektzustand für den aktuellen Zeitpunkt in besonders präziser Weise zu ermitteln.The determined distance can be multiplied by the Kalman gain to determine an update of the object state (where the update of the object state has the same dimension as the object state). The predicted object state can be updated with the determined update of the object state (e.g. by adding the predicted object state and the update of the object state) in order to determine the object state for the current point in time in a particularly precise manner.

Die Vorrichtung kann eingerichtet sein, für N Detektionspunkte, die einer bestimmten Kante der Bounding-Box zugeordnet sind, jeweils den Abstand zu der Kante zu ermitteln und zu einem Innovationvektor zusammenzufassen, mit N>1. Es kann dann eine Kalman-Verstärkung für den (gesamten) Innovationsvektor ermittelt werden. Ferner kann der Innovationvektor mit der Kalman-Verstärkung multipliziert werden, um das Update des Objektzustands zu ermitteln. Es können somit innerhalb eines einzigen Messupdates des Kalman-Filters mehrere Detektionspunkte berücksichtigt werden (ggf. auch von mehreren unterschiedlichen Kanten). So kann die Genauigkeit der Aktualisierung des Objektzustands weiter erhöht werden.The device can be set up to determine the distance to the edge for N detection points that are assigned to a specific edge of the bounding box and to combine them into an innovation vector, with N>1. A Kalman gain can then be determined for the (entire) innovation vector. Further, the innovation vector can be multiplied by the Kalman gain to determine the update of the object state. This means that within a single measurement update of the Kalman filter, several detection points can be taken into account (possibly also from several different edges). In this way, the accuracy of updating the object status can be further increased.

Alternativ oder ergänzend kann die Vorrichtung eingerichtet sein, eine gemessene Geschwindigkeit zumindest eines Detektionspunktes des Umfeldsensors (insbesondere eines Radarsensors) zu ermitteln (z.B. in Form einer Doppler-Geschwindigkeit). Es kann dann auf Basis der Geschwindigkeit aus dem prädizierten Objektzustand und auf Basis der gemessenen Geschwindigkeit eine Geschwindigkeits-Innovation ermittelt werden. Dies kann ggf. für mehrere Detektionspunkte erfolgen.Alternatively or additionally, the device can be set up to determine a measured speed of at least one detection point of the surroundings sensor (in particular a radar sensor) (e.g. in the form of a Doppler speed). A speed innovation can then be determined based on the speed from the predicted object state and based on the measured speed. If necessary, this can be done for several detection points.

Der jeweils ermittelte Abstand und die jeweils ermittelte Geschwindigkeits-Innovation für die ein oder mehreren Detektionspunkte können zu einem Innovationsvektor zusammengefasst werden. Es kann dann wiederum eine Kalman-Verstärkung für den gesamten Innovationsvektor ermittelt werden. Ferner kann der Innovationvektor mit der Kalman-Verstärkung multipliziert werden, um das Update des Objektzustands zu ermitteln. Durch die Berücksichtigung der Geschwindigkeit von ein oder mehreren Detektionspunkten kann die Genauigkeit der Aktualisierung des Objektzustands weiter erhöht werden.The distance determined in each case and the speed innovation determined in each case for the one or more detection points can be combined into an innovation vector. A Kalman gain can then be determined for the entire innovation vector. Further, the innovation vector can be multiplied by the Kalman gain to determine the update of the object state. By taking into account the speed of one or more detection points, the accuracy of updating the object state can be further increased.

Die Vorrichtung kann eingerichtet sein, das Fahrzeug, insbesondere eine automatisierte Fahrfunktion des Fahrzeugs, in Abhängigkeit von dem aktualisierten Objektzustand zu betreiben (z.B. um das Fahrzeug zumindest teilweise oder vollständig automatisiert längs- und/oder querzuführen). So kann die Güte einer Fahrfunktion erhöht werden.The device can be set up to operate the vehicle, in particular an automated driving function of the vehicle, depending on the updated object state (e.g. to guide the vehicle longitudinally and/or transversely at least partially or completely automatically). In this way, the quality of a driving function can be increased.

Gemäß einem weiteren Aspekt wird ein (Straßen-) Kraftfahrzeug (insbesondere ein Personenkraftwagen oder ein Lastkraftwagen oder ein Bus oder ein Motorrad) beschrieben, das die in diesem Dokument beschriebene Vorrichtung umfasst. According to a further aspect, a (road) motor vehicle (in particular a passenger car or a truck or a bus or a motorcycle) is described which includes the device described in this document.

Gemäß einem weiteren Aspekt wird ein Verfahren zur Aktualisierung des Objektzustands eines Objektes beschrieben, das in einem Umfeld eines Fahrzeugs angeordnet ist. Der Objektzustand kann durch einen (mehrdimensionalen) Zustandsvektor beschrieben werden. Dabei kann der Objektzustand (z.B. als Einzelgrößen des Zustandsvektors) ein oder mehrere Eigenschaften einer Bounding-Box für das Objekt beschreiben.According to a further aspect, a method for updating the object state of an object that is arranged in an environment of a vehicle is described. The object state can be described by a (multidimensional) state vector. The object state (e.g. as individual variables of the state vector) can describe one or more properties of a bounding box for the object.

Das Verfahren umfasst das Zuordnen eines Detektionspunkts eines Umfeldsensors (insbesondere eines abstandsmessenden Umfeldsensors) des Fahrzeugs zu einer Kante der (rechteckförmigen) Bounding-Box. Des Weiteren umfasst das Verfahren das Ermitteln des Abstands des Detektionspunktes von der zugeordneten Kante der Bounding-Box, sowie das Aktualisieren des Objektzustands, insbesondere der ein oder mehreren Eigenschaften der Bounding-Box, auf Basis des ermittelten Abstands.The method includes assigning a detection point of an environment sensor (in particular a distance-measuring environment sensor) of the vehicle to an edge of the (rectangular) bounding box. Furthermore, the method includes determining the distance of the detection point from the associated edge of the bounding box, as well as updating the object state, in particular the one or more properties of the bounding box, based on the determined distance.

Gemäß einem weiteren Aspekt wird ein Software (SW) Programm beschrieben. Das SW Programm kann eingerichtet werden, um auf einem Prozessor (z.B. auf einem Steuergerät eines Fahrzeugs) ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.According to a further aspect, a software (SW) program is described. The SW program can be set up to run on a processor (e.g. on a vehicle control unit) and thereby carry out the method described in this document.

Gemäß einem weiteren Aspekt wird ein Speichermedium beschrieben. Das Speichermedium kann ein SW Programm umfassen, welches eingerichtet ist, um auf einem Prozessor ausgeführt zu werden, und um dadurch das in diesem Dokument beschriebene Verfahren auszuführen.According to a further aspect, a storage medium is described. The storage medium may include a SW program configured to be executed on a processor and thereby carry out the method described in this document.

Es ist zu beachten, dass die in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systeme sowohl alleine als auch in Kombination mit anderen in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen verwendet werden können. Des Weiteren können jegliche Aspekte der in diesem Dokument beschriebenen Verfahren, Vorrichtungen und Systemen in vielfältiger Weise miteinander kombiniert werden. Insbesondere können die Merkmale der Ansprüche in vielfältiger Weise miteinander kombiniert werden. Ferner sind in Klammern aufgeführte Merkmale als optionale Merkmale zu verstehen.It should be noted that the methods, devices and systems described in this document can be used both alone and in combination with other methods, devices and systems described in this document. Furthermore, any aspects of the methods, devices and systems described in this document can be combined with one another in a variety of ways. In particular, the features of the claims can be combined with one another in a variety of ways. Furthermore, features listed in brackets are to be understood as optional features.

Im Weiteren wird die Erfindung anhand von Ausführungsbeispielen näher beschrieben. Dabei zeigen

  • 1 beispielhafte Komponenten eines Fahrzeugs;
  • 2a beispielhafte Detektionspunkte eines Umfeldsensors;
  • 2b eine beispielhafte Nachverfolgung einer Bounding-Box für ein Objekt anhand einer auf Basis der Detektionspunkte ermittelten Objekt-Box;
  • 2c eine beispielhafte Aktualisierung einer Bounding-Box für ein Objekt auf Basis einzelner Detektionspunkte eines Umfeldsensors;
  • 3a eine beispielhafte Aktualisierung der Bounding-Box unter Berücksichtigung von unterschiedlichen Kanten der Bounding-Box;
  • 3b unterschiedliche mathematische Größen, die bei der Aktualisierung der Bounding-Box verwendet werden;
  • 4 eine beispielhafte Unterteilung einer Kante einer Bounding-Box in mehrere Teilintervalle; und
  • 5 ein Ablaufdiagramm eines beispielhaften Verfahrens zum Nachverfolgen eines Objektes im Umfeld eines Fahrzeugs.
The invention is further described in more detail using exemplary embodiments. Show it
  • 1 exemplary components of a vehicle;
  • 2a exemplary detection points of an environmental sensor;
  • 2 B an exemplary tracking of a bounding box for an object based on an object box determined based on the detection points;
  • 2c an exemplary update of a bounding box for an object based on individual detection points of an environment sensor;
  • 3a an example update of the bounding box taking into account different edges of the bounding box;
  • 3b different mathematical quantities used when updating the bounding box;
  • 4 an exemplary subdivision of an edge of a bounding box into several subintervals; and
  • 5 a flowchart of an exemplary method for tracking an object in the vicinity of a vehicle.

Wie eingangs dargelegt, befasst sich das vorliegende Dokument mit der effizienten und präzisen Nachverfolgung von Objekten im Umfeld eines (Kraft-) Fahrzeugs. In diesem Zusammenhang zeigt 1 ein beispielhaftes Fahrzeug 100, das ein oder mehrere Umfeldsensoren 102 aufweist, die jeweils eingerichtet sind, Sensordaten (welche in diesem Dokument auch als Umfelddaten bezeichnet werden) in Bezug auf das Umfeld des Fahrzeugs 100 zu erfassen. Beispielhafte Umfeldsensoren 102 sind ein Radarsensor, ein Lidarsensor, eine Kamera, ein Ultraschallsensor, etc. Ein Umfeldsensor 102 kann insbesondere ein abstandssensierender Umfeldsensor sein, der eingerichtet ist, den Abstand eines Detektionspunktes von dem Umfeldsensor 102 als Sensordaten zu erfassen.As explained at the beginning, this document deals with the efficient and precise tracking of objects in the vicinity of a (motor) vehicle. In this context shows 1 an exemplary vehicle 100 that has one or more environment sensors 102, each of which is set up to collect sensor data (which is also referred to as environment data in this document) relating to the environment of the vehicle 100. Exemplary environment sensors 102 are a radar sensor, a lidar sensor, a camera, an ultrasonic sensor, etc. An environment sensor 102 can in particular be a distance-sensing environment sensor that is set up to record the distance of a detection point from the environment sensor 102 as sensor data.

Die Sensordaten eines Umfeldsensors 102 (insbesondere eines Radarsensors und/oder eines Lidarsensors) können eine Vielzahl von Detektionspunkten umfassen, wobei die einzelnen Detektionspunkte jeweils einem Objekt im Umfeld des Fahrzeugs 100 zugeordnet werden können. Ein Detektionspunkt kann z.B. anzeigen, dass ein von dem Umfeldsensor 102 ausgesendetes Sendesignal an einem Objekt reflektiert wurde, und daher angenommen werden kann, dass an der Position des Detektionspunktes ein Objekt angeordnet ist.The sensor data of an environment sensor 102 (in particular a radar sensor and/or a lidar sensor) can include a large number of detection points, whereby the individual detection points can each be assigned to an object in the area surrounding the vehicle 100. A detection point can, for example, indicate that a transmission signal emitted by the environment sensor 102 was reflected on an object, and it can therefore be assumed that an object is arranged at the position of the detection point.

Eine (Steuer- und/oder Verarbeitungs-) Vorrichtung 101 des Fahrzeugs 100 kann eingerichtet sein, die Sensordaten der ein oder mehreren Umfeldsensoren 102 auszuwerten, um ein Umfeldmodell für das Umfeld des Fahrzeugs 100 zu erstellen, wobei das Umfeldmodell den Objektzustand von ein oder mehreren Umfeld-Objekte anzeigt. Die Vorrichtung 101 kann ferner eingerichtet sein, auf Basis des Umfeldmodells eine Fahrfunktion bereitzustellen, die ausgebildet ist, das Fahrzeug 100 zumindest teilweise automatisiert längs- und/oder querzuführen. In diesem Zusammenhang können ein oder mehrere Längs- und/oder Querführungsaktoren 103 des Fahrzeugs 100 (z.B. ein Antriebsmotor, eine Bremsvorrichtung und/oder eine Lenkvorrichtung) angesteuert werden.A (control and/or processing) device 101 of the vehicle 100 can be set up to evaluate the sensor data of the one or more environment sensors 102 in order to create an environment model for the environment of the vehicle 100, wherein the environment model contains the object state of one or more Displays surrounding objects. The device 101 can further be set up to provide a driving function based on the environment model, which is designed to at least partially automatically guide the vehicle 100 longitudinally and/or transversely. In this context, one or more longitudinal and/or transverse guidance actuators 103 of the vehicle 100 (e.g. a drive motor, a braking device and/or a steering device) can be controlled.

Das Umfeldmodell kann iterativ, auf Basis der jeweils aktuellen Sensordaten der ein oder mehreren Umfeldsensoren 102, aktualisiert werden. Das Umfeldmodell für einen vorhergehenden Zeitpunkt k-1 kann z.B. den Objektzustand für ein Objekt anzeigen. Der Objektzustand kann z.B. die Objekt-Kontur des Objekts anzeigen. Wie beispielhaft in 2a dargestellt, kann die Objekt-Kontur 200 einer (rechteckförmigen) Bounding-Box entsprechen, die das Objekt umschließt. Die Objekt-Kontur 200 kann in diesem Fall durch die Breite 201, durch die Länge 202 und durch die Orientierung 204 der Bounding-Box beschrieben werden. Ferner kann der Objektzustand die Position 203 der Objekt-Kontur 200, insbesondere die Position 203 eines bestimmte Referenzpunktes der Objekt-Kontur 200, umfassen. Der Objektzustand für ein Objekt kann relativ zu dem Koordinatensystem 210 eines Umfeldsensors 102 des Fahrzeugs 100 und/oder relativ zu dem Koordinatensystem 310 des Fahrzeugs 100 (siehe 3b) beschrieben werden.The environment model can be updated iteratively based on the current sensor data from the one or more environment sensors 102. The environment model for a previous point in time k-1 can, for example, display the object state for an object. The object state can, for example, display the object contour of the object. As exemplified in 2a shown, the object contour 200 can correspond to a (rectangular) bounding box that encloses the object. In this case, the object contour 200 can be described by the width 201, by the length 202 and by the orientation 204 of the bounding box. Furthermore, the object state can include the position 203 of the object contour 200, in particular the position 203 of a specific reference point of the object contour 200. The object state for an object can be relative to the coordinate system 210 of an environment sensor 102 of the vehicle 100 and/or relative to the coordinate system 310 of the vehicle 100 (see 3b) to be discribed.

Im Rahmen der Aktualisierung des Umfeldmodells an dem aktuellen Zeitpunkt k kann der Objektzustand eines bereits zuvor detektierten Objekts aktualisiert werden. Die Aktualisierung kann dabei auf Basis einer aktuellen Menge von Detektionspunkten 212 erfolgen, die von zumindest einem Umfeldsensor 102 des Fahrzeugs 100 für den aktuellen Zeitpunkt k erfasst wurden. Ferner kann ein Kalman-Filter verwendet werden, um den Zustand des Objekts zu aktualisieren. Die Aktualisierung des Objektzustands eines (bereits zuvor detektierten) Objekts kann als Objekt-Tracking bezeichnet werden.As part of updating the environment model at the current time k, the object state of a previously detected object can be updated. The update can take place on the basis of a current set of detection points 212, which were detected by at least one environment sensor 102 of the vehicle 100 for the current time k. Furthermore, a Kalman filter can be used to update the state of the object. Updating the object state of a (previously detected) object can be referred to as object tracking.

Das Objekt-Tracking umfasst z.B. die zeitliche Filterung eines Objekts und/oder die Schätzung des (aktuellen) Objektzustandes (z.B. Position 203, Geschwindigkeit, Orientierung 204, Beschleunigung, Drehrate, Länge 202, Breite 201, etc.). Wie bereits oben dargelegt, kann die Objektzustandsschätzung mit einem Kalman-Filter zur rekursiven Schätzung durchgeführt werden. Dabei kann anhand einer Prädiktion des Objektzustands des vorherigen Zeitpunktes k-1 ein geschätzter bzw. prädizierter Objektzustand für den aktuellen Zeitpunkt k ermittelt werden. Zu diesem Zweck kann ein vordefiniertes Bewegungsmodell für das Objekt verwendet werden.Object tracking includes, for example, the temporal filtering of an object and/or the estimation of the (current) object state (e.g. position 203, speed, orientation 204, acceleration, rotation rate, length 202, width 201, etc.). As explained above, object state estimation can be performed using a Kalman filter for recursive estimation. An estimated or predicted object state for the current time k can be determined based on a prediction of the object state of the previous time k-1. For this purpose, a predefined motion model for the object can be used.

Ferner kann ein Messupdate des prädizierten Objektzustands auf Basis der aktuellen Sensordaten (insbesondere auf Basis der aktuellen Menge von Detektionspunkten 212) durchgeführt werden, um den Objektzustand des Objekts an dem aktuellen Zeitpunkt k zu ermitteln.Furthermore, a measurement update of the predicted object state can be carried out based on the current sensor data (in particular based on the current set of detection points 212) in order to determine the object state of the object at the current time k.

Wie in 2a dargestellt kann der Objektzustand eines Objekts mit einer Bounding-Box Repräsentation beschrieben und/oder geschätzt werden. Auf Basis der Bounding-Box 200 des Objekts für den vorhergehenden Zeitpunkt k-1 kann anhand eines Bewegungs-Modells eine prädizierte Bounding-Box 200 für den aktuellen Zeitpunkt k ermittelt werden.As in 2a shown, the object state of an object can be described and/or estimated with a bounding box representation. Based on the bounding box 200 of the object for the previous time k-1, a predicted bounding box 200 for the current time k can be determined using a motion model.

Die Sensordaten, insbesondere die Detektionspunkte 212, können, wie beispielhaft in 2b dargestellt, zu einer Objekt-Box 220 abstrahiert und für das Messupdate des Objektzustands des Objekts, insbesondere der prädizierten Bounding-Box 200, verwendet werden. Diese Abstraktion vereinfacht üblicherweise das Objekt-Tracking, da die Sensordaten auf eine besonders relevante Information reduziert werden, was die Bandbreite der zu übertragenden Daten, sowie die Komplexität und den Rechenbedarf des Messupdates des gefilterten Objektzustands reduziert, da das Messupdate direkt in der vorliegenden Objektzustandsdarstellung des Objekt-Tracks (d.h. der Bounding-Box 200) erfolgen kann. Beispielsweise können so die Position 203 und/oder die Orientierung 204 aus dem prädizierten Objektzustand des Objekts direkt mit der Position und/oder der Orientierung der auf Basis der Sensordaten ermittelten Objekt-Box 220 aktualisiert werden.The sensor data, in particular the detection points 212, can, as exemplified in 2 B represented, abstracted into an object box 220 and used for the measurement update of the object state of the object, in particular the predicted bounding box 200. This abstraction usually simplifies object tracking, as the sensor data is reduced to particularly relevant information, which reduces the bandwidth of the data to be transmitted, as well as the complexity and computational requirements of the measurement update of the filtered object state, since the measurement update is directly in the existing object state representation of the Object tracks (ie the bounding box 200) can be done. For example, the position 203 and/or the orientation 204 from the predicted object state of the object can be updated directly with the position and/or the orientation of the object box 220 determined on the basis of the sensor data.

Eine beispielhafte Objekt-Box 220, die auf Basis der Menge von Detektionspunkten 212 eines Umfeldsensors 102 erstellt wurde, ist in 2b dargestellt.An exemplary object box 220, which was created based on the set of detection points 212 of an environment sensor 102, is shown in 2 B shown.

Die Abstraktion der Sensordaten zu einer Objekt-Box 220 ist typischerweise zielführend, wenn die Detektionspunkte 212 zuverlässig und mit einer relativ hohen Genauigkeit zu einer Bounding-Box Repräsentation abstrahiert werden können und dabei keine wesentliche Messinformation verloren geht. Allerdings kann die Abstraktion fehleranfällig sein, und zu einer relativ ungenauen Approximation und somit zu einem signifikanten Informationsverlust der Sensordaten führen, wodurch das Messupdate des Objekt-Trackings und somit die Objektzustandsschätzung eines Objekts fehleranfällig wird. Insbesondere kann aus einer abstrahierten Objekt-Box 220 mit einer ungenauen oder falsch gewählten Orientierung und/oder Position nicht mehr rückwirkend auf die zugrundeliegende tatsächliche Messinformation der einzelnen Detektionspunkte 212 zurückgeschlossen werden. Ferner kann typischerweise keine zuverlässige Bestimmung der Unsicherheiten der einzelnen Zustandsgrößen der Objekt-Box 220 (insbesondere der Kovarianzmatrix für die einzelnen Zustandsgrößen) auf Basis der Menge von Detektionspunkten 212 erfolgen.The abstraction of the sensor data into an object box 220 is typically effective if the detection points 212 can be abstracted reliably and with a relatively high level of accuracy into a bounding box representation and no essential measurement information is lost. However, the abstraction can be error-prone and lead to a relatively inaccurate approximation and thus to a significant loss of information in the sensor data, which makes the measurement update of the object tracking and thus the object state estimate of an object error-prone. In particular, an abstracted object box 220 with an inaccurate or incorrectly selected orientation and/or position can no longer be used to draw retroactive conclusions about the underlying actual measurement information of the individual detection points 212. Furthermore, the uncertainties of the individual state variables of the object box 220 (in particular the covariance matrix for the individual state variables) cannot typically be reliably determined based on the set of detection points 212.

Alternativ oder ergänzend zu einem Messupdate des Objektzustandes basierend auf einer abstrahierten Objekt-Box 220 für die Menge von Detektionspunkten 212, kann ein Messupdate direkt auf Basis der zugrundeliegenden Menge von Detektionspunkten 212 erfolgen, d.h. im Zustandsraum der Detektionspunkte 212, ohne dass dafür eine Box-Abstraktion der Menge von Detektionspunkten 212 erfolgt. Als Folge daraus können die Fehleranfälligkeit und der Informationsverlust der Sensordatenabstraktion vermieden werden.Alternatively or in addition to a measurement update of the object state based on an abstracted object box 220 for the set of detection points 212, a measurement update can take place directly based on the underlying set of detection points 212, i.e. in the state space of the detection points 212, without the need for a box. Abstraction of the set of detection points 212 takes place. As a result, the error-proneness and information loss of sensor data abstraction can be avoided.

Die direkte Verwendung von Detektionspunkten 212 zur Durchführung eines Messupdates ist beispielhaft in 2c dargestellt. In diesem Zusammenhang kann ein Abschnitt 205, insbesondere eine Kante, der Objekt-Kontur 200 (insbesondere der Bounding-Box) betrachtet werden. Es kann dann der Abstand 215 eines Detektionspunktes 212 von dem Abschnitt 205 der Objekt-Kontur 200 ermittelt werden. Dabei kann es sich um den Lot-Abstand und/oder um den orthogonalen Abstand des Detektionspunktes 212 senkrecht zu dem Abschnitt 205 der Objekt-Kontur 200 handeln. Dieser Abstand 215 kann für ein Messupdate des Objektzustands verwendet werden.The direct use of detection points 212 to carry out a measurement update is exemplified in 2c shown. In this context, a section 205, in particular an edge, the object contour 200 (in particular the bounding box) can be considered. The distance 215 of a detection point 212 from the section 205 of the object contour 200 can then be determined. This can be the perpendicular distance and/or the orthogonal distance of the detection point 212 perpendicular to the section 205 of the object contour 200. This distance 215 can be used for a measurement update of the object state.

Die Detektionspunkte 212 von ein oder mehreren Umfeldsensoren 102 können somit direkt für das Messupdate eines (ggf. Multi-Sensor) Objekt-Trackings verwendet werden, ohne die Detektionspunkte 212 zuvor in den Zustandsraum des Objekt-Tracks überführen zu müssen (z.B. durch Durchführung einer Objekt-Box Abstraktion). Stattdessen kann der Objektzustand des Objekt-Tracks auf den Messraum der einzelnen Detektionspunkte 212 oder einer davon abhängen Abbildung projiziert werden. Somit kann der Einfluss der einzelnen Detektionspunkte 212 auf das Messupdate direkt definiert werden und es kann der Informationsverlust einer Objekt-Box-Abstraktion der Sensordaten vermieden werden. Diese Vorgehensweise erhöht die Robustheit des Objekt-Trackings, insbesondere für einen Umfeldsensor 102 mit einer relativ hohen Messunsicherheit bzw. mit einem relativ starken Rauschen und/oder mit relativ vielen Fehl- bzw. Falschdetektionen („Clutter“).The detection points 212 of one or more environmental sensors 102 can thus be used directly for the measurement update of a (possibly multi-sensor) object tracking, without having to first transfer the detection points 212 into the state space of the object track (e.g. by carrying out an object -Box abstraction). Instead, the object state of the object track can be projected onto the measurement space of the individual detection points 212 or an image dependent thereon. The influence of the individual detection points 212 on the measurement update can thus be defined directly and the loss of information resulting from an object box abstraction of the sensor data can be avoided. This procedure increases the robustness of the object tracking, in particular for an environment sensor 102 with a relatively high measurement uncertainty or with a relatively strong noise and / or with a relatively large number of incorrect or false detections (“clutter”).

Der in diesem Dokument beschriebene Messupdate des prädizierten Objektzustands auf Basis von einzelnen Detektionspunkten 212 kann in besonders vorteilhafter Weise angewendet werden, wenn eine Teilverdeckung eines Objektes und/oder wenn Mehrfachreflexionen vorliegen.The measurement update of the predicted object state based on individual detection points 212 described in this document can be used in a particularly advantageous manner when there is partial obscuration of an object and/or when there are multiple reflections.

Die in diesem Dokument beschriebenen Maßnahmen können für alle Umfeldsensoren 102 mit gemessenen Detektionspunkten 212 (d.h. insbesondere für abstandsmessende Umfeldsensoren) verwendet werden, etwa Radar- und Lidar-Sensoren. Die beschriebenen Maßnahmen sind jedoch besonders vorteilhaft in Zusammenhang mit einem Radarsensor, der eine relativ niedrige Messauflösung und/oder ein relativ hohes Messrauschen aufweist (im Vergleich zu einem Lidarsensor).The measures described in this document can be used for all environment sensors 102 with measured detection points 212 (i.e. in particular for distance-measuring environment sensors), such as radar and lidar sensors. However, the measures described are particularly advantageous in connection with a radar sensor that has a relatively low measurement resolution and/or a relatively high measurement noise (compared to a lidar sensor).

Darüber hinaus enthalten die Messdaten eines Radarsensors üblicherweise für jeden einzelnen Detektionspunkt 121 eine radiale Doppler-Geschwindigkeitsmessung, welche im Rahmen des direkten Detektions-Messupdates verwendet werden kann. Durch diese zusätzliche direkte Integration der Doppler-Geschwindigkeitsinformation können die Genauigkeit und die Robustheit des Objekt-Trackings weiter erhöht werden.In addition, the measurement data of a radar sensor usually contains a radial Doppler velocity measurement for each individual detection point 121, which can be used as part of the direct detection measurement update. This additional direct integration of Doppler velocity information can further increase the accuracy and robustness of object tracking.

Das beschriebene Objekt-Tracking kann auf Basis eines einzelnen Umfeldsensors 102 und/oder auf Basis eines Multi-Sensor-Objektfusionsansatzes verwendet werden. Dabei können Messdaten weiterer Radar-, Lidar- und/oder Kamerasensoren verwendet werden, um einen prädizierten Objekt-Track durch das in diesem Dokument beschriebene Messupdate zu aktualisieren.The object tracking described can be used based on a single environmental sensor 102 and/or based on a multi-sensor object fusion approach. Measurement data from other radar, lidar and/or camera sensors can be used to update a predicted object track with the measurement update described in this document.

Ferner kann das beschriebene Objekt-Tracking (d.h. die beschriebene Objekt-Nachverfolgung) mit einer Abstraktion der Messdaten zu einer Objekt-Box 220 kombiniert werden, insbesondere wenn eine solche Objekt-Box 220 der Messdaten bereits von einem Umfeldsensor 102 bereitgestellt wird. Das beschriebene Objekt-Tracking auf Basis der einzelnen Detektionspunkte 212 kann dann selektiv für ein oder mehrere ausgewählte Objekte durchgeführt werden (z.B. für ein oder mehrere kritische Objekte). Für die ein oder mehreren anderen Objekte kann dann ein Messupdate auf Basis der jeweiligen Objekt-Box 220 durchgeführt werden.Furthermore, the described object tracking (i.e. the described object tracking) can be combined with an abstraction of the measurement data to form an object box 220, in particular if such an object box 220 of the measurement data is already provided by an environmental sensor 102. The described object tracking based on the individual detection points 212 can then be carried out selectively for one or more selected objects (e.g. for one or more critical objects). A measurement update based on the respective object box 220 can then be carried out for the one or more other objects.

An einem vorhergehenden Zeitpunkt k-1 liegt bereits ein Objekt-Track mit einem Objektzustand vor. Der Objektzustand kann (unter Verwendung eines Bewegungs-Modells) auf den aktuellen Zeitpunkt k prädiziert worden sein. Es kann dann ein Messupdate des prädizierten Objektzustands auf Basis einer Menge von Detektionspunkten 212 durchgeführt werden. Dabei kann die Menge von Detektionspunkten 212 zuvor dem Objekt-Track zugeordnet worden sein. Dies kann z.B. durch Distanz-Gating im kartesischen oder polaren Raum erfolgen, ggf. unter Berücksichtigung der Doppler-Geschwindigkeiten (z.B. Gating mit einem „Velocity-Profile“).At a previous point in time k-1 there is already an object track with an object state. The object state may have been predicted (using a motion model) to the current time k. A measurement update of the predicted object state can then be carried out based on a set of detection points 212. The set of detection points 212 may have previously been assigned to the object track. This can be done, for example, by distance gating in Cartesian or polar space, if necessary taking Doppler velocities into account (e.g. gating with a “velocity profile”).

Die mit einem Objekt-Track (z.B. mit einer Bounding-Box 200) assoziierten Detektionspunkte 212 können, wie beispielhaft in 3a dargestellt, jeweils einer der vier Box-Kanten 205 der (prädizierten) Bounding-Box 200 zugeordnet werden (z.B. linke/rechte/vordere/hintere Kante 205). Dabei kann die Auswahl möglicher Kanten 205 auf die aktuell im Sensorerfassungsbereich sichtbaren Kanten 205 eingeschränkt werden. Ferner werden bevorzugt nur Detektionspunkte 212 berücksichtigt, die eine Kante des Objekts repräsentieren (d.h. nur Detektionspunkte 212, die nicht mitten in einem Objekt, bzw. in der Bounding Box 200 des Objekts, liegen wie beispielsweise Untergrundreflexionen).The detection points 212 associated with an object track (eg with a bounding box 200) can, as exemplified in 3a shown, one of the four box edges 205 of the (predicated) bounding box 200 are assigned (eg left/right/front/rear edge 205). The selection of possible edges 205 can be restricted to the edges 205 currently visible in the sensor detection area. Furthermore, only detection points 212 that represent an edge of the object are preferably taken into account (ie only detection points 212 that are not in the middle of an object or in the bounding box 200 of the object, such as background reflections).

Wie beispielhaft in 3a dargestellt, können zu einem Zeitpunkt k ein Teil der Detektionspunkte 212 der hinteren oder der vorderen Kante 205 und ein anderer Teil der Detektionspunkte 212 der linken oder der rechten Kante desselben Objekt-Tracks, d.h. derselben Bounding-Box 200, zugeordnet sein (was einer typischen „L-Shape“ Sichtbarkeit eines Objektes entspricht). Ggf. kann nur eine einzelne seitliche Kante 205 (links oder rechts) oder nur eine einzelne vordere/hintere Kante 205 sichtbar sein (was einer typischen „I-Shape“ Sichtbarkeit eines Objektes entspricht).As exemplified in 3a shown, at a time k a part of the detection points 212 can be assigned to the rear or front edge 205 and another part of the detection points 212 to the left or right edge of the same object track, ie the same bounding box 200 (which is a typical “L-Shape” corresponds to visibility of an object). If necessary, only a single side edge 205 (left or right) or only a single front/back edge 205 may be visible (which corresponds to a typical “I-shape” visibility of an object).

Im Folgenden wird zur Vereinfachung nur die rechte Kante 205 eines Objekt-Tracks, d.h. einer Bounding-Box 200, als sichtbare Kante betrachtet. Der beschriebene Ansatz kann aber direkt auf ein oder mehrere weiteren Kanten 205 der Bounding-Box 200 übertragen werden. Zu diesem Zweck können auf Basis der Länge 202 und/oder der Breite 201 der Bounding-Box 200 angepasste Differenz- bzw. Offset-Werte ermittelt werden.In the following, for the sake of simplicity, only the right edge 205 of an object track, i.e. a bounding box 200, is considered a visible edge. However, the approach described can be transferred directly to one or more additional edges 205 of the bounding box 200. For this purpose, adjusted difference or offset values can be determined based on the length 202 and/or the width 201 of the bounding box 200.

Ferner wird zur Vereinfachung nur ein einzelner Detektionspunkt 212 betrachtet. Das Messupdate kann in entsprechender Weise für mehrere, insbesondere für alle, Detektionspunkte 212 durchgeführt werden (z.B. sequentiell und/oder hintereinander oder durch Verwendung eines entsprechend dimensionierten Messupdate-Vektors). Es kann somit ein mehrdimensionales Messupdate aller berücksichtigten Detektionspunkte 212 dieses Objekt-Tracks durchgeführt werden, um eine gesamtheitliche Optimierung unter Berücksichtigung aller Messdaten zu erreichen.Furthermore, for simplicity, only a single detection point 212 is considered. The measurement update can be carried out in a corresponding manner for several, in particular for all, detection points 212 (e.g. sequentially and/or one behind the other or by using an appropriately dimensioned measurement update vector). A multi-dimensional measurement update of all detection points 212 of this object track taken into account can therefore be carried out in order to achieve a holistic optimization taking all measurement data into account.

Für das Messupdate unter Verwendung eines Detektionspunktes 212 kann der orthogonale Abstand d 215 zwischen dem Detektionspunkt 212 und der Kante 205 des zugeordneten Objekt-Tracks, d.h. der (prädizierten) Bounding-Box 200, verwendet werden. Die Wahl des orthogonalen Abstands 215 bewirkt, dass für das Messupdate ein ressourceneffizienter ein-dimensionaler Pseudo-Messraum verwendet wird. Ferner wird so das Messupdate auf eine Korrektur des Objekt-Tracks parallel zu der Kante 205 beschränkt. Es erfolgt somit, wie beispielhaft in 3a dargestellt, nur eine seitliche Korrektur und/oder Verschiebung des Objekt-Tracks, wohingegen eine längliche Korrektur (hinsichtlich des Mittelwerts und/oder der Kovarianzmatrix) bewusst verhindert wird, da der zur seitlichen Kante 205 zugeordnete Detektionspunkt 212 keinen direkten Informationsgehalt in Bezug auf die Objekt-Position in Längsrichtung beinhaltet. In entsprechender Weise kann bei einem Detektionspunkt 212, der zur vorderen oder hinteren Kante 205 zugeordnet wurde, nur ein Messupdate entlang der Längs-Bewegungsrichtung des Objekt-Tracks durchgeführt werden, wenn das Messupdate auf Basis des orthogonalen Abstands 215 erfolgt.For the measurement update using a detection point 212, the orthogonal distance d 215 between the detection point 212 and the edge 205 of the assigned object track, ie the (predicted) bounding box 200, can be used. The choice of the orthogonal distance 215 causes a resource-efficient one-dimensional pseudo measurement space to be used for the measurement update. Furthermore, the measurement update is limited to a correction of the object track parallel to the edge 205. This is done, as exemplified in 3a shown, only a lateral correction and / or displacement of the object track, whereas an elongated correction (with regard to the mean value and / or the covariance matrix) is deliberately prevented, since the detection point 212 assigned to the lateral edge 205 has no direct information content in relation to the object -Longitudinal position included. In a corresponding manner, for a detection point 212 that has been assigned to the front or rear edge 205, only one measurement update can be carried out along the longitudinal direction of movement of the object track if the measurement update is based on the orthogonal distance 215.

Die Kalman-Filter Innovation (d.h. die Differenz zwischen Prädiktion und Messung) kann direkt dem orthogonalen Abstand d 215 entsprechen, da der zu erwartende bzw. prädizierte Detektionspunkt direkt auf der Kante 205 des (prädizierten) Objekt-Tracks (d.h. das prädizierten Bounding-Box 200) liegt. Für das Innovations- bzw. das Messupdate der Kovarianzmatrix kann die Projektion des Objektzustandes (z.B. die Projektion der approximierten Position (xτ, yτ) der Mitte der Hinterachse des Objekts) auf den Messraum bestimmt werden. Dies wird in diesem Dokument durch die Funktion hd,τ beschrieben.The Kalman filter innovation (i.e. the difference between prediction and measurement) can correspond directly to the orthogonal distance d 215, since the expected or predicted detection point is directly on the edge 205 of the (predicted) object track (i.e. the predicted bounding box 200). For the innovation or measurement update of the covariance matrix, the projection of the object state (e.g. the projection of the approximate position (x τ , y τ ) of the center of the rear axle of the object) onto the measurement space can be determined. This is described in this document by the function h d,τ .

Aufgrund der nichtlinearen Projektion hd,τ des Objektzustands auf den Pseudo-Messraum wird bevorzugt ein Extended-Kalman-Filter (EKF) verwendet und es werden entsprechend die Jakobi-Matrizen Jd,τ mit den partiellen Ableitungen der Projektionen bestimmt. Alternativ kann ein Unscented-Kalman-Filter (UKF) mit einer Sigma-Punkt-Projektion verwendet werden.Due to the nonlinear projection h d,τ of the object state onto the pseudo measurement space, an extended Kalman filter (EKF) is preferably used and the Jakobi matrices J d,τ with the partial derivatives of the projections are determined accordingly. Alternatively, an unscented Kalman filter (UKF) with a sigma point projection can be used.

Die in Tabelle 1 bereitgestellten Formeln basieren auf einem Messupdate mit einer Detektion, die der rechten Kante 205 der (prädizierten) Bounding-Box 200 zugeordnet wurde (Δw = -0.5 wτ), wobei wτ die Breite 201 aus dem prädizierten Objektzustand ist. Entsprechend kann dies auf die linke Kante 205 der Bounding-Box 200, mit Δw = +0.5wτ übertragen werden. Äquivalent kann ein Messupdate in Längsrichtung erfolgen unter entsprechender Berücksichtigung der LängsVerschiebung (hinten: Δl = -0.25lτ, vorne: Δl = +0.75lτ), wobei lτ der Länge 202 aus dem prädizierten Objektzustand entspricht. Dabei wird angenommen, dass die Position (xτ, yτ) des Objekts einem Punkt innerhalb der Bounding-Box 200 entspricht, der wie in 3b dargestellt angeordnet ist. Die unterschiedlichen Variablen in Tabelle 1 sind aus 3b zu entnehmen. Tabelle 1 Pose des Umfeldsensors 102 im Koordinatensystem 310 des Fahrzeugs 100 ( x s , y s , ϑ s )

Figure DE102022124192A1_0001
Detektionspunkt 212 im Polarraum (Range rZ, Azimuth-Winkel ϑz) der Koordinatensystem 210 des Umfeldsensors 102 z = ( r z , ϑ z )
Figure DE102022124192A1_0002
Detektionspunkt 212 im kartesischen Koordinatensystem 310 des Fahrzeugs 100; Dynamischer Zustandsvektor des Objekt-Tracks τ: θ z = ϑ z + ϑ s
Figure DE102022124192A1_0003
x z = x s + r z cos ( θ z )
Figure DE102022124192A1_0004
y z = y s + r z sin ( θ z )
Figure DE102022124192A1_0005
2D-Position, Geschwindigkeit, Beschleunigung, Orientierung, Drehrate (Objekt-Zustandsvektor bezogen auf die Objekt-Position 203 als angenommener Mittelpunkt-Hinterachse) s τ = [ x τ , y τ , v τ , a τ , φ τ , ω τ ]
Figure DE102022124192A1_0006
Geometrie der Bounding Box 200 des Objekt-Tracks τ, Länge lτ, Breite wτ [ l τ , w τ ]
Figure DE102022124192A1_0007
Positionsdifferenz zwischen dem Detektionspunkt 212 und der Position 203 des Objekt-Tracks im kartesischen Koordinatensystem 310 des Fahrzeugs 100 Δ x = x τ x z
Figure DE102022124192A1_0008
Δ y = y τ y z
Figure DE102022124192A1_0009
orthogonale Distanz d (für rechte Kante, mit Δw = -0.5 wτ), sowie Jacobi-Matrix für das Kovarianzupdate h d , z = d = ( Δ x sin ( φ τ ) + Δ y cos ( φ τ ) + Δ w ) = ( Δ x sin ( φ τ ) Δ y cos ( φ τ ) Δ w ) = ( ( x τ ( x s + r z cos ( θ z ) ) sin ( φ τ ) ( y τ ( y s + r z sin ( θ z ) ) cos ( φ τ ) + Δ w )
Figure DE102022124192A1_0010
J d , z = [ h d , z r z   h d , z ϑ z ] = [ cos ( ϑ z ) sin ( φ τ ) + sin ( ϑ z ) cos ( φ τ ) r z ( sin ( ϑ z ) sin ( φ τ ) + cos ( ϑ z ) cos ( φ τ ) ) ]
Figure DE102022124192A1_0011
Erwartete / prädizierte orth. Distanz (Erwartung ist hd,τ = 0 direkt an der Kante der Bounding-Box für den Erwartungswert) sowie Jacobi-Matrix für das Kovarianzupdate x ^ = x z + d  sin ( φ τ ) y ^ = y z d  cos ( φ τ )
Figure DE102022124192A1_0012
h d , τ = ( x τ x ^ ) sin ( φ τ ) + ( y τ y ^ ) cos ( φ τ ) ± Δ w 0
Figure DE102022124192A1_0013
J d , τ = [ h d , τ x τ h d , τ y τ h d , τ v τ h d , τ a τ h d , τ φ τ h d , τ ω τ ]   = [ sin ( φ τ ) cos ( φ τ ) 0 0 ( x τ x ^ ) cos ( φ τ ) ( y τ y ^ ) sin ( φ τ ) 0 ]
Figure DE102022124192A1_0014
The formulas provided in Table 1 are based on a measurement update with a detection assigned to the right edge 205 of the (predicted) bounding box 200 (Δw = -0.5 w τ ), where w τ is the width 201 from the predicted object state. Accordingly, this can be transferred to the left edge 205 of the bounding box 200, with Δw = +0.5w τ . Equivalently, a measurement update can be carried out in the longitudinal direction, taking into account the longitudinal displacement (rear: Δl = -0.25l τ , front: Δl = +0.75l τ ), where l τ corresponds to the length 202 from the predicted object state. It is assumed that the position (x τ , y τ ) of the object corresponds to a point within the bounding box 200, which is as in 3b is arranged as shown. The different variables in Table 1 are off 3b refer to. Table 1 Pose of the environment sensor 102 in the coordinate system 310 of the vehicle 100 ( x s , y s , ϑ s )
Figure DE102022124192A1_0001
Detection point 212 in polar space (range r Z , azimuth angle ϑ z ) of the coordinate system 210 of the environment sensor 102 e.g = ( r e.g , ϑ e.g )
Figure DE102022124192A1_0002
Detection point 212 in the Cartesian coordinate system 310 of the vehicle 100; Dynamic state vector of the object track τ: θ e.g = ϑ e.g + ϑ s
Figure DE102022124192A1_0003
x e.g = x s + r e.g cos ( θ e.g )
Figure DE102022124192A1_0004
y e.g = y s + r e.g sin ( θ e.g )
Figure DE102022124192A1_0005
2D position, speed, acceleration, orientation, rotation rate (object state vector related to the object position 203 as the assumed center point rear axis) s τ = [ x τ , y τ , v τ , a τ , φ τ , ω τ ]
Figure DE102022124192A1_0006
Geometry of the bounding box 200 of the object track τ, length l τ , width w τ [ l τ , w τ ]
Figure DE102022124192A1_0007
Position difference between the detection point 212 and the position 203 of the object track in the Cartesian coordinate system 310 of the vehicle 100 Δ x = x τ x e.g
Figure DE102022124192A1_0008
Δ y = y τ y e.g
Figure DE102022124192A1_0009
orthogonal distance d (for right edge, with Δw = -0.5 w τ ), and Jacobian matrix for the covariance update H d , e.g = d = ( Δ x sin ( φ τ ) + Δ y cos ( φ τ ) + Δ w ) = ( Δ x sin ( φ τ ) Δ y cos ( φ τ ) Δ w ) = ( ( x τ ( x s + r e.g cos ( θ e.g ) ) sin ( φ τ ) ( y τ ( y s + r e.g sin ( θ e.g ) ) cos ( φ τ ) + Δ w )
Figure DE102022124192A1_0010
J d , e.g = [ H d , e.g r e.g H d , e.g ϑ e.g ] = [ cos ( ϑ e.g ) sin ( φ τ ) + sin ( ϑ e.g ) cos ( φ τ ) r e.g ( sin ( ϑ e.g ) sin ( φ τ ) + cos ( ϑ e.g ) cos ( φ τ ) ) ]
Figure DE102022124192A1_0011
Expected / predicted orth. distance (expectation is h d,τ = 0 directly on the edge of the bounding box for the expected value) and Jacobi matrix for the covariance update x ^ = x e.g + d sin ( φ τ ) y ^ = y e.g d cos ( φ τ )
Figure DE102022124192A1_0012
H d , τ = ( x τ x ^ ) sin ( φ τ ) + ( y τ y ^ ) cos ( φ τ ) ± Δ w 0
Figure DE102022124192A1_0013
J d , τ = [ H d , τ x τ H d , τ y τ H d , τ v τ H d , τ a τ H d , τ φ τ H d , τ ω τ ] = [ sin ( φ τ ) cos ( φ τ ) 0 0 ( x τ x ^ ) cos ( φ τ ) ( y τ y ^ ) sin ( φ τ ) 0 ]
Figure DE102022124192A1_0014

Es kann somit der Objektzustand sτ eines Objekt-Tracks an einem vorhergehenden Zeitpunkt k-1 betrachtet werden. In einem Prädiktionsschritt des Kalman-Filters kann basierend darauf ein prädizierter Objektzustand ŝτ,k|k-1 ermittelt werden (unter Verwendung eines Bewegungs-Modells für das Objekt und/oder für das Fahrzeugs 100). Der aktualisierte Objektzustand an dem aktuellen Zeitpunkt k kann dann durch das in diesem Dokument beschriebene Messupdate ermittelt werden.The object state s τ of an object track at a previous point in time k-1 can therefore be considered. In a prediction step of the Kalman filter, a predicted object state ŝ τ,k|k-1 can be determined based on this (using a motion model for the object and/or for the vehicle 100). The updated object state at the current time k can then be determined using the measurement update described in this document.

Die verfügbare Innovation an dem Zeitpunkt k ist der (orthogonale) Abstand d. Die in Tabelle 1 beschriebenen Jacobi-Matrizen können dazu verwendet werden, die Kalman-Verstärkung Kk zu ermitteln, mit der die Innovation zu multiplizieren ist, um auf Basis der Innovation den prädizierten Objektzustand ŝτ,k|k-1 zu aktualisieren, und um so den Objektzustand ŝτ,k|k am aktuellen Zeitpunkt k zu ermitteln, z.B. gemäß s ^ τ , k | k = s ^ τ , k | k 1 + K k d

Figure DE102022124192A1_0015
Die Kalman-Verstärkung Kk weist dabei die gleiche Dimension auf, wie der Zustandsvektor (wenn als Innovation die skalare Größe d verwendet wird). Bei Verwendung eines Innovationsvektors mit mehreren Abständen 215 für mehrere Detektionspunkte 212 kann als Kalman-Verstärkung Kk eine Matrix ermittelt werden, sodass sich aus dem Produkt von Kalman-Verstärkung Kk und Innovationsvektor ein Vektor ergibt, der die gleiche Dimension aufweist wie der Zustandsvektor.The available innovation at time k is the (orthogonal) distance d. The Jacobian matrices described in Table 1 can be used to determine the Kalman gain K k by which the innovation is to be multiplied in order to update the predicted object state ŝ τ,k|k-1 based on the innovation, and in order to determine the object state ŝ τ,k|k at the current time k, for example according to s ^ τ , k | k = s ^ τ , k | k 1 + K k d
Figure DE102022124192A1_0015
The Kalman gain K k has the same dimension as the state vector (if the scalar size d is used as an innovation). When using an innovation vector with multiple distances 215 for multiple detection points 212, a matrix can be determined as the Kalman gain K k , so that the product of the Kalman gain K k and the innovation vector results in a vector that has the same dimension as the state vector.

Alternativ oder ergänzend zu der Position eines einzelnen Detektionspunktes 212 kann bei einem Radarsensor die vorliegende Doppler-Geschwindigkeitsmessung direkt in das Messupdate integriert werden. Hierzu kann die prädizierte radiale Geschwindigkeitskomponente hv,τ (aus dem prädizierten Objektzustand) gegeben dem Azimuthwinkel θz der Messung bestimmt werden.Alternatively or in addition to the position of an individual detection point 212, in the case of a radar sensor, the existing Doppler velocity measurement can be integrated directly into the measurement update. For this purpose, the predicted radial velocity component h v,τ (from the predicted object state) can be determined given the azimuth angle θ z of the measurement.

Die Innovation des Messupdates ergibt sich als Differenz aus der gemessenen Absolut-Radialgeschwindigkeit (des Radarsensors 102) und der erwarteten Absolut-Radialgeschwindigkeit (aus dem prädizierten Objektzustand). Hierbei ergibt sich die gemessene Absolut-Radialgeschwindigkeit aus der ursprünglich gemessenen Relativ-Radialgeschwindigkeit unter Berücksichtigung der Kompensation der Eigen- bzw. Sensorgeschwindigkeit des Fahrzeugs 100.The innovation of the measurement update results from the difference between the measured absolute radial velocity (of the radar sensor 102) and the expected absolute radial velocity (from the predicted object state). Here, the measured absolute radial speed results from the originally measured relative radial speed, taking into account the compensation of the vehicle's own or sensor speed 100.

Es kann somit auch auf Basis der gemessenen Radialgeschwindigkeit eines Detektionspunktes 212 und der entsprechenden Komponente hv,τ der prädizierten Geschwindigkeit aus dem prädizierten Objektzustand ein Messupdate des Objektzustands bewirkt werden. Tabelle 2 Erwartete Doppler-Geschwindigkeit des Tracks gegeben Azimuthwinkel θz h v , τ = v τ  cos ( θ z φ τ ) + ω τ ( ( x s x τ ) sin ( θ z ) ( y s y τ ) cos ( θ z ) )

Figure DE102022124192A1_0016
J d , τ = [ h v , τ x τ h v , τ y τ h v , τ v τ h v , τ a τ h v , τ φ τ h v , τ ω τ ] = [ ω τ sin ( θ z ) ω τ cos ( θ z ) cos ( θ z φ τ ) 0 v τ sin ( θ z φ τ ) ( x s x τ ) sin ( θ z ) ( y s y τ ) cos ( θ z ) ]
Figure DE102022124192A1_0017
A measurement update of the object state can therefore also be effected based on the measured radial velocity of a detection point 212 and the corresponding component h v,τ of the predicted velocity from the predicted object state. Table 2 Expected Doppler velocity of the track given azimuth angle θ z H v , τ = v τ cos ( θ e.g φ τ ) + ω τ ( ( x s x τ ) sin ( θ e.g ) ( y s y τ ) cos ( θ e.g ) )
Figure DE102022124192A1_0016
J d , τ = [ H v , τ x τ H v , τ y τ H v , τ v τ H v , τ a τ H v , τ φ τ H v , τ ω τ ] = [ ω τ sin ( θ e.g ) ω τ cos ( θ e.g ) cos ( θ e.g φ τ ) 0 v τ sin ( θ e.g φ τ ) ( x s x τ ) sin ( θ e.g ) ( y s y τ ) cos ( θ e.g ) ]
Figure DE102022124192A1_0017

Ggf. kann zur Reduktion des Rechenaufwands eine Vorauswahl von Detektionspunkten 212 vorgenommen werden.If necessary, a preselection of detection points 212 can be carried out to reduce the computing effort.

Der in diesem Dokument beschriebene Ansatz basiert auf einer bereits vorliegenden Assoziation der Detektionspunkt 212 mit einem prädizierten Objekt-Track und der jeweiligen, sichtbaren Box-Kante 205. Dabei können alle Detektionspunkte 212 zu einem Messupdate kombiniert werden, um eine gesamtheitliche Optimierung der Track-Zustandsschätzung zu erzielen. Für jeden Detektionspunkt 212 kann hierbei ein ein- oder zweidimensionales-Messupdate erfolgen, z.B. durch die Kombination von Positionsupdate und Doppler-Geschwindigkeitsupdate. Bei N Detektionspunkten 212 ergibt sich somit ein Messupdate-Vektor von 2N, mit entsprechender quadrierter Matrix-Dimension (2N)2. Dies kann insbesondere bei relativ langgestreckten Objekten im Nahbereich (z.B. LKW im Seitenbereich) zu einer relativ hohen Anzahl N von Detektionspunkten 212 und somit zu einem relativ hohen Rechenbedarf führen.The approach described in this document is based on an existing association of the detection point 212 with a predicted object track and the respective visible box edge 205. All detection points 212 can be combined into a measurement update in order to achieve a holistic optimization of the track state estimation to achieve. For each detection point 212, a one- or two-dimensional measurement update can be carried out, for example by combining a position update and a Doppler velocity update. With N detection points 212, this results in a measurement update vector of 2N, with a corresponding squared matrix dimension (2N) 2 . This can lead to a relatively high number N of detection points 212 and thus to a relatively high computing requirement, particularly in the case of relatively elongated objects in the close range (e.g. trucks in the side area).

Um den Rechenbedarf zu verringern, kann die Maximalanzahl der zu berücksichtigenden Detektionspunkte 212 limitiert werden. Alternativ oder ergänzend können sequentiell mehrere Messupdates, jeweils mit einer Teilmenge der Detektionspunkte 212 durchgeführt werden.In order to reduce the calculation requirement, the maximum number of detection points 212 to be taken into account can be limited. Alternatively or additionally, several measurement updates can be carried out sequentially, each with a subset of the detection points 212.

Um einen möglichst großen Informationsgehalt mit einer limitierten Auswahl an Detektionspunkten 212 zu erreichen, sollten die ausgewählten Detektionspunkte 212 einen möglichst großen Bereich des Objektes abdecken (und somit nicht alle lokal in einem Teilbereich liegen). In diesem Zusammenhang kann der Gesamtbereich der relevanten Objekt-Kante 205 im Messbereich des Umfeldsensors 102 in äquidistante Intervallbereiche 405 aufgeteilt werden (siehe 4). Es kann dann aus jedem Intervallbereich 405 jeweils (genau) ein Detektionspunkt 412 ausgewählt werden. Sollte in einem Intervallbereich 405 kein Detektionspunkt 212 enthalten sein, können aus ein oder mehreren anderen Intervallbereichen 405 weitere Detektionspunkt 212 ausgewählt werden, bis die vordefinierte Maximalanzahl von Detektionspunkten 212 erreicht wird.In order to achieve the greatest possible information content with a limited selection of detection points 212, the selected detection points 212 should cover as large an area of the object as possible (and therefore not all be located locally in a partial area). In this context, the total area of the relevant object edge 205 in the measuring range of the environment sensor 102 can be divided into equidistant interval areas 405 (see 4 ). A detection point 412 can then be selected (precisely) from each interval range 405. If no detection point 212 is contained in an interval range 405, further detection points 212 can be selected from one or more other interval ranges 405 until the predefined maximum number of detection points 212 is reached.

5 zeigt ein Ablaufdiagramm eines beispielhaften (ggf. Computerimplementierten) Verfahrens 500 zur Aktualisierung des Objektzustands eines Objektes (z.B. eines anderen Verkehrsteilnehmers), das in dem Umfeld eines (Kraft-) Fahrzeugs 100 angeordnet ist. Der Objektzustand kann ein oder mehrere Eigenschaften (wie die Breite 201, die Länge 202 und/oder die Position 203) einer Bounding-Box 200 für das Objekt beschreiben. Das Verfahren 500 kann darauf ausgelegt sein, den Objektzustand entlang der Zeitachse für eine Sequenz von Zeitpunkten k zu aktualisieren (auf Basis der jeweils aktuell verfügbaren Sensordaten der ein oder mehreren Umfeldsensoren 102 des Fahrzeugs 100). 5 shows a flowchart of an exemplary (possibly computer-implemented) method 500 for updating the object status of an object (eg another road user) that is arranged in the surroundings of a (motor) vehicle 100. The object state may describe one or more properties (such as the width 201, the length 202 and/or the position 203) of a bounding box 200 for the object. The method 500 can be designed to update the object state along the time axis for a sequence of times k (based on the currently available sensor data from the one or more environment sensors 102 of the vehicle 100).

Das Verfahren 500 umfasst das Zuordnen 501 eines Detektionspunkts 212 eines Umfeldsensors 102 des Fahrzeugs 100 zu einer Kante 205 der Bounding-Box 200. Die rechteckförmige Bounding-Box 200 weist typischerweise vier unterschiedliche Kanten 205 auf. Der Detektionspunkt 212 kann genau einer dieser Kanten 205 zugeordnet werden, z.B. der Kante 205, die dem Detektionspunkt 212 am nächsten liegt (etwa die den geringsten (orthogonalen) Abstand 215 aufweist).The method 500 includes assigning 501 a detection point 212 of an environment sensor 102 of the vehicle 100 to an edge 205 of the bounding box 200. The rectangular bounding box 200 typically has four different edges 205. The detection point 212 can be assigned to exactly one of these edges 205, for example the edge 205 that is closest to the detection point 212 (e.g. that has the smallest (orthogonal) distance 215).

Das Verfahren 500 umfasst ferner das Ermitteln 502 des (orthogonalen) Abstands 215 des Detektionspunktes 212 von der zugeordneten Kante 205 der Bounding-Box 200.The method 500 further includes determining 502 the (orthogonal) distance 215 of the detection point 212 from the associated edge 205 of the bounding box 200.

Außerdem umfasst das Verfahren 500 das Aktualisieren 503 des Objektzustands, insbesondere der ein oder mehreren Eigenschaften der Bounding-Box 200, auf Basis des ermittelten Abstands 215.The method 500 also includes updating 503 the object state, in particular the one or more properties of the bounding box 200, based on the determined distance 215.

In entsprechender Weise kann der Kanten-Abstand 215 für eine Vielzahl von Detektionspunkten 212 ermittelt und zu einem Innovationsvektor zusammengefasst werden. Dieser Innovationsvektor kann dann für das Messupdate eines (extended und/oder unscented) Kalman-Filters verwendet werden.In a corresponding manner, the edge distance 215 can be determined for a large number of detection points 212 and combined into an innovation vector. This innovation vector can then be used for the measurement update of an (extended and/or unscented) Kalman filter.

Durch die in diesem Dokument beschriebenen Maßnahme kann eine präzise Aktualisierung des Objektzustands eines Objektes, d.h. eine präzise Nachverfolgung eines Objektes, direkt auf Basis von einzelnen Detektionspunkten 212, die von ein oder mehreren Umfeldsensoren 102 erfasst wurden, bewirkt werden.The measure described in this document allows a precise update of the object status of an object, i.e. precise tracking of an object, to be effected directly on the basis of individual detection points 212 that were detected by one or more environmental sensors 102.

Die vorliegende Erfindung ist nicht auf die gezeigten Ausführungsbeispiele beschränkt. Insbesondere ist zu beachten, dass die Beschreibung und die Figuren nur beispielhaft das Prinzip der vorgeschlagenen Verfahren, Vorrichtungen und Systeme veranschaulichen sollen.The present invention is not limited to the exemplary embodiments shown. In particular, it should be noted that the description and the figures are only intended to illustrate the principle of the proposed methods, devices and systems by way of example.

Claims (14)

Vorrichtung (101) zur Aktualisierung eines Objektzustands eines Objektes, das in einem Umfeld eines Fahrzeugs (100) angeordnet ist; wobei der Objektzustand ein oder mehrere Eigenschaften einer Bounding-Box (200) für das Objekt beschreibt; wobei die Vorrichtung (101) eingerichtet ist, - einen Detektionspunkt (212) eines Umfeldsensors (102) des Fahrzeugs (100) einer Kante (205) der Bounding-Box (200) zuzuordnen; - einen Abstand (215) des Detektionspunktes (212) von der zugeordneten Kante (205) der Bounding-Box (200) zu ermitteln; und - den Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box (200), auf Basis des ermittelten Abstands (215) zu aktualisieren.Device (101) for updating an object status of an object which is arranged in an environment of a vehicle (100); wherein the object state describes one or more properties of a bounding box (200) for the object; wherein the device (101) is set up, - assign a detection point (212) of an environment sensor (102) of the vehicle (100) to an edge (205) of the bounding box (200); - to determine a distance (215) of the detection point (212) from the assigned edge (205) of the bounding box (200); and - to update the object state, in particular the one or more properties of the bounding box (200), based on the determined distance (215). Vorrichtung (101) gemäß Anspruch 1, wobei der Abstand (215) ein orthogonaler Abstand zwischen dem Detektionspunkt (212) und der zugeordneten Kante (205) der Bounding-Box (200), senkrecht zu der Kante (205), ist.Device (101) according to Claim 1 , wherein the distance (215) is an orthogonal distance between the detection point (212) and the associated edge (205) of the bounding box (200), perpendicular to the edge (205). Vorrichtung (101) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101) eingerichtet ist, - auf Basis des Objektzustands für einen vorhergehenden Zeitpunkt einen prädizierten Objektzustand für einen aktuellen Zeitpunkt zu ermitteln; und - den prädizierten Objektzustand auf Basis des ermittelten Abstands (215) zu aktualisieren, um den Objektzustand für den aktuellen Zeitpunkt zu ermitteln.Device (101) according to one of the preceding claims, wherein the device (101) is set up to - determine a predicted object state for a current time based on the object state for a previous point in time; and - to update the predicted object state based on the determined distance (215) in order to determine the object state for the current point in time. Vorrichtung (101) gemäß Anspruch 3, wobei - der prädizierte Objektzustand für den aktuellen Zeitpunkt eine prädizierte Bounding-Box (200) beschreibt; und - die Vorrichtung (101) eingerichtet ist, als Abstand (215) den Abstand des Detektionspunktes (212) von der zugeordneten Kante (205) der prädizierten Bounding-Box (200) zu ermitteln.Device (101) according to Claim 3 , where - the predicted object state for the current point in time describes a predicted bounding box (200); and - the device (101) is set up to determine the distance (215) of the detection point (212) from the assigned edge (205) of the predicted bounding box (200). Vorrichtung (101) gemäß einem der Ansprüche 3 bis 4, wobei die Vorrichtung (101) eingerichtet ist, auf Basis des ermittelten Abstands (215) ein Messupdate eines Kalman-Filters zu bewirken, um den Objektzustand zu aktualisieren.Device (101) according to one of Claims 3 until 4 , wherein the device (101) is set up to cause a measurement update of a Kalman filter based on the determined distance (215) in order to update the object state. Vorrichtung (101) gemäß Anspruch 5, wobei die Vorrichtung (101) eingerichtet ist, - auf Basis des prädizierten Objektzustands für einen aktuellen Zeitpunkt eine Kalman-Verstärkung zu ermitteln; und - den ermittelten Abstand (215) mit der Kalman-Verstärkung zu multiplizieren, um ein Update des Objektzustands zu ermitteln; und - den prädizierten Objektzustand mit dem ermittelten Update des Objektzustands zu aktualisieren, um den Objektzustand für den aktuellen Zeitpunkt zu ermitteln.Device (101) according to Claim 5 , wherein the device (101) is set up to - determine a Kalman gain for a current point in time based on the predicted object state; and - multiply the determined distance (215) by the Kalman gain in order to determine an update of the object state; and - update the predicted object state with the determined update of the object state in order to determine the object state for the current point in time. Vorrichtung (101) gemäß Anspruch 6, wobei die Vorrichtung (101) eingerichtet ist, - für N Detektionspunkte (212), die der Kante (205) zugeordnet sind, jeweils einen Abstand (215) zu ermitteln und zu einem Innovationvektor zusammenzufassen, mit N>1; - eine Kalman-Verstärkung für den Innovationsvektor zu ermitteln; und - den Innovationvektor mit der Kalman-Verstärkung zu multiplizieren, um das Update des Obj ektzustands zu ermitteln.Device (101) according to Claim 6 , wherein the device (101) is set up - to determine a distance (215) for N detection points (212) that are assigned to the edge (205) and to combine them into an innovation vector, with N>1; - determine a Kalman gain for the innovation vector; and - multiply the innovation vector by the Kalman gain to determine the update of the object state. Vorrichtung (101) gemäß einem der Ansprüche 6 bis 7, wobei die Vorrichtung (101) eingerichtet ist, - eine gemessene Geschwindigkeit des Detektionspunktes (212) des Umfeldsensors (102) zu ermitteln; - auf Basis einer Geschwindigkeit aus dem prädizierten Objektzustand und auf Basis der gemessenen Geschwindigkeit eine Geschwindigkeits-Innovation zu ermitteln; - den ermittelten Abstand (215) und die Geschwindigkeits-Innovation für den Detektionspunkt (212) zu einem Innovationsvektor zusammenzufassen; - eine Kalman-Verstärkung für den Innovationsvektor zu ermitteln; und - den Innovationvektor mit der Kalman-Verstärkung zu multiplizieren, um das Update des Obj ektzustands zu ermitteln.Device (101) according to one of Claims 6 until 7 , wherein the device (101) is set up to - determine a measured speed of the detection point (212) of the environment sensor (102); - to determine a speed innovation based on a speed from the predicted object state and based on the measured speed; - combining the determined distance (215) and the speed innovation for the detection point (212) into an innovation vector; - determine a Kalman gain for the innovation vector; and - multiply the innovation vector by the Kalman gain to determine the update of the object state. Vorrichtung (101) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101) eingerichtet ist, - jeden Detektionspunkt (212) einer Vielzahl von Detektionspunkten (212) des Umfeldsensors (102) jeweils genau einer Kante (205) der Bounding-Box (200) zuzuordnen, um für ein oder mehrere Kanten (205) der Bounding-Box (200) jeweils eine Menge von Detektionspunkten (212) zu ermitteln; - für zumindest einen Teil der Menge von Detektionspunkten (212), die einer Kante (205) zugeordnet wurden, jeweils einen Abstand (215) des jeweiligen Detektionspunktes (212) von der jeweils zugeordneten Kante (205) der Bounding-Box (200) zu ermitteln; und - den Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box (200), auf Basis der ermittelten Abstände (215) zu aktualisieren.Device (101) according to one of the preceding claims, wherein the device (101) is set up - to assign each detection point (212) of a plurality of detection points (212) of the environment sensor (102) to exactly one edge (205) of the bounding box (200) in order to for one or more edges (205) of the bounding box (200) to determine a set of detection points (212); - for at least part of the set of detection points (212) that were assigned to an edge (205), a distance (215) of the respective detection point (212) from the respectively assigned edge (205) of the bounding box (200). determine; and - to update the object state, in particular the one or more properties of the bounding box (200), based on the determined distances (215). Vorrichtung (101) gemäß Anspruch 9, wobei die Vorrichtung (101) eingerichtet ist, - eine Kante (205) der Bounding-Box (200) in unterschiedliche Teilintervalle (405) zu unterteilen; - für jedes Teilintervall (405) jeweils null, ein oder mehrere Detektionspunkte (412) aus der der Kante (205) zugeordneten Menge von Detektionspunkten (212) auszuwählen; und - den Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box (200), auf Basis der Abstände (215) für die ausgewählten Detektionspunkte (212) zu aktualisieren.Device (101) according to Claim 9 , wherein the device (101) is set up to - divide an edge (205) of the bounding box (200) into different sub-intervals (405); - for each subinterval (405) to select zero, one or more detection points (412) from the set of detection points (212) assigned to the edge (205); and - to update the object state, in particular the one or more properties of the bounding box (200), based on the distances (215) for the selected detection points (212). Vorrichtung (101) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101) eingerichtet ist, - zumindest zwei unterschiedlichen Kanten (205) der Bounding-Box (200) jeweils zumindest einen Detektionspunkt (212) des Umfeldsensors (102) des Fahrzeugs (100) zuzuordnen; - für jeden der Detektionspunkte (212) jeweils den Abstand (215) des jeweiligen Detektionspunktes (212) von der jeweils zugeordneten Kante (205) der Bounding-Box (200) zu ermitteln; und - den Objektzustand, insbesondere die ein oder mehreren Eigenschaften der Bounding-Box (200), auf Basis der ermittelten Abstände (215) zu aktualisieren.Device (101) according to one of the preceding claims, wherein the device (101) is set up - at least two different edges (205) of the bounding box (200) each have at least one detection point (212) of the surroundings sensor (102) of the vehicle (100 ) to assign; - for each of the detection points (212) to determine the distance (215) of the respective detection point (212) from the respectively assigned edge (205) of the bounding box (200); and - to update the object state, in particular the one or more properties of the bounding box (200), based on the determined distances (215). Vorrichtung (101) gemäß einem der vorhergehenden Ansprüche, wobei der Objektzustand umfasst, - eine Position (203) der Bounding-Box (200); - eine Breite (201) der Bounding-Box (200); - eine Länge (202) der Bounding-Box (200); - eine Orientierung (204) der Bounding-Box (200); - eine Geschwindigkeit der Bounding-Box (200); - eine Beschleunigung der Bounding-Box (200); und/oder - eine Drehrate der Bounding-Box (200).Device (101) according to one of the preceding claims, wherein the object state comprises, - a position (203) of the bounding box (200); - a width (201) of the bounding box (200); - a length (202) of the bounding box (200); - an orientation (204) of the bounding box (200); - a bounding box speed (200); - an acceleration of the bounding box (200); and or - a rotation rate of the bounding box (200). Vorrichtung (101) gemäß einem der vorhergehenden Ansprüche, wobei die Vorrichtung (101) eingerichtet ist, das Fahrzeug (100), insbesondere eine automatisierte Fahrfunktion des Fahrzeugs (100), in Abhängigkeit von dem aktualisierten Objektzustand zu betreiben.Device (101) according to one of the preceding claims, wherein the device (101) is set up to operate the vehicle (100), in particular an automated driving function of the vehicle (100), depending on the updated object state. Verfahren (500) zur Aktualisierung eines Objektzustands eines Objektes, das in einem Umfeld eines Fahrzeugs (100) angeordnet ist; wobei der Objektzustand ein oder mehrere Eigenschaften einer Bounding-Box (200) für das Objekt beschreibt; wobei das Verfahren (500) umfasst, - Zuordnen (501) eines Detektionspunkts (212) eines Umfeldsensors (102) des Fahrzeugs (100) zu einer Kante (205) der Bounding-Box (200); - Ermitteln (502) eines Abstands (215) des Detektionspunktes (212) von der zugeordneten Kante (205) der Bounding-Box (200); und - Aktualisieren (503) des Objektzustands, insbesondere der ein oder mehreren Eigenschaften der Bounding-Box (200), auf Basis des ermittelten Abstands (215).Method (500) for updating an object state of an object that is arranged in an environment of a vehicle (100); wherein the object state describes one or more properties of a bounding box (200) for the object; wherein the method (500) comprises, - Assigning (501) a detection point (212) of an environment sensor (102) of the vehicle (100) to an edge (205) of the bounding box (200); - Determining (502) a distance (215) of the detection point (212) from the assigned edge (205) of the bounding box (200); and - Updating (503) the object state, in particular the one or more properties of the bounding box (200), based on the determined distance (215).
DE102022124192.0A 2022-09-21 2022-09-21 Method and device for updating the object status of an object Pending DE102022124192A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022124192.0A DE102022124192A1 (en) 2022-09-21 2022-09-21 Method and device for updating the object status of an object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022124192.0A DE102022124192A1 (en) 2022-09-21 2022-09-21 Method and device for updating the object status of an object

Publications (1)

Publication Number Publication Date
DE102022124192A1 true DE102022124192A1 (en) 2024-03-21

Family

ID=90062644

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022124192.0A Pending DE102022124192A1 (en) 2022-09-21 2022-09-21 Method and device for updating the object status of an object

Country Status (1)

Country Link
DE (1) DE102022124192A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020215504A1 (en) 2020-12-09 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for detecting objects in the surroundings of a vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020215504A1 (en) 2020-12-09 2022-06-09 Robert Bosch Gesellschaft mit beschränkter Haftung Method and device for detecting objects in the surroundings of a vehicle

Similar Documents

Publication Publication Date Title
DE112018006161B4 (en) System and method for controlling a vehicle
DE102015100134B4 (en) Method for detecting and tracking objects using multiple radar sensors
EP1731922B1 (en) Method and device for determining free areas in the vicinity of a motor vehicle
EP2561419B1 (en) Method for determining the lane course for a vehicle
EP3329216A1 (en) Determining arrangement information for a vehicle
DE102017120112A1 (en) DEPTH CARE VALUATION WITH STEREO IMAGES
DE102015107388A1 (en) Collision avoidance with static targets in confined spaces
EP2989421B1 (en) Method for determining a lane course of a lane
DE112019000873T5 (en) System and method for generating a destination path for a vehicle
DE102019100034A1 (en) AUTONOMOUS STEERING CONTROL
DE102020102962A1 (en) VEHICLE TARGET TRACKING
DE102019119204A1 (en) Assistance control system
WO2021043505A1 (en) Method and device for determining a trajectory of a vehicle
DE102018104243B3 (en) Method and system for detecting parking spaces suitable for a vehicle
EP1634241B1 (en) Method and device for object recognition in driver aid systems for motor vehicles
DE102018000517A1 (en) Method for radar-based measurement and / or classification of objects in a vehicle environment
DE112019005326T5 (en) OBJECT TRACKER
DE102017205973A1 (en) Method for determining an offset contained in a yaw rate signal of a yaw rate sensor of a motor vehicle and control device and motor vehicle
DE102017108107A1 (en) METHOD, DEVICE AND COMPUTER READABLE STORAGE MEDIUM WITH INSTRUCTIONS FOR ESTIMATING A POSE OF A MOTOR VEHICLE
DE102020124331A1 (en) VEHICLE TRACK MAPPING
DE102017104357A1 (en) METHOD, DEVICE AND COMPUTER READABLE STORAGE MEDIUM WITH MOTOR PLANT INSTRUCTIONS FOR A MOTOR VEHICLE
DE102022124192A1 (en) Method and device for updating the object status of an object
DE102022109162A1 (en) IMPROVED VEHICLE AND TRAILER OPERATION
DE102021111114A1 (en) Lane uncertainty modeling and tracking in a vehicle
DE102019131334A1 (en) Method for tracking extended objects with at least one detection device and detection device

Legal Events

Date Code Title Description
R163 Identified publications notified