DE102020121064A1 - Method for operating an assistance system in a motor vehicle, computer program product, computer-readable storage medium and assistance system - Google Patents

Method for operating an assistance system in a motor vehicle, computer program product, computer-readable storage medium and assistance system Download PDF

Info

Publication number
DE102020121064A1
DE102020121064A1 DE102020121064.7A DE102020121064A DE102020121064A1 DE 102020121064 A1 DE102020121064 A1 DE 102020121064A1 DE 102020121064 A DE102020121064 A DE 102020121064A DE 102020121064 A1 DE102020121064 A1 DE 102020121064A1
Authority
DE
Germany
Prior art keywords
polygonal shape
assistance system
detection
account
mathematical model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020121064.7A
Other languages
German (de)
Inventor
Jean-Francois Bariant
Julia Granitzka
Llarina Lobo-Palacios
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102020121064.7A priority Critical patent/DE102020121064A1/en
Publication of DE102020121064A1 publication Critical patent/DE102020121064A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Betreiben eines Assistenzsystems (2), bei welchem mittels einer Erfassungseinrichtung (5) eine Umgebung (6) durch Erzeugung von Erfassungspunkten (8) erfasst wird, und bei welchem die Punktwolke mittels einer elektronischen Recheneinrichtung (3) ausgewertet wird, wobei die Auswertung auf Basis eines mathematischen Modells (9) durchgeführt wird, und mittels des mathematischen Modells (9) eine Nachverfolgung eines Objekts (7) in der Umgebung (6) durchgeführt wird, wobei das Objekt (7) als polygonale Form (12) im mathematischen Modell (9) genähert wird und mittels eines Kalman-Filters, der zur Verarbeitung implizierter Messfunktionen eingerichtet ist, zumindest einer der Erfassungspunkte (8) der polygonalen Form (9) zugeordnet wird, wobei zumindest einer der Erfassungspunkte (9) als zumindest einem spezifischen Teil der polygonalen Form (12) zugeordnet vorgegeben wird und die Erfassung auf Basis dieser Vorgabebedingung durchgeführt wird. Ferner betrifft die Erfindung ein Computerprogrammprodukt, ein computerlesbares Speichermedium (4) sowie ein Assistenzsystem (2).The invention relates to a method for operating an assistance system (2), in which an environment (6) is recorded by means of a recording device (5) by generating recording points (8), and in which the point cloud is evaluated by means of an electronic computing device (3). , wherein the evaluation is carried out on the basis of a mathematical model (9), and a tracking of an object (7) in the environment (6) is carried out by means of the mathematical model (9), the object (7) being defined as a polygonal shape (12 ) is approximated in the mathematical model (9) and at least one of the detection points (8) is assigned to the polygonal shape (9) by means of a Kalman filter, which is set up for processing implied measurement functions, with at least one of the detection points (9) being at least associated with a specific part of the polygonal shape (12) and the detection is performed based on this predetermined condition. The invention also relates to a computer program product, a computer-readable storage medium (4) and an assistance system (2).

Description

Die Erfindung betrifft ein Verfahren zum Betreiben eines Assistenzsystems eines Kraftfahrzeugs, bei welchem mittels einer Erfassungseinrichtung des Assistenzsystems eine Umgebung des Kraftfahrzeugs erfasst wird, wobei die Umgebung durch Erzeugung einer Vielzahl von Erfassungspunkten als eine Punktwolke mittels der Erfassungseinrichtung erfasst wird, und bei welchem die Punktwolke mittels einer elektronischen Recheneinrichtung des Assistenzsystems ausgewertet wird, wobei die Auswertung auf Basis eines mathematischen Modells der elektronischen Recheneinrichtung durchgeführt wird, und mittels des mathematischen Modells eine Nachverfolgung eines Objekts in der Umgebung durchgeführt wird, wobei das Objekt als polygonale Form im mathematischen Modell genähert wird und mittels eines Kalman-Filters, der zur Verarbeitung implizierter Messfunktionen eingerichtet ist, zumindest einer der Erfassungspunkte der polygonalen Form zugeordnet wird. Ferner betrifft die Erfindung ein Computerprogrammprodukt, ein computerlesbares Speichermedium sowie ein Assistenzsystem.The invention relates to a method for operating an assistance system of a motor vehicle, in which an area surrounding the motor vehicle is recorded using a recording device of the assistance system, the area being recorded by generating a large number of recording points as a point cloud using the recording device, and in which the point cloud is recorded using an electronic computing device of the assistance system is evaluated, with the evaluation being carried out on the basis of a mathematical model of the electronic computing device, and using the mathematical model to track an object in the area, with the object being approximated as a polygonal shape in the mathematical model and using a Kalman filter arranged to process implied measurement functions, at least one of the detection points is associated with the polygonal shape. Furthermore, the invention relates to a computer program product, a computer-readable storage medium and an assistance system.

Aus dem Stand der Technik ist bereits bekannt, dass für eine Objektverfolgung die Objekte oftmals als polygonale Form vorgegeben werden, wobei hier oftmals die Annahme der nächsten Nachbarschaft (nearest neighbour) genutzt wird. Ferner ist aus dem Stand der Technik bereits ein sogenanntes probabilistische Multi-Hypothesen-Modell (PMHT) bekannt, mittels welchem eine verbesserte Verfolgung eines dynamischen Objekts realisiert werden kann.It is already known from the prior art that, for object tracking, the objects are often predefined as a polygonal shape, with the assumption of the closest neighbor often being used here. Furthermore, a so-called probabilistic multi-hypothesis model (PMHT) is already known from the prior art, by means of which improved tracking of a dynamic object can be implemented.

Die JP 2019152575 A offenbart ein Objektverfolgungsgerät bestehend aus einer Objekterfassungseinheit, um aus Abstandsmessdaten, die von einer an einem Fahrzeug angebrachten Abstandsmesseinheit erhalten werden, mindestens einen Abstandsmesspunkt zu erfassen, der die Position eines Verfolgungsobjekts darstellt, das sich um das Fahrzeug herum befindet. Ferner weist das Objektverfolgungsgerät eine Objektverfolgungseinheit auf, damit die Summe der Wahrscheinlichkeiten, dass die Positionen von Entfernungsmesspunkten in einem Zielkoordinatensystem diejenigen auf einem Verfolgungsobjekt darstellen, maximal wird, führt das Zielkoordinatensystem, das auf einem Verfolgungsobjekt als Bezugspunkt basiert, das auf der Grundlage des Ortes eines Verfolgungsobjekts in einem vorgeschriebenen Zeitraum für jeden der Entfernungsmesspunkte gefunden wird, die in einem letzten vorgeschriebenen Zeitraum erhalten wurden, in Übereinstimmung mit einem Formmodell, das die Wahrscheinlichkeit darstellt, mit der ein Entfernungsmesspunkt pro Position auf dem Verfolgungsobjekt einen Entfernungsmesspunkt darstellt, die wahrscheinlichste Schätzung der Wahrscheinlichkeit auf dem Ort und dem Formmodell durchthe JP 2019152575 A discloses an object tracking apparatus composed of an object detection unit for detecting at least one distance measurement point representing the position of a tracking object present around the vehicle from distance measurement data obtained from a distance measurement unit mounted on a vehicle. Further, the object tracking device has an object tracking unit, so that the sum of the probabilities that the positions of distance measuring points in a target coordinate system represent those on a tracking object becomes maximum, the target coordinate system based on a tracking object as a reference point, which is based on the location of a tracking object is found in a prescribed period for each of the ranging points obtained in a last prescribed period, in accordance with a shape model representing the probability that a ranging point per position on the tracking object represents a ranging point, the most likely estimate of the probability on the site and the shape model by

Die CN 109509207 A offenbart ein Verfahren zur nahtlosen Verfolgung eines Punktziels und eines erweiterten Ziels, das zum technischen Gebiet der hochauflösenden Sensorzielverfolgung gehört. Die Methode verwendet einen Gauß-Prozess GP mit variabler Dimension, um eine variable Kontur eines Ziels zu modellieren, und jede Sensorauflösungseinheit, die von der Zielkontur angenommen wird, wird als Messquelle aufgezeichnet. Je kleiner das beobachtete Ziel in Bezug auf den Sensor ist, desto geringer ist die Anzahl der Messquellen auf den Zielprofilen und umgekehrt. Die Radiuszahl des GP-Modells wird durch die Nutzung des geschätzten Werts der Anzahl der Messquellen online angepasst. Das Verfahren kann sich an die Änderung des Aussehens des Ziels und die gegenseitige Umwandlung zwischen erweitertem Ziel (ET) und Punktziel (PT) anpassen, eine Vielzahl von erweiterten Zielen und Punktzielen verfolgen. Wenn das Ziel ein ET ist, verfolgt der ET-GP-PMHT die Position und die Erscheinung des Ziels; wenn das Ziel ein PT ist, verfolgt der ET-GP-PMHT nur die Position des Ziels und diese aus.the CN 109509207A discloses a method for seamlessly tracking a point target and an extended target belonging to the technical field of high resolution sensor target tracking. The method uses a variable dimension Gaussian process GP to model a variable contour of a target and each sensor resolution unit assumed by the target contour is recorded as a measurement source. The smaller the observed target is in relation to the sensor, the fewer the number of measurement sources on the target profiles and vice versa. The radius number of the GP model is adjusted online using the estimated value of the number of measurement sources. The method can adapt to the change in the appearance of the target and the mutual conversion between extended target (ET) and point target (PT), track a variety of extended targets and point targets. If the target is an ET, the ET-GP-PMHT tracks the position and appearance of the target; if the target is a PT, the ET-GP-PMHT only tracks the target's position and out.

Die CN 108363054 A gehört in den Bereich der Passiv-Radar-Zielverfolgungstechnologie (PR) und bezieht sich speziell auf eine PR-Mehrzielverfolgungsmethode, die für ein Single-Frequency-Network (SFN) und Mehrwegeausbreitung verwendet wird. Die vorgeschlagene Verfolgungsmethode nimmt eine Vielzahl von Messungen vor, die einen Rezeptor über verschiedene Ausbreitungspfade verschiedener externer Strahlungsquellen als mögliche Zielmessungen bei der Handhabung der Korrelation zwischen Messungen und Zielen, Pfaden und externen Strahlungsquellen erreichen, und korreliert die Messungen mit Mehrpfad-Messfunktionen verschiedener bistatischer Paare, sodass eine Ansammlung von Zielinformationen erfasst wird. Im Anschluss daran wird die Zielverfolgung in einer Art Schiebefenster durchgeführt.the CN 108363054A belongs to the field of passive radar target tracking (PR) technology and specifically refers to a PR multi-target tracking method used for a single frequency network (SFN) and multipath propagation. The proposed tracking method takes a variety of measurements reaching a receptor through different propagation paths of different external radiation sources as possible target measurements in handling the correlation between measurements and targets, paths and external radiation sources, and correlates the measurements with multipath measurement functions of different bistatic pairs, so that a collection of target information is captured. The target tracking is then carried out in a kind of sliding window.

Die DE 10 2018 104 311 A1 betrifft ein Verfahren zum Abschätzen der Form eines dynamischen Objekts und zum Nachverfolgen dieses Objekts, basierend auf bereitgestellten Objektdaten und einem Erwartungs-Maximierungs-Algorithmus. Es ist vorgesehen, dass die Form des Objekts als polygonale Form genähert wird und jeder Ecke und/oder jeder Seite der polygonalen Form mittels eines Kalman-Filters, der zur Verarbeitung implizierter Messfunktion eingerichtet ist, aus den Objektdaten ein zur Beschreibung der polygonalen Form benötigter Koordinatenpunkt zugeordnet wird.the DE 10 2018 104 311 A1 relates to a method for estimating the shape of a dynamic object and for tracking this object based on provided object data and an expectation maximization algorithm. It is provided that the shape of the object is approximated as a polygonal shape and each corner and/or each side of the polygonal shape by means of a Kalman filter, which is set up to process the implicit measurement function, a coordinate point required to describe the polygonal shape from the object data is assigned.

Aufgabe der vorliegenden Erfindung ist es, ein Verfahren, ein Computerprogrammprodukt, ein computerlesbares Speichermedium sowie ein Assistenzsystem zu schaffen, mittels welchem eine verbesserte Objektverfolgung eines dynamischen Objekts realisiert werden kann.The object of the present invention is to create a method, a computer program product, a computer-readable storage medium and an assistance system, by means of which improved object tracking of a dynamic object can be implemented.

Diese Aufgabe wird durch ein Verfahren, ein Computerprogrammprodukt, ein computerlesbares Speichermedium sowie ein Assistenzsystem gemäß den unabhängigen Patentansprüchen gelöst. Vorteilhafte Ausgestaltungsformen sind in den Unteransprüchen angegeben.This object is achieved by a method, a computer program product, a computer-readable storage medium and an assistance system according to the independent patent claims. Advantageous embodiments are specified in the dependent claims.

Ein Aspekt der Erfindung betrifft ein Verfahren zum Betreiben eines Assistenzsystems eines Kraftfahrzeugs, bei welchem mittels einer Erfassungseinrichtung des Assistenzsystems eine Umgebung des Kraftfahrzeugs erfasst wird, wobei die Umgebung durch Erzeugung einer Vielzahl von Erfassungspunkten als eine Punktwolke mittels der Erfassungseinrichtung erfasst wird, und bei welchem die Punktwolke mittels einer elektronischen Recheneinrichtung des Assistenzsystems ausgewertet wird, wobei die Auswertung auf Basis eines mathematischen Modells der elektronischen Recheneinrichtung durchgeführt wird, und mittels des mathematischen Modells eine Nachverfolgung eines Objekts in der Umgebung durchgeführt wird, wobei das Objekt als polygonale Form dem mathematischen Modell genähert wird und mittels eines Kalman-Filters, der zur Verarbeitung implizierter Messfunktionen eingerichtet ist, zumindest einer der Erfassungspunkte der polygonalen Form zugeordnet wird.One aspect of the invention relates to a method for operating an assistance system of a motor vehicle, in which an environment of the motor vehicle is detected by means of a detection device of the assistance system, the environment being detected by generating a large number of detection points as a point cloud by means of the detection device, and in which the point cloud is evaluated by means of an electronic computing device of the assistance system, with the evaluation being carried out on the basis of a mathematical model of the electronic computing device, and using the mathematical model to track an object in the area, with the object being approximated to the mathematical model as a polygonal shape and at least one of the detection points is assigned to the polygonal shape by means of a Kalman filter, which is set up for processing implicit measurement functions.

Es ist vorgesehen, dass zumindest einer der Erfassungspunkte als zumindest einem spezifischen Teil der polygonalen Form zugeordnet vorgegeben wird und die Erfassung auf Basis dieser Vorgabebedingung mittels der elektronischen Recheneinrichtung durchgeführt wird.Provision is made for at least one of the detection points to be predefined as being assigned to at least one specific part of the polygonal shape and for the detection to be carried out on the basis of this predefined condition using the electronic computing device.

Dadurch ist es ermöglicht, dass eine verbesserte Objektverfolgung des dynamischen Objekts in der Umgebung des Kraftfahrzeugs realisiert werden kann.This makes it possible for improved object tracking of the dynamic object to be implemented in the area surrounding the motor vehicle.

Insbesondere wird somit eine Hypothese von unabhängigen Assoziationen aus dem mathematischen Modell entfernt und dadurch ersetzt, dass zumindest einer der erfassten Erfassungspunkte einem spezifischen Teil der polygonalen Form zugeordnet wird. Insbesondere nutzt somit das mathematische Modell die Tatsache, dass der spezifische Teil der polygonalen Form des Objekts eine Minimumanzahl an Messpunkten aufweist.In particular, a hypothesis of independent associations is thus removed from the mathematical model and replaced by associating at least one of the detected detection points with a specific part of the polygonal shape. In particular, the mathematical model thus makes use of the fact that the specific part of the polygonal shape of the object has a minimum number of measuring points.

Insbesondere kann somit verhindert werden, dass die Hypothese, die besagt, dass alle Assoziationen unabhängig voneinander sind, dazu führen kann, dass innerhalb des mathematischen Modells unerwünschte lokale Maxima entstehen. Diese Hypothese impliziert, dass alle Messungen, was insbesondere den Erfassungspunkten entspricht. vom gleichen Modell ausgehen können, was zu dem Verhalten führt, dass alle Assoziationen als unabhängig voneinander vorgegeben werden. Diese Hypothese könnte dazu führen, dass alle Messungen der falschen Seite des Objekts zugeordnet werden, wenn ein Ziel von beispielsweise hinten erfasst wird. Auch bei Laserscanner beziehungsweise Lidarsensoren sind Messungen aus dem Inneren des Objekts möglich und es kann das Innenmodell verwendet werden. Auch die vorderen Ecken des Objekts können von hinten detektiert werden. Beispielsweise sind Kraftfahrzeuge nicht perfekt rechteckig, sodass Echos von der Seitenfläche reflektiert werden können, sodass auch die Modelle für die vorderen Ecken verwendet werden müssen. Wenn das Ziel beschleunigt wird und gerade mit einer etwas zu geringeren Geschwindigkeit initialisiert wurde, driften die Assoziationen für den ersten und letzten Punkt zum linken und rechten Linienmodell und für die anderen Punkte zum Innenmodell. Schließlich, nach einigen Zeitschritten, werden der erste und der letzte Punkt mit den vorderen Ecken assoziiert und die anderen Punkte entweder mit der vorderen Linie oder auch, wenn die vordere Linie verdeckt ist, mit dem Innenmodell assoziiertIn particular, it can thus be prevented that the hypothesis that states that all associations are independent of one another can lead to undesirable local maxima arising within the mathematical model. This hypothesis implies that all measurements, which correspond in particular to the detection points. can start from the same model, which leads to the behavior that all associations are assumed to be independent of each other. This hypothesis could result in all measurements being assigned to the wrong side of the object when a target is acquired from, say, the rear. Measurements from inside the object are also possible with laser scanners or lidar sensors, and the inside model can be used. The front corners of the object can also be detected from behind. For example, automobiles are not perfectly square, so echoes can bounce off the side surface, so the front corner models must also be used. If the target is accelerating and has just been initialized at a slightly slower speed, the associations for the first and last points will drift to the left and right line models and for the other points to the interior model. Finally, after a few time steps, the first and last points are associated with the front corners and the other points are associated either with the front line or, if the front line is obscured, with the interior model

Ferner kann ein ähnliches Problem auch bei Radar auftreten, wenn ein Ziel von der Seite erfasst wird. Die Radareinrichtung kann prinzipiell Messungen überall auf dem Ziel erfassen, und es müssen alle Modelle einschließlich der im Prinzip verdeckten Seiten verwendet werden. Da Radar in der Nähe des Ziels sehr viel Clutter, also Rauschen, erzeugt, muss die Wahrscheinlichkeit des Clutter-Modells für eine korrekte Zielverfolgung recht hoch angesetzt werden. Daher können Punkte, selbst wenn sie im Inneren des Ziels erkannt werden, mit Clutter in Verbindung gebracht werden, und das Ziel bleibt „auf der falschen Seite stecken“.Furthermore, a similar problem can also occur with radar when a target is detected from the side. The radar device can in principle acquire measurements anywhere on the target, and all models including the theoretically hidden sides must be used. Since radar generates a lot of clutter, i.e. noise, in the vicinity of the target, the probability of the clutter model for correct target tracking must be set quite high. Therefore, even if spots are detected inside the target, they can be associated with clutter and the target will remain "stuck on the wrong side".

Ferner kann jedes Rechteck, das alle Entdeckungen umfasst, ein gültiges lokales Maximum aufweisen. Alle Messungen können dem inneren Modell zugeordnet werden und keine oder nur sehr wenige der Kontur. Dies kann beim Radar besonders problematisch sein, da keine vorherigen Assoziationswahrscheinlichkeiten der vorgegebenen Seiten und Ecken auf Null gesetzt sind. Das geschätzte Ziel kann zu groß sein.Furthermore, each rectangle enclosing all discoveries can have a valid local maximum. All measurements can be assigned to the inner model and none or very few to the contour. This can be particularly problematic with radar since no prior association probabilities of the given sides and corners are set to zero. Estimated target may be too big.

Ferner kann ein Ziel als zu stark gewachsen ausgewertet werden, wobei dies dann nicht wieder schrumpfen kann. Dies kann während der Initialisierung geschehen, wenn die Längenunsicherheit groß ist. Es kann auch passieren, wenn einige Clutter-Messungen dazu führen, dass das Ziel zu stark gewachsen ist.Furthermore, a target can be evaluated as having grown too much, in which case it cannot shrink again. This can happen during initialization when the length uncertainty is large. It can also happen when some clutter measurements cause the target to grow too much.

All diese vorgestellten Probleme werden durch eine falsche Wahl der Wahrscheinlichkeiten der posterioren Assoziation verursacht. Im ersten Beispiel besteht das Problem darin, dass der Kalman-Filter nicht weiß, dass mindestens eine Messung von jeder Ecke kommen muss, da das Ziel von hinten erfasst wurde, oder dass mindestens eine Messung von der Rückseite kommen muss. Das Problem im zweiten Beispiel ist gleich, da einige Messungen entweder von der vorderen und hinteren linken Ecke oder von der Rückseite kommen müssen. Im dritten und vierten Beispiel würde das mathematische Modell zur richtigen Schätzung konvergieren, wenn es wüsste, dass mindestens eine Messung von der vorderen linken und hinteren rechten Ecke kommen muss.All of these problems presented are caused by an incorrect choice of posterior association probabilities. In the first example, the problem is that the Kalman filter doesn't know that at least one measurement must come from each corner since the target was acquired from behind, or that at least one measurement must come from the back. The problem in the second example is the same, as some measurements must come from either the front and back left corners, or from the back. In the third and fourth examples, the mathematical model would converge to the correct estimate if it knew that at least one measurement must come from the front left and back right corners.

Daher ist erfindungsgemäß nun vorgesehen, dass die Annahme, dass alle Assoziationen unabhängig voneinander sind, fallengelassen wird und das Wissen einbezogen wird, dass zumindest bestimmte Modelle eine oder mehrere Erfassungspunkte erhalten. Diese Beschränkung der Assoziation kann je nach Betrachtungswinkel, unter dem das Ziel erfasst wird, oder je nachdem zu einem Abstand des Objekts zum Sensor aktiv oder inaktiv sein. Die Beschränkung kann auch einer bestimmten Wahrscheinlichkeit zugeordnet werden, ob diese gültig ist oder nicht.Therefore, according to the invention, it is now provided that the assumption that all associations are independent of one another is dropped and the knowledge that at least certain models receive one or more detection points is included. This constraint on the association can be active or inactive depending on the viewing angle at which the target is detected or depending on a distance of the object from the sensor. The constraint can also be associated with a certain probability of being valid or not.

Gemäß einer vorteilhaften Ausgestaltungsform wird der spezifische Teil der polygonalen Form als eine Seite der polygonalen Form und/oder als eine Ecke der polygonalen Form vorgegeben. Mit anderen Worten kann der spezifische Teil sowohl eine Ecke der polygonalen Form sein und/oder eine Seite der polygonalen Form. Sollte beispielsweise die polygonale Form als Rechteck vorgegeben werden, so kann eine Seite beispielsweise eine Frontseite, eine linke Seite, eine rechte Seite und eine Heckseite sein. Ferner weist dann die polygonale Form vier Ecken auf. Durch die Vorgabe, dass zumindest eine der Erfassungspunkte der Seite und/oder der Ecke zugeordnet wird, kann zuverlässig eine Nachverfolgung des dynamischen Objekts realisiert werden.According to an advantageous embodiment, the specific part of the polygonal shape is specified as a side of the polygonal shape and/or as a corner of the polygonal shape. In other words, the specific part can be both a corner of the polygonal shape and/or a side of the polygonal shape. For example, if the polygonal shape is specified as a rectangle, a side can be a front side, a left side, a right side and a rear side, for example. Furthermore, the polygonal shape then has four corners. By specifying that at least one of the detection points is assigned to the side and/or the corner, the dynamic object can be reliably tracked.

Weiterhin vorteilhaft ist, wenn in Abhängigkeit von einem Erfassungswinkel des Objekts der spezifische Teil der polygonalen Form vorgegeben wird. Sollte beispielsweise festgestellt werden, dass eine bestimmte Seite beziehungsweise Ecke der polygonalen Form mittels der Erfassungseinrichtung nicht „sichtbar“ ist, so kann eine entsprechende Zuordnung unterdrückt werden. Sollte dann beispielsweise festgestellt werden, dass nur eine bestimmte Seite derzeit gesehen werden kann, so kann durch die Vorgabe, dass eine der Erfassungspunkte dieser Seite zugeordnet wird, dazu führen, dass verbessert die Verfolgung des Objekts durchgeführt werden kann.It is also advantageous if the specific part of the polygonal shape is specified as a function of a detection angle of the object. If, for example, it is determined that a specific side or corner of the polygonal shape is not “visible” using the detection device, a corresponding assignment can be suppressed. If it is then determined, for example, that only one specific side can currently be seen, the specification that one of the detection points is assigned to this side can result in the tracking of the object being able to be carried out in an improved manner.

Ferner hat es sich als vorteilhaft erwiesen, wenn die polygonale Form als rechteckige Form des Objekts vorgegeben wird. Insbesondere die Objektverfolgung im Kraftfahrzeugbau beruht darauf, dass Objekte oftmals rechteckig sind. Beispielsweise kann ein weiteres Kraftfahrzeug in der Umgebung als rechteckige Form vorgegeben werden. Somit ist ermöglicht, dass eine Vielzahl von unterschiedlichen Objekten, insbesondere Kraftfahrzeuge, verbessert nachverfolgt werden können. Ferner kann dadurch eine einfache polygonale Form genutzt werden, wodurch eine Zuordnung zu einem spezifischen Teil sehr einfach gestaltete werden kann. Insbesondere kann dadurch recheneffizient die Objektverfolgung durchgeführt werden. Insbesondere weist dann die rechteckige Form vier Seiten und vier Ecken auf. Ein Erfassungspunkt kann dann jeweils zumindest einer der Seite und/oder einer der Ecken zugeordnet werden, wodurch eine verbesserte Objektverfolgung realisiert werden kann.Furthermore, it has proven to be advantageous if the polygonal shape is specified as a rectangular shape of the object. In particular, object tracking in motor vehicle construction is based on the fact that objects are often rectangular. For example, another motor vehicle in the area can be specified as a rectangular shape. This makes it possible for a large number of different objects, in particular motor vehicles, to be able to be tracked in an improved manner. Furthermore, a simple polygonal shape can thereby be used, as a result of which an assignment to a specific part can be designed very simply. In particular, object tracking can be carried out in a computationally efficient manner. In particular, the rectangular shape then has four sides and four corners. A detection point can then be assigned to at least one of the sides and/or one of the corners, as a result of which improved object tracking can be implemented.

Bevorzugt können auch unterschiedliche Erfassungspunkte unterschiedlichen Seiten und/oder Ecken zugeordnet werden. Alternativ oder ergänzend können auch mehrere Erfassungspunkte einer einzigen Seite und/oder einer einzige Ecke zugeordnet werden.Different detection points can preferably also be assigned to different sides and/or corners. Alternatively or additionally, multiple detection points can also be assigned to a single side and/or a single corner.

Weiterhin vorteilhaft ist, wenn als mathematisches Modell ein probabilistischer Multi-Hypothesen-Verfolger unter Berücksichtigung der Vorgabebedingungen genutzt wird. Der probabilistische Multi-Hypothesen-Verfolger wird auch als Probabilistic Multi-Hypothesis Tracker (PMHT) bezeichnet. Das PMHT ist insbesondere sehr recheneffizient, wobei die Rechenkapazität nur die linear mit der Anzahl der Ziele wächst, während die meisten Verfolgungsalgorithmen gemäß dem Stand der Technik exponentiell mit zunehmender Anzahl der Ziele zunehmen. Somit kann recheneffizient die Nachverfolgung des dynamischen Objekts realisiert werden.It is also advantageous if a probabilistic multi-hypothesis tracker is used as the mathematical model, taking into account the default conditions. The Probabilistic Multi-Hypothesis Tracker is also known as the Probabilistic Multi-Hypothesis Tracker (PMHT). In particular, the PMHT is very computationally efficient, with computational capacity increasing only linearly with the number of targets, while most prior art tracking algorithms increase exponentially with increasing number of targets. The tracking of the dynamic object can thus be implemented in a computationally efficient manner.

Weiterhin vorteilhaft ist, wenn beim probabilistischen Multi-Hypothesen-Verfolger die erfassten Erfassungspunkte unabhängig voneinander sind, wobei jedoch zumindest einer der Vielzahl der Erfassungspunkte mit der Vorgabebedingung berücksichtigt wird. Mit anderen Worten ist insbesondere vorgesehen, dass beispielsweise ein einziger Erfassungspunkt die Vorgabebedingung erfüllt, dass dieser beispielsweise an einer Ecke oder an einer Seite als spezifischer Teil des Objekts ausgebildet ist. Die weiteren Erfassungspunkte weisen dann jedoch wiederum die Eigenschaft auf, dass diese unabhängige Assoziationen voneinander bilden. Somit ist es ermöglicht, dass rechenaufwandsreduziert und dennoch sehr zuverlässig die Objektverfolgung durchgeführt werden kann.It is also advantageous if the recorded detection points are independent of one another in the probabilistic multi-hypothesis tracker, but at least one of the large number of detection points is taken into account with the default condition. In other words, it is provided in particular that a single detection point, for example, fulfills the default condition that it is formed, for example, at a corner or at a side as a specific part of the object. However, the other detection points then in turn have the property that they form independent associations from one another. It is thus possible for the object tracking to be carried out with a reduced computing effort and yet very reliably.

Gemäß einer weiteren vorteilhaften Ausgestaltungsform wird mittels des probabilistischen Multi-Hypothesen-Verfolgers zur Auswertung der Punktwolke unter Berücksichtigung der Vorgabebedingung ein Murty-Algorithmus genutzt. Beim Murty-Algorithmus handelt es sich um eine Generalisierung des Hungarian-Algorithmus. Mittels des Murty-Algorithmus kann rechenaufwandsreduziert die Verfolgung des dynamischen Objekts mittels des probabilistischen Multi-Hypothesen-Verfolgers durchgeführt werden.According to a further advantageous embodiment, a Murty algorithm is used by means of the probabilistic multi-hypothesis tracker for evaluating the point cloud, taking into account the default condition. The Murty algorithm is a generalization of the Hungarian algorithm. The Murty algorithm can be used to track the dynamic object with a reduced computing effort using the probabilistic multi-hypothesis tracker.

Alternativ kann in einer weiteren bevorzugten Ausführungsform vorgesehen sein, dass mittels des probabilistischen Multi-Hypothesen-Verfolgers zur Auswertung der Punktwolke unter Berücksichtigung der Vorgabebedingung eine Gibbs-Stichprobe genutzt wird. Hierbei handelt es sich um einen Algorithmus, um eine Folge für Stichproben der gemeinsamen Wahrscheinlichkeitsverteilung zwei oder mehrerer Zufallsvariablen zu erzeugen. Das Ziel ist es dabei, eine unbekannte Verteilung anzunähern. Das Gibbs-Sampling eignet sich besonders dann, wenn die gemeinsame Verteilung eines Zufallsvektors unbekannt, jedoch die bedingte Verteilung einer jeden Zufallsvariablen bekannt ist. Das Grundprinzip besteht darin, in wiederholender Weise eine Variable auszuwählen und gemäß ihrer bedingten Verteilung einen Wert in Abhängigkeit von den Werten der anderen Variablen zu erzeugen. Die Werte der anderen Variablen bleiben in diesem Iterationsschritt unverändert. Aus der entstehenden Folge von Stichprobenvektoren lässt sich dann beispielsweise eine Markow-Kette herleiten. Es kann dann gezeigt werden, dass die stationäre Verteilung dieser Markow-Kette gerade die gesuchte gemeinsame Verteilung des Zufallsvektors ist.Alternatively, in a further preferred embodiment, it can be provided that a Gibbs random sample is used by means of the probabilistic multi-hypothesis tracker for evaluating the point cloud, taking into account the default condition. This is an algorithm for generating a sequence for samples of the joint probability distribution of two or more random variables. The goal is to approximate an unknown distribution. Gibbs sampling is particularly useful when the joint distribution of a random vector is unknown, but the conditional distribution of each random variable is known. The basic principle is to select a variable in a repetitive manner and, according to its conditional distribution, produce a value depending on the values of the other variables. The values of the other variables remain unchanged in this iteration step. A Markov chain, for example, can then be derived from the resulting sequence of sample vectors. It can then be shown that the stationary distribution of this Markov chain is precisely the sought-after joint distribution of the random vector.

Ferner hat es sich als vorteilhaft erwiesen, wenn die Eintrittswahrscheinlichkeit für die Vorgabebedingung beim mathematischen Modell berücksichtigt wird. Insbesondere wird somit die Vorgabebedingung als „weiche“ Vorgabebedingung eingeführt, was als „soft constraint“ bezeichnet werden kann. Dies bedeutet, dass beispielsweise vorgesehen sein kann, dass das probabilistische Multi-Hypothesen-Verfolgermodell grundsätzlich mit unabhängigen Assoziatione voneinander arbeitet, sollte beispielsweise die Eintrittswahrscheinlichkeit für eine entsprechende Vorgabebedingung sehr gering sein. Sollte jedoch die Eintrittswahrscheinlichkeit entsprechend hoch sein für die Vorgabebedingung, so wird die Vorgabebedingung eingeführt, und das probabilistische Multi-Hypothesen-Verfolgermodell unter der Nutzung der Vorgabebedingung genutzt.Furthermore, it has proven to be advantageous if the probability of occurrence for the default condition is taken into account in the mathematical model. In particular, the default condition is introduced as a "soft" default condition, which can be referred to as a "soft constraint". This means that, for example, it can be provided that the probabilistic multi-hypothesis tracking model basically works with associations that are independent of one another if, for example, the probability of occurrence for a corresponding default condition is very low. However, if the probability of occurrence is high enough for the default condition, the default condition is introduced and the probabilistic multi-hypothesis tracker model is used using the default condition.

Gemäß einer weiteren vorteilhaften Ausgestaltungsform wird in Abhängigkeit von einem Erfassungswinkel des Objekts die Vorgabebedingung berücksichtigt oder unberücksichtigt. Mit anderen Worten kann die Nutzung der Vorgabebedingung in Abhängigkeit des Erfassungswinkels aktiviert beziehungsweise inaktiviert werden. Sollte beispielsweise eine entsprechende Erfassung eine Zuordnung eines Erfassungspunktes zu dem spezifischen Teil des Objekts nicht möglich sein, so kann die Vorgabebedingung unberücksichtigt bleiben. Somit kann eine zuverlässige Objektverfolgung durchgeführt werden.According to a further advantageous embodiment, the default condition is taken into account or not taken into account depending on a detection angle of the object. In other words, the use of the default condition can be activated or deactivated depending on the detection angle. If, for example, a corresponding detection and an assignment of a detection point to the specific part of the object should not be possible, the default condition can remain unconsidered. Reliable object tracking can thus be carried out.

In einer weiteren vorteilhaften Ausgestaltungsform wird in Abhängigkeit von einer erfassten Distanz zum Objekt die Vorgabebedingung berücksichtigt oder unberücksichtigt. Sollte beispielsweise die Distanz zum Objekt sehr groß sein, so kann die Vorgabebedingung beispielsweise unberücksichtigt bleiben. Dies hat den Hintergrund darin, dass eine Zuordnung von Erfassungspunkten bei weit entfernten Objekten mit sehr hohem Aufwand verbunden ist und eventuell fehlschlagen könnte. Somit kann verhindert werden, dass eine falsche Nachverfolgung unter der Vorgabebedingung durchgeführt wird. Somit kann ein robustes mathematisches Modell bereitgestellt werden, mittels welchem eine zuverlässige Objektverfolgung realisiert werden kann.In a further advantageous embodiment, the default condition is taken into account or not taken into account depending on a detected distance from the object. If, for example, the distance to the object is very large, then the default condition can remain unconsidered, for example. The background to this is that an assignment of detection points in the case of objects that are far away involves a great deal of effort and could possibly fail. Thus, wrong tracking can be prevented from being performed under the default condition. A robust mathematical model can thus be provided, by means of which reliable object tracking can be implemented.

Ferner hat es sich als vorteilhaft erwiesen, wenn mittels einer als Lidarsensoreinrichtung und/oder mittels einer als Radarsensoreinrichtung und/oder mittels einer als Ultraschallsensoreinrichtung ausgebildeten Erfassungseinrichtung die Umgebung erfasst wird. Somit ist es ermöglicht, dass mit unterschiedlichen Erfassungseinrichtungen eine zuverlässige Objektverfolgung realisiert werden kann.Furthermore, it has proven to be advantageous if the environment is detected by means of a detection device designed as a lidar sensor device and/or by means of a radar sensor device and/or by means of an ultrasonic sensor device. It is thus possible for reliable object tracking to be implemented with different detection devices.

Ein weiterer Aspekt der Erfindung betrifft ein Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Medium gespeichert sind, um das Verfahren zum Erzeugen einer Schwellwertkurve nach dem vorhergehenden Aspekt durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Recheneinrichtung abgearbeitet wird.A further aspect of the invention relates to a computer program product with program code means, which are stored on a computer-readable medium, in order to carry out the method for generating a threshold value curve according to the preceding aspect, when the computer program product is processed on a processor of an electronic computing device.

Ein nochmals weiterer Aspekt der Erfindung betrifft ein computerlesbares Speichermedium mit einem Computerprogrammprodukt nach dem vorhergehenden Aspekt. Das Computerlesbare Speichermedium kann insbesondere als Teil einer elektronischen Recheneinrichtung ausgebildet sein.Yet another aspect of the invention relates to a computer-readable storage medium with a computer program product according to the preceding aspect. The computer-readable storage medium can in particular be designed as part of an electronic computing device.

Ein weiterer Aspekt der Erfindung betrifft ein Assistenzsystem für ein Kraftfahrzeug, mit zumindest einer Erfassungseinrichtung und mit einer elektronischen Recheneinrichtung, wobei das Assistenzsystem zum Durchführen eines Verfahrens nach dem vorhergehenden Aspekt ausgebildet ist. Insbesondere wird das Verfahren mittels des Assistenzsystems durchgeführt.A further aspect of the invention relates to an assistance system for a motor vehicle, with at least one detection device and with an electronic computing device, the assistance system being designed to carry out a method according to the preceding aspect. In particular, the method is carried out using the assistance system.

Ein nochmals weiterer Aspekt der Erfindung betrifft ein Kraftfahrzeug mit einem Assistenzsystem. Das Kraftfahrzeug ist insbesondere als Personenkraftwagen ausgebildet.Yet another aspect of the invention relates to a motor vehicle with an assistance system. The motor vehicle is designed in particular as a passenger car.

Vorteilhafte Ausgestaltungsformen des Verfahrens sind als vorteilhafte Ausgestaltungsformen des Computerprogrammprodukts, des computerlesbaren Speichermediums, des Assistenzsystems sowie des Kraftfahrzeugs anzusehen. Das Assistenzsystem sowie das Kraftfahrzeug weisen dazu gegenständliche Merkmale auf, welche eine Durchführung des Verfahrens oder eine vorteilhafte Ausgestaltungsform davon ermöglichen.Advantageous configurations of the method are to be regarded as advantageous configurations of the computer program product, the computer-readable storage medium, the assistance system and the motor vehicle. For this purpose, the assistance system and the motor vehicle have specific features which enable the method to be carried out or an advantageous embodiment thereof.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention result from the claims, the figures and the description of the figures. The features and combinations of features mentioned above in the description, as well as the features and combinations of features mentioned below in the description of the figures and/or shown alone in the figures, can be used not only in the combination specified in each case, but also in other combinations, without going beyond the scope of the invention leaving. The invention is therefore also to be considered to include and disclose embodiments that are not explicitly shown and explained in the figures, but that result from the explained embodiments and can be generated by separate combinations of features. Versions and combinations of features are also to be regarded as disclosed which therefore do not have all the features of an originally formulated independent claim. Furthermore, embodiments and combinations of features, in particular through the embodiments presented above, are to be regarded as disclosed which go beyond or deviate from the combinations of features presented in the back references of the claims.

Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.The invention will now be explained in more detail using preferred exemplary embodiments and with reference to the accompanying drawings.

Dabei zeigen:

  • 1 eine schematische Draufsicht auf eine Ausführungsform eines Kraftfahrzeugs mit einer Ausführungsform eines Assistenzsystems;
  • 2 eine schematische Draufsicht auf ein erfasstes Objekt mittels des erfindungsgemäßen Verfahrens;
  • 3 eine weitere schematische Draufsicht auf ein erfasstes Objekt gemäß dem Verfahren;
  • 4 eine weitere schematische Draufsicht auf ein erfasstes Objekts mittels des Verfahrens; und
  • 5 eine weitere schematische Draufsicht auf ein erfasstes Objekt mittels des Verfahrens.
show:
  • 1 a schematic plan view of an embodiment of a motor vehicle with an embodiment of an assistance system;
  • 2 a schematic plan view of a detected object by means of the method according to the invention;
  • 3 a further schematic plan view of a detected object according to the method;
  • 4 a further schematic plan view of a detected object by means of the method; and
  • 5 a further schematic plan view of an object detected by means of the method.

In den Fig. sind gleiche oder funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.Elements that are the same or have the same function are provided with the same reference symbols in the figures.

1 zeigt in einer schematischen Draufsicht eine Ausführungsform eines Kraftfahrzeugs 1 mit einer Ausführungsform eines Assistenzsystems 2. Das Assistenzsystem 2 weist zumindest eine elektronische Recheneinrichtung 3 auf. Die elektronische Recheneinrichtung 3 wiederum weist insbesondere ein computerlesbares Speichermedium 4 auf. Das Assistenzsystem 2 weist ferner eine Erfassungseinrichtung 5 auf. Die Erfassungseinrichtung 5 kann beispielsweise als Lidarsensoreinrichtung und/oder als Radarsensoreinrichtung und/oder als Ultraschallsensoreinrichtung ausgebildet sein. Die Erfassungseinrichtung 5 ist zum Erfassen einer Umgebung 6 des Kraftfahrzeugs 1 ausgebildet. Insbesondere kann mittels der Erfassungseinrichtung 5 ein Objekt 7, welches insbesondere dynamisch ist, in der Umgebung 6 erfasst werden. Bei dem dynamischen Objekt 7 kann es sich beispielsweise um ein weiteres Kraftfahrzeug handeln, welches insbesondere in Bewegung ist. 1 1 shows an embodiment of a motor vehicle 1 with an embodiment of an assistance system 2 in a schematic top view. The assistance system 2 has at least one electronic computing device 3 . The electronic computing device 3 in turn has, in particular, a computer-readable storage medium 4 . The assistance system 2 also has a detection device 5 . The detection device 5 can be embodied, for example, as a lidar sensor device and/or as a radar sensor device and/or as an ultrasonic sensor device. The detection device 5 is designed to detect an environment 6 of the motor vehicle 1 . In particular, an object 7 , which is dynamic in particular, can be detected in the environment 6 by means of the detection device 5 . At the Dyna mix object 7 can be, for example, another motor vehicle, which is in particular in motion.

Bei dem Kraftfahrzeug 1 handelt es sich insbesondere um ein zumindest teilweise autonom betriebenes Kraftfahrzeug, wobei das Assistenzsystem 2 zumindest unterstützend für den zumindest teilweise autonomen Betrieb ausgebildet ist. Das Kraftfahrzeug 1 kann auch als vollautonomes Kraftfahrzeug 1 ausgebildet sein.Motor vehicle 1 is, in particular, an at least partially autonomously operated motor vehicle, assistance system 2 being designed at least to support at least partially autonomous operation. The motor vehicle 1 can also be designed as a fully autonomous motor vehicle 1 .

Bei einem Verfahren zum Betreiben des Assistenzsystems 2 des Kraftfahrzeugs 1 wird mittels der Erfassungseinrichtung 5 des Assistenzsystems 2 die Umgebung 6 des Kraftfahrzeugs 1 erfasst, wobei die Umgebung 6 durch Erzeugung einer Vielzahl von Erfassungspunkten 8 (2) eine Punktwolke mittels der Erfassungseinrichtung 5 erfasst wird, und bei welchem die Punktwolke mittels der elektronischen Recheneinrichtung 3 des Assistenzsystems 2 ausgewertet wird, wobei die Auswertung auf Basis eines mathematischen Modells 9 der elektronischen Recheneinrichtung 3 durchgeführt wird, und mittels des mathematischen Modells 9 eine Nachverfolgung des Objekts 7 in der Umgebung 6 durchgeführt wird, wobei das Objekt 7 als polygonale Form 12 (2) im mathematischen Modell 9 genähert wird und mittels eines Kalman-Filters, der zur Verarbeitung implizierter Messfunktionen eingerichtet ist, zumindest einer der Erfassungspunkte 8 der polygonalen Form 12 zugeordnet wird.In a method for operating the assistance system 2 of the motor vehicle 1, the surroundings 6 of the motor vehicle 1 are detected by means of the detection device 5 of the assistance system 2, the surroundings 6 being detected by generating a large number of detection points 8 ( 2 ) a cloud of points is recorded by means of the detection device 5, and in which the cloud of points is evaluated by means of the electronic computing device 3 of the assistance system 2, the evaluation being carried out on the basis of a mathematical model 9 of the electronic computing device 3, and tracking using the mathematical model 9 of the object 7 in the environment 6 is performed, the object 7 as a polygonal shape 12 ( 2 ) is approximated in the mathematical model 9 and at least one of the detection points 8 is assigned to the polygonal shape 12 by means of a Kalman filter which is set up for processing implicit measurement functions.

Es ist vorgesehen, dass zumindest einer der Erfassungspunkte 8 als zumindest einem spezifischen Teil der polygonalen Form 12 zugeordnet vorgegeben wird und die Erfassung auf Basis dieser Vorgabebedingung mittels der elektronischen Recheneinrichtung 3 durchgeführt wird.Provision is made for at least one of the detection points 8 to be predefined as assigned to at least one specific part of the polygonal shape 12 and for the detection to be carried out on the basis of this predefined condition using the electronic computing device 3 .

Insbesondere kann vorgesehen sein, dass der spezifische Teil der polygonalen Form 12 als eine Seite 10 (2) und/oder als eine Ecke 11 (2) der polygonalen Form 12 vorgegeben wird.In particular, it can be provided that the specific part of the polygonal shape 12 is defined as a side 10 ( 2 ) and/or as a corner 11 ( 2 ) of the polygonal shape 12 is specified.

Ferner kann vorgesehen sein, dass in Abhängigkeit von einem Erfassungswinkel des Objekts 7 der spezifische Teil der polygonalen Form 12 vorgegeben wird. Es kann ferner vorgesehen sein, dass die polygonale Form 12 als rechteckige Form des Objekts 7 vorgegeben wird, was insbesondere in den 2 bis 5 dargestellt ist.Furthermore, it can be provided that the specific part of the polygonal shape 12 is specified as a function of a detection angle of the object 7 . Provision can also be made for the polygonal shape 12 to be specified as a rectangular shape of the object 7, which is particularly the case in FIGS 2 until 5 is shown.

Ferner kann vorgesehen sein, dass in Abhängigkeit von einem Erfassungswinkel des Objekts 7 die Vorgabebedingung berücksichtigt oder unberücksichtigt wird und/oder in Abhängigkeit von einer erfassten Distanz zum Objekt 7 die Vorgabebedingung berücksichtigt oder unberücksichtigt wird.Provision can furthermore be made for the default condition to be taken into account or not taken into account depending on a detection angle of the object 7 and/or for the default condition to be taken into account or not taken into account depending on a detected distance to the object 7 .

Der probabilistische Multi-Hypothesen Verfolger (PMHT) beruht auf den folgenden Annahmen. Der PMHT wird verwendet, um herauszufinden, von welchem Teil/Seite 10 des Objekts 7 eine Messung, also ein Erfassungspunkt 8, ausgegangen ist, obwohl dieser ursprünglich entwickelt wurde, um herauszufinden, von welchem Ziel, also Objekt 7, eine Messung ausgegangen ist. Beide Probleme sind eigentlich identisch, da nach den Assoziationsinformationen gesucht wird, die zum Aufbau der Messfunktion oder Innovationsfunktion notwendig sind. Der Begriff von „welchem Ziel“ kann daher mit dem Begriff von „welcher Seite eines Ziels“ oder sogar mit „welcher Seite von welchem Ziel“ vertauscht werden.The Probabilistic Multi-Hypotheses Tracker (PMHT) relies on the following assumptions. The PMHT is used to find out from which part/side 10 of the object 7 a measurement, i.e. a detection point 8, originated, although it was originally developed to find out from which target, i.e. object 7, a measurement came from. Both problems are actually identical since the association information required to build the measurement function or innovation function is sought. The notion of "which goal" can therefore be interchanged with the notion of "which side of a goal" or even with "which side of which goal".

Es wird dabei angenommen, dass die Messungen und Innovationsvektoren unabhängig voneinander sind und nicht vom Zustand aus einem anderen Zeitschritt abhängen. Es wird ferner angenommen, dass das Objektbewegungsmodell ein Markow-Prozess ist, was bedeutet, dass xk+1 nur von xk abhängt. Ferner wird angenommen, dass die Assoziationen von Messungen zu einer Seite 10 des Objekts 7 unabhängig voneinander sind. Mit anderen Worten, es bedeutet, dass jede Seite 10 des Objekts 7 eine beliebige Anzahl von Messungen erzeugt haben kann. Eine weitere Annahme ist, dass die Assoziationen unabhängig vom Zustand sind. Wenn sie von den Messungen (oder der Innovation) abhängen, ist dies nicht mehr der Fall, aber die Kenntnis des Zustands allein gibt keine Auskunft über die Assoziationswahrscheinlichkeiten. Die Messungen sollen ferner normalverteilt sein und das Innovationsmodell linear (oder linearisiert) sein. Es wird ebenfalls angenommen, dass das Bewegungsmodell linear (oder linearisiert) ist, wobei das additive normalverteilte Rauschen nicht mit dem Zustand korreliert ist. Die vorherige PDF (probability density function) des Zustands des ersten Zeitschritts soll ebenfalls normalverteilt sein.It is assumed that the measurements and innovation vectors are independent of each other and do not depend on the state from another time step. It is further assumed that the object motion model is a Markov process, which means that xk +1 depends only on xk. Furthermore, it is assumed that the associations of measurements on a side 10 of the object 7 are independent of one another. In other words, it means that each side 10 of the object 7 can have any number of measurements generated. Another assumption is that the associations are state independent. If they depend on the measurements (or the innovation), this is no longer the case, but knowledge of the state alone does not tell about the association probabilities. The measurements should also be normally distributed and the innovation model should be linear (or linearized). The motion model is also assumed to be linear (or linearized) with additive normal noise uncorrelated with state. The previous PDF (probability density function) of the state of the first time step should also be normally distributed.

Unser Zustand X enthält die Position des verfolgten Objekts über alle Zeitschritte des Batches: X = [ x 1 x T ] T

Figure DE102020121064A1_0001
Our state X contains the position of the tracked object over all time steps of the batch: X = [ x 1 x T ] T
Figure DE102020121064A1_0001

Der Messvektor Z enthält die Messwerte der Erfassungseinrichtung 5 über alle Zeitschritte des Batches: Z = [ z 1 1 z 1 n ( 1 ) z 2 1 z 2 n ( 2 ) z 1 Z z T n ( T ) ] T

Figure DE102020121064A1_0002
The measuring vector Z contains the measured values of the recording device 5 over all time steps of the batch: Z = [ e.g 1 1 e.g 1 n ( 1 ) e.g 2 1 e.g 2 n ( 2 ) e.g 1 Z e.g T n ( T ) ] T
Figure DE102020121064A1_0002

Die nicht beobachtete Zufallsvariable K ist die Zuordnung jeder Messung zu einer bestimmten Seite 10 des Objekts 7, da nicht bekannt ist, von welcher Seite 11 des Objekts 7 jede Messung stammt. Für eine spezifische Seite i des Polygons ist das Innovationsmodell: v i , t r = h i ( x t , z t r )

Figure DE102020121064A1_0003
The unobserved random variable K is the assignment of each measurement to a specific side 10 of the object 7, since it is not known from which side 11 of the object 7 each measurement originates. For a specific side i of the polygon, the innovation model is: v i , t right = H i ( x t , e.g t right )
Figure DE102020121064A1_0003

Das Innovationsmodell 1.3 ist eine generische Darstellung für jede Instanz der Innovation zu einem Scheitelpunkt oder einer Seite des Polygons. Eine Instanz von K stellt eine Zuordnung jedes Punktes zu einer Seite oder einem Scheitelpunkt des Polygons bei jedem Messzeitschritt dar, vermerkt als: t 1, T , r 1, n ( t ) , k r ( t )

Figure DE102020121064A1_0004
The innovation model 1.3 is a generic representation for each instance of innovation to a vertex or side of the polygon. An instance of K represents an association of each point with a side or vertex of the polygon at each measurement time step, noted as: t 1, T , right 1, n ( t ) , k right ( t )
Figure DE102020121064A1_0004

Wenn das Polygon m Seiten oder Scheitelpunkte hat, wird die Summe über alle möglichen Assoziationen definiert: K ( ) = k 1 ( 1 ) = 1 m k 2 ( 1 ) = 1 m k n ( t ) ( 1 ) = 1 m k 1 ( 2 ) = 1 m k n ( t ) ( 2 ) = 1 m k 1 ( T ) = 1 m k n ( t ) ( T ) = 1 m ( )

Figure DE102020121064A1_0005
If the polygon has m sides or vertices, the sum is defined over all possible associations: K ( ) = k 1 ( 1 ) = 1 m k 2 ( 1 ) = 1 m k n ( t ) ( 1 ) = 1 m k 1 ( 2 ) = 1 m k n ( t ) ( 2 ) = 1 m k 1 ( T ) = 1 m k n ( t ) ( T ) = 1 m ( )
Figure DE102020121064A1_0005

Es wird die Erwartungsmaximierung, wie sie zuvor abgeleitet wurde, verwendet, um den MAP (maximum a posteriori) zu finden. Der Index der Iteration wird im Exponent notiert, da der niedrigere Index bereits für den Zeitschrittindex verwendet wird. Es wird das Posterior für das Argument X maximiert: X max = argmax X { P ( X / N = 0 ) } = argmax X { P ( N = 0 / X ) P ( X ) }

Figure DE102020121064A1_0006
Expectation maximization as previously derived is used to find the MAP (maximum a posteriori). The index of the iteration is noted in the exponent since the lower index is already used for the time step index. The posterior for the argument X is maximized: X Max = argmax X { P ( X / N = 0 ) } = argmax X { P ( N = 0 / X ) P ( X ) }
Figure DE102020121064A1_0006

Das PMHT nutzt die Erwartungsmaximierung: Q ( X , X n ) = K P ( K / X n , N = 0 ) log P ( X , K , N = 0 )

Figure DE102020121064A1_0007
, womit sich notwendigerweise 1.6 erhöht.The PMHT uses expectation maximization: Q ( X , X n ) = K P ( K / X n , N = 0 ) log P ( X , K , N = 0 )
Figure DE102020121064A1_0007
, which necessarily increases 1.6.

Die Standardableitung des PMHT zeigt, dass 1,7 äquivalent ist zu: Q ( X , X n ) = log ( P ( x 1 ) k = 1 T 1 P ( x k + 1 / x k ) ) + t = 1 T r = 1 n ( t ) i = 1 m ω i , r n ( t ) log λ t r ( i , n ) + t = 1 T r = 1 n ( t ) i = 1 m ω i , r n ( t ) log π i ( t )

Figure DE102020121064A1_0008
mit πi(t) die früheren Assoziationswahrscheinlichkeiten zu jedem Modell i (das bekannt sein soll oder mit Hilfe der Erwartungsmaximierung geschätzt werden soll, siehe unten) und: ω i , r n ( t ) = P ( k r ( t ) = i / x t n , N = 0, n ( t ) ) P ( v i , t r = 0 / x t n , k r ( t ) = i , n ( t ) ) P ( k r ( t ) = i / x t n , n ( t ) ) = λ t r , n ( i ) π i ( t ) ω i , r n ( t ) = λ t r , n ( i ) π i ( t ) j = 1 m λ t r , n ( j ) π j ( t )
Figure DE102020121064A1_0009
The standard derivation of the PMHT shows that 1.7 is equivalent to: Q ( X , X n ) = log ( P ( x 1 ) k = 1 T 1 P ( x k + 1 / x k ) ) + t = 1 T right = 1 n ( t ) i = 1 m ω i , right n ( t ) log λ t right ( i , n ) + t = 1 T right = 1 n ( t ) i = 1 m ω i , right n ( t ) log π i ( t )
Figure DE102020121064A1_0008
with π i (t) the previous association probabilities for each model i (which should be known or should be estimated using expectation maximization, see below) and: ω i , right n ( t ) = P ( k right ( t ) = i / x t n , N = 0, n ( t ) ) P ( v i , t right = 0 / x t n , k right ( t ) = i , n ( t ) ) P ( k right ( t ) = i / x t n , n ( t ) ) = λ t right , n ( i ) π i ( t ) ω i , right n ( t ) = λ t right , n ( i ) π i ( t ) j = 1 m λ t right , n ( j ) π j ( t )
Figure DE102020121064A1_0009

Die posterioren Assoziationswahrscheinlichkeiten ω i , r n ( t )

Figure DE102020121064A1_0010
können für jede Art von Wahrscheinlichkeitsfunktionen λ t r , n ( i )
Figure DE102020121064A1_0011
berechnet werden. Im Sonderfall der linearisierten Innovationsfunktionen um die aktuelle iterierte Schätzung herum, wie diese mit Xn bedingen, sind die Wahrscheinlichkeiten normalerweise wie folgt verteilt: λ t r , n ( i ) = P ( v i , t r = 0 / x t n , k r ( t ) = i , n ( t ) ) = N { 0 ; h k r ( t ) ( x t n , z ^ t r ) + H t , k r ( t ) r , n ( x t n x t n ) ; Q t , k r ( t ) r , n } = N { 0 ; h k r ( t ) ( x t n , z ^ t r ) ; Q t , k r ( t ) r , n } Q t , k r ( t ) r , n = J t , k r ( t ) r , n R t r J t , k r ( t ) r , n T J t , k r ( t ) r , n = h k r ( t ) z ( x t n , z ^ t r )
Figure DE102020121064A1_0012
The posterior association probabilities ω i , right n ( t )
Figure DE102020121064A1_0010
can for any kind of probability functions λ t right , n ( i )
Figure DE102020121064A1_0011
be calculated. In the special case of linearized innovation functions around the current iterated estimate, such as those conditional with X n , the probabilities are usually distributed as follows: λ t right , n ( i ) = P ( v i , t right = 0 / x t n , k right ( t ) = i , n ( t ) ) = N { 0 ; H k right ( t ) ( x t n , e.g ^ t right ) + H t , k right ( t ) right , n ( x t n x t n ) ; Q t , k right ( t ) right , n } = N { 0 ; H k right ( t ) ( x t n , e.g ^ t right ) ; Q t , k right ( t ) right , n } Q t , k right ( t ) right , n = J t , k right ( t ) right , n R t right J t , k right ( t ) right , n T J t , k right ( t ) right , n = H k right ( t ) e.g ( x t n , e.g ^ t right )
Figure DE102020121064A1_0012

Es werden nun die Formeln für die Wahrscheinlichkeiten umgeschrieben: ω i , r n ( t ) log λ t r ( i , n ) = ω i , r n ( t ) log N { 0 ; h i ( x ^ t / t 1 ( n ) , z ^ t r ) + H t , i r ( n ) ( x t x ^ t / t 1 ( n ) ) ; Q t , i r ( n ) } = ω i , r n ( t ) 2 ( h i ( x ^ t / t 1 ( n ) , z ^ t r ) + H t , i r ( n ) ( x t x ^ t / t 1 ( n ) ) ) T ( Q t , i r ( n ) ) 1 × ( h i ( x ^ t / t 1 ( n ) , z ^ t r ) + H t , i r ( n ) ( x t x ^ t / t 1 ( n ) ) ) = 1 2 ( h i ( x ^ t / t 1 ( n ) , z ^ t r ) + H t , i r ( n ) ( x t x ^ t / t 1 ( n ) ) ) T ( Q ˜ t , i r , n ( n ) ) 1 × ( h i ( x ^ t / t 1 ( n ) , z ^ t r ) + H t , i r ( n ) ( x t x ^ t / t 1 ( n ) ) ) Q ˜ t , i r , n ( n ) = Q t , i r ( n ) ω i , r n ( t ) = J t , i r ( n ) R t r ω i , r n ( t ) J t , i r T ( n ) = J t , i r ( n ) R ˜ t , i r , n J t , i r T ( n )

Figure DE102020121064A1_0013
The formulas for the probabilities are now rewritten: ω i , right n ( t ) log λ t right ( i , n ) = ω i , right n ( t ) log N { 0 ; H i ( x ^ t / t 1 ( n ) , e.g ^ t right ) + H t , i right ( n ) ( x t x ^ t / t 1 ( n ) ) ; Q t , i right ( n ) } = ω i , right n ( t ) 2 ( H i ( x ^ t / t 1 ( n ) , e.g ^ t right ) + H t , i right ( n ) ( x t x ^ t / t 1 ( n ) ) ) T ( Q t , i right ( n ) ) 1 × ( H i ( x ^ t / t 1 ( n ) , e.g ^ t right ) + H t , i right ( n ) ( x t x ^ t / t 1 ( n ) ) ) = 1 2 ( H i ( x ^ t / t 1 ( n ) , e.g ^ t right ) + H t , i right ( n ) ( x t x ^ t / t 1 ( n ) ) ) T ( Q ˜ t , i right , n ( n ) ) 1 × ( H i ( x ^ t / t 1 ( n ) , e.g ^ t right ) + H t , i right ( n ) ( x t x ^ t / t 1 ( n ) ) ) Q ˜ t , i right , n ( n ) = Q t , i right ( n ) ω i , right n ( t ) = J t , i right ( n ) R t right ω i , right n ( t ) J t , i right T ( n ) = J t , i right ( n ) R ˜ t , i right , n J t , i right T ( n )
Figure DE102020121064A1_0013

Durch die Kombination von 1.11 und 1.8, kann Q weiter vereinfacht werden: Q ( X , X n ) = log ( P ( x 1 ) k = 1 T 1 P ( x k + 1 x k ) ) + t = 1 T r = 1 n ( t ) i = 1 m log λ ˜ t , i r , n ( i , n ) + t = 1 T r = 1 n ( t ) i = 1 m ω i , r n ( t ) log π i ( t ) λ ˜ t , i r , n ( i , n ) = log N { 0 ; h i ( x ^ t t 1 ( n ) , z ^ t r ) + H t , i r ( n ) ( x t x ^ t t 1 ( n ) ) ; Q ˜ t , i r , n ( n ) }

Figure DE102020121064A1_0014
By combining 1.11 and 1.8, Q can be further simplified: Q ( X , X n ) = log ( P ( x 1 ) k = 1 T 1 P ( x k + 1 x k ) ) + t = 1 T right = 1 n ( t ) i = 1 m log λ ˜ t , i right , n ( i , n ) + t = 1 T right = 1 n ( t ) i = 1 m ω i , right n ( t ) log π i ( t ) λ ˜ t , i right , n ( i , n ) = log N { 0 ; H i ( x ^ t t 1 ( n ) , e.g ^ t right ) + H t , i right ( n ) ( x t x ^ t t 1 ( n ) ) ; Q ˜ t , i right , n ( n ) }
Figure DE102020121064A1_0014

Dies ist äquivalent zu: Q ( X , X n ) = log ( P ( X , N ˜ ( n ) = 0 ) ) + t = 1 T r = 1 n ( t ) i = 1 m ω i , r n ( t ) log π i ( t )

Figure DE102020121064A1_0015
This is equivalent to: Q ( X , X n ) = log ( P ( X , N ˜ ( n ) = 0 ) ) + t = 1 T right = 1 n ( t ) i = 1 m ω i , right n ( t ) log π i ( t )
Figure DE102020121064A1_0015

Wobei Ñ(n) ein synthetischer Innovationsvektor ohne Assoziationsunsicherheit ist, wie z.B: N ˜ ( n ) = [ v 1,1 1, n ( n ) v 1, m n ( 1 ) , n ( n ) v T ,1 1, n ( n ) v T , m n ( T ) , n ( n ) ] T

Figure DE102020121064A1_0016
Where Ñ(n) is a synthetic innovation vector without association uncertainty, such as: N ˜ ( n ) = [ v 1.1 1, n ( n ) v 1, m n ( 1 ) , n ( n ) v T ,1 1, n ( n ) v T , m n ( T ) , n ( n ) ] T
Figure DE102020121064A1_0016

Wobei jede Innovation v t , i r , n ( n ) = h i ( x t , z ˜ t , i r , n )

Figure DE102020121064A1_0017
um die Zustandsvorhersageerwartung x ^ t / t 1 ( n )
Figure DE102020121064A1_0018
linearisiert wird und die synthetische Messung z ˜ t , i r , n
Figure DE102020121064A1_0019
der Kovarianz R ˜ t , i r , n
Figure DE102020121064A1_0020
verwendet (diese Messung wird synthetisch genannt, da ihre Kovarianz aufgeblasen wurde). Diese Messungen sind natürlich nicht miteinander korreliert (Annahme 1), so wie angenommen wird, dass die gemeinsame Kovarianz der synthetischen Messungen diagonal ist: R ˜ n = diag ( R ˜ t , i r , n ) t = 1 T i = 1 m r = 1 n ( t )
Figure DE102020121064A1_0021
Where every innovation v t , i right , n ( n ) = H i ( x t , e.g ˜ t , i right , n )
Figure DE102020121064A1_0017
about the state prediction expectation x ^ t / t 1 ( n )
Figure DE102020121064A1_0018
is linearized and the synthetic measurement e.g ˜ t , i right , n
Figure DE102020121064A1_0019
the covariance R ˜ t , i right , n
Figure DE102020121064A1_0020
used (this measurement is called synthetic because its covariance has been inflated). These measurements are of course uncorrelated with each other (Assumption 1), as the common covariance of the synthetic measurements is assumed to be diagonal: R ˜ n = diag ( R ˜ t , i right , n ) t = 1 T i = 1 m right = 1 n ( t )
Figure DE102020121064A1_0021

Wenn der synthetische Messvektor für jeden Zeitschritt definieren wird, wie: z ˜ t n = [ z ˜ t ,1 1, n z ˜ t , m 1, n z ˜ t ,1 n ( t ) , n z ˜ t , m n ( t ) , n ] T

Figure DE102020121064A1_0022
If the synthetic measurement vector for each time step is defined as: e.g ˜ t n = [ e.g ˜ t ,1 1, n e.g ˜ t , m 1, n e.g ˜ t ,1 n ( t ) , n e.g ˜ t , m n ( t ) , n ] T
Figure DE102020121064A1_0022

Dann ist Innovationsfunktion für diesen synthetischen Messvektor (und der Einfachheit halber Ñ(n)=Ñ notiert): N ˜ = h ˜ ( X , Z ˜ ) = [ h 1 ( x 1 , z ˜ 1,1 1, n ) h m ( x 1 , z ˜ 1, m 1, n ) h 1 ( x 1 , z ˜ 1,1 n ( 1 ) , n ) h m ( x 1 , z ˜ 1, m n ( 1 ) , n ) } m × n ( 1 ) h 1 ( x T , z ˜ T ,1 1, n ) h m ( x T , z ˜ T , m 1, n ) h 1 ( x T , z ˜ T ,1 n ( T ) , n ) h m ( x T , z ˜ T , m n ( T ) , n ) } m × n ( T ) ] = [ h ˜ 1 ( x 1 , z ˜ 1 n ) h ˜ T ( x T , z ˜ T n ) ]

Figure DE102020121064A1_0023
Then the innovation function for this synthetic measurement vector (and for the sake of simplicity Ñ(n)=Ñ is noted): N ˜ = H ˜ ( X , Z ˜ ) = [ H 1 ( x 1 , e.g ˜ 1.1 1, n ) H m ( x 1 , e.g ˜ 1, m 1, n ) H 1 ( x 1 , e.g ˜ 1.1 n ( 1 ) , n ) H m ( x 1 , e.g ˜ 1, m n ( 1 ) , n ) } m × n ( 1 ) H 1 ( x T , e.g ˜ T ,1 1, n ) H m ( x T , e.g ˜ T , m 1, n ) H 1 ( x T , e.g ˜ T ,1 n ( T ) , n ) H m ( x T , e.g ˜ T , m n ( T ) , n ) } m × n ( T ) ] = [ H ˜ 1 ( x 1 , e.g ˜ 1 n ) H ˜ T ( x T , e.g ˜ T n ) ]
Figure DE102020121064A1_0023

Die Optimierung von Q ist daher äquivalent zur Optimierung von log(P(X, Ñ = 0)), was äquivalent zur Optimierung von P(X, Ñ = 0) ist, was äquivalent zur Optimierung von P(X/Ñ = 0) ist, da das vorherige P(Ñ = 0) unabhängig von X ist.Optimizing Q is therefore equivalent to optimizing log(P(X, Ñ = 0)), which is equivalent to optimizing P(X, Ñ = 0), which is equivalent to optimizing P(X/Ñ = 0) is since the previous P(Ñ = 0) is independent of X.

Dies ist genau das, was ein Kalman-Filter tun würde, da er in der Lage ist, den Mittelwert und die Kovarianz jeder Normalverteilung P(xt/Ñ = 0) zu schätzen. P(xt/Ñ = 0) ist eine Normalverteilung, da gemäß Annahme 7 angenommen wird, dass x1 normalverteilt ist, und daher: x 1 [ x 1 x 2 = F 1 x 1 + q 1 ]

Figure DE102020121064A1_0024
ist ebenfalls normalverteilt, da die vorherige Transformation gemäß Annahme 6 linear verläuft. Daher ist pro Induktion der des Messvektors X = [x1 xT]T normalverteilt. Gemäß Annahme 5 ist P(Ñ/X) ebenfalls normalverteilt, und zwar nach der Bayes-Regel: P ( X N ˜ = 0 ) P ( N ˜ = 0 X ) P ( X )
Figure DE102020121064A1_0025
This is exactly what a Kalman filter would do since it is able to estimate the mean and covariance of any normal distribution P(x t /Ñ = 0). P(x t /Ñ = 0) is a normal distribution since, by Assumption 7, x 1 is assumed to be normally distributed, and therefore: x 1 [ x 1 x 2 = f 1 x 1 + q 1 ]
Figure DE102020121064A1_0024
is also normally distributed since the previous transformation is linear according to Assumption 6. Therefore, per induction, that of the measurement vector X = [x 1 x T ] T is normally distributed. According to Assumption 5, P(Ñ/X) is also normally distributed, according to Bayes' rule: P ( X N ˜ = 0 ) P ( N ˜ = 0 X ) P ( X )
Figure DE102020121064A1_0025

Dies ist ebenfalls eine Normalverteilung, wie in der Ableitung des Kalman-Filters gezeigt wurde.This is also a normal distribution, as shown in the derivation of the Kalman filter.

Das Maximum von P(X/Ñ = 0) ist daher der Mittelwert von P(X/Ñ = 0), der die Sammlung des Mittelwertes jedes P(xt/Ñ = 0) ist, der das Ergebnis der Kalman-Glättung ist. Es ergibt sich somit: X n + 1 = [ x 1 n + 1 x T n + 1 ] T = argmax Q X ( X , X n ) = E [ X / N ˜ = 0 ] = [ x ^ 1 ( n ) x ^ T ( n ) ] T = X ( n ) T

Figure DE102020121064A1_0026
The maximum of P(X/Ñ=0) is therefore the mean of P(X/Ñ=0), which is the collection of the mean of each P(x t /Ñ=0), which is the result of Kalman smoothing . The result is: X n + 1 = [ x 1 n + 1 x T n + 1 ] T = argmax Q X ( X , X n ) = E [ X / N ˜ = 0 ] = [ x ^ 1 ( n ) x ^ T ( n ) ] T = X ( n ) T
Figure DE102020121064A1_0026

Nichtsdestotrotz wird die Ausführung eines Kalman-Filters auf der synthetischen Messung Z umständlich sein, da die Anzahl der Messungen um den Faktor m erhöht wurde. Es ist daher eine Methode benötigt, um die Aktualisierung der Kalman-Messung für eine große Anzahl von Messungen effizient auszuführen. Tatsächlich muss eine Aktualisierung der Kalman-Messung normalerweise die Kovarianz der Innovation umkehren. Es ist möglich, für jede Messwertaktualisierung in jedem Zeitschritt t unter Verwendung der Inversion Lemma die Kalman-Verstärkung und die aktualisierte Zustandskovarianzmatrix in das Informationsformular zu schreiben. Wir nutzen auch die Tatsache, dass die Erwartung einer synthetischen Messung z ˜ ^ t , i r , n

Figure DE102020121064A1_0027
gleich der Erwartung der nicht synthetischen Messung z ^ t r
Figure DE102020121064A1_0028
ist, da nur die Kovarianz aufgeblasen wird: P t ( n ) = ( H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 H ˜ t ( n ) + P t / t 1 1 ( n ) ) 1 K t ( n ) = P t ( n ) H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 R ˜ t n = Diag ( R ˜ t , i r , n ) t = 1 m r = 1 n ( t ) H ˜ t ( n ) = h ˜ t x t ( x ^ t / t 1 ( n ) , z ˜ ^ t n ) = [ h 1 x t ( x ^ t / t 1 ( n ) , z ^ t 1 ) h m x t ( x ^ t / t 1 ( n ) , z ^ t 1 ) h 1 x t ( x ^ t / t 1 ( n ) , z ^ t n ( t ) ) h m x t ( x ^ t / t 1 ( n ) , z ^ t n ( t ) ) ] = [ H t ,1 1 ( n ) H t , m 1 ( n ) H t ,1 n ( t ) ( n ) H t , m n ( t ) ( n ) ] J ˜ t ( n ) = h ˜ t z ˜ t n ( x ^ t / t 1 ( n ) , z ˜ ^ t n ) = [ h 1 z ˜ t n ( x ^ t / t 1 ( n ) , z ^ t 1 ) h m z ˜ t n ( x ^ t / t 1 ( n ) , z ^ t 1 ) h 1 z ˜ t n ( x ^ t / t 1 ( n ) , z ^ t n ( t ) ) h m z ˜ t n ( x ^ t / t 1 ( n ) , z ^ t n ( t ) ) ] = [ J ˜ t ,1 1 ( n ) J ˜ t , m 1 ( n ) J ˜ t ,1 n ( t ) ( n ) J ˜ t , m n ( t ) ( n ) ]
Figure DE102020121064A1_0029
Nevertheless, running a Kalman filter on the synthetic measurement Z will be cumbersome since the number of measurements has been increased by a factor of m. A method is therefore needed to efficiently perform Kalman measurement updating for a large number of measurements. In fact, updating the Kalman measurement usually needs to reverse the covariance of the innovation. It is possible to write the Kalman gain and the updated state covariance matrix in the information form for each measured value update in each time step t using the inversion Lemma. We also use the fact that the expectation is a synthetic measurement e.g ˜ ^ t , i right , n
Figure DE102020121064A1_0027
equal to the expectation of non-synthetic measurement e.g ^ t right
Figure DE102020121064A1_0028
is, since only the covariance is inflated: P t ( n ) = ( H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 H ˜ t ( n ) + P t / t 1 1 ( n ) ) 1 K t ( n ) = P t ( n ) H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 R ˜ t n = Diag ( R ˜ t , i right , n ) t = 1 m right = 1 n ( t ) H ˜ t ( n ) = H ˜ t x t ( x ^ t / t 1 ( n ) , e.g ˜ ^ t n ) = [ H 1 x t ( x ^ t / t 1 ( n ) , e.g ^ t 1 ) H m x t ( x ^ t / t 1 ( n ) , e.g ^ t 1 ) H 1 x t ( x ^ t / t 1 ( n ) , e.g ^ t n ( t ) ) H m x t ( x ^ t / t 1 ( n ) , e.g ^ t n ( t ) ) ] = [ H t ,1 1 ( n ) H t , m 1 ( n ) H t ,1 n ( t ) ( n ) H t , m n ( t ) ( n ) ] J ˜ t ( n ) = H ˜ t e.g ˜ t n ( x ^ t / t 1 ( n ) , e.g ˜ ^ t n ) = [ H 1 e.g ˜ t n ( x ^ t / t 1 ( n ) , e.g ^ t 1 ) H m e.g ˜ t n ( x ^ t / t 1 ( n ) , e.g ^ t 1 ) H 1 e.g ˜ t n ( x ^ t / t 1 ( n ) , e.g ^ t n ( t ) ) H m e.g ˜ t n ( x ^ t / t 1 ( n ) , e.g ^ t n ( t ) ) ] = [ J ˜ t ,1 1 ( n ) J ˜ t , m 1 ( n ) J ˜ t ,1 n ( t ) ( n ) J ˜ t , m n ( t ) ( n ) ]
Figure DE102020121064A1_0029

Die zur Berechnung von Pt(n) notwendige Inversion hat die Dimension des Zustands, die im Vergleich zur Dimension der Innovation klein ist. Auch aufgrund der Tatsache, dass h i ( x t , z ˜ t n )

Figure DE102020121064A1_0030
nur von z ˜ t , i r , n
Figure DE102020121064A1_0031
und nicht von den anderen Komponenten von z ˜ t n
Figure DE102020121064A1_0032
abhängt, hat jede Submatrix J ˜ t , i r ( n )
Figure DE102020121064A1_0033
die Form: J ˜ t , i r ( n ) = [ 0 0 p t , i r h i z ˜ t , i r , n ( x ^ t / t 1 ( n ) , z ˜ t , i r , n ) 0 0 q t , i r ] = [ 0 0 p t , i r J t , i r ( n ) 0 0 q t , i r ]
Figure DE102020121064A1_0034
wobei p t , i r
Figure DE102020121064A1_0035
und q t , i r
Figure DE102020121064A1_0036
die Anzahl der Variablen vor bzw. nach z ˜ t , i r , n
Figure DE102020121064A1_0037
in dem synthetischen Meßvektor z ˜ t r
Figure DE102020121064A1_0038
sind. Auch g J ˜ t , i r ( n )
Figure DE102020121064A1_0039
hat eine Anzahl von Zeilen, die der Dimension der Innovation hi entspricht (dies hängt von i ab).The inversion necessary to calculate P t (n) has the dimension of state, which is small compared to the dimension of innovation. Also due to the fact that H i ( x t , e.g ˜ t n )
Figure DE102020121064A1_0030
only from e.g ˜ t , i right , n
Figure DE102020121064A1_0031
and not by the other components of e.g ˜ t n
Figure DE102020121064A1_0032
depends, each submatrix has J ˜ t , i right ( n )
Figure DE102020121064A1_0033
form: J ˜ t , i right ( n ) = [ 0 0 p t , i right H i e.g ˜ t , i right , n ( x ^ t / t 1 ( n ) , e.g ˜ t , i right , n ) 0 0 q t , i right ] = [ 0 0 p t , i right J t , i right ( n ) 0 0 q t , i right ]
Figure DE102020121064A1_0034
whereby p t , i right
Figure DE102020121064A1_0035
and q t , i right
Figure DE102020121064A1_0036
the number of variables before or after e.g ˜ t , i right , n
Figure DE102020121064A1_0037
in the synthetic measurement vector e.g ˜ t right
Figure DE102020121064A1_0038
are. also g J ˜ t , i right ( n )
Figure DE102020121064A1_0039
has a number of rows equal to the innovation dimension h i (this depends on i).

Die Matrix J ˜ t ( n ) R ˜ t n J ˜ t T ( n )

Figure DE102020121064A1_0040
ist folglich blockdiagonal und ihre Umkehrung ist kostengünstig und der Begriff H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 H ˜ t ( n )
Figure DE102020121064A1_0041
ist ebenfalls kostengünstig zu berechnen, da es sich um die einfache Summe handelt: H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 H ˜ t ( n ) = r = 1 n ( t ) i = 1 m H t , i r T ( n ) ( J t , i r ( n ) R ˜ t , i r , n J t , i r T ( n ) ) 1 H t , i r ( n )
Figure DE102020121064A1_0042
The Matrix J ˜ t ( n ) R ˜ t n J ˜ t T ( n )
Figure DE102020121064A1_0040
is consequently block diagonal and its inverse is cost effective and the term H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 H ˜ t ( n )
Figure DE102020121064A1_0041
can also be calculated inexpensively, since it is the simple sum: H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 H ˜ t ( n ) = right = 1 n ( t ) i = 1 m H t , i right T ( n ) ( J t , i right ( n ) R ˜ t , i right , n J t , i right T ( n ) ) 1 H t , i right ( n )
Figure DE102020121064A1_0042

In ähnlicher Weise aufgrund der Tatsache, dass J ˜ T ( n ) R ˜ t n J ˜ t T ( n )

Figure DE102020121064A1_0043
blockdiagonal ist, ergibt sich: H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 = [ H t , i r T ( n ) ( J t , i r ( n ) R ˜ t , i r , n J t , i r T ( n ) ) 1 ] t = 1 T i = 1 m r = 1 n ( t )
Figure DE102020121064A1_0044
Similarly, due to the fact that J ˜ T ( n ) R ˜ t n J ˜ t T ( n )
Figure DE102020121064A1_0043
is block diagonal, we get: H ˜ t T ( n ) ( J ˜ t ( n ) R ˜ t n J ˜ t T ( n ) ) 1 = [ H t , i right T ( n ) ( J t , i right ( n ) R ˜ t , i right , n J t , i right T ( n ) ) 1 ] t = 1 T i = 1 m right = 1 n ( t )
Figure DE102020121064A1_0044

Es ist auch möglich, die früheren Wahrscheinlichkeiten mittels Erwartungsmaximierung zu aktualisieren, wenn diese nicht genau bekannt sind. Es wird angenommen, dass eine tatsächliche Schätzung von π bei der nth Iteration, die als πn bezeichnet wird. Die Funktion kann also derart umgeschrieben werden, dass diese optimiert wird: Q ( X , π , X n ) k P ( K X n , π n , N = 0 ) log P ( X , K , N = 0 )

Figure DE102020121064A1_0045
It is also possible to update the previous probabilities using expectation maximization if they are not exactly known. An actual estimate of π is assumed at the nth iteration, denoted π n . The function can therefore be rewritten in such a way that it is optimized: Q ( X , π , X n ) k P ( K X n , π n , N = 0 ) log P ( X , K , N = 0 )
Figure DE102020121064A1_0045

Q ist eine Funktion von π, weil es implizit in P(X, K, N = 0) vorhanden ist. Identisch zu dem, was bereits durchgeführt wurde, kann Q(X, π, Xn) umgeschrieben, so dass: Q ( X , π , X n , π n ) = log ( P ( X , N ˜ = 0 ) ) + t = 1 T r = 1 n ( t ) i = 1 m ω i , r n ( t ) log π i ( t )

Figure DE102020121064A1_0046
wobei ω i , r n ( t )
Figure DE102020121064A1_0047
unter Verwendung von πn berechnet wird. Es kann als 1.26 aufgeteilt werden in: Q ( X , π , X n , π n ) = Q X ( X , X n , π n ) + t = 1 T Q t , π ( π ( t ) , X n , π n ) = Q X ( X , X n , π n ) + Q π ( π , N n , π n ) Q X ( X , X n , π n ) = log ( P ( X , N ˜ = 0 ) ) Q t , π ( π ( t ) , X n , π n ) = r = 1 n ( t ) i = 1 m ω i , r n ( t ) log π i ( i ) Q π ( π , X n , π n ) = t = 1 T Q t , π ( π ( t ) , X n )
Figure DE102020121064A1_0048
Q is a function of π because it is implicit in P(X, K, N = 0). Identical to what has already been done, Q(X, π, X n ) can be rewritten such that: Q ( X , π , X n , π n ) = log ( P ( X , N ˜ = 0 ) ) + t = 1 T right = 1 n ( t ) i = 1 m ω i , right n ( t ) log π i ( t )
Figure DE102020121064A1_0046
whereby ω i , right n ( t )
Figure DE102020121064A1_0047
is calculated using π n . It can be split as 1.26 into: Q ( X , π , X n , π n ) = Q X ( X , X n , π n ) + t = 1 T Q t , π ( π ( t ) , X n , π n ) = Q X ( X , X n , π n ) + Q π ( π , N n , π n ) Q X ( X , X n , π n ) = log ( P ( X , N ˜ = 0 ) ) Q t , π ( π ( t ) , X n , π n ) = right = 1 n ( t ) i = 1 m ω i , right n ( t ) log π i ( i ) Q π ( π , X n , π n ) = t = 1 T Q t , π ( π ( t ) , X n )
Figure DE102020121064A1_0048

Qx(X,Xn, πn) wurde mit dem Kalman-Filter bereits maximiert, jetzt kann Qπ(π,Xn, πn) maximiert werden. Es wird Qt,π(π(t),Xn, πn) für jeden Zeitschritt t in Bezug auf π(t) maximiert und somit Qπ(π,Xn, πn) maximiert. Es wird als maximiert: π n + 1 ( t ) = arg max π ( t ) Q t , π ( π ( t ) , X n , π n ) = arg max π ( t ) r = 1 n ( t ) i = 1 m ω i , r n ( t ) log π i ( t )

Figure DE102020121064A1_0049
Q x (X,X n , π n ) has already been maximized with the Kalman filter, now Q π (π,X n , π n ) can be maximized. Q t,π (π(t),X nn ) is maximized for each time step t with respect to π(t) and thus Q π (π,X nn ) is maximized. It is maximized as: π n + 1 ( t ) = bad Max π ( t ) Q t , π ( π ( t ) , X n , π n ) = bad Max π ( t ) right = 1 n ( t ) i = 1 m ω i , right n ( t ) log π i ( t )
Figure DE102020121064A1_0049

Unter der Bedingung: i = 1 m π i n + 1 ( t ) = 1

Figure DE102020121064A1_0050
Under the condition: i = 1 m π i n + 1 ( t ) = 1
Figure DE102020121064A1_0050

Erhält man den Lagrange: L t = Q t , π ( π ( t ) , X n , π n ) + λ t ( 1 i = 1 m π i n + 1 ( t ) )

Figure DE102020121064A1_0051
To get the Lagrangian: L t = Q t , π ( π ( t ) , X n , π n ) + λ t ( 1 i = 1 m π i n + 1 ( t ) )
Figure DE102020121064A1_0051

Das beschränkte Maximum des Lagrange erfüllt die Bedingung für jedes feste (i',t'): L t π i , ( t ' ) = 0 r = 1 n ( t ) ω i ' , r n ( t ' ) π i ' n + 1 ( t ' ) λ t = 0 π i ' n + 1 ( t ' ) = 1 λ t r = 1 n ( t ) ω i ' , r n ( t ' )

Figure DE102020121064A1_0052
The bounded maximum of the Lagrangian satisfies the condition for any fixed (i',t'): L t π i , ( t ' ) = 0 right = 1 n ( t ) ω i ' , right n ( t ' ) π i ' n + 1 ( t ' ) λ t = 0 π i ' n + 1 ( t ' ) = 1 λ t right = 1 n ( t ) ω i ' , right n ( t ' )
Figure DE102020121064A1_0052

Mit der Einschränkung, dass alle Priors auf 1 summiert werden sollen, erhalten man: i ' = 1 m π i ' n + 1 ( t ' ) = 1 i ' = 1 m r = 1 n ( t ) ω i ' , r n ( t ' ) = λ t = r = 1 n ( t ) i ' = 1 m ω i ' , r n ( t ' ) = r = 1 n ( t ) 1 = n ( t )

Figure DE102020121064A1_0053
With the restriction that all priors should be summed to 1, we get: i ' = 1 m π i ' n + 1 ( t ' ) = 1 i ' = 1 m right = 1 n ( t ) ω i ' , right n ( t ' ) = λ t = right = 1 n ( t ) i ' = 1 m ω i ' , right n ( t ' ) = right = 1 n ( t ) 1 = n ( t )
Figure DE102020121064A1_0053

Wodurch schließlich die Formel zur Aktualisierung der früheren Wahrscheinlichkeiten erzeugt ist: π i n + 1 ( t ) = 1 n ( t ) r = 1 n ( t ) ω i , r n ( t )

Figure DE102020121064A1_0054
Finally, the formula for updating the previous probabilities is generated: π i n + 1 ( t ) = 1 n ( t ) right = 1 n ( t ) ω i , right n ( t )
Figure DE102020121064A1_0054

Gleichung 1.33 ermöglicht es dem PMHT, selbst herauszufinden, welche Seiten 10 des Objekts 7 mit größerer Wahrscheinlichkeit erkannt werden, und erhöht die Leistung des Filters. Wenn jedoch eine Seite 10 während eines Zeitschrittes überhaupt nicht erkannt wurde, sind die aktualisierten früheren Wahrscheinlichkeiten 0, und der PMHT ist daher nicht mehr in der Lage, dieser Seite 10 des Objekts 7 zuzuordnen, selbst wenn diese Seite 10 plötzlich erkannt wird, typischerweise aufgrund einer Änderung der Position des verfolgten Objekts 7 relativ zur Erfassungseinrichtung. Um diesen Effekt zu verhindern, wird 1.33 verwendet, wobei sichergestellt wird, dass die aktualisierten früheren Wahrscheinlichkeiten nicht kleiner als ein definierter Schwellenwert werden.Equation 1.33 allows the PMHT to figure out by itself which sides 10 of the object 7 are more likely to be detected and increases the performance of the filter. However, if a side 10 was not detected at all during a time step, the updated prior probabilities are 0 and the PMHT is therefore no longer able to associate that side 10 of object 7 even if that side 10 is suddenly detected, typically due to a change in the position of the tracked object 7 relative to the detection device. To prevent this effect, 1.33 is used, ensuring that the updated prior probabilities do not become smaller than a defined threshold.

Die Hypothese, die besagt, dass „alle Assoziationen unabhängig voneinander sind“, kann tatsächlich dazu führen, dass die oben vorgestellte PMHT in unerwünschten lokalen Maxima stecken bleibt. Diese Hypothese impliziert, dass alle Messungen vom gleichen Modell ausgehen können, was zu folgendem Verhalten führen kann: „Alle Assoziationen sind unabhängig voneinander“:

  • Alle Messungen können der falschen Seite 10 des Objekts 7 zugeordnet werden, wenn ein Ziel von hinten erfasst wird: Auch bei Laserscannern sind Messungen aus dem Inneren des Objekts 7 üblich und es muss das Innenmodell verwendet werden. Auch die vorderen Ecken 11 können von hinten detektiert werden (Autos sind nicht perfekt rechteckig, so dass Echos von der Seitenfläche reflektiert werden können), so dass auch die Modelle für die vorderen Ecken 11 verwendet werden müssen. Wenn das Ziel beschleunigt wird und gerade mit einer etwas zu geringen Geschwindigkeit initialisiert wurde, driften die Assoziationen für den ersten und letzten Punkt zum linken und rechten Linienmodell und für die anderen Punkte zum Innenmodell. Schließlich, nach einigen Zeitschritten, werden der erste und der letzte Punkt mit den vorderen Ecken 11 assoziiert und die anderen Punkte entweder mit der vorderen Linie oder, auch wenn die vordere Linie verdeckt ist, mit dem Innenmodell oder dem Clutter.
The hypothesis stating that “all associations are independent of each other” may actually result in the PMHT presented above getting stuck in undesired local maxima. This hypothesis implies that all measurements can start from the same model, which can lead to the following behavior: "All associations are independent of each other":
  • All measurements can be assigned to the wrong side 10 of the object 7 when a target is detected from behind: measurements from inside the object 7 are also common with laser scanners and the inside model must be used. Also the front corners 11 can be detected from behind (cars are not perfectly square so echoes can be reflected from the side surface), so the models for the front corners 11 must also be used. If the target is accelerating and has just been initialized at a slightly too low speed, the associations for the first and last points will drift to the left and right line models and for the other points to the interior model. Finally, after some time steps, the first and the last point become associated with the front corners 11 and the other points either with the front line or, even if the front line is obscured, with the interior model or the clutter.

Ein ähnliches Problem kann bei der Radartechnolgie auftreten, wenn ein Ziel von der Seite 10 erfasst wird. Radar kann prinzipiell Messungen überall auf dem Ziel erfassen, und es müssen alle Modelle einschließlich der im Prinzip verdeckten Seiten 10 verwendet werden. Da Radar in der Nähe des Zieles sehr viel Clutter erzeugen kann, muss die Wahrscheinlichkeit des Clutter-Modells für eine korrekte Zielverfolgung recht hoch angesetzt werden. Daher können Punkte, selbst wenn sie im Inneren des Ziels erkannt werden, mit Clutter in Verbindung gebracht werden, und das Ziel bleibt auf der falschen Seite 10 stecken.A similar problem can occur with radar technology when a target is detected from the side 10. Radar can in principle acquire measurements anywhere on the target, and all models including the essentially hidden sides 10 must be used. Because radar can generate a lot of clutter near the target, the clutter model's probability of correctly tracking the target must be set quite high. Therefore, even if spots are detected inside the target, they can be associated with clutter and the target will get stuck on the wrong side 10.

Ferner kann jedes Rechteck, das alle Entdeckungen umfasst, ein gültiges lokales Maximum aufweisen. Alle Messungen können dem inneren Modell zugeordnet werden und keine oder nur sehr wenige der Kontur. Dies kann beim Radar besonders problematisch sein, da wir die vorherigen Assoziationswahrscheinlichkeiten der verborgenen Seiten 10 und Ecken 11 nicht auf 0 setzen können. Das geschätzte Ziel kann zu groß sein.Furthermore, each rectangle enclosing all discoveries can have a valid local maximum. All measurements can be assigned to the inner model and none or very few to the contour. This can be particularly problematic with radar since we cannot set the previous association probabilities of the hidden faces 10 and corners 11 to 0. Estimated target may be too big.

Des Weiteren, wenn ein Ziel zu stark gewachsen ist, kann es nie wieder schrumpfen. Dies kann während der Initialisierung geschehen, wenn die Längenunsicherheit groß ist. Es kann auch passieren, wenn einige Clutter-Messungen dazu führten, dass das Ziel zu stark gewachsen ist.Furthermore, once a target has grown too much, it can never shrink again. This can happen during initialization when the length uncertainty is large. It can also happen if some clutter measurements caused the target to grow too much.

All diese Probleme werden durch eine falsche Wahl der Wahrscheinlichkeiten der posterioren Assoziation verursacht. Im ersten Beispiel besteht das Problem darin, dass der Filter nicht weiß, dass mindestens eine Messung aus jeder Ecke 11 kommen muss, da wir das Ziel von hinten erfassen, oder dass mindestens eine Messung von der Rückseite kommen muss. Das Problem im zweiten Beispiel ist dasselbe, da einige Messungen entweder von der vorderen und hinteren linken Ecke 11 oder von der Rückseite kommen müssen. Im dritten und vierten Beispiel würde das PMHT zur richtigen Schätzung konvergieren, wenn es wüsste, dass mindestens eine Messung von der vorderen linken und hinteren rechten Ecke 11 kommen muss.All of these problems are caused by an incorrect choice of posterior association probabilities. In the first example, the problem is that the filter doesn't know that at least one measurement must come from each corner 11 since we are capturing the target from behind, or that at least one measurement must come from the back. The problem in the second example is the same, as some measurements must come from either the front and back left corners 11 or from the back. In the third and fourth examples, the PMHT would converge to the correct estimate if it knew that at least one measurement must come from the front left and back right corners 11 .

Daher wird erfindungsgemäß die Annahme, dass alle Assoziationen unabhängig voneinander sind, fallen gelassen und das Wissen einbezogen, dass „zumindest bestimmte Modelle eine (oder mehrere) Messungen erhalten“. Diese Beschränkung der Assoziation kann je nach Betrachtungswinkel, unter dem das Objekt 7 erfasst wird, oder je nach seinem Abstand zur Erfassungseinrichtung 5 aktiv oder inaktiv sein. Es kann der Beschränkung auch eine bestimmte Wahrscheinlichkeit zugeordnet werden, ob dies gültig ist oder nicht, um ein hartes Ein-/Ausschalten dieser Beschränkung zu vermeiden.Therefore, according to the invention, the assumption that all associations are independent of each other is dropped and the knowledge that “at least certain models receive one (or more) measurements” is included. This limitation of the association can be active or inactive depending on the viewing angle at which the object 7 is detected or depending on its distance from the detection device 5 . A certain probability can also be assigned to the constraint as to whether this is valid or not, in order to avoid hard switching on/off of this constraint.

Die Hypothese, dass „die Assoziation von Messungen zu einer Seite 10 des Objekts 7 unabhängig voneinander sind“, wird entfernt und durch die neuen Hypothesen ersetzt.The hypothesis that "the association of measurements to a side 10 of the object 7 are independent" is removed and replaced by the new hypotheses.

Zu jedem Zeitschritt muss einem bestimmten Satz von Modellen, die für jeden Zeitschritt unterschiedlich sein können), mindestens eine bestimmte Anzahl von Messungen, die ebenfalls für jeden Zeitschritt unterschiedlich sein können, zugeordnet werden. Es wird die Variable κ erzeugt, die einen Fall einer solchen möglichen Assoziation über alle Zeitschritte repräsentiert, und κ(t) für einen bestimmten Zeitschritt t. Zum Beispiel, wenn im Zeitschritt t mindestens eine Messung aus den Modellen i1(t),, imct (t) stammen soll, wobei die Anzahl der beschränkten Modelle zum Zeitpunkt des Zeitschritts t mc,t ≤ m ist, dann ist eine Instanz von (κ(1),, κ(T)) und für jeden Zeitschritt κ(t) = (kr1(t) = i1(t),,krm c,t(t)(t)). Dabei ist zu beachten, dass für ein gegebenes κ nicht alle Messungen eine feste Zuordnung haben, sondern nur die, die mit den eingeschränkten Modellen verknüpft sind.For each time step, at least a certain number of measurements, which can also be different for each time step, must be assigned to a specific set of models (which can be different for each time step). The variable κ is generated, which represents a case of such a possible association over all time steps, and κ(t) for a specific time step t. For example, if at time step t at least one measurement from the models i 1 (t),, i m ct (t) where the number of bounded models at time step tm is c,t ≤ m, then an instance of (κ(1),, κ(T)) and for each time step κ(t) = ( kr 1 (t) = i 1 (t),,k r m c, t (t) (t)). It should be noted that for a given κ, not all measurements have a fixed association, only those associated with the constrained models.

Ferner sind alle Instanzen von κ a priori gleichwahrscheinlich und unabhängig vom Zustand.Furthermore, all instances of κ are a priori equally probable and state-independent.

Des Weiteren sind für ein gegebenes κ die Assoziationen für die nicht eingeschränkten Messungen, die Messungen, deren Assoziation nicht fixiert wurde, unabhängig voneinander, was der gleichen Hypothese entspricht, wie für den Standard-PMHT.Furthermore, for a given κ, the associations for the unconstrained measures, the measures whose association was not fixed, are independent of each other, which corresponds to the same hypothesis as for the standard PMHT.

Ferner sind die früheren Assoziationswahrscheinlichkeiten unabhängig vom Zustand, was der gleichen Hypothese entspricht, wie für den Standard-PMHT, und für alle Instanzen von κ identisch.Furthermore, the prior association probabilities are independent of state, consistent with the same hypothesis as for the standard PMHT, and are identical for all instances of κ.

Die Anzahl der möglichen Instanzen für κ ist kombinatorisch. Wenn die Nebenbedingung beispielsweise mindestens eine Messung ist, muss sie mit den beschränkten Modellen i1(t),, imc,t et), κ(t) assoziiert werden, wobei dies ( n ( t ) m c , t )

Figure DE102020121064A1_0055
Möglichkeiten hat, wodurch κ t = 1 T ( n ( t ) m c , t )
Figure DE102020121064A1_0056
Möglichkeiten hat.The number of possible instances for κ is combinatorial. For example, if the constraint is at least one measurement, it must be satisfied with the bounded models i 1 (t),, i m c, t et), κ(t) are associated, where this ( n ( t ) m c , t )
Figure DE102020121064A1_0055
has opportunities, whereby κ t = 1 T ( n ( t ) m c , t )
Figure DE102020121064A1_0056
has opportunities.

Im Prinzip ist jede Art von Randbedingung möglich, solange es genügend Messungen gibt, wobei nicht festgelegt werden kann, dass es mehr Randbedingungen als Messungen geben soll. Aufgrund der kombinatorischen Anzahl von Möglichkeiten wird auch eine Methode benötigt, um κ nur für die wahrscheinlichsten Fälle zu beproben.In principle, any kind of boundary condition is possible as long as there are enough measurements, whereby it cannot be specified that there should be more boundary conditions than measurements. Because of the combinatorial number of possibilities, a method is also needed to sample κ only for the most likely cases.

Es soll daher die die Q-Funktion 1.7 maximiert werden: K P ( K X n , N = 0 ) l o g P ( X ) = l o g P ( X ) K P ( K X n , N = 0 ) = P ( X )

Figure DE102020121064A1_0057
The Q-function 1.7 should therefore be maximized: K P ( K X n , N = 0 ) l O G P ( X ) = l O G P ( X ) K P ( K X n , N = 0 ) = P ( X )
Figure DE102020121064A1_0057

Dadurch entsteht: Q ( X , X n ) = K P ( K X n , N = 0 ) log P ( X , K , N = 0 ) = log P ( X ) + K P ( K X n , N = 0 ) log ( P ( N = 0 X , K ) P ( K X ) ) = log P ( X ) + Q K ( X , X n )

Figure DE102020121064A1_0058
This creates: Q ( X , X n ) = K P ( K X n , N = 0 ) log P ( X , K , N = 0 ) = log P ( X ) + K P ( K X n , N = 0 ) log ( P ( N = 0 X , K ) P ( K X ) ) = log P ( X ) + Q K ( X , X n )
Figure DE102020121064A1_0058

Hierbei wird hervorgehoben, dass ΣK eine Summe über alle möglichen Assoziationen bedeutet, die die Randbedingungen erfüllen, das heißt die erforderliche Mindestanzahl von Messungen ist den Modellen mit Randbedingungen zugeordnet und die anderen Messungen können überall zugeordnet werden. Es ist nun insbesondere im beschränkten PMHT vorgesehen, diese Summe als eine doppelte Summe auszudrücken ΣK = ΣK ΣK(κ), wobei K(κ) eine Menge von Assoziationen der unbeschränkten Messungen für ein gegebenes κ darstellt. Mit anderen Worten, es wird zuerst eine Instanz von κ fixiert und dann wird über die verbleibenden nicht eingeschränkten Messungen summiert, bevor über alle möglichen κ summiert wird.Here it is emphasized that Σ K means a sum over all possible associations that satisfy the boundary conditions, i.e. the required minimum number of measurements is assigned to the models with constraints and the other measurements can be assigned anywhere. It is now intended, in particular in the constrained PMHT, to express this sum as a double sum Σ K = Σ K Σ K(κ) , where K(κ) represents a set of associations of the unconstrained measurements for a given κ. In other words, one instance of κ is first fixed and then the remaining unconstrained measurements are summed before summing over all possible κ.

Wir wird daher zuerst P(K(κ)/Xn, N = 0) berechnet. Aus der Definition der bedingten Wahrscheinlichkeit und unter Verwendung von Hypothese, dass die Assoziationen der nicht eingeschränkten Messungen voneinander unabhängig sind ergibt sich: P ( K ( κ ) X n , N = 0 ) = P ( K ( κ ) X n , N = 0, κ ) P ( κ X n , N = 0 ) = t = 1 T r = 1 n ( T ) t 1, T , i 1, m c , t r r i ( t ) ω k r ( t ) , r n , κ ( t ) P ( κ X n , N = 0 ) ω i , r n , κ ( t ) = P ( k r ( t ) = i X n , N = 0, κ )

Figure DE102020121064A1_0059
We therefore first calculate P(K(κ)/X n , N = 0). From the definition of the conditional probability and using the hypothesis that the associations of the unconstrained measurements are independent of each other, we get: P ( K ( k ) X n , N = 0 ) = P ( K ( k ) X n , N = 0, k ) P ( k X n , N = 0 ) = t = 1 T right = 1 n ( T ) t 1, T , i 1, m c , t right right i ( t ) ω k right ( t ) , right n , k ( t ) P ( k X n , N = 0 ) ω i , right n , k ( t ) = P ( k right ( t ) = i X n , N = 0, k )
Figure DE102020121064A1_0059

Zur Vereinfachung wird die Menge (t, r)\κ als die Menge der Indizes aller nicht eingeschränkten Messungen eingeführt, so dass die obige Gleichung vereinfacht dargestellt wird: P ( K ( κ ) X n , N = 0 ) = P ( K ( κ ) X n , N = 0, κ ) P ( κ X n , N =0 ) = ( t , r ) κ ω k r ( t ) , r n , κ ( t ) P = ( κ X n , N = 0 )

Figure DE102020121064A1_0060
For simplicity, the set (t, r)\κ is introduced as the set of indices of all unconstrained measurements, so that the equation above is simplified: P ( K ( k ) X n , N = 0 ) = P ( K ( k ) X n , N = 0, k ) P ( k X n , N =0 ) = ( t , right ) k ω k right ( t ) , right n , k ( t ) P = ( k X n , N = 0 )
Figure DE102020121064A1_0060

Unter Berücksichtigung der Bayes-Regel entsteht: ω i , r n , κ ( t ) = P ( k r ( t ) = i X n , N = 0, κ ) P ( N = 0 X n , k r ( t ) = i , κ ) P ( k r ( t ) = i X n , κ )

Figure DE102020121064A1_0061
Taking Bayes' rule into account, we get: ω i , right n , k ( t ) = P ( k right ( t ) = i X n , N = 0, k ) P ( N = 0 X n , k right ( t ) = i , k ) P ( k right ( t ) = i X n , k )
Figure DE102020121064A1_0061

Mit der vierten Hypothese ergibt sich dann: P ( k r ( t ) = i X n , κ ) = π i ( t )

Figure DE102020121064A1_0062
The fourth hypothesis then gives: P ( k right ( t ) = i X n , k ) = π i ( t )
Figure DE102020121064A1_0062

Aufgrund der Tatsache, dass die Messungen voneinander unabhängig sind, und für ein gegebenes r und t, gemäß der dritten Hypothese, ist die Wahrscheinlichkeit der anderen Messungen unabhängig von i, und für eine gegebene Assoziation kr(t) = i ist der Wert von κ irrelevant für die Wahrscheinlichkeit, da die Assoziation dieser Messung fest ist, ergibt sich: P ( N = 0 X n , k r ( t ) = i , κ ) P ( ν i , t r = 0 x t n , k r ( t ) = i , κ ) = P ( ν i , t r = 0 x t n , k r ( t ) = i ) = λ t r , n ( i )

Figure DE102020121064A1_0063
Due to the fact that the measurements are independent of each other, and for a given r and t, according to the third hypothesis, the probability of the other measurements is independent of i, and for a given association k r (t) = i is the value of κ irrelevant to the probability, since the association of this measurement is fixed, we get: P ( N = 0 X n , k right ( t ) = i , k ) P ( v i , t right = 0 x t n , k right ( t ) = i , k ) = P ( v i , t right = 0 x t n , k right ( t ) = i ) = λ t right , n ( i )
Figure DE102020121064A1_0063

Daher ergibt sich für die posterioren Assoziationswahrscheinlichkeiten der nicht eingeschränkten Messungen das gleiche Ergebnis wie für die Standard-PMHT: ω i , r n , κ ( t ) = ω i , r n ( t ) = λ t r , n ( i ) π i ( t ) j = 1 m λ t r , n ( j ) π j ( t )

Figure DE102020121064A1_0064
Therefore, the posterior association probabilities of the unconstrained measurements yield the same result as for the standard PMHT: ω i , right n , k ( t ) = ω i , right n ( t ) = λ t right , n ( i ) π i ( t ) j = 1 m λ t right , n ( j ) π j ( t )
Figure DE102020121064A1_0064

Es wird nun P(κ/Xn,N = 0) und durch Verwenden der Bayes-Regel entsteht: P ( κ X n , N = 0 ) P ( N = 0 X n , κ ) P ( κ X n )

Figure DE102020121064A1_0065
It now becomes P(κ/X n ,N = 0) and using Bayes' rule: P ( k X n , N = 0 ) P ( N = 0 X n , k ) P ( k X n )
Figure DE102020121064A1_0065

Nach der zweiten Hypothese sind alle P(κ/Xn) gleich wahrscheinlich und verschwinden daher im Normierungsfaktor und können ignoriert werden. Es wird (t,r)\κ als die Menge der Indizes aller eingeschränkten Messungen für eine gegebene κ eingeführt, und diese werden bestimmt, indem die Unabhängigkeit zwischen den Messungen genutzt wird: P ( N = 0 X n , κ ) = ( t , r ) κ ¯ P ( ν k r ( t ) , t r = 0 x t n , k r ( t ) , κ ) ( t , r ) κ P ( ν t r = 0 x t n , κ )

Figure DE102020121064A1_0066
According to the second hypothesis, all P(κ/X n ) are equally probable and therefore vanish in the normalization factor and can be ignored. It will (t,r)\κ introduced as the set of indices of all constrained measurements for a given κ, and these are determined using the independence between the measurements: P ( N = 0 X n , k ) = ( t , right ) k ¯ P ( v k right ( t ) , t right = 0 x t n , k right ( t ) , k ) ( t , right ) k P ( v t right = 0 x t n , k )
Figure DE102020121064A1_0066

Die Wahrscheinlichkeit einer Messung für eine unbekannte Assoziation kann durch Marginalisierung über alle Modelle hinweg ermittelt werden: P ( ν t r = 0 x t n , κ ) = i = 1 M P ( ν i , t r = 0 x t n , κ , k r ( t ) = i ) P ( k r ( t ) = i x t n , κ )

Figure DE102020121064A1_0067
The probability of a measurement for an unknown association can be determined by marginalizing across all models: P ( v t right = 0 x t n , k ) = i = 1 M P ( v i , t right = 0 x t n , k , k right ( t ) = i ) P ( k right ( t ) = i x t n , k )
Figure DE102020121064A1_0067

Gemäß der vierten Hypothese ist P ( k r ( t ) = i / x t n , κ ) = π i ( t ) .

Figure DE102020121064A1_0068
Außerdem wir vorgegeben, identisch wie zuvor, dass für eine gegebene Assoziation kr(t) = i der Wert von κ für die Wahrscheinlichkeit irrelevant ist, da die Assoziation dieser Messung festgelegt ist. So ergibt sich: P ( ν t r = 0 x t n , κ ) = i = 1 M λ t r , n ( i ) π i ( t )
Figure DE102020121064A1_0069
was dem Normalisierungsfaktor von 2.8 entspricht. Die Wahrscheinlichkeit der posterioren Assoziation einer beschränkten Zuweisung nach der nth Iteration kann schließlich durch Normalisierung erhalten werden, um sicherzustellen, dass die Summe über κ gleich 1 ist: P ( κ X n , N = 0 ) = ω κ n = ( t , r ) κ ¯ P ( ν k r ( t ) , t r = 0 x t n , k r ( t ) , κ ) ( t , r ) κ i = 1 M λ t r , n ( i ) π i ( t ) κ ' ( t ' , r ' ) κ ' ¯ P ( ν k r ' ( t ' ) , t ' r ' = 0 x t ' n , k r ' ( t ' ) , κ ' ) ( t ' , r ' ) κ ' i ' = 1 M λ t ' r ' , n ' ( i ' ) π i ' ( t ' )
Figure DE102020121064A1_0070
According to the fourth hypothesis, P ( k right ( t ) = i / x t n , k ) = π i ( t ) .
Figure DE102020121064A1_0068
We also assume, identically as before, that for a given association k r (t) = i, the value of κ is irrelevant to the probability since the association of this measurement is fixed. This is how it turns out: P ( v t right = 0 x t n , k ) = i = 1 M λ t right , n ( i ) π i ( t )
Figure DE102020121064A1_0069
which corresponds to the normalization factor of 2.8. Finally, the probability of the posterior association of a constrained assignment after the n th iteration can be obtained by normalizing to ensure that the sum over κ equals 1: P ( k X n , N = 0 ) = ω k n = ( t , right ) k ¯ P ( v k right ( t ) , t right = 0 x t n , k right ( t ) , k ) ( t , right ) k i = 1 M λ t right , n ( i ) π i ( t ) k ' ( t ' , right ' ) k ' ¯ P ( v k right ' ( t ' ) , t ' right ' = 0 x t ' n , k right ' ( t ' ) , k ' ) ( t ' , right ' ) k ' i ' = 1 M λ t ' right ' , n ' ( i ' ) π i ' ( t ' )
Figure DE102020121064A1_0070

Es wird nun die Terme unter dem log aus der Q-Funktion explizit angeben. Pro Unabhängigkeit zwischen den Messungen entsteh: P ( N = 0 X , K ( κ ) ) = ( t , r ) κ ¯ P ( ν k r ( t ) , t r = 0 x t , k r ( t ) ) ( t , r ) κ P ( ν k r ( t ) , t r = 0 x t , k r ( t ) ) = ( t , r ) κ ¯ λ t r ( k r ( t ) , n ) ( t , r ) κ λ t r ( k r ( t ) , n )

Figure DE102020121064A1_0071
It will now explicitly state the terms under the log from the Q-function. Per independence between the measurements arise: P ( N = 0 X , K ( k ) ) = ( t , right ) k ¯ P ( v k right ( t ) , t right = 0 x t , k right ( t ) ) ( t , right ) k P ( v k right ( t ) , t right = 0 x t , k right ( t ) ) = ( t , right ) k ¯ λ t right ( k right ( t ) , n ) ( t , right ) k λ t right ( k right ( t ) , n )
Figure DE102020121064A1_0071

Der erste Produktbegriff hängt nur von κ ab und nicht von den anderen, die später genutzt werden, um diesen zu faktorisieren. Aus diesem Grund wird P(N = 0/X, K(K)) nicht als ein einziges Produkt der Wahrscheinlichkeiten aller Messungen ausgedrückt.The first product term depends only on κ and not on the others that are later used to factor it. For this reason, P(N = 0/X, K( K )) is not expressed as a single product of the probabilities of all measurements.

Was nun den zweiten Term innerhalb des log betrifft, wird die Definition der bedingten Wahrscheinlichkeit und Hypothese zwei genutzt, dass alle bedingten Hypothesen a-priori gleich wahrscheinlich und unabhängig vom Zustand sind: P ( K ( κ ) ) / X ) = P ( K ( κ ) / X , κ ) P ( κ / X ) P ( K ( κ ) / X , κ )

Figure DE102020121064A1_0072
Now, as for the second term within the log, using the definition of conditional probability and hypothesis two, that all conditional hypotheses are a priori equally likely and independent of state: P ( K ( k ) ) / X ) = P ( K ( k ) / X , k ) P ( k / X ) P ( K ( k ) / X , k )
Figure DE102020121064A1_0072

Unter der Berücksichtigung der vierten Hypothese: P ( K ( κ ) ) / X ) ( t , r ) κ π k r ( t ) ( t )

Figure DE102020121064A1_0073
Considering the fourth hypothesis: P ( K ( k ) ) / X ) ( t , right ) k π k right ( t ) ( t )
Figure DE102020121064A1_0073

Es können nun QK von 2.2 mit 2.4, 2.14 und 2.16 vereinfacht werden, wobei berücksichtigt wird, dass die zweite Gleichheit bis zu einer Konstanten aufgrund des Proportionalitätsfaktors von 2.16 gilt: Q K ( X , X n ) K P ( K X n , N = 0 ) log ( P ( N = 0 X , K ) P ( K X ) ) = κ K ( κ ) ( t ' , r ' ) κ ω k r ' ( t ) , r ' n ( t ' ) ω κ n × [ ( t , r ) κ ¯ log λ t r ( k r ( t ) , n ) + ( t , r ) κ ( log λ t r ( k r ( t ) , n ) + log π k r ( t ) ( t ) ) ] = κ ω κ n [ ( t , r ) κ ¯ l o g λ t r ( k r ( t ) , n ) × K ( κ ) ( t ' , r ' ) κ ω k r ' ( t ' ) , r ' n ( t ' ) ] + κ ω κ n K ( κ ) [ ( t ' , r ' ) κ ω k r ' ( t ' ) , r ' n ( t ' ) ( t , r ) κ ( log λ t r ( k r ( t ) , n ) + log π k r ( t ) ( t ) ) ]

Figure DE102020121064A1_0074
Q K can now be simplified from 2.2 to 2.4, 2.14 and 2.16, taking into account that the second equality holds up to a constant due to the proportionality factor of 2.16: Q K ( X , X n ) K P ( K X n , N = 0 ) log ( P ( N = 0 X , K ) P ( K X ) ) = k K ( k ) ( t ' , right ' ) k ω k right ' ( t ) , right ' n ( t ' ) ω k n × [ ( t , right ) k ¯ log λ t right ( k right ( t ) , n ) + ( t , right ) k ( log λ t right ( k right ( t ) , n ) + log π k right ( t ) ( t ) ) ] = k ω k n [ ( t , right ) k ¯ l O G λ t right ( k right ( t ) , n ) × K ( k ) ( t ' , right ' ) k ω k right ' ( t ' ) , right ' n ( t ' ) ] + k ω k n K ( k ) [ ( t ' , right ' ) k ω k right ' ( t ' ) , right ' n ( t ' ) ( t , right ) k ( log λ t right ( k right ( t ) , n ) + log π k right ( t ) ( t ) ) ]
Figure DE102020121064A1_0074

Wenn eine Wahrscheinlichkeit über die gesamte Stichprobe summiert wird, ergibt sich: K ( κ ) ( t ' , r ' ) κ ω k r ' ( t ' ) , r ' n ( t ' ) = 1

Figure DE102020121064A1_0075
If a probability is summed over the entire sample, we get: K ( k ) ( t ' , right ' ) k ω k right ' ( t ' ) , right ' n ( t ' ) = 1
Figure DE102020121064A1_0075

Es wird als nächstes eine Transformation angewendet: Q K ( X , X n ) = κ ω κ n ( t , r ) κ ¯ l o g λ t r ( k r ( t ) , n ) + κ ω κ n ( t , r ) κ i = 1 m ω i , r n ( t ) ( l o g λ t r ( i , n ) + l o g π i ( t ) )

Figure DE102020121064A1_0076
A transformation is applied next: Q K ( X , X n ) = k ω k n ( t , right ) k ¯ l O G λ t right ( k right ( t ) , n ) + k ω k n ( t , right ) k i = 1 m ω i , right n ( t ) ( l O G λ t right ( i , n ) + l O G π i ( t ) )
Figure DE102020121064A1_0076

Um zu bestimmen, wie das Maximum von QK gefunden werden kann, wird definiert: κ , ( t , r ) κ , η i , r n , κ ( t ) = ω i , r n ( t ) κ , ( t , r ) κ ¯ , η i , r n , κ ( t ) = δ k r ( t ) , i

Figure DE102020121064A1_0077
To determine how the maximum of QK can be found, we define: k , ( t , right ) k , n i , right n , k ( t ) = ω i , right n ( t ) k , ( t , right ) k ¯ , n i , right n , k ( t ) = δ k right ( t ) , i
Figure DE102020121064A1_0077

Wobei δ das Kronecker Delta ist und: κ , ( t , r ) κ , η ˜ i , r n , κ ( t ) = ω i , r n ( t ) κ , ( t , r ) κ ¯ , η ˜ i , r n , κ ( t ) = 0

Figure DE102020121064A1_0078
Where δ is the Kronecker Delta and: k , ( t , right ) k , n ˜ i , right n , k ( t ) = ω i , right n ( t ) k , ( t , right ) k ¯ , n ˜ i , right n , k ( t ) = 0
Figure DE102020121064A1_0078

Mit der Gleichung aus 2.19 entsteht dann: Q K ( X , X n ) = κ ω κ n t = 1 T r = 1 n ( t ) i = 1 m η i , r n , κ ( t ) log λ t r ( i , n ) + κ ω κ n t = 1 T r = 1 n ( t ) i = 1 m η ˜ i , r n , κ ( t ) log π i ( t ) = t = 1 T r = 1 n ( t ) i = 1 m κ ω κ n η i , r n , κ ( t ) log λ t r ( i , n ) + t = 1 T r = 1 n ( t ) i = 1 m κ ω κ n η ˜ i , r n , κ ( t ) log π i ( t )

Figure DE102020121064A1_0079
With the equation from 2.19 we get: Q K ( X , X n ) = k ω k n t = 1 T right = 1 n ( t ) i = 1 m n i , right n , k ( t ) log λ t right ( i , n ) + k ω k n t = 1 T right = 1 n ( t ) i = 1 m n ˜ i , right n , k ( t ) log π i ( t ) = t = 1 T right = 1 n ( t ) i = 1 m k ω k n n i , right n , k ( t ) log λ t right ( i , n ) + t = 1 T right = 1 n ( t ) i = 1 m k ω k n n ˜ i , right n , k ( t ) log π i ( t )
Figure DE102020121064A1_0079

Schlussendlich ergibt sich: Ω i , r n ( t ) = κ ω κ n η i , r n , κ ( t ) Ω ˜ i , r n ( t ) = κ ω κ n η ˜ i , r n , κ ( t )

Figure DE102020121064A1_0080
Ultimately, the result is: Ω i , right n ( t ) = k ω k n n i , right n , k ( t ) Ω ˜ i , right n ( t ) = k ω k n n ˜ i , right n , k ( t )
Figure DE102020121064A1_0080

Wobei die ähnlich, wie 1.8 ausgedrückt werden kann: Q K ( X , X n ) = t = 1 T r = 1 n ( t ) i = 1 m Ω i , r n ( t ) log λ t r ( i , n ) + t = 1 T r = 1 n ( t ) i = 1 m Ω ˜ i , r n ( t ) log π i ( t )

Figure DE102020121064A1_0081
Whereby it can be expressed similarly to 1.8: Q K ( X , X n ) = t = 1 T right = 1 n ( t ) i = 1 m Ω i , right n ( t ) log λ t right ( i , n ) + t = 1 T right = 1 n ( t ) i = 1 m Ω ˜ i , right n ( t ) log π i ( t )
Figure DE102020121064A1_0081

Die Lösung, die QK maximiert, wird daher mit einem Kalman-Filter unter Verwendung synthetischer Messungen erhalten, die mit den Gewichten der posterioren Assoziation Ω i , r n ( t )

Figure DE102020121064A1_0082
anstelle von ω i , r n ( t )
Figure DE102020121064A1_0083
für die nicht-beschränkten PMHT erhalten werden. Die Aktualisierung der früheren Assoziationswahrscheinlichkeiten erfolgt ebenfalls auf die gleiche Weise wie 1.33, jedoch unter Verwendung von Ω ˜ i , r n ( t )
Figure DE102020121064A1_0084
anstelle von ω i , r n ( t ) .
Figure DE102020121064A1_0085
The solution that maximizes QK is therefore obtained with a Kalman filter using synthetic measurements associated with the posterior association weights Ω i , right n ( t )
Figure DE102020121064A1_0082
instead of ω i , right n ( t )
Figure DE102020121064A1_0083
can be obtained for the non-constrained PMHT. Updating the previous association probabilities is also done in the same way as 1.33 but using Ω ˜ i , right n ( t )
Figure DE102020121064A1_0084
instead of ω i , right n ( t ) .
Figure DE102020121064A1_0085

Wie dargestellt ist, ist die genaue Berechnung der eingeschränkten hinteren Assoziationswahrscheinlichkeiten 2.23 aufgrund der kombinatorischen Anzahl von Möglichkeiten für die eingeschränkten Assoziationen κ unlösbar. Der Standard-PMHT umgeht dieses Problem, indem er von der Unabhängigkeit zwischen den Assoziationen ausgeht, aber dies lässt sich nicht vermeiden, wenn diese Hypothese fallen gelassen wird. Diese kombinatorische Anzahl von Assoziationen ist ein bekanntes Problem bei der Verfolgung mehrerer Objekte 7, und es werden dabei zwei Haupttechniken verwendet, um die Berechnung durchführen zu können. Hierbei ist Murtys Algorithmus oder Gibbs-Sampling beziehungsweise Gibbs-Stichprobe bekannt.As shown, the exact calculation of the constrained posterior association probabilities 2.23 is unsolvable due to the combinatorial number of possibilities for the constrained associations κ. The standard PMHT circumvents this problem by assuming independence between the associations, but this cannot be avoided if this hypothesis is dropped. This combinatorial number of associations is a well-known problem in tracking multiple objects 7, and two main techniques are used to perform the calculation. Here, Murty's algorithm or Gibbs sampling or Gibbs spot check is known.

Der Murtys Algorithmus ist eine Verallgemeinerung des bekannten Hungarian Zuweisungsalgorithmus. Er zielt darauf ab, die k-besten gemeinsamen Zuweisungen für eine gegebene Kostenmatrix zu finden, die jeder möglichen Einzelzuweisung Kosten zuordnet.The Murtys algorithm is a generalization of the well-known Hungarian assignment algorithm. It aims to find the k-best joint assignments for a given cost matrix that assigns costs to each possible individual assignment.

Es wird µi(t) bei jedem Zeitschritt t als die Mindestanzahl der Messungen genutzt, die mit Modell i verknüpft werden sollen, die null sein kann, wenn es keine Beschränkung für dieses Modell gibt. Die Gesamtzahl der Messungen, die den eingeschränkten Modellen zugeordnet werden sollen, ist daher i = 1 m μ i ( t ) = m c , t .

Figure DE102020121064A1_0086
Wenn mehr Messungen als Nebenbedingungen verfügbar sind, können die anderen Messungen jedem Modell zugeordnet werden.µ i (t) at each time step t is used as the minimum number of measurements to be associated with model i, which can be zero if there is no constraint on that model. The total number of measurements to be assigned to the constrained models is therefore i = 1 m µ i ( t ) = m c , t .
Figure DE102020121064A1_0086
If more measurements are available as constraints, the other measurements can be assigned to each model.

Es ist das Ziel, die k-besten Zuordnungen κ zu finden, die die k-groessten Werte von ω κ n

Figure DE102020121064A1_0087
ergeben. Der größte Wert von ω κ n
Figure DE102020121064A1_0088
ergibt sich für den größten Zähler aus 2.13, der das Produkt der gemeinsamen Wahrscheinlichkeit mit den beschränkten Modellen ist: ( t , r ) \ κ ¯ P ( v k r ( t ) , t r = 0 x t n , k r ( t ) , κ )
Figure DE102020121064A1_0089
The goal is to find the k-best assignments κ that have the k-largest values of ω k n
Figure DE102020121064A1_0087
result. The greatest value of ω k n
Figure DE102020121064A1_0088
results for the largest numerator from 2.13, which is the product of the joint probability with the restricted models: ( t , right ) \ k ¯ P ( v k right ( t ) , t right = 0 x t n , k right ( t ) , k )
Figure DE102020121064A1_0089

Mit der Wahrscheinlichkeit eines jeden Modells: ( t , r ) \ κ i = 1 M λ t r , n ( i ) π i ( t )

Figure DE102020121064A1_0090
With the probability of each model: ( t , right ) \ k i = 1 M λ t right , n ( i ) π i ( t )
Figure DE102020121064A1_0090

Es ist üblich, die Kosten der Zuweisung im logarithmischen Raum auszudrücken, da Murtys Algorithmus die k-besten Zuweisungen findet, deren Kosten die Summe der Kosten jeder einzelnen Zuweisung ist, was einer Optimierung der gemeinsamen Wahrscheinlichkeit entspricht, da die Summe des Logarithmus der Logarithmus des Produkts ist.It is common to express the cost of the assignment in logarithmic space, since Murty's algorithm finds the k-best assignments whose cost is the sum of the costs of each individual assignment, which is equivalent to a joint probability optimization since the sum of the logarithm is the logarithm of the product is.

Die Kosten der Zuordnung einer Messung zu einem bestimmten Modell i sind (t, r): Λ i , t r , n = log P ( v i , t r = 0 x t n )

Figure DE102020121064A1_0091
und die Kosten für eine Zuordnung zu einem beliebigen Modell: Λ t r , n = log i = 1 M λ t r , n ( i ) π i ( t )
Figure DE102020121064A1_0092
The cost of assigning a measurement to a specific model i is (t, r): Λ i , t right , n = log P ( v i , t right = 0 x t n )
Figure DE102020121064A1_0091
and the cost of mapping to any model: Λ t right , n = log i = 1 M λ t right , n ( i ) π i ( t )
Figure DE102020121064A1_0092

Für jeden Zeitschritt t ergibt sich die Kostenmatrix: [ Λ 1, t 1, n Λ 1, t 1, n Λ 1, t n ( t ) , n Λ 1, t n ( t ) , n μ 1 ( t ) Λ m , t 1, n Λ m , t 1, n Λ m , t n ( t ) , n Λ m , t n ( t ) , n μ m ( t ) Λ t 1, n Λ t 1, n Λ t n ( t ) , n Λ t n ( t ) , n n ( t ) i = 1 m μ i ( t ) ]

Figure DE102020121064A1_0093
The cost matrix results for each time step t: [ Λ 1, t 1, n Λ 1, t 1, n Λ 1, t n ( t ) , n Λ 1, t n ( t ) , n µ 1 ( t ) Λ m , t 1, n Λ m , t 1, n Λ m , t n ( t ) , n Λ m , t n ( t ) , n µ m ( t ) Λ t 1, n Λ t 1, n Λ t n ( t ) , n Λ t n ( t ) , n n ( t ) i = 1 m µ i ( t ) ]
Figure DE102020121064A1_0093

Da die maximale Wahrscheinlichkeit aus dem maximalen Logarithmus erhalten wird, wird Murtys Algorithmus verwendet, um die Kosten aus der Kostenmatrix zu maximieren. Unter Verwendung der vom Murtyschen Algorithmus zurückgegebenen k-besten Zuweisungen kann für jede zurückgegebene Zuweisung der Zähler von 2.13 berechnet werden, und der Nenner ist die Summe aller Zähler. Von dort aus können die beschränkten hinteren Gewichte 2.23 berechnet werden, um den Kalman -Filter laufen zu lassen.Since the maximum likelihood is obtained from the maximum logarithm, Murty's algorithm is used to maximize the cost from the cost matrix. Using the k-best assignments returned by Murty's algorithm, for each assignment returned, the numerator of 2.13 can be computed, and the denominator is the sum of all numerators. From there the bounded back weights 2.23 can be computed to run the Kalman filter.

Eine Alternative zu Murtys Algorithmus zur Vereinfachung eines kombinatorischen Assoziationsproblems ist die Verwendung von Gibbs-Sampling.An alternative to Murty's algorithm for simplifying a combinatorial association problem is to use Gibbs sampling.

Die Idee besteht darin, statt die k-besten Zuordnungen zu finden, aus der Verteilung der Zuordnungen zu „samplen“.The idea is that instead of finding the k-best matches, sample from the distribution of matches.

Wenn aus einer eindimensionalen Verteilung stichprobenartig entnommen wird, kann dies mit Hilfe der so genannten inversen Verteilungstransformation geschehen. Zur Stichprobenziehung für eine Zufallsvariable X, deren CDF (cumulative distribution function) F ist, beginnen wir mit der Stichprobenziehung aus einer gleichverteilten Zufallsvariablen U auf [0,1]. Es ist die CDF von F-1(U) F: P ( F 1 ( U ) x ) = P ( F ( F 1 ( U ) ) F ( x ) ) = P ( U F ( x ) ) = F ( x )

Figure DE102020121064A1_0094
If a sample is taken from a one-dimensional distribution, this can be done using the so-called inverse distribution transformation. For sampling for a random va riable X whose CDF (cumulative distribution function) is F, we start sampling from a uniformly distributed random variable U on [0,1]. It is the CDF of F -1 (U)F: P ( f 1 ( u ) x ) = P ( f ( f 1 ( u ) ) f ( x ) ) = P ( u f ( x ) ) = f ( x )
Figure DE102020121064A1_0094

Die Probenahme aus einer eindimensionalen Verteilung ist daher einfach: Es werden Proben aus einer gleichmäßigen Verteilung auf [0,1] erzeugt und es werden diese durch den Kehrwert der CDF geleitet. Es werden aus einem zweidimensionalen Zufallsvektor (x1,x2), dessen gemeinsame Verteilung bekannt ist, Stichproben entnommen, so dass zunächst die Randverteilung einer Dimension durch Marginalisierung wiederhergestellt werden muss: P ( x 1 ) = P ( x 1 , x 2 ) d x 2

Figure DE102020121064A1_0095
Sampling from a one-dimensional distribution is therefore straightforward: samples are generated from a uniform distribution on [0,1] and passed through the inverse of the CDF. Samples are taken from a two-dimensional random vector (x 1 ,x 2 ), whose joint distribution is known, so that the marginal distribution of one dimension must first be restored by marginalization: P ( x 1 ) = P ( x 1 , x 2 ) i.e x 2
Figure DE102020121064A1_0095

Sobald eine Stichprobe x 1 i

Figure DE102020121064A1_0096
für x1 unter Verwendung der inversen Verteilungstransformation der CDF von 2.31 erhalten wird, kann x2 aus der bedingten Wahrscheinlichkeit abgezogen werden: P ( x 2 x 1 = x 1 i ) = P ( x 2 , x 1 = x 1 i ) P ( x 1 = x 1 i )
Figure DE102020121064A1_0097
Once a sample x 1 i
Figure DE102020121064A1_0096
for x 1 is obtained using the inverse distribution transformation of the CDF of 2.31, x 2 can be subtracted from the conditional probability: P ( x 2 x 1 = x 1 i ) = P ( x 2 , x 1 = x 1 i ) P ( x 1 = x 1 i )
Figure DE102020121064A1_0097

Diese Methode ist jedoch in diesem Fall nicht anwendbar. Die Assoziation κ hat viele Dimensionen und die Integration 2.31 ist sehr aufwendig, da um diese zu marginalisieren, über dx2dx3integriert werden müsste. Gibbs Sampling ist eine Methode, um dies zu vermeiden.However, this method is not applicable in this case. The association κ has many dimensions and the integration 2.31 is very complex, since in order to marginalize it, one would have to integrate over dx 2 dx 3 . Gibbs sampling is one way to avoid this.

Angenommen, es sollen k Stichproben von X = (x1, ...,xn) aus einer gemeinsamen Verteilung P(x1, ..., xn) erhalten werden. Die ith Stichprobe ist X i = ( x 1 i , , x n i ) .

Figure DE102020121064A1_0098
Suppose we want to obtain k samples of X = (x 1 ,...,x n ) from a joint distribution P(x 1 ,...,x n ). The ith sample is X i = ( x 1 i , ... , x n i ) .
Figure DE102020121064A1_0098

Es werden dann die folgenden Schritte durchgeführt. Es wird mit einem Anfangswert Xi begonnen. In diesem Fall kann dieser Wert die beste mit dem Hungarian Algorithmus erhaltene Zuordnung sein. Es wird danach die nächste Probe Xi+1 genommen. Da X i + 1 = ( x 1 i + 1 , x 2 i + 1 , , x n i + 1 )

Figure DE102020121064A1_0099
ein Vektor ist, wird jede Komponente des Vektors, x j i + 1
Figure DE102020121064A1_0100
entnommen, aus der Verteilung dieser Komponente, die auf alle anderen bisher entnommenen Komponenten konditioniert wurde, insbesondere unter Verwendung der inversen Verteilungstransformation. Es werden jedoch die Komponenten von Xi+1 bis zu x j 1 i + 1
Figure DE102020121064A1_0101
konditioniert und danach die Komponenten von Xi, beginnend mit x j + 1 i bis x n i .
Figure DE102020121064A1_0102
Um dies zu erreichen, beproben werden die Komponenten der Reihe nach beprobt, beginnend mit der ersten Komponente. Um x j i + 1
Figure DE102020121064A1_0103
formeller zu beproben, wird es gemäß der durch P ( x j i + 1 / x 1 i + 1 , , x j 1 i + 1 , x j + 1 i , , x n i )
Figure DE102020121064A1_0104
spezifizierten Verteilung aktualisiert. Es wird den Wert verwendet, den die (j + 1)th Komponente in der i-ten Stichprobe hatte, nicht die (i + 1)th Stichprobe. Es wird dann der geschilderte Schritt k-mal wiederholt.The following steps are then carried out. It starts with an initial value X i . In this case, this value can be the best match obtained with the Hungarian algorithm. The next sample X i+1 is then taken. There X i + 1 = ( x 1 i + 1 , x 2 i + 1 , ... , x n i + 1 )
Figure DE102020121064A1_0099
is a vector, each component of the vector, x j i + 1
Figure DE102020121064A1_0100
extracted, from the distribution of that component conditioned on all other components extracted so far, in particular using the inverse distribution transformation. However, the components of X i+1 up to x j 1 i + 1
Figure DE102020121064A1_0101
conditioned and then the components of X i , starting with x j + 1 i until x n i .
Figure DE102020121064A1_0102
To achieve this, the components are sampled sequentially, starting with the first component. Around x j i + 1
Figure DE102020121064A1_0103
to sample more formally, it will be carried out according to the P ( x j i + 1 / x 1 i + 1 , ... , x j 1 i + 1 , x j + 1 i , ... , x n i )
Figure DE102020121064A1_0104
specified distribution updated. It uses the value that the (j + 1) th component had in the ith sample, not the (i + 1) th sample. The described step is then repeated k times.

Wenn eine solche Probenahme durchgeführt wird, gelten diese wichtigen Fakten, dass die Stichproben die gemeinsame Verteilung aller Variablen approximieren. Ferner kann die Randverteilung jeder Untergruppe von Variablen approximiert werden, indem die Stichproben für diese Untergruppe von Variablen betrachtet werden und den Rest ignoriert wird. Der erwartete Wert jeder Variablen kann durch Mittelwertbildung über alle Stichproben approximiert werden.When such sampling is performed, these important facts apply that the samples approximate the joint distribution of all variables. Furthermore, the marginal distribution of any subset of variables can be approximated by considering the samples for that subset of variables and ignoring the rest. The expected value of each variable can be approximated by averaging across all samples.

Um Gibbs-Stichproben auf κ durchzuführen, sind daher nur die bedingten Wahrscheinlichkeits-Massenfunktionen einer bestimmten Zuweisung benötigt, vorausgesetzt, dass alle anderen beschränkten Zuweisungen festgelegt sind. Für jeden Zeitschritt t wird nach der Wahrscheinlichkeit gesucht, dass eine bestimmte Messung r mit einem beschränkten Modell ji(t) verknüpft ist, wobei bekannt ist, dass allen anderen beschränkten Modellen bereits eine Messung zugewiesen ist: P ( k r ( t ) = j i ( t ) / k r 1 ( t ) = j 1 ( t ) , , k r i 1 ( t ) = j i 1 ( t ) , k r i + 1 ( t ) = j i + 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 )

Figure DE102020121064A1_0105
Therefore, to perform Gibbs sampling on κ, only the conditional probability mass functions of a given assignment are needed, provided that all other constrained assignments are fixed. For each time step t, the probability that a given measurement r is associated with a constrained model j i (t) is searched for, knowing that all other constrained models already have a measurement assigned: P ( k right ( t ) = j i ( t ) / k right 1 ( t ) = j 1 ( t ) , ... , k right i 1 ( t ) = j i 1 ( t ) , k right i + 1 ( t ) = j i + 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 )
Figure DE102020121064A1_0105

Durch Anwendung der Bayes-Regel entsteht: P ( k r ( t ) = j i ( t ) / k r 1 ( t ) = j 1 ( t ) , , k r i 1 ( t ) = j i 1 ( t ) , k r i + 1 ( t ) = j i + 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) P ( N = 0 k r 1 ( t ) = j 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n ) × P ( k r ( t ) = j i ( t ) / k r 1 ( t ) = j 1 ( t ) , , k r i 1 ( t ) = j i 1 ( t ) , k r i + 1 ( t ) = j i + 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n )

Figure DE102020121064A1_0106
Applying Bayes' rule gives: P ( k right ( t ) = j i ( t ) / k right 1 ( t ) = j 1 ( t ) , ... , k right i 1 ( t ) = j i 1 ( t ) , k right i + 1 ( t ) = j i + 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) P ( N = 0 k right 1 ( t ) = j 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n ) × P ( k right ( t ) = j i ( t ) / k right 1 ( t ) = j 1 ( t ) , ... , k right i 1 ( t ) = j i 1 ( t ) , k right i + 1 ( t ) = j i + 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n )
Figure DE102020121064A1_0106

Ausgehend von der zweiten Annahme sind alle eingeschränkten Zuweisungen a-priori gleich wahrscheinlich, daher vereinfacht sich 2.34 zu: P ( k r ( t ) = j i ( t ) / k r 1 ( t ) = j 1 ( t ) , , k r i 1 ( t ) = j i 1 ( t ) , k r i + 1 ( t ) = j i + 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) P ( N = 0 k r 1 ( t ) = j 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n )

Figure DE102020121064A1_0107
Based on the second assumption, all restricted assignments are a priori equally likely, so 2.34 simplifies to: P ( k right ( t ) = j i ( t ) / k right 1 ( t ) = j 1 ( t ) , ... , k right i 1 ( t ) = j i 1 ( t ) , k right i + 1 ( t ) = j i + 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) P ( N = 0 k right 1 ( t ) = j 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n )
Figure DE102020121064A1_0107

Die Wahrscheinlichkeit der Messungen, deren Zusammenhang bekannt ist, ist für alle r konstant und verschwindet daher im Normierungsfaktor. 2.35 vereinfacht sich daher weiter zu: P ( k r ( t ) = j i ( t ) / k r 1 ( t ) = j 1 ( t ) , , k r i 1 ( t ) = j i 1 ( t ) , k r i + 1 ( t ) = j i + 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) r ' = 1 r ' r 1 , , r i 1 , r i + 1 , , r m c , t ( t ) n ( t ) P ( v t r ' k r ( t ) = j i ( t ) , x t n ) = P ( v i , t r = 0 k r ( t ) = j i ( t ) , x t n ) r ' = 1 r ' r 1, , r i 1 , r i + 1 , , r m c , t ( t ) , r n ( t ) P ( v t r ' = 0 x t n )

Figure DE102020121064A1_0108
wobei P ( v t r ' = 0 / x t n )
Figure DE102020121064A1_0109
durch 2.12 gegeben ist und P ( v i , t r = 0 / k r ( t ) = j i ( t ) , x t n ) =
Figure DE102020121064A1_0110
λ t r , n ( j i , ( t ) )
Figure DE102020121064A1_0111
aus 2.7 bereits bekannt ist und verwendet wird, um die hinteren Gewichte 2.8 zu erhalten.The probability of the measurements whose relationship is known is constant for all r and therefore vanishes in the normalization factor. 2.35 is therefore further simplified to: P ( k right ( t ) = j i ( t ) / k right 1 ( t ) = j 1 ( t ) , ... , k right i 1 ( t ) = j i 1 ( t ) , k right i + 1 ( t ) = j i + 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) right ' = 1 right ' right 1 , ... , right i 1 , right i + 1 , ... , right m c , t ( t ) n ( t ) P ( v t right ' k right ( t ) = j i ( t ) , x t n ) = P ( v i , t right = 0 k right ( t ) = j i ( t ) , x t n ) right ' = 1 right ' right 1, ... , right i 1 , right i + 1 , ... , right m c , t ( t ) , right n ( t ) P ( v t right ' = 0 x t n )
Figure DE102020121064A1_0108
whereby P ( v t right ' = 0 / x t n )
Figure DE102020121064A1_0109
is given by 2.12 and P ( v i , t right = 0 / k right ( t ) = j i ( t ) , x t n ) =
Figure DE102020121064A1_0110
λ t right , n ( j i , ( t ) )
Figure DE102020121064A1_0111
is already known from 2.7 and is used to obtain the rear weights 2.8.

Das Endergebnis erhält man nach Normalisierung über r: P ( k r ( t ) = j i ( t ) / k r 1 ( t ) = j 1 ( t ) , , k r i 1 ( t ) = j i 1 ( t ) , k r i + 1 ( t ) = j i + 1 ( t ) , , k r m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) = λ t r , n ( j i ( t ) ) r ' = 1 r ' r 1 , , r i 1 , r i + 1 , , r m c , t ( t ) , r n ( t ) P ( v t r ' = 0 / x t n ) s = 1 s r 1 , , r i 1 , r i + 1 , , r m c , t ( t ) n ( t ) λ t s , n ( j i ( t ) ) s ' = 1 s ' r 1 , , r i 1 , r i + 1 , , r m c , t ( t ) , s n ( t ) P ( v t S ' = 0 / x t n )

Figure DE102020121064A1_0112
The final result is obtained after normalization over r: P ( k right ( t ) = j i ( t ) / k right 1 ( t ) = j 1 ( t ) , ... , k right i 1 ( t ) = j i 1 ( t ) , k right i + 1 ( t ) = j i + 1 ( t ) , ... , k right m c , t ( t ) = j m c , t ( t ) ( t ) , X n , N = 0 ) = λ t right , n ( j i ( t ) ) right ' = 1 right ' right 1 , ... , right i 1 , right i + 1 , ... , right m c , t ( t ) , right n ( t ) P ( v t right ' = 0 / x t n ) s = 1 s right 1 , ... , right i 1 , right i + 1 , ... , right m c , t ( t ) n ( t ) λ t s , n ( j i ( t ) ) s ' = 1 s ' right 1 , ... , right i 1 , right i + 1 , ... , right m c , t ( t ) , s n ( t ) P ( v t S ' = 0 / x t n )
Figure DE102020121064A1_0112

Es kann nicht immer garantiert werden, dass eine Reihe von Auflagen erfüllt werden. Es ist daher in einer bevorzugten Ausführungsform vorgeschlagen, wie die Wahrscheinlichkeit, dass eine Randbedingung gültig ist, berücksichtigt werden kann. Angenommen, C wäre der Fall, dass die vorgeschlagene Nebenbedingung gültig ist, und pc = P(C) ihre Wahrscheinlichkeit, dann können wir die MAP des Zustands PDF marginalisieren, den die Erwartungsmaximierung ab 1.6 wie folgt zu finden versucht: X max = argmax X { P ( X N = 0 ) } = argmax X { P ( N = 0 X ) P ( X ) } = argmax X { ( P ( N = 0 X , C ) p c + P ( N = 0 X , C ¯ ) ( 1 p c ) ) P ( X ) }

Figure DE102020121064A1_0113
It cannot always be guaranteed that a number of conditions will be met. It is therefore proposed in a preferred embodiment how the probability that a boundary condition is valid can be taken into account. Assuming C were the case that the proposed constraint is valid, and p c = P(C) its probability, then we can marginalize the MAP of the state PDF, which expectation maximization tries to find from 1.6 as follows: X Max = argmax X { P ( X N = 0 ) } = argmax X { P ( N = 0 X ) P ( X ) } = argmax X { ( P ( N = 0 X , C ) p c + P ( N = 0 X , C ¯ ) ( 1 p c ) ) P ( X ) }
Figure DE102020121064A1_0113

Es wird hierbei der Fall in Betracht gezogen, dass die Beschränkung ungültig ist. Wenn die Randbedingung beispielsweise darin besteht, dass mindestens eine Messung einem bestimmten Modell zugeordnet ist, müssen berücksichtigt werden, dass diesem Modell keine Messung zugeordnet ist. Das bedeutet, wenn dieser Nebenbedingung eine Wahrscheinlichkeit von 30 % zugewiesen wird, dass sie gültig ist, wird das hintere Assoziationsgewicht dieses Modells niemals über diesen Wert hinausgehen, selbst wenn sich die Messung direkt über diesem Modell befindet. Letztendlich wird es vollständig verhindern, dass mehr Messungen mit diesem Modell assoziiert werden, als durch die Nebenbedingung definiert sind.The case where the constraint is invalid is considered here. For example, if the constraint is that at least one measurement is associated with a particular model, it must be taken into account that no measurement is associated with that model. That is, if this constraint is assigned a 30% probability of being valid, the posterior association weight of that model will never go beyond that value, even if the measurement is directly above that model. Ultimately, it will completely prevent more measurements from being associated with this model than defined by the constraint.

Daher ist es vorzuziehen, statt 2.38 zu optimieren: X m a x = argmax X { ( P ( N = 0 X , C ) p c + P ( N = 0 X ) ( 1 p c ) ) P ( X ) }

Figure DE102020121064A1_0114
Therefore it is preferable to optimize instead of 2.38: X m a x = argmax X { ( P ( N = 0 X , C ) p c + P ( N = 0 X ) ( 1 p c ) ) P ( X ) }
Figure DE102020121064A1_0114

Dies führt zur Optimierung: Q K ( X , X n ) = p c Q K C ( X , X n ) + ( 1 p c ) Q K C ¯ ( X , X n ) Q K C ( X , X n ) = t = 1 T r = 1 n ( t ) i = 1 m Ω i , r n ( t ) log λ t r ( i , n ) + t = 1 T r = 1 n ( t ) i = 1 m Ω ˜ i , r n ( t ) log π i ( t ) Q K C ¯ ( X , X n ) = t = 1 T r = 1 n ( t ) i = 1 m ω i , r n ( t ) log λ t r ( i , n ) + t = 1 T r = 1 n ( t ) i = 1 m ω i , r n ( t ) log π i ( t )

Figure DE102020121064A1_0115
This leads to optimization: Q K ( X , X n ) = p c Q K C ( X , X n ) + ( 1 p c ) Q K C ¯ ( X , X n ) Q K C ( X , X n ) = t = 1 T right = 1 n ( t ) i = 1 m Ω i , right n ( t ) log λ t right ( i , n ) + t = 1 T right = 1 n ( t ) i = 1 m Ω ˜ i , right n ( t ) log π i ( t ) Q K C ¯ ( X , X n ) = t = 1 T right = 1 n ( t ) i = 1 m ω i , right n ( t ) log λ t right ( i , n ) + t = 1 T right = 1 n ( t ) i = 1 m ω i , right n ( t ) log π i ( t )
Figure DE102020121064A1_0115

Es werden dann die die leichten Bedingungen der posterioren Assoziationsgewichte wie folgt eingeführt: Δ i , r n ( t ) = p c Ω i , r n ( t ) + ( 1 p c ) ω i , r n ( t ) Δ ˜ i , r n ( t ) = p c Ω ˜ i , r n ( t ) + ( 1 p c ) ω i , r n ( t )

Figure DE102020121064A1_0116
Then the easy conditions of the posterior association weights are introduced as follows: Δ i , right n ( t ) = p c Ω i , right n ( t ) + ( 1 p c ) ω i , right n ( t ) Δ ˜ i , right n ( t ) = p c Ω ˜ i , right n ( t ) + ( 1 p c ) ω i , right n ( t )
Figure DE102020121064A1_0116

Dies reduziert die Optimierung auf: Q K ( X , X n ) = t = 1 T r = 1 n ( t ) i = 1 m Δ i , r n ( t ) log λ t r ( i , n ) + t = 1 T r = 1 n ( t ) i = 1 m Δ ˜ i , r n ( t ) log π i ( t )

Figure DE102020121064A1_0117
This reduces the optimization to: Q K ( X , X n ) = t = 1 T right = 1 n ( t ) i = 1 m Δ i , right n ( t ) log λ t right ( i , n ) + t = 1 T right = 1 n ( t ) i = 1 m Δ ˜ i , right n ( t ) log π i ( t )
Figure DE102020121064A1_0117

Es wird nun ein Kalman-Filter verwendet und die früheren Assoziationswahrscheinlichkeiten werden unter Verwendung der weichen Bedingung der posterioren Assoziationsgewichte 2.41 aktualisiert.A Kalman filter is now used and the earlier association probabilities are updated using the soft condition of the posterior association weights 2.41.

Dieser Algorithmus stellt sicher, dass die gesamte Pseudozahl der synthetischen Messungen r = 1 n ( t ) Δ i , r n ( t ) ,

Figure DE102020121064A1_0118
die einem bestimmten Modell i zugeordnet ist, mindestens pcµi(t) beträgt. Wenn genügend Messungen in der Nähe dieses Modells liegen, kann es jedoch zu µi(t) oder mehr konvergieren.This algorithm ensures that the total pseudo number of the synthetic measurements right = 1 n ( t ) Δ i , right n ( t ) ,
Figure DE102020121064A1_0118
associated with a particular model i is at least p c µ i (t). However, if enough measurements are close to this model, it can converge to µ i (t) or more.

In verallgemeinerter Weise können mehrere Nebenbedingungen mit der Wahrscheinlichkeit p c l

Figure DE102020121064A1_0119
definiert werden, wie zum Beispiel l p c l 1
Figure DE102020121064A1_0120
und die Gewichte der beschränkten posterioren Assoziation können erhalten werden: Δ i , r n ( t ) = l p c l Ω i , r n , l ( t ) + ( 1 l p c l ) ω i , r n ( t ) Δ ˜ i , r n ( t ) = l p c l Ω ˜ i , r n , l ( t ) + ( 1 l p c l ) ω i , r n ( t )
Figure DE102020121064A1_0121
In a generalized way, several constraints can be related to the probability p c l
Figure DE102020121064A1_0119
be defined, such as l p c l 1
Figure DE102020121064A1_0120
and the constrained posterior association weights can be obtained: Δ i , right n ( t ) = l p c l Ω i , right n , l ( t ) + ( 1 l p c l ) ω i , right n ( t ) Δ ˜ i , right n ( t ) = l p c l Ω ˜ i , right n , l ( t ) + ( 1 l p c l ) ω i , right n ( t )
Figure DE102020121064A1_0121

Die vier nachfolgenden Beispiele in den 2 bis 5 beschreiben beispielhaft die eingeschränkte PMHT. Im ersten Beispiel gemäß 2 wird die Randbedingung verwendet, dass mindestens eine Messung von der Rückseite ausgehen muss. Im zweiten Beispiel gemäß 3 wird die Nebenbedingung verwendet, dass mindestens eine Messung von der linken Seite 10 ausgehen muss. Im dritten Beispiel gemäß 4 muss mindestens eine Messung von der hinteren linken und vorderen linken Ecke 11 ausgehen. Im vierten Beispiel gemäß 5 muss mindestens eine Messung von der vorderen linken Ecke 11 ausgehen. Alle Zwangsbedingungen werden weich mit pc=0.3 angewendet.The four following examples in the 2 until 5 describe the limited PMHT as an example. In the first example according to 2 the boundary condition is used that at least one measurement must start from the back. In the second example according to 3 the constraint is used that at least one measurement must start from the left side 10. In the third example according to 4 at least one measurement must start from the rear left and front left corners 11. According to the fourth example 5 at least one measurement must start from the front left corner 11. All constraints are applied softly with p c =0.3.

Ein iterativer Kalman-Filter wird ebenfalls verwendet, um Nichtlinearitätsprobleme zu entfernen. Zusätzlich sorgt eine beschränkte Kalman-Verstärkung dafür, dass die Länge und Breite des Objekts 7 nicht kleiner als ein realistischer Mindestwert wird.An iterative Kalman filter is also used to remove non-linearity problems. In addition, a limited Kalman gain ensures that the length and width of the object 7 does not become smaller than a realistic minimum value.

Wie gezeigt, vermeidet der beschränkte PMHT die unerwünschten lokalen Maxima und konvergiert zum gewünschten Ergebnis. Einige andere Randbedingungen können zu identischen Ergebnissen führen, zum Beispiel zeigt der dritte Fall ähnliche Ergebnisse, wenn mindestens drei Messungen von der linken Seite 10 und eine Messung von der hinteren rechten Ecke 11 kommen sollen. Sowohl Murtys Algorithmus als auch Gibbs Sampling ergeben identische Ergebnisse.As shown, the constrained PMHT avoids the unwanted local maxima and converges to the desired result. Some other boundary conditions can lead to identical results, for example the third case shows similar results when at least three measurements should come from the left side 10 and one measurement from the back right corner 11. Both Murty's algorithm and Gibbs sampling give identical results.

2 zeigt eine schematische Draufsicht auf das Objekt 7. Insbesondere ist in einem linken Teil der 2 gezeigt, wie die Erfassungspunkte 8 erfasst werden und wie sich das Objekt 7 tatsächlich verhält. Auf der rechten Seite der 2 ist insbesondere gezeigt, dass mittels des genutzten mathematischen Modells 9 nun durch die Vorgaben, dass zumindest einer der Erfassungspunkte 8 einer Rückseite des Objekts 7 zugeordnet werden muss, die polygonale Form 12 entsprechend angepasst wird. Somit ist insbesondere zu sehen, dass die Erfassungspunkte 8 der polygonalen Form 12 der Heckseite zugeordnet werden. Das tatsächliche Objekt 13 ist dann entsprechend gezeigt, wodurch zu erkennen ist, dass die Zuordnung der polygonalen Form 12 dem tatsächlichen Objekt 13 entspricht. 2 shows a schematic plan view of the object 7. In particular, in a left part of the 2 shown how the detection points 8 are detected and how the object 7 actually behaves. On the right side of the 2 shows in particular that the polygonal shape 12 is adapted accordingly by means of the mathematical model 9 used, due to the specifications that at least one of the detection points 8 must be assigned to a rear side of the object 7 . It can thus be seen in particular that the detection points 8 are assigned to the polygonal shape 12 of the rear side. The actual object 13 is then shown accordingly, whereby it can be seen that the assignment of the polygonal shape 12 corresponds to the actual object 13 .

3 zeigt eine weitere schematische Draufsicht, wobei als Vorgabebedingung gewählt ist, dass zumindest einer der Erfassungspunkte 8 einer linken Seite 10 des Objekts 7 zugeordnet wird. Auf der linken Seite 10 der 3 ist gezeigt, wie die Erfassungspunkte 8 erfasst werden und die Zuordnung der polygonalen Form 12 erfolgt. Auf der rechten Seite der 3 ist gezeigt, wie die polygonale Form 12 dem tatsächlichen Objekt 13 entspricht. 3 FIG. 12 shows a further schematic plan view, with the selected default condition being that at least one of the detection points 8 is assigned to a left-hand side 10 of the object 7 . On the left 10 of the 3 shows how the detection points 8 are detected and the polygonal shape 12 is assigned. On the right side of the 3 It is shown how the polygonal shape 12 corresponds to the actual object 13.

4 zeigt eine weitere schematische Draufsicht auf das Objekt 7. Im vorliegenden Ausführungsbeispiel ist insbesondere die Vorgabebedingung, dass zumindest einer der Erfassungspunkte 8 von der hinteren linken Ecke 11 sowie der vorderen rechten Ecke 11 stammen muss. Eine erste Schätzung 14 ist gezeigt. Ferner ist gezeigt, wie dann mittels des mathematischen Modells 9 entwickelt wird, dass die polygonale Form 12 entsprechend dem tatsächlichen Objekt 13 angepasst wird. 4 shows a further schematic top view of the object 7. In the present exemplary embodiment, the default condition is in particular that at least one of the detection points 8 must come from the rear left corner 11 and the front right corner 11. A first estimate 14 is shown. Furthermore, it is shown how the mathematical model 9 is then used to develop that the polygonal shape 12 is adapted in accordance with the actual object 13 .

5 zeigt eine weitere schematische Draufsicht auf das Objekt 7, wobei im vorliegenden Ausführungsbeispiel Vorgabebedingung ist, dass zumindest einer der Erfassungspunkte 8 von der vorderen linken Ecke 11 stammen muss. Es ist hier auch eine erste Schätzung 14 gezeigt, wobei dann die polygonale Form 12 entsprechend entwickelt wird, welche dann wiederum mit dem tatsächlichen Objekt 13 einhergeht. 5 shows a further schematic plan view of the object 7, wherein in the present exemplary embodiment a default condition is that at least one of the detection points 8 must come from the front left corner 11. A first estimate 14 is also shown here, with the polygonal shape 12 then being developed accordingly, which in turn is then associated with the actual object 13 .

Insgesamt zeigen die Fig. beschränkte Assoziationen für eine fortgeschrittene Objektverfolgung.Overall, the figures show constrained associations for advanced object tracking.

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDED IN DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of documents cited by the applicant was generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturPatent Literature Cited

  • JP 2019152575 A [0003]JP 2019152575 A [0003]
  • CN 109509207 A [0004]CN109509207A [0004]
  • CN 108363054 A [0005]CN 108363054A [0005]
  • DE 102018104311 A1 [0006]DE 102018104311 A1 [0006]

Claims (15)

Verfahren zum Betreiben eines Assistenzsystems (2) eines Kraftfahrzeugs (1), bei welchem mittels einer Erfassungseinrichtung (5) des Assistenzsystems (2) eine Umgebung (6) des Kraftfahrzeugs (1) erfasst wird, wobei die Umgebung (6) durch Erzeugung einer Vielzahl von Erfassungspunkten (8) als eine Punktwolke mittels der Erfassungseinrichtung (5) erfasst wird, und bei welchem die Punktwolke mittels einer elektronischen Recheneinrichtung (3) des Assistenzsystems (2) ausgewertet wird, wobei die Auswertung auf Basis eines mathematischen Modells (9) der elektronischen Recheneinrichtung (3) durchgeführt wird, und mittels des mathematischen Modells (9) eine Nachverfolgung eines Objekts (7) in der Umgebung (6) durchgeführt wird, wobei das Objekt (7) als polygonale Form (12) im mathematischen Modell (9) genähert wird und mittels eines Kalman-Filters, der zur Verarbeitung implizierter Messfunktionen eingerichtet ist, zumindest einer der Erfassungspunkte (8) der polygonalen Form (9) zugeordnet wird, dadurch gekennzeichnet, dass zumindest einer der Erfassungspunkte (9) als zumindest einem spezifischen Teil der polygonalen Form (12) zugeordnet vorgegeben wird und die Erfassung auf Basis dieser Vorgabebedingung mittels der elektronischen Recheneinrichtung (3) durchgeführt wird.Method for operating an assistance system (2) of a motor vehicle (1), in which by means of a detection device (5) of the assistance system (2) an environment (6) of the motor vehicle (1) is detected, the environment (6) by generating a plurality of detection points (8) is detected as a point cloud by the detection device (5), and in which the point cloud is evaluated by an electronic computing device (3) of the assistance system (2), the evaluation being based on a mathematical model (9) of the electronic computing device (3) is carried out, and by means of the mathematical model (9) a tracking of an object (7) in the environment (6) is carried out, the object (7) being approximated as a polygonal shape (12) in the mathematical model (9). and at least one of the detection points (8) is assigned to the polygonal shape (9) by means of a Kalman filter which is set up for processing implied measurement functions d, characterized in that at least one of the detection points (9) is predetermined as being assigned to at least one specific part of the polygonal shape (12) and the detection is carried out on the basis of this predetermined condition by means of the electronic computing device (3). Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der spezifische Teil der polygonalen Form (12) als eine Seite (10) der polygonalen Form (12) und/oder als eine Ecke (11) der polygonalen Form (12) vorgegeben wird.procedure after claim 1 , characterized in that the specific part of the polygonal shape (12) is specified as a side (10) of the polygonal shape (12) and/or as a corner (11) of the polygonal shape (12). Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in Abhängigkeit von einem Erfassungswinkel des Objekts (7) der spezifische Teil der polygonalen Form (12) vorgegeben wird.procedure after claim 1 or 2 , characterized in that the specific part of the polygonal shape (12) is specified as a function of a detection angle of the object (7). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die polygonale Form (12) als rechteckige Form des Objekts (7) vorgegeben wird.Method according to one of the preceding claims, characterized in that the polygonal shape (12) is specified as a rectangular shape of the object (7). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als mathematisches Modell (9) ein probabalistischer Multi-Hypothesen Verfolger unter Berücksichtigung der Vorgabebedingung genutzt wird.Method according to one of the preceding claims, characterized in that a probabalistic multi-hypothesis tracker is used as the mathematical model (9), taking into account the default condition. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass beim probabalistischen Multi-Hypothesen Verfolger die erfassten Erfassungspunkte (8) unabhängig voneinander sind, wobei jedoch zumindest einer der Vielzahl der Erfassungspunkte (8) mit der Vorgabebedingung berücksichtigt wird.procedure after claim 5 , characterized in that in the case of the probabalistic multi-hypothesis tracker the detected detection points (8) are independent of one another, but at least one of the plurality of detection points (8) is taken into account with the default condition. Verfahren nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass mittels des probabalistischen Multi-Hypothesen Verfolgers zur Auswertung der Punktwolke unter Berücksichtigung der Vorgabebedingung ein Murty-Algorithmus genutzt wird.Procedure according to one of Claims 5 or 6 , characterized in that a Murty algorithm is used by means of the probabalistic multi-hypothesis tracker for evaluating the point cloud, taking into account the default condition. Verfahren nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass mittels des probabalistischen Multi-Hypothesen Verfolgers zur Auswertung der Punktwolke unter Berücksichtigung der Vorgabebedingung eine Gibbs-Stichprobe genutzt wird.Procedure according to one of Claims 5 or 6 , characterized in that a Gibbs random sample is used by means of the probabalistic multi-hypothesis tracker for evaluating the point cloud, taking into account the default condition. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Eintrittswahrscheinlichkeit für die Vorgabebedingung beim mathematischen Modell (9) berücksichtigt wird.Method according to one of the preceding claims, characterized in that a probability of occurrence for the default condition is taken into account in the mathematical model (9). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von einem Erfassungswinkel des Objekts (7) die Vorgabebedingung berücksichtigt oder unberücksichtigt wird.Method according to one of the preceding claims, characterized in that the default condition is taken into account or not taken into account depending on a detection angle of the object (7). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von einer erfassten Distanz zum Objekt (7) die Vorgabebedingung berücksichtigt oder unberücksichtigt wird.Method according to one of the preceding claims, characterized in that the default condition is taken into account or not taken into account depending on a detected distance from the object (7). Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels einer als Lidarsensoreinrichtung und/oder mittels einer als Radarsensoreinrichtung und/oder mittels einer als Ultraschallsensoreinrichtung ausgebildeten Erfassungseinrichtung (5) die Umgebung (6) erfasst wird.Method according to one of the preceding claims, characterized in that the environment (6) is detected by means of a detection device (5) designed as a lidar sensor device and/or by means of a radar sensor device and/or by means of an ultrasonic sensor device. Computerprogrammprodukt mit Programmcodemitteln, welche in einem computerlesbaren Speichermedium gespeichert sind, um das Verfahren nach einem der vorhergehenden Ansprüche 1 bis 12 durchzuführen, wenn das Computerprogrammprodukt auf einem Prozessor einer elektronischen Recheneinrichtung (3) abgearbeitet wird.Computer program product with program code means, which are stored in a computer-readable storage medium, for the method according to one of the preceding Claims 1 until 12 through result when the computer program product is processed on a processor of an electronic computing device (3). Computerlesbares Speichermedium mit einem Computerprogrammprodukt nach Anspruch 13.Computer-readable storage medium containing a computer program product Claim 13 . Assistenzsystem (2) für ein Kraftfahrzeug (1), mit zumindest einer Erfassungseinrichtung (5) und mit einer elektronischen Recheneinrichtung (3), wobei das Assistenzsystem (2) zum Durchführen eines Verfahrens nach einem der Ansprüche 1 bis 12 ausgebildet ist.Assistance system (2) for a motor vehicle (1), with at least one detection device (5) and with an electronic computing device (3), wherein the assistance system (2) for carrying out a method according to one of Claims 1 until 12 is trained.
DE102020121064.7A 2020-08-11 2020-08-11 Method for operating an assistance system in a motor vehicle, computer program product, computer-readable storage medium and assistance system Pending DE102020121064A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020121064.7A DE102020121064A1 (en) 2020-08-11 2020-08-11 Method for operating an assistance system in a motor vehicle, computer program product, computer-readable storage medium and assistance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020121064.7A DE102020121064A1 (en) 2020-08-11 2020-08-11 Method for operating an assistance system in a motor vehicle, computer program product, computer-readable storage medium and assistance system

Publications (1)

Publication Number Publication Date
DE102020121064A1 true DE102020121064A1 (en) 2022-02-17

Family

ID=80000458

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020121064.7A Pending DE102020121064A1 (en) 2020-08-11 2020-08-11 Method for operating an assistance system in a motor vehicle, computer program product, computer-readable storage medium and assistance system

Country Status (1)

Country Link
DE (1) DE102020121064A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363054A (en) 2018-02-07 2018-08-03 电子科技大学 Passive radar multi-object tracking method for Single Frequency Network and multipath propagation
CN109509207A (en) 2018-11-09 2019-03-22 电子科技大学 The method that a kind of pair of point target and extension target carry out seamless tracking
DE102018104311A1 (en) 2018-02-26 2019-08-29 Valeo Schalter Und Sensoren Gmbh Method and system for estimating the shape of a dynamic object and for tracking that object
JP2019152575A (en) 2018-03-05 2019-09-12 株式会社デンソーアイティーラボラトリ Object tracking device, object tracking method, and computer program for object tracking

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363054A (en) 2018-02-07 2018-08-03 电子科技大学 Passive radar multi-object tracking method for Single Frequency Network and multipath propagation
DE102018104311A1 (en) 2018-02-26 2019-08-29 Valeo Schalter Und Sensoren Gmbh Method and system for estimating the shape of a dynamic object and for tracking that object
JP2019152575A (en) 2018-03-05 2019-09-12 株式会社デンソーアイティーラボラトリ Object tracking device, object tracking method, and computer program for object tracking
CN109509207A (en) 2018-11-09 2019-03-22 电子科技大学 The method that a kind of pair of point target and extension target carry out seamless tracking

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Bariant J.-F., Palacios L.L., Hassaan M. N., Thin C.: A Multiple Hypothesis Approach to Extended Target Tracking. In: 22th International Conference on Information Fusion (FUSION), 2019, 1-8. https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9011382 [abgerufen am 18.05.2021]
Gelgon M., Bouthemy P., Le Cadre J.-P.: Recovery of the trajectories of multiple moving objects in an image sequence with a PMHT approach. In: Image and Vision Computing, Elsevier, 2005, 19-31. https://hal.inria.fr/inria-00368859/file/IVC_2404_revisedJune2004.pdf [abgerufen am 23.04.2021]
Granström K., Baum M., Reuter S.: Extended Object Tracking: Introduction, Overview and Applications. In: Journal of Advances in Information Fusion, 12, Dezember 2016, 2, 139-174. https://arxiv.org/abs/1604.00970 [abgerufen am 18.05.2021]

Similar Documents

Publication Publication Date Title
DE102015107388A1 (en) Collision avoidance with static targets in confined spaces
DE102017103275A1 (en) Method for detecting an object in a surrounding area of a motor vehicle with the aid of an ultrasonic sensor with improved filtering of ground reflections, control unit, ultrasound sensor device and motor vehicle
DE102013102153A1 (en) Method for combining sensor signals of LiDAR-sensors, involves defining transformation value for one of two LiDAR sensors, which identifies navigation angle and position of sensor, where target scanning points of objects are provided
DE102013113571A1 (en) Methods and apparatus for merging radar / camera object data and LiDAR search points
DE102019110927A1 (en) Generalized inverse 3D sensor model
DE102018124108A1 (en) METHOD AND DEVICE FOR DETECTING ROAD LIMITATION
DE112018007810T5 (en) Object tracking based on several measurement hypotheses
DE102019114603A1 (en) OBJECT SPEED VECTOR ESTIMATION BY MULTIPLE RADARS WITH DIFFERENT WATCHING ANGLE
DE112020003343T5 (en) SYSTEM AND PROCESS USING A ROBUST DEEP GENERATIVE MODEL
DE112019005326T5 (en) OBJECT TRACKER
WO2022049241A1 (en) Method, radar system and vehicle for signal processing of radar signals
DE102018104310A1 (en) Method and system for tracking an object using Doppler measurement information
DE112020005792T5 (en) SYSTEMS AND METHODS FOR DENOOZING RADARD DATA
DE102020121064A1 (en) Method for operating an assistance system in a motor vehicle, computer program product, computer-readable storage medium and assistance system
DE102020215504A1 (en) Method and device for detecting objects in the surroundings of a vehicle
DE102018001533B4 (en) Real-time method for dynamic coordinate and parameter estimation with grid-based non-linear probabilistic filters
EP3293971A1 (en) Method for reproducing a section of an image
DE102018221285A1 (en) Interference suppression and signal recovery methods
DE102021114753A1 (en) Robust reflection point detection
DE102021213265A1 (en) IMAGE SEGMENTATION VIA EFFICIENT SEMIDEFINITE PROGRAMMING BASED INFERENCE FOR BINARY AND MULTICLASS MARKOV NETWORKS
DE102020116027A1 (en) Method and device for determining occupancy information for an environmental point on the basis of radar detections
DE112020004983T5 (en) OBJECT TRACKING DEVICE
DE102018104311A1 (en) Method and system for estimating the shape of a dynamic object and for tracking that object
DE102019214008A1 (en) Method and device for localizing a mobile agent in an environment with dynamic objects
DE102019109338A1 (en) Method for estimating the geometry of an object located in a vehicle environment

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000