-
Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug. Darüber hinaus betrifft die Erfindung ein Fahrzeug, ein Computerprogramm sowie ein computerlesbares Speichermedium.
-
Zur Erkennung von Objekten in Umgebung eines Fahrzeugs werden oftmals heterogene Sensorvorrichtungen eingesetzt. Erkannte Objekte im Fahrzeugumfeld können zur sicheren Umsetzung von Assistenzfunktionen herangezogen werden, insbesondere für längs regelnde Funktionen wie Active Cruise Control, oder einen Kreuzungsassistent und für querregelnde Funktionen wie Lateral Collision Avoidance, Lenk- und Spurführungsassistent.
-
Bedingt durch unterschiedliche Messprinzipien der eingesetzten Sensorvorrichtungen können die durch die Sensorvorrichtungen erfassten Informationen über die Objekte unterschiedlich sein. Aufgrund beschränkter Rechenleistung in Fahrzeugen werden die durch die Sensorvorrichtungen bereitgestellten Informationen üblicherweise auf High-Level-Ebene fusioniert. Das bedeutet, dass die Sensorvorrichtungen jeweils anhand der erfassten Informationen separat Objekte erkennen und diese in einer abstrakten, sensorunabhängigen Objektrepräsentation als Informationen bereitstellen (sogenannte „Sensorobjekte“); die bereitgestellten Informationen werden dann durch eine separate Sensordatenfusionseinheit zu jeweils einer Objektrepräsentation je tatsächlichem Objekt zusammengeführt bzw. fusioniert (sogenannte „Fusionsobjekte“).
-
Als Objektrepräsentation kommt beispielsweise ein Rechteck oder Quader in Betracht (vgl. 1). Für diese Objektrepräsentation wird jedem Objekt O ein Referenzpunkt A zugewiesen, der bezüglich eines Referenzkoordinatensystems R, beispielsweise relativ zu einem vorgegebenen Bezugspunkt am/im Fahrzeug, eine laterale Verschiebung (x, y), eine Orientierung des Objekts O, beispielsweise der Winkel zur x-Achse des Referenzkoordinatensystems R, sowie die Länge l (bezüglich x-Achse) und Breite b (bezüglich y-Achse) umfasst. Ein Referenzpunkt A, dem neben der lateralen Verschiebung (x, y) als Position des Objekts O eine Breite b, Länge l und Orientierung zugeordnet sind, kann auch als „Zustand“ bezeichnet werden. Dem Zustand können weitere Eigenschaften des Objekts O zugeordnet werden, beispielsweise die Höhe h (bezüglich z-Achse), Geschwindigkeit oder ein Objekttyp. Jede Messgröße des Objekts O kann dabei als normalverteilte Zufallsvariable mit Varianz und Kovarianzen bezüglich der anderen Messgrößen modelliert und diese Werte ebenfalls dem Zustand zugeordnet werden.
-
Bei der High-Level-Fusion werden also lediglich die bereitgestellten Objektrepräsentationen der einzelnen Sensorvorrichtungen fusioniert, insbesondere also Sensorobjekte zu Fusionsobjekten assoziiert und fusioniert; die sensorspezifisch erfassten Informationen über die Objekte werden von den Sensorvorrichtungen selbst verarbeitet und bleiben von der Sensordatenfusionseinheit unberücksichtigt. Dadurch ist die Rechenlast über Sensorvorrichtungen und Sensordatenfusionseinheit verteilt; statt sensorspezifischer Datenverarbeitung oder Kommunikation kann auf Objektrepräsentationen zurückgegriffen werden.
-
Nachteilig ist, dass durch die Vorverarbeitung der erfassten Informationen durch die Sensorvorrichtungen und der damit einhergehenden Abstraktion Informationen über die Objekte verlorengehen. Ebenfalls nachteilig ist, dass auf einige Sensordaten, welche den Anforderungen der eingesetzten Objektrepräsentation nicht genügen, zu oben genannter High-Level-Fusion nicht zurückgegriffen werden kann. Insbesondere betrifft dies vergleichsweise kostengünstige Sensorvorrichtungen wie z.B. Abstandssensoren, bei denen einzelne Messgrößen der eingesetzten Objektrepräsentation, nicht gemessen werden können.
-
Die Aufgabe, die der Erfindung zugrunde liegt, ist es, ein Verfahren zur Sensordatenfusion für ein Fahrzeug sowie eine entsprechende Vorrichtung, ein Fahrzeug, Computerprogramm sowie computerlesbares Speichermedium zu schaffen, durch das die genannten Nachteile überwunden werden können.
-
Die Aufgabe wird gelöst durch die unabhängigen Patentansprüche. Vorteilhafte Ausgestaltungen sind in den Unteransprüchen gekennzeichnet.
-
Gemäß einem ersten Aspekt betrifft die Erfindung ein Verfahren zur Sensordatenfusion für ein Fahrzeug, dem ein Abstandssensor zugeordnet ist. Bei dem Verfahren wird ein Fusionsobjektdatensatz bereitgestellt, der Fusionsobjektdaten umfasst. Die Fusionsobjektdaten sind jeweils repräsentativ für ein in der Umgebung des Fahrzeugs ermitteltes Fusionsobjekt.
-
Bei dem Verfahren wird ferner ein Richtungskennwert ermittelt. Der Richtungskennwert ist repräsentativ für einen Winkel, den eine Messrichtung des Abstandssensors im bestimmungsgemäßen Betrieb mit einer vorgegebenen Bezugsachse eines vorgegebenen Referenzkoordinatensystems des Fahrzeugs einschließt.
-
Darüber hinaus wird ein Abstandsmesswert des Abstandssensors erfasst.
-
Abhängig von dem Abstandsmesswert und dem Richtungskennwert wird ein Fusionsobjekt ermittelt, dem der Abstandsmesswert und der Richtungskennwert zugeordnet werden.
-
Ferner wird abhängig von dem Abstandsmesswert, dem Richtungskennwert und den entsprechenden Fusionsobjektdaten ein innoviertes Fusionsobjekt ermittelt.
-
In vorteilhafter Weise ermöglicht dies den Einsatz von Abstandssensoren zur High-Level-Fusion bei Fahrzeugen. Durch die Fusion von Objektdaten und Abstandsmesswerten können nahezu sämtliche Abstandssensoren genutzt werden, insbesondere auch vergleichsweise kostengünstige Ultraschallsensoren oder Radarsensoren mit geringer Winkelauflösung bzw. bei Winkelinformation mit hoher Unsicherheit.
-
Dadurch, dass bei der Fusion der Abstandsmesswerte ein bereits vorliegender Fusionsobjektdatensatz verwendet wird, kann eine Assoziation der Abstandsmesswerte zu erkannten Objekten vereinfacht umgesetzt werden, so dass eine Implementierung auf im Fahrzeug eingesetzten, leistungsschwachen Steuergeräten ermöglicht wird.
-
Die bereitgestellten Fusionsobjektdaten sind insbesondere repräsentativ für Fusionsobjekte in Rechteck- oder Quader-Objektrepräsentation. Als vorgegebene Bezugsachse kommt beispielsweise die Längsachse des Fahrzeugs in Betracht.
-
Der Schritt, in dem abhängig von dem Abstandsmesswert und dem Richtungskennwert ein Fusionsobjekt aus dem Fusionsobjektdatensatz zur Zuordnung ermittelt wird, kann auch als Assoziationsschritt bezeichnet werden.
-
Der Schritt, in dem abhängig von dem Abstandsmesswert, dem Richtungskennwert und den Fusionsobjektdaten, die dem im Assoziationsschritt zugeordneten Fusionsobjekt entsprechen, ein innoviertes Fusionsobjekt ermittelt wird, kann auch als Innovationsschritt oder Fusion bezeichnet werden.
-
In einer vorteilhaften Ausgestaltung gemäß dem ersten Aspekt wird abhängig von den Objektdaten jeweils ein Abstandskennwert ermittelt. Der Abstandskennwert ist repräsentativ für einen Abstand in Messrichtung zwischen dem Abstandssensor und je einem in der Umgebung des Fahrzeugs ermittelten Fusionsobjekt.
-
Überdies wird jeweils eine Abweichung zwischen dem jeweiligen Abstandskennwert und dem Abstandsmesswert ermittelt. Nur im Falle, dass die Abweichung geringer ist als ein vorgegebener Schwellenwert, werden der Abstandsmesswert und der Richtungskennwert einem Fusionsobjekt zugeordnet. Anderenfalls wird der entsprechende Abstandsmesswert und/oder Richtungskennwert beispielsweise verworfen oder geprüft, ob der Abstandsmesswert eine geringere Abweichung zu einem Abstandskennwert aufweist, der einem anderen Fusionsobjekt aus Fusionsobjektdatensatz zugeordnet ist.
-
In vorteilhafter Weise ermöglicht dies eine Datenreduktion, so dass eine Rechenlast bei der Verarbeitung gering gehalten werden kann. Dieser Schritt kann auch als Gating bezeichnet werden. Der Abstandskennwert stellt dabei keinen tatsächlichen Messwert dar, sondern entspricht vielmehr einer Prädiktion anhand des bereits vorliegenden Fusionsobjektdatensatzes, welchen Abstandsmesswert der Abstandssensor je Fusionsobjekt wahrscheinlich ausgeben wird. Als Maß der Abweichung kann beispielhaft die euklidische Distanz oder Mahalanobis Distanz verwendet werden.
-
In einer weiteren vorteilhaften Ausgestaltung gemäß dem ersten Aspekt wird der Abstandsmesswert ausschließlich dem Fusionsobjekt mit der geringsten ermittelten Abweichung zugeordnet. Beispielsweise werden dabei zunächst mehrere potentielle Fusionsobjekte als Kandidaten für die Zuordnung ermittelt, deren jeweiliger Abweichung den Schwellenwert unterschreitet. In einem zweiten Schritt kann dann mittels eines sogenannten local nearest neighbour gating Verfahrens das Fusionsobjekt mit der geringsten Abweichung aus den Kandidaten ermittelt werden.
-
In einer weiteren vorteilhaften Ausgestaltung gemäß dem ersten Aspekt wird abhängig von den Fusionsobjektdaten jeweils ein dem Fahrzeug zugewandtes Kontursegment des entsprechenden Fusionsobjekts ermittelt.
-
Darüber hinaus wird ausgehend von dem Abstandssensor jeweils ein Schnittpunkt zwischen einem Vektor in Messrichtung und einer Gerade entlang des jeweiligen Kontursegments ermittelt.
-
Schließlich wird abhängig von dem jeweiligen Schnittpunkt der jeweilige Abstandskennwert ermittelt.
-
In vorteilhafter Weise kann so eine Varianz der Messgrößen Länge und Breite des Objekts berücksichtigt werden.
-
In einer weiteren vorteilhaften Ausgestaltung gemäß dem ersten Aspekt umfassen die Fusionsobjektdaten einen Fusionsreferenzpunkt, eine laterale Erstreckung des Fusionsobjekts bezüglich des Fusionsreferenzpunkts, eine Orientierung des Fusionsobjekts bezüglich des Referenzkoordinatensystems des Fahrzeugs sowie jeweils einen Indikatorkennwert, der repräsentativ ist für eine Unsicherheit bei der Ermittlung der lateralen Erstreckung und Orientierung.
-
Abhängig von den Fusionsobjektdaten und dem Schnittpunkt wird daraufhin ein Transformationszustand ermittelt. Der Transformationszustand umfasst eine laterale Erstreckung des Fusionsobjekts bezüglich des Schnittpunkts, die Orientierung des Fusionsobjekts bezüglich des Referenzkoordinatensystems des Fahrzeugs sowie jeweils einen Indikatorkennwert, der repräsentativ ist für eine Unsicherheit bei der Ermittlung der lateralen Erstreckung und Orientierung.
-
Der Fusionsreferenzpunkt kann auch als Zustand des Fusionsobjekts bezeichnet werden. In vorteilhafter Weise kann durch diese Ausgestaltung der Zustand des Fusionsobjekts unter Berücksichtigung der Unsicherheiten auf den ermittelten Schnittpunkt transformiert werden.
-
In einer weiteren vorteilhaften Ausgestaltung gemäß dem ersten Aspekt wird abhängig von dem Transformationszustand und den Indikatorkennwerten, dem Abstandsmesswert und dem Richtungskennwert ein innovierter Transformationszustand ermittelt.
-
Daraufhin wird abhängig von dem innovierten Transformationszustand ein innoviertes Fusionsobjekt ermittelt.
-
Der innovierte Transformationszustand bezeichnet einen um die Messdaten des Abstandssensors ergänzten Transformationszustand. In vorteilhafter Weise kann der Zustand des Fusionsobjekts im ermittelten Schnittpunkt so mit dem ermittelten Abstandsmesswert und dem Richtungskennwert unter Berücksichtigung der Unsicherheiten angepasst werden. Der Schritt, in dem abhängig von dem innovierten Transformationszustand ein innoviertes Fusionsobjekt ermittelt wird, umfasst insbesondere eine Rücktransformation auf den ursprünglichen Fusionsreferenzpunkt, so dass nachfolgend wieder eine Fusion des innovierten Fusionsobjekts mit Sensorobjekten ermöglicht wird.
-
In einer weiteren vorteilhaften Ausgestaltung gemäß dem ersten Aspekt wird die Messrichtung des Abstandssensors abhängig von einer Detektionscharakteristik des Abstandssensors ermittelt, insbesondere im Falle, dass es sich bei dem Abstandssensor um einen Ultraschallsensor handelt. Alternativ kann die Messrichtung beispielsweise durch eine Verbauung des Abstandssensors vorgegeben sein und beispielhaft durch eine werksseitige Kalibrierung in der Sensordatenfusionseinheit hinterlegt sein.
-
Gemäß einem zweiten Aspekt betrifft die Erfindung eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug. Die Vorrichtung ist ausgebildet, ein Verfahren gemäß dem ersten Aspekt auszuführen. Die Vorrichtung kann auch als Sensordatenfusionseinheit bezeichnet werden.
-
Gemäß einem dritten Aspekt betrifft die Erfindung ein Fahrzeug. Das Fahrzeug umfasst eine Vorrichtung zur Sensordatenfusion gemäß dem zweiten Aspekt sowie einen Abstandssensor.
-
In einer vorteilhaften Ausgestaltung gemäß dem dritten Aspekt umfasst das Fahrzeug eine weitere Sensorvorrichtung. Die weitere Sensorvorrichtung ist eingerichtet, Messdaten zu erfassen, die repräsentativ sind für eine Umgebung des Fahrzeugs.
-
Darüber hinaus ist die weitere Sensorvorrichtung dazu eingerichtet, abhängig von den Messdaten Sensorobjektdaten zu ermitteln, die repräsentativ sind für ein in der Umgebung des Fahrzeugs durch die weitere Sensorvorrichtung ermitteltes Sensorobjekt.
-
Ferner ist die Vorrichtung ausgebildet, abhängig von dem Fusionsobjektdatensatz und den Sensorobjektdaten ein innoviertes Fusionsobjekt zu ermitteln. Das innovierte Fusionsobjekt ist beispielhaft repräsentiert durch Fusionsobjektdaten, die in dem Fusionsobjektdatensatz gespeichert werden.
-
In einer weiteren vorteilhaften Ausgestaltung gemäß dem dritten Aspekt umfasst die weitere Sensorvorrichtung wenigstens eines aus einer Kamera, einem RaDAR, Radio Detection And Ranging, -Sensor, einem LiDAR, Light Detection And Ranging, -Sensor oder einem LaDAR, Laser Detection And Ranging, -Sensor oder besteht daraus.
-
In einer weiteren vorteilhaften Ausgestaltung gemäß dem dritten Aspekt umfasst der Abstandssensor wenigstens eines aus einem Ultraschallsensor, einem Punktlasersensor, einem Infrarotsensor oder einem RaDAR, Radio Detection And Ranging, -Sensor oder besteht daraus.
-
Gemäß einem vierten Aspekt betrifft die Erfindung ein Computerprogramm zur Sensordatenfusion für ein Fahrzeug. Das Computerprogramm umfasst Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren gemäß dem ersten Aspekt auszuführen.
-
Gemäß einem fünften Aspekt betrifft die Erfindung ein computerlesbares Speichermedium, auf dem das Computerprogramm gemäß dem vierten Aspekt gespeichert ist.
-
Ausführungsbeispiele der Erfindung sind im Folgenden anhand der schematischen Zeichnungen näher erläutert.
-
Es zeigen:
- 1 eine beispielhafte Objektrepräsentation;
- 2 ein Ausführungsbeispiel eines erfindungsgemäßen Fahrzeugs mit einer Vorrichtung zur Sensordatenfusion; und
- 3 ein beispielhaftes Ablaufdiagramm eines Verfahrens zur Sensordatenfusion.
-
Elemente gleicher Konstruktion oder Funktion sind figurenübergreifend mit den gleichen Bezugszeichen versehen.
-
Im Folgenden wird ein System vorgeschlagen, das es ermöglicht, in einer High-Level-Objektfusion auch Abstandsmesswerte zu fusionieren. Anhand des Ausführungsbeispiels der 2 ist ein erfindungsgemäßes Fahrzeug F mit einer Vorrichtung V zur Sensordatenfusion sowie einem Abstandssensor S1 dargestellt, der eingerichtet ist, Abstandsmesswerte d zu erfassen. Dabei kann es sich z.B. um einen Ultraschall-, Punktlaser- oder Infrarotsensor handeln. Unabhängig von der verwendeten Methode zur High-Level-Objektfusion wird im Automobilbereich als Ergebnis der Objektfusion üblicherweise eine Liste von Rechtecken bzw. Quadern (vgl. 1) als Objektrepräsentation ausgegeben, welche erkannte, insbesondere bewegliche, Objekte in der Umgebung des Fahrzeugs F repräsentieren. 2 zeigt ein solches Fusionsobjekt OF , dem ein Fusionsreferenzpunkt AF , eine Länge l und Breite b bezüglich des Fusionsreferenzpunkt A, eine Orientierung des Fusionsobjekts OF bezüglich eines Referenzkoordinatensystems R des Fahrzeugs F sowie jeweils ein Indikatorkennwert, der repräsentativ ist für eine Unsicherheit bei der Ermittlung der Länge l, Breite b und Orientierung zugeordnet sind. Die Unsicherheit kann beispielsweise durch eine Varianz ausgedrückt sein.
-
Neben dem Abstandsmesswert d kann durch die Ausrichtung des Abstandssensors S1 oder im Falle eines z.B. Ultraschallsensors aus der Detektionscharakteristik eine Messrichtung α ermittelt werden, in der der Abstandsmesswert d erfasst wurde. Darüber hinaus können zugehörige Varianzen bei der Messung ermittelt werden.
-
Das Fahrzeug F weist ferner beispielhaft eine weitere Sensorvorrichtung S2 auf, die zur Erfassung der Umgebung des Fahrzeugs F eingerichtet ist. Der Abstandssensor S1 sowie die weitere Sensorvorrichtung S2 sind mit der Vorrichtung V zur Sensordatenfusion signaltechnisch gekoppelt. Die weitere Sensorvorrichtung S2 stellt dabei Sensorobjektdaten bereit, die durch die Vorrichtung V nach einem beliebigen Verfahren zur High-Level-Objektfusion fusioniert und in einem Fusionsobjektdatensatz gespeichert werden. Beispielhaft wird in diesem Zusammenhang auf die Ausführungen von N. Kämpchen in „Feature-level fusion of laser scanner and video data“, Ulm: Ulm University, 2007; und F. Seeliger in „Fahrzeugübergreifende Informationsfusion“, Ulm: Schriftenreihe des Instituts für Mess-, Regel- und Mikrotechnik der Universität Ulm, 2017 verwiesen.
-
Um die Abstandsmesswerte d mit den Fusionsobjektdaten zu fusionieren, werden diese gemäß dem erfindungsgemäßen Verfahren wie folgt zu jeweils einem Fusionsobjekt OF assoziiert und der Objektzustand anschließend innoviert. Im Assoziationsschritt wird die Abstandsmessung des Abstandssensors S1 zu einem Fusionsobjekt OF aus der fusionierten Objektliste bzw. aus dem Fusionsobjektdatensatz zugeordnet. Sollte das Fahrzeug F mehr als einen Abstandssensor S1 aufweisen, so sind die im Folgenden beschriebenen Schritte entsprechend für jeden dieser Abstandssensoren je Messung anzuwenden. Bei der Innovation wird der Zustand jedes Fusionsobjekts OF mit den assoziierten Abstandsdaten angepasst.
-
Der Vorrichtung V ist in diesem Zusammenhang insbesondere ein Daten- und Programmspeicher zugeordnet, in dem ein Computerprogramm gespeichert ist, das anhand des Ablaufdiagramms der 3 im Folgenden näher erläutert wird.
-
In einem ersten Schritt P10 wird ein Fusionsobjektdatensatz bereitgestellt, der Fusionsobjektdaten umfasst, die jeweils repräsentativ sind für ein in der Umgebung des Fahrzeugs F ermitteltes Fusionsobjekt OF . Beispielsweise ist der Fusionsobjektdatensatz in einem Datenspeicher der Vorrichtung V hinterlegt und wurde in einem vorangegangenen Fusionsverfahren aus den Sensorobjektdaten der weiteren Sensorvorrichtung S2 ermittelt.
-
Das Programm wird in einem Schritt P20 fortgesetzt, in dem ein Richtungskennwert ermittelt wird, der repräsentativ ist für einen Winkel α, den eine Messrichtung M des Abstandssensors S1 im bestimmungsgemäßen Betrieb mit einer vorgegebenen Bezugsachse x des Fahrzeugs F einschließt. In diesem Zusammenhang kann in einem vorausgehenden Schritt P18 die Messrichtung M des Abstandssensors S1 abhängig von seiner Detektionscharakteristik ermittelt worden sein.
-
In einem auf den Schritt P20 folgenden Schritt P30 wird abhängig von den Objektdaten jeweils ein Abstandskennwert d̂ ermittelt, der repräsentativ ist für einen Abstand in Messrichtung M zwischen dem Abstandssensor S1 und je einem in der Umgebung des Fahrzeugs F ermittelten Fusionsobjekt OF .
-
Hierzu wird in einem Schritt P32 abhängig von den Fusionsobjektdaten jeweils ein dem Fahrzeug F zugewandtes Kontursegment KS des entsprechenden Fusionsobjekts OF ermittelt und in einem anschließenden Schritt P34 ausgehend von dem Abstandssensor S1 jeweils ein Schnittpunkt xs zwischen einem Vektor in Messrichtung M und einer Gerade KG durch das jeweilige Kontursegment Ks ermittelt. Der Schnittpunkt xs wird insbesondere in einer lateralen Richtung bestimmt, also als Versatz bezüglich des Referenzkoordinatensystems R entlang x- und y-Achse. In anderen Worten wird der Schnittpunkt xs des Richtungsvektors der Abstandsmessung mit dem nächstliegenden Kontursegment KS jedes Fusionsobjekts OF bestimmt. Abhängig von der Varianz der Objektausdehnung (Länge l und Breite b) kann es auch Schnittpunkte xs geben, die auf den jeweiligen Verlängerungen KG der Kontursegmente Ks, leicht neben dem Fusionsobjekt OF liegen. Der jeweilige Abstandskennwert d̂ wird dann in einem Schritt P36 abhängig von dem jeweiligen Schnittpunkt xs ermittelt.
-
Im Anschluss wird in einem Schritt S40 abhängig von den Fusionsobjektdaten und dem Schnittpunkt xs ein Transformationszustand ermittelt, der die Länge und Breite des Fusionsobjekts OF bezüglich des Schnittpunkts xs , die Orientierung des Fusionsobjekts OF bezüglich des Referenzkoordinatensystems R sowie jeweils einen entsprechenden Indikatorkennwert umfasst, um so den Zustand des Fusionsobjekts OF unter Berücksichtigung der Unsicherheiten auf den ermittelten Schnittpunkt xs zu transformieren. Dabei wird der Objektzustand bzw. der Fusionsreferenzpunkt AF anhand der Funktion A'F= f(AF) vom aktuellen Fusionsreferenzpunkt AF auf der Objektkontur Ks auf den Schnittpunkt xs transformiert, wobei A'F den Transformationszustand bezeichnet. Entsprechend werden die Varianzen PA
F des Objektzustands mittels P'AF = Jf(AF) · PA
F ·Jf(AF)T, wobei Jt(AF) die Jakobi-Matrix von f(·) im Punkt AF , in den Schnittpunkt xs transformiert.
-
In einem darauffolgenden Schritt P50 wird ein Abstandsmesswert d des Abstandssensors S1 erfasst.
-
Anschließend wird in einem Schritt P60 jeweils eine Abweichung εd zwischen dem Abstandskennwert d̂ und dem jeweiligen Abstandsmesswert d ermittelt, wobei nur im Falle, dass die Abweichung εd geringer ist als ein vorgegebener Schwellenwert, der Abstandsmesswert d in einem anschließenden Schritt P70 einem Fusionsobjekt OF zugeordnet wird, und zwar ausschließlich dem Fusionsobjekt OF mit der geringsten ermittelten Abweichung εd . Der Schritt P60 kann auch als Gating bezeichnet werden. In anderen Worten wird nur wenn der Unterschied zwischen dem prädizierten Abstand des Abstandssensors S1 zum Schnittpunkt xs und dem tatsächlichen gemessenen Abstand kleiner ist als ein, je nach Anwendungsfall applizierbarer, Schwellenwert, das Fusionsobjekt OF als ein Kandidat für eine Assoziation berücksichtigt. Als Maß für den Unterschied können beliebige Kriterien, wie z.B. der euklidischen Distanz, Mahalanobis Distanz, usw. verwendet werden. Von allen Fusionsobjekten OF , die als Kandidat für eine Assoziation bestimmt wurden, wird die Abstandmessung zu dem Fusionsobjekt OF mit dem kleinsten Unterschied assoziiert. Dabei wird jede Abstandsmessung lediglich zu einem einzigen Fusionsobjekt OF assoziiert. Es können jedoch mehrere Abstandmessungen zu einem Fusionsobjekt OF assoziiert werden.
-
In einem auf den Schritt P70 folgenden Schritt P80 wird abhängig von dem Transformationszustand und den Indikatorkennwerten, dem Abstandsmesswert d und dem Richtungskennwert ein innovierter Transformationszustand ermittelt.
-
Dabei wird der Transformationszustand
A'F bezüglich des Schnittpunkts
xs mit den in Schritt
P70 assoziierten Abstandsdaten angepasst. Insbesondere kann hierzu folgendes Modell für die Messung verwendet werden, mit dem zu jedem Zustand mit den Koordinaten (X, Y) die erwartete Messung ẑ = (d̂, â) berechnet werden kann:
-
Mit den Formeln (1) und (2) des Modells kann und unter Berücksichtigung der Formel (3), die die Unsicherheit der Abstandsmessung als Varianz var
d und der Richtungsmessung als var
α widerspiegeln, mit gängigen Fusionsansätzen, wie beispielhaft in F. Seeliger in „Fahrzeugübergreifende Informationsfusion“, Ulm: Schriftenreihe des Instituts für Mess-, Regel- und Mikrotechnik der Universität Ulm, 2017 erläutert, die für den Transformationszustand
A'F erwartete Messung ẑ bestimmt und
A'F im Schnittpunkt
xs entsprechend der Differenz zwischen erwarteter und tatsächlicher Messung des Abstandssensors
S1 angepasst werden, also der innovierte Transformationszustand
ermittelt werden.
-
In einem darauffolgenden Schritt
P90 wird abhängig von dem innovierten Transformationszustand
ein innoviertes Fusionsobjekt
ermittelt, um in nachfolgenden Schritten wieder (Sensor-)objektdaten fusionieren zu können. Hierzu wird der innovierte Transformationszustand
beispielsweise mittels f
-1(·) und
wieder auf den ursprünglichen Fusionsreferenzpunkt
AF des Fusionsobjektes
OF zurücktransformiert.
-
Sollte bei dem verwendeten Fusionsansatz auch die Existenzwahrscheinlichkeit der Fusionsobjekte OF geschätzt werden, so kann auch die Existenzwahrscheinlichkeit dem Transformationszustand zugeordnet und innoviert werden.
-
Das Programm wird anschließend beendet oder gegebenenfalls nach einer vorgegebenen Unterbrechung in dem Schritt P10 mit aktualisiertem Objektdatensatz fortgesetzt.