DE102017223325A1 - Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen - Google Patents

Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen Download PDF

Info

Publication number
DE102017223325A1
DE102017223325A1 DE102017223325.7A DE102017223325A DE102017223325A1 DE 102017223325 A1 DE102017223325 A1 DE 102017223325A1 DE 102017223325 A DE102017223325 A DE 102017223325A DE 102017223325 A1 DE102017223325 A1 DE 102017223325A1
Authority
DE
Germany
Prior art keywords
parameter
measurements
vehicle
measurement
filter vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017223325.7A
Other languages
English (en)
Inventor
Robert Stück
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Conti Temic Microelectronic GmbH
Original Assignee
Conti Temic Microelectronic GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Conti Temic Microelectronic GmbH filed Critical Conti Temic Microelectronic GmbH
Priority to DE102017223325.7A priority Critical patent/DE102017223325A1/de
Priority to PCT/DE2018/200111 priority patent/WO2019120392A1/de
Priority to US16/770,713 priority patent/US11521027B2/en
Priority to DE112018005565.5T priority patent/DE112018005565A5/de
Publication of DE102017223325A1 publication Critical patent/DE102017223325A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Fusion von Messungen aus verschiedenen Informationsquellen (I 1, I 2, ... I m) in Verbindung mit einer Filterung eines Filtervektors,wobei jeweils mindestens eine aus den Messungen abgeleitete Messgröße im Filtervektor enthalten ist,wobei die Messungen mindestens einer einzelnen Informationsquelle (I 1; I 2; ... I m) nichtlinear auf die jeweilige Messgröße abgebildet werden, wobei mindestens eine dieser Abbildungen von mindestens einem unbestimmten Parameter abhängt,wobei der zu bestimmende Wert des mindestens einen unbestimmten Parameters aus den Messungen der verschiedenen Informationsquellen (I 1, I 2, ... I m) geschätzt wird undwobei der Filtervektor zur Schätzung des mindestens einen unbestimmten Parameters nicht benötigt wird.

Description

  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen und kann insbesondere bei Fahrerassistenzsystemen bzw. Fahrzeugsteuerungssystemen automatisiert fahrender Fahrzeuge zur Fusion von Umfeldsensordaten verwendet werden.
  • Die Fusion mehrerer Sensoren zur Verfolgung von Objekten ist ein vieldiskutiertes Problem. Insbesondere zur Kombination mehrerer Radarsensoren mit Schätzung der relativen Positionen der Sensoren gibt es eine Vielzahl von Veröffentlichungen. In der Regel beschränken sich Veröffentlichungen zu diesem Thema auf die Modellierung des Sensorversatzes über unbekannte und zu ermittelnde Parameter, die additiv mit Zustandsgrößen verbunden sind. So wird beispielsweise die unbekannte Position eines Radarsensors als unbekannter additiver Versatz auf die Position des verfolgten Objektes beschrieben.
  • Es ist eine Aufgabe der Erfindung, eine Lösung anzugeben, wie Messungen aus unterschiedlichen Informationsquellen unter Berücksichtigung mindestens eines unbekannten Parameters sinnvoll und zuverlässig fusioniert werden können.
  • Ein Ausgangspunkt bei der Lösung sind die folgenden Überlegungen:
  • Bei einer schlechten Schätzung unbekannter Parameter werden Informationen nicht optimal verarbeitet, was sich in einer geringen Präzision eines Filterzustands ausdrückt. Insbesondere kann die Kinematik und Position des verfolgten Objektes gestört sein. Auch die Robustheit der Objektkinematik gegenüber Ausfall einzelner Informationsquellen kann deutlich reduziert sein.
  • Im Allgemeinen können die zu ermittelnden Sensorparameter nichtlinear in die Messgleichungen eingehen und sind somit nicht (oder schlecht, da nicht konstant) als additive Parameter auf dem Objektstatus zu beschreiben.
  • Noch allgemeiner können die Parameter der verwendeten Informationsquellen (eine zutreffendere englische Bezeichnung wäre „cues“) aus Messungen mindestens eines Sensors abgeleitet werden. Insbesondere können mehrere Informationsquellen aus Messungen eines Sensors abgeleitet werden können, z.B. durch unterschiedliche Auswertungsverfahren der Sensormessdaten. Z.B. lässt sich aus den Klassifikatordetektionen einer Stereokamera die Entfernung von Objekten über die Disparität, die Breite/Höhe im Bild, die Unterkante oder über structure-from-motion basierte Informationen bestimmen.
  • Standardverfahren zur Verknüpfung von unbekannten nicht linear in die Filterung eingehenden Parametern basieren auf einer Erweiterung des Filterzustandes mit den unbekannten Parametern.
  • Beispiele werden in folgenden Veröffentlichungen gezeigt:
  • Tracking with Multisensor Out-of-Sequence Measurements with Residual Biases, Shuo Zhang et al., JOURNAL OF ADVANCES IN INFORMATION FUSION Vol. 6, No. 1, Juni 2011, S. 3-23.
  • A Practical Bias Estimation Algorithm for Multisensor-Multitarget Tracking, Ehsan Taghavi et al. IEEE Transactions on Aerospace and Electronics Systems 2016, abgerufen am 13.12.2017 unter https://arxiv.org/pdf/1603.03449
  • Dual Kalman Filtering Methods for Nonlinear Prediction, Smoothing, and Estimation, Wan, Nelson Advances in neural information processing systems, 1997, S. 793-799.
  • Kapitel 16.3.1 bis 16.3.3 (Multisensor Dynamic Bias Estimation with Local Tracks) des Buchs: Tracking and Data Fusion - A Handbook of Algorithms, Bar-Shalom et al., YBS Publishing, 2011, ISBN: 978-0964-8312-78.
  • Die Erweiterung des Filterzustands um die unbekannten Parameter führt in der Regel zu einer Unterbestimmung des Schätzproblems. Dies hat zur Folge, dass sich zum einen die Einschwingzeit des Filters verlängert und zum anderen der Filter träger wird, da immer ein Teil der Innovation in die Parameter abfließt. Insbesondere wenn das zu Grunde liegende Modell deutlich verletzt ist (z.B. bremst ein mit konstanter Geschwindigkeit vorausfahrendes Fahrzeug abrupt, wobei im Filter eine Beschleunigung von 0 angenommen ist), wird Innovation in die zusätzlichen Parameter abfließen. Dies verlangsamt zum einen das Anpassen des Modelles (z.B. der Beschleunigung auf den Wert des bremsenden Fahrzeuges) und zum anderen stört dies die angelernten zusätzlichen Parameter.
  • Ein Aspekt der Erfindung besteht darin, das Verfolgen von Objekten mit dem Schätzen von nichtlinear in die Messgleichungen eingehenden Parametern zu verbinden, ohne den Filterzustand zu erweitern.
  • Ein weiterer Aspekt betrifft eine Weiterentwicklung eines Kalman-Filters zur kamerabasierten Objektverfolgung. Insbesondere sollen hierbei mehrere Informationsquellen (Disparität, Breite/Höhe, Unterkante) zum robusten Verfolgen einzelner Objekte verwendet werden.
  • Ein Ansatzpunkt der Lösung besteht darin, dass Messungen verschiedener Informationsquellen über parameterabhängige Messgleichungen miteinander in Beziehung stehen. Damit können die unbekannten Parameter direkt aus den Messungen geschätzt werden und müssen nicht gegen den gefilterten Objektzustand geschätzt werden. In der kamerabasierten Objektverfolgung ist die oben genannte Beziehung oft unabhängig vom Objektzustand. Dies erlaubt das optimale Schätzen der unbekannten Parameter aus den gegebenen Messungen mit einem entsprechenden Schätzverfahren.
  • Wenn im Allgemeineren die Informationsquellen abhängig vom Objektzustand zusammenhängen, lässt sich das Parameterschätzproblem so erweitern, dass über die Verletzung der Konstantheitsannahme einiger zu schätzender Parameter eine Schätzung aller Parameter erreicht werden kann.
  • Die in einem Zeitschritt für ein Filter zur Objektverfolgung durchgeführten Prozessschritte sind:
    1. 1) Prädiktion des Filterzustandes
    2. 2) Aktualisierung des Filterzustandes mit den gegebenen Messungen
    3. 3) Aktualisierung der Parameterschätzung mit den gegebenen Messungen (ohne Verwendung des Filterzustandes)
  • Vorteile:
  • Durch das Schätzen der freien Parameter in den Messgleichungen gibt es gegenüber einem System ohne Parameterschätzung folgende Vorteile:
    • 1) Robustere Objektverfolgung
    • 2) Präzisere Objektverfolgung
    • 3) Artefaktfreie Objektverfolgung (bzgl. der durch Verwendung falscher Parameter entstehender Artefakte)
  • Ein erfindungsgemäßes Verfahren zur Fusion von Messungen aus verschiedenen Informationsquellen in Verbindung mit einer Filterung eines Filtervektors sieht vor, dass
    jeweils mindestens eine aus den Messungen abgeleitete Messgröße im Filtervektor enthalten ist,
    die Messungen mindestens einer einzelnen Informationsquelle nichtlinear auf die jeweilige Messgröße abgebildet werden, wobei mindestens eine dieser Abbildungen von mindestens einem unbestimmten Parameter abhängt,
    der zu bestimmende Wert des mindestens einen unbestimmten Parameters aus den Messungen der verschiedenen Informationsquellen geschätzt wird und
    der Filtervektor zur Schätzung des mindestens einen unbestimmten Parameters nicht benötigt wird.
  • Mit letzterem ist gemeint, dass die Filterung des Filtervektors und die Schätzung des bzw. der Parameter(s) „unabhängig voneinander“ durchgeführt werden. Mit anderen Worten wird der mindestens eine unbestimmte Parameter parallel zur Filterung des Filtervektors geschätzt.
  • Vorzugseise die Filterung des Filtervektors eine zeitliche Filterung ist, beispielsweise mittels eines Kalman-Filters.
  • Bevorzugt werden in einem Zeitschritt der Filterung folgende Schritte durchgeführt:
    • - Prädiktion des Filtervektors
    • - Aktualisierung des Filtervektors durch neue Messungen, und
    • - Aktualisierung der Schätzung des mindestens einen unbestimmten Parameters durch die neuen Messungen.
  • Beim drittgenannten Schritt wird vorzugsweise der Filtervektor nicht zur Aktualisierung der Schätzung des mindestens einen unbestimmten Parameters verwendet.
  • Bevorzugt werden die Messgrößen abgeleitet mittels verschiedener Mess- bzw. Auswertungsverfahren eines Sensors, wie z.B. eines Umfelderfassungssensors, insbesondere einer vorwärtsblickenden Fahrzeugkamera.
  • Alternativ oder kumulativ werden die Messgrößen aus Messungen unterschiedlicher Sensoren oder verschiedener Sensortypen als Informationsquellen abgeleitet.
  • Vorzugsweise liefert eine der Messungen, die mittels eines Referenzmessverfahrens (als Informationsquelle) bestimmt wird, eine Referenzmessgröße, die nicht von einem ersten unbekannten Parameter abhängt, von dem aber mindestens eine Messgröße einer anderen Messung abhängt.
  • Das Referenzmessverfahren kann bevorzugt von einem zweiten unabhängigen Parameter abhängen, wobei für den zweiten unabhängigen Parameter ein Parameterwert vorgegeben wird. Beispielsweise gilt, dass der zweite Parameter für ein Objekt zeitlich konstant ist (z.B. feste Fahrzeugbreite) . Vorteilhaft kann der zweite Parameter sinnvoll eingegrenzt werden (Breite eines beliebigen Fahrzeugs oder Höhe über der Fahrbahnebene eines beliebigen Fahrzeugs. Es kann ein mittlerer Parameterwert für den zweiten Parameter vorgegeben werden. Ausgehend von dem vorgegebenen zweiten Parameter kann der erste Parameter geschätzt werden. Ein Fehler des vorgegebenen zweiten Parameters gegenüber dem tatsächlichen Wert dieses Parameters kann unterschiedliche Auswirkungen haben. Die Auswirkungen hängen von der Messgleichung ab. Bei der kamerabasierten Objektverfolgung ist eine falsche Breitenannahme nicht gravierend, denn sie führt zwar zu falschen Entfernungsschätzungen, aber mit konsistent falschen Geschwindigkeiten, so dass der Quotient aus beiden, aus dem ein Bremszeitpunkt abgeleitet wird, nicht gestört ist.
  • Bevorzugt wird das Verfahren zur Objektverfolgung eingesetzt und die Informationsquellen umfassen einen oder mehrere Umfelderfassungssensor(en) eines Ego-Fahrzeugs.
  • Die aus den Messungen abgeleitete Größe ist vorzugsweise die Entfernung zwischen dem Ego-Fahrzeug und einem Objekt-Fahrzeug. Eine erste Informationsquelle kann darin bestehen, dass eine erste Auswertung von einem Bild einer Fahrzeugkamera des Ego-Fahrzeugs über eine Bestimmung der Breite des Objekt-Fahrzeugs im Bild der Fahrzeugkamera, unter der Annahme einer vorgegebenen mittleren Breite für Fahrzeuge als korrespondierende Breite des Objekt-Fahrzeugs, eine erste Messgröße der Entfernung zwischen Ego- und Objekt-Fahrzeug liefert. Ein erster unbestimmter Parameter kann die tatsächliche Breite des Objekt-Fahrzeugs sein. Der Filtervektor kann weitere Größen, wie z.B. die Relativgeschwindigkeit der beiden Fahrzeugs enthalten.
  • In einer bevorzugten Weiterbildung besteht eine zweite Informationsquelle darin, dass eine zweite Auswertung von dem Bild der Fahrzeugkamera des Ego-Fahrzeugs über eine Messung der vertikalen Position der Fahrzeugunterkante im Bild der Fahrzeugkamera eine zweite Messgröße der Entfernung zwischen Ego- und Objekt-Fahrzeug liefert. Ein zweiter unbestimmter Parameter ist die wahre Höhe der Kamera über der Fahrbahnebene (unter dem Objekt-Fahrzeug). Die Lage der Fahrbahnebene beim Objekt-Fahrzeug wird bevorzugt durch die Unterseite eines Objektbegrenzungsrahmens („Bounding Box“) definiert, bzw. durch die Position der Fahrzeugunterkante des Objekt-Fahrzeugs im Bild der Fahrzeugkamera beschrieben.
  • Vorteilhaft wird eine Referenzmessgröße der Entfernung aus einer Disparitätsmessung oder von einem Radar- oder Lidarsensor des Ego-Fahrzeugs als Informationsquelle bereitgestellt.
  • Die Erfindung betrifft des Weiteren eine Vorrichtung, die konfiguriert ist zur Fusion von Messungen aus verschiedenen Informationsquellen in Verbindung mit einer Filterung eines Filtervektors.
  • Die Messungen betreffen dieselbe zu bestimmende Information und im Filtervektor ist jeweils mindestens eine aus der jeweiligen Messung abgeleitete Messgröße bezüglich der zu bestimmenden Information enthalten.
  • Die Messungen mindestens einer einzelnen Informationsquelle werden nichtlinear auf die jeweilige Messgröße abgebildet und mindestens eine dieser Abbildungen hängt von mindestens einem unbestimmten Parameter ab. Beispielsweise existiert ein Modell für den Einfluss des Parameters auf die Messgröße und der Parameter geht nichtlinear in die Messgröße ein. Der Filtervektor kann insbesondere einen Zustand beschreiben. Das Ergebnis der Filterung liefert insbesondere das Fusionsergebnis für den Zustand. Die Filterung entspricht mit anderen Worten einem Schätzverfahren.
  • Der zu bestimmende Wert des mindestens einen unbestimmten Parameters wird aus den Messungen der verschiedenen Informationsquellen geschätzt.
  • Der Filtervektor wird zur Schätzung des mindestens einen unbestimmten Parameters nicht benötigt. Mit anderen Worten wird der mindestens eine unbestimmte Parameter dadurch geschätzt, dass die Messgrößen aus den unterschiedlichen Informationsquellen zu einander in Beziehung gesetzt werden.
  • Die Vorrichtung kann insbesondere einen Mikrocontroller oder -prozessor, einen Digital Signal Processor (DSP), einen ASIC (Application Specific Integrated Circuit), einen FPGA (Field Programmable Gate Array) und dergleichen mehr sowie Software zur Durchführung der entsprechenden Verfahrensschritte umfassen.
  • Die vorliegende Erfindung kann somit in digitalen elektronischen Schaltkreisen, Computer-Hardware, Firmware oder Software implementiert sein.
  • Im Folgenden wird zunächst eine mathematische Formulierung der Aufgabenstellung und des Lösungsansatzes präsentiert. Dann werden für ein konkretes Ausführungsbeispiel eine Lösung und deren Umsetzung beschrieben.
  • Mathematische Voraussetzungen
  • Sei x ∈ ℝd ein Filtervektor, der sequenziell überMverschiedene Arten von Messverfahren gemessen wird. Der Zusammenhang von Messung und Zustandsvektor sei gegeben über parameterabhängige bijektive Abbildungen von einem Unterraum Vm des Zustandsraumes in den jeweiligen Messraum hm(·,pm): ℝd ⊃Vm → ℝd m Im Folgenden wird der Einfachheit halber ausgegangen von identischen Definitionsbereichen der Messabbildungen Vm ≡ V, m = 1 ... M. Eine Verallgemeinerung auf Messabbildungen mit nicht identischen Definitionsbereichen ist direkt ableitbar, solange sich mindestens zwei Messräume über die Messabbildungen aufeinander abbilden lassen.
  • Der Zusammenhang zwischen den exakten Größen Filtervektor x und Parameter p und Messgröße z wird beschrieben durch die nichtlinearen Messabbildungen z m = : h m ( P V x m , p m )
    Figure DE102017223325A1_0001
    wobei Pv den orthogonalen Projektor auf den Unterraum V bezeichnet. Der Übersichtlichkeit halber wird im Folgenden davon ausgegangen, dass V = ℝd und damit Pv × = x. Mit z := (zl, ... , zm)T wird der Messvektor und mit p := (pl, ... , pm)T der entsprechende Parametervektor bezeichnet.
  • Mathematische Aufgabenstellung
  • Für Mverschiedene Messverfahren ist zum Zeitpunkt t≥ 1 eine Menge von Messungen { z m t } m = 1... M
    Figure DE102017223325A1_0002
    mit Messabbildungen 1 gegeben. Das zu lösende Problem lässt sich für den Fall, dass es eindeutig lösbar ist, formulieren als
    • • Finde Schätzungen x̂t, p̂t für x t , p t
      Figure DE102017223325A1_0003
      initial (t= 1) und aktualisiere diese Größen im Folgenden (t > 1), so dass x ^ t x t
      Figure DE102017223325A1_0004
      bzw. p ^ t p t .
      Figure DE102017223325A1_0005
  • Wenn der Filter die Messverteilungen korrekt beschreibt und auch das zu messende System korrekt modelliert, kann „≈“ verstanden werden als erwartungstreue Schätzung bzgl. der zu x̂t geschätzten Verteilung, d.h. E x ^ t ( x ^ t ) = x t .
    Figure DE102017223325A1_0006
  • Es kommt vor, z.B. in der kamerabasierten Objektverfolgung, dass das Problem Schätzungen x̂t, p̂t für x t , p t
    Figure DE102017223325A1_0007
    zu finden unterbestimmt ist, so dass eine Approximation an die zu Grunde liegenden Größen xt, pt nicht angestrebt werden kann. In diesem Fall kann das zu lösende Problem formuliert werden als
    • • Schätze den zugehörigen Filter- sowie Parametervektor x̂t, p̂t initial (t = 1) und aktualisiere diese Größen im folgenden (t > 1), so dass Größen von Interesse möglichst präzise aus dem geschätzten Filtervektor abgeleitet werden können.
  • Für kamerabasierte Objektverfolgung im Automotive Bereich eine Größe von Interesse ist z.B. die time to collision (TTC), die für Objekte auf Kollisionskurs gegeben ist als Quotient aus Entfernung und longitudinaler Relativgeschwindigkeit. Für die praktische Anwendung in der Fahrzeugsteuerung von Interesse sind insbesondere geringe Filtereinschwingzeit und Latenz, sowie Artefaktfreiheit der abgeleiteten Größen.
  • Mathematische Lösung
  • Die Idee des Verfahrens ist nun, die unbekannten Parameter pm unabhängig vom Filtervektor durch Inbeziehungsetzen der verschiedenen Messungen direkt zu schätzen. Dazu kann man z.B. die Messungen paarweise aufeinander abbilden: z m = h m ( h k 1 ( z k , p k ) , p m )  für k ,m = 1... M .
    Figure DE102017223325A1_0008
  • Bei diesem Vorgehen müssen nicht alle Paarungen ausgewertet werden, sondern es kann eine Referenzmessung definiert werden, deren Parameter als bekannt angenommen wird und bezüglich der alle übrigen Parameter geschätzt werden. Der Parameter der Referenzmessung wird initial aus der Menge gegebener Messungen unter Verwendung von Annahmen über den Parametervektor geschätzt.
  • Ein robusteres Vorgehen zur Parameterbestimmung wäre z.B. die Minimierung eines Funktionals wie J λ t ( p , x ˜ ) = m = 1... M h m 1 ( z m , p m ) x ˜ 2 + λ p p t 1 2
    Figure DE102017223325A1_0009
    nach p und x̃. Seien p und x̃ die Minimierer von J λ t ( p , x ˜ ) ,
    Figure DE102017223325A1_0010
    dann ist x̃ eine filtervektorunabhängige Schätzung des Filtervektors ausschließlich aus Daten eines einzigen Zeitpunktes. Die Verwendung des Filtervektors stattdessen und Minimierung nur nach dem Parametervektor würde die Parameterschätzung stören, wenn das im Filter abgebildete Modell verletzt ist und damit die Filterlatenz erhöhen.
  • Das parallele Schätzen eines Parametervektors und zeitliche Filtern eines Zustandsvektors kann als Verallgemeinerung bzw. Erweiterung des in Kapitel 16.3.3 „The Optimal Dynamic Bias Estimator“ des Handbuchs von Bar-Shalom beschriebenen Verfahrens verstanden werden. Das dort vorgestellte Verfahren beschränkt sich auf das parallele Schätzen von Parametern, die linear an einen Kalman-Filtervektor gekoppelt sind. Das hier beschriebene Verfahren verallgemeinert dies auf nichtlinear in Messgleichungen eingehende Parameter. Außerdem lässt sich das hier vorgestellte Verfahren auch verwenden, wenn das Problem einen Filter- sowie einen Parametervektor zu schätzen unterbestimmt ist, wie es in der monokamerabasierten Objektverfolgung der Fall ist.
  • Ausführungsbeispiel: Kamerabasierte Objektverfolgung
  • In der kamerabasierten Objektverfolgung sind Messungen typischerweise als Klassifikatordetektionen gegeben. Diese Detektionen sind z.B. Bildboxen (englisch: bounding boxes), also rechteckige Bildbereiche, die die Position und Größe eines detektierten Objektes beschreiben. Der das Objekt beschreibende Zustand x = (x, y, vx, vy, ax, ay)T, der über die Zeit gefiltert wird, enthält die horizontalen Komponenten von Position (x, y), Geschwindigkeit (vx, vy) und Beschleunigung (ax, ay). Unter den Annahmen, dass die Straße flach verläuft, die Kamera parallel zur Straße ausgerichtet ist und dass die Unterkante der Bildbox den Teil des Objektes beschreibt, der sich auf der Straße befindet, kann die Entfernung aus der Unterkantenmessung über eine Strahlensatzgleichung bestimmt werden x = t z f | p y , m c y |
    Figure DE102017223325A1_0011
  • Dabei sind tz die Höhe der Kamera über der Straße, f die Brennweite der Kamera, py,m die gemessene vertikale Position der Unterkante und cy das vertikale Bildzentrum, das ist die Bildzeile, die in einer flachen Welt dem Horizont entspricht.
  • Ein zweiter Weg, wie aus einem Rechteck im Bild eine Entfernung abgeleitet werden kann, ist gegeben über eine Größenannahme des beobachteten Objektes. Wenn das beobachtete Objekt z.B. ein Auto beschreibt so kann aus der Annahme dass die Rückseite eines in gleicher Richtung vorausfahrenden Autos gesehen wird und diese in Deutschland üblicherweise eine Breite von ca. bw:= 1.75m haben, aus der Breite des Rechtecks im Bild, welches das Auto beschreibt, eine Entfernung abgeleitet werden: x = b w f Δ p x , m ,
    Figure DE102017223325A1_0012
    wobei Apx,m die gemessene Bildbreite bezeichnet.
  • Nun sind nicht alle Autos gleich breit, die Straße ist nicht exakt flach, Objekte befinden sich nicht immer auf der Straße und die Klassifikatordetektion beschreibt nicht immer den Teil des Objektes, der sich auf der Straße befindet. Deshalb wird im Allgemeinen die Entfernung, die über die oben genannten Messabbildungen gemäß Gleichungen 4 und 5 bestimmt wird, nicht übereinstimmen. D.h. im Allgemeinen gilt t z f | p y , m c y | b w f Δ p x , m
    Figure DE102017223325A1_0013
    t z f | E p ˜ y , m ( p ˜ y , m ) c y | b w f E Δ ˜ p x , m ( Δ ˜ p x , m ) .
    Figure DE102017223325A1_0014
  • Die Modellfehler können beschrieben werden durch unbekannte Parameter - so ist die wahre Breite des detektierten Objektes gegeben als z. B. b w = : p w b w
    Figure DE102017223325A1_0015
    und die wahre Höhe der Kamera über dem Punkt, der durch die Boxunterkante beschrieben wird, ist gegeben als z.B. t z = : t z + p t .
    Figure DE102017223325A1_0016
    Die Werte von p w  und  p t
    Figure DE102017223325A1_0017
    sind im Allgemeinen nicht bekannt und müssen geschätzt werden, d.h. aus keiner der beiden Messungen (und auch nicht aus deren Kombination) lässt sich die exakte Entfernung des beobachteten Objektes ableiten - die Position des Objektes ist nur bis auf einen Parameterfehler bekannt. Dass beide Messungen dasselbe Objekt beschreiben, liefert allerdings eine Nebenbedingung an die erlaubten Parameter. Wird z.B. ein Parameter als gegeben angenommen, erhält man durch Gleichsetzen wie in Gleichung 2 einen Wert für den zweiten Parameter - unabhängig vom eigentlichen Filterzustand. Ausgehend von den Gleichungen 4 und 5 werden die Messabbildungen mit Parametern definiert als p y , m = ( t z + p t ) f x + c y = : h t ( x , p t )
    Figure DE102017223325A1_0018
    Δ p x , m = p b b w f x = : h b ( x , p b )
    Figure DE102017223325A1_0019
  • Da die Breite von Autos konstant ist, ist der Parameter pb eine Objektkonstante. Wenn man die Kameraorientierung bezüglich der Straße und den Straßenverlauf als bekannt annimmt, ist auch pt eine Objekt-/Klassifikatorkonstante, die den Versatz der vom Klassifikator gefundenen Struktur die durch die Boxunterkante beschrieben wird zur Straßenebene beschreibt. Werden Gleichungen 8 und 9 wie in Gleichung 2 angegeben verknüpft, erhält man den Zusammenhang zwischen den Messungen py,m, Δpx,m und den Parametern pt, pb, aus dem sich wie zuvor beschrieben die Parameter schätzen lassen.
  • Um die mathematische Formulierung für dieses Ausführungsbeispiel und weitere Aspekte von Verfahren und Vorrichtung zu veranschaulichen, werden im Folgenden unter Bezugnahme auf Figuren einzelne Zusammenhänge näher erläutert.
  • Hierbei zeigen:
    • 1 a eine Objekterkennung in einem Fahrzeugkamerabild und
    • 1 b die Bestimmung relevanter Bildgrößen zur Schätzung der Entfernung zwischen der Fahrzeugkamera und einem erkanntem Objekt;
    • 2 eine schematische Repräsentation eines Filterupdates für eine Objektverfolgung ohne Schätzung von Parametern;
    • 3 eine schematische Repräsentation eines Filterupdates für die Objektverfolgung mit Parameterschätzung;
    • 4 ein beobachtetes Objekt zusammen mit Arbeitspunkten zweier Informationsquellen und der Positionsunsicherheit der Arbeitspunkte;
    • 5 ein beobachtetes Objekt zusammen mit einer geschätzten Objektposition, der filterbedingten Positionsunsicherheit und der Positionsunsicherheit auf Grund der Parameter;
    • 6 schematisch den Ablauf eines Iterationsschrittes der Filterung;
    • 7 schematisch eine Fusionsvorrichtung, die Ergebnisse von Messungen aus verschiedenen Informationsquellen empfängt und ein Fusionsergebnis ausgibt.
  • In 1 a ist schematisch ein schwarzweißes Bild 12 zu sehen, welches von einer monokularen Frontkamera eines nicht dargestellten Ego-Fahrzeugs aufgenommen wurde. Das digitale Bild 12 wird einer Bildverarbeitung zugeführt, welche insbesondere eine Erkennung von Fahrzeugen als Objekten im Bild 12 durchführt. Diese Erkennung umfasst einen Klassifikator, der aufgrund zuvor gelernter Beispiele, Objekte im Bild Klassen zuordnet. Auf diese Weise wird das zentrale Objekt 16 im Bild 12 wird als vorausfahrendes Fahrzeug erkannt. Die Begrenzung des Objekts bzw. Fahrzeugs 16 im Bild 12 wird durch eine „Bounding Box“ 18 symbolisiert. Die Bildverarbeitung bestimmt zudem die vertikale Bildposition der Horizontlinie 14 im Bild 12.
  • In der schematischen Darstellung der 1 b sind Ergebnisse der Bildverarbeitung dargestellt: das Bild 12 ist durch den rechteckigen Rahmen repräsentiert, die Horizontlinie 14 als gestrichelte Linie, die Bounding Box 18 als annähernd quadratisches Rechteck. Die Breite Δpx,m der Bounding Box 18 (horizontaler Doppelpfeil) entspricht der Breite des Fahrzeugs 16 im Bild 12. Die vertikale Position der Unterkante (Bodenlinie 20) der Bounding Box 18 ist als gepunktete Linie dargestellt. Der vertikale Bildabstand Δpy,m := |py,m - cy| (siehe Gleichung 4) zwischen Horizont- 14 und Bodenlinie 20 ist durch den vertikalen Doppelpfeil illustriert.
  • In 2 ist eine Situation schematisch dargestellt, in der sich ein Objekt 26, dargestellt als Rechteck, an einer bestimmten x-Position 28 befindet. Das Objekt 26 ist beispielsweise ein Fahrzeug. Das Ego-Fahrzeug, in dem eine vorwärtsblickende Monokamera installiert ist, ist in 2 nicht dargestellt. Aus Bildaufnahmen der Monokamera des Ego-Fahrzeugs ist jedoch das Objekt-Fahrzeug 26 mittels Bildverarbeitungsmethoden detektierbar. Die Position des Objekt-Fahrzeugs 26 oder der Abstand in x-Richtung des Objekt-Fahrzeugs 26 zum Ego-Fahrzeug kann wie zuvor beschrieben mittels zweier Bildverarbeitungsmethoden bestimmt bzw. gemessen werden.
  • Zur Erhöhung der Genauigkeit werden die Messwerte, die sich aus den zwei Bildverarbeitungsmethoden ergeben zeitlich gefiltert, mittels eines Kalman-Filters.
  • Aus den Messungen des Abstands x über eine Bestimmung der Breite Δpx,m des Fahrzeug-Objekts 26 im Bild 12 unter der Annahme einer mittleren Fahrzeugbreite von 1,75m ergibt sich als aktueller Schätzwert der Positionsbestimmung bzw. Abstandsmessung der untere Arbeitspunkt 22. Der auf diese Weise gemessene Abstand hängt von der tatsächlichen Breite des Fahrzeugs als unbekanntem Parameter ab. Das Objekt-Fahrzeug 26 könnte ein schmales Fahrzeug mit einer tatsächlichen Breite von z.B. 1,50m sein oder ein Transporter mit einer tatsächlichen Breite von mindestens 2m. Die Messungen des Abstands aus der Bestimmung der Höhe der Objekte-Fahrzeugunterkante im Bild 12 ergeben als aktuellen Schätzwert der Abstandsmessung den oberen Arbeitspunkt 21. Diese Messung ist nicht von der tatsächlichen Breite des Objekt-Fahrzeugs 26 abhängig, jedoch von anderen Bedingungen, so dass auch hier eine Messunsicherheit bezüglich des tatsächlichen Abstands x vorliegt.
  • Die beiden verschiedenen Auswertungsverfahren der Kamerabilder stellen also zwei unterschiedliche Informationsquellen (I 1, I 2) bezüglich derselben Größe von Interesse (Position bzw. Abstand in x-Richtung) dar.
  • Bei einem Filterverfahren, z.B. unter Verwendung eines Kalman-Filters, wird die Änderung der geschätzten Position für eine nachfolgende Messung prädiziert und dann die prädizierte Position anhand des nachfolgend gemessenen Werts aktualisiert, was als Filterinnovation bezeichnet wird.
  • Der Positionswert des Filtervektors, also der aktuelle Schätzwert für den tatsächlichen Abstand in x-Richtung ist durch das Quadrat 28 in 2 dargestellt. Der Filtervektor ist das Ergebnis der zeitlichen Filterung der beiden Messwerte, die zu den Arbeitspunkten 21 und 22 führen.
  • Da die Messwerte der beiden Messverfahren unterhalb bzw. oberhalb des aktuellen Schätzwerts (Filtervektors) 28 liegen, weist die Innovation 32 des ersten Messverfahrens ebenfalls nach unten und die Innovation 31 des zweiten Messverfahrens nach oben. Der Erwartungswert der jeweiligen Filterinnovation 31 bzw. 32 ist ungleich Null. Für den neuen Schätzwert, heben sich jedoch beide Innovationen 31 und 32 weitgehend auf.
  • Bei dem in 2 dargestellten Filterupdate werden unbekannte Parameter, z.B. die Breite des Fahrzeug-Objekts 26 nicht geschätzt oder anderweitig berücksichtigt.
  • Das Objekt 26, dessen tatsächliche Position 28 sich zwischen beiden Arbeitspunkten 21 und 22 befindet, wird stabil verfolgt, solange sich die jeweiligen Innovationen 31 und 32 gegenseitig aufheben. Fällt jedoch eine Informationsquelle (I 1 oder I 2) aus, findet keine gegenseitige Aufhebung mehr statt. Die geschätzte Kinematik und Position 28 des Objekts 26 werden durch den Ausfall der Informationsquelle (I 1 oder I 2) gestört. Wenn zu einem Zeitpunkt ein Messwert ausfällt, z.B. weil die Unterkante des Objekt-Fahrzeugs 26 im Bild 12 nicht lokalisiert werden kann, wird der Filtervektor beim nachfolgenden Filterupdate einen Sprung machen. Der geschätzte Abstand in x-Richtung ändert sich sprunghaft, was zu einer falschen Geschwindigkeitsschätzung des Objekt-Fahrzeugs 26 in x-Richtung führt. Dies kann mitunter zu einer fehlerhaften Kollisionswarnung oder sogar einem fälschlicherweise automatisiert durchgeführten Bremseingriff des Ego-Fahrzeugs führen.
  • In 3 ist ein Filterupdate für eine Objektverfolgung mit einer Schätzung eines unbekannten Parameters schematisch dargestellt. Hierbei dient der untere Arbeitspunkt 22 als Referenzwert für die Messung des oberen Arbeitspunkts 21. Die Messung, die zum unteren Arbeitspunkt 22 führt, hängt nicht von dem unbekannten Parameter ab. Ein Beispiel für eine solche Referenzmessung ist z.B. die Abstandsmessung eines Radarsensors des Ego-Fahrzeugs. Für dieses Messverfahren spielt die Breite des Objekt-Fahrzeugs 26 keine Rolle. Die Breite kann durch die Referenzmessung mit dem Radarsensor nicht bestimmt werden.
  • Da die Messung des Radarsensors nicht den Abstand zwischen der Kamera des Ego-Fahrzeugs und dem Objekt-Fahrzeug 26 ergibt, da es einen räumlichen Versatz zwischen Radar- und Kamerasensor im Ego-Fahrzeug gibt, wird der untere Arbeitspunkt 22 auf den Filtervektor 28 durch eine Abbildung d2 abgebildet. Da der räumliche Versatz zeitlich konstant und ermittelbar ist, ist diese Abbildung d2 unabhängig von der Schätzung der Breite des Objekt-Fahrzeugs 26.
  • Wie der obere Arbeitspunkt 21 auf den unteren Arbeitspunkt 22 durch eine weitere Abbildung d1 abgebildet werden kann, ist dagegen nicht bekannt, denn hier spielt die tatsächliche Breite des Objekt-Fahrzeugs 26 eine Rolle. Diese ist jedoch unbekannt. Zur Schätzung der tatsächlichen Fahrzeugbreite, wird nun initial die mittlere Breite von 1,75m angenommen. Gleichung 5 beschreibt den Zusammenhang zwischen gemessener Bildbreite und Entfernung x. Gleichung 9 gibt die Messabbildung mit dem Parameter pb an. Da als tatsächliche Entfernung x der Wert aus der Referenzmessung zuzüglich dem relevanten Sensorversatz angenommen wird, kann nun der Parameter im Rahmen des Filterverfahrens direkt aus den Messergebnissen geschätzt werden.
  • Die Arbeitspunkte der Informationsquellen I 1 und I 2 werden über die geschätzten Parameter aufeinander bzw. auf die Objektposition 28 abgebildet.
  • Der Erwartungswert der Innovationen 41 und 42 ist nun Null. Insbesondere werden bei Ausfall einer Informationsquelle (I 1 oder I 2) die Position und Kinematik des Objektes nicht gestört, wie dies bei 2 der Fall ist.
  • Sofern kein Radarsensor vorgesehen ist, sondern als Informationsquellen I 1 und I 2 die beiden Auswertungen der Kameradaten vorgenommen werden, hängen beide Messergebnisse bzw. Arbeitspunkte von unterschiedlichen Parametern ab (s. Gleichungen 4 und 5 bzw. 8 und 9).
  • Auch in diesem Fall können die Parameter geschätzt werden.
  • In 4 ist ein beobachtetes Objekt 26 zusammen mit den Arbeitspunkten 21 und 22 zweier Informationsquellen I 1 und I 2 zu sehen. Die Ellipsen 41 und 42 um die Arbeitspunkte 21 und 22 skizzieren die Positionsunsicherheit der Arbeitspunkte auf Grund der Unsicherheit der Parameter in den Messgleichungen. Die Positionsunsicherheit 42 (gepunktet dargestellte Ellipse) beim unteren Arbeitspunkt 22 ist sehr groß, in dieser Positionsunsicherheit 42 ist die Unsicherheit aufgrund des unbekannten Parameters enthalten. Die Positionsunsicherheit 41 (Ellipse mit durchgezogener Linie) beim oberen Arbeitspunkt 21 ist nicht so groß.
  • In 5 ist eine geschätzte Objektposition 28 eines Objekts 26 skizziert zusammen mit der filterbedingten Positionsunsicherheit 55 (Ellipse mit durchgezogener Linie) und der Positionsunsicherheit auf Grund der Parameter 50 (gestrichelte Ellipse). Die Separation der Filterunsicherheit von der Parameterunsicherheit erlaubt das vergleichsweise scharfe Ableiten von parameterunabhängigen Größen aus dem Filterzustand.
  • In der kamerabasierten Objektverfolgung lässt sich z.B. die time-to-collision (TTC) scharf aus einem Objektzustand mit falscher Position und dazu passender falscher Geschwindigkeit ableiten. Zur Berechnung der Positionsunsicherheit können dann die aus der Parameterschätzung bekannten Unsicherheiten herangezogen werden.
  • Ein weiteres Anwendungsbeispiel ist eine gemeinsame Objektverfolgung mit verschiedenen Sensoren wie z.B. Radar, Kamera oder Lidar. Dabei sind unter den zu schätzenden Parametern der präzise zeitliche und gegebenenfalls räumliche Versatz der Sensoren zueinander und die bereits oben genannten freien Parameter bei der kamerabasierten Entfernungsbestimmung.
  • In 6 ist schematisch der Ablauf eines Iterationsschrittes der Filterung dargestellt.
  • In Schritt S10 wird basierend auf dem bisherigen Filtervektor und dem oder den bisherigen Parameterwerten der Filtervektor für den aktuellen Iterationsschritt, in dem mindestens eine neue Messung erfolgt, prädiziert. Mindestens eine Informationsquelle liefert eine Neue Messung 1, in der Regel liefern mehrere oder sämtliche verfügbaren Informationsquellen Neue Messungen 2 bis m. Anhand der aktuellen Ergebnisse dieser Messungen wird zum einen ein Update des Filtervektors in Schritt S20 und zum anderen ein Update des oder der Parameter (s) in Schritt S30 vorgenommen. Letzteres wird unabhängig vom Filtervektor durchgeführt, da das Update des mindestens einen Parameters nur auf Grundlage der Neuen Messungen 1 bis ggfs. m erfolgt. Das Update des oder der Parameter(s) in Schritt S30 kann also parallel oder seriell zu Schritt S20 erfolgen. Der bzw. die durch das Update aktualisierten Parameter und der aktualisierte Filtervektor bilden den Ausganspunkt für den nachfolgenden Iterationsschritt (symbolisiert durch die gestrichelten Pfeile in 6), in dem erneut mindestens eine neue Messung erfolgt.
  • In 7 ist ganz vereinfacht eine Fusionsvorrichtung 70 dargestellt, die Daten bezüglich Messungen von mehreren Informationsquellen I 1 bis I m empfängt. Die empfangenen Daten werden von einer prozessierenden Einheit der Fusionsvorrichtung derart verarbeitet, dass ein Filtervektor und mindestens ein unbekannter Parameter, der eine Messung mindestens einer Informationsquelle beeinflusst, iterativ geschätzt werden. Bestandteile des Filtervektors oder der gesamte Filtervektor wird von eine Ausgabekomponente der Fusionsvorrichtung ausgegeben an eine weitere Komponente 100 eines Fahrerassistenzsystems oder eines Fahrzeugsteuerungssystems, insbesondere eines automatisiert fahrenden Fahrzeugs.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Shuo Zhang et al., JOURNAL OF ADVANCES IN INFORMATION FUSION Vol. 6, No. 1, Juni 2011, S. 3-23 [0010]
    • Ehsan Taghavi et al. IEEE Transactions on Aerospace and Electronics Systems 2016, abgerufen am 13.12.2017 unter https://arxiv.org/pdf/1603.03449 [0011]
    • Wan, Nelson Advances in neural information processing systems, 1997, S. 793-799 [0012]

Claims (12)

  1. Verfahren zur Fusion von Messungen aus verschiedenen Informationsquellen (I 1, I 2, ... I m) in Verbindung mit einer Filterung eines Filtervektors, wobei jeweils mindestens eine aus den Messungen abgeleitete Messgröße im Filtervektor enthalten ist, wobei die Messungen mindestens einer einzelnen Informationsquelle (I 1; I 2; ... I m) nichtlinear auf die jeweilige Messgröße abgebildet werden, wobei mindestens eine dieser Abbildungen von mindestens einem unbestimmten Parameter abhängt, wobei der zu bestimmende Wert des mindestens einen unbestimmten Parameters aus den Messungen der verschiedenen Informationsquellen (I 1, I 2, ... I m) geschätzt wird und wobei der Filtervektor zur Schätzung des mindestens einen unbestimmten Parameters nicht benötigt wird.
  2. Verfahren nach Anspruch 1, wobei die Filterung des Filtervektors eine zeitliche Filterung ist.
  3. Verfahren nach Anspruch 2, wobei in einem Zeitschritt der Filterung folgende Schritte durchgeführt werden: - Prädiktion des Filtervektors (S10) - Aktualisierung des Filtervektors durch mindestens eine neue Messung (S20), und - Aktualisierung der Schätzung des mindestens einen unbestimmten Parameters durch die mindestens eine neue Messung (S30).
  4. Verfahren nach Anspruch 3, wobei beim dritten Schritt (S30) der Filtervektor nicht zur Aktualisierung der Schätzung des mindestens einen unbestimmten Parameters verwendet wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Messgrößen abgeleitet werden mittels verschiedener Mess- bzw. Auswertungsverfahren eines Sensors.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Messgrößen aus Messungen unterschiedlicher Sensoren oder verschiedener Sensortypen als Informationsquellen (I 1, I 2, ... I m) abgeleitet werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine der Messungen, die mittels eines Referenzmessverfahrens bestimmt wird, eine Referenzmessgröße liefert, die nicht von einem ersten unbekannten Parameter abhängt, von dem mindestens eine Messgröße einer anderen Messung abhängt.
  8. Verfahren nach Anspruch 7, wobei das Referenzmessverfahren von einem zweiten unabhängigen Parameter abhängt, wobei für den zweiten unabhängigen Parameter ein Parameterwert vorgegeben wird.
  9. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren zur Verfolgung eines Objekts (16; 26) eingesetzt wird, und die Informationsquellen (I 1, I 2, ... I m) einen oder mehrere Umfelderfassungssensor(en) eines Ego-Fahrzeugs umfassen.
  10. Verfahren nach Anspruch 9, wobei die aus den Messungen abgeleitete Größe die Entfernung zwischen dem Ego-Fahrzeug und einem Objekt-Fahrzeug (26) ist, wobei eine erste Informationsquelle (I 1) darin besteht, dass eine erste Auswertung von einem Bild (12) einer Fahrzeugkamera des Ego-Fahrzeugs über eine Bestimmung der Breite des Objekt-Fahrzeugs (26) im Bild (12) der Fahrzeugkamera, unter der Annahme einer vorgegebenen mittleren Breite für Fahrzeuge als korrespondierender Breite des Objekt-Fahrzeugs (26), eine erste Messgröße der Entfernung zwischen Ego- und Objekt-Fahrzeug liefert, wobei ein erster unbestimmter Parameter die tatsächliche Breite des Objekt-Fahrzeugs (26) ist.
  11. Verfahren nach Anspruch 10, wobei eine zweite Informationsquelle darin besteht, dass eine zweite Auswertung von dem Bild (12) der Fahrzeugkamera des Ego-Fahrzeugs über eine Messung der vertikalen Position der Fahrzeugunterkante des Objekt-Fahrzeugs (26) im Bild (12) der Fahrzeugkamera eine zweite Messgröße der Entfernung zwischen Ego- und Objekt-Fahrzeug (26) liefert, wobei ein zweiter unbestimmter Parameter die wahre Höhe der Kamera über der Fahrbahnebene ist.
  12. Vorrichtung, die konfiguriert ist zur Fusion von Messungen aus verschiedenen Informationsquellen (I 1, I 2, ... I m) in Verbindung mit einer Filterung eines Filtervektors, wobei die Messungen dieselbe zu bestimmende Information betreffen und im Filtervektor jeweils mindestens eine aus der jeweiligen Messung abgeleitete Messgröße bezüglich der zu bestimmenden Information enthalten ist, wobei die Messungen mindestens einer einzelnen Informationsquelle (I 1; I 2; ... I m) nichtlinear auf die jeweilige Messgröße abgebildet werden, wobei mindestens eine dieser Abbildungen von mindestens einem unbestimmten Parameter abhängt, wobei der zu bestimmende Wert des mindestens einen unbestimmten Parameters aus den Messungen der verschiedenen Informationsquellen (I 1, I 2, ... I m) geschätzt wird und wobei der Filtervektor zur Schätzung des mindestens einen unbestimmten Parameters nicht benötigt wird.
DE102017223325.7A 2017-12-20 2017-12-20 Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen Withdrawn DE102017223325A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102017223325.7A DE102017223325A1 (de) 2017-12-20 2017-12-20 Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen
PCT/DE2018/200111 WO2019120392A1 (de) 2017-12-20 2018-12-07 Verfahren und vorrichtung zur fusion von messungen aus unterschiedlichen informationsquellen
US16/770,713 US11521027B2 (en) 2017-12-20 2018-12-07 Method and device for fusion of measurements from different information sources
DE112018005565.5T DE112018005565A5 (de) 2017-12-20 2018-12-07 Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017223325.7A DE102017223325A1 (de) 2017-12-20 2017-12-20 Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen

Publications (1)

Publication Number Publication Date
DE102017223325A1 true DE102017223325A1 (de) 2019-06-27

Family

ID=64901264

Family Applications (2)

Application Number Title Priority Date Filing Date
DE102017223325.7A Withdrawn DE102017223325A1 (de) 2017-12-20 2017-12-20 Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen
DE112018005565.5T Pending DE112018005565A5 (de) 2017-12-20 2018-12-07 Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112018005565.5T Pending DE112018005565A5 (de) 2017-12-20 2018-12-07 Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen

Country Status (3)

Country Link
US (1) US11521027B2 (de)
DE (2) DE102017223325A1 (de)
WO (1) WO2019120392A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11778934B2 (en) * 2019-07-02 2023-10-10 Bear Flag Robotics, Inc. Agricultural lane following
US11954179B2 (en) * 2020-09-11 2024-04-09 Inceptio Hongkong Limited Resolving out of sequence data in sensor tracking

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080219508A1 (en) * 2007-03-08 2008-09-11 Honeywell International Inc. Vision based navigation and guidance system
US20090125274A1 (en) * 2007-11-12 2009-05-14 Bae Systems Plc Sensor control
DE102009006113A1 (de) * 2008-03-03 2009-09-10 Volkswagen Ag Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102012023746A1 (de) * 2012-12-04 2014-06-05 Connaught Electronics Ltd. Verfahren zum Verfolgen eines Zielobjekts in einem Umgebungsbereich eines Kraftfahrzeugs durch Fusion von Bilddaten mit anderen Sensordaten, Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102013205245A1 (de) * 2013-03-25 2014-09-25 Continental Teves Ag & Co. Ohg Fahrzeugreferenzgeschwindigkeitsbestimmungsverfahren und Fahrzeugsteuergerät mit einem solchen Verfahren
DE102013213067A1 (de) * 2013-07-04 2015-01-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Bestimmung mindestens einer Zustandsgröße einer Eigenposition eines Fahrzeugs

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7719461B1 (en) * 2008-08-05 2010-05-18 Lockheed Martin Corporation Track fusion by optimal reduced state estimation in multi-sensor environment with limited-bandwidth communication path
EP3057061B1 (de) * 2015-02-16 2017-08-30 Application Solutions (Electronics and Vision) Limited Verfahren und Vorrichtung zur Schätzung von Kraftfahrzeugeigenbewegung aus Surround-Blickbildern

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080219508A1 (en) * 2007-03-08 2008-09-11 Honeywell International Inc. Vision based navigation and guidance system
US20090125274A1 (en) * 2007-11-12 2009-05-14 Bae Systems Plc Sensor control
DE102009006113A1 (de) * 2008-03-03 2009-09-10 Volkswagen Ag Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102012023746A1 (de) * 2012-12-04 2014-06-05 Connaught Electronics Ltd. Verfahren zum Verfolgen eines Zielobjekts in einem Umgebungsbereich eines Kraftfahrzeugs durch Fusion von Bilddaten mit anderen Sensordaten, Fahrerassistenzeinrichtung und Kraftfahrzeug
DE102013205245A1 (de) * 2013-03-25 2014-09-25 Continental Teves Ag & Co. Ohg Fahrzeugreferenzgeschwindigkeitsbestimmungsverfahren und Fahrzeugsteuergerät mit einem solchen Verfahren
DE102013213067A1 (de) * 2013-07-04 2015-01-08 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zur Bestimmung mindestens einer Zustandsgröße einer Eigenposition eines Fahrzeugs

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Ehsan Taghavi et al. IEEE Transactions on Aerospace and Electronics Systems 2016, abgerufen am 13.12.2017 unter https://arxiv.org/pdf/1603.03449
Shuo Zhang et al., JOURNAL OF ADVANCES IN INFORMATION FUSION Vol. 6, No. 1, Juni 2011, S. 3-23
Wan, Nelson Advances in neural information processing systems, 1997, S. 793-799

Also Published As

Publication number Publication date
DE112018005565A5 (de) 2020-07-16
WO2019120392A1 (de) 2019-06-27
US11521027B2 (en) 2022-12-06
US20210166087A1 (en) 2021-06-03

Similar Documents

Publication Publication Date Title
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE112014002019B4 (de) Kurvenformmodelliereinrichtung, Fahrzeuginformationsverarbeitungssystem, Kurvenformmodellierverfahren und Kurvenformmodellierprogramm
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
EP3038011B1 (de) Verfahren zum Bestimmen des Abstands eines Objekts von einem Kraftfahrzeug mittels einer monokularen Bilderfassungseinrichtung
DE102016102283A1 (de) Kartendatenbearbeitungsvorrichtung für ein Fahrzeug
EP3329216A1 (de) Bestimmung einer anordnungsinformation für ein fahrzeug
WO2016188523A1 (de) Verfahren zur schätzung von fahrstreifen
DE112014003818T5 (de) Objektschätzvorrichtung und Objektschätzverfahren
DE102008058279A1 (de) Verfahren und Vorrichtung zur Kompensation eines Rollwinkels
WO2019201565A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur verarbeitung von sensordaten
DE102012203909A1 (de) Filterverfahren und Filtervorrichtung für Sensordaten
WO2020207528A1 (de) Verfahren und verarbeitungseinheit zur ermittlung der grösse eines objektes
EP2562681B1 (de) Objektverfolgungsverfahren für ein Kamerabasiertes Fahrerassistenzsystem
EP2856390A1 (de) Verfahren und vorrichtung zur verarbeitung stereoskopischer daten
WO2015039755A1 (de) Verfahren zur ermittlung einer aktuellen position eines kraftfahrzeugs in einem geodätischen koordinatensystem und kraftfahrzeug
DE102018124979A1 (de) Fahrerassistenzsystem zur Bestimmung einer Entfernung zwischen zwei Fahrzeugen mit einer Kamera
DE102017223325A1 (de) Verfahren und Vorrichtung zur Fusion von Messungen aus unterschiedlichen Informationsquellen
DE102017108107A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
DE102008042631B4 (de) Verfahren und Vorrichtung zur Abstandsermittlung bei einem monokularen Videoassistenzsystem
EP3293971B1 (de) Verfahren zur nachführung eines bildausschnitts
EP2467826A1 (de) Verfahren und steuergerät zur bestimmung einer bewegungsinformation eines objekts
DE102014219428B4 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102019126631A1 (de) Verbesserte Trajektorienschätzung basierend auf Ground Truth
DE112021005035T5 (de) Objektidentifikationsvorrichtung und objekt-identifikationsverfahren
DE102021111114A1 (de) Fahrspurunbestimmtheitsmodellierung und -verfolgung in einem Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R118 Application deemed withdrawn due to claim for domestic priority