DE102016105023A1 - Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug - Google Patents

Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug Download PDF

Info

Publication number
DE102016105023A1
DE102016105023A1 DE102016105023.7A DE102016105023A DE102016105023A1 DE 102016105023 A1 DE102016105023 A1 DE 102016105023A1 DE 102016105023 A DE102016105023 A DE 102016105023A DE 102016105023 A1 DE102016105023 A1 DE 102016105023A1
Authority
DE
Germany
Prior art keywords
feature
determined
object feature
line
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102016105023.7A
Other languages
English (en)
Inventor
Tino Milschewski
Jean-Francois Bariant
Bertram Rohrmoser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102016105023.7A priority Critical patent/DE102016105023A1/de
Priority to JP2018548755A priority patent/JP6862465B2/ja
Priority to US16/084,518 priority patent/US10564282B2/en
Priority to EP16747790.0A priority patent/EP3430423B1/de
Priority to CN201680083748.XA priority patent/CN108780149B/zh
Priority to PCT/EP2016/068797 priority patent/WO2017157483A1/de
Priority to KR1020187026830A priority patent/KR102146175B1/ko
Publication of DE102016105023A1 publication Critical patent/DE102016105023A1/de
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erfassen zumindest eines Objekts (3) in einer Umgebung (4) eines Kraftfahrzeugs (1), bei welchem von zumindest einem Sensor (6, 7) des Kraftfahrzeugs (1) Sensordaten einer ersten Messung und Sensordaten einer zweiten Messung empfangen werden, aus den Sensordaten der ersten Messung ein erstes Objektmerkmal (O1) und aus den Sensordaten der zweiten Messung ein zweites Objektmerkmal (O2) bestimmt werden, und aus dem ersten Objektmerkmal (O1) anhand des zweiten Objektmerkmals (O2) ein zusammengelegtes Objektmerkmal zur Beschreibung des zumindest einen Objekts (3) bestimmt wird, wobei das erste Objektmerkmal (O1) und das zweite Objektmerkmal (O2) in einen gemeinsamen Zustandsraum überführt werden, in dem Zustandsraum eine Innovationsfunktion (h) bestimmt wird, welche eine Ähnlichkeit zwischen dem ersten Objektmerkmal (O1) und dem zweiten Objektmerkmal (O2) beschreibt, und das zusammengelegte Objektmerkmal aus dem ersten Objektmerkmal (O1) anhand der Innovationsfunktion (h) bestimmt wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs, bei welchem von zumindest einem Sensor des Kraftfahrzeugs Sensordaten einer ersten Messung und Sensordaten einer zweiten Messung empfangen werden, aus den Sensordaten der ersten Messung ein erstes Objektmerkmal und aus den Sensordaten der zweiten Messung ein zweites Objektmerkmal bestimmt werden, und aus dem ersten Objektmerkmal anhand des zweiten Objektmerkmals ein zusammengelegtes Objektmerkmal zur Beschreibung des zumindest einen Objekts bestimmt wird. Zudem betrifft die Erfindung eine Steuereinrichtung sowie ein Fahrerassistenzsystem für ein Kraftfahrzeug. Schließlich betrifft die Erfindung ein Kraftfahrzeug.
  • Aus dem Stand der Technik sind unterschiedliche Verfahren bekannt, mit denen Objekte in der Umgebung eines Kraftfahrzeugs erfasst werden können. Beispielsweise können die Objekte mit Hilfe von entsprechenden Sensoren, beispielsweise Ultraschallsensoren, Radarsensoren, Lasersensoren oder Kameras, erkannt werden. Des Weiteren ist es bekannt, anhand der Sensorsignale der Sensoren einen Abstand zwischen dem Kraftfahrzeug und dem Objekt bzw. eine relative Lage zwischen dem Kraftfahrzeug und dem Objekt zu bestimmen.
  • Darüber hinaus ist es aus dem Stand der Technik bekannt, die Ergebnisse von mehreren oder unterschiedlichen Sensoren zu fusionieren, um Objekte zuverlässiger erfassen zu können. Hierzu kann es beispielsweise vorgesehen sein, aus den Sensordaten, die von dem jeweiligen Sensor bereitgestellt werden, jeweils ein Objektmerkmal zu bestimmen, welches das Objekt beschreibt. Ein solches Objektmerkmal kann beispielsweise ein Punktmerkmal oder ein Linienmerkmal sein, welches das Objekt oder einen Teil davon beschreibt. Für das Objektmerkmal kann auch eine räumliche Unsicherheit bzw. Unschärfe bestimmt werden. Die Objektmerkmale können auch in eine digitale Umgebungskarte eingetragen werden, welche die Umgebung des Kraftfahrzeugs beschreibt. Zum Fusionieren der Messungen der verschiedenen Sensoren können die Objektmerkmale zusammengelegt werden.
  • Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie Objekte in einer Umgebung eines Kraftfahrzeugs mit Hilfe zumindest eines Sensors des Kraftfahrzeugs einfacher und zuverlässiger erfasst werden können.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Steuereinrichtung, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind Gegenstand der abhängigen Ansprüche.
  • Bei einer Ausführungsform eines erfindungsgemäßen Verfahrens zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs werden insbesondere von zumindest einem Sensor des Kraftfahrzeugs Sensordaten einer ersten Messung und Sensordaten einer zweiten Messung empfangen. Zudem werden bevorzugt aus den Sensordaten der ersten Messung ein erstes Objektmerkmal und aus den Sensordaten der zweiten Messung ein zweites Objektmerkmal bestimmt. Ferner wird insbesondere aus dem ersten Objektmerkmal anhand des zweiten Objektmerkmals ein zusammengelegtes Objektmerkmal zur Beschreibung des zumindest einen Objekts bestimmt. Des Weiteren ist es bevorzugt vorgesehen, dass das erste Objektmerkmal und das zweite Objektmerkmal in einen gemeinsamen Zustandsraum überführt werden. Bevorzugt wird in dem Zustandsraum eine Innovationsfunktion bestimmt, welche eine Ähnlichkeit zwischen dem ersten Objektmerkmal und dem zweiten Objektmerkmal beschreibt. Schließlich wird insbesondere das zusammengelegte Objektmerkmal aus dem ersten Objektmerkmal anhand der Innovationsfunktion bestimmt.
  • Ein erfindungsgemäßes Verfahren dient zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs. Bei dem Verfahren werden von zumindest einem Sensor des Kraftfahrzeugs Sensordaten einer ersten Messung und Sensordaten einer zweiten Messung empfangen. Zudem werden aus den Sensordaten der ersten Messung ein erstes Objektmerkmal und aus den Sensordaten der zweiten Messung ein zweites Objektmerkmal bestimmt. Außerdem wird aus dem ersten Objektmerkmal anhand des zweiten Objektmerkmals ein zusammengelegtes Objektmerkmal zur Beschreibung des zumindest einen Objekts bestimmt wird. Darüber hinaus werden das erste Objektmerkmal und das zweite Objektmerkmal in einen gemeinsamen Zustandsraum überführt und in dem Zustandsraum wird eine Innovationsfunktion bestimmt, welche eine Ähnlichkeit zwischen dem ersten Objektmerkmal und dem zweiten Objektmerkmal beschreibt. Schließlich wird das zusammengelegte Objektmerkmal aus dem ersten Objektmerkmal anhand der Innovationsfunktion bestimmt.
  • Mit Hilfe des Verfahrens sollen ein oder mehrere Objekte in der Umgebung des Kraftfahrzeugs erfasst bzw. erkannt werden. Das Verfahren kann beispielsweise mit einer Steuereinrichtung bzw. einem elektronischen Steuergerät des Kraftfahrzeugs durchgeführt werden. Hierzu können mit der Steuereinrichtung erste Sensordaten der ersten Messung empfangen werden. Hierzu kann ein Sensor des Kraftfahrzeugs die erste Messung durchführen und Sensordaten bereitstellen. Diese Sensordaten beschreiben insbesondere das zumindest eine Objekt. Aus diesen Sensordaten wird dann ein erstes Objektmerkmal bestimmt, welches das zumindest eine Objekt beschreibt. In gleicher Weise werden Sensordaten von einer zweiten Messung empfangen, welche ebenfalls das zumindest eine Objekt beschreiben können. Aus den Sensordaten der zweiten Messung wird das zweite Objektmerkmal bestimmt. Die zweite Messung kann zeitlich auf die erste Messung folgen. Die zweite Messung kann mit dem gleichen Sensor durchgeführt werden, mit dem auch die erste Messung durchgeführt wird. Es kann auch vorgesehen sein, dass die erste Messung mit einem ersten Sensor durchgeführt wird und die zweite Messung mit einem von dem ersten Sensor verschiedenen, zweiten Sensor durchgeführt wird.
  • Die jeweiligen Sensordaten können beispielsweise mehrere Sensorwerte bzw. Messwerte umfassen, die eine Position des zumindest einen Objekts oder eine relative Lage zwischen dem Sensor und dem Objekt beschreiben. Zum Bestimmen der jeweiligen Objektmerkmale können beispielsweise mehrere Messwerte gruppiert oder verschmolzen werden. Es kann auch vorgesehen sein, dass einzelne Messwerte zum Bestimmen des jeweiligen Objektmerkmals nicht berücksichtigt werden. Das Objektmerkmal kann beispielsweise ein Punkt bzw. ein Punktmerkmal sein, welches eine Position des Objekts oder eines Teils des Objekts im Raum darstellt. Das Objektmerkmal kann auch eine Linie bzw. ein Linienmerkmal sein, welche eine Grenze des Objekts oder eines Teils davon beschreibt. Ein solches Linienmerkmal wird beispielsweise erhalten, wenn das Kraftfahrzeug an dem Objekt vorbei bewegt wird und während des Vorbeibewegens fortlaufend Messwerte bestimmt werden. Die jeweiligen Messwerte, welche den Abstand zu dem Objekt beschreiben, können dann zu dem Linienmerkmal zusammengefasst werden oder es kann eine Linie durch die Messwerte gelegt werden, um das Linienmerkmal zu erhalten. Das Objektmerkmal kann auch ein unscharfes Merkmal sein. Ein solches unscharfes Merkmal ergibt sich beispielsweise, wenn ein Objekt mit einem einzigen Ultraschallsensor erfasst wird. Hier kann aus den Sensordaten nur der Abstand zu dem Objekt aber keine Winkelinformation bestimmt werden. Es kann vorgesehen sein, dass das erste Objektmerkmal und/oder das zweite Objektmerkmal mittels der Steuereinrichtung anhand der Sensordaten bestimmt werden. Alternativ dazu kann das erste Objektmerkmal und/oder das zweite Objektmerkmal mit dem zumindest einen Sensor selbst bestimmt werden und das jeweilige Objektmerkmal von dem Sensor zu der Steuereinrichtung übertragen werden.
  • Die Objektmerkmale können beispielsweise in eine digitale Umgebungskarte eingetragen werden, welche die Umgebung des Kraftfahrzeugs beschreibt. Dabei können die Objektmerkmale auch mit einer räumlichen Unsicherheit bzw. einer Unschärfe in die Umgebungskarte eingetragen werden. Dabei kann es der Fall sein, dass das erste Objektmerkmal bereits in der Umgebungskarte eingetragen ist. Im Anschluss daran kann das zweite Objektmerkmal bestimmt werden. Anhand der Objektmerkmale kann zunächst überprüft werden, ob die Objektmerkmale das gleiche Objekt in der Umgebung beschreiben. Es kann also überprüft werden, ob das zweite Objektmerkmal dem ersten Objektmerkmal zugeordnet werden kann. Falls die Objektmerkmale einander zugeordnet werden, kann überprüft werden, ob die Objektmerkmale zusammengelegt werden können. Bei diesem Zusammenlegen, das auch als Merging bezeichnet werden kann, kann ausgehend von dem ersten Objektmerkmal ein zusammengelegtes bzw. aktualisiertes Objektmerkmal bestimmt werden. Bei dem Bestimmen des zusammengelegten Objektmerkmals wird das zweite Objektmerkmal berücksichtigt.
  • Erfindungsgemäß ist es nun vorgesehen, dass das erste Objektmerkmal und das zweite Objektmerkmal in einen gemeinsamen Zustandsraum überführt bzw. transformiert werden. Dieser Zustandsraum kann beispielsweise ein gemeinsames Koordinatensystem für das erste und das zweite Objektmerkmal darstellen. Insbesondere kann der Zustandsraum von der Umgebungskarte verschieden sein. In dem Zustandsraum kann ein Zustand des ersten Objektmerkmals und ein Zustand des zweiten Objektmerkmals beschrieben werden. In dem Zustandsraum wird auch die Innovationsfunktion bestimmt, welche ein Ähnlichkeitsmaß zum Bestimmen einer Ähnlichkeit zwischen dem ersten und zweiten Objektmerkmal darstellen kann. Insbesondere kann die Innovationsfunktion beschreiben, wie ähnlich der Zustand des ersten Objektmerkmals zu dem Zustand des zweiten Objektmerkmals ist. Die Innovationsfunktion kann eine Differenz zwischen dem Zustand des ersten Objektmerkmals und dem Zustand des zweiten Objektmerkmals beschreiben.
  • Dadurch, dass die Innovationsfunktion in dem Zustandsraum bestimmt wird, kann auch die Ähnlichkeit zwischen den zwei Objektmerkmalen bestimmt werden, die ansonsten in unterschiedlichen Räumen oder Koordinatensystemen vorliegen. Zudem ergibt sich der Vorteil, dass der Zustandsraum so vorgeben werden kann, dass nur Größen, Zustände und/oder Dimensionen berücksichtigt werden, welche für die Bestimmung der Ähnlichkeit von Interesse sind. Anhand der Innovationsfunktion kann zunächst bestimmt werden, ob das zweite Objektmerkmal dem ersten Objektmerkmal zugeordnet werden kann. Falls die Objektmerkmale einander zugeordnet werden, kann die Innovationsfunktion auch dafür genutzt werden, um aus dem ersten Objektmerkmal das zusammengelegte Objektmerkmal abzuleiten. Wenn das zusammengelegte Objektmerkmal dann bestimmt wurde, kann es aus dem Zustandsraum in einen anderen Raum, beispielsweise in die Umgebungskarte, transformiert werden. Die Innovationsfunktion beinhaltet Informationen darüber, wie sich das erste Objektmerkmal von dem zweiten Objektmerkmal unterscheidet. Damit kann mit Hilfe der Innovationsfunktion auf einfach Weise aus dem ersten Objektmerkmal das zusammengeführte Objektmerkmal in Abhängigkeit von dem zweiten Objektmerkmal bestimmt werden.
  • Bevorzugt beschreibt die Innovationsfunktion einen Abstand zwischen dem ersten Objektmerkmal und dem zweiten Objektmerkmal und/oder einen Unterschied zwischen der Orientierung des ersten Objektmerkmals und des zweiten Objektmerkmals. In dem Zustandsraum können das ersten und das zweite Objektmerkmal beschrieben werden. Dabei kann die räumliche Lage der Objektmerkmale oder einzelner Punkte der Objektmerkmale in dem Zustandsraum beschrieben sein. Wenn es sich bei dem Objektmerkmal um ein Punktmerkmal handelt, kann die Position bzw. räumliche Lage in dem Zustandsraum beschrieben sein. Zudem kann die Orientierung der Objektmerkmale in dem Zustandsraum beschrieben sein. Beispielsweise kann ein Winkel des Objektmerkmals in dem Zustandsraum beschrieben sein. Wenn es sich bei dem Objektmerkmal beispielsweise um ein Linienmerkmal handelt, können die Position eines Basispunkts bzw. Drehpunkts und ein Winkel, der die Drehung der Linie um den Basispunkt beschreibt, in dem Zustandsraum beschrieben sein. Um die Ähnlichkeit der Objektmerkmale bzw. die Innovationsfunktion in dem Zustandsraum zu bestimmen, kann der Abstand zwischen den Objektmerkmalen berücksichtigt werden. Alternativ oder zusätzlich kann berücksichtigt werden, wie sich die Objektmerkmale bezüglich ihrer Orientierung bzw. Ausrichtung unterscheiden. Hierzu kann der Unterschied der Winkel der beiden Objektmerkmale in dem Zustandsraum bestimmt werden. Die Beschreibung der Objektmerkmale in dem Zustandsraum bringt den Vorteil mit sich, dass die Objektmerkmale nur anhand der Zustände beschrieben werden können, die für die Bestimmung der Innovationsfunktion von Interesse sind. Diese Zustände können die räumliche Lage und/oder der Winkel beschreiben. Bei Objektmerkmalen, welche Linienmerkmale sind, ist es beispielsweise nicht erforderlich, deren Länge zu berücksichtigen. Somit kann die Innovationsfunktion mit einem geringen Rechenaufwand und dennoch zuverlässig bestimmt werden.
  • In einer Ausführungsform wird zum Bestimmen des zusammengelegten Objektmerkmals aus dem ersten Objektmerkmal eine lineare Abbildungsvorschrift bestimmt, welche die Innovationsfunktion und einen Verstärkungsfaktor für die Innovationsfunktion umfasst, wobei der Verstärkungsfaktor von einer räumlichen Unsicherheit des ersten Objektmerkmals und einer räumlichen Unsicherheit des zweiten Objektmerkmals abhängig ist. Um das zusammengelegte Objektmerkmal zu bestimmen, wird die lineare Abbildungsvorschrift ermittelt. Diese Abbildungsvorschrift kann auch als Filter bezeichnet werden. Grundsätzlich kann die Abbildungsvorschrift nach Art eines Kalman-Filters definiert sein. Um das zusammengelegte Objektmerkmal zu bestimmen, kann die Abbildungsvorschrift zu dem ersten Objektmerkmal addiert werden. Die Abbildungsvorschrift kann die Innovationsfunktion und den Verstärkungsfaktor, mit dem die Innovationsfunktion multipliziert wird, enthalten. Dieser Verstärkungsfaktor kann auch als Kalman-Verstärkung bezeichnet werden. Der Faktor kann in Abhängigkeit von der räumlichen Unsicherheit des ersten Objektmerkmals und/oder des zweiten Objektmerkmals bestimmt werden. Die räumliche Unsicherheit ist unabhängig von den jeweiligen Erwartungen bzw. Erwartungswerten der Zustände bzw. der Objektmerkmale. Die räumliche Unsicherheit kann mit Hilfe der Kovarianz bzw. der Kovarianzmatrix der jeweiligen Zustände bzw. der jeweiligen Objektmerkmale bestimmt werden. Damit kann das zusammengeführte Objektmerkmal unter Berücksichtigung der räumlichen Unsicherheit bestimmt werden.
  • Weiterhin ist es vorteilhaft, wenn der Verstärkungsfaktor derart bestimmt wird, dass eine räumliche Unsicherheit des zusammengelegten Objektmerkmals minimal ist. Um das zusammengelegte Objektmerkmal möglichst zuverlässig zu bestimmten, kann der Verstärkungsfaktor so bestimmt werden, dass die räumliche Unsicherheit des zusammengelegten Objektmerkmals möglichst gering ist. Der Verstärkungsfaktor kann also so bestimmt werden, dass die Kovarianz bzw. die Kovarianzmatrix des zusammengelegten Objektmerkmals minimal ist. Die Kovarianzmatrix kann beispielsweise dadurch minimiert werden, dass die Eigenwerte der Kovarianzmatrix minimiert werden. Es können auch Einheitsvektoren der Kovarianzmatrix bestimmt werden und diese minimiert werden. Damit kann der Verstärkungsfaktor zuverlässig bestimmt werden.
  • In einer weiteren Ausgestaltung wird anhand der Innovationsfunktion eine Grenze bestimmt und das zweite Objektmerkmal bleibt bei der Bestimmung des zusammengelegten Objektmerkmals unberücksichtigt, falls die Innovationsfunktion die Grenze überschreitet. Um zu entscheiden, ob das erste Objektmerkmal und das zweite Objektmerkmal zusammengelegt werden sollen, kann die Innovationsfunktion genutzt werden. Insbesondere können eine Erwartung der Innovationsfunktion und/oder die Kovarianz bzw. die Kovarianzmatrix der Innovationsfunktion bestimmt werden. Hieraus kann eine Grenze für die Innovationsfunktion abgeleitet werden. Diese Grenze kann auch als Mahalanobis-Distanz bezeichnet werden. Falls die Innovationsfunktion kleiner als diese Grenze ist, kann das zusammengelegte Objektmerkmal anhand der Innovationsfunktion bestimmt werden. Hier kann davon ausgegangen werden, dass das erste Objektmerkmal und das zweite Objektmerkmal das gleiche Objekt beschreiben. Für den Fall, dass die Innovationsfunktion größer als diese Grenze ist, können das erste Objektmerkmal und das zweite Objektmerkmal statistisch voneinander unterschieden werden. Hier kann davon ausgegangen werden, dass das erste Objektmerkmal und das zweite Objektmerkmal unterschiedliche Objekte beschreiben. Dabei kann vorgesehen sein, dass das erste Objektmerkmal nicht verändert wird. Somit kann verhindert werden, dass das zusammengeführte Objektmerkmal in Abhängigkeit vom zweiten Objektmerkmal bestimmt wird, falls eine geringe Ähnlichkeit zwischen dem ersten und dem zweiten Objektmerkmal vorhanden ist.
  • In einer Ausführungsform ist es vorgesehen, dass falls das erste Objektmerkmal ein Punktmerkmal ist und das zweite Objektmerkmal ein Punktmerkmal ist, die Innovationsfunktion aus dem Abstand zwischen den Punktmerkmalen bestimmt wird. Das erste Objektmerkmal kann beispielsweise ein erstes Punktmerkmal sein und das zweite Objektmerkmal kann ein zweites Punktmerkmal sein. Das erste und das zweite Punktmerkmal können in dem Zustandsraum jeweils als zweidimensionaler Vektor bzw. als Zufallsvektor dargestellt werden. Mit Hilfe des jeweiligen Vektors kann die Position bzw. die räumliche Lage des Punktmerkmals beschrieben werden. Die Innovationsfunktion kann anhand des Abstands zwischen den Punktmerkmalen bestimmt werden. Hierzu kann die Differenz der Vektoren, welche die Punktmerkmale beschreiben, bestimmt werden.
  • Falls das erste Objektmerkmal ein Linienmerkmal ist und das zweite Objektmerkmal ein Linienmerkmal ist, ist es bevorzugt vorgesehen, dass die Innovationsfunktion aus dem Abstand zwischen den Linienmerkmalen und einem Winkelunterschied zwischen den Linienmerkmalen bestimmt wird. Es kann also vorgesehen sein, dass das erste Objektmerkmal ein erstes Linienmerkmal ist und das zweite Objektmerkmal ein zweites Linienmerkmal ist. Die jeweiligen Linienmerkmale können durch einen Basispunkt bzw. Drehpunkt und einen Winkel definiert werden. Der Basispunkt kann dabei als zweidimensionaler Vektor angegeben werden. Die räumliche Lage der Basispunkte und die Winkel der Linienmerkmale können ebenfalls mit einer räumlichen Unsicherheit angegeben werden. Der Winkel kann die Neigung der Linie zu einer Referenzlinie oder Referenzebenen in dem Zustandsraum beschreiben. Insbesondere wird eine jeweilige Länge des Linienmerkmals in dem Zustandsraum nicht berücksichtigt. Anhand der jeweiligen Basispunkte und/oder der jeweiligen Winkel der ersten und der zweiten Linienmerkmale können der Abstand zwischen den Linienmerkmalen und der Winkelunterschied auf einfache Weise bestimmt werden.
  • Weiterhin ist es vorteilhaft, dass zwei parallele Hilfslinien bestimmt werden, welche durch jeweilige Basispunkte der Linienmerkmale verlaufen, zum Bestimmen des Abstands zwischen den Linienmerkmalen ein Abstand zwischen den Hilfslinien bestimmt wird und zum Bestimmen des Winkelunterschieds zwischen den Linienmerkmalen eine Differenz zwischen einen jeweiligen Winkel der Linienmerkmale und einem Winkel der Hilfslinien bestimmt wird. Es können also eine erste Hilfslinie, welche durch den Basispunkt des ersten Linienmerkmals verläuft, und eine zweite Hilfslinie, welche durch den Basispunkt des zweiten Linienmerkmals verläuft, bestimmt werden. Diese Hilfslinien können insbesondere so bestimmt werden, dass sie parallel zueinander sind. Die beiden Hilfslinien können also den gleichen Winkel aufweisen. Von diesen beiden parallelen Hilfslinien kann der Abstand auf einfache Weise bestimmt werden. Der Winkel der beiden Hilfslinien kann ein Durchschnittswinkel sein, welcher aus einem Mittelwert des ersten Winkels des ersten Linienmerkmals und eines zweiten Winkels des zweiten Linienmerkmals bestimmt wird. Der Winkel der beiden Hilfslinien kann auch ein gewichteter Durchschnitt der Winkel der beiden Linienmerkmale mit der Unsicherheit des jeweiligen Winkels als Gewicht sein. Zudem Bestimmen des Winkelunterschieds zwischen den zwei Linienmerkmalen kann dann die Differenz des ersten Winkels des ersten Linienmerkmals und dem Winkel der Hilfsgeraden sowie die Differenz des zweiten Winkels des zweiten Linienmerkmals und dem Winkel der Hilfsgeraden bestimmt werden. Damit kann die Innovationsfunktion zwischen zwei Linien bzw. Linienmerkmalen auf einfache Weise und zuverlässig bestimmt werden.
  • In einer Ausgestaltung werden die beiden Linienmerkmale auf eine Projektionslinie projiziert, welche eine vorbestimmte Richtung aufweist, und das Bestimmen des zusammengelegten Objektmerkmals wird anhand der auf die Projektionslinie projizierten Linienmerkmale durchgeführt. Um zu überprüfen, ob das erste und das zweite Objektmerkmal zusammengeführt werden sollen, kann bei zwei Linienmerkmalen neben der bereits erwähnten Grenze bzw. Mahalanobis-Distanz auch die Überlappung der beiden Linienmerkmale bestimmt werden. Der Überlappungszustand kann dadurch überprüft werden, dass der Startpunkt und Endpunkt jedes Linienmerkmals auf eine Projektionslinie projiziert wird, welche eine vorbestimmte Richtung bzw. einen vorbestimmten Winkel aufweist. Die Richtung bzw. der Winkel der Projektionslinie kann der Durchschnittswinkel sein, welcher aus einem Mittelwert des ersten Winkels des ersten Linienmerkmals und eines zweiten Winkels des zweiten Linienmerkmals bestimmt wird. Der Winkel der Projektionslinie kann auch der gewichtete Durchschnitt der Winkel der beiden Linienmerkmale mit der Unsicherheit des jeweiligen Winkels als Gewicht sein. Der Winkel der Projektionslinie kann also der Winkel der Hilfslinien sein. Anhand der auf die Ursprungslinie projizierten Linienmerkmale kann bestimmt werden, ob sich die Linienmerkmale überlappen und wie groß diese Überlappung ist. Für den Fall, dass sich die Linienmerkmale nicht überlappen, kann durch die Projektion der Linienmerkmale auf die Projektionslinie zudem bestimmt werden, wie weit die Linienmerkmale voneinander entfernt sind. Auf diese Weise kann ermittelt werden, ob die Linienmerkmale von dem gleichen Objekt stammen.
  • In einer Ausführungsform ist es vorgesehen, dass falls das erste Objektmerkmal ein Linienmerkmal ist und das zweite Objektmerkmal ein Punktmerkmal ist oder falls das erste Objektmerkmal ein Punktmerkmal ist und das zweite Objektmerkmal ein Linienmerkmal ist, die Innovationsfunktion aus dem Abstand zwischen dem Punktmerkmal und dem Linienmerkmal bestimmt wird. Falls das eine Objektmerkmal ein Punktmerkmal ist und das andere Objektmerkmal ein Linienmerkmal ist, kann die Innovationsfunktion anhand des Abstands zwischen dem Punkt und der Linie bestimmt werden. Zum Bestimmen des Abstands kann eine auf dem Linienmerkmal senkrechte Gerade bestimmt werden, welche durch das Punktmerkmal verläuft. Damit kann die Innovationsfunktion mit geringem Rechenaufwand bestimmt werden.
  • In einer Ausgestaltung ist es vorgesehen, dass falls das erste Objektmerkmal ein Punktmerkmal ist und das zweite Objektmerkmal ein unscharfes Merkmals ist, welches einen Objektabstand zwischen einer Sensorposition des Sensors und dem zumindest einen Objekt beschreibt, ein Punktabstand, welcher den Abstand zwischen der Sensorposition und dem Punktmerkmal beschreibt, bestimmt wird und die Innovationsfunktion aus einer Differenz zwischen dem Punktabstand und dem Objektabstand bestimmt wird. Der Objektabstand beschreibt insbesondere den Abstand, der mit dem Sensor gemessen wurde. Dieser gemessene Abstand kann beispielsweise dadurch bestimmt werden, dass mit dem Sensor ein Sensorsignal ausgesendet wird und das von dem Objekt reflektierte Sensorsignal wieder empfangen wird. Anhand der Laufzeit zwischen dem Aussenden des Sensorsignals und dem Empfangen des von dem Objekt reflektierten Sensorsignals kann dann der gemessene Abstand bestimmt werden. Der Punktabstand beschreibt den Abstand zwischen dem Punktmerkmal und der Sensorposition. Damit kann auf einfach Weise aus dem Unterschied zwischen dem Punktabstand und dem Objektabstand die Innovationsfunktion bestimmt werden.
  • In einer Ausführungsform ist es vorgesehen, dass falls das erste Objektmerkmal ein Linienmerkmal ist und das zweite Objektmerkmal ein unscharfes Merkmals ist, welches einen Objektabstand zwischen einer Sensorposition des Sensors und dem zumindest einen Objekt beschreibt, ein Linienabstand, welcher den Abstand zwischen der Sensorposition und dem Linienmerkmal beschreibt, bestimmt wird und die Innovationsfunktion aus einer Differenz zwischen dem Linienabstand und dem Objektabstand bestimmt wird. Hier können der Objektabstand und der Punktabstand entlang einer Senkrechten zur Linie bestimmt werden, welche durch den Punkt verläuft. Der Abstand zwischen dem unscharfen Merkmal und dem Linienmerkmal kann also aus der Differenz zwischen dem Abstand zwischen der Sensorposition des Sensors, der das unscharfe Merkmal gemessen hat, und dem Linienmerkmal einerseits und dem mit dem Sensor gemessenen Abstand andererseits bestimmt werden. Dies ermöglicht eine zuverlässige Bestimmung der Innovationsfunktion bei einem Linienmerkmal und einem unscharfen Merkmal.
  • Eine erfindungsgemäße Steuereinrichtung für ein Fahrerassistenzsystem eines Kraftfahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens ausgelegt ist. Die Steuereinrichtung kann einen Rechner, einen Mikroprozessor, einen digitalen Signalprozessor oder dergleichen umfassen. Bevorzugt ist die Steuereinrichtung durch ein elektronisches Steuergerät des Kraftfahrzeugs gebildet.
  • Ein erfindungsgemäßes Fahrerassistenzsystem für ein Kraftfahrzeug umfasst eine erfindungsgemäße Steuereinrichtung sowie zumindest einen Sensor. Mit dem zumindest einen Sensor kann das zumindest eine Objekt in der Umgebung des Kraftfahrzeugs erfasst werden. Es kann auch vorgesehen sein, dass das Fahrerassistenzsystem mehrere Sensoren aufweist. Der zumindest eine Sensor kann ein Ultraschallsensor, eine Kamera, ein Radarsensor, ein Lidar-Sensor, ein Laserscanner oder dergleichen sein. Die Steuereinrichtung ist zur Datenübertragung mit dem zumindest einen Sensor verbunden.
  • Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Das Kraftfahrzeug ist insbesondere als Personenkraftwagen ausgebildet.
  • Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Steuereinrichtung, das erfindungsgemäße Fahrerassistenzsystem sowie das erfindungsgemäße Kraftfahrzeug.
  • Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.
  • Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.
  • Dabei zeigen:
  • 1 ein Kraftfahrzeug gemäß einer Ausführungsform der Erfindung, welches ein Fahrerassistenzsystem mit einer Mehrzahl von Sensoren zum Erfassen eines Objekts umfasst;
  • 2 ein schematisches Ablaufdiagramm eines Verfahrens zum Bestimmen einer Abbildungsfunktion, mittels welcher ein zusammengelegtes Objektmerkmal bestimmt werden kann;
  • 3 eine schematische Darstellung von zwei Linienmerkmalen, welche zusammengelegt werden sollen;
  • 4 eine schematische Darstellung von zwei Linienmerkmalen, welche zusammengelegt werden sollen, in einer weiteren Ausführungsform;
  • 5 eine schematische Darstellung eines Punktmerkmals und eines Linienmerkmals, welche zusammengelegt werden sollen;
  • 6 eine schematische Darstellung eines unscharfen Merkmals und eines Punktmerkmals, welche zusammengelegt werden sollen; und
  • 7 eine schematische Darstellung eines unscharfen Merkmals und eines Linienmerkmals, welche zusammengelegt werden sollen.
  • In den Figuren werden gleiche und funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.
  • 1 zeigt ein Kraftfahrzeug 1 gemäß einer Ausführungsform der vorliegenden Erfindung in einer Draufsicht. Das Kraftfahrzeug 1 ist vorliegend als Personenkraftwagen ausgebildet. Das Kraftfahrzeug 1 umfasst ein Fahrerassistenzsystem 2, mit welchem zumindest ein Objekt 3 in einer Umgebung 4 des Kraftfahrzeugs 1 erfasst werden kann.
  • Das Fahrerassistenzsystem 2 umfasst eine Steuereinrichtung 5, die beispielsweise durch ein elektronisches Steuergerät (ECU – Electronic Control Unit) des Kraftfahrzeugs 1 gebildet sein kann. Darüber hinaus umfasst das Fahrerassistenzsystem 2 eine Mehrzahl von Sensoren 6, 7. Bei den Sensoren 6, 7 kann es sich beispielsweise um Ultraschallsensoren, Kameras, Radarsensoren, Lidar-Sensoren, Laserscanner oder dergleichen handeln. In dem vorliegenden Ausführungsbeispiel umfasst das Fahrerassistenzsystem 2 zwölf Ultraschallsensoren 6, von denen sechs in einem Frontbereich 8 und sechs in einem Heckbereich 9 des Kraftfahrzeugs 1 angeordnet sind. Die Ultraschallsensoren 6 können beispielsweise an den Stoßfängern des Kraftfahrzeugs 1 angeordnet sein. Mit den jeweiligen Ultraschallsensoren 6 kann ein Ultraschallsignal ausgesendet werden und das von dem Objekt 3 reflektierte Ultraschallsignal wieder empfangen werden. Es kann auch eine indirekte Messung durchgeführt werden, bei welcher einer der Ultraschallsensoren 6 das Ultraschallsignal aussendet und ein benachbarter Ultraschallsensor 6 das von dem Objekt 3 reflektierte Ultraschallsignal empfängt.
  • Darüber hinaus umfasst das Fahrerassistenzsystem 2 eine Kamera 7, mittels welcher das Objekt 3 erfasst werden kann. Der Kamera 7 kann einen Auswerteeinheit nachgeschaltet sein, mittels welcher die Bilder der Kamera 7 ausgewertet werden können. Das Objekt 3 kann beispielsweise mit einem entsprechenden Objekterkennungsalgorithmus erkannt werden. Die Ultraschallsensoren 6 und die Kamera 7 sind jeweils zur Datenübertragung mit der Steuereinrichtung 5 verbunden. Entsprechende Datenleitungen sind vorliegend der Übersichtlichkeit halber nicht dargestellt. Mit den Sensoren 6, 7 können jeweils Messungen durchgeführt werden, in denen Sensordaten erzeugt werden. Diese Sensordaten können dann von den jeweiligen Sensoren 6, 7 an die Steuereinrichtung 5 übertragen werden.
  • Die Steuereinrichtung 5 kann dann anhand der Sensordaten, die sie von einem der Sensoren 6, 7 empfangen hat, ein Objektmerkmal O1, O2 bestimmen, welches das Objekt 3 beschreibt. Es kann auch vorgesehen sein, dass die Sensoren 6, 7 die Objektmerkmale O1, O2 selbst bestimmen und dann an die Steuereinrichtung 5 übertragen. Das Bestimmen der Objektmerkmale O1, O2 kann in einer sogenannten Merkmalsebene erfolgen. Hierbei können Messwerte der Sensordaten kombiniert oder zusammengelegt werden. Die Objektmerkmale O1, O2 können beispielsweise in eine digitale Umgebungskarte, welche die Umgebung 4 des Kraftfahrzeugs 1 beschreibt, eingetragen werden. Bei den Objektmerkmalen O1, O2 kann es sich um Punktmerkmale P1, Linienmerkmale L1, L2 oder unscharfe Merkmale U1 handeln.
  • Ein Punktmerkmal P1 ergibt sich beispielsweise wenn das Objekt 3 mit der Kamera 7 erfasst wird. Das Punktmerkmal P1 kann einen Punkt auf der Oberfläche des Objekts 3 beschreiben. Das Punktmerkmal P1 ist durch eine Position eines Punkts im Raum xp = (x, x ^P)T beschrieben. Hierbei handelt sich um einen Zufallsvektor der Dimension zwei. Die Erwartung P bzw. der Erwartungswert dieses Zufallsvektors wird die aktuelle Positionsausgabe von der Umgebungskarte zu der Anwendung sein, da die Erwartung der beste Schätzwert für den Wert eines Zufallsvektors ist.
  • Die Kovarianzmatrix E[(xP – x ^P)(xp – x ^P)T] eines Punktmerkmals P1 ist daher eine 2x2 positiv definite Matrix, die grafisch als Ellipse dargestellt werden kann. Die beiden Ellipsenachsen sind die Quadratwurzeln der Eigenwerte der Kovarianzmatrix. Die Ellipse wird dabei zentriert auf der Erwartung x ^P dargestellt.
  • Ein unscharfes Merkmal U1 ergibt sich beispielsweise in Folge von radialen Messungen, welche mit Ultraschallsensoren 6 durchgeführt werden. Dies bedeutet, dass die Sensordaten eine Abstandsinformation aber keine Winkelinformation bezüglich des Objekts 3 liefern. Es liegt deshalb nur die Information vor, dass sich das Objekt 3 annähernd auf einem Kreis befindet, wobei der Radius des Kreises die Unsicherheit der Messung darstellt. Falls eine indirekte Messung mit zwei Ultraschallsensoren 6 durchgeführt wird, liegt üblicherweise die Information vor, dass sich das Objekt 3 auf einer Ellipse befindet. Ein unscharfes Merkmal U1 ist daher eine Zufallsvariable mit der Dimension xU = d. Der tatsächlich von Sensor gemessene Abstand ist x ^U und die Unsicherheit der Messung entspricht der Varianz von xU.
  • Die Repräsentation eines unscharfen Merkmals U1 ist daher lediglich der Signalweg. Dennoch sind nur diese Informationen nicht ausreichend für die Anwendung. Die Anwendung benötigt eine Position im Raum. Wenn daher ein unscharfes Merkmal U1 in die Umgebungskarte eingegeben werden soll, da es beispielsweise nicht mit einem anderen Objektmerkmal O1, O2 zusammengeführt werden kann, kann ein Punkt auf die Sensorachse entsprechend dem Sensormodell gesetzt und mit einer räumlichen Unsicherheit dargestellt werden. Die Länge der Ellipse kann der Standardabweichung von xU entsprechen. Die Breite der Ellipse entspricht nicht dem Rauschen des unscharfen Merkmals, aus diesem Grund können bekannte Kalman-Filter für unscharfe Merkmale U1 nicht verwendet werden. Zur Verarbeitung von unscharfen Merkmalen U1 wird daher, wie nachfolgend näher erläutert, eine Innovationsfunktion h bestimmt.
  • Linienmerkmale L1, L2 werden typischerweise aus Messungen von Ultraschallsensoren 6 bestimmt. Solche Linienmerkmale L1, L2 werden beispielsweise erhalten, wenn das Kraftfahrzeug 1 an dem Objekt 3 vorbeibewegt wird und fortlaufend Messungen durchgeführt werden. Anhand der Sensordaten können einzelne Messwerte bestimmt werden, welche wiederum geclustert bzw. zu vereint werden. Aus dem Cluster kann dann das Linienmerkmal L1, L2 extrahiert werden. Dies ist insbesondere eine gute Strategie, um die Menge an Informationen, die von der Umgebungskarte verarbeitet werden müssen, zu reduzieren. Dieser Ansatz kann auch für die Laserscanner oder andere Sensoren verwendet werden.
  • Linienmerkmale L1, L2 werden durch einen dreidimensionalen Zufallsvektor xL = (x, y, α)T dargestellt. Die Linienmerkmale L1, L2 können ferner durch die Basispunkt M1, M2 beschrieben werden. Jedes Linienmerkmal L1, L2 kann dabei in zwei Liniensegmente eingeteilt werden, die sich jeweils von ihren Startpunkten A1, A2 und Endpunkten B1, B2 zu dem jeweiligen Basispunkt M1, M2 erstrecken. Dabei können die jeweiligen Längen der Liniensegmente separat gespeichert werden. Hierbei kann es vorgesehen sein, dass keine Unsicherheit für deren Länge gespeichert wird. Dies stellt insbesondere einen Vorteil dar, da beispielsweise bei Messungen mit Ultraschallsensoren 6 oft keine Unsicherheit bezüglich der Länge geliefert wird. Dies ist beispielsweise der Fall, wenn das Kraftfahrzeug 1 entlang einer Wand bewegt wird und nicht bekannt ist, ob die Sensordaten den Anfang oder das Ende der Wand beschreiben.
  • Der Basispunkt M1, M2 eines Linienmerkmals L1, L2 kann in der Mitte der Linie angeordnet sein. Dies stellt den üblichen Fall dar, wie Linienmerkmale L1, L2 in der Umgebungskarte bereitgestellt werden. Es kann auch vorgesehen sein, dass der Basispunkt M1, M2 außerhalb der Mitte angeordnet ist. Dies ergibt sich beispielsweise wenn das Linienmerkmal L1, L2 aus mehreren Linien zusammengeführt wurde. Grundsätzlich könnte der Basispunkt M1, M2 auch außerhalb der Linie angeordnet sein.
  • Um ein Linienmerkmal L1, L2 effizient darstellen zu können, könnte anstelle einer Beschreibung mit drei Parametern eine Beschreibung mit zwei Parameter genutzt werden. Die Linie kann beispielsweise in Hough-Raum anhand einer Entfernung und einem Winkel zu einem Ursprung beschrieben werden. Jedoch kann diese Darstellung numerische Instabilitäten mit sich bringen, wenn die Linie weit vom Ursprung entfernt ist. Hier kann ein kleiner Fehler in der Winkelposition die Position der Linie deutlich beeinflussen. Daher wird vorliegend eine Darstellung der Linie bzw. des Linienmerkmals L1, L2 mit drei Parametern gewählt.
  • Die Objektmerkmale O1, O2, die anhand der Sensordaten erhalten werden, sollen nun einander zugeordnet werden und zusammengelegt werden. Bei der Zuordnung (Association) wird jedes Objekt 3 mehrmals mit Hilfe der Sensoren 6, 7 erfasst. Es werden daher viele Messungen mit jeweiligen Sensordaten zu der gleichen Sache erhalten. Hier ist eine Entscheidung zu treffen, ob diese Objektmerkmale O1, O2 von demselben Objekt 3 stammen oder ob diese von verschiedenen Objekten 3 stammen. Dies stellt das Problem der Zuordnung dar. Nachdem die Zuordnung erfolgt ist, muss ein Weg gefunden werden, um die Objektmerkmale O1, O2 zu kombinieren. Dabei kann jedes der Objektmerkmale O1, O2 eine andere Genauigkeit aufweisen. Daher ist ein Verfahren erforderlich, um die Objektmerkmale O1, O2 so gut wie möglich auf eine praktische Weise zu kombinieren. Dies stellt das Problem der Zusammenlegung (Merging) dar. Bei dem Zusammenlegen wird aus dem ersten Objektmerkmal O1 ein zusammengelegtes bzw. aktualisiertes Objektmerkmal bestimmt. Dies kann auch als Update-Schritt bezeichnet werden, da neue Sensordaten genutzt werden, um die Umgebungskarte zu aktualisieren.
  • Im Allgemeinen kann die Problematik der Zuordnung und des Zusammenlegens wie folgt angegeben werden: Ein Objektmerkmal O1, O2 ist bereits in der Umgebungskarte vorhanden. Dieses Objektmerkmal O1, O2 stellt einen Zufallsvektor x dar, dessen erstes und zweites Moment bekannt sind. Dieser Zufallsvektor x wird bestimmt und als der Zustand bezeichnet, der geschätzt werden soll. Sein erstes Moment oder seine tatsächliche Merkmalsposition, welche auch als aktuelle Schätzung bezeichnet werden kann, ist E(x) = x ^. Seine räumliche Unsicherheit oder Kovarianz ist P = E[(x – x ^)(x – x ^)T].
  • Ferner wird eine Messung y erhahlten, welche auch ein Zufallsvektor ist. In Wirklichkeit wird ein Wert von dem Sensor 6, 7 erhalten, welcher die Erwartung des Zufallsvektors sein wird. Zudem ist es bekannt, dass diese Messung nicht die reale (verrauschte) Messung ist, sondern ein Wert zuzüglich eines Fehlers q. Hieraus ergibt sich: y = y ^ + q. Daraus folgt: y ^ = y ^ + q ^ und damit q ^ = 0 (die Erwartung der Erwartung ist die Erwartung). Schließlich ist die Kovarianz der Messung E[(y – y ^)(y – y ^)T] = E[qqT] = Q.
  • Aus dem Zustand wird nicht direkt eine Messung erhalten. Zum Beispiel kann ein Punktmerkmal P1 in der Umgebungskarte enthalten sein und anschießend wird ein Signalweg eines unscharfen Merkmals U1 bestimmt. Der unscharfe Signalweg bzw. das unscharfe Merkmal U1 soll trotzdem genutzt werden, um das Punktmerkmal P1 gegebenenfalls zu korrigieren. Hierzu muss bestimmt werden, in wie weit die Messung von dem Zustand abweicht, wenn der Zustand mit der Messung korrigiert werden soll. Dies ist das Konzept der Innovation. Die Innovation ν wird als die Differenz zwischen einer Funktion des Zustands und der Messung definiert: ν = h(x) – y.
  • Die Innovationsfunktion h, die auch Messmodell genannt wird, kann linear oder auch nicht linear sein. Es wird jedoch eine lineare Funktion benötigt, da der verwendete Erwartungsoperator linear ist und von diesem Gebrauch gemacht werden soll. Hierzu erfolgt eine Linearisierung:
    Figure DE102016105023A1_0002
  • Es gibt viele verschiedene Möglichkeiten der Kombination des Zustands mit der Innovation ν, um einen neuen Zustand zu erhalten. Vorliegend kann die Annahme getroffen werden, ein lineares Filter zu verwenden. Der neue Zustand xn soll daher die Form aufweisen: xn = x + Kν.
  • Diese lineare Form impliziert die Linearität des Erwartungswerts: = 2 + Kν ^. Die neue Schätzung wird in Abhängigkeit von dem Vorzeichen der Innovation ν in eine Richtung gedrückt bzw. umgekehrt oder sie wird sich nicht ändern, wenn die Innovation ν 0 ist, d. h. wenn die Messung optimal mit dem vorherigen Zustand übereinstimmt.
  • Damit ist der Verstärkungsfaktor K zu bestimmen. Der optimale Wert für K wird sicherlich diejenige sein, für den der neue Zustand die kleinste mögliche Kovarianz Pn aufweist. Der Verstärkungsfaktor K soll also so bestimmt werden, dass Pn = E[(xn – x ^n)(xn – x ^)T] so klein wie möglich ist. Hieraus ergibt sich:
    Figure DE102016105023A1_0003
  • Dabei bezeichnet C = E[(x – x ^)qT] die Korrelation zwischen dem Fehler in der Messung und dem Fehler in der aktuellen Schätzung. Daraus ergibt sich: Pn = P + PHTKT – CKT + KHP + KHPHTKT – KHCKT – KCT – KCTHTKT + KQKT.
  • Ferner ist zu definieren, was „so klein wie möglich” für die Kovarianz Pn bedeutet. Da es sich um eine Kovarianzmatrix handelt, ist der Begriff der Größe nicht trivial. Für Punktmerkmale P1 soll beispielsweise die Ellipse des fusionierten Ergebnisses so klein wie möglich sein. Die kleinen und großen Achsen der Ellipse ergeben sich aus der Quadratwurzel der Eigenwerte der Kovarianzmatrix. Wenn also die Größe der Ellipse minimiert werden soll, können auf einfache Weise die Eigenwerte minimiert werden. Da Berechnungen mit Eigenwerten komplex sind, ist ein indirekter Weg zu finden. Die Kovarianzmatrix ist positiv definit. Dies bedeutet, es gibt ein Koordinatensystem im Vektorraum, wo sie diagonal ist und die Werte auf der Diagonalen die Eigenwerte sind:
    Figure DE102016105023A1_0004
  • Für jeden Einheitsvektor ei = [δij]T 1≤j≤n jeder Achse von diesem Koordindatensystem, wobei δij das Kronecker Symbol ist, welches 0 ist, falls i ≠ j ist, und welches 1 ist, falls i = j ist, ergibt sich: ei TPnei = λi.
  • Um die Eigenwerte λi von Pn zu minimieren, kann auf einfache Weise eTPne für jeden Einheitsvektor minimiert werden und damit alle Eigenwert der Kovarianzmatrix minimiert werden. Damit ergibt sich:
    Figure DE102016105023A1_0005
  • Unter Verwendung der Regeln der Matrix-Ableitung ergibt sich: ∂ / ∂K(eTKDe) = eTeDT ∂ / ∂K(eTDTKTe) = eTeDT falls C symmetrisch ist, ∂ / ∂K (eTKCKTe) = 2eTeKC.
  • Ferner ergibt sich:
    Figure DE102016105023A1_0006
  • Nun sind alle Werte außer C bekannt: P ist die räumliche Unsicherheit des Zustands in der Umgebungskarte, H die Jacobi-Matrix von einer bekannten Funktion und Q ist die räumliche Unsicherheit der Sensormessung. C ist die Korrelation zwischen dem Zustand und dem Fehler der Messung. Diese ist in den meisten Anwendungsfällen unbekannt. Daher soll diese 0 sein, da angenommen wird, dass der Fehler bei der Messung nicht mit dem Zustand korreliert. Hieraus ergibt sich der optimale Wert für K, welcher auch als optimale Kalman-Verstärkung bekannt ist: K = –(PHT)(HPHT + Q)–1.
  • Ferner ist Pn für die nächste Iteration des Zusammenlegens zu bestimmen. Mit C = 0 ergibt sich: Pn = P + PHTKT + KHP + K(HPHT + Q)KT = P – PHT(HPHT + Q)–1HP – PHT(HPHT + Q)–1HP + PHT(HPHT + Q)–1(HPHT + Q)(HPHT + Q)–1HP = P – 2PHT(HPHT + Q)–1HP + PHT(HPHT + Q)–1HP Pn = P – PHT(HPHT + Q)–1HP.
  • Um zu entscheiden, ob eine Messung einem Merkmal zugeordnet wird, kann die Innovation genutzt werden. Im Idealfall, wenn die Objektmerkmale O1, O2 gleich sind, sollte die Innovation 0 sein. Es ist die Frage zu beantworten, wie wahrscheinlich es ist, dass die Innovation 0 ist. Es sind zwei wichtige Eigenschaften der Dichtefunktion der Innovation bekannt: Ihr Erwartungswert ν = x ^ – y ^ und ihre Kovarianz S. Diese können aus bekannten Werten berechnet werden: S = E[(ν – ν ^)(ν – ν ^) = E[(H(x – x ^) – q)(H(x – x ^) – q)T] = HPHT + Q.
  • Die Kovarianz S kann durch ihre Eigenwerte charakterisiert werden. Bei dieser Kovarianzmatrix, identisch zu dem, was in Bezug auf Pn erläutert wurde, können die Quadratwurzeln der Eigenwerte von S die Achse der Ellipse für eine zweidimensionale Innovation darstellen. Für eine Innovation mit einer Dimension, wäre dies einfach die Standardabweichung der Dichtefunktion. Weitere Dimensionen, würden die Quadratwurzeln der Eigenwerte der n-Achsen eines Ellipsoids mit n Dimensionen darzustellen. Wenn die Innovation in einem Koordinatensystem {ei}1≤i≤n dargestellt wird, in dem die Kovarianz diagonal ist, ergibt sich: ν ^ = Σ1≤i≤nν ^ei, wobei ν ^ Skalare in dem i-ten Koordinaten von ν ^ sind. Mit λi = σ 2 / i , können die Eigenwerte von S wie folgt bestimmt werden:
    Figure DE102016105023A1_0007
  • Dies entspricht exakt der Gleichung eines n-dimensionalen Ellipsoids. Durch die Überprüfung, ob dieser Wert klein genug ist, kann tatsächlich überprüft werden, wie weit der Nullpunkt der Innovation von ν ^ in Bezug auf die Größe der Kovarianz entfernt ist. Dieser Abstand wird als die Mahalanobis-Distanz bezeichnet. Das Kriterium für die Zuordnung wird daher sein: ν ^TS–1ν ^ < g.
  • Der Parameter g ist fix und kann als Schwelle bezeichnet werden. Mit Hilfe von g kann die Zuordnung angepasst werden.
  • 2 beschreibt ein schematisches Ablaufdiagramm zur Bestimmung einer Abbildungsvorschrift, mittels welcher aus einem ersten Objektmerkmal O1 ein zusammengelegtes bzw. aktualisiertes Objektmerkmal bestimmt werden kann. Diese Abbildungsvorschrift umfasst dabei die Innovationsfunktion h und den Verstärkungsfaktor K. Die Abbildungsvorschrift wird in Abhängigkeit von dem ersten Objektmerkmal O1 und dem zweiten Objektmerkmal O1 bestimmt. Das zweite Objektmerkmal O2 kann beispielsweise zeitlich nach dem ersten Objektmerkmal O1 bestimmt worden sein. In einem Schritt S1 werden die bekannten Eingangsgrößen bereitgestellt. Diese sind die Erwartung und die Kovarianz des Zustands sowie die Erwartung und die Kovarianz der Messung. Des Weiteren werden in einem Schritt S2 Voraussetzungen definiert. Hier kann definiert werden, dass ein lineares Filter verwendet wird. Zudem kann vorgegeben werden, dass der Fehler der Messung nicht mit dem Zustand korreliert sind. Ferner wird in einem Schritt S3 das Ziel definiert. Dies kann beispielsweise die Minimierung der Kovarianz der zusammengeführten Ergebnisse sein. In ein Schritt S4 erfolgt die Definition. Hier wird die Innovation bzw. die Innovationsfunktion h definiert. Hieraus kann dann insgesamt die Abbildungsfunktion und somit der Verstärkungsfaktor K in einem Schritt S5 bestimmt werden.
  • Mit einem bekannten Kalman-Filter als Abbildungsvorschrift können unterschiedliche Objektmerkmale O1, O2 zusammengelegt werden. Beispielsweise kann ein unscharfes Merkmal U1 und ein Punktmerkmal P1 zusammengelegt werden, wobei hier h die Funktion ist, welche den Abstand zwischen dem Punkt und dem Sensor beschreibt. Es kann auch ein unscharfes Merkmal U1 mit einem Linienmerkmal L1, L2 zusammengelegt werden. Dabei beschreibt die Innovationsfunktion h den Abstand von dem Linienmerkmal L1, L2 zu dem Sensor. Das Zusammenführen von zwei Punktmerkmalen P1 stellt den einfachsten Fall dar. Hier entspricht die Innovationsfunktion h der Identitätsfunktion.
  • Andere Merkmale können nicht auf einfache Weise mit einem herkömmlichen Kalman-Filter zusammengelegt werden. Dies gilt beispielsweise für das Zusammenlegen eines Linienmerkmals L1, L2 mit einem Punktmerkmal P1. Wenn sich aus den Sensordaten bzw. der Messung ein Punktmerkmal P1 ergibt, soll die Innovationsfunktion h eine Funktion sein, mittels welcher ein Punkt aus einer Linie erhalten wird. Dies entspricht genau der Diskretisierungsfunktion, aber es gibt eine unendliche Anzahl von Möglichkeiten, abhängig von der Wahl des Parameters t:
    Figure DE102016105023A1_0008
  • Daher ist zu überprüfen, ob die Mahalanobis-Distanz für viele verschiedene Werte von t erreicht wird. Dabei kann das Zusammenführen für den Wert von t durchgeführt werden, bei dem die Mahalanobis-Distanz minimal ist. Hier hat sich herausgestellt, dass eine derartige Vorgehensweise grundsätzlich möglich ist aber zeitintensiv ist.
  • Schließlich bleibt noch einer der wichtigsten Anwendungsfälle, der nicht mit der klassischen Formulierung des Kalman-Filters gelöst werden können, nämlich das Zusammenlegen von zwei Linienmerkmalen L1, L2. Ein einfacher Ansatz wäre es hier, die Identitätsfunktion für die Innovationsfunktion h zu wählen. Bei zwei Linienmerkmalen L1, L2, deren Basispunkte M1, M2 weit auseinander liegen und die aber vollkommen parallel und kollinear verlaufen, würden nicht zusammengeführt werden, weil die Mahalanobis-Distanz zu groß wäre. Dies ist eine Folge der Erhöhung der Dimension von 2 auf 3 (Basispunktdarstellung statt Hough-Darstellung) für die Linienmerkmale L1, L2.
  • Nachfolgend soll beschrieben werden, wie die Objektmerkmale O1, O2 zusammengeführt werden können. Hierzu können die Objektmerkmale O1, O2 in einen Zustandsraum überführt werden. In diesem Zustandsraum kann dann die Innovationsfunktion h bestimmt werden, welche die Ähnlichkeit zwischen den Objektmerkmalen O1, O2 beschreibt. In dem Zustandsraum können insbesondere nur die Zustände beschrieben werden, die für die Bestimmung der Ähnlichkeit bzw. der Innovationsfunktion h von Interesse sind. Die Innovationsfunktion h wird anhand der Objektmerkmale O1, O2 bestimmt. Mit der Innovationsfunktion h kann dann die Abbildungsvorschrift bestimmt werden, um aus dem ersten Objektmerkmal O1 das zusammengelegte Objektmerkmal zu bestimmen.
  • Anhand von 3 wir die Bestimmung der Innovationsfunktion h für zwei Linienmerkmale L1 und L2 erläutert. Das erste Linienmerkmal L1 weist einen ersten Startpunkt A1 und einen ersten Endpunkt B1 auf und das zweite Linienmerkmal L2 weist einen zweiten Startpunkt A2 und einen zweiten Endpunkt B2 auf. Das erste Linienmerkmal L1 weist einen ersten Basispunkt M1 auf und ist um einen ersten Winkel α1 gedreht. Das zweite Linienmerkmal L2 weist einen zweiten Basispunkt M1 auf und ist um einen zweiten Winkel α2 gedreht.
  • Vorliegend wird berücksichtigt, dass die Kenntnis der Position der Basispunkte M1, M2 in der Richtung der Linienmerkmale L1, L2 nicht erforderlich, um die Abweichung zwischen den beiden Linienmerkmalen L1, L2 zu definieren. Es soll ein Abstand d senkrecht zu ihrer Richtung und ihrer Abweichung in Bezug auf den Winkel betrachtet werden. Dies kann dadurch erreicht werden, dass der Abstand d als Abstand zwischen zwei parallelen Hilfslinien S1 und S2 die durch die jeweiligen Basispunkte M1, M2 mit einem Winkel αM führen, definiert wird. Dabei verläuft die erste Hilfslinie S1 durch den ersten Basispunkt M1 des ersten Linienmerkmals L1 und die zweite Hilfslinie S2 verläuft durch den zweiten Basispunkt M2 des zweiten Linienmerkmals L2. Der Winkel αM kann ein gewichteter Durchschnitt des Winkels α1, α2 jeder Linie L1, L2 mit der Unsicherheit des jeweiligen Winkels α1, α2 als Gewicht sein:
    Figure DE102016105023A1_0009
  • Ein weiterer Anteil der Innovationsfunktion h ist die Abweichung bezüglich der Winkel α1, α2. Die Innovationsfunktion h zwischen zwei Linienmerkmalen L1, L2 kann daher wie folgt definiert werden:
    Figure DE102016105023A1_0010
  • Vorliegend wird die Innovationsfunktion h zwischen zwei Zuständen definiert. Die bekannte Formulierung des Kalman-Filters ist daher anzupassen. Gegeben sind zwei Zufallsvektoren x1 und x2 sowie deren Erwartungen x ^1 und x ^2. Des Weiteren sind deren Kovarianzmatrizen P1 = E[(x1 – x ^1)(x1 – x ^1)T] und P2 = [(x2 – x ^2)(x2 – x ^2)T] gegeben. Ferner ist eine Innovationsfunktion h(x1, x2) gegeben. Es sollen ein erster Zustand und ein zweiter Zustand linear miteinander zusammengelegt werden: xn = x1 + Kh(x1, x2)
  • Zudem ist die der Verstärkungsfaktor K bzw. die Kalman-Verstärkung so zu bestimmen, dass die Kovarianzmatrix Pn = [(xn – x ^n)(xn – x ^n)T] minimal ist. Hierzu wird, wie zuvor beschrieben, die Innovationsfunktion h linearisiert:
    Figure DE102016105023A1_0011
  • Hieraus folgt: x ^n = x ^1 + Kh(x ^1, x ^2) xn – x ^n = x1 – x ^1 + K(H1(x1 – x ^1) + H2(x2 – x ^2)).
  • Die Kovarianzmatrix des zusammengelegten Ergebnisses und Verwendung der Notation C = E[(x1 – x ^1)(x2 – x ^2)T] ist daher die Korrelation zwischen den zwei Zuständen:
    Figure DE102016105023A1_0012
  • Der Verstärkungsfaktor K kann durch die Minimierung von eTPne für jeden Einheitsvektor bestimmt werden:
    Figure DE102016105023A1_0013
  • Hieraus ergibt sich:
    Figure DE102016105023A1_0014
  • Zudem wrd berücksichtigt, dass die beiden Zustände nicht miteinander korrelieren und damit gilt: C = 0. Hieraus ergibt sich der Verstärkungsfaktor K: K = –P1H T / 1(H1P1H T / 1 + H2P2H T / 2)–1.
  • Bei dieser Formulierung wird ein Kalman-Filter bereitgestellt, bei dem die Innovation als Funktion von zwei Zuständen und nicht von einem Zusatand alleine definiert ist.DieKovarianz der Innovation ist:
    Figure DE102016105023A1_0015
  • Damit ergibt sich die Mahalanobis-Distanz zu: h(x ^1, x ^2)T(H1P1H T / 1 + H2P2H T / 2)–1h(x ^1, x ^2)
  • Zudem ist die Kovarianz des zusammengeführten Ergebnisses zu berechnen:
    Figure DE102016105023A1_0016
  • Mit der oben beschriebenen Formulierung des Kalman-Filters können nun alle Arten von Objektmerkmalen O1, O2 auf einfache Weise zusammengeführt werden.
  • Wenn zwei Punktmerkmale P1 zusammengeführt werden sollen, kann die Innovationsfunktion h sowie die Faktoren H1 und H2 wie folgt bestimmt werden: h(x1, x2) = x1 – x2 H1 = 1 H2 = –1
  • In diesem Fall ergibt sich die Innovationsfunktion h aus der Differenz der beiden Zustände x1 und x2 und somit aus der Differenz der beiden Punktmerkmale P1. Die Punkte können dabei als zweidimensionale Vektoren in dem Zustandsraum definiert sein.
  • Falls zwei Linienmerkmale L1, L2 zusammengeführt werden sollen, kann die Innovationsfunktion h und die Faktoren H1, H2, wie zuvor im Zusammenhang mit 3 erläutert, wie folgt formuliert werden:
    Figure DE102016105023A1_0017
  • Zusätzlich zu der Mahalanobis-Distanz wird überprüft, ob sich die beiden Linien an einer Projektionslinie Z mit dem Winkel αM überlappen. Dies ist in 4 dargestellt. Hier sind, wie zuvor im Zusammenhang mit 3 erläutert, die beiden Linienmerkmale L1 und L2 dargestellt. Um zu überprüfen, ob die beiden Linienmerkmale L1 und L2 zusammengeführt werden sollen, wird zudem der Überlappungszustand der Linienmerkmale L1 und L2 überprüft.
  • Der Überlappungszustand kann dadurch überprüft werden, dass der jeweilige Startpunkt A1, A2 und der jeweilige Endpunkt B1, B2 der Linienmerkmale L1, L2 auf die Projektionslinie Z projiziert wird, welche vorliegend durch den Ursprung 0 mit dem Winkel αM verläuft. Hieraus ergeben sich auf der Projektionslinie Z die projizierten Startpunkte A'1, A'2 und die projizierten Endpunkte B'1, B'2. Die Koordinaten jedes Startpunkts A1, A2 und Endpunkts B1, B2 können in allgemeiner Form unter Berücksichtigung der Längen lstart_i, lend_i der Segmente der Linienmerkmale L1, L2 wie folgt dargestellt werden:
    Figure DE102016105023A1_0018
  • Die lineare Koordinate von jeder Projektion auf die Projektionslinie Z kann berechnet werden mit: tstart_i = (xi – lstart_icosαi)cosαM + (yi – lstart_isinαi)sinαM tend_i = (xi + lend_icosαi)cosαM + (yi + lend_isinαi)sinαM.
  • Durch das Sortieren der linearen Koordinaten in aufsteigender Reihenfolge ergibt sich: tmax_i = max(tstart_i, tend_i) tmin_i = min(tstart_i, tend_i).
  • Die Überlappungsbedingung ist dann: Falls tmax_2 > tmax_1 dann {tmax_1 > tmin_2}, sonst {tmax_2 > tmin_1}.
  • Die Überlappungsbedingung kann erweitert werden, um zu erreichen, dass zwei Liniensegmente, welche nicht überlappen aber nah aneinander angeordnet sind, zusammengeführt werden können: Falls tmax_2 > tmax_1 dann {tmax_1 > tmin_2||(tmin_2 – tmax_1 < Schwellwert)}, sonst{tmax_2 > tmin_1||(tmin_1 – tmax_2 < Schwellwert)}.
  • Das zusammengeführte Segment startet und endet an den äußeren Projektionen von allen vier Start- und Endpunkten A1, A2, B1, B2 der beiden ursprünglichen Linienmerkmale L1, L2. Vorliegend wird die längste Projektion verwendet.
  • Falls ein Linienmerkmal L1 als erstes Objektmerkmal O1 mit einem Punktmerkmal P1 als zweites Objektmerkmal O2 zusammengeführt werden soll, kann die Innovationsfunktion h als der vorzeichenbehaftete Abstand d zwischen dem Punktmerkmal P1 und dem Linienmerkmal L1 definiert werden.
    Figure DE102016105023A1_0019
  • Die Bestimmung der Innovationsfunktion h bei einem Punktmerkmal P1 und einem Linienmerkmal L1 ist in 5 veranschaulicht. Auch hier wird das Linienmerkmal L1 mit dem Startpunkt A1, dem Endpunkt B1 sowie dem Basispunkt M1 dargestellt. Des Weiteren ist der Winkel α1 des Linienmerkmals L1 dargestellt. Die Position des Punktmerkmals P1 ist durch einen zweidimensionalen Vektor gegeben. Hier wird ausgehend von dem Linienmerkmal L1 die Senkrechte bestimmt, welche durch das Punktmerkmal P1 verläuft. Auf diese Weise kann dann der Abstand d zwischen dem Punktmerkmal P1 und dem Linienmerkmals L1 und hieraus die Innovationsfunktion h bestimmt werden.
  • Falls ein Punktmerkmal P1 als erstes Objektmerkmal O1 mit einem Linienmerkmal L1 als zweites Objektmerkmal O2 zusammengeführt werden soll, kann die Innovationsfunktion h analog zu dem oben beschrieben Fall, bei dem das Linienmerkmal L1 mit Punktmerkmal P1 zusammengeführt wird, bestimmt werden:
    Figure DE102016105023A1_0020
  • Falls ein Punktmerkmal P1 als erstes Objektmerkmal O1 mit einem unscharfen Merkmal U1 als zweites Objektmerkmal O2 zusammengeführt werden soll, kann die Sensorposition Q1 mit den Koordinaten (xS, yS) und der gemessene Abstand bzw. der Objektabstand b bestimmt werden. Dies ist im Zusammenhang mit 6 erläutert. Hier ist die Sensorposition Q1 des Sensors 6, 7 und das Punktmerkmal P1 dargestellt. Mit dem Sensor 6, 7 wird ein Objektabstand b geliefert, dieser beschreibt den gemessenen Abstand zu dem Objekt 3. Zudem wird ein Punktabstand a zwischen der Sensorposition Q1 und dem Punktmerkmal P1 bestimmt. Die Innovationsfunktion h kann aus dem Abstand d zwischen Punktabstand a und dem Objektabstand b bestimmt werden:
    Figure DE102016105023A1_0021
  • Falls ein Linienmerkmal L1 als erstes Objektmerkmal O1 mit einem unscharfen Merkmal U1 als zweites Objektmerkmal O2 zusammengeführt werden soll, kann die Sensorposition Q1 mit den Koordinaten (xS, yS) und der gemessene Abstand bzw. der Objektabstand b bestimmt werden. Dies ist in 7 gezeigt. Hier ist die Sensorposition Q1 des Sensors 6, 7 und das Linienmerkmal L1 dargestellt. Mit dem Sensor 6, 7 wird ein Objektabstand b geliefert, dieser beschreibt den gemessenen Abstand zu dem Objekt 3. Zudem wird ein Linienabstand c zwischen der Sensorposition Q1 und dem Linienmerkmal L1 bestimmt. Die Innovationsfunktion h kann aus dem Abstand d zwischen Linienabstand c und dem Objektabstand b bestimmt werden:
    Figure DE102016105023A1_0022
  • Die Diskontinuität der Ableitung bei 0 bedeutet, dass ein unscharfes Zusammenführen nicht versucht werden soll, wenn die Linie nah an dem Sensor 6, 7 ist. In der praktischen Anwendung kann beispielsweise ein Ultraschallsensor erst ab einem Abstand von etwa 15 cm messen. Damit ergibt sich dieser Fall in der Praxis nicht.
  • Somit wurde insgesamt ein Verfahren gezeigt, wie unterschiedliche Objektmerkmale O1, O2 zusammengelegt werden können. Dies ist mit bekannten Kalman-Filtern nicht möglich. Schließlich umfasst die Erfindung auch Varianten der Kalman-Filter unter Verwendung der Unscented Transformation statt einer Linearisierung der Innovationsfunktion h. Das Verfahren kann auch auf andere Methoden übertragen werden, wie beispielweise Methoden zur simultanen Lokalisierung und Kartenerstellung (SLAM – Simultaneous Localization and Mapping).

Claims (15)

  1. Verfahren zum Erfassen zumindest eines Objekts (3) in einer Umgebung (4) eines Kraftfahrzeugs (1), bei welchem von zumindest einem Sensor (6, 7) des Kraftfahrzeugs (1) Sensordaten einer ersten Messung und Sensordaten einer zweiten Messung empfangen werden, aus den Sensordaten der ersten Messung ein erstes Objektmerkmal (O1) und aus den Sensordaten der zweiten Messung ein zweites Objektmerkmal (O2) bestimmt werden, und aus dem ersten Objektmerkmal (O1) anhand des zweiten Objektmerkmals (O2) ein zusammengelegtes Objektmerkmal zur Beschreibung des zumindest einen Objekts (3) bestimmt wird, dadurch gekennzeichnet, dass das erste Objektmerkmal (O1) und das zweite Objektmerkmal (O2) in einen gemeinsamen Zustandsraum überführt werden, in dem Zustandsraum eine Innovationsfunktion (h) bestimmt wird, welche eine Ähnlichkeit zwischen dem ersten Objektmerkmal (O1) und dem zweiten Objektmerkmal (O2) beschreibt, und das zusammengelegte Objektmerkmal aus dem ersten Objektmerkmal (O1) anhand der Innovationsfunktion (h) bestimmt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Innovationsfunktion (h) einen Abstand (d) zwischen dem ersten Objektmerkmal (O1) und dem zweiten Objektmerkmal (O2) und/oder einen Unterschied zwischen einer Orientierung des ersten Objektmerkmals (O1) und des zweiten Objektmerkmals (O2) beschreibt.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zum Bestimmen des zusammengelegten Objektmerkmals aus dem ersten Objektmerkmal (O1) eine lineare Abbildungsvorschrift bestimmt wird, welche die Innovationsfunktion (h) und einen Verstärkungsfaktor (K) für die Innovationsfunktion (h) umfasst, wobei der Verstärkungsfaktor (K) von einer räumlichen Unsicherheit des ersten Objektmerkmals (O1) und einer räumlichen Unsicherheit des zweiten Objektmerkmals (O2) abhängig ist.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Verstärkungsfaktor (K) derart bestimmt wird, dass eine räumliche Unsicherheit des zusammengelegten Objektmerkmals minimal ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand einer Kovarianz der Innovationsfunktion (h) eine Grenze bestimmt wird und das zweite Objektmerkmal (O2) bei der Bestimmung des zusammengelegten Objektmerkmals unberücksichtigt bleibt, falls die Innovationsfunktion (h) die Grenze überschreitet.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass falls das erste Objektmerkmal (O1) ein Punktmerkmal (P1) ist und das zweite Objektmerkmal (O2) ein Punktmerkmal (P1) ist, die Innovationsfunktion (h) aus dem Abstand (d) zwischen den Punktmerkmalen (P1) bestimmt wird.
  7. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass falls das erste Objektmerkmal (O1) ein Linienmerkmal (L1) ist und das zweite Objektmerkmal (O2) ein Linienmerkmal (L2) ist, die Innovationsfunktion (h) aus dem Abstand (d) zwischen den Linienmerkmalen (L1, L2) und einem Winkelunterschied zwischen den Linienmerkmalen (L1, L2) bestimmt wird.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass zwei parallele Hilfslinien (S1, S2) bestimmt werden, welche durch jeweilige Basispunkte (M1, M2) der Linienmerkmale (L1, L2) verlaufen, zum Bestimmen des Abstands (d) zwischen den Linienmerkmalen (L1, L2) ein Abstand (d) zwischen den Hilfslinien (S1, S2) bestimmt wird und zum Bestimmen des Winkelunterschieds zwischen den Linienmerkmalen (L1, L2) eine Differenz zwischen einen jeweiligen Winkeln (α1, α2) der Linienmerkmale (L1, L2) und einem Winkel (αM) der Hilfslinien (S1, S2) bestimmt wird.
  9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass die beiden Linienmerkmale (L1, L2) auf eine Projektionslinie (Z) projiziert werden, welche eine vorbestimmte Richtung aufweist, und das Bestimmen des zusammengelegten Objektmerkmals anhand der auf die Projektionslinie (Z) projizierten Linienmerkmale (L1, L2) bestimmt wird.
  10. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass falls das erste Objektmerkmal (O1) ein Linienmerkmal (L1) ist und das zweite Objektmerkmal (O2) ein Punktmerkmal (P1) ist oder falls das erste Objektmerkmal (O1) ein Punktmerkmal (P1) ist und das zweite Objektmerkmal (O2) ein Linienmerkmal (L1) ist, die Innovationsfunktion (h) aus dem Abstand (d) zwischen dem Punktmerkmal (P1) und dem Linienmerkmal (L1) bestimmt wird.
  11. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass falls das erste Objektmerkmal (O1) ein Punktmerkmal (P1) ist und das zweite Objektmerkmal (O1) ein unscharfes Merkmal (U1) ist, welches einen Objektabstand (b) zwischen einer Sensorposition (Q1) des Sensors (6, 7) und dem zumindest einen Objekt (3) beschreibt, ein Punktabstand (a), welcher den Abstand zwischen der Sensorposition (Q1) und dem Punktmerkmal (P1) beschreibt, bestimmt wird und die Innovationsfunktion (h) aus einer Differenz zwischen dem Punktabstand (a) und dem Objektabstand (b) bestimmt wird.
  12. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass falls das erste Objektmerkmal (O1) ein Linienmerkmal (L1) ist und das zweite Objektmerkmal (O2) ein unscharfes Merkmal (U1) ist, welches einen Objektabstand (b) zwischen einer Sensorposition (Q1) des Sensors (6, 7) und dem zumindest einen Objekt (3) beschreibt, ein Linienabstand (c), welcher den Abstand zwischen der Sensorposition (Q1) und dem Linienmerkmal (L1) beschreibt, bestimmt wird und die Innovationsfunktion (h) aus einer Differenz zwischen dem Linienabstand (c) und dem Objektabstand (b) bestimmt wird.
  13. Steuereinrichtung (5) für ein Fahrerassistenzsystem (2) eines Kraftfahrzeugs (1), welches zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.
  14. Fahrerassistenzsystem (2) für ein Kraftfahrzeug (1) mit einer Steuereinrichtung (5) nach Anspruch 13 und mit zumindest einem Sensor (6, 7).
  15. Kraftfahrzeug (1) mit einem Fahrerassistenzsystem (2) nach Anspruch 14.
DE102016105023.7A 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug Granted DE102016105023A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102016105023.7A DE102016105023A1 (de) 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
JP2018548755A JP6862465B2 (ja) 2016-03-18 2016-08-05 センサによる間接計測によって自動車の周囲の少なくとも1つの物体の検出を向上させる方法、コントローラ、運転者支援システム、及び自動車
US16/084,518 US10564282B2 (en) 2016-03-18 2016-08-05 Method for improving a detection of at least one object in surroundings of a motor vehicle by way of an indirect measurement by sensors, controller, driver assistance system, and motor vehicle
EP16747790.0A EP3430423B1 (de) 2016-03-18 2016-08-05 Verfahren zur verbesserung einer erfassung zumindest eines objekts in einer umgebung eines kraftfahrzeugs durch eine indirekte messung mit sensoren, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
CN201680083748.XA CN108780149B (zh) 2016-03-18 2016-08-05 通过传感器的间接测量来改进对机动车辆周围的至少一个物体的检测的方法,控制器,驾驶员辅助系统和机动车辆
PCT/EP2016/068797 WO2017157483A1 (de) 2016-03-18 2016-08-05 Verfahren zur verbesserung einer erfassung zumindest eines objekts in einer umgebung eines kraftfahrzeugs durch eine indirekte messung mit sensoren, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
KR1020187026830A KR102146175B1 (ko) 2016-03-18 2016-08-05 센서, 제어 장치, 운전자 보조 시스템, 및 자동차를 사용하는 간접 측정에 의해 자동차 주위에서 하나 이상의 물체의 검출을 향상시키는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016105023.7A DE102016105023A1 (de) 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Publications (1)

Publication Number Publication Date
DE102016105023A1 true DE102016105023A1 (de) 2017-09-21

Family

ID=59751648

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016105023.7A Granted DE102016105023A1 (de) 2016-03-18 2016-03-18 Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug

Country Status (1)

Country Link
DE (1) DE102016105023A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018104310A1 (de) * 2018-02-26 2019-08-29 Valeo Schalter Und Sensoren Gmbh Verfahren und System zum Nachverfolgen eines Objekts mittels Doppler-Messinformation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHENG, H. [et al.]: Interactive Road Situation Analysis for Driver Assistance and Safety Warning Systems: Framework and Algorithms. In: IEEE Transactions on Intelligent Transportation Systems, Vol. 8, No.1, März 2007. *
ZUTHER, S.: Multisensorsystem mit schmalbandigen Radarsensoren zum Fahrzeugseitenschutz. Dissertation, Fakultät für Ingenieurwissenschaften und Informatik der Universität Ulm, 2014. *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018104310A1 (de) * 2018-02-26 2019-08-29 Valeo Schalter Und Sensoren Gmbh Verfahren und System zum Nachverfolgen eines Objekts mittels Doppler-Messinformation

Similar Documents

Publication Publication Date Title
DE602004003811T2 (de) Objektdetektionssystem und verfahren zum erkennen eines objekts
DE69926868T2 (de) Strassenprofil-erkennung
WO2018069405A1 (de) Kraftfahrzeug und verfahren zur 360°-umfelderfassung
DE102014209137A1 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
EP3430423B1 (de) Verfahren zur verbesserung einer erfassung zumindest eines objekts in einer umgebung eines kraftfahrzeugs durch eine indirekte messung mit sensoren, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
EP1748301A2 (de) Verfahren zur Bestimmung einer Relativposition einer mobilen Einheit durch Vergleichen von Scans einer Umgebung und mobile Einheit
DE112018000107T5 (de) Fahrzeugkamerakalibrierungsvorrichtung und -Verfahren
EP2856390A1 (de) Verfahren und vorrichtung zur verarbeitung stereoskopischer daten
DE112015002593T5 (de) Fahrzeugmontierte bildverarbeitungsvorrichtung
DE102016216294A1 (de) Einrichtung zum Erkennen eines Hindernisses um ein Fahrzeug herum und Verfahren dafür
DE102017118156A1 (de) Verfahren zum Überwachen eines Umgebungsbereiches eines Kraftfahrzeugs, Sensorsteuergerät, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102018113559A1 (de) Verfahren zum Erkennen einer Fahrbahnmarkierung durch Validieren anhand der Linienbreite; Steuereinrichtung; Stellplatzerkennungssystem; sowie Fahrerassistenzsystem
DE102018222862A1 (de) Verfahren und System zur Lokalisierung einer Akustikquelle relativ zu einem Fahrzeug
DE10324897A1 (de) Verfahren und Vorrichtung zur Opjektbestimmung in Fahrerassistenzsystemen für Kraftfahrzeuge
DE102019132150A1 (de) Verfahren zum automatischen Kalibrieren eines Umfeldsensors, insbesondere eines Lidar-Sensors, eines Fahrzeugs auf Grundlage von Belegungskarten sowie Recheneinrichtung
DE102017205727A1 (de) Verfahren zum Kalibrieren eines Sensorsystems
DE102018128535A1 (de) Trainieren eines künstlichen neuronalen Netzwerks mit durch Sensoren eines Fahrzeugs erfassten Daten
DE102016105022A1 (de) Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch eine indirekte Messung mit Sensoren, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102019102769A1 (de) Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug
EP3278318A1 (de) Verfahren zum bereitstellen von höheninformationen eines objekts in einem umgebungsbereich eines kraftfahrzeugs an einer kommunikationsschnittstelle, sensoreinrichtung, verarbeitungseinrichtung und kraftfahrzeug
DE102018121866A1 (de) Verfahren zur Tiefenabschätzung von zweidimensionalen Sensordaten
DE102016105023A1 (de) Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs durch Zusammenlegen von Objektmerkmalen, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug
EP3663881B1 (de) Verfahren zur steuerung eines autonomen fahrzeugs auf der grundlage von geschätzten bewegungsvektoren
DE102014219428A1 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
EP3830754B1 (de) Verfahren und vorrichtung zum ermitteln einer erklärungskarte

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE

R018 Grant decision by examination section/examining division
R082 Change of representative