DE102016105022A1 - Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle - Google Patents

Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle Download PDF

Info

Publication number
DE102016105022A1
DE102016105022A1 DE102016105022.9A DE102016105022A DE102016105022A1 DE 102016105022 A1 DE102016105022 A1 DE 102016105022A1 DE 102016105022 A DE102016105022 A DE 102016105022A DE 102016105022 A1 DE102016105022 A1 DE 102016105022A1
Authority
DE
Germany
Prior art keywords
feature
sensor
determined
ellipse
fuzzy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016105022.9A
Other languages
German (de)
Inventor
Tino Milschewski
Jean-Francois Bariant
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Priority to DE102016105022.9A priority Critical patent/DE102016105022A1/en
Priority to CN201680083748.XA priority patent/CN108780149B/en
Priority to JP2018548755A priority patent/JP6862465B2/en
Priority to EP16747790.0A priority patent/EP3430423B1/en
Priority to KR1020187026830A priority patent/KR102146175B1/en
Priority to PCT/EP2016/068797 priority patent/WO2017157483A1/en
Priority to US16/084,518 priority patent/US10564282B2/en
Publication of DE102016105022A1 publication Critical patent/DE102016105022A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Erfassen zumindest eines Objekts (3) in einer Umgebung (4) eines Kraftfahrzeugs (1), bei welchem ein erster Sensor (6) zum Aussenden eines Sensorsignals angesteuert wird, von einem zweiten Sensor (6) Sensordaten empfangen werden, welche das von dem zumindest einen Objekt (3) reflektierte Sensorsignal beschreiben, aus den Sensordaten ein unscharfes Merkmal (xU) als Objektmerkmal (xP, xL, xU) zur Beschreibung des zumindest einen Objekts (3) bestimmt wird, wobei das unscharfe Merkmal (xU) einen Abstand zwischen dem zumindest einen Objekt (3) und einer Position (xS1) des ersten Sensors (6) und/oder einer Position (xS1) des zweiten Sensors (6) beschreibt, wobei das unscharfe Merkmal (xU) als Ellipse (xE) beschrieben wird, wobei Brennpunkte (xF1, xF1) der Ellipse (xU) anhand der Position (xS1) des ersten Sensors (6) und der Position (xS2) des zweiten Sensors (6) bestimmt werden, eine Länge einer großen Halbachse (a) der Ellipse (xE) anhand einer Laufzeit des Sensorsignals bestimmt wird und eine Länge einer kleinen Halbachse (b) der Ellipse (xE) anhand der Brennpunkte (xF1, xF1) und der Länge der großen Halbachse (a) bestimmt wird.The invention relates to a method for detecting at least one object (3) in an environment (4) of a motor vehicle (1), in which a first sensor (6) is driven to emit a sensor signal, sensor data are received by a second sensor (6) , which describe the sensor signal reflected by the at least one object (3), from the sensor data a blurred feature (xU) is determined as object feature (xP, xL, xU) for describing the at least one object (3), the fuzzy feature ( xU) describes a distance between the at least one object (3) and a position (xS1) of the first sensor (6) and / or a position (xS1) of the second sensor (6), the fuzzy feature (xU) being an ellipse ( xE), wherein focal points (xF1, xF1) of the ellipse (xU) are determined on the basis of the position (xS1) of the first sensor (6) and the position (xS2) of the second sensor (6), a length of a large semiaxis ( a) the ellipse (xE) based on a Lau Time of the sensor signal is determined and a length of a small half-axis (b) of the ellipse (xE) based on the focal points (xF1, xF1) and the length of the semi-major axis (a) is determined.

Description

Die vorliegende Erfindung betrifft ein Verfahren zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs, bei welchem ein erster Sensor zum Aussenden eines Sensorsignals angesteuert wird, von einem zweiten Sensor Sensordaten empfangen werden, welche das von dem zumindest einen Objekt reflektierte Sensorsignal beschreiben, aus den Sensordaten ein unscharfes Merkmal als Objektmerkmal zur Beschreibung des zumindest einen Objekts bestimmt wird, wobei das unscharfe Merkmal einen Abstand zwischen dem zumindest einen Objekt und einer Position des ersten Sensors und/oder einer Position des zweiten Sensors beschreibt. Zudem betrifft die Erfindung eine Steuereinrichtung sowie ein Fahrerassistenzsystem für ein Kraftfahrzeug. Schließlich betrifft die Erfindung ein Kraftfahrzeug.The present invention relates to a method for detecting at least one object in an environment of a motor vehicle, in which a first sensor is driven to emit a sensor signal, sensor data is received from a second sensor, which describe the sensor signal reflected by the at least one object Sensor data is a blurred feature as an object feature for describing the at least one object is determined, wherein the fuzzy feature describes a distance between the at least one object and a position of the first sensor and / or a position of the second sensor. In addition, the invention relates to a control device and a driver assistance system for a motor vehicle. Finally, the invention relates to a motor vehicle.

Aus dem Stand der Technik sind unterschiedliche Verfahren bekannt, mit denen Objekte in der Umgebung eines Kraftfahrzeugs erfasst werden können. Beispielsweise können die Objekte mit Hilfe von entsprechenden Sensoren, beispielsweise Ultraschallsensoren, Radarsensoren, Lasersensoren oder Kameras, erkannt werden. Des Weiteren ist es bekannt, anhand der Sensorsignale der Sensoren einen Abstand zwischen dem Kraftfahrzeug und dem Objekt bzw. eine relative Lage zwischen dem Kraftfahrzeug und dem Objekt zu bestimmen.Different methods are known from the prior art with which objects in the environment of a motor vehicle can be detected. For example, the objects can be detected with the aid of corresponding sensors, for example ultrasound sensors, radar sensors, laser sensors or cameras. Furthermore, it is known to use the sensor signals of the sensors to determine a distance between the motor vehicle and the object or a relative position between the motor vehicle and the object.

Insbesondere in Zusammenhang mit Ultraschallsensoren ist es bekannt, dass ein Objekt mit Hilfe einer indirekten Messung bestimmt werden kann. Zu diesem Zweck sendet ein erster Ultraschallsensor ein Ultraschallsignal aus. Dieses Ultraschallsignal wird dann an dem Objekt reflektiert und von einem zweiten Ultraschallsensor empfangen. Anhand der Laufzeit zwischen dem Aussenden des Ultraschallsignals von dem ersten Sensor und dem Empfangen des von dem Objekt reflektierten Ultraschallsignals mit dem zweiten Sensor kann dann ein Abstand des Objekts zu dem ersten Sensor und/oder dem zweiten Sensor bestimmt werden. Beispielsweise kann vereinfacht angenommen werden, dass sich das Objekt auf einem Kreis befindet, wobei der Mittelpunkt des Kreises mittig zwischen den beiden Sensoren bzw. den Positionen der beiden Sensoren angeordnet ist. Eine Winkelinformation bezüglich des Objekts kann aus einer solchen indirekten Messung aber nicht abgeleitet werden.In particular in connection with ultrasonic sensors, it is known that an object can be determined by means of an indirect measurement. For this purpose, a first ultrasonic sensor emits an ultrasonic signal. This ultrasonic signal is then reflected at the object and received by a second ultrasonic sensor. Based on the transit time between the emission of the ultrasound signal from the first sensor and the reception of the ultrasound signal reflected by the object with the second sensor, a distance of the object to the first sensor and / or the second sensor can then be determined. For example, it can be simplified to assume that the object is located on a circle, wherein the center of the circle is arranged centrally between the two sensors or the positions of the two sensors. An angular information regarding the object can not be derived from such an indirect measurement.

Darüber hinaus ist es aus dem Stand der Technik bekannt, die Ergebnisse von mehreren oder unterschiedlichen Sensoren zu fusionieren, um Objekte zuverlässiger erfassen zu können. Hierzu kann es beispielsweise vorgesehen sein, aus den Sensordaten, die von dem jeweiligen Sensor bereitgestellt werden, jeweils ein Objektmerkmal zu bestimmen, welches das Objekt beschreibt. Ein solches Objektmerkmal kann beispielsweise ein Punktmerkmal oder ein Linienmerkmal sein, welches das Objekt oder einen Teil davon beschreibt. Für das Objektmerkmal kann auch eine räumliche Unsicherheit bzw. Unschärfe bestimmt werden. Die Objektmerkmale können auch in eine digitale Umgebungskarte eingetragen werden, welche die Umgebung des Kraftfahrzeugs beschreibt. Zum Fusionieren der Messungen der verschiedenen Sensoren können die Objektmerkmale zusammengelegt werden.Moreover, it is known in the art to fuse the results of multiple or different sensors to more reliably detect objects. For this purpose, it can be provided, for example, to determine from the sensor data provided by the respective sensor, in each case an object feature which describes the object. Such an object feature may be, for example, a point feature or a line feature that describes the object or a part thereof. For the object feature also a spatial uncertainty or blur can be determined. The object features can also be entered in a digital environment map, which describes the environment of the motor vehicle. To merge the measurements of the various sensors, the object features can be merged.

Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie Objekte in einer Umgebung eines Kraftfahrzeugs insbesondere bei einer indirekten Messung mit Sensoren des Kraftfahrzeugs einfacher und zuverlässiger erfasst werden können.It is an object of the present invention to provide a solution, as objects in an environment of a motor vehicle, in particular in an indirect measurement with sensors of the motor vehicle can be detected easier and more reliable.

Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Steuereinrichtung, durch ein Fahrerassistenzsystem sowie durch ein Kraftfahrzeug mit den Merkmalen gemäß den jeweiligen unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden Erfindung sind Gegenstand der abhängigen Ansprüche.This object is achieved by a method by a control device, by a driver assistance system and by a motor vehicle with the features according to the respective independent claims. Advantageous developments of the present invention are the subject of the dependent claims.

Bei einer Ausführungsform eines Verfahrens zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs wird bevorzugt ein erster Sensor zum Aussenden eines Sensorsignals angesteuert. Ferner werden insbesondere von einem zweiten Sensor Sensordaten empfangen, welche das von dem zumindest einen Objekt reflektierte Sensorsignal beschreiben. Weiterhin ist es bevorzugt vorgesehen, dass aus den Sensordaten ein unscharfes Merkmal als Objektmerkmal zur Beschreibung des zumindest einen Objekts bestimmt wird, wobei das unscharfe Merkmal einen Abstand zwischen dem zumindest einen Objekt und einer Position des ersten Sensors und/oder einer Position des zweiten Sensors beschreibt. Insbesondere wird das unscharfe Merkmal als Ellipse beschrieben, wobei Brennpunkte der Ellipse anhand der Position des ersten Sensors und des zweiten Sensors bestimmt werden. Weiterhin wird eine große Halbachse der Ellipse bevorzugt anhand einer Laufzeit des Sensorsignals bestimmt und eine Länge einer kleinen Halbachse der Ellipse wird insbesondere anhand der Brennpunkte und der Länge der großen Halbachse bestimmt.In one embodiment of a method for detecting at least one object in an environment of a motor vehicle, a first sensor for emitting a sensor signal is preferably activated. Furthermore, sensor data are received, in particular from a second sensor, which describe the sensor signal reflected by the at least one object. Furthermore, it is preferably provided that from the sensor data, a blurred feature is determined as an object feature for describing the at least one object, wherein the fuzzy feature describes a distance between the at least one object and a position of the first sensor and / or a position of the second sensor , In particular, the fuzzy feature is described as an ellipse, wherein focal points of the ellipse are determined based on the position of the first sensor and the second sensor. Furthermore, a large semiaxis of the ellipse is preferably determined on the basis of a transit time of the sensor signal, and a length of a small semiaxis of the ellipse is determined in particular on the basis of the focal points and the length of the large semiaxis.

Ein erfindungsgemäßes Verfahren dient zum Erfassen zumindest eines Objekts in einer Umgebung eines Kraftfahrzeugs. Bei dem Verfahren wird ein erster Sensor zum Aussenden eines Sensorsignals angesteuert. Zudem werden von einem zweiten Sensor Sensordaten empfangen, welche das von dem zumindest einen Objekt reflektierte Sensorsignal beschreiben. Aus den Sensordaten wird ein unscharfes Merkmal als Objektmerkmal zur Beschreibung des zumindest einen Objekts bestimmt, wobei das unscharfe Merkmal einen Abstand zwischen dem zumindest einen Objekt und einer Position des ersten Sensors und/oder einer Position des zweiten Sensors beschreibt. Dabei wird das unscharfe Merkmal als Ellipse beschrieben, wobei Brennpunkte der Ellipse anhand der Position des ersten Sensors und des zweiten Sensors bestimmt werden, eine Länge einer großen Halbachse der Ellipse anhand einer Laufzeit des Sensorsignals bestimmt wird und eine Länge einer kleinen Halbachse der Ellipse anhand der Brennpunkte und der Länge der großen Halbachse bestimmt wird. An inventive method is used to detect at least one object in an environment of a motor vehicle. In the method, a first sensor for emitting a sensor signal is driven. In addition, sensor data are received from a second sensor, which describe the sensor signal reflected by the at least one object. From the sensor data, a blurred feature is determined as an object feature for describing the at least one object, wherein the fuzzy feature describes a distance between the at least one object and a position of the first sensor and / or a position of the second sensor. In this case, the fuzzy feature is described as an ellipse, wherein focal points of the ellipse are determined by the position of the first sensor and the second sensor, a length of a large half-axis of the ellipse is determined based on a transit time of the sensor signal and a length of a small half-axis of the ellipse based on the Focal points and the length of the semi-major axis is determined.

Mit Hilfe des Verfahrens sollen ein oder mehrere Objekte in der Umgebung des Kraftfahrzeugs erfasst bzw. erkannt werden. Das Verfahren kann beispielsweise mit einer Steuereinrichtung bzw. einem elektronischen Steuergerät des Kraftfahrzeugs durchgeführt werden. Mit der Steuereinrichtung kann ein erster Sensor des Kraftfahrzeugs angesteuert werden, so dass der erste Sensor in Folge der Ansteuerung ein Sensorsignal aussendet. Dieses ausgesendete Sensorsignal trifft dann auf das zumindest eine Objekt und wird von diesem reflektiert. Das reflektierte Sensorsignal bzw. das Echo des Sensorsignals wird dann von dem zweiten Sensor empfangen. Bei dem ersten und/oder dem zweiten Sensor kann es sich beispielsweise um Ultraschallsensoren handeln. Wenn der zweite Sensor das reflektierte Ultraschallsignal empfangen hat, stellt dieser Sensordaten bereit, welche an die Steuereinrichtung übertragen werden. Diese Sensordaten können beispielsweise mehrere Sensorwerte bzw. Messwerte umfassen, welche das reflektierte Sensorsignal beschreiben. Mit Hilfe der Steuereinrichtung kann nun anhand der Laufzeit zwischen dem Aussenden des Sensorsignals mit dem ersten Sensor und dem Empfangen des reflektierten Sensorsignals mit dem zweiten Sensor eine Laufzeit bestimmt werden. Anhand dieser Laufzeit kann nun ermittelt werden, wie weit das Objekt von dem ersten Sensor und/oder dem zweiten Sensor entfernt ist. Weiterhin ist es vorgesehen, dass mit Hilfe der Steuereinrichtung ein unscharfes Merkmal bzw. ein unscharfes Objektmerkmal bestimmt wird, welches zur Beschreibung des Objekts dient.With the help of the method, one or more objects in the environment of the motor vehicle should be detected or detected. The method can be carried out, for example, with a control device or an electronic control unit of the motor vehicle. With the control device, a first sensor of the motor vehicle can be controlled, so that the first sensor emits a sensor signal as a result of the control. This emitted sensor signal then hits the at least one object and is reflected by this. The reflected sensor signal or the echo of the sensor signal is then received by the second sensor. The first and / or the second sensor may be, for example, ultrasonic sensors. When the second sensor has received the reflected ultrasonic signal, it provides sensor data which is transmitted to the controller. These sensor data may include, for example, a plurality of sensor values or measured values which describe the reflected sensor signal. With the aid of the control device, a transit time can now be determined on the basis of the transit time between the emission of the sensor signal with the first sensor and the reception of the reflected sensor signal with the second sensor. On the basis of this transit time can now be determined how far the object from the first sensor and / or the second sensor is removed. Furthermore, it is provided that a blurred feature or a blurred object feature is determined by means of the control device, which serves to describe the object.

Ein solches unscharfes Merkmal stellt ein Objektmerkmal zur Beschreibung des Objekts dar. Das unscharfe Merkmal ergibt sich beispielsweise dadurch, dass anhand der Sensordaten bzw. der Laufzeit des Sensorsignals nur Abstandsinformationen bezüglich des Objekts abgeleitet werden können. Aus den Sensordaten können keine Winkelinformationen bezüglich des Objekts abgeleitet werden. Somit kann die relative Lage zwischen den Sensoren und dem Objekt nicht genau bestimmt werden. Das unscharfe Merkmal kann beispielsweise in eine digitale Umgebungskarte eingetragen werden, welche die Umgebung des Kraftfahrzeugs beschreibt. Dabei kann das unscharfe Merkmal auch mit einer räumlichen Unsicherheit bzw. einer Unschärfe in die Umgebungskarte eingetragen werden. In diese Umgebungskarte können auch weitere Objektmerkmale eingetragen werden. Diese Objektmerkmale können beispielsweise aus Messungen mit anderen Sensoren des Kraftfahrzeugs bestimmt worden sein. Es kann auch vorgesehen sein, dass diese weiteren Objektmerkmale mit dem ersten und/oder dem zweiten Sensor bestimmt wurden.Such a blurred feature represents an object feature for describing the object. The fuzzy feature results, for example, from the fact that based on the sensor data or the transit time of the sensor signal only distance information relating to the object can be derived. No angle information regarding the object can be derived from the sensor data. Thus, the relative position between the sensors and the object can not be determined accurately. The fuzzy feature can be entered, for example, in a digital environment map, which describes the environment of the motor vehicle. In this case, the fuzzy feature can be entered with a spatial uncertainty or a blur in the map. In this environment map also other object features can be entered. These object features may have been determined, for example, from measurements with other sensors of the motor vehicle. It can also be provided that these further object features were determined with the first and / or the second sensor.

Erfindungsgemäß ist es nun vorgesehen, dass das unscharfe Merkmal als Ellipse beschrieben wird, wobei Brennpunkte der Ellipse anhand der Position des ersten Sensors und des zweiten Sensors bestimmt werden. Die Positionen bzw. Einbaupositionen des ersten Sensors und des zweiten Sensors sind bekannt. Diese können beispielsweise in einem Speicher der Steuereinrichtung hinterlegt sein. Die Ellipse wird nun so bestimmt, dass die jeweiligen Positionen des ersten Sensors und des zweiten Sensors den beiden Brennpunkten der Ellipse zugeordnet werden. Des Weiteren wird die Länge der großen Halbachse der Ellipse anhand der Laufzeit des Sensorsignals bestimmt. Hierbei wird davon ausgegangen, dass sich das Objekt, von dem das Sensorsignal reflektiert wurde, auf der Ellipse befindet. Die Laufzeit des Sensorsignals beschreibt den Weg von einem ersten Brennpunkt zu dem Punkt auf der Ellipse, der das Objekt beschreibt, zuzüglich des Wegs von diesem Punkt zu einem zweiten Brennpunkt. Die Strecke, die der Laufzeit zugeordnet werden kann, entspricht also dem Zweifachen der großen Halbachse bzw. der Länge der großen Achse der Ellipse. Aus der Lage der Brennpunkte und der Länge der großen Halbachse kann die Länge der kleinen Halbachse abgeleitet werden. Die Ellipse kann somit auf einfache Weise anhand der bekannten Positionen der Sensoren und der Laufzeit, welche aus dem Sensorsignal bestimmt wird, ermittelt werden. Dadurch, dass das unscharfe Merkmal bei der indirekten Messung mit den Sensoren als Ellipse und nicht als Kreis beschrieben wird, kann eine genauere Information über die Lage des Objekts bereitgestellt werden. Dies ermöglicht insgesamt eine genauere und zuverlässigere Erfassung des zumindest einen Objekts.According to the invention, it is now provided that the fuzzy feature is described as an ellipse, wherein focal points of the ellipse are determined based on the position of the first sensor and the second sensor. The positions of the first sensor and the second sensor are known. These may for example be stored in a memory of the controller. The ellipse is now determined so that the respective positions of the first sensor and the second sensor are assigned to the two focal points of the ellipse. Furthermore, the length of the semi-major axis of the ellipse is determined on the basis of the transit time of the sensor signal. Here, it is assumed that the object from which the sensor signal was reflected is on the ellipse. The transit time of the sensor signal describes the path from a first focus to the point on the ellipse describing the object plus the path from that point to a second focus. The distance that can be assigned to the term thus corresponds to twice the large semiaxis or the length of the major axis of the ellipse. From the position of the foci and the length of the major half-axis, the length of the semi-minor axis can be derived. The ellipse can thus be determined in a simple manner on the basis of the known positions of the sensors and the transit time, which is determined from the sensor signal. Characterized in that the fuzzy feature is described in the indirect measurement with the sensors as an ellipse and not as a circle, a more accurate information about the position of the object can be provided. Overall, this allows a more accurate and reliable detection of the at least one object.

Bevorzugt wird eine Exzentrizität der Ellipse anhand eines Abstands der Brennpunkte bestimmt und die Länge der kleinen Halbachse wird aus der Länge der großen Halbachse und der Exzentrizität bestimmt. Da die jeweiligen Positionen bzw. Einbaupositionen der beiden Sensoren bekannt sind, kann auch der Abstand zwischen dem ersten Sensor und dem zweiten Sensor bestimmt werden. Dieser Abstand kann auch als Exzentrizität der Ellipse bezeichnet werden. Aus dieser Exzentrizität und der Länge der großen Halbachse der Ellipse kann dann die Länge der kleinen Halbachse der Ellipse bestimmt werden. Die Länge der kleinen Halbachse der Ellipse ergibt sich aus der Quadratwurzel der Länge der großen Halbachse zum Quadrat abzüglich der Exzentrizität zum Quadrat. Somit kann die Länge der kleinen Halbachse der Ellipse, welche das unscharfe Merkmal beschreibt, auf einfache Weise und innerhalb einer kurzen Rechenzeit bestimmt werden. Preferably, an eccentricity of the ellipse is determined on the basis of a distance of the focal points, and the length of the semi-minor axis is determined from the length of the major semiaxis and the eccentricity. Since the respective positions or installation positions of the two sensors are known, the distance between the first sensor and the second sensor can also be determined. This distance can also be referred to as eccentricity of the ellipse. From this eccentricity and the length of the semi-major axis of the ellipse then the length of the semi-minor axis of the ellipse can be determined. The length of the semi-minor axis of the ellipse is the square root of the length of the semimajor axis squared minus the eccentricity squared. Thus, the length of the semi-minor axis of the ellipse, which describes the fuzzy feature, can be determined easily and within a short computing time.

In einer weiteren Ausführungsform wird anhand von Sensordaten einer weiteren Messung des ersten und/oder des zweiten Sensors ein weiteres Objektmerkmal bestimmt, welches das zumindest eine Objekt beschreibt, und das unscharfe Merkmal wird mit dem Objektmerkmal zusammengelegt. Ein solches Objektmerkmal kann beispielsweise ein Punkt bzw. ein Punktmerkmal sein, welches eine Position des Objekts oder eines Teils davon im Raum beschreibt. Bei dem Objektmerkmal kann es sich auch um eine Linie bzw. ein Linienmerkmal handeln, welches eine Grenze eines Objekts oder eines Teils davon beschreibt. Solche Objektmerkmale sollen nun mit dem unscharfen Merkmal bzw. der Ellipse zusammengelegt werden, um das Objekt in der Umgebung näher charakterisieren zu können. Dabei kann es der Fall sein, dass das Objektmerkmal bereits in der Umgebungskarte eingetragen ist. Im Anschluss daran kann dann das unscharfe Merkmal bestimmt werden. Nun kann zunächst überprüft werden, ob das Objektmerkmal und das unscharfe Merkmal das gleiche Objekt in der Umgebung beschreiben. Es kann also überprüft werden, ob das unscharfe Merkmal dem Objektmerkmal zugeordnet werden kann. Falls eine Zuordnung erfolgt, kann überprüft werden, ob das unscharfe Merkmal mit dem Objektmerkmal zusammengelegt werden kann. Bei diesem Zusammenlegen, das auch als Merging bezeichnet werden kann, kann ausgehend von dem Objektmerkmal ein zusammengelegtes bzw. aktualisiertes Objektmerkmal bestimmt werden. Dieses zusammengelegte Objektmerkmal wird auf Grundlage des unscharfen Objektmerkmals bestimmt. Damit kann das Objekt zuverlässiger erfasst werden.In a further embodiment, based on sensor data of a further measurement of the first and / or the second sensor, a further object feature is determined, which describes the at least one object, and the fuzzy feature is merged with the object feature. Such an object feature can be, for example, a point or a point feature which describes a position of the object or a part thereof in space. The object feature may also be a line or a line feature that describes a boundary of an object or a part thereof. Such object features are now to be merged with the fuzzy feature or ellipse to further characterize the object in the environment. It may be the case that the object feature is already entered in the area map. Following this, the fuzzy feature can then be determined. Now it is possible to check first whether the object feature and the fuzzy feature describe the same object in the environment. It can therefore be checked whether the fuzzy characteristic can be assigned to the object feature. If an assignment is made, it can be checked whether the fuzzy feature can be merged with the object feature. In this merging, which can also be referred to as merging, based on the object feature, a merged or updated object feature can be determined. This merged object feature is determined based on the fuzzy object feature. This allows the object to be detected more reliably.

In einer weiteren Ausführungsform wird das weitere Objektmerkmal und das unscharfe Merkmal in einen gemeinsamen Zustandsraum überführt, in dem Zustandsraum wird eine Innovationsfunktion bestimmt, welche eine Ähnlichkeit zwischen dem Objektmerkmal und dem unscharfen Merkmal beschreibt und das zusammengelegte Objektmerkmal wird aus dem Objektmerkmal anhand der Innovationsfunktion bestimmt. Das weitere Objektmerkmal und das unscharfe Merkmal können in einen gemeinsamen Zustandsraum überführt bzw. transformiert werden. Dieser Zustandsraum kann beispielsweise ein gemeinsames Koordinatensystem für das weitere Objektmerkmal und das unscharfe Merkmal darstellen. Insbesondere kann der Zustandsraum von der Umgebungskarte verschieden sein. In dem Zustandsraum kann ein Zustand des weiteren Objektmerkmals und ein Zustand des unscharfen Merkmals beschrieben werden. In diesem Zustandsraum wird auch die Innovationsfunktion, welche ein Ähnlichkeitsmaß zum Bestimmen einer Ähnlichkeit zwischen dem weiteren Objektmerkmal und dem unscharfen Merkmal darstellen kann, bestimmt. Insbesondere kann die Innovationsfunktion beschreiben, wie ähnlich der Zustand des weiteren Objektmerkmals zu dem Zustand des unscharfen Merkmals ist. Mit Hilfe der Innovationsfunktion können die jeweiligen Zustände des weiteren Objektmerkmals und des unscharfen Merkmals so dargestellt werden, dass nur die Zustände und/oder Dimensionen berücksichtigt werden, welche auch für die Bestimmung der Ähnlichkeit von Interesse sind. Beispielsweise kann die Innovationsfunktion einen Abstand zwischen dem weiteren Objektmerkmal und dem unscharfen Merkmal oder einen Unterschied bezüglich der Orientierung des weiteren Objektmerkmals und des unscharfen Merkmals beschreiben. Anhand der Innovationsfunktion kann zunächst bestimmt werden, ob das unscharfe Merkmal dem weiteren Objektmerkmal zugeordnet werden kann. Falls die Zuordnung erfolgt ist, kann die Innovationsfunktion auch dafür genutzt werden, um aus dem weiteren Objektmerkmal das zusammengelegte Objektmerkmal abzuleiten. Somit kann die Innovationsfunktion mit einem geringen Rechenaufwand und dennoch zuverlässig bestimmt werden.In a further embodiment, the further object feature and the fuzzy feature are converted into a common state space, in the state space an innovation function is defined which describes a similarity between the object feature and the fuzzy feature and the merged object feature is determined from the object feature based on the innovation function. The further object feature and the fuzzy feature can be converted or transformed into a common state space. This state space can represent, for example, a common coordinate system for the further object feature and the fuzzy feature. In particular, the state space may be different from the environment map. In the state space, a state of the further object feature and a state of the fuzzy feature may be described. In this state space, the innovation function, which may represent a similarity measure for determining a similarity between the further object feature and the fuzzy feature, is also determined. In particular, the innovation function may describe how similar the state of the further object feature is to the state of the fuzzy feature. With the aid of the innovation function, the respective states of the further object feature and the fuzzy feature can be represented in such a way that only the states and / or dimensions are taken into account, which are also of interest for determining the similarity. For example, the innovation function may describe a distance between the further object feature and the fuzzy feature or a difference in the orientation of the further object feature and the fuzzy feature. On the basis of the innovation function, it can first be determined whether the fuzzy feature can be assigned to the further object feature. If the assignment has taken place, the innovation function can also be used to derive the merged object feature from the further object feature. Thus, the innovation function can be determined with little computational effort and yet reliable.

In einer Ausführungsform wird zum Bestimmen des zusammengelegten Objektmerkmals aus dem weiteren Objektmerkmal eine lineare Abbildungsvorschrift bestimmt, welche die Innovationsfunktion und einen Verstärkungsfaktor für die Innovationsfunktion umfasst, wobei der Verstärkungsfaktor von einer räumlichen Unsicherheit des weiteren Objektmerkmals und einer räumlichen Unsicherheit des unscharfen Merkmals abhängig ist. Um das zusammengelegte Objektmerkmal zu bestimmen, wird die lineare Abbildungsvorschrift ermittelt. Diese Abbildungsvorschrift kann auch als Filter bezeichnet werden. Grundsätzlich kann die Abbildungsvorschrift nach Art eines Kalman-Filters definiert sein. Um das zusammengelegte Objektmerkmal zu bestimmen, kann die Abbildungsvorschrift zu dem weiteren Objektmerkmal addiert werden. Die Abbildungsvorschrift kann die Innovationsfunktion und den Verstärkungsfaktor, mit dem die Innovationsfunktion multipliziert wird, enthalten. Dieser Verstärkungsfaktor kann auch als Kalman-Verstärkung bezeichnet werden. Der Verstärkungsfaktor kann in Abhängigkeit von der jeweiligen räumlichen Unsicherheit des weiteren Objektmerkmals und des unscharfen Merkmals bestimmt werden. Die räumliche Unsicherheit kann anhand der jeweiligen Erwartungen bzw. Erwartungswerte der Zustände bzw. der Merkmale bestimmt werden. Die räumliche Unsicherheit kann auch mit Hilfe der Kovarianz bzw. der Kovarianzmatrix der jeweiligen Zustände bzw. Merkmale bestimmt werden. Damit kann das zusammengeführte Objektmerkmal unter Berücksichtigung der räumlichen Unsicherheit bestimmt werden.In one embodiment, to determine the merged object feature from the further object feature, a linear mapping rule is determined that includes the innovation function and an amplification factor for the innovation function, where the amplification factor depends on spatial uncertainty of the further object feature and spatial uncertainty of the fuzzy feature. In order to determine the merged object feature, the linear mapping rule is determined. This mapping rule can also be referred to as a filter. In principle, the mapping rule can be defined in the manner of a Kalman filter. In order to determine the merged object feature, the mapping rule can be added to the further object feature. The mapping rule may include the innovation function and the amplification factor with which the innovation function is multiplied. This gain factor may also be referred to as Kalman gain. Of the Amplification factor can be determined as a function of the respective spatial uncertainty of the further object feature and the fuzzy feature. The spatial uncertainty can be determined on the basis of the respective expectations or expected values of the states or the characteristics. The spatial uncertainty can also be determined with the aid of the covariance or the covariance matrix of the respective states or features. Thus, the merged object feature can be determined taking into account the spatial uncertainty.

Weiterhin ist es vorteilhaft, wenn der Verstärkungsfaktor derart bestimmt wird, dass eine räumliche Unsicherheit des zusammengelegten Objektmerkmals minimal ist. Um das zusammengelegte Objektmerkmal möglichst zuverlässig zu bestimmen, kann der Verstärkungsfaktor so bestimmt werden, dass die räumliche Unsicherheit des zusammengelegten Objektmerkmals möglichst gering ist. Der Verstärkungsfaktor kann also so bestimmt werden, dass die Kovarianz bzw. die Kovarianzmatrix des zusammengelegten Objektmerkmals minimal ist. Die Kovarianzmatrix kann beispielsweise dadurch minimiert werden, dass die Eigenwerte der Kovarianzmatrix minimiert werden. Es können auch Einheitsvektoren der Kovarianzmatrix bestimmt werden und diese minimiert werden. Damit kann der Verstärkungsfaktor zuverlässig bestimmt werden.Furthermore, it is advantageous if the amplification factor is determined such that a spatial uncertainty of the merged object feature is minimal. In order to determine the merged object feature as reliably as possible, the amplification factor can be determined such that the spatial uncertainty of the merged object feature is minimized. The amplification factor can thus be determined so that the covariance or the covariance matrix of the merged object feature is minimal. The covariance matrix can be minimized, for example, by minimizing the eigenvalues of the covariance matrix. Also, unit vectors of the covariance matrix can be determined and minimized. Thus, the gain can be reliably determined.

Es kann auch vorgesehen sein, dass anhand der Innovationsfunktion eine Grenze bestimmt wird und das unscharfe Merkmal bei der Bestimmung des zusammengelegten Objektmerkmals unberücksichtigt bleibt, falls die Innovationsfunktion die Grenze überschreitet. Um zu entscheiden, ob das unscharfe Merkmal und das Objektmerkmal zusammengelegt werden sollen, kann die Innovationsfunktion genutzt werden. Insbesondere können die Erwartung der Innovationsfunktion und/oder die Kovarianz der Innovationsfunktion bestimmt werden. Hieraus kann eine Grenze, welche auch als Mahalanobis-Distanz bezeichnet wird, abgeleitet werden. Falls die Innovationsfunktion kleiner als diese Grenze ist, kann das zusammengelegte Objektmerkmal anhand dieser Innovationsfunktion bestimmt werden. Für den Fall, dass die Innovationsfunktion größer als diese Grenze ist, kann das unscharfe Merkmal nicht berücksichtigt werden.It can also be provided that a limit is determined on the basis of the innovation function and the fuzzy feature is disregarded when determining the merged object feature if the innovation function exceeds the limit. In order to decide whether the fuzzy feature and the object feature should be merged, the innovation function can be used. In particular, the expectation of the innovation function and / or the covariance of the innovation function can be determined. From this a boundary, which is also called Mahalanobis distance, can be derived. If the innovation function is smaller than this limit, the merged object feature can be determined using this innovation function. In the event that the innovation function is greater than this limit, the fuzzy feature can not be taken into account.

Bevorzugt wird als das weitere Objektmerkmal ein Punktmerkmal oder ein Linienmerkmal bestimmt. Ein solches Punktmerkmal kann beispielsweise dadurch bestimmt werden, dass das Objekt mit dem ersten Sensor und/oder dem zweiten Sensor zu mehreren zeitlich aufeinanderfolgenden Zeitpunkten bzw. in mehreren zeitlich aufeinanderfolgenden Messungen erfasst wird. Beispielsweise mit Hilfe von Triangulation kann die relative Lage zwischen dem ersten und/oder dem zweiten Sensor zu dem Objekt bestimmt werden. Bei dem weiteren Objektmerkmal kann es sich auch um eine Linie bzw. ein Linienmerkmal handeln, welches eine Grenze eines Objekts oder eines Teils davon beschreibt. Ein solches Linienmerkmal wird beispielsweise erhalten, wenn das Kraftfahrzeug an dem Objekt vorbeibewegt wird und während des Vorbeibewegens fortlaufend Messungen durchgeführt werden. Die jeweiligen Messwerte bzw. Sensordaten, welche den Abstand zu dem Objekt beschreiben, können dann zu einem Linienmerkmal zusammengefasst werden. Es kann auch vorgesehen sein, dass eine Mehrzahl von Messwerten bestimmt wird und eine Linie durch die Messwerte gelegt wird, um das Linienmerkmal zu erhalten.Preferably, a point feature or a line feature is determined as the further object feature. Such a point feature can be determined, for example, by detecting the object with the first sensor and / or the second sensor at a plurality of temporally successive time points or in a plurality of temporally successive measurements. For example, by means of triangulation, the relative position between the first and / or the second sensor can be determined to the object. The further object feature may also be a line or a line feature which describes a boundary of an object or a part thereof. Such a line feature is obtained, for example, when the motor vehicle is moved past the object and continuous measurements are made during the passing. The respective measured values or sensor data, which describe the distance to the object, can then be combined into a line feature. It can also be provided that a plurality of measured values is determined and a line is laid through the measured values in order to obtain the line feature.

Weiterhin ist es vorteilhaft, wenn zum Bestimmen der Innovationsfunktion ein Messmodell bestimmt wird, welches einen Abstand zwischen der Position des ersten Sensors oder der Position des zweiten Sensors einerseits und des Punktmerkmals oder des Linienmerkmals andererseits beschreibt. Das Messmodell kann beispielsweise in einem Messraum bestimmt werden. Wenn das weitere Objektmerkmal ein Punktmerkmal ist, kann das Messmodell den Abstand zwischen einem der Sensoren und dem Punktmerkmal beschreiben. Falls es sich bei dem weiteren Objektmerkmal um das Linienmerkmal handelt, kann das Messmodell den Abstand zwischen einem der Sensoren und dem Linienmerkmal beschreiben. Hierzu kann beispielsweise eine Senkrechte auf dem Linienmerkmal bestimmt werden, die durch die Position des ersten Sensors oder die Position des zweiten Sensors verläuft. Das Messmodell wird insbesondere in einem lokalen Koordinatensystem der Ellipse bestimmt. Dies ermöglicht die einfache Bestimmung des jeweiligen Messmodells.Furthermore, it is advantageous if, for determining the innovation function, a measurement model is determined which describes a distance between the position of the first sensor or the position of the second sensor on the one hand and the point feature or the line feature on the other hand. The measuring model can be determined, for example, in a measuring room. If the additional object feature is a point feature, the measurement model can describe the distance between one of the sensors and the point feature. If the further object feature is the line feature, the measurement model can describe the distance between one of the sensors and the line feature. For this purpose, for example, a perpendicular to the line feature can be determined, which runs through the position of the first sensor or the position of the second sensor. The measurement model is determined in particular in a local coordinate system of the ellipse. This allows the simple determination of the respective measurement model.

Falls das weitere Objektmerkmal das Punktmerkmal ist, wird zum Bestimmen des Messmodells insbesondere die Messellipse so bestimmt, dass das Punktmerkmal auf der Messellipse liegt. Es wird also eine Messellipse zum Bestimmen des Messmodells bestimmt. Diese Messellipse wird so bestimmt, dass das Punktmerkmal auf der Messellipse liegt. Es wird also überprüft, wie ein unscharfes Merkmal in Form einer Ellipse aussehen müsste, wenn mit diesem das Punktmerkmal als das Objekt gemessen wird. Das Messmodell beschreibt den Abstand zwischen einem der Sensorpositionen bzw. Brennpunkte zu dem Punktmerkmal. Dieser Abstand entspricht der großen Halbachse der Messellipse. Dies ermöglicht eine einfache Bestimmung des Messmodells für den Fall, dass das Objektmerkmal das Punktmerkmal ist.If the further object feature is the point feature, for determining the measurement model, in particular the measurement ellipse is determined in such a way that the point feature lies on the measurement ellipse. Thus, a measurement ellipse for determining the measurement model is determined. This measuring ellipse is determined so that the point feature lies on the measuring ellipse. Thus, it is checked how a blurred feature would look like an ellipse when measuring the point feature as the object. The measurement model describes the distance between one of the sensor positions or focal points to the point feature. This distance corresponds to the large semiaxis of the scale ellipse. This allows a simple determination of the measurement model in the event that the object feature is the point feature.

Falls das weitere Objektmerkmal das Linienmerkmal ist, wird zum Bestimmen des Messmodells insbesondere eine Messellipse so bestimmt, dass das Linienmerkmal tangential zu der Ellipse verläuft. Grundsätzlich könnte zum Bestimmen des Messmodells die Messellipse so bestimmt werden, dass sich diese mit dem Linienmerkmal schneidet. Hieraus ergeben sich aber zwei Schnittpunkte, wodurch keine eindeutige Lösung bestimmt werden kann. Daher wird die Messellipse so bestimmt, dass diese nur einen einzigen Schnittpunkt mit dem Linienmerkmal aufweist. Dies ist der Fall, wenn das Linienmerkmal tangential zu der Messellipse verläuft. Somit kann auch das Messmodell für den Fall, dass das Objektmerkmal das Linienmerkmal ist, auf einfache Weise bestimmt werden. If the further object feature is the line feature, in particular a measuring ellipse is determined for determining the measuring model such that the line feature runs tangentially to the ellipse. Basically, to determine the measurement model, the measurement ellipse could be determined such that it intersects with the line feature. But this results in two points of intersection, whereby no clear solution can be determined. Therefore, the Messellipse is determined so that it has only a single intersection with the line feature. This is the case when the line feature is tangent to the measurement ellipse. Thus, the measurement model for the case that the object feature is the line feature, can be determined easily.

Bevorzugt wird die Innovationsfunktion anhand eines Unterschieds zwischen der Länge der großen Halbachse der Ellipse und dem Messmodell bestimmt. Wie bereits erläutert beschreibt das Messmodell den Abstand zwischen einem der Brennpunkte und dem Punktmerkmal oder dem Linienmerkmal. Aus diesem Abstand kann die Länge der großen Halbachse der Messellipse bestimmt werden. Diese kann mit der Länge der großen Halbachse der Ellipse, welche als unscharfes Merkmal bestimmt wurde, verglichen werden. Somit kann bestimmt werden, wie sich die Ellipse als unscharfes Merkmal bzw. die gemessene Ellipse von der Messellipse unterscheidet. Somit kann auf einfache Weise die Ähnlichkeit zwischen dem unscharfen Merkmal bzw. der Ellipse und dem Objektmerkmal, dem Punktmerkmal oder dem Linienmerkmal, bestimmt werden.The innovation function is preferably determined on the basis of a difference between the length of the large semiaxis of the ellipse and the measurement model. As already explained, the measurement model describes the distance between one of the focal points and the point feature or the line feature. From this distance, the length of the major half-axis of the Messellipse can be determined. This can be compared with the length of the semi-major axis of the ellipse, which was determined as a blurred feature. Thus it can be determined how the ellipse differs as a blurred feature or the measured ellipse from the Messellipse. Thus, the similarity between the fuzzy feature or the ellipse and the object feature, the point feature or the line feature, can be determined in a simple manner.

Eine erfindungsgemäße Steuereinrichtung für ein Fahrerassistenzsystem eines Kraftfahrzeugs ist zum Durchführen eines erfindungsgemäßen Verfahrens ausgelegt ist. Die Steuereinrichtung kann einen Rechner, einen Mikroprozessor, einen digitalen Signalprozessor oder dergleichen umfassen. Bevorzugt ist die Steuereinrichtung durch ein elektronisches Steuergerät des Kraftfahrzeugs gebildet.A control device according to the invention for a driver assistance system of a motor vehicle is designed to carry out a method according to the invention. The controller may include a computer, a microprocessor, a digital signal processor, or the like. Preferably, the control device is formed by an electronic control unit of the motor vehicle.

Ein erfindungsgemäßes Fahrerassistenzsystem für ein Kraftfahrzeug umfasst eine erfindungsgemäße Steuereinrichtung sowie einen ersten Sensor und einen zweiten Sensor, welche insbesondere Ultraschallsensoren sind. Die Steuereinrichtung ist zur Datenübertragung mit dem ersten und dem zweiten Sensor verbunden. Der erste Sensor dient dabei als Sender zum Aussenden des Sensorsignals. Der zweite Sensor dient als Empfänger zum Empfangen des von dem zumindest einen Objekt reflektierten Sensorsignals. Es kann auch vorgesehen sein, dass das Fahrerassistenzsystem weitere Sensoren aufweist, welche ein Ultraschallsensor, eine Kamera, ein Radarsensor, ein Lidar-Sensor, ein Laserscanner oder dergleichen sein können.An inventive driver assistance system for a motor vehicle comprises a control device according to the invention as well as a first sensor and a second sensor, which are in particular ultrasonic sensors. The control device is connected to the first and the second sensor for data transmission. The first sensor serves as a transmitter for transmitting the sensor signal. The second sensor serves as a receiver for receiving the sensor signal reflected by the at least one object. It may also be provided that the driver assistance system has further sensors, which may be an ultrasound sensor, a camera, a radar sensor, a lidar sensor, a laser scanner or the like.

Ein erfindungsgemäßes Kraftfahrzeug umfasst ein erfindungsgemäßes Fahrerassistenzsystem. Das Kraftfahrzeug ist insbesondere als Personenkraftwagen ausgebildet.A motor vehicle according to the invention comprises a driver assistance system according to the invention. The motor vehicle is designed in particular as a passenger car.

Die mit Bezug auf das erfindungsgemäße Verfahren vorgestellten bevorzugten Ausführungsformen und deren Vorteile gelten entsprechend für die erfindungsgemäße Steuereinrichtung, das erfindungsgemäße Fahrerassistenzsystem sowie das erfindungsgemäße Kraftfahrzeug.The preferred embodiments presented with reference to the method according to the invention and their advantages apply correspondingly to the control device according to the invention, the driver assistance system according to the invention and the motor vehicle according to the invention.

Weitere Merkmale der Erfindung ergeben sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen, sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen. Es sind somit auch Ausführungen von der Erfindung als umfasst und offenbart anzusehen, die in den Figuren nicht explizit gezeigt und erläutert sind, jedoch durch separierte Merkmalskombinationen aus den erläuterten Ausführungen hervorgehen und erzeugbar sind. Es sind auch Ausführungen und Merkmalskombinationen als offenbart anzusehen, die somit nicht alle Merkmale eines ursprünglich formulierten unabhängigen Anspruchs aufweisen. Es sind darüber hinaus Ausführungen und Merkmalskombinationen, insbesondere durch die oben dargelegten Ausführungen, als offenbart anzusehen, die über die in den Rückbezügen der Ansprüche dargelegten Merkmalskombinationen hinausgehen oder abweichen.Further features of the invention will become apparent from the claims, the figures and the description of the figures. The features and feature combinations mentioned above in the description, as well as the features and combinations of features mentioned below in the description of the figures and / or shown alone in the figures, can be used not only in the respectively specified combination but also in other combinations or in isolation, without the frame to leave the invention. Thus, embodiments of the invention are to be regarded as encompassed and disclosed, which are not explicitly shown and explained in the figures, however, emerge and can be produced by separated combinations of features from the embodiments explained. Embodiments and combinations of features are also to be regarded as disclosed, which thus do not have all the features of an originally formulated independent claim. Moreover, embodiments and combinations of features, in particular by the embodiments set out above, are to be regarded as disclosed, which go beyond or deviate from the combinations of features set out in the back references of the claims.

Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert.The invention will now be described with reference to preferred embodiments and with reference to the accompanying drawings.

Dabei zeigen:Showing:

1 ein Kraftfahrzeug gemäß einer Ausführungsform der Erfindung, welches ein Fahrerassistenzsystem mit einer Mehrzahl von Sensoren zum Erfassen eines Objekts umfasst; 1 a motor vehicle according to an embodiment of the invention, which comprises a driver assistance system with a plurality of sensors for detecting an object;

2 einen Kreis, welcher zur Beschreibung der Position des Objekts bei einer direkten Messung der Sensoren herangezogen wird; 2 a circle, which is used to describe the position of the object in a direct measurement of the sensors;

3 eine Ellipse, welche zur Beschreibung der Position des Objekts bei einer indirekten Messung der Sensoren herangezogen wird; 3 an ellipse, which is used to describe the position of the object in an indirect measurement of the sensors;

4 die Ellipse aus 3 in einer weiteren Ausführungsform; 4 the ellipse off 3 in a further embodiment;

5 eine schematische Darstellung der Ellipse und eines Punktmerkmals, wobei das Punktmerkmal und die Ellipse zusammengelegt werden sollen; und 5 a schematic representation of the ellipse and a point feature, wherein the point feature and the ellipse to be merged; and

6 eine schematische Darstellung der Ellipse und eines Linienmerkmals, wobei das Linienmerkmal und die Ellipse zusammengelegt werden sollen. 6 a schematic representation of the ellipse and a line feature, wherein the line feature and the ellipse to be merged.

In den Figuren werden gleiche und funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.In the figures, identical and functionally identical elements are provided with the same reference numerals.

1 zeigt ein Kraftfahrzeug 1 gemäß einer Ausführungsform der vorliegenden Erfindung in einer Draufsicht. Das Kraftfahrzeug 1 ist vorliegend als Personenkraftwagen ausgebildet. Das Kraftfahrzeug 1 umfasst ein Fahrerassistenzsystem 2, mit welchem zumindest ein Objekt 3 in einer Umgebung 4 des Kraftfahrzeugs 1 erfasst werden kann. 1 shows a motor vehicle 1 according to an embodiment of the present invention in a plan view. The car 1 is designed here as a passenger car. The car 1 includes a driver assistance system 2 with which at least one object 3 in an environment 4 of the motor vehicle 1 can be detected.

Das Fahrerassistenzsystem 2 umfasst eine Steuereinrichtung 5, die beispielsweise durch ein elektronisches Steuergerät (ECU – Electronic Control Unit) des Kraftfahrzeugs 1 gebildet sein kann. Darüber hinaus umfasst das Fahrerassistenzsystem 2 eine Mehrzahl von Sensoren 6, 7. Bei den Sensoren 6, 7 kann es sich beispielsweise um Ultraschallsensoren, Kameras, Radarsensoren, Lidar-Sensoren, Laserscanner oder dergleichen handeln. In dem vorliegenden Ausführungsbeispiel umfasst das Fahrerassistenzsystem 2 zwölf Ultraschallsensoren 6, von denen sechs in einem Frontbereich 8 und sechs in einem Heckbereich 9 des Kraftfahrzeugs 1 angeordnet sind. Die Ultraschallsensoren 6 können beispielsweise an den Stoßfängern des Kraftfahrzeugs 1 angeordnet sein. Mit den jeweiligen Ultraschallsensoren 6 kann ein Ultraschallsignal ausgesendet werden und das von dem Objekt 3 reflektierte Ultraschallsignal wieder empfangen werden. Es kann auch eine indirekte Messung durchgeführt werden, bei welcher einer der Ultraschallsensoren 6 das Ultraschallsignal aussendet und ein benachbarter Ultraschallsensor 6 das von dem Objekt 3 reflektierte Ultraschallsignal empfängt.The driver assistance system 2 comprises a control device 5 , for example, by an electronic control unit (ECU - Electronic Control Unit) of the motor vehicle 1 can be formed. In addition, the driver assistance system includes 2 a plurality of sensors 6 . 7 , With the sensors 6 . 7 These may be, for example, ultrasonic sensors, cameras, radar sensors, lidar sensors, laser scanners or the like. In the present embodiment, the driver assistance system comprises 2 twelve ultrasonic sensors 6 of which six in a front area 8th and six in a tail area 9 of the motor vehicle 1 are arranged. The ultrasonic sensors 6 For example, at the bumpers of the motor vehicle 1 be arranged. With the respective ultrasonic sensors 6 an ultrasonic signal can be emitted and that of the object 3 reflected ultrasonic signal are received again. It is also possible to carry out an indirect measurement in which one of the ultrasonic sensors 6 emits the ultrasonic signal and an adjacent ultrasonic sensor 6 that of the object 3 reflected ultrasonic signal is received.

Darüber hinaus umfasst das Fahrerassistenzsystem 2 eine Kamera 7, mittels welcher das Objekt 3 erfasst werden kann. Der Kamera 7 kann einen Auswerteeinheit nachgeschaltet sein, mittels welcher die Bilder der Kamera 7 ausgewertet werden können. Das Objekt 3 kann beispielsweise mit einem entsprechenden Objekterkennungsalgorithmus erkannt werden. Die Ultraschallsensoren 6 und die Kamera 7 sind jeweils zur Datenübertragung mit der Steuereinrichtung 5 verbunden. Entsprechende Datenleitungen sind vorliegend der Übersichtlichkeit halber nicht dargestellt. Mit den Sensoren 6, 7 können jeweils Messungen durchgeführt werden, in denen Sensordaten erzeugt werden. Diese Sensordaten können dann von den jeweiligen Sensoren 6, 7 an die Steuereinrichtung 5 übertragen werden.In addition, the driver assistance system includes 2 a camera 7 by means of which the object 3 can be detected. The camera 7 can be followed by an evaluation unit, by means of which the images of the camera 7 can be evaluated. The object 3 can be detected, for example, with a corresponding object detection algorithm. The ultrasonic sensors 6 and the camera 7 are each for data transmission with the control device 5 connected. Corresponding data lines are not shown here for the sake of clarity. With the sensors 6 . 7 In each case measurements can be carried out in which sensor data are generated. These sensor data can then be from the respective sensors 6 . 7 to the controller 5 be transmitted.

Die Steuereinrichtung 5 kann dann anhand der Sensordaten, die sie von einem der Sensoren 6, 7 empfangen hat, ein Objektmerkmal xP, xL, xU bestimmen, welches das Objekt 3 beschreibt. Es kann auch vorgesehen sein, dass die Sensoren 6, 7 die Objektmerkmale selbst bestimmen und dann an die Steuereinrichtung 5 übertragen. Das Bestimmen der Objektmerkmale xP, xL, xU kann in einer sogenannten Merkmalsextraktionsebene erfolgen. Hierbei können Messwerte der Sensordaten kombiniert oder zusammengelegt werden. Die Objektmerkmale xP, xL, xU können beispielsweise in eine digitale Umgebungskarte, welche die Umgebung 4 des Kraftfahrzeugs 1 beschreibt, eingetragen werden. Bei den Objektmerkmalen xP, xL, xU kann es sich um Punktmerkmale xP, Linienmerkmale xL oder unscharfe Merkmale xU handeln.The control device 5 can then use the sensor data provided by one of the sensors 6 . 7 has an object feature x P , x L , x U determine which object 3 describes. It can also be provided that the sensors 6 . 7 determine the object features themselves and then to the controller 5 transfer. The determination of the object features x P , x L , x U can take place in a so-called feature extraction plane. Here, measured values of the sensor data can be combined or combined. The object features x P , x L , x U , for example, in a digital environment map showing the environment 4 of the motor vehicle 1 describes be entered. The object features x P , x L , x U may be point features x P , line features x L or fuzzy features x U.

Diese Objektmerkmale xP, xL, xU können in der Umgebungskarte aktualisiert werden. Dazu können neuen Objektmerkmale xP, xL, xU bestimmt werden. Wenn bereits ein Objektmerkmal xP, xL, xU in der Umgebungskarte vorhanden ist und ein neues Objektmerkmal xP, xL, xU bestimmt wird, kann zunächst überprüft werden, ob das neue Objektmerkmal xP, xL, xU dem in der Umgebungskarte vorhandenen Objektmerkmal xP, xL, xU zugeordnet werden kann. Wenn die Objektmerkmale xP, xL, xU einander zugeordnet werden, können die Objektmerkmale xP, xL, xU zusammengelegt werden. Falls keine Zuordnung erfolgt, kann das neue Objektmerkmal xP, xL, xU in die Umgebungskarte aufgenommen werden.These object features x P , x L , x U can be updated in the environment map. For this new object features x P , x L , x U can be determined. If an object feature x P , x L , x U is already present in the environment map and a new object feature x P , x L , x U is determined, it can first be checked whether the new object feature x P , x L , x U corresponds to the in the environment map existing object feature x P , x L , x U can be assigned. If the object features x P , x L , x U are assigned to one another, the object features x P , x L , x U can be combined. If no assignment takes place, the new object feature x P , x L , x U can be included in the environment map.

Die Objektmerkmale xP, xL, xU können aus den Sensordaten der Ultraschallsensoren 6 bestimmt werden. Anhand der Sensordaten der Ultraschallsensoren 6 kann ein Abstand zu dem Objekt 3 bestimmt werden. Hierzu sendet ein Ultraschallsensor 6 ein Ultraschallsignal aus und empfängt das von dem Objekt 3 reflektierte Ultraschallsignal wieder. Anhand der Laufzeit zwischen dem Aussenden des Ultraschallsignals und dem Empfangen des von dem Objekt 3 reflektierten Ultraschallsignals 3 kann dann der Abstand bestimmt werden. Falls das Fahrerassistenzsystem 2 – wie in dem Beispiel von 1 gezeigt – mehre Ultraschallsensoren 6 aufweist, können mit den Ultraschallsensoren 6 direkte und indirekte Messungen durchgeführt werden. The object features x P , x L , x U can be obtained from the sensor data of the ultrasonic sensors 6 be determined. Based on the sensor data of the ultrasonic sensors 6 can be a distance to the object 3 be determined. For this purpose, sends an ultrasonic sensor 6 an ultrasonic signal and receives that from the object 3 reflected ultrasound signal again. Based on the transit time between the emission of the ultrasonic signal and the receiving of the object 3 reflected ultrasonic signal 3 then the distance can be determined. If the driver assistance system 2 - as in the example of 1 shown - several ultrasonic sensors 6 can, with the ultrasonic sensors 6 direct and indirect measurements are carried out.

Eine direkte Messung des Ultraschallsensors 6 ist dabei schematisch in 2 dargestellt. Bei einer direkten Messung sendet der Ultraschallsensor 6 das Ultraschallsignal bzw. das Sensorsignal aus und empfängt auch das von dem Objekt 3 reflektierte Ultraschallsignal bzw. das Echo des Ultraschallsignals wieder. Aus der Laufzeit des Ultraschallsignals kann dann bestimmt werden, dass das Objekt 3 auf einem Kreis xK bzw. Halbkreis um den Ultraschallsensor 6 herum liegt. Der Radius des Kreises xK ergibt sich aus der Hälfte der Laufzeit des Ultraschallsignals. Die Pfeile 10 beschreiben dabei die Signalwege des Sensorsignals bzw. des Ultraschallsignals.A direct measurement of the ultrasonic sensor 6 is schematically in 2 shown. In a direct measurement, the ultrasonic sensor sends 6 the ultrasonic signal and the sensor signal and also receives that from the object 3 reflected ultrasound signal or the echo of the ultrasonic signal again. From the duration of the ultrasonic signal can then be determined that the object 3 on a circle x K or semicircle around the ultrasonic sensor 6 lies around. The radius of the circle x K results from the half of the transit time of the ultrasonic signal. The arrows 10 describe the signal paths of the sensor signal or the ultrasonic signal.

Eine indirekte Messung des Ultraschallsensors 6 ist schematisch in 3 veranschaulicht. Hierbei wird ein erster Ultraschallsensor 6 als Sender betreiben. Dieser Ultraschallsensor 6 befindet sich an einer Position xs1 und sendet das Ultraschallsignal aus. Ein zweiter bzw. benachbarter Ultraschallsensor 6, der sich an einer Position xs2 befindet, wird als Empfänger betrieben und empfängt das von dem Objekt 3 reflektierte Ultraschallsignal, welches von dem ersten Ultraschallsensor 6 ausgesendet wurde. Hierbei liegt das Objekt 3 auf einer Ellipse xE bzw. Halbellipse, wobei die Positionen xs1, xs2 der Ultraschallsensoren 6 jeweiligen Brennpunkten xF1 und xF2 der Ellipse xE zugeordnet sind.An indirect measurement of the ultrasonic sensor 6 is schematic in 3 illustrated. Here, a first ultrasonic sensor 6 operate as a transmitter. This ultrasonic sensor 6 is at a position x s1 and transmits the ultrasonic signal. A second or adjacent ultrasonic sensor 6 which is at a position x s2 is operated as a receiver and receives that from the object 3 reflected ultrasonic signal from the first ultrasonic sensor 6 was sent out. This is the object 3 on an ellipse x E or half ellipse, the positions x s1 , x s2 of the ultrasonic sensors 6 respective focal points x F1 and x F2 of the ellipse x E are assigned.

Wie bereits erläutert, können als Objektmerkmale xP, xL, xU Punktmerkmale xP oder Linienmerkmale xL durch die Kombination von Sensordaten, die in mehreren Messungen von den Ultraschallsensoren 6 erzeugt wurden, bestimmt werden. In einigen Fällen ist es jedoch nicht möglich, ein Objektmerkmal xP, xL, xU mit einer expliziten räumlichen Position zu bestimmten. Dies ist beispielsweise der Fall, wenn nicht ausreichend Sensordaten zur Verfügung stehen. In diesem Fall wird als das Objektmerkmal xP, xL, xU ein unscharfes Merkmal xU bereitgestellt. Bei einer direkten Messung wird dies dadurch beschrieben, dass ein Punkt auf der Sensorachse mit dem gemessenen Abstand von der Sensorposition platziert wird. Bei einer indirekten Messung wird die Ellipse durch einen Kreis angenähert, dessen Mittelpunkt xC der Durchschnitt der beiden Sensorpositionen xs1, xs2 ist. Dieser Mittelpunkt xC wird auch als virtuelle Sensorposition bezeichnet. Der Radius des Kreises entspricht der Länge der kleinen Halbachse a der Ellipse. Dies kann wie folgt beschrieben werden:

Figure DE102016105022A1_0002
As already explained, can be used as object characteristics P x, x L, x U x P point features or characteristics line x L by a combination of sensor data in a plurality of measurements from the ultrasonic sensors 6 were generated. However, in some cases it is not possible to determine an object feature x P , x L , x U with an explicit spatial position. This is the case, for example, if insufficient sensor data is available. In this case, a blurred feature x U is provided as the object feature x P , x L , x U. In a direct measurement, this is described by placing a point on the sensor axis with the measured distance from the sensor position. In an indirect measurement, the ellipse is approximated by a circle whose center x C is the average of the two sensor positions x s1 , x s2 . This center point x C is also called a virtual sensor position. The radius of the circle corresponds to the length of the semi-minor axis a of the ellipse. This can be described as follows:
Figure DE102016105022A1_0002

In ähnlicher Weise wird das unscharfe Merkmal xU auf der Achse des virtuellen Sensors unter Verwendung des berechneten Radius erzeugt. Auch wenn es nicht möglich ist, anhand der Sensordaten Punktmerkmale xP oder Linienmerkmale xL zu bestimmen, kann es vorgesehen sein, ein Punktmerkmal xP oder ein Linienmerkmal xL mit einem unscharfen Merkmal xU zusammenzulegen.Similarly, the fuzzy feature x U is generated on the axis of the virtual sensor using the calculated radius. Even if it is not possible to use the sensor data to determine point features x P or line features x L , it may be provided to combine a point feature x P or a line feature x L with a fuzzy feature x U.

Punktmerkmale xP, Linienmerkmale xL und unscharfe Merkmale xU werden als Gaußsche Zufallsvariablen x mit dem Erwartungswert E[x] = x ^ und der Kovarianzmatrix Cov[x] = E[(x – x ^)(x – x ^)T] = P beschrieben. Demnach wird ein Punktmerkmal xP = (xp, yp)T durch seine zweidimensionalen Koordinaten im Raum dargestellt. Ein Linienmerkmal xL = (xl, yl, αl)T wird durch einen Basispunkt bzw. Drehpunkt im zweidimensionalen Raum und einem Winkel αl der Linie beschrieben. Vorliegend wird die Länge der Linie stochastisch nicht modelliert. Schließlich wird ein unscharfes Merkmal xU durch eine skalare Zufallsvariable xU = du beschrieben, wobei du seine euklidische Distanz von der tatsächlichen oder virtuellen Sensorposition xS = (xS, yS)T ist.Point features x P , line features x L and fuzzy features x U are calculated as Gaussian random variables x with the expectation E [x] = x ^ and the covariance matrix Cov [x] = E [(x - x ^) (x - x ^) T ] = P. Thus, a point feature x P = (x p , y p ) T is represented by its two-dimensional coordinates in space. A line feature x L = (x 1 , y 1 , α 1 ) T is described by a base point or fulcrum in two-dimensional space and an angle α 1 of the line. In the present case, the length of the line is not stochastically modeled. Finally, a blurred feature x U is described by a scalar random variable x U = d u , where d u is its Euclidean distance from the actual or virtual sensor position x S = (x S , y S ) T.

Um die Objektmerkmale xP, xL, xU zusammenzulegen, wird eine Abbildungsfunktion in Form eines generischen, linearen Schätzers verwendet: x ' / 1 = x1 + Kh(x1, x2) To merge the object features x P , x L , x U , a mapping function in the form of a generic, linear estimator is used: x '/ 1 = x 1 + Kh (x 1 , x 2 )

Hierbei können x1 und x2 durch die oben beschriebenen Objektmerkmale xP, xL, xU, also ein Punktmerkmal xP, ein Linienmerkmal xP oder ein unscharfes Merkmal xU ersetzt werden. Hierzu wird nachfolgend insbesondere das Zusammenlegen eines Punktmerkmals xP mit einem unscharfen Merkmal xU oder das Zusammenlegen eines Linienmerkmals xL mit einem unscharfen Merkmal xU beschrieben. Durch die Abbildungsvorschrift werden zwei Objektmerkmale xP, xL, xU kombiniert, um weitere Informationen über das bereits vorhandene Objektmerkmal xP, xL, xU zu erhalten. Mit Hilfe der Abbildungsvorschrift kann aus dem ersten Zustand x1 bzw. dem ersten Objektmerkmal xP, xL, xU ein zusammengelegtes Objektmerkmal bzw. ein zusammengelegter Zustand x ' / 1 bestimmt werden. Zu diesem Zweck wird eine stochastische Innovationsfunktion h(x1, x2) verwendet.In this case, x 1 and x 2 can be replaced by the object features x P , x L , x U described above, that is to say a point feature x P , a line feature x P or a blurred feature x U. For this purpose, in particular the collapsing of a point feature x P with a fuzzy feature x U or the Merging a line feature x L with a fuzzy feature x U described. The mapping rule combines two object features x P , x L , x U to obtain further information about the already existing object feature x P , x L , x U. With the aid of the mapping rule, from the first state x 1 or the first object feature x P , x L , x U, a combined object feature or a merged state can be obtained x '/ 1 be determined. For this purpose a stochastic innovation function h (x 1 , x 2 ) is used.

Die Innovationsfunktion h beschreibt eine Ähnlichkeit zwischen den Objektmerkmalen xP, xL, xU bzw. deren Zuständen. Die Abbildungsvorschrift bzw. die Innovationsfunktion h kann auch nicht linear sein. In diesem Fall kann die Innovationsfunktion h dann linearisiert werden. Dies kann mit Hilfe einer Taylor-Reihe der ersten Ordnung erfolgen:

Figure DE102016105022A1_0003
The innovation function h describes a similarity between the object features x P , x L , x U or their states. The mapping rule or the innovation function h can also not be linear. In this case, the innovation function h can then be linearized. This can be done with the help of a Taylor series of the first order:
Figure DE102016105022A1_0003

Dabei sind die Faktoren H1 und H2 die Jacobi-Matrizen. Des Weiteren umfasst die Abbildungsvorschrift einen Verstärkungsfaktor K bzw. eine Verstärkungsmatrix. Der Verstärkungsfaktor K wird dadurch bestimmt, dass die Projektion eTP ' / 1e minimiert wird, wobei e jeder Einheitsvektor sein kann, welcher optimal für den verwendeten Schätzer bzw. die Abbildungsvorschrift in der linearen Form verwendet werden kann. Der Verstärkungsfaktor K kann wie folgt beschrieben werden: K = –P1H T / 1(H1P1H T / 1 + H2P2H T / 2)–1. The factors H 1 and H 2 are the Jacobi matrices. Furthermore, the mapping rule comprises a gain factor K or a gain matrix. The gain K is determined by the projection e T P '/ 1e where e may be any unit vector that can be optimally used for the estimator or mapping rule used in the linear form. The gain K can be described as follows: K = -P 1 HT / 1 (H 1 P 1 HT / 1 + H 2 P 2 HT / 2) -1 .

Vorliegend wird berücksichtigt, dass x1 und x2 nicht korreliert sind. Damit ergibt sich E[(x1 – x ^1)(x2 – x ^2)T] = 0. Somit ergibt sich das zusammengelegte Ergebnis und die aktualisierte Kovarianzmatrix zu:

Figure DE102016105022A1_0004
In the present case it is considered that x 1 and x 2 are uncorrelated. This yields E [(x 1 - x ^ 1 ) (x 2 - x ^ 2 ) T ] = 0. Thus, the merged result and the updated covariance matrix result in:
Figure DE102016105022A1_0004

Um zu überprüfen, ob die Objektmerkmale xP, xL, xU bzw. die Zustände einander zuzuordnen sind, wird die sogenannte Mahalanobis-Distanz definiert:

Figure DE102016105022A1_0005
In order to check whether the object features x P , x L , x U or the states are to be assigned to one another, the so-called Mahalanobis distance is defined:
Figure DE102016105022A1_0005

Durch die Mahalanobis-Distanz wird eine Grenze vorgegeben. Falls diese Grenze unterschritten wird, ist eine Zuordnung der Zustände bzw. Objektmerkmale xP, xL, xU plausibel. Zudem kann ein Abstand d, ein Unterschied bezüglich der Orientierung oder weiteren geometrische Untersuchungen herangezogen werden, um die Plausibilität zu prüfen.The Mahalanobis distance sets a limit. If this limit is undershot, an assignment of the states or object features x P , x L , x U is plausible. In addition, a distance d, a difference in orientation or further geometric investigations can be used to check the plausibility.

Um zu überprüfen, ob die Objektmerkmale xP, xL, xU einander zugeordnet und zusammengelegt werden sollen, ist eine geeignete Innovationsfunktion h für die Objektmerkmale xP, xL, xU zu bestimmen. Nachfolgend werden Modelle für das Zusammenlegen von Punktmerkmalen xP mit unscharfen Merkmalen xL und das Zusammenlegen von Linienmerkmalen xL mit unscharfen Merkmalen xL erläutert. Beiden Modelle werden als die Differenz zwischen einem Messmodell aP, aL und einem gemessenen Objektabstand du des unscharfen Merkmals xU bestimmt. Das Messmodell aP, aL kann hierzu in einem Messraum überführt werden, um es mit den aktuellen Messungen vergleichen zu können.To check whether the object x features, x L, x U are to be associated with each other and merged P, is an appropriate innovation function h for the object features x P, x x U to determine L. Subsequently, the models for merging of point features x P with blurred features are x L and the folding line of features x L x L with blurred features explained. Both models are determined as the difference between a measurement model a P , a L and a measured object distance du of the fuzzy feature x U. For this purpose, the measurement model a P , a L can be transferred in a measurement space in order to be able to compare it with the current measurements.

Wenn ein Punktmerkmal xP mit einem unscharfen Merkmal xU zusammengelegt werden soll, ist das Messmodell aP der Euklidsche Abstand dP zwischen dem Punktmerkmal xP und der Sensorposition xS. Die Innovationsfunktion h ergibt sich zu:

Figure DE102016105022A1_0006
When a point feature x P is to be merged with a fuzzy feature x U , the measurement model a P is the Euclidean distance d P between the point feature x P and the sensor position x S. The innovation function h results in:
Figure DE102016105022A1_0006

Wenn ein Linienmerkmal xL mit einem unscharfen Merkmal xU zusammengelegt werden soll, ist das Messmodell aL der absolute Wert des Abstands dL zwischen dem Linienmerkmal xL und der Sensorposition xS. Die Innovationsfunktion h ergibt sich zu:

Figure DE102016105022A1_0007
When a line feature x L is to be merged with a fuzzy feature x U , the measurement model a L is the absolute value of the distance d L between the line feature x L and the sensor position x S. The innovation function h results in:
Figure DE102016105022A1_0007

Eine grafische Beschreibung der beiden Innovationsfunktionen h wird nachfolgend näher erläutert.A graphic description of the two innovation functions h will be explained in more detail below.

Wie zuvor beschrieben, werden unscharfe Merkmale xU als kreisförmige Abstandsmessungen mit dem Abstand du von einer Sensorposition xS beschreiben.As described above , fuzzy features x U are described as circular distance measurements with the distance d u from a sensor position x S.

Dieses Modell wird unabhängig von der Art der Messung verwendet, durch welche das unscharfe Merkmal erzeugt wird. Bei einer direkten Messung mit einem Ultraschallsensor 6 beschreibt dieses Modell die vorhandenen Informationen bezüglich des Signalwegs. Für indirekte Messungen mit dem Ultraschallsensor 6 stellt ein solches Modell nur eine Annäherung dar, deren Genauigkeit davon abhängt, wie ähnlich die Ellipse zu einem Kreis ist. Um diese Einschränkung zu beheben, wird zunächst die Beschreibung eines unscharfen Merkmals xU erweitert, um auch Informationen aus einer indirekten Messung speichern zu können. Des Weiteren wird die Innovationsfunktion h bestimmt, um Punktmerkmale xP und Linienmerkmale xL mit unscharfen Merkmalen xU in Form der elliptischen Abstandsmessungen zusammenführen zu können.This model is used regardless of the type of measurement that produces the fuzzy feature. In a direct measurement with an ultrasonic sensor 6 this model describes the information available regarding the signal path. For indirect measurements with the ultrasonic sensor 6 Such a model is only an approximation, the accuracy of which depends on how similar the ellipse is to a circle. In order to remedy this limitation, the description of a fuzzy feature x U is first extended to also be able to store information from an indirect measurement. Furthermore, the innovation function h is determined in order to be able to combine point features x P and line features x L with fuzzy features x U in the form of the elliptical distance measurements.

4 zeigt eine schematische Darstellung einer Ellipse xE als unscharfes Merkmal xU. Eine Ellipse xE kann mathematisch auf unterschiedlich Weisen beschrieben werden. Eine übliche Beschreibung ist es, eine Ellipse xE als Punktemenge anzusehen, deren Summe der Euklidschen Abstände zu den beiden Brennpunkten xF1 = (xf1, yf1)T und xF2 = (xf2, yf2)T der Länge der großen Hauptachse 2a entspricht:

Figure DE102016105022A1_0008
4 shows a schematic representation of an ellipse x E as a blurred feature x U. An ellipse x E can be described mathematically in different ways. A common description is to consider an ellipse x E as a set of points, the sum of the Euclidian distances to the two foci x F1 = (x f1 , y f1 ) T and x F2 = (x f2 , y f2 ) T the length of the large main axis 2a corresponds to:
Figure DE102016105022A1_0008

Der Vorteil dieser Beschreibung ist, dass diese unabhängig von jedem kartesischen Koordinatensystem ist. Zudem kann die Ellipse xE durch die implizite Ellipsen-Gleichung unter Verwendung der großen Halbachse a und der kleinen Halbachse b beschrieben werden:

Figure DE102016105022A1_0009
The advantage of this description is that it is independent of any Cartesian coordinate system. In addition, the ellipse x E can be described by the implicit ellipse equation using the major semiaxis a and the minor semiaxis b:
Figure DE102016105022A1_0009

Diese Gleichung ist in dem Koordinatensystem der Ellipse xE beschrieben, in welchem die x-Achse an der großen Halbachse a und die y-Achse an der kleinen Halbachse b orientiert ist. Die Ellipse xE ist dabei im einen Winkel α geneigt. Eine weitere Eigenschaft der Ellipse xE ist die sogenannte Exzentrizität e: e = √a² – b². This equation is described in the coordinate system of the ellipse x E , in which the x-axis is oriented at the large semiaxis a and the y-axis at the small semiaxis b. The ellipse x E is inclined at an angle α. Another property of the ellipse x E is the so-called eccentricity e: e = √ a² - b² ,

Die Exzentrizität e beschreibt den Abstand zwischen jedem Brennpunkt xF1, xF2 und dem Mittelpunkt xC = (xc, yc)T der Ellipse xE. Eine lineare Exzentrizität e ergibt sich durch 0 ≤ e < a. Für den Fall e = 0, dass die Exzentrizität 0 ist, wäre die Ellipse xE ein Kreis. Wenn e = a gilt, würde die Ellipse xE zu einer Linie degenerieren.The eccentricity e describes the distance between each focal point x F1 , x F2 and the center x C = (x c , y c ) T of the ellipse x E. A linear eccentricity e is given by 0 ≤ e <a. For the case e = 0, that the eccentricity is 0, the ellipse x E would be a circle. If e = a, the ellipse would degenerate x E into a line.

Um eine erweiterte Beschreibung eines unscharfen Merkmals xU zu erlagen, müssen mit der Merkmalextraktionsschicht alle verfügbaren Informationen zu der indirekten Messung mit den Ultraschallsensoren 6 an die digitale Umgebungskarte übertragen. Beispielsweise müssen die Positionen xS der beiden Ultraschallsensoren 6 und die Informationen zur Laufzeit des Ultraschallsignals bekannt sein. Aus der Laufzeit kann dann die Länge der großen Halbachse a bestimmt werden: α = Laufzeitabstand/2. Aus dem Abstand der Ultraschallsensoren 6 kann die Exzentrizität e bestimmt werden: e = Sensorabstand/2. Hieraus kann dann die Länge der kleinen Halbachse b bestimmt werden: b = √a² – e². To obtain an extended description of a fuzzy feature x U, the feature extraction layer requires all available information for the indirect measurement with the ultrasonic sensors 6 transferred to the digital environment map. For example, the positions x S of the two ultrasonic sensors 6 and the information about the duration of the ultrasonic signal to be known. The length of the large semiaxis a can then be determined from the transit time: α = transit time distance / 2. From the distance of the ultrasonic sensors 6 the eccentricity e can be determined: e = sensor distance / 2. From this, the length of the small semiaxis b can then be determined: b = √ a² - e² ,

Dabei wird davon ausgegangen, dass der Abstand zwischen den Ultraschallsensoren 6 bzw. der Sensorabstand vollständig bekannt ist. Dieser kann beispielsweise in einem Speicher der Steuereinrichtung 5 hinterlegt sein. Die Unsicherheit der Messung spiegelt sich in der Länge der großen Halbachse a und der Länge der kleinen Halbachse b wider. Da die Längen der beiden Halbachse a, b voneinander und von der linearen Exzentrizität e abhängig sind, wird die Unsicherheit der Ellipse xE vollständig durch die Betrachtung einzelner skalarer Zufallsvariablen a oder b für die Halbachsen a, b wiedergegeben. Da mit den Ultraschallsensoren a ^ direkt gemessen wird, wird ein unscharfes Merkmal xU stochastisch durch die Länge der großen Halbachse a bestimmt. Hieraus ergibt sich xU = au, wobei au als Gaußsche Größe modelliert wird. Darüber hinaus werden entweder beide Sensorpositionen xS, welche durch die Brennpunkte xF1 und xF2 beschrieben sind, oder eine Zusammenstellung aus dem Mittelpunkt xC der Ellipse, der linearen Exzentrizität e und die Orientierung α der Ellipse xE benötigt, um das unscharfe Merkmal eindeutig zu spezifizieren.It is assumed that the distance between the ultrasonic sensors 6 or the sensor distance is completely known. This can, for example, in a memory of the control device 5 be deposited. The uncertainty of the measurement is reflected in the length of the large semiaxis a and the length of the small semiaxis b. Since the lengths of the two semiaxes a, b depend on each other and on the linear eccentricity e, the uncertainty of the ellipse x E is completely reproduced by considering individual scalar random variables a or b for the semiaxes a, b. Since a ^ is measured directly with the ultrasonic sensors, a blurred feature x U is determined stochastically by the length of the large semiaxis a. This results in x U = a u , where a u is modeled as Gaussian size. In addition, either both sensor positions x S, which are described by the focal points x F1 and x F2, or a compilation from the center x C of the ellipse, the linear eccentricity e and the orientation α of the ellipse x E required to the fuzzy feature to specify clearly.

Zur Bestimmung der Zuordnung und des Zusammenlegens sind zwei Innovationsfunktionen h(xP, xU) und h(xL, xU) zu bestimmen, mit denen Punktmerkmale xP und Linienmerkmalen xL mit unscharfen Merkmalen xU zusammengelegt werden können. Die Innovationsfunktionen h werden so bestimmt, dass diese einen Unterschied zwischen einem Messmodell a(x) und der großen Halbachse a der gemessenen Ellipse xE berücksichtigen: h(x, xU) = h(x, au) = a(x) – aU. To determine the assignment and the collapsing, two innovation functions h (x P , x U ) and h (x L , x U ) are to be determined, with which point features x P and line features x L with fuzzy features x U can be combined. The innovation functions h are determined in such a way that they take into account a difference between a measurement model a (x) and the large semiaxis a of the measured ellipse x E : h (x, x U ) = h (x, a u ) = a (x) - a U.

Hierbei kann der Zustand x durch den Zustand eines Punktmerkmals xP oder den Zustand eines Linienmerkmals xL ersetzt werden. Das Messmodell aP(xP) kann die Länge der großen Halbachse a der Ellipse xE bestimmen, auf der das Punktmerkmal xP liegen würde, wenn er mit dem Ultraschallsensor 6 oder mehreren Ultraschallsensoren 6 gemessen wird. Wenn ein Linienmerkmal xL mit dem unscharfen Merkmal xU zusammengelegt werden soll, bestimmt das Messmodell aL(xL) die Länge der großen Halbachse a der Ellipse xE, zu welcher das Linienmerkmal xL tangential verlaufen würde. Dabei kann berücksichtigt werden, dass das Linienmerkmal xL aus einer Messung mit den gleichen Ultraschallsensoren 6 bestimmt wurde, aus deren Messung auch das unscharfe Merkmal xU bestimmt wurde.Here, the state x may be replaced by the state of a point feature x P or the state of a line feature x L. The measurement model a P (x P ) can determine the length of the large semiaxis a of the ellipse x E on which the point feature x P would lie when used with the ultrasonic sensor 6 or more ultrasonic sensors 6 is measured. When a line feature x L is to be merged with the fuzzy feature x U , the measurement model a L (x L ) determines the length of the major semiaxis a of the ellipse x E at which the line feature x L would be tangent. It can be considered that the line feature x L from a measurement with the same ultrasonic sensors 6 from whose measurement the fuzzy characteristic x U was determined.

Nachfolgend wird die Bestimmung der Messmodelle für die Punktmerkmale xP und Linienmerkmale xP erläutert. Die Bestimmung des Messmodells aP für das Zusammenlegen des Punktmerkmals xP mit der Ellipse xE wird anhand von 5 erläutert, welche eine schematische Darstellung des Punktmerkmals xP und der Ellipse xE zeigt. Bei einem Punktmerkmal xP wird das Messmodell aus folgender Definition abgeleitet:

Figure DE102016105022A1_0010
The determination of the measurement models for the point features x P and line features x P will be explained below. The determination of the measurement model a P for merging the point feature x P with the ellipse x E is based on 5 which shows a schematic representation of the point feature x P and the ellipse x E. For a point feature x P , the measurement model is derived from the following definition:
Figure DE102016105022A1_0010

Zum Bestimmen des Messmodells aP wird vorliegend eine Messellipse x'E bestimmt. Diese Messellipse x'E wird so bestimmt, dass das Punktmerkmal xP auf der Messellipse x'E liegt. Diese Definition muss für jedes Punktmerkmal xE auf der Messellipse x'E eingehalten werden. Hieraus kann die Länge der großen Halbachse a der Messellipse x'E bestimmt werden:

Figure DE102016105022A1_0011
To determine the measurement model a P , a measurement ellipse x ' E is determined in the present case. This measuring ellipse x ' E is determined such that the point feature x P lies on the measuring ellipse x' E. This definition must be adhered to for each point feature x E on the measuring ellipse x ' E. From this, the length of the large semiaxis a of the measuring ellipse x ' E can be determined:
Figure DE102016105022A1_0011

Dies gilt für a > e. Wenn die Bedingung a = e erfüllt ist, liegt das Punktmerkmal xP auf der Linie, welche die Brennpunkte xF1, xF2 miteinander verbindet. In diesem Fall kann keine gültige Messung aus dem Punktmerkmal xP abgeleitet werden. Für alle anderen Punktmerkmale xP können gültige Ellipsen bestimmt werden. Das Messmodell aP ergibt sich aus dem Abstand d zwischen dem ersten Brennpunkt xF1 und dem Punktmerkmal xP.This applies to a> e. If the condition a = e is satisfied, the point feature x P lies on the line connecting the foci x F1 , x F2 . In this case, no valid measurement can be derived from the point feature x P. For all other point features x P valid ellipses can be determined. The measurement model a P results from the distance d between the first focus x F1 and the point feature x P.

Dieses Modell wird für die Innovationsfunktion h verwendet:

Figure DE102016105022A1_0012
This model is used for the innovation function h:
Figure DE102016105022A1_0012

Nach der Linearisierung der Innovationsfunktion h können die Jacobi-Mrizen

Figure DE102016105022A1_0013
und
Figure DE102016105022A1_0014
bestimmt werden:
Figure DE102016105022A1_0015
After the linearization of the innovation function h, the Jacobi-Mrizen
Figure DE102016105022A1_0013
and
Figure DE102016105022A1_0014
be determined:
Figure DE102016105022A1_0015

Die Jacobi-Matrix

Figure DE102016105022A1_0016
ist definiert für alle Punkte außer
Figure DE102016105022A1_0017
Dieser kann aber nicht vorkommen wenn gilt, dass
Figure DE102016105022A1_0018
The Jacobi matrix
Figure DE102016105022A1_0016
is defined for all points except
Figure DE102016105022A1_0017
This can not happen if it is true that
Figure DE102016105022A1_0018

Die Bestimmung des Messmodells aL für das Zusammenlegen des Linienmerkmals xL mit der Ellipse xE wird anhand von 6 erläutert, welche eine schematische Darstellung des Linienmerkmals xL und der Ellipse xE zeigt. Das Messmodell aL für ein Linienmerkmal xL kann dadurch bestimmt werden, dass das Linienmerkmal xL mit der Messellipse x'E geschnitten wird. Da die Lösung eindeutig sein muss, darf es nur einen Schnittpunkt geben. Dies bedeutet, dass die Linie bzw. das Linienmerkmal xL tangential zu der Messellipse x'E verlaufen muss. In einem ersten Schritt, wird die Lösung aus einem Linienmerkmal xL hergeleitet, das in dem lokalen Koordinatensystem der Ellipse xE vorliegt. Danach kann das Messmodell aL erweitert werden, so dass Linienmerkmale xL in jedem kartesischen Koordinatensystem verwendet werden können.The determination of the measurement model a L for merging the line feature x L with the ellipse x E is based on 6 which shows a schematic representation of the line feature x L and the ellipse x E. The measurement model a L for a line feature x L can be determined by cutting the line feature x L with the measurement ellipse x ' E. Since the solution must be unique, there must be only one point of intersection. This means that the line or the line feature x L has to run tangentially to the measuring ellipse x ' E. In a first step, the solution is derived from a line feature x L existing in the local coordinate system of the ellipse x E. Thereafter, the measurement model a L can be extended so that line features x L can be used in each Cartesian coordinate system.

Um die Schnittpunkte zu bestimmen, wird die Linie bzw. das Linienmerkmal xL in der expliziten Parameterform beschrieben:

Figure DE102016105022A1_0019
To determine the points of intersection, the line or line feature x L is described in the explicit parameter form:
Figure DE102016105022A1_0019

Diese wird in die implizite Ellipsen-Gleichung eingesetzt:

Figure DE102016105022A1_0020
This is used in the implicit ellipse equation:
Figure DE102016105022A1_0020

Die Gleichung wird für einen Parameter t gelöst, da hieraus die Schnittpunkte abgeleitet werden können. Da die Gleichung quadratisch ist, wird sie in die Form einer allgemeinen quadratisch Gleichung gebracht. Danach wird gelöst:

Figure DE102016105022A1_0021
The equation is solved for a parameter t, because from this the intersection points can be derived. Since the equation is quadratic, it is put into the form of a general quadratic equation. After that is solved:
Figure DE102016105022A1_0021

Um eine eindeutige Lösung zu erhalten, muss die Diskriminante 0 sein: 0 = p2 – q. To get a unique solution, the discriminant must be 0: 0 = p 2 - q.

Diese Vorgabe kann für a dadurch gelöst warden, dass p und q eingesetzt werden und b2 = a2 – e2 ersetzt wird durch:

Figure DE102016105022A1_0022
This requirement can be solved for a by substituting p and q and replacing b 2 = a 2 - e 2 with:
Figure DE102016105022A1_0022

Diese Lösung zur Berechnung der Länge der großen Halbachse a gilt für Linienmerkmale xL, welche in dem lokalen Koordinatensystem der Ellipse xE definiert sind. Daher muss das Linienmerkmal xL in das lokale Koordinatensystem der Ellipse xE transformiert werden:

Figure DE102016105022A1_0023
This solution for calculating the length of the major semiaxis a is valid for line features x L , which are defined in the local coordinate system of the ellipse x E. Therefore, the line feature x L must be transformed into the local coordinate system of the ellipse x E :
Figure DE102016105022A1_0023

Durch einsetzten der Transformationen in die Lösung ergibt sich:

Figure DE102016105022A1_0024
By using the transformations into the solution we get:
Figure DE102016105022A1_0024

Schließlich wird der Reihenvektor umgeschrieben zu:

Figure DE102016105022A1_0025
Figure DE102016105022A1_0026
und ebenfalls eingesetzt. Dies führt zu:
Figure DE102016105022A1_0027
Finally, the series vector is rewritten to:
Figure DE102016105022A1_0025
Figure DE102016105022A1_0026
and also used. This leads to:
Figure DE102016105022A1_0027

Es sei darauf hingewiesen, dass eine Drehung der Kippstellung des Linienmerkmals xL in dem ersten Term völlig verschwindet und dass in dem zweiten Term nur eine Winkeltransformation erforderlich ist. Eine Drehung des Punktmerkmals xP ist nicht erforderlich, da der erste Ausdruck das Quadrat des Abstands zwischen dem Linienmerkmal xL und dem Mittelpunkt xC der Ellipse xE ist und dies invariant ist. Die erhaltene Lösung ist nur gültig, wenn gilt a > e. Wenn diese Bedingung nicht gilt, schneidet sich das Linienmerkmal xL mit dem Liniensegment zwischen den beiden Brennpunkten xF1, xF2. In diesem Fall kann keine korrekte Ellipse xE aus dem Linienmerkmal xL hergeleitet werden.It should be noted that a rotation of the tilted position of the line feature x L completely disappears in the first term and that in the second term only one angle transformation is required. A rotation of the point feature x P is not required since the first term is the square of the distance between the line feature x L and the center x C of the ellipse x E and this is invariant. The solution obtained is valid only if a> e. If this condition does not hold, the line feature x L intersects with the line segment between the two foci x F1 , x F2 . In this case, no correct ellipse x E can be derived from the line feature x L.

Geometrisch gesprochen wird das Messmodell aL durch die Projektion eines der Brennpunkte xF1, xF2 auf das Linienmerkmal xL und der Berechnung ihres euklidischen Abstands d zu dem Mittelpunkt xC der Ellipse xE bestimmt. Mit diesem Ansatz kann leicht gezeigt werden, dass die Bedingung a = e eingehalten wird, falls das Linienmerkmal xL auf einem oder beiden Brennpunkten xF1, xF2 liegt.Geometrically speaking, the measurement model a L is calculated by the projection of one of the focal points x F1 , x F2 on the line feature x L and the calculation of its Euclidean distance d to the center x C of the ellipse x E determined. With this approach, it can be easily shown that the condition a = e is maintained if the line feature x L lies at one or both focal points x F1 , x F2 .

Die oben beschriebene Lösung wird für die Innovationsfunktion h verwendet, welche wie folgt beschrieben wird:

Figure DE102016105022A1_0028
The solution described above is used for the innovation function h, which is described as follows:
Figure DE102016105022A1_0028

Ferner werden die Jacobi-Matrizen werden bestimmt:

Figure DE102016105022A1_0029
Figure DE102016105022A1_0030
Furthermore, the Jacobi matrices are determined:
Figure DE102016105022A1_0029
Figure DE102016105022A1_0030

Die Jacobi-Matrix

Figure DE102016105022A1_0031
ist definiert für alle Fälle außer
Figure DE102016105022A1_0032
In diesem Fall ist das Linienmerkmal xL senkrecht zu der Hauptachse der Ellipse xE und verläuft durch den Mittelpunkt xC der Ellipse xE. Dieser Fall wurde bereits durch die Vorgabe
Figure DE102016105022A1_0033
ausgeschlossen.The Jacobi matrix
Figure DE102016105022A1_0031
is defined for all cases except
Figure DE102016105022A1_0032
In this case, the line feature x L is perpendicular to the major axis of the ellipse x E and passes through the center x C of the ellipse x E. This case was already by default
Figure DE102016105022A1_0033
locked out.

Schließlich wird gezeigt, dass die bestimmten Innovationsfunktionen h für die Ellipsen xE einer Verallgemeinerung der bereits bestehenden Modelle für Kreise ist. Für den speziellen Fall eines Kreises, für den beispielsweise gilt: e = 0 oder xF1 = xF2 = xC = xS, sind die zuvor bestimmten Messmodelle mathematisch gleich:

Figure DE102016105022A1_0034
Finally, it is shown that the determined innovation functions h for the ellipses x E is a generalization of the already existing models for circles. For the special case of a circle, for example: e = 0 or x F1 = x F2 = x C = x S , the previously determined measurement models are mathematically the same:
Figure DE102016105022A1_0034

Es sei angemerkt, dass die Normalline der bestehenden Messmodelle für Linien in entgegengesetzte Richtung zeigt.It should be noted that the normal line of the existing measurement models for lines pointing in the opposite direction.

Vorliegend wurde eine indirekte Messung anhand von Ultraschallsensoren 6 erläutert. Eine solche indirekte Messung kann auch mit anderen Sensoren des Kraftfahrzeugs 1, beispielsweise Laserscannern, Lidar-Sensoren oder Radarsensoren durchgeführt werden. Es kann auch vorgesehen sein, dass die Sensordaten von weiteren Sensoren des Kraftfahrzeugs 1 genutzt werden. Beispielsweise können aus den Messungen der Kamera 7 Objektmerkmale erzeugt werden und in die Umgebungskarte eingetragen werden. Auf diese Weise kann das Objekt 3 zuverlässig erfasst werden.In the present case, an indirect measurement using ultrasonic sensors 6 explained. Such indirect measurement can also be done with other sensors of the motor vehicle 1 , For example, laser scanners, lidar sensors or radar sensors are performed. It can also be provided that the sensor data of further sensors of the motor vehicle 1 be used. For example, from the measurements of the camera 7 Object features are generated and entered in the map. That way the object can be 3 be reliably detected.

Claims (15)

Verfahren zum Erfassen zumindest eines Objekts (3) in einer Umgebung (4) eines Kraftfahrzeugs (1), bei welchem ein erster Sensor (6) zum Aussenden eines Sensorsignals angesteuert wird, von einem zweiten Sensor (6) Sensordaten empfangen werden, welche das von dem zumindest einen Objekt (3) reflektierte Sensorsignal beschreiben, aus den Sensordaten ein unscharfes Merkmal (xU) als Objektmerkmal (xP, xL, xU) zur Beschreibung des zumindest einen Objekts (3) bestimmt wird, wobei das unscharfe Merkmal (xU) einen Abstand zwischen dem zumindest einen Objekt (3) und einer Position (xS1) des ersten Sensors (6) und/oder einer Position (xS1) des zweiten Sensors (6) beschreibt, dadurch gekennzeichnet, dass das unscharfe Merkmal (xU) als Ellipse (xE) beschrieben wird, wobei Brennpunkte (xF1, xF1) der Ellipse (xU) anhand der Position (xS1) des ersten Sensors (6) und der Position (xS2) des zweiten Sensors (6) bestimmt werden, eine Länge einer großen Halbachse (a) der Ellipse (xE) anhand einer Laufzeit des Sensorsignals bestimmt wird und eine Länge einer kleinen Halbachse (b) der Ellipse (xE) anhand der Brennpunkte (xF1, xF1) und der Länge der großen Halbachse (a) bestimmt wird.Method for detecting at least one object ( 3 ) in an environment ( 4 ) of a motor vehicle ( 1 ), in which a first sensor ( 6 ) is driven to emit a sensor signal, from a second sensor ( 6 ) Sensor data is received, which the from the at least one object ( 3 ), from the sensor data, a blurred feature (x U ) as an object feature (x P , x L , x U ) for describing the at least one object ( 3 ), the fuzzy feature (x U ) defining a distance between the at least one object ( 3 ) and a position (x S1 ) of the first sensor ( 6 ) and / or a position (x S1 ) of the second sensor ( 6 ) Describes, characterized in that the fuzzy feature (U x) is described (as an ellipse x E), the focal points (x F1, x F1) of the ellipse (x U) (based on the position (x S1) of the first sensor 6 ) and the position (x S2 ) of the second sensor ( 6 ), a length of a semimajor axis (a) of the ellipse (x E ) is determined on the basis of a transit time of the sensor signal, and a length of a semi-minor axis (b) of the ellipse (x E ) on the basis of the focal points (x F1 , x F1 ) and the length of the major half-axis (a) is determined. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Exzentrizität (e) der Ellipse (xE) anhand eines Abstands der Brennpunkte (xF1, xF1) bestimmt wird und die Länge der kleinen Halbachse (b) aus der Länge der großen Halbachse (a) und der Exzentrizität (e) bestimmt wird.Method according to claim 1, characterized in that an eccentricity (e) of the ellipse (x E ) is determined on the basis of a spacing of the foci (x F1 , x F1 ) and the length of the semi-minor axis (b) is determined from the length of the semi-major axis ( a) and the eccentricity (e) is determined. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass anhand von Sensordaten einer weiteren Messung des ersten und/oder des zweiten Sensors (6) ein weiteres Objektmerkmal (xP, xL) bestimmt wird, welches das zumindest eine Objekt (3) beschreibt, und das unscharfe Merkmal (xU) mit dem weiteren Objektmerkmal (xP, xL) zusammengelegt wird.A method according to claim 1 or 2, characterized in that based on sensor data of a further measurement of the first and / or the second sensor ( 6 ) a further object feature (x P , x L ) is determined which the at least one object ( 3 ), and the fuzzy feature (x U ) is merged with the further object feature (x P , x L ). Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass das weitere Objektmerkmal (xP, xL) und das unscharfe Merkmal (xU) in einen gemeinsamen Zustandsraum überführt werden, in dem Zustandsraum eine Innovationsfunktion (h) bestimmt wird, welche eine Ähnlichkeit zwischen dem unscharfen Merkmal (xU) und dem weiteren Objektmerkmal (xP, xL) beschreibt, und das zusammengelegte Objektmerkmal aus dem weiteren Objektmerkmal (xP, xL) anhand der Innovationsfunktion (h) bestimmt wird.A method according to claim 3, characterized in that the further object feature (x P , x L ) and the fuzzy feature (x U ) are converted into a common state space, in the state space an innovation function (h) is determined which a similarity between the fuzzy feature (x U ) and the further object feature (x P , x L ) describes, and the merged object feature from the further object feature (x P , x L ) is determined based on the innovation function (h). Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zum Bestimmen des zusammengelegten Objektmerkmals aus dem weiteren Objektmerkmal (xP, xL) eine lineare Abbildungsvorschrift bestimmt wird, welche die Innovationsfunktion (h) und einen Verstärkungsfaktor (K) für die Innovationsfunktion (h) umfasst, wobei der Verstärkungsfaktor (K) von einer räumlichen Unsicherheit des weiteren Objektmerkmals (xP, xL) und einer räumlichen Unsicherheit des unscharfen Merkmals (xU) abhängig ist.A method according to claim 4, characterized in that for determining the merged object feature from the further object feature (x P , x L ) a linear mapping rule is determined, which comprises the innovation function (h) and a gain factor (K) for the innovation function (h) , where the amplification factor (K) depends on a spatial uncertainty of the further object feature (x P , x L ) and a spatial uncertainty of the fuzzy feature (x U ). Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Verstärkungsfaktor (K) derart bestimmt wird, dass eine räumliche Unsicherheit des zusammengelegten Objektmerkmals minimal ist.A method according to claim 5, characterized in that the gain factor (K) is determined such that a spatial uncertainty of the merged object feature is minimal. Verfahren nach einem der Ansprüche 3 bis 6, dadurch gekennzeichnet, dass als das weitere Objektmerkmal (xP, xL) ein Punktmerkmal (xP) oder ein Linienmerkmal (xL) bestimmt wird.Method according to one of claims 3 to 6, characterized in that as the further object feature (x P, x L) is a point feature (x P) or a line feature (x L) is determined. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, dass zum Bestimmen der Innovationsfunktion (h) ein Messmodell (aP, aL) bestimmt wird, welches einen Abstand (d) zwischen der Position (xS1) des ersten Sensors (6) oder der Position (xS2) des zweiten Sensors (6) einerseits und des Punktmerkmals (xP) oder des Linienmerkmals (xL) anderseits beschreibt.Method according to one of claims 4 to 7, characterized in that for determining the innovation function (h) a measurement model (a P , a L ) is determined which a distance (d) between the position (x S1 ) of the first sensor ( 6 ) or the position (x S2 ) of the second sensor ( 6 ) on the one hand and the point feature (x P ) or the line feature (x L ) on the other hand describes. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass falls das weitere Objektmerkmal (xP, xL) das Punktmerkmal (xP) ist, zum Bestimmen des Messmodells (aP) eine Messellipse (x'E) so bestimmt wird, dass das Punktmerkmal (xP) auf der Messellipse (x'E) liegt.A method according to claim 8, characterized in that if the further object feature (x P , x L ) is the point feature (x P ), to determine the measurement model (a P ) a Messellipse (x ' E ) is determined so that the point feature (x P ) lies on the scale ellipse (x ' E ). Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass falls das weitere Objektmerkmal (xP, xL) das Linienmerkmal (xL) ist, zum Bestimmen des Messmodells eine Messellipse (x'E) so bestimmt wird, dass das Linienmerkmal (xL) tangential zu der Messellipse (x'E) verläuft.A method according to claim 8, characterized in that if the further object feature (x P , x L ) is the line feature (x L ), for determining the measurement model, a measurement ellipse (x ' E ) is determined such that the line feature (x L ) tangent to the measuring ellipse (x ' E ) runs. Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die Innovationsfunktion (h) anhand eines Unterschieds zwischen der Länge der großen Halbachse (a) der Ellipse (xE) und dem Messmodell (aP, aL) bestimmt wird. Method according to one of Claims 8 to 10, characterized in that the innovation function (h) is determined on the basis of a difference between the length of the major semiaxis (a) of the ellipse (x E ) and the measurement model (a P , a L ). Steuereinrichtung (5) für ein Fahrerassistenzsystem (2) eines Kraftfahrzeugs (1), welches zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.Control device ( 5 ) for a driver assistance system ( 2 ) of a motor vehicle ( 1 ) which is designed to carry out a method according to one of the preceding claims. Fahrerassistenzsystem (2) für ein Kraftfahrzeug (1) mit einer Steuereinrichtung (5) nach Anspruch sowie mit und mit einem ersten Sensor (6) und einem zweiten Sensor (6)Driver assistance system ( 2 ) for a motor vehicle ( 1 ) with a control device ( 5 ) according to claim and with and with a first sensor ( 6 ) and a second sensor ( 6 ) Fahrerassistenzsystem nach Anspruch 13, dadurch gekennzeichnet, dass der erste Sensor (6) und der zweite Sensor (6) Ultraschallsensoren sind.Driver assistance system according to claim 13, characterized in that the first sensor ( 6 ) and the second sensor ( 6 ) Are ultrasonic sensors. Kraftfahrzeug (1) mit einem Fahrerassistenzsystem (2) nach Anspruch 13 oder 14.Motor vehicle ( 1 ) with a driver assistance system ( 2 ) according to claim 13 or 14.
DE102016105022.9A 2016-03-18 2016-03-18 Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle Withdrawn DE102016105022A1 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE102016105022.9A DE102016105022A1 (en) 2016-03-18 2016-03-18 Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle
CN201680083748.XA CN108780149B (en) 2016-03-18 2016-08-05 Method for improving the detection of at least one object in the surroundings of a motor vehicle by indirect measurement of a sensor, control unit, driver assistance system and motor vehicle
JP2018548755A JP6862465B2 (en) 2016-03-18 2016-08-05 Methods, controllers, driver assistance systems, and vehicles that improve the detection of at least one object around the vehicle by indirect measurement with sensors.
EP16747790.0A EP3430423B1 (en) 2016-03-18 2016-08-05 Method for improving detection of at least one object in an environment of a motor vehicle by means of an indirect measurement using sensors, control device, driver assistance system, and motor vehicle
KR1020187026830A KR102146175B1 (en) 2016-03-18 2016-08-05 Methods for improving detection of one or more objects around a vehicle by indirect measurements using sensors, controls, driver assistance systems, and vehicles
PCT/EP2016/068797 WO2017157483A1 (en) 2016-03-18 2016-08-05 Method for improving detection of at least one object in an environment of a motor vehicle by means of an indirect measurement using sensors, control device, driver assistance system, and motor vehicle
US16/084,518 US10564282B2 (en) 2016-03-18 2016-08-05 Method for improving a detection of at least one object in surroundings of a motor vehicle by way of an indirect measurement by sensors, controller, driver assistance system, and motor vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016105022.9A DE102016105022A1 (en) 2016-03-18 2016-03-18 Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle

Publications (1)

Publication Number Publication Date
DE102016105022A1 true DE102016105022A1 (en) 2017-09-21

Family

ID=59752006

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016105022.9A Withdrawn DE102016105022A1 (en) 2016-03-18 2016-03-18 Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle

Country Status (1)

Country Link
DE (1) DE102016105022A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112020661A (en) * 2018-04-25 2020-12-01 伟摩有限责任公司 Vehicle bottom radar unit
CN112368758A (en) * 2018-07-07 2021-02-12 罗伯特·博世有限公司 Method for classifying relevance of objects
CN114270218A (en) * 2019-09-12 2022-04-01 大陆汽车有限责任公司 Elevation angle estimation method based on ultrasonic sensor
DE102021204635A1 (en) 2021-05-07 2022-11-10 Continental Autonomous Mobility Germany GmbH Procedure for determining the position of an object

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130162461A1 (en) * 2010-09-17 2013-06-27 WABCCO GmbH Environment Monitoring System for a Vehicle

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130162461A1 (en) * 2010-09-17 2013-06-27 WABCCO GmbH Environment Monitoring System for a Vehicle

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHENG, H. [et al.]: Interactive Road Situation Analysis for Driver Assistance and Safety Warning Systems: Framework and Algorithms. In: IEEE Transactions on Intelligent Transportation Systems, Vol. 8, No.1, März 2007. *
ZUTHER, S.: Multisensorsystem mit schmalbandigen Radarsensoren zum Fahrzeugseitenschutz. Dissertation, Fakultät für Ingenieurwissenschaften und Informatik der Universität Ulm, 2014. *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112020661A (en) * 2018-04-25 2020-12-01 伟摩有限责任公司 Vehicle bottom radar unit
CN112368758A (en) * 2018-07-07 2021-02-12 罗伯特·博世有限公司 Method for classifying relevance of objects
CN112368758B (en) * 2018-07-07 2023-10-03 罗伯特·博世有限公司 Method for classifying relevance of objects
CN114270218A (en) * 2019-09-12 2022-04-01 大陆汽车有限责任公司 Elevation angle estimation method based on ultrasonic sensor
DE102021204635A1 (en) 2021-05-07 2022-11-10 Continental Autonomous Mobility Germany GmbH Procedure for determining the position of an object
WO2022233371A1 (en) * 2021-05-07 2022-11-10 Continental Autonomous Mobility Germany GmbH Method for determining the position of an object

Similar Documents

Publication Publication Date Title
EP3430423B1 (en) Method for improving detection of at least one object in an environment of a motor vehicle by means of an indirect measurement using sensors, control device, driver assistance system, and motor vehicle
DE602004003811T2 (en) OBJECT DETECTION SYSTEM AND METHOD FOR DETECTING AN OBJECT
DE102021121156A1 (en) Method for operating a trilateration-based ultrasonic sensor system with Kalman filtering and solution clustering
EP3695244B1 (en) Method and device for creating an inverse sensor model and method for detecting obstacles
DE102016106299A1 (en) Wheel detection and its application for object tracking and sensor registration
DE102017103123A1 (en) Vehicle lane placement
DE102017105305A1 (en) METHOD FOR AUTOMATIC DETERMINATION OF A SENSOR POSITION
DE102012216386A1 (en) Method for operating a driver assistance system of a vehicle
EP3714286B1 (en) Method and device for ascertaining an installation angle between a roadway on which a vehicle travels and a detection direction of a measurement or radar sensor
DE102016105022A1 (en) Method for detecting at least one object in an environment of a motor vehicle by an indirect measurement with sensors, control device, driver assistance system and motor vehicle
DE102020211970A1 (en) Method for controlling a vehicle
DE10324897A1 (en) Object detection method for a vehicle driver assistance system based on maximum a-posteriori estimation of Bayesian probability functions for independently obtained measurement values
DE102018217000A1 (en) Process, computer program and measuring system for the evaluation of movement information
DE102018113559A1 (en) A method of recognizing a lane mark by validating by line width; Control means; Pitch recognition system; as well as driver assistance system
DE102013021840A1 (en) Method for generating an environment model of a motor vehicle, driver assistance system and motor vehicle
DE112020000325T5 (en) Estimation of trailer properties with vehicle sensors
DE102019132150A1 (en) Method for automatically calibrating an environment sensor, in particular a lidar sensor, of a vehicle on the basis of occupancy cards and computing device
EP3545330A1 (en) Method and device for determining an exact position of a vehicle based on radar signatures of the vehicle environment
DE102017201796A1 (en) Control device for determining a self-motion of a motor vehicle and motor vehicle and method for providing the control device
DE102016105023B4 (en) Method for detecting at least one object in an environment of a motor vehicle by combining object features, control device, driver assistance system
EP3566104A1 (en) Determining movement information with environment sensors
WO2023016592A1 (en) Trilateration-based ultrasonic sensor system with kalman filtering and solution clustering
DE112017008095T5 (en) Object recognition device and object recognition method
DE102021120966A1 (en) SENSOR FUSION
DE102019132151A1 (en) Method for calibrating an environment sensor of a vehicle on the basis of data from a reference environment sensor, taking into account occupancy cards, computing device and sensor system

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R005 Application deemed withdrawn due to failure to request examination