DE102009006113A1 - Vehicle's surrounding representation providing method, involves subjecting sensor objects to fusion to generate fusion objects, and fusing existence possibilities of fusion objects based on existence possibilities of sensor objects - Google Patents

Vehicle's surrounding representation providing method, involves subjecting sensor objects to fusion to generate fusion objects, and fusing existence possibilities of fusion objects based on existence possibilities of sensor objects Download PDF

Info

Publication number
DE102009006113A1
DE102009006113A1 DE102009006113A DE102009006113A DE102009006113A1 DE 102009006113 A1 DE102009006113 A1 DE 102009006113A1 DE 102009006113 A DE102009006113 A DE 102009006113A DE 102009006113 A DE102009006113 A DE 102009006113A DE 102009006113 A1 DE102009006113 A1 DE 102009006113A1
Authority
DE
Germany
Prior art keywords
sensor
objects
fusion
existence
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102009006113A
Other languages
German (de)
Other versions
DE102009006113B4 (en
Inventor
Thien-Nghia Nguyen
Marc Michael Dr. Meinecke
Thanh-Binh Dr. To
Bernd Prof. Dr. Michaelis
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102009006113.4A priority Critical patent/DE102009006113B4/en
Publication of DE102009006113A1 publication Critical patent/DE102009006113A1/en
Application granted granted Critical
Publication of DE102009006113B4 publication Critical patent/DE102009006113B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • G01S13/726Multiple target tracking
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)

Abstract

The method involves providing information about objects detected in a surrounding of a vehicle in the form of sensor objects by using sensor devices (2, 3) e.g. radar and stereo camera. The sensor objects are subjected to an object fusion for generating fusion objects by using a Kalman-filter based on attributes e.g., position and speed, and existence possibilities of the fusion objects are fused based on existence possibilities of the sensor objects. The fusing of the existence possibilities of one of the sensor objects is carried out based on the corresponding sensor device. An independent claim is also included for a device for providing a surrounding representation of a vehicle.

Description

Die Erfindung betrifft ein Verfahren und eine Vorrichtung für ein Fahrzeug zur Beschreibung eines Umfelds des Fahrzeugs, das mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung erfasst wird und deren bereitgestellte Informationen in einer Auswerteeinrichtung ausgewertet werden, um eine Umfelddarstellung bereitzustellen. Insbesondere betrifft die Erfindung ein Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung sowie einer Auswerteeinrichtung. Ferner betrifft die Erfindung eine Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs, umfassend mindestens eine erste Sensoreinrichtung und mindestens eine zweite Sensoreinrichtung, die das Umfeld erfassen, sowie eine Auswerteeinrichtung, die mit der mindestens einen ersten Sensoreinrichtung und mit der mindestens einen zweiten Sensoreinrichtung gekoppelt ist.The The invention relates to a method and a device for a vehicle for describing an environment of the vehicle with at least one first sensor device and at least one second Sensor device is detected and their information provided be evaluated in an evaluation to an environment representation provide. In particular, the invention relates to a method for providing an environment representation of a vehicle with at least a first sensor device and at least one second sensor device and an evaluation device. Furthermore, the invention relates to a device for providing an environment representation of a vehicle, comprising at least one first sensor device and at least one second Sensor device that detect the environment, and an evaluation, with the at least one first sensor device and with the at least one second sensor device is coupled.

Die Kenntnis eines Umfelds eines Fahrzeugs ist für unterschiedliche Fahrzeugsysteme, wie z. B. Sicherheitssysteme, von großer Wichtigkeit. Mit Sensoreinrichtungen, die beispielsweise einen Ultraschallsensor oder eine Kamera umfassen, werden Daten über das Umfeld erfasst. Durch ein Nutzen von Informationen unterschiedlicher Sensoreinrichtungen wird eine Repräsentation des Umfelds erzeugt, welche die Realität des Umfelds möglichst gut widerspiegeln soll. In der Umgebung befinden sich statische Objekte, wie beispielsweise Bäume, Häuser usw., und dynamische Objekte, die sich in einem ortsfesten Bezugssystem bewegen, wie beispielsweise Personen, Tiere, Kraftfahrzeuge usw. Um ausreichende Informationen über diese sich bewegenden Objekte (dynamischen Objekte) im Umfeld des Fahrzeugs zu jedem Zeitpunkt zur Verfügung zu haben, ist eine kontinuierliche Überwachung, d. h. ein kontinuierliches Erfassen von Messdaten, über die Umgebung notwendig. In der Regel arbeiten die Sensoreinrichtungen in sich fortwährend iterativ wiederholenden Messzyklen.The Knowledge of an environment of a vehicle is different Vehicle systems, such. B. security systems, of great Importance. With sensor devices, for example, an ultrasonic sensor or include a camera, data about the environment detected. By using information from different sensor devices a representation of the environment is generated, which the Reflect the reality of the environment as well as possible should. There are static objects in the environment, such as Trees, houses, etc., and dynamic objects that to move in a fixed frame of reference, such as Persons, animals, motor vehicles, etc. To provide sufficient information about these moving objects (dynamic objects) in the environment of Vehicle is available at all times continuous monitoring, d. H. a continuous one Acquire measurement data about the environment necessary. In As a rule, the sensor devices continuously work iterative repetitive measuring cycles.

Aus der DE 10 2006 035 207 ist eine Vorrichtung bekannt, die mittels einer Kameraeinrichtung einen Näherungswert für eine Position eines möglichen Objektes bestimmt. In einer Auswerteeinrichtung werden zwei Grenzwerte für die Position des Objekts anhand der von der Kamera zur Verfügung gestellten Daten ermittelt. Mit einem einen Laser nutzenden so genannten Lidar-System (Laser Imaging Detection and Ranging System) oder einem Radarsystem wird überprüft, ob sich tatsächlich ein Objekt in dem durch den ersten Grenzwert und den zweiten Grenzwert definierten Positionsbereich befindet.From the DE 10 2006 035 207 a device is known which determines by means of a camera device an approximate value for a position of a possible object. In an evaluation device, two limit values for the position of the object are determined on the basis of the data provided by the camera. A Laser Imaging Detection and Ranging System (Lidar) or a radar system is used to check whether an object is actually in the position range defined by the first limit and the second limit.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zu schaffen, die es ermöglichen, eine verbesserte Umfeldrepräsentation eines Umfelds eines Fahrzeugs mit statischen und dynamischen Objekten bereitzustellen.Of the Invention is based on the object, a method and an apparatus to create an improved environment representation an environment of a vehicle with static and dynamic objects provide.

Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 sowie eine Vorrichtung mit den Merkmalen des Patentanspruchs 12 gelöst. Vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen.The The object is achieved by a method with the features of claim 1 and a device with the features of claim 12 solved. advantageous Embodiments of the invention will become apparent from the dependent claims.

Insbesondere wird ein Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung sowie eine Auswerteeinrichtung vorgeschlagen, bei dem die Sensoreinrichtungen Informationen über in einem Umfeld des Fahrzeugs erkannte Objekte in Form von Sensorobjekten bereitstellen, wobei ein Sensorobjekt ein von der jeweiligen Sensoreinrichtung erkanntes Objekt repräsentiert, und die Sensorobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit des repräsentierten Objekts umfassen und die von der mindestens einen ersten Sensoreinrichtung und von der mindestens einen zweiten Sensoreinrichtung erkannten Sensorobjekte einer Objektfusion unterzogen werden, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als Attribut zugeordnet wird, wobei die Existenzwahrscheinlichkeiten der Fusionsobjekte basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte fusioniert wird, wobei die Fusionierung der Existenzwahrscheinlichkeit eines der Sensorobjekte jeweils abhängig von der jeweiligen Sensoreinrichtung erfolgt, von der das entsprechende Sensorobjekt bereitgestellt ist. Eine entsprechende Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs umfasst mindestens eine erste Sensoreinrichtung und mindestens eine zweite Sensoreinrichtung, die das Umfeld erfassen, sowie eine Auswerteeinrichtung, die mit der mindestens einen ersten Sensoreinrichtung und der mindestens einen zweiten Sensoreinrichtung gekoppelt ist, wobei die Sensoreinrichtungen ausgebildet sind, Informationen über jeweils erfasste Objekte in Form von Sensorobjekten bereitzustellen, die als Attribut mindestens eine Existenzwahrscheinlichkeit für das erfasste Objekt umfassen, und die Auswerteeinheit ausgebildet ist, die von der mindestens einen ersten Sensoreinrichtung und von der mindestens einen zweiten Sensoreinrichtung erkannten Sensorobjekte einer Objektfusion zu unterziehen, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet ist, wobei die Fusion der Existenzwahrscheinlichkeit des Fusionsobjekts basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte ausgeführt ist und abhängig von der jeweiligen Sensoreinrichtung erfolgt, von der das jeweilige Sensorobjekt bereitgestellt ist. Obwohl die einzelnen Sensoreinrichtungen bereits selbständig Objekte erkennen und diese erkannten Objekte als Sensorobjekte, in der Regel in Form einer Liste von Sensorobjekten, bereitstellen, ist es erfindungsgemäß vorgesehen, die von den unterschiedlichen Sensoreinrichtungen bereitgestellten Sensorobjekte einer Fusion zu unterziehen. Hierbei werden Fusionsobjekte erzeugt. Da insbesondere eine Existenzwahrscheinlichkeit der erkannten Objekte von besonderer Bedeutung ist, umfassen die Fusionsobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit. Durch die Fusionierung der Sensorobjekte werden Fusionsobjekte geschaffen, die die real existierenden Objekte repräsentieren. Aufgrund der Fusion der Sensorobjekte, die jeweils von einer der Sensoreinrichtungen erfasst und erkannt sind, können die Existenzwahrscheinlichkeiten der Fusionsobjekte (wie auch andere Attribute) durch eine Fusion der Sensorobjekte zu den Fusionsobjekten deutlich verbessert werden. Da die einzelnen Sensoreinrichtungen hinsichtlich ihrer Messgüte und/oder Fehleranfälligkeit, beispielsweise aufgrund von Rauschen, einer Anfälligkeit gegenüber veränderlichen Umweltbedingungen usw., unterscheiden, ist es vorgesehen, dass bei der Fusionierung der Existenzwahrscheinlichkeiten der einzelnen Sensorobjekte zu der Existenzwahrscheinlichkeit der Fusionsobjekte eine Fusionierung jeweils unter Berücksichtigung der Sensoreinrichtung erfolgt, die das jeweilige Sensorobjekt bereitgestellt hat, dessen Sensorobjekt-Existenzwahrscheinlichkeit in die Existenzwahrscheinlichkeit für das Fusionsobjekt fusioniert wird. Durch die Fusionierung der Sensorobjekte zu Fusionsobjekten wird eine deutlich verbesserte Umfelddarstellung erreicht. Insbesondere für sicherheitsrelevante Fahrzeugsysteme, die von einer Existenz von Objekten in der Umgebung des Kraftfahrzeugs abhängig sind, ist eine gute Kenntnis über die tatsächliche Existenz von Objekten in der Umgebung notwendig. Durch die Fusionierung der Existenzwahrscheinlichkeiten der Sensorobjekte zu einer Existenzwahrscheinlichkeit von Fusionsobjekten, die die realen Objekten repräsentieren, wird somit die Aussage über die Existenzwahrscheinlichkeit von Objekten in der Umgebung des Kraftfahrzeugs deutlich verbessert. Hierüber können Fehlauslösungen von Sicherheitssystemen, die beispielsweise Rückhaltesysteme vor einem tatsächlichen Eintreffen einer Kollision mit einem Objekt in der Umgebung, die als unvermeidbar erkannt ist, auslösen, deutlich reduziert oder vollständig vermieden werden.In particular, a method is provided for providing an environment representation of a vehicle having at least one first sensor device and at least one second sensor device and an evaluation device, in which the sensor devices provide information about objects detected in an environment of the vehicle in the form of sensor objects, wherein a sensor object is one of the represents the object detected by the respective sensor device, and the sensor objects comprise as attribute at least one probability of existence of the represented object and the sensor objects detected by the at least one first sensor device and by the at least one second sensor device are subjected to object fusion in which fusion objects are generated which have at least one probability of existence is assigned as an attribute, wherein the existence probabilities of the fusion objects based on the existence probabilities of the sensor objects f is usiertiert, wherein the fusing of the likelihood of existence of one of the sensor objects in each case depends on the respective sensor device from which the corresponding sensor object is provided. A corresponding device for providing an environment representation of a vehicle comprises at least one first sensor device and at least one second sensor device, which detect the environment, and an evaluation device, which is coupled to the at least one first sensor device and the at least one second sensor device, wherein the sensor devices are formed To provide information about each detected objects in the form of sensor objects, which comprise as attribute at least one probability of existence for the detected object, and the evaluation unit is adapted to subject the at least one first sensor device and detected by the at least one second sensor device sensor objects of an object fusion in which fusion objects are generated, which have at least one probability of existence as an attribute is assigned, wherein the fusion of the probability of existence of the fusion object is carried out based on the existence probabilities of the sensor objects and is dependent on the respective sensor device from which the respective sensor object is provided. Although the individual sensor devices already independently recognize objects and provide these detected objects as sensor objects, generally in the form of a list of sensor objects, it is provided according to the invention to subject the sensor objects provided by the different sensor devices to a fusion. Here, fusion objects are generated. Since, in particular, a probability of existence of the recognized objects is of particular importance, the fusion objects comprise at least one probability of existence as an attribute. By merging the sensor objects, fusion objects are created that represent the real existing objects. Due to the fusion of the sensor objects, which are each detected and detected by one of the sensor devices, the probabilities of existence of the fusion objects (as well as other attributes) can be significantly improved by a fusion of the sensor objects to the fusion objects. Since the individual sensor devices differ with regard to their quality of measurement and / or susceptibility to errors, for example due to noise, susceptibility to changing environmental conditions, etc., it is provided that, in the case of the fusion of the probabilities of existence of the individual sensor objects with the probability of existence of the fusion objects, fusion takes place, taking account in each case the sensor device takes place, which has provided the respective sensor object whose sensor object existence probability is fused into the existence probability for the fusion object. By merging the sensor objects into fusion objects, a significantly improved environment representation is achieved. In particular for safety-relevant vehicle systems, which depend on the existence of objects in the surroundings of the motor vehicle, a good knowledge about the actual existence of objects in the environment is necessary. By fusing the probabilities of existence of the sensor objects to a probability of existence of fusion objects that represent the real objects, the statement about the probability of existence of objects in the environment of the motor vehicle is thus significantly improved. This can significantly reduce or completely avoid false tripping of security systems, which, for example, trigger restraint systems before the actual arrival of a collision with an object in the environment, which is recognized as unavoidable.

Bei einer besonders vorteilhaften Ausführungsform ist vorgesehen, dass für die zum Zeitpunkt k ermittelten Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k + 1 vorgenommen wird und die zum Zeitpunkt k + 1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert werden, mit deren Prädiktion sie gemäß Assoziationsvorgaben übereinstimmen, wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k + 1 des Sensorobjekts fusioniert wird. Als Assoziationsvorgabe kann ein Mahalanobis-Abstandsvorgabewert dienen. Bei dieser Ausführungsform ist es möglich, die in vorausgegangenen Fusionierungsschritten erzeugten Fusionsobjekte mit den aktuell bereitgestellten Sensorobjekten zu assoziieren und hierüber die bereits zuvor gewonnenen Informationen, insbesondere hinsichtlich der Existenzwahrscheinlichkeit der im Umfeld existierenden Objekte, optimal auszuwerten.at a particularly advantageous embodiment is provided that for the fusion objects determined at the time k a prediction is made at a time k + 1 and the sensor objects with the fusion objects determined at time k + 1 whose prediction they match according to association requirements, where the likelihood of existence of the fusion object at the time k + 1 on the basis of the likelihood of the fusion object for Time k and the probability of existence at time k + 1 of the sensor object is fused. As an association requirement can serve a Mahalanobis distance default value. In this embodiment is it possible to do that in previous merging steps generated fusion objects with the currently provided sensor objects to associate and over this the previously obtained Information, in particular regarding the likelihood of existence the existing objects in the environment, optimally evaluate.

Eine Weiterbildung sieht vor, dass die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel berechnet wird:

Figure 00040001
wobei PFusObj(k) die Existenzwahrscheinlichkeit des Fusionsobjekt zum Zeitpunkt k, PSenObj(k) die Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k, γ eine sensoreinrichtungsunabhängige Fusionierungskonstante und δa und δb sensoreinrichtungsabhängige Fusionierungskonstanten angeben, wobei gilt: δa + δb = 1. Die angegebene Formel, die der Fuzzy-Logik entlehnt ist, ermöglicht über die festgelegte Wahl der Konstante γ eine Vorwahl, ob die Fusionierung eher einer Und-Verknüpfung oder eher einer Oder-Verknüpfung der beiden Existenzwahrscheinlichkeiten, d. h. der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k + 1 entsprechen soll. Darüber hinaus wird über die sensoreinrichtungsabhängigen Fusionierungskonstanten δa und δb die Möglichkeit geschaffen, die von unterschiedlichen Sensoreinrichtungen gelieferten Existenzwahrscheinlichkeiten unterschiedlich relativ zu der bereits in dem Fusionsobjekt fusionierten Existenzwahrscheinlichkeit zu gewichten. Hierüber kann berücksichtigt werden, dass die Zuverlässigkeit von Existenzwahrscheinlichkeitsaussagen der einzelnen Sensoreinrichtungen eine unterschiedliche Zuverlässigkeit und Güte aufweisen. Ferner kann abhängig von der Güte der Assoziation ebenfalls eine Wichtung der ”alten” Fusionsobjekt-Existenzwahrscheinlichkeit PFusObj(k) relativ zur Existenzwahrscheinlichkeit PSenObj(k + 1) des Sensorobjekts erfolgen.A further development provides that the probability of existence of a fusion object that can be associated with a sensor object is calculated according to the following formula:
Figure 00040001
where P FusObj (k) indicates the existence probability of the fusion object at time k, P SenObj (k) the probability of existence of the sensor object at time k, γ a sensor-independent fusing constant and δ a and δ b sensor device-dependent fusing constants, where: δ a + δ b = 1. The given formula, which is borrowed from the fuzzy logic, allows via the fixed choice of the constant γ a preselection, whether the merger rather an AND-link or rather an OR-linking of the two probabilities of existence, ie the likelihood of existence of the fusion object at the time k and the likelihood of existence of the sensor object at time k + 1 should correspond. In addition, via the sensor device-dependent fusing constants δ a and δ b it is possible to weight the existence probabilities provided by different sensor devices differently relative to the probability of existence already fused in the fusion object. This can take into account that the reliability of existence probability statements of the individual sensor devices have a different reliability and quality. Furthermore, depending on the quality of the association, a weighting of the "old" fusion object existence probability P FusObj (k) relative to the existence probability P SenObj (k + 1) of the sensor object can also be carried out.

Um im Umfeld auftretende neue Objekte bei der Fusionierung berücksichtigen zu können, ist bei einer Ausführungsform der Erfindung vorgesehen, dass für Sensorobjekte, die mit keinem der bekannten Fusionsobjekte assoziiert werden können, die Fusionierung ein Erzeugen eines neuen Fusionsobjekts umfasst, welchem als Existenzwahrscheinlichkeit die Existenzwahrscheinlichkeit des Sensorobjekts zugewiesen wird.In order to be able to take into account new objects occurring in the environment during the merger, is at a Embodiment of the invention provided that for sensor objects that can not be associated with any of the known fusion objects, the fusion includes generating a new fusion object, which is assigned as existence probability, the likelihood of existence of the sensor object.

Während eine Umfelddarstellung über Sensorobjekte und hieraus fusionierte Fusionsobjekte besonders gut für sich bewegende, d. h. in einem ortsfesten Bezugssystem bewegende, Objekte im Umfeld des Fahrzeugs geeignet ist, kann eine verbesserte Umfeldrepräsentation erreicht werden, wenn von den Sensoreinrichtungen zusätzlich Informationen bereitgestellt werden, anhand derer eine Belegungskarte erstellt wird, wobei das Umfeld in Bereiche unterteilt wird und jedem Bereich jeweils eine Zelle zugeordnet wird, wobei die Zellen gemeinsam die Belegungskarte darstellen, und vorgesehen ist, für die Zellen Belegungswahrscheinlichkeiten zu ermitteln, die ein Maß für eine Existenz eines Objekts in dem der Zelle zugeordneten Bereich des Umfelds angeben. Zusätzlich zu einer Objekterkennung in den Sensoreinrichtungen, die zur Ableitung der Sensorobjekte führt, werden somit Informationen bereitgestellt, die es ermöglichen, eine Belegungskarte des Umfelds zu erstellen. Das Erstellen der Belegungskarte wird in der Regel so ausgeführt, dass den einzelnen Zellen mindestens ein Wert zugeordnet ist, welcher die Existenzwahrscheinlichkeit eines Objekts in dem der Zelle zugeordneten Raumbereich des Umfelds angibt. Ein Vorteil eines solchen Verfahrens zur Umfelddarstellung bzw. Bereitstellung einer Umfelddarstellung liegt in einer möglichst vollständigen Nutzung der Informationen der mindestens zwei Sensoreinrichtungen, wobei zum einen die guten Belegungswahrscheinlichkeitsaussagen in den durch die Zellen gebildeten Belegungskarten erzeugt werden, die insbesondere für statische Objekte eine hohe Aussagekraft besitzen, und zum anderen auch für dynamische Objekte hohe Existenzwahrscheinlichkeiten über die Fusionierungsobjekte erlangt werden können.While an environment representation of sensor objects and fused therefrom Fusion objects especially good for moving, d. H. moving in a fixed frame of reference, objects in the environment of the vehicle appropriate, can provide an improved environment representation can be achieved if of the sensor devices in addition Information is provided by which an occupancy card is created, where the environment is divided into areas and each cell is assigned a cell, the cells together represent the occupancy card, and is provided for To determine the cells occupancy probabilities, which is a measure of an existence of an object in the area assigned to the cell of the environment. In addition to an object recognition in the sensor devices used to derive the sensor objects thus providing information that it provides allow to create an occupancy map of the environment. The creation of the occupancy card is usually carried out in such a way that the individual cells at least one value is assigned, which the likelihood of existence of an object in the cell associated with it Specifies the space area of the environment. An advantage of such a procedure for presentation of the environment or provision of an environment representation lies in the fullest possible use the information of the at least two sensor devices, wherein on the one hand, the good occupancy probability statements in the generated by the cells occupancy maps are generated especially for static objects a high informative value and high dynamic objects Existence probabilities about the merger objects can be obtained.

Eine deutliche weitere Verbesserung lässt sich erreichen, wenn die Ergebnisse der objektorientierten Umfelddarstellung mit einer kartenbasierten Umfelddarstellung kombiniert werden. Bei einer bevorzugten Ausführungsform ist daher vorgesehen, dass für Fusionsobjekte, die zu einem Messzeitpunkt k + 1 keinem der Sensorobjekte zugeordnet werden können, die Existenzwahrscheinlichkeit fusioniert wird, indem anstelle der Existenzwahrscheinlichkeit des entsprechenden Sensorobjekts eine anhand der Belegungskarte ermittelte Belegungswahrscheinlichkeit für den Bereich oder die Bereiche verwendet wird, an dem oder denen sich das Fusionsobjekt gemäß der Prädiktion aufhält. Solche Situationen, bei denen kein entsprechendes Sensorobjekt für ein Fusionsobjekt von einer Messeinrichtung geliefert wird, treten beispielsweise bei einem Radarsystem auf, wenn ein anderes statisches oder dynamisches Objekt im Umfeld das entsprechende zu dem Fusionsobjekt korrespondierende Objekt zwischenzeitlich verdeckt. Dies bedeutet, dass das Objekt in der Umgebung, welches mit dem Fusionsobjekt korrespondiert, durch die Radarstrahlen nicht erfasst werden kann, weil ein anderes Objekt, beispielsweise ein Brückenpfeiler oder ein auf einer Verkehrsinsel montiertes Verkehrsschild, das Sichtfeld des Radars auf das entsprechende reale Objekt in einem oder mehreren Messzyklen verdeckt. In einer solchen Situation ist eine Sensoreinrichtung häufig nicht in der Lage, für dieses reale Objekt ein Sensorobjekt bereitzustellen, da die Sensoreinrichtung hierfür das reale Objekt selber über einen gewissen Zeitraum erfassen und nachverfolgen können muss, um sicherzugehen, dass ein real existierendes Objekt vorliegt. Die Rohdaten hingegen können bereits häufig früher und zuverlässiger eine Aussage über eine Belegung eines bestimmten Bereichs im Umfeld des Kraftfahrzeugs liefern. Somit wird die Fusionierung dadurch verbessert, dass aus der Belegungskarte bekannte Existenzwahrscheinlichkeiten für Objekte in einem bestimmten Bereich genutzt werden, der mit dem Bereich korrespondiert, in den sich das Fusionsobjekt gemäß der Prädiktion bewegt hat.A Significant further improvement can be achieved, though the results of the object-oriented environment representation with a card-based environment representation are combined. In a preferred Embodiment is therefore intended that for Fusion objects which at a measurement time k + 1 none of the sensor objects can be assigned, the likelihood of existence is merged by replacing the livelihood of the corresponding sensor object determined using the occupancy map Occupancy probability for the area or areas is used, on which or the fusion object according to the Prediction stops. Such situations where no corresponding sensor object for a fusion object is supplied by a measuring device, for example in a radar system, if another static or dynamic Object in the environment corresponding to the corresponding to the fusion object Object hidden in the meantime. This means that the object in the environment corresponding to the fusion object the radar beams can not be detected because another object, for example, a bridge pier or a traffic island mounted road sign, the field of vision of the radar on the corresponding obscured real object in one or more measurement cycles. In a In such a situation, a sensor device is often not able to provide a sensor object for this real object, since the sensor device for this purpose, the real object itself over capture and track for a period of time to make sure that there is a real existing object. The raw data, on the other hand, can often be earlier and more reliable a statement about an occupancy of a deliver specific area around the motor vehicle. Consequently the merging is improved by the fact that the occupancy card known existence probabilities for objects in one certain area corresponding to the area, in which the fusion object according to the prediction has moved.

Bei einer Ausführungsform ist vorgesehen, dass die Fusionierung nach folgender Formel erfolgt: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ,wobei PGrid(k + 1) die aus der Belegungskarte abgeleitete Belegungswahrscheinlichkeit an dem prädizierten Ort des Fusionsobjekts angibt. Hierbei gibt γ erneut eine Fusionierungskonstante an, die festlegt, ob die Fusionierung eher einer Und-Verknüpfung oder einer Oder-Verknüpfung der Existenzwahrscheinlichkeiten bzw. Belegungswahrscheinlichkeiten ähneln soll.In one embodiment, it is provided that the fusion takes place according to the following formula: P FusObj (k + 1) = [P FusObj (K) · P Grid (k + 1)] 1-γ · [1 - (1 - P FusObj (k)) · (1 - P Grid (k + 1))] γ . where P Grid (k + 1) indicates the occupancy probability derived from the occupancy map at the predicted location of the fusion object. In this case, γ again specifies a fusing constant which determines whether the fusing is more similar to an AND combination or an OR combination of the probabilities of existence or occupancy probabilities.

Weiterhin ist es vorteilhaft, eine Klassifizierung der Objekte vorzunehmen. Hierbei erfolgt eine Klassifizierung der Sensorobjekte hinsichtlich ihres Typs als auch vorzugsweise eine Klassifizierung der Fusionsobjekte hinsichtlich ihres Typs. Mit einer Klassifizierung ist ein Objekttyp bzw. eine Objektklasse gemeint. Zu diesen zählen Fußgänger, Fahrradfahrer, Autos, Bäume, Häuser usw. Besonders vorteilhaft wird die Klassifizierung mit Vergleichsdaten vorgenommen, die entweder in den Sensoreinrichtungen vorliegen und/oder in der Auswerteeinrichtung abgelegt sind. Als Vergleichsdaten können beispielsweise Referenzdaten dienen. Für eine Sensoreinrichtung, die als Stereokamera ausgebildet ist, kann beispielsweise ein Höhenverhältnis zu einem Breitenverhältnis eines ermittelten Objekts innerhalb eines definierten Raumbereichs bzw. einer definierten Fläche des Umfelds bestimmt werden. Anhand dieses Verhältnisses kann beispielsweise ermittelt werden, ob es sich um einen Fußgänger handelt. Die Klassifizierung anhand von Referenzdaten kann sowohl in den Sensoreinrichtungen als auch in der Auswerteeinrichtung oder alternativ in den Sensoreinrichtungen oder der Auswerteeinrichtung vorgenommen werden. Die Klassifizierung stellt somit ein mögliches Attribut der Sensorobjekte und auch der Fusionsobjekte dar. Als weitere Attribute werden Vorgaben über die Geometrie der Objekte, wie beispielsweise eine Länge, eine Breite und/oder eine Höhe bestimmt. Weiterhin vorteilhaft ist es, eine Dynamik der Objekte zu bestimmen. Mit der Dynamik der Objekte sind eine Gierrate, eine Geschwindigkeit, eine Orientierung sowie eine Beschleunigung usw. eines Objekts gemeint. Weiterhin zählen zur Dynamik Informationen, die ein fahrzeugbezogenes Fahrverhalten charakterisieren, beispielsweise einen Überholvorgang, einen Ein- und/oder Ausparkvorgang, einen Notbremsvorgang, einen Beschleunigungsvorgang, einen Verzögerungsvorgang, ein Kreuzen einer Fahrbahn von Fußgängern und/oder Radfahrern usw., um nur einige charakterisierende Eigenschaften der Dynamik von Objekten zu nennen.Furthermore, it is advantageous to carry out a classification of the objects. Here, a classification of the sensor objects in terms of their type and preferably a classification of the fusion objects in terms of their type. A classification refers to an object type or an object class. These include pedestrians, cyclists, cars, trees, houses, etc. Particularly advantageously, the classification is made with comparative data, which are either present in the sensor devices and / or stored in the evaluation. For example, reference data can serve as comparison data. For a sensor device which is designed as a stereo camera, for example, a height ratio to egg A width ratio of a detected object within a defined space or a defined area of the environment are determined. On the basis of this ratio can be determined, for example, if it is a pedestrian. The classification based on reference data can be carried out both in the sensor devices and in the evaluation device or alternatively in the sensor devices or the evaluation device. The classification thus represents a possible attribute of the sensor objects and also of the fusion objects. As further attributes, specifications about the geometry of the objects, such as a length, a width and / or a height are determined. It is also advantageous to determine a dynamics of the objects. By the dynamics of the objects is meant a yaw rate, a velocity, an orientation as well as an acceleration etc. of an object. Furthermore, dynamics that characterize a vehicle-related driving behavior, such as an overtaking process, an entry and / or Ausparkvorgang, an emergency braking process, an acceleration process, a deceleration process, a crossing of a lane of pedestrians and / or cyclists, etc., to name a few characterizing the dynamics To call properties of the dynamics of objects.

Ebenso wie die Existenzwahrscheinlichkeiten der einzelnen Sensorobjekte können auch weitere Attribute einer Fusionierung unterzogen werden. Eine bevorzugte Ausführungsform sieht daher vor, dass die Sensorobjekte und Fusionsobjekte hinsichtlich weiterer Attribute einem Fusionierungsverfahren unterzogen werden, beispielsweise unter Verwendung eines Kalman-Filters. Dies bedeutet, dass eine Dynamik und Prädiktion beispielsweise mittels eines Kalman-Filters ausgeführt werden kann.As well like the existence probabilities of the individual sensor objects can also undergo further attributes of a merger become. A preferred embodiment therefore provides that the sensor objects and fusion objects with regard to further Attributes undergo a fusion process, for example using a Kalman filter. This means that one Dynamics and prediction, for example by means of a Kalman filter can be executed.

Zur weiteren Ausgestaltung der Erfindung ist es vorteilhaft, dass die in der Auswerteeinheit verarbeiteten Informationen zu einer detaillierten Beschreibung des Umfelds zusammengefügt werden. Die Auswerteeinheit kann ein Rechner sein, der Informationen aufnimmt, verarbeitet und die Ergebnisse zusammenfügt. Die zusammengefügten Ergebnisse können vorteilhaft auch grafisch durch die Auswerteeinheit aufbereitet werden, so dass sie auf einer Ausgabeeinheit, z. B. einer Anzeigevorrichtung, darstellbar sind. Die detaillierten Ergebnisse werden vorteilhaft von anderen System genutzt, die auf Umfeldinformationen angewiesen sind, um beispielsweise das Fahrzeug zu lenken, in die Längs- und/oder Querführung und/oder -dynamik einzugreifen, Precrash-Maßnahmen zu ergreifen usw. Daher ist es vorteilhaft, wenn die Umfeldrepräsentation zumindest auch in elektronischer Form bereitgestellt wird.to Another embodiment of the invention, it is advantageous that the Information processed in the evaluation unit for a detailed Description of the environment are merged. The evaluation unit can be a computer that receives, processes and processes information put the results together. The joined together Results can also be graphically evaluated by the evaluation unit be prepared so that they on an output unit, z. B. a display device can be displayed. The detailed results are used to advantage by other systems based on environmental information are instructed, for example, to steer the vehicle in the Longitudinal and / or transverse guidance and / or dynamics intervene, take precrash measures, etc. Therefore it is advantageous if the environment representation at least also provided in electronic form.

In der Auswerteeinrichtung sind Informationen eines Expertensystems angesiedelt bzw. umgesetzt. Das Expertenwissen, welches zum Teil in den Fusionierungsvorschriften und Formeln enthalten ist, kann zusätzlich weitere Informationen auswerten und nutzbar machen, um die Informationsfusionierung zu verbessern. Bei einer Ausführungsform der Erfindung ist vorgesehen, dass mittels mindestens einer dritten Sensoreinrichtung Informationen über das Umfeld und/oder die mindestens eine Sensoreinrichtung und/oder die mindestens eine zweite Einrichtung erfasst werden und die Sensoreinrichtungsabhängigkeit der Fusionierung abhängig von den Informationen der mindestens einen dritten Sensoreinrichtung variiert wird. Bei der dritten Sensoreinrichtung kann es sich beispielsweise um einen Sensor handeln, der Regen im Umfeld des Kraftfahrzeugs detektiert. Handelt es sich bei einer der Sensoreinrichtungen beispielsweise um eine Stereokamera, so ist es bekannt, dass diese bei starkem Regen hinsichtlich der Objekterfassung gestört ist. Somit ist es vorteilhaft, beispielsweise bei der Fusionierung der Existenzwahrscheinlichkeiten der Sensorobjekte, die von der als Stereokamera ausgebildeten Sensoreinrichtung bereitgestellten Informationen schwächer gewichtet in die Fusionsobjekte zu fusionieren, als dies der Fall ist, wenn trockene Verhältnisse herrschen. Ebenso spielen insbesondere Lichtverhältnisse, beispielsweise eine tief stehende, entgegen der Fahrtrichtung gerichtete Sonneneinstrahlung eine entscheidende Rolle für eine Güte der mittels der Stereokamera empfangenen Daten. Auch andere Sensoreinrichtungen, die andere Messverfahren und Prinzipien verwenden, können von Umfeldeinflüssen abhängig unterschiedlich zuverlässige Messergebnisse liefern. Vorteilhaft ist ferner ein Expertensystem, welches Informationen der Sensoreinrichtungen vergleicht, beispielsweise hinsichtlich ihrer Klassifikation, und zumindest die Daten einzelner Sensorobjekte nur in die Fusionierung einbezieht, wenn diese durch ein Sensorobjekt einer anderen Sensoreinrichtung plausibilisiert und/oder bestätigt werden. Wenn ein Radar beispielsweise einen stationären Gullideckel auf einer Straße erfasst, dann wird diese Information von dem Expertensystem bei einer Ausführungsform nur weitergegeben, wenn die Information von einer Kamera bestätigt wird.In The evaluation device is information of an expert system settled or implemented. The expert knowledge, which partly contained in the merger regulations and formulas additionally evaluate further information and usable to improve the information fusion. At a Embodiment of the invention is provided that by means of at least one third sensor device information about the environment and / or the at least one sensor device and / or the at least one second device is detected and the sensor device dependency the merger depending on the information of at least a third sensor device is varied. In the third sensor device For example, it may be a sensor that has rain in it Environment of the motor vehicle detected. Is it a the sensor devices, for example, a stereo camera, so it is known that in heavy rain in terms of object detection is disturbed. Thus, it is advantageous, for example in the fusion of the existence probabilities of the sensor objects, that provided by the designed as a stereo camera sensor device Information weaker weighted in the merger objects to merge, as is the case when dry conditions to rule. Likewise, especially light conditions, For example, a low-level, directed counter to the direction of travel Sunlight plays a crucial role in goodness the data received by the stereo camera. Other sensor devices, who can use other measurement methods and principles different depending on environmental influences deliver reliable measurement results. It is also advantageous an expert system containing information of the sensor devices compares, for example, in terms of their classification, and at least incorporating the data of individual sensor objects only in the fusion, if this through a sensor object of another sensor device plausibility and / or confirmation. If a radar For example, a stationary Gullideckel on one Road captures, then this information is from the expert system in one embodiment only passed if the information confirmed by a camera.

Um insbesondere eine objektbasierte Umfelddarstellung, wie sie über die Fusionierungsobjekte bereitgestellt wird, mit der über die Belegungskarte bereitgestellten Umfelddarstellung in konsistenter Weise zu verbessern, ist bei einer Ausführungsform vorgesehen, dass den Fusionierungsobjekten eine Nachverfolgungsinformation zugeordnet wird, die ein Maß für eine Güte einer Nachverfolgung des Fusionsobjekts über mehrere Messzeitpunkte angibt, und für die Fusionsobjekte, die bewegte Objekte repräsentieren und für die die Nachverfolgungsinformation eine ausreichende Nachverfolgungsgüte anzeigt, die im Ausdehnungsbereich des Fusionsobjekts liegenden Zellen der Belegungskarte als belegt gekennzeichnet werden und diesen Zellen die Belegungswahrscheinlichkeit zugeordnet wird, die der Existenzwahrscheinlichkeit des Fusionsobjekts entspricht. Hierdurch wird eine Belegungskartendarstellung geschaffen, in der sowohl die statischen Objekte als auch die dynamisch bewegten Objekte mit einer hohen Existenzwahrscheinlichkeit an den Positionen dargestellt sind, die dem optimalen ”Wissensstand” der Umfelderfassung entsprechen. Es versteht sich, dass die Zellen, denen über die Fusionierungsobjekte eine Belegung und eine Existenzwahrscheinlichkeit bzw. Belegungswahrscheinlichkeit zugewiesen ist, gesondert gekennzeichnet sind, so dass bei einer Aktualisierung der Belegungskarte die Bewegung des Fusionsobjekts berücksichtigt wird.In particular, in order to consistently improve an object-based environment representation, such as provided via the merge objects, with the environment representation provided via the occupancy card, in one embodiment it is provided that tracking information is assigned to the merger objects that is a measure of a goodness of a follow-up of the entity Indicates fusion object over a plurality of measurement times, and for the fusion objects representing moving objects for which the tracking information indicates sufficient tracking quality, the occupancy map cells located in the extension area of the fusion object are designated as occupied and these cells are denoted by Be probability of likelihood corresponds to the likelihood of the merger. This creates an occupancy map representation in which both the static objects and the dynamically moving objects are represented with a high probability of existence at the positions that correspond to the optimal "knowledge level" of Umweisfassung. It is understood that the cells to which assignment and likelihood of existence or occupancy probability are assigned via the fusing objects are identified separately, so that when the occupancy map is updated, the movement of the fusion object is taken into account.

Als besonders vorteilhaft erweist sich hierbei eine Ausführungsform, bei der die Belegungswahrscheinlichkeiten, die bei der Erstellung der Belegungskarte ohne Berücksichtigung der Fusionierungsobjekte ermittelt sind, für die Zellen abgespeichert werden, wenn deren Belegungswahrscheinlichkeit aufgrund eines Fusionierungsobjekts verändert wird. Hat sich das Fusionierungsobjekt aus dem der Zelle zugeordneten Bereich wegbewegt, d. h. entfernt, können dann der Belegungszustand und/oder die Belegungswahrscheinlichkeit der Zelle, die zuvor abgespeichert wurden, erneut der Zelle zugewiesen bzw. in die Fusionierung der neu gewonnenen Informationen der Sensoreinrichtungen miteinbezogen werden.When Particularly advantageous here is an embodiment, where the occupancy probabilities involved in the creation the occupancy card without consideration of the merger objects determined are stored for the cells, if their occupancy probability changed due to a merger object. Has the merging object is from the area assigned to the cell moved away, d. H. then the occupancy state can be removed and / or the occupancy probability of the cell previously stored were reassigned to the cell or into the merger of the newly acquired information of the sensor devices involved become.

Die mindestens eine erste Sensoreinrichtung umfasst vorzugsweise eine Stereokamera und/oder die mindestens eine zweite Sensoreinrichtung ein Radar oder Lidar (Laser Imaging Detection and Ranging System).The at least one first sensor device preferably comprises one Stereo camera and / or the at least one second sensor device a radar or lidar (Laser Imaging Detection and Ranging System).

Die im Zusammenhang mit dem Verfahren beschriebenen Vorteile gelten entsprechend für die korrespondierenden Vorrichtungsmerkmale der erfindungsgemäßen Vorrichtung.The advantages described in connection with the method correspondingly for the corresponding device features the device according to the invention.

Nachfolgend wird die Erfindung unter Bezugnahme auf eine Zeichnung anhand von Ausführungsbeispielen näher erläutert. Hierbei zeigen:following the invention with reference to a drawing based on Embodiments explained in more detail. Hereby show:

1 ein schematisches Blockschaltbild einer Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs; 1 a schematic block diagram of an apparatus for providing an environment representation of a vehicle;

2 eine schematische Darstellung einer Erläuterung einer kartenbasierten Umfelddarstellung; 2 a schematic representation of an explanation of a card-based environment representation;

3 eine schematische Darstellung zur Beschreibung der Informationsgewinnung mit einem Radarsystem; three a schematic representation for describing the information acquisition with a radar system;

4 eine schematische Darstellung zur Erläuterung der Informationsgewinnung mittels einer Stereokamera; und 4 a schematic representation for explaining the information acquisition by means of a stereo camera; and

5 eine schematische Darstellung eines Verfahrens zur Umfelddarstellung. 5 a schematic representation of a method for environment representation.

In 1 ist schematisch eine Ausführungsform einer Vorrichtung 1 zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs beschrieben. Die Vorrichtung 1 umfasst eine erste Sensoreinrichtung, die beispielsweise als Radar oder Lidar ausgebildet ist. Eine solche Einrichtung sendet in unterschiedliche Richtungen elektromagnetische Strahlung aus, die an Objekten in der Umgebung zu dem Fahrzeug zurückreflektiert werden. Anhand der Laufzeit und einer eventuellen Frequenzverschiebung können eine Entfernung und eine Relativgeschwindigkeit des Objekts zu dem Fahrzeug ermittelt werden, an dem die erste Sensoreinrichtung 2 angeordnet ist. Die Vorrichtung 1 umfasst ferner eine zweite Sensoreinrichtung 3, die beispielsweise als Stereokamera ausgebildet ist. Eine Stereokamera umfasst zwei zueinander beabstandet angeordnete Bilderfassungseinheiten, die beispielsweise ein linkes und ein rechtes Kamerabild desselben Raumbereichs des Umfelds erfassen. Die Stereokamera berechnet anhand einer Disparität zwischen linkem und rechtem Kamerabild Tiefeninformationen von Objekten, die in den Bildern erkannt werden. Hierdurch ist eine 3D-Rekonstruktion von den in den Bildern erfassten Objekten im Umfeld des Fahrzeugs möglich, an dem die zweite Sensoreinrichtung angeordnet ist. Es versteht sich für den Fachmann, dass die Vorrichtung zum Bereitstellen einer Umfelddarstellung weitere Sensoreinrichtungen umfassen kann, die nach demselben oder unterschiedlichen Messprinzipien das Umfeld des Fahrzeugs erfassen.In 1 is schematically an embodiment of a device 1 for providing an environment representation of a vehicle. The device 1 comprises a first sensor device, which is designed for example as a radar or lidar. Such a device emits in different directions electromagnetic radiation which is reflected back to objects in the environment to the vehicle. Based on the transit time and a possible frequency shift, a distance and a relative speed of the object to the vehicle can be determined, at which the first sensor device 2 is arranged. The device 1 further comprises a second sensor device three , which is designed for example as a stereo camera. A stereo camera comprises two image acquisition units arranged at a distance from one another, which capture, for example, a left and a right camera image of the same spatial region of the environment. The stereo camera uses a disparity between the left and right camera images to calculate depth information of objects that are detected in the images. As a result, a 3D reconstruction of the objects detected in the images in the environment of the vehicle is possible on which the second sensor device is arranged. It is understood by those skilled in the art that the device for providing an environment representation may comprise further sensor devices which detect the surroundings of the vehicle according to the same or different measurement principles.

Die erste Sensoreinrichtung 2 und die zweite Sensoreinrichtung 3 sind so ausgestaltet, dass diese eine Vorauswertung der erfassten Informationen vornehmen und Objekte im Umfeld des Kraftfahrzeugs identifizieren. Die Informationen über die einzelnen detektierten Objekte werden zu einem so genannten Sensorobjekt zusammengefasst, welches die Attribute umfasst, die das entsprechende Objekt charakterisieren. Diese Attribute können beispielsweise die Position, eine Geschwindigkeit, eine Orientierung der Bewegung, eine Ausdehnung in den unterschiedlichen Raumrichtungen usw. umfassen. Ebenso können die einzelnen erkannten Objekte hinsichtlich ihres Objekttyps klassifiziert werden. Dies kann beispielsweise über ein Vergleichen der erfassten Daten mit Referenzdaten erfolgen. Die Sensoreinrichtungen 2, 3 sind ferner so ausgebildet, dass sämtliche Sensorobjekte, d. h. sämtliche erkannte Objekte, mit einer Existenzwahrscheinlichkeit als Attribut versehen werden. Diese Existenzwahrscheinlichkeit ist ein Maß dafür, dass das bei der Umfelderfassung von einer der Sensoreinrichtungen 2, 3 erkannte Objekt auch tatsächlich im Umfeld des Kraftfahrzeugs existiert.The first sensor device 2 and the second sensor device three are designed so that they make a pre-evaluation of the information collected and identify objects in the environment of the motor vehicle. The information about the individual detected objects is combined into a so-called sensor object, which comprises the attributes that characterize the corresponding object. These attributes can include, for example, the position, a speed, an orientation of the movement, a Expansion in the different spatial directions, etc. include. Likewise, the individual recognized objects can be classified according to their object type. This can be done, for example, by comparing the acquired data with reference data. The sensor devices 2 . three are further designed so that all sensor objects, ie all detected objects, are provided with an existence probability as an attribute. This likelihood of existence is a measure of the fact that in the environment detection of one of the sensor devices 2 . three recognized object actually exists in the environment of the motor vehicle.

Die erste Sensoreinrichtung 2 und die zweite Sensoreinrichtung 3 sind mit einer Auswerteeinrichtung 4 gekoppelt. An diese werden die Informationen über die erfassten Sensorobjekte, vorzugsweise in Form einer Objektliste, übertragen. In der Auswerteeinrichtung werden die erfassten Sensorobjekte der verschiedenen Sensoreinrichtungen 2, 3 zu Fusionsobjekten fusioniert. Hierbei können unterschiedliche Fusionierungsverfahren Anwendung finden. Diese können für die einzelnen Attribute angepasst gewählt werden. Die Auswerteeinrichtung 4 kann beispielsweise ein Expertensystem 5 umfassen, in dem Expertenwissen gespeichert ist, welches es ermöglicht, die in der Fusionierung erzeugten Fusionsobjekte zuverlässiger zu klassifizieren, als dies beispielsweise den einzelnen Sensoreinrichtungen möglich ist. Während beispielsweise anhand einer Stereokamera die räumlichen Abmessungen eines erfassten Objekts häufig gut ermittelt werden können, ist es nicht möglich, dynamische Aussagen, beispielsweise eine Relativgeschwindigkeit zum Fahrzeug, zu ermitteln. Diese Informationen kann jedoch beispielsweise aus einem Radarsystem anhand des Dopplereffekts bestimmt werden. Werden die Informationen über eine räumliche Ausdehnung und eine erfasste Relativgeschwindigkeit gemeinsam mit der bekannten Eigengeschwindigkeit des Fahrzeugs in Relation gesetzt, so können einzelne Objekte, die erkannt sind, zuverlässiger klassifiziert werden. Ein abgestellter Müllcontainer und ein Kleinwagen besitzen beispielsweise ungefähr identische Abmessungen. Anhand einer ermittelten Eigengeschwindigkeit des detektierten Objekts in einem ortsfesten Koordinatensystem ist es jedoch möglich, einen solchen am Straßenverkehr teilnehmenden Kleinwagen von einem abgestellten Container zu unterscheiden.The first sensor device 2 and the second sensor device three are with an evaluation device 4 coupled. The information about the detected sensor objects, preferably in the form of an object list, is transmitted to them. In the evaluation device, the detected sensor objects of the various sensor devices 2 . three merged into merger objects. Different methods of fusion can be used here. These can be adapted for the individual attributes. The evaluation device 4 For example, an expert system 5 in which expert knowledge is stored, which makes it possible to classify the fusion objects generated in the fusion more reliably than, for example, the individual sensor devices is possible. For example, while the spatial dimensions of a detected object can often be determined well using a stereo camera, it is not possible to determine dynamic statements, for example a relative speed to the vehicle. However, this information can be determined, for example, from a radar system based on the Doppler effect. If the information about a spatial extent and a detected relative speed are related to the known intrinsic speed of the vehicle, then individual objects that are detected can be classified more reliably. A parked refuse container and a small car, for example, have approximately identical dimensions. On the basis of a determined intrinsic speed of the detected object in a stationary coordinate system, however, it is possible to distinguish such a small car participating in the road from a parked container.

Insbesondere ist die Auswerteeinrichtung ausgebildet, für die von der ersten Sensoreinrichtung 2 und der zweiten Sensoreinrichtung 3 erkannten Sensorobjekte Fusionsobjekte zu ermitteln und insbesondere für diese eine Existenzwahrscheinlichkeit aus den Existenzwahrscheinlichkeiten der Sensorobjekte zu fusionieren. Die Fusion wird sensoreinrichtungsabhängig ausgeführt. Beispielsweise wird ein Gewicht einer Existenzwahrscheinlichkeit eines Sensorobjekts bei der Fusion verringert, wenn über eine dritte Sensoreinrichtung 17, die beispielsweise als Regensensor ausgebildet ist, Regen detektiert ist, der eine Datenerfassung einer Kamera nachteilig beeinflusst (nicht jedoch eine Radarmessung), und das Sensorobjekt von der als Stereokamera ausgebildeten zweiten Sensoreinrichtung 3 bereitgestellt ist. Bei einigen Ausführungsformen kann vorgesehen sein, dass die Sensoreinrichtungen 2, 3 so ausgebildet sind, dass diese als Objekte nur solche erkennen, die sich in einem ortsfesten Koordinatensystem selbst bewegen. Dies bedeutet, dass als Sensorobjekte nur dynamische Objekte detektiert bzw. an die Auswerteeinrichtung 4 übermittelt werden.In particular, the evaluation device is designed for the first sensor device 2 and the second sensor device three detected sensor objects to identify fusion objects and in particular for this one existence probability from the existence probabilities of the sensor objects to merge. The fusion is carried out depending on the sensor device. For example, a weight of a likelihood of existence of a sensor object in the fusion is reduced when using a third sensor device 17 , which is formed for example as a rain sensor, rain is detected, which adversely affects a data acquisition of a camera (but not a radar measurement), and the sensor object of the configured as a stereo camera second sensor device three is provided. In some embodiments, it may be provided that the sensor devices 2 . three are designed so that they recognize as objects only those that move in a fixed coordinate system itself. This means that only dynamic objects are detected as sensor objects or to the evaluation device 4 be transmitted.

Um eine verbesserte Umfelddarstellung zu erhalten, liefern die erste Sensoreinrichtung 2 und die zweite Sensoreinrichtung 3 an die Auswerteeinrichtung 4 darüber hinaus Informationen, die es der Auswerteeinrichtung ermöglichen, eine Belegungskarte für das Umfeld des Fahrzeugs zu erstellen. Hierfür wird die Umgebung des Fahrzeugs, d. h. dessen Umfeld, gedanklich in Bereiche unterteilt. Jedem Bereich wird dann eine Zelle zugeordnet. Die einzelnen Zellen bilden dann eine so genannte Belegungskarte. Jeder Zelle wird ein Belegungszustand zugeordnet, der angibt, ob sich in dem der Zelle zugeordneten Bereich des Umfelds ein Objekt befindet (Zustand ”belegt”) oder kein Objekt befindet (Zustand ”frei”). Die Zellen können darüber hinaus den Zustand ”unbekannt” annehmen, wenn es anhand der erfassten Informationen nicht möglich ist, eine Aussage über den entsprechenden Bereich der Umgebung des Fahrzeugs hinsichtlich eines Belegungszustands zu geben.In order to obtain an improved environment representation, provide the first sensor device 2 and the second sensor device three to the evaluation device 4 In addition, information that enables the evaluation device to create an occupancy map for the environment of the vehicle. For this purpose, the environment of the vehicle, ie its environment, mentally divided into areas. Each area is then assigned a cell. The individual cells then form a so-called occupancy card. Each cell is assigned an occupancy state, which indicates whether an object is in the area of the environment assigned to the cell (state "occupied") or no object is located (state "free"). The cells may moreover assume the status "unknown" if it is not possible, based on the acquired information, to provide information about the corresponding area of the surroundings of the vehicle with regard to an occupancy state.

Dem Fachmann sind Verfahren bekannt, wie eine solche Belegungskarte erstellt werden kann. Üblich ist es, dass jeder Zelle mindestens eine Belegungswahrscheinlichkeit zugeordnet ist, die ein statistisches Maß dafür ist, dass die Zelle belegt oder frei ist. Wird die Belegungswahrscheinlichkeit für die Zelle auf einen Wert zwischen Null und Eins begrenzt, so ist es beispielsweise möglich, dem Wert Eins den Zustand ”belegt” und dem Wert Null den Zustand ”frei” zuzuordnen. Da einzelne Messungen nur eine endliche Wahrscheinlichkeit für eine Existenz eines Objekts in einem entsprechenden Raumbereich angeben, ist es vorteilhaft, die Belegungswahrscheinlichkeit einer Zelle in der Belegungskarte dadurch abzusichern oder zu erhärten, dass die Belegungsinformationen unterschiedlicher Messzyklen fusioniert werden. Als Fusionierungsmethoden werden häufig das Bayes-Theorem, die Dempster-Shafer-Theorie oder eine Fuzzy-Logik verwendet. Beispielsweise kann die Belegungswahrscheinlichkeit P i / Beleg(k + 1) einer Zelle i zum Zeitpunkt k + 1 anhand folgender Fusionsformel errechnet werden:

Figure 00120001
The person skilled in the art knows methods of how to create such an occupancy card. It is common for each cell to have at least one occupancy probability associated with it, which is a statistical measure of the cell being occupied or free. If the occupancy probability for the cell is limited to a value between zero and one, it is for example possible to assign the value "one" to the state "occupied" and the value zero to the state "free". Since individual measurements indicate only a finite probability for an existence of an object in a corresponding spatial area, it is advantageous to secure or to confirm the occupancy probability of a cell in the occupancy map by fusing the occupancy information of different measurement cycles. Frequently used as fusion methods are the Bayesian theorem, the Dempster-Shafer theory or a fuzzy logic. For example, the occupancy probability P i / slip (k + 1) of a cell i at time k + 1 can be calculated using the following fusion formula:
Figure 00120001

Hierbei gibt P i.Sensor / Beleg(k + 1) die durch die Sensoreinrichtung ermittelte Belegungswahrscheinlichkeit für die Zelle i zum Zeitpunkt k + 1 an. Zellen werden mit einer Belegungswahrscheinlichkeit PBeleg = 0,5 initialisiert, was bedeutet, dass der Belegungszustand unbekannt ist.In this case, P i.sensor / document (k + 1) indicates the occupancy probability for cell i determined by the sensor device at time k + 1. Cells are initialized with an occupancy probability P slip = 0.5, which means that the occupancy state is unknown.

In 2 ist schematische im oberen Teil eine Draufsicht auf eine Straßenszene gezeigt, in der sich ein Kraftfahrzeug 6 auf einer Straße 7 in einer durch einen Pfeil 8 angegebenen Richtung bewegt. Am in Fahrtrichtung linken Fahrbahnrand 9 befinden sich als Bäume und Sträucher ausgebildete Objekte 10. Am in Fahrtrichtung rechten Fahrbahnrand 11 befindet sich eine Leitplanke 12. Ferner befindet sich auf einem Seitenstreifen 13 ein weiteres Objekt 14. Zur Erleichterung einer Orientierung ist ein Koordinatensystem 15 eingezeichnet. Im unteren Teil der Darstellung der 2 ist eine Belegungskarte 16 dargestellt, wie sie von dem Kraftfahrzeug 6 während der Fahrt erfasst worden ist. Eine Belegungswahrscheinlichkeit ist über eine Schraffur angedeutet. Je enger die Schraffur, desto höher ist die Belegungswahrscheinlichkeit. Das Kraftfahrzeug selbst ist auf die Belegungswahrscheinlichkeit 1 gesetzt, obwohl dieses selbstverständlich nicht von den Sensoreinrichtungen erfasst wird. In der Belegungskarte sind die erkannten Gegenstände mit denselben Bezugszeichen wie im oberen Teil der 1 bezeichnet, jedoch mit einem Apostroph versehen.In 2 is schematic in the upper part of a plan view of a street scene shown in which a motor vehicle 6 on a street 7 in one by an arrow 8th specified direction moves. At the left in the direction of travel roadside 9 are formed as trees and shrubs objects 10 , At the right in the direction of travel roadside 11 there is a guardrail 12 , Further, located on a side strip 13 another object 14 , To facilitate an orientation is a coordinate system 15 located. In the lower part of the representation of the 2 is an occupancy card 16 shown as coming from the motor vehicle 6 while driving has been detected. An occupancy probability is indicated by a hatching. The closer the hatching, the higher the occupancy probability. The motor vehicle itself is based on the occupancy probability 1 Although this is of course not detected by the sensor devices. In the occupancy card, the recognized items with the same reference numerals as in the upper part of 1 marked, but provided with an apostrophe.

Anhand von 3 und 4 soll erläutert werden, wie die verschiedenen Sensoreinrichtungen Informationen zum Erstellen einer Belegungskarte sowie zum Detektieren von Sensorobjekten erfassen und auswerten.Based on three and 4 It will be explained how the various sensor devices acquire and evaluate information for creating an occupancy map and for detecting sensor objects.

In 3 ist auf der rechten Seite eine fotografische Abbildung 21 eines Bereichs vor einem Kraftfahrzeug, gesehen von dem Kraftfahrzeug aus, dargestellt. Zu erkennen ist eine Fahrbahn 22, auf der sich ein vorausfahrendes Fahrzeug 23 befindet. Ferner ist links der Fahrbahn 22 ein Straßenbaum 24 zu erkennen. In größerem Abstand seitlich links von der Fahrbahn 22 sind ferner abgestellte Fahrzeuge 25 schwach zu erkennen. Auf der linken Seite der 3 sind die von einem Radarsystem erfassten Rohdaten grafisch aufgetragen. Die Ordinate 27 gibt eine Entfernung vor dem Kraftfahrzeug an, während die Abszisse 28 quer zur Fahrtrichtung orientiert ist. In einem Erfassungsbereich 32 des Radars ist über Graustufen eine Signalstärke für jene Signale codiert, die aus dem entsprechenden Raumbereich zum Fahrzeug zurückreflektiert wurden. Je dunkler ein Bereich ist, desto höher ist die gemessene Signalstärke. Gut zu erkennen sind die starken Reflexionssignale 29, die mit dem Straßenbaum 24 korrespondieren, sowie die Reflexionssignale 30, die mit dem vorausfahrenden Fahrzeug 23 korrespondieren. Über eine schwächere Schraffur sind ferner Reflexionssignale 31 zu erkennen, die den abgestellten Fahrzeugen 25 zugeordnet werden können. Diese erfassten Informationen können unmittelbar zum Erstellen einer Belegungskarte durch die Auswerteeinrichtung (vergleiche 1) verwendet werden. Eine Belegungswahrscheinlichkeit ist hierbei durch die Signalstärke der Reflexion angegeben.In three is a photographic illustration on the right 21 an area in front of a motor vehicle as viewed from the motor vehicle. To recognize is a roadway 22 on which a preceding vehicle 23 located. Further, the lane is on the left 22 a street tree 24 to recognize. At a greater distance laterally to the left of the road 22 are also parked vehicles 25 weak to recognize. On the left side of the three the raw data collected by a radar system is plotted graphically. The ordinate 27 indicates a distance in front of the motor vehicle while the abscissa 28 oriented transversely to the direction of travel. In a detection area 32 The radar uses gray levels to encode a signal strength for those signals that have been reflected back to the vehicle from the corresponding area. The darker an area is, the higher the measured signal strength. Good to see are the strong reflection signals 29 that with the street tree 24 correspond, as well as the reflection signals 30 that with the preceding vehicle 23 correspond. Over a weaker hatching are also reflection signals 31 to recognize the parked vehicles 25 can be assigned. This acquired information can be used directly by the evaluation device to create an occupancy card (cf. 1 ) be used. An occupancy probability is given here by the signal strength of the reflection.

Die Sensoreinrichtung ist ferner so ausgebildet, dass einzelne Objekte, hier der Straßenbaum 24 und das vorausfahrende Fahrzeug 23, als Objekte im Umfeld des Kraftfahrzeugs identifiziert und gegebenenfalls beispielsweise über eine ermittelte Eigengeschwindigkeit durch Auswertung einer Dopplerverschiebung klassifiziert werden. Eine Klassifizierung kann auch beispielsweise über ein Höhen-Ausdehnungsverhältnis erfolgen.The sensor device is further configured so that individual objects, here the street tree 24 and the preceding vehicle 23 , identified as objects in the environment of the motor vehicle and possibly classified, for example, via a determined airspeed by evaluation of a Doppler shift. A classification can also be done for example via a height-expansion ratio.

In 4 ist analog die Datenerfassung für eine Stereokamera schematisch dargestellt. Auf der linken Seite ist erneut eine fotografische Abbildung 41 des Bereichs vor dem Kraftfahrzeug dargestellt. Zu erkennen ist eine Fahrbahn 42, mehrere vorausfahrende Fahrzeuge 4345, eine Straßenlaterne 46, einige Straßenbäume 47 sowie eine Hecke oder Mauer 48. Anhand einer Disparität zwischen zwei in einem Abstand zueinander aufgenommenen Aufnahmen wird eine 3D-Rekonstruktion der grafisch erfassten Elemente und Objekte vorgenommen. Hierdurch kann sowohl eine Position der Objekte in der Ebene bestimmt werden, in der sich das Fahrzeug bewegt, als auch eine Höhe der Objekte über dieser Ebene. Auf der rechten Seite der 4 ist eine Draufsicht auf den Raum vor dem Fahrzeug grafisch dargestellt. Die Ordinate 51 kennzeichnet erneut den Abstand vom Fahrzeug in Fahrtrichtung und die Abszisse 52 eine Orientierung quer zur Fahrtrichtung des Fahrzeugs. Über eine Graustufe ist jeweils eine Höhe der rekonstruierten Bildpunkte in dem entsprechenden Bereich angedeutet. Die Höhen korrespondieren mit Höhen der detektierten Objekte gegenüber der Ebene. Zu erkennen sind sowohl die Mauer/Hecke 48' als auch die vorausfahrenden Fahrzeuge 43'45' sowie die Straßenlaterne 46' in der Darstellung zu erkennen sind. Ein Maß für die Existenzwahrscheinlichkeit ist dadurch gegeben, wie viele Bildpunkte innerhalb eines Flächenbereichs, der dem erkannten Objekt zugeordnet wird, erfasst worden sind. Die dargestellten Informationen können somit ebenfalls verwendet werden, um eine Belegungskarte zu verbessern. Ferner ist es möglich, aufgrund von mehreren nacheinander aufgenommenen Stereoabbildungen ein so genanntes Objekttracking durchzuführen. Hierbei werden bei einer Ausführungsform die erkannten Objekte selektiert, die dynamische Objekte sind. Diese werden dann in Form einer Objektliste der Auswerteeinrichtung 4 (vergleiche 1) bereitgestellt.In 4 Analogously, the data acquisition for a stereo camera is shown schematically. On the left side is again a photographic image 41 of the area in front of the motor vehicle. To recognize is a roadway 42 , several vehicles in front 43 - 45 , a street lamp 46 , some street trees 47 as well as a hedge or wall 48 , On the basis of a disparity between two recordings taken at a distance from one another, a 3D reconstruction of the graphically recorded elements and objects is undertaken. As a result, both a position of the objects in the plane in which the vehicle moves and a height of the objects above this plane can be determined. On the right side of the 4 is a plan view of the space in front of the vehicle graphed. The ordinate 51 again indicates the distance from the vehicle in the direction of travel and the abscissa 52 an orientation transverse to the direction of travel of the vehicle. About a gray level in each case a height of the reconstructed pixels in the corresponding area is indicated. The heights correspond to heights of the detected objects in relation to the plane. To recognize are both the wall / hedge 48 ' as well as the vehicles in front 43 ' - 45 ' as well as the street lamp 46 ' can be seen in the illustration. A measure of the likelihood of existence is given by how many pixels within a surface area associated with the detected object have been detected. The displayed information can thus also be used to improve an occupancy map. Furthermore, it is possible, due to several consecutively recorded Ste reo images to perform a so-called object tracking. In this case, in one embodiment, the detected objects are selected which are dynamic objects. These are then in the form of an object list of the evaluation device 4 (see 1 ) provided.

Um die Existenzwahrscheinlichkeit der erkannten Objekte verbessert bestimmen zu können, werden diese von den einzelnen Sensoreinrichtungen über mehrere Messzyklen verfolgt (getrackt). Hierbei wird anhand der Häufigkeit, mit der ein Objekt vorausgehend erkannt wurde, eine Existenzwahrscheinlichkeit aufgrund seiner ”Lebensdauer”, d. h. Erfassungslebensdauer, ermittelt. Je häufiger ein Objekt erkannt wurde, desto höher ist dessen Existenzwahrscheinlichkeit und desto unwahrscheinlicher ist es, dass die Detektion auf ein Messrauschen oder Ähnliches zurückzuführen ist. Zusätzlich werden bei einer Kamera beispielsweise die Anzahl der dem Objekt zugeordneten 3D-Punkte ausgewertet, um eine Existenzwahrscheinlichkeit zu erhalten. Je mehr 3D-Bildpunkte einem Objekt zugeordnet werden, desto größer ist dessen Existenzwahrscheinlichkeit. Hierbei ist jedoch zu berücksichtigen, dass Objekte in großer Entfernung aufgrund der Abbildungsperspektive zwangsläufig nur einen kleineren Bildbereich bedecken und eine Anzahl der Bildpunkte, die diesen zugeordnet werden können, zwangsweise geringer sind als bei einem Objekt, welches sich in unmittelbarer Nähe des Fahrzeugs bei der Detektion befindet. Daher wird die Existenzwahrscheinlichkeit aufgrund der Anzahl der detektierten und dem Objekt zugewiesenen Messpunkte bei einer Ausführungsform in Abhängigkeit eines Abstands von dem Fahrzeug ermittelt. Für andere Sensoreinrichtungen können andere Kriterien herangezogen werden, um eine Existenzwahrscheinlichkeit der detektierten Objekte zu ermitteln. Für Radar- oder Lidarsensoren wird hierzu beispielsweise wie oben bereits erwähnt eine Reflexionssignalstärke herangezogen. Die einzelnen so ermittelten Existenzwahrscheinlichkeiten für die einzelnen Objekte werden in den einzelnen Sensoreinrichtungen vorzugsweise über einen der Fuzzy-Logik entstammenden Ansatz fusioniert, welcher über die nachfolgenden Fusionierungsformeln für die Existenzwahrscheinlichkeit einzelner Objekte, wie sie in den Sensoreinrichtungen ermittelt werden, angegeben sind. Die Gammafaktoren werden verwendet, um eine Verknüpfung zu wählen, die zwischen einer Oder-Verknüpfung (γ = 1) und einer Und-Verknüpfung (γ = 0) angepasst an den entsprechenden Sensortyp ausgewählt werden kann. Die Gammafaktoren werden somit für jeden einzelnen Sensor bzw. jede einzelne Sensoreinrichtung individuell angepasst. Für eine Stereokamera wird somit die Existenzwahrscheinlichkeit eines detektierten Sensorobjekts vorzugsweise nach folgender Formel berechnet: PCameraObj(k) = [PLebensdauer(k)·P3D-Punkte(k)]1-γ·[1 – (1 – PLebensdauer(k))·(1 – P3D-Punkte(k))]γ,wobei PLebensdauer(k) die aus der Anzahl der vorangegangenen Erkennungen abgeleitete Existenzwahrscheinlichkeit und P3D-Punkte, die aus der Anzahl der zum Objekt gehörigen 3D-Punkte ermittelten Existenzwahrscheinlichkeiten angeben. Entsprechend lautet die Fusionierungsformel für ein durch ein Radarsystem erfasstes Sensorobjekt: PRadarObj(k) = [PLebensdauer(k)·PSignalstäike(k)]1-γ·[1 – (1 – PLebensdauer(k))·(1 – PSignalstäike(k))]γ. In order to determine the probability of existence of the detected objects improved, they are tracked by the individual sensor devices over several measuring cycles (tracked). In this case, based on the frequency with which an object was previously detected, a probability of existence is determined on the basis of its "lifetime", ie acquisition life. The more often an object is detected, the higher its probability of existence and the less likely it is that the detection is due to a measurement noise or the like. In addition, in a camera, for example, the number of 3D points assigned to the object is evaluated in order to obtain a probability of existence. The more 3D pixels are assigned to an object, the greater is its likelihood. However, it should be noted that because of the imaging perspective, objects at a great distance inevitably cover only a smaller image area and a number of pixels that can be assigned to them are forcibly lower than an object located in the immediate vicinity of the vehicle at detection located. Therefore, in one embodiment, the likelihood of existence is determined based on the number of detected and object-assigned measurement points as a function of a distance from the vehicle. For other sensor devices, other criteria can be used to determine a likelihood of existence of the detected objects. For radar or Lidarsensoren this example, as already mentioned above, a reflection signal strength is used. The individual probabilities of existence so determined for the individual objects are preferably fused in the individual sensor devices via an approach originating from the fuzzy logic, which is specified via the following fusing formulas for the probability of existence of individual objects as determined in the sensor devices. The gamma factors are used to select a link that can be selected between an OR link (γ = 1) and an AND link (γ = 0) adapted to the corresponding sensor type. The gamma factors are thus individually adapted for each individual sensor or each individual sensor device. For a stereo camera, the probability of existence of a detected sensor object is thus preferably calculated according to the following formula: P CameraObj (k) = [P lifespan (K) · P 3D points (K)] 1-γ · [1 - (1 - P lifespan (k)) · (1 - P 3D points (K))] γ . where P lifetime (k) is the probability of existence derived from the number of previous detections and P is 3D points that are determined from the number of existence probabilities determined from the number of 3D points associated with the object. Accordingly, the fusion formula for a radar system-detected sensor object is: P RadarObj (k) = [P lifespan (K) · P Signalstäike (K)] 1-γ · [1 - (1 - P lifespan (k)) · (1 - P Signalstäike (K))] γ ,

Hierbei gibt PSignalstärke(k) die aufgrund der Reflexionssignalstärke ermittelte Existenzwahrscheinlichkeit eines Objekts an.Here, P signal strength (k) indicates the existence probability of an object determined on the basis of the reflection signal strength .

Auch wenn die in den einzelnen Sensoreinrichtungen ermittelten Existenzwahrscheinlichkeiten bereits eine hohe Güte aufweisen, lässt sich diese deutlich verbessern, indem in der Auswerteeinrichtung eine Fusionierung der Sensorobjekte zu Fusionsobjekten durchgeführt wird. Dies ist exemplarisch in 5 dargestellt. Eine erste als Radar ausgebildete Sensoreinrichtung 61 und eine als Stereokamera ausgebildete zweite Sensoreinrichtung 62 erfassen das Umfeld. Diese Sensoreinrichtungen 61, 62 liefern sowohl Informationen 63, die für eine kartenbasierte Fusion 64 verwendet werden können, als auch Informationen 65 über erkannte Sensorobjekte für eine objektbasierte Sensorfusion 66. Bei einigen Ausführungsformen umfassen die Informationen 63 für die kartenbasierte Fusion nur solche Informationen, die nicht den für die objektbasierte Fusion 66 zugeführten Sensorobjekte zugeordnet werden können. Entsprechend werden für die objektbasierte Fusion nur solche erkannten Objekte verwendet, welche als dynamische, d. h. selbstbewegte, Objekte erkannte sind.Even if the existence probabilities determined in the individual sensor devices already have a high quality, they can be significantly improved by fusing the sensor objects to fusion objects in the evaluation device. This is exemplary in 5 shown. A first designed as a radar sensor device 61 and a second sensor device designed as a stereo camera 62 capture the environment. These sensor devices 61 . 62 provide both information 63 for a card-based merger 64 can be used as well as information 65 about detected sensor objects for an object-based sensor fusion 66 , In some embodiments, the information includes 63 for the card-based merger, only information that is not relevant to the object-based merger 66 supplied sensor objects can be assigned. Accordingly, object-based fusion uses only those recognized objects that are recognized as dynamic, ie self-moving, objects.

Bei der kartenbasierten Fusion 64 werden die einzelnen Informationen mit Zellen der Belegungskarte assoziiert 67 und anschließend eine Aktualisierung 68 der einzelnen Zellen der Belegungskarte durchgeführt. Hierbei werden insbesondere die bereits zuvor ermittelten Belegungswahrscheinlichkeiten der Zellen mit den neu ermittelten Belegungswahrscheinlichkeiten fusioniert. Man erhält eine Belegungskarte 69 mit Zellen, denen Belegungswahrscheinlichkeiten zugeordnet sind.At the card-based merger 64 the individual information is associated with cells of the occupancy map 67 and then an update 68 the individual cells of the occupancy map. Here, in particular, the previously determined occupancy probabilities of the cells are merged with the newly determined occupancy probabilities. You get an occupancy card 69 with cells to which occupancy probabilities are assigned.

Bei der objektbasierten Fusion 66 werden die Sensorobjekte, die von den einzelnen Sensoreinrichtungen 61, 62 in Form von Objektlisten geliefert sind, miteinander assoziiert 71 und beispielsweise über ein Kalman-Filter-Tracking 72 nachverfolgt. Für die einzelnen fusionierten Objekte wird abhängig davon, ob ein Sensorobjekt mit einem bereits zuvor erkannten Objekt fusioniert werden kann, eine Initialisierung 73 eines Fusionsobjekts oder eine Aktualisierung 74 des Fusionsobjekts vorgenommen, mit dem das Sensorobjekt assoziiert werden kann. Für Fusionsobjekte, die eine vorgegebene Existenzwahrscheinlichkeit unterschreiten und mit keinem Sensorobjekt assoziiert werden können, findet eine Verwerfung 75 statt.In the object-based merger 66 are the sensor objects, the by the individual Sensoreinrichtun gene 61 . 62 are delivered in the form of object lists, associated with each other 71 and for example via Kalman filter tracking 72 tracked. For the individual merged objects, an initialization is dependent on whether a sensor object can be fused with an object previously detected 73 a merger object or an update 74 of the fusion object to which the sensor object can be associated. For fusion objects, which fall below a given probability of existence and can not be associated with any sensor object, finds a fault 75 instead of.

Wird ein Objekt erstmals erfasst, so kann das zugehörige Sensorobjekt mit keinem der zuvor ermittelten Fusionsobjekte assoziiert werden. Somit wird ein neues Fusionsobjekt initialisiert, dessen Existenzwahrscheinlichkeit PFusobj(k) die Existenzwahrscheinlichkeit des entsprechenden Sensorobjekts PSensobj(k) zugewiesen wird: PFusObj(k) = PSenObj(k). If an object is detected for the first time, the associated sensor object can not be associated with any of the previously determined fusion objects. Thus, a new fusion object is initialized whose existence probability P Fusobj (k) is assigned the existence probability of the corresponding sensor object P Sensobj (k): P FusObj (k) = P SenObj (K).

Kann ein Sensorobjekt einem Fusionsobjekt zugeordnet werden, so wird die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 gemäß folgender Formel berechnet:

Figure 00170001
If a sensor object can be assigned to a fusion object, the probability of existence of the fusion object at time k + 1 is calculated according to the following formula:
Figure 00170001

Hierbei geben δA und δB Gewichtungen für das Sensorobjekt und das Fusionsobjekt an. Hierbei gilt: δA + δB = 1. Die Gewichte werden auf Basis eines aktuellen Sensorvertrauensgrads und einer Abweichung zwischen prädiziertem Fusionsobjekt und gemessenem Sensorobjekt festgelegt. Wird somit eine große Abweichung beim Tracken des Fusionsobjekts festgestellt, so wird die Existenzwahrscheinlichkeit des Sensorobjekts geringer gewichtet. Die Gewichtung des Sensorobjekts wird verringert, wenn äußere Einflüsse für eine Sensoreinrichtung deren Messzuverlässigkeit beeinflusst. Beispielsweise beeinflusst Regen eine Detektionszuverlässigkeit einer Stereokamera nachteilig. Solche Informationen können beispielsweise über die dritte Sensoreinrichtung 1 bei der Vorrichtung 1 nach 1 gewonnen werden. Die Gewichte werden somit aktuell und sensorabhängig angepasst. Der Gammafaktor gibt wie bei den oben angegebenen Fusionsformeln erneut an, ob die beiden fusionierten Existenzwahrscheinlichkeiten eher als Oder- oder als Und-Verknüpfung miteinander fusioniert werden sollen.Here, δ A and δ B indicate weights for the sensor object and the fusion object. The following applies: δ A + δ B = 1. The weights are determined on the basis of a current sensor confidence level and a deviation between the predicted fusion object and the measured sensor object. Thus, if a large deviation in the tracking of the fusion object is detected, the existence probability of the sensor object is weighted less. The weighting of the sensor object is reduced when external influences for a sensor device affect its measurement reliability. For example, rain adversely affects a detection reliability of a stereo camera. Such information can, for example, via the third sensor device 1 at the device 1 to 1 be won. The weights are thus adjusted to current and sensor-dependent. As with the fusion formulas given above, the gamma factor again indicates whether the two fused existence probabilities are to be fused together rather than OR or as AND.

Kann ein Fusionsobjekt keinem der ermittelten Sensorobjekte zugeordnet werden, so wird bei einer bevorzugten Ausführungsform dessen Existenzwahrscheinlichkeit dadurch aktualisiert, dass anstelle einer durch ein Sensorobjekt gelieferten Existenzwahrscheinlichkeit anhand der Belegungskarte die Belegungswahrscheinlichkeit an dem Ort, an dem sich das Fusionsobjekt gemäß der Prädiktion befinden soll, verwendet wird, um eine Existenzwahrscheinlichkeit abzuleiten. Eine Fusionierung der Existenzwahrscheinlichkeit des Fusionsobjekts erfolgt in einem solchen Fall gemäß folgender Formel: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ. If a fusion object can not be assigned to any of the detected sensor objects, in a preferred embodiment its probability of existence is updated by using the occupancy probability at the location where the fusion object is to be located according to the prediction instead of a probability of existence provided by a sensor object on the basis of the occupancy map is to derive a likelihood of existence. A fusion of the likelihood of the merger object in such a case takes place according to the following formula: P FusObj (k + 1) = [P FusObj (K) · P Grid (k + 1)] 1-γ · [1 - (1 - P FusObj (k)) · (1 - P Grid (k + 1))] γ ,

γ ist erneut eine geeignet zu wählende Fusionierungskonstante. PGrid(k + 1) gibt die aus der Belegungskarte abgeleitete Existenzwahrscheinlichkeit zum Zeitpunkt k + 1, vorzugsweise nach dem Aktualisieren der Belegungskarte, an.γ is again a suitable fusing constant. P Grid (k + 1) indicates the probability of existence derived from the occupancy map at time k + 1, preferably after updating the occupancy map.

Kann ein Fusionsobjekt keinem der Sensorobjekte zugeordnet werden und ist dessen Existenzwahrscheinlichkeit kleiner als ein Vorgabewert, beispielsweise kleiner 0,2, so wird das Fusionsobjekt verworfen, d. h. nicht weiter nachverfolgt (getrackt).can a fusion object can not be assigned to any of the sensor objects and if its probability of existence is smaller than a default value, For example, less than 0.2, the fusion object is discarded, d. H. not further tracked (tracked).

Die objektbasierte Fusion 66 liefert somit Objekte, Fusionsobjekte, mit einer sehr zuverlässigen Existenzwahrscheinlichkeit 76.The object-based merger 66 thus delivers objects, fusion objects, with a very reliable probability of existence 76 ,

Bei einer Ausführungsform ist vorgesehen, dass die dynamischen Objekte gemäß ihrer Klassifizierung, welche eine Ausdehnung angibt, oder nur punktuell, d. h. in einer Zelle, in die Belegungskarte eingetragen werden und ihnen dort als Belegungswahrscheinlichkeit die ermittelte Existenzwahrscheinlichkeit des entsprechenden Fusionsobjekts zugeordnet wird. Hierdurch erhält man eine sehr stark verbesserte Belegungskarte, in der sowohl die statischen Bereiche als auch die dynamischen Objekte jeweils mit einer hohen Zuverlässigkeit hinsichtlich der Belegungswahrscheinlichkeit bzw. Existenzwahrscheinlichkeit verzeichnet sind.at an embodiment, it is provided that the dynamic Objects according to their classification, which is a Indicates extent or only occasionally, d. H. in a cell, in the occupancy card is entered and you there as Occupancy Probability the determined likelihood of existence of the corresponding fusion object is assigned. This gives a very much improved Occupancy map, in which both the static areas and the dynamic objects each with a high reliability in terms of occupancy probability or likelihood of existence are recorded.

Allgemein wird den übrigen Fahrzeugsystemen eine Umfelddarstellung bereitgestellt, die die dynamischen Objekte und die statischen Bereiche optimal charakterisieren. Hierbei ist es möglich, dass sowohl die Fusionsobjekte mit ihren Existenzwahrscheinlichkeiten als auch eine Belegungskarte mit und/oder ohne darin eingefügte Fusionsobjekte bereitgestellt werden.In general, the rest of the vehicle systems are provided with an environment representation that optimally characterizes the dynamic objects and the static areas. It is possible that both the Fusion objects are provided with their existence probabilities as well as an occupancy card with and / or without inserted fusion objects.

Es versteht sich, dass die dargestellten Ausführungsformen lediglich beispielhafte Ausführungsformen sind. Insbesondere können mehr Sensoreinrichtungen in die Sensordatenfusion einbezogen werden. Ferner wird angemerkt, dass die Fusionierung der Sensorobjekte jeweils über Fusionsobjekte ausgeführt ist. Dies bietet den Vorteil, dass die einzelnen Sensoreinrichtungen nicht zeitlich synchronisiert ihre Sensordaten zur Verfügung stellen müssen. Andere Ausführungsformen können jedoch sehr wohl vorsehen, dass Sensordaten einzelner unterschiedlicher Sensoreinrichtungen zunächst miteinander assoziiert und fusioniert werden und erst anschließend gegebenenfalls zusätzlich mit einem zuvor ermittelten Fusionsobjekt zu einem aktualisierten Fusionsobjekt fusioniert werden.It it is understood that the illustrated embodiments are merely exemplary embodiments. Especially can more sensor devices in the sensor data fusion be included. It is also noted that the merger the sensor objects are each executed via fusion objects is. This offers the advantage that the individual sensor devices not timed their sensor data available have to ask. Other embodiments may However, very well provide that sensor data individually different Sensor devices first associated with each other and be merged and only subsequently, if necessary additionally with a previously determined fusion object merged into an updated fusion object.

11
Vorrichtung zum Bereitstellen einer Umfelddarstellungcontraption for providing an environment representation
22
erste Sensoreinrichtungfirst sensor device
33
zweite Sensoreinrichtungsecond sensor device
44
Auswerteeinrichtungevaluation
55
Expertensystemexpert system
66
Kraftfahrzeugmotor vehicle
77
StraßeStreet
88th
Pfeilarrow
99
linker Fahrbahnrand (in Fahrtrichtung)left Roadside (in the direction of travel)
1010
Objekteobjects
1111
rechter Fahrbahnrand (in Fahrtrichtung)right Roadside (in the direction of travel)
1212
Leitplankebarrier
1313
Seitenstreifenshoulder
1414
weiteres Objektadditional object
1515
Koordinatensystemcoordinate system
1616
Belegungskarteoccupancy map
1717
dritte Sensoreinrichtungthird sensor device
2121
Bildimage
2222
Fahrbahnroadway
2323
vorausfahrendes Fahrzeugdriving ahead vehicle
2424
Straßenbaumstreet tree
2525
abgestelltes Fahrzeugparked vehicle
2727
Ordinateordinate
2828
Abszisseabscissa
29–3129-31
Reflexionssignalereflection signals
3232
Erfassungsbereichdetection range
4141
AbbildungIllustration
4242
Fahrbahnroadway
43–4543-45
vorausfahrende Fahrzeugedriving ahead vehicles
4646
Straßenlaternestreet lamp
4747
Baumtree
4848
Hecke/MauerHedge / wall
5151
Ordinateordinate
5252
Abszisseabscissa
5353
Randstreifenedge strips
6161
erste Sensoreinrichtungfirst sensor device
6262
zweite Sensoreinrichtungsecond sensor device
6363
Informationen für eine kartenbasierte Fusioninformation for a card-based merger
6464
kartenbasierte Fusionmap-based fusion
6565
Informationen für eine Sensorobjektfusioninformation for a sensor object fusion
6666
objektbasierte Fusionobject-based fusion
6767
Assoziieren mit ZellenAssociate with cells
6868
Aktualisieren der ZellenTo update the cells
6969
Belegungskarteoccupancy map
7171
Assoziationassociation
7272
Kalman-Filter-TrackingKalman filter tracking
7373
Initialisierunginitialization
7474
AktualisierungUpdate
7575
Verwerfungrejection
7676
Bereitstellen von Objekten mit ExistenzwahrscheinlichkeitProvide of objects with probability of existence
7777
Bereitstellen einer UmfelddarstellungProvide an environment representation

ZITATE ENTHALTEN IN DER BESCHREIBUNGQUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list The documents listed by the applicant have been automated generated and is solely for better information recorded by the reader. The list is not part of the German Patent or utility model application. The DPMA takes over no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • - DE 102006035207 [0003] - DE 102006035207 [0003]

Claims (23)

Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung (2) und mindestens einer zweiten Sensoreinrichtung (3) sowie einer Auswerteeinrichtung (4), dadurch gekennzeichnet, dass die Sensoreinrichtungen (2, 3) Informationen über in einem Umfeld des Fahrzeugs (6) erkannte Objekte (10, 14) in Form von Sensorobjekten bereitstellen, wobei ein Sensorobjekt ein von der jeweiligen Sensoreinrichtung (2, 3) erkanntes Objekt (10, 14) repräsentiert, und die Sensorobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit des repräsentierten Objekts (10, 14) umfassen und die von der mindestens einen ersten Sensoreinrichtung (2) und von der mindestens einen zweiten Sensoreinrichtung (3) erkannten Sensorobjekte einer Objektfusion (66) unterzogen werden, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet wird, wobei die Existenzwahrscheinlichkeiten der Fusionsobjekte basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte fusioniert werden, wobei die Fusionierung der Existenzwahrscheinlichkeit eines der Sensorobjekte jeweils abhängig von der jeweiligen Sensoreinrichtung (2, 3) erfolgt, von der das entsprechende Sensorobjekt bereitgestellt ist.Method for providing an environment representation of a vehicle with at least one first sensor device ( 2 ) and at least one second sensor device ( three ) and an evaluation device ( 4 ), characterized in that the sensor devices ( 2 . three ) Information about in an environment of the vehicle ( 6 ) recognized objects ( 10 . 14 ) in the form of sensor objects, wherein a sensor object is detected by the respective sensor device ( 2 . three ) recognized object ( 10 . 14 ) and the sensor objects as an attribute at least one probability of existence of the represented object ( 10 . 14 ) and that of the at least one first sensor device ( 2 ) and of the at least one second sensor device ( three ) recognized sensor objects of an object fusion ( 66 ), in which fusion objects are generated to which at least one probability of existence is assigned as an attribute, wherein the existence probabilities of the fusion objects are fused based on the existence probabilities of the sensor objects, the fusing of the likelihood of existence of one of the sensor objects depending on the respective sensor device ( 2 . three ), from which the corresponding sensor object is provided. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass für die zum Zeitpunkt k ermittelten Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k + 1 vorgenommen wird und die zum Zeitpunkt k + 1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert werden, mit deren Prädiktion sie gemäß Assoziationsvorgaben übereinstimmen, wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k + 1 des Sensorobjekts fusioniert wird.Method according to claim 1, characterized in that that for the fusion objects determined at the time k a prediction is made at a time k + 1 and the sensor objects with the fusion objects determined at time k + 1 whose prediction they match according to association requirements, where the likelihood of existence of the fusion object at the time k + 1 on the basis of the likelihood of the fusion object for Time k and the probability of existence at time k + 1 of the sensor object is fused. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel berechnet wird:
Figure 00210001
wobei PFusObj(k) die Existenzwahrscheinlichkeit des Fusionsobjekt zum Zeitpunkt k, PsenObj(k) die Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k, γ eine sensoreinrichtungsunabhängige Fusionierungskonstante und δa und δb sensoreinrichtungsabhängige Fusionierungskonstanten angeben, wobei gilt: δa+ δb = 1.
A method according to claim 2, characterized in that the probability of existence of a fusion object that can be associated with a sensor object is calculated according to the following formula:
Figure 00210001
where P FusObj (k) the existence probability of the fusion object at time k, P senObj (k) the existence probability of the sensor object at time k, γ a sensor-independent fusing constant and δ a and δ b sensor device-dependent fusing constants, where: δ a + δ b = 1.
Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für Sensorobjekte, die mit keinem der bekannten Fusionsobjekte assoziiert werden können, die Fusionierung ein Erzeugen eines neuen Fusionsobjekts umfasst, welchem als Existenzwahrscheinlichkeit die Existenzwahrscheinlichkeit des Sensorobjekts zugewiesen wird.Method according to one of the preceding claims, characterized in that for sensor objects, with can not be associated with any of the known fusion objects, the fusion comprises generating a new fusion object, which as likelihood of existence the likelihood of existence of Assigned to the sensor object. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Sensoreinrichtungen Informationen bereitstellen, anhand derer eine Belegungskarte (16, 69) erstellt wird, wobei das Umfeld in Bereiche unterteilt wird und jedem Bereich jeweils eine Zelle zugeordnet wird, wobei die Zellen die Belegungskarte darstellen und für die Zellen Belegungswahrscheinlichkeiten ermittelt werden, die ein Maß für eine Existenz eines Objekts in dem der Zelle zugeordneten Bereich des Umfelds angeben.Method according to one of the preceding claims, characterized in that the sensor devices provide information on the basis of which an occupancy card ( 16 . 69 ), wherein the environment is subdivided into areas and a cell is assigned to each area, wherein the cells represent the occupancy map and occupancy probabilities are determined for the cells, which is a measure of an existence of an object in the area of the surrounding area associated with the cell specify. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass für Fusionsobjekte, die zu einem Messzeitpunkt k + 1 keinem der Sensorobjekte zugeordnet werden können, die Existenzwahrscheinlichkeit fusioniert wird, indem anstelle der Existenzwahrscheinlichkeit eines entsprechenden Sensorobjekts eine anhand der Belegungskarte (16, 69) ermittelte Belegungswahrscheinlichkeit für den Bereich oder die Bereiche verwendet wird, an dem oder denen sich das Fusionsobjekt gemäß der Prädiktion aufhält.Method according to one of the preceding claims, characterized in that, for fusion objects which can not be assigned to any of the sensor objects at a measurement time k + 1, the probability of existence is fused by replacing the existence probability of a corresponding sensor object with a reference to the occupancy map ( 16 . 69 ) occupancy probability is used for the area or areas where the fusion object is located according to the prediction. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Fusionierung nach folgender Formel erfolgt: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ.wobei PGrid(k + 1) die aus der Belegungskarte abgeleitete Belegungswahrscheinlichkeit an dem prädizierten Ort des Fusionsobjekts angibt.Method according to one of the preceding claims, characterized in that the fusion takes place according to the following formula: P FusObj (k + 1) = [P FusObj (K) · P Grid (k + 1)] 1-γ · [1 - (1 - P FusObj (k)) · (1 - P Grid (k + 1))] γ , where P Grid (k + 1) indicates the occupancy probability derived from the occupancy map at the predicted location of the fusion object. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Sensorobjekte hinsichtlich ihres Typs klassifiziert werden.Method according to one of the preceding claims, characterized in that the sensor objects with regard to their Type can be classified. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Sensorobjekte und Fusionsobjekte hinsichtlich weiterer Attribute einem Fusionierungsverfahren unterzogen werden, beispielsweise unter Verwendung eines Kalman-Filters.Method according to one of the preceding claims, characterized in that the sensor objects and fusion objects subjected to a fusion process in terms of further attributes using, for example, a Kalman filter. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass mittels mindestens einer dritten Sensoreinrichtung (17) Informationen über das Umfeld und oder die mindestens eine erste Sensoreinrichtung (2) und/oder die mindestens eine zweite Sensoreinrichtung (3) erfasst werden und die die Sensoreinrichtungsabhängigkeit der Fusionierung abhängig von den Informationen der mindestens einen dritten Sensoreinrichtung (17) variiert wird.Method according to one of the preceding claims, characterized in that by means of at least one third sensor device ( 17 ) Information about the environment and / or the at least one first sensor device ( 2 ) and / or the at least one second sensor device ( three ) and the sensor device dependency of the fusion depending on the information of the at least one third sensor device ( 17 ) is varied. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass den Fusionierungsobjekten eine Nachverfolgungsinformation zugeordnet wird, die ein Maß für eine Güte einer Nachverfolgung des Fusionsobjekts über mehrere Messzeitpunkte angibt, und für die Fusionsobjekte, die bewegte Objekte repräsentieren und für die die Nachverfolgungsinformation eine ausreichende Nachverfolgungsgüte anzeigt, die im Ausdehnungsbereich des Fusionsobjekts liegenden Zellen der Belegungskarte als belegt gekennzeichnet werden und diesen Zellen die Belegungswahrscheinlichkeit zugeordnet wird, die der Existenzwahrscheinlichkeit des Fusionsobjekts entspricht.Method according to one of the preceding claims, characterized in that the merging objects have a tracking information is assigned, which is a measure of a goodness a follow-up of the fusion object over several measurement times indicates, and for the fusion objects, the moving objects represent and for whom the tracking information indicates a sufficient tracking quality in the expansion area occupied cells of the occupancy map as occupied be labeled and these cells the occupancy probability is assigned the probability of existence of the fusion object equivalent. Vorrichtung (1) zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs (6), umfassend mindestens eine erste Sensoreinrichtung (2) und mindestens eine zweite Sensoreinrichtung (3), die das Umfeld erfassen, sowie eine Auswerteeinrichtung (4), die mit der mindestens einen ersten Sensoreinrichtung (2) und der mindestens einen zweiten Sensoreinrichtung (3) gekoppelt ist, dadurch gekennzeichnet, dass die Sensoreinrichtungen (2, 3) ausgebildet sind, Informationen über jeweils erfasste Objekte (9, 14) in Form von Sensorobjekten bereitstellen, die als Attribut mindestens eine Existenzwahrscheinlichkeit für das erfasste Objekt (10, 14) umfassen, und die Auswerteeinrichtung (4) ausgebildet ist, die von der mindestens einen ersten Sensoreinrichtung (2) und von der mindestens einen zweiten Sensoreinrichtung (3) erkannten Sensorobjekte einer Objektfusion zu unterziehen, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet ist, wobei die Fusion einer Existenzwahrscheinlichkeit des Fusionsobjekts basierend auf der Existenzwahrscheinlichkeit der Sensorobjekte ausgeführt ist und abhängig von der jeweiligen Sensoreinrichtung (2, 3) erfolgt, von der das Sensorobjekt bereitgestellt ist.Contraption ( 1 ) for providing an environment representation of a vehicle ( 6 ), comprising at least one first sensor device ( 2 ) and at least one second sensor device ( three ), which capture the environment, and an evaluation device ( 4 ) associated with the at least one first sensor device ( 2 ) and the at least one second sensor device ( three ), characterized in that the sensor devices ( 2 . three ), information about each detected objects ( 9 . 14 ) in the form of sensor objects which, as an attribute, have at least one probability of existence for the detected object ( 10 . 14 ), and the evaluation device ( 4 ) formed by the at least one first sensor device ( 2 ) and of the at least one second sensor device ( three sensor objects to be subjected to an object fusion in which fusion objects are generated to which at least one probability of existence is assigned as an attribute, wherein the fusion of a probability of existence of the fusion object based on the likelihood of the sensor objects is executed and depending on the respective sensor device ( 2 . three ), from which the sensor object is provided. Vorrichtung (1) nach Anspruch 12, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) eine Prädiktionseinheit umfasst, die für zum Zeitpunkt k ermittelte Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k + 1 vornimmt, die die Auswerteeinrichtung (4), die zum Zeitpunkt k + 1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert, mit deren Prädiktion die Sensorobjekte gemäß Assoziationsvorgaben übereinstimmen, und wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k + 1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k + 1 des Sensorobjekts fusioniert wird.Contraption ( 1 ) according to claim 12, characterized in that the evaluation device ( 4 ) comprises a prediction unit which, for the fusion objects determined at the time k, predicts a time k + 1 which the evaluation device ( 4 ), which associates the sensor objects determined at time k + 1 with the fusion objects whose prediction matches the sensor objects according to association specifications, and the probability of existence of the fusion object at time k + 1 based on the probability of existence of the fusion object at time k and the probability of existence at time k + 1 of the sensor object is fused. Vorrichtung (1) nach Anspruch 13, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel zu berechnen:
Figure 00240001
wobei PFusObj(k) die Existenzwahrscheinlichkeit des Fusionsobjekt zum Zeitpunkt k, PSenObj(k) die Existenzwahrscheinlichkeit des Sensorobjekts zum Zeitpunkt k, γ eine sensoreinrichtungsunabhängige Fusionierungskonstante und δa und δb sensoreinrichtungsabhängige Fusionierungskonstanten angeben, wobei gilt: δa + δb = 1.
Contraption ( 1 ) according to claim 13, characterized in that the evaluation device ( 4 ) is configured to calculate the probability of existence of a fusion object that can be associated with a sensor object according to the following formula:
Figure 00240001
where P FusObj (k) the probability of existence of the fusion object at time k, P SenObj (k) the probability of existence of the sensor object at time k, γ a sensor-independent fusing constant and δ a and δ b sensor device-dependent fusing constants, where: δ a + δ b = 1.
Vorrichtung (1) nach einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, für Sensorobjekte, die mit keinem der bekannten Fusionsobjekte assoziiert werden können, bei der Fusionierung ein neues Fusionsobjekts zu erzeugen, welches als Existenzwahrscheinlichkeit die Existenzwahrscheinlichkeit des Sensorobjekts zugewiesen wird.Contraption ( 1 ) according to one of claims 12 to 14, characterized in that the evaluation device ( 4 ) is designed, for sensor objects that can not be associated with any of the known fusion objects, to generate a new fusion object in the fusion, which is considered a probability of existence the probability of existence of the sensor object is assigned. Vorrichtung (1) nach einem der Ansprüche 12 bis 15, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) eine Kartenerzeugungseinrichtung umfasst und die Sensoreinrichtungen (2, 3) ausgebildet sind, Informationen bereitstellen, anhand derer die Kartenerzeugungseinrichtung eine Belegungskarte (16, 69) erstellen kann, wobei das Umfeld in Bereiche unterteilt ist und jedem Bereich jeweils eine Zelle zugeordnet ist und die Zellen die Belegungskarte (16, 69) darstellen, und die Kartenerzeugungseinrichtung ausgebildet ist, für die Zellen Belegungswahrscheinlichkeiten zu ermitteln, die ein Maß für eine Existenz eines Objekts (10, 14) in dem der Zelle zugeordneten Bereich des Umfelds angeben.Contraption ( 1 ) according to one of claims 12 to 15, characterized in that the evaluation device ( 4 ) comprises a card generating device and the sensor devices ( 2 . three ), provide information on the basis of which the card-generating device generates an occupancy card ( 16 . 69 ), where the environment is subdivided into areas and each area is assigned a cell and the cells are the occupancy map ( 16 . 69 ), and the card generating device is designed to determine occupancy probabilities for the cells, which are a measure of the existence of an object ( 10 . 14 ) in the region of the environment associated with the cell. Vorrichtung (1) nach Anspruch 16, dadurch gekennzeichnet, dass die Auswerteeinrichtung ausgebildet ist, dass für Fusionsobjekte, die zu einem Messzeitpunkt k + 1 keinem der Sensorobjekte zugeordnet werden können, die Existenzwahrscheinlichkeit fusioniert wird, indem anstelle der Existenzwahrscheinlichkeit eines entsprechenden Sensorobjekts eine anhand der Belegungskarte (16, 69) ermittelte Belegungswahrscheinlichkeit für den Bereich oder die Bereiche verwendet wird, an dem sich das Fusionsobjekt gemäß der Prädiktion aufhält.Contraption ( 1 ) according to claim 16, characterized in that the evaluation device is designed so that for fusion objects that can be assigned to a measurement time k + 1 none of the sensor objects, the probability of existence is fused by instead of the likelihood of existence of a corresponding sensor object based on the occupancy card ( 16 . 69 ) occupancy probability is used for the area or areas where the fusion object is located according to the prediction. Vorrichtung (1) nach Anspruch 17, dadurch gekennzeichnet, dass die Fusionierung nach folgender Formel erfolgt: PFusObj(k + 1) = [PFusObj(k)·PGrid(k + 1)]1-γ·[1 – (1 – PFusObj(k))·(1 – PGrid(k + 1))]γ.wobei PGrid(k + 1) die aus der Belegungskarte abgeleitete Belegungswahrscheinlichkeit an dem prädizierten Ort des Fusionsobjekts angibt.Contraption ( 1 ) according to claim 17, characterized in that the fusion takes place according to the following formula: P FusObj (k + 1) = [P FusObj (K) · P Grid (k + 1)] 1-γ · [1 - (1 - P FusObj (k)) · (1 - P Grid (k + 1))] γ , where P Grid (k + 1) indicates the occupancy probability derived from the occupancy map at the predicted location of the fusion object. Vorrichtung (1) nach einem der Ansprüche 12 bis 18, dadurch gekennzeichnet, dass in mindestens einer der Sensoreinrichtungen (2, 3) und oder der Auswerteeinrichtung (4) Vergleichsinformationen vorliegen, anhand derer die Sensorobjekte hinsichtlich ihres Typs klassifizierbar sind.Contraption ( 1 ) according to one of claims 12 to 18, characterized in that in at least one of the sensor devices ( 2 . three ) and or the evaluation device ( 4 ) Comparative information is available, based on which the sensor objects are classifiable in terms of their type. Vorrichtung (1) nach einem der Ansprüche 12 bis 19, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, die Sensorobjekte und Fusionsobjekte hinsichtlich weiterer Attribute einem Fusionierungsverfahren zu unterziehen, beispielsweise unter Verwendung eines Kalman-Filters.Contraption ( 1 ) according to one of claims 12 to 19, characterized in that the evaluation device ( 4 ) is configured to subject the sensor objects and fusion objects to a fusion method with regard to further attributes, for example using a Kalman filter. Vorrichtung (1) nach einem der Ansprüche 12 bis 20, dadurch gekennzeichnet, dass mindestens eine dritte Sensoreinrichtung (17) mit der Auswerteeinrichtung gekoppelt ist, die Informationen über das Umfeld und/oder die mindestens eine erste Sensoreinrichtung (2) und/oder die mindestens eine zweite Sensoreinrichtung (3) erfasst, und die Auswerteeinrichtung (4) ausgebildet ist, die Sensoreinrichtungsabhängigkeit der Fusionierung abhängig von den Informationen der mindestens einen dritten Sensoreinrichtung (17) zu variieren.Contraption ( 1 ) according to one of claims 12 to 20, characterized in that at least one third sensor device ( 17 ) is coupled to the evaluation device, the information about the environment and / or the at least one first sensor device ( 2 ) and / or the at least one second sensor device ( three ), and the evaluation device ( 4 ), the sensor device dependence of the fusion depending on the information of the at least one third sensor device ( 17 ) to vary. Vorrichtung (1) nach einem der Ansprüche 12 bis 21, dadurch gekennzeichnet, dass die Auswerteeinrichtung (4) ausgebildet ist, den Fusionierungsobjekten eine Nachverfolgungsinformation zuzuordnen, die ein Maß für eine Güte einer Nachverfolgung des Fusionsobjekts über mehrere Messzeitpunkte angibt, und für die Fusionsobjekte, die die bewegte Objekte repräsentieren und für die die Nachverfolgungsinformation eine ausreichende Nachverfolgungsgüte anzeigt, die im Ausdehnungsbereich des Fusionsobjekts liegenden Zellen der Belegungskarte (16, 69) als belegt zu kennzeichnen und diesen Zellen die Belegungswahrscheinlichkeit zuzuordnen, die der Existenzwahrscheinlichkeit des Fusionsobjekts entspricht.Contraption ( 1 ) according to one of claims 12 to 21, characterized in that the evaluation device ( 4 ) is adapted to associate tracking information with the fusing objects indicative of a merit of tracking the fusion object over multiple measurement times, and for the fusion objects representing the moving objects for which the tracking information indicates sufficient tracking quality in the extent range of the fusion object lying cells of the occupancy card ( 16 . 69 ) and to assign to these cells the occupancy probability corresponding to the likelihood of existence of the fusion object. Vorrichtung (1) nach einem der Ansprüche 12 bis 22, dadurch gekennzeichnet, dass die mindesten eine erste Sensoreinrichtung (2) eine Stereokamera umfasst und/oder die mindestens eine zweite Sensoreinrichtung (3) ein Radar oder Lidar (Laser Imaging Detection and Ranging System) umfasst.Contraption ( 1 ) according to one of claims 12 to 22, characterized in that the at least one first sensor device ( 2 ) comprises a stereo camera and / or the at least one second sensor device ( three ) comprises a radar or lidar (Laser Imaging Detection and Ranging System).
DE102009006113.4A 2008-03-03 2009-01-26 Device and method for sensor fusion with dynamic objects Active DE102009006113B4 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102009006113.4A DE102009006113B4 (en) 2008-03-03 2009-01-26 Device and method for sensor fusion with dynamic objects

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102008012197 2008-03-03
DE102008012197.5 2008-03-03
DE102009006113.4A DE102009006113B4 (en) 2008-03-03 2009-01-26 Device and method for sensor fusion with dynamic objects

Publications (2)

Publication Number Publication Date
DE102009006113A1 true DE102009006113A1 (en) 2009-09-10
DE102009006113B4 DE102009006113B4 (en) 2019-03-28

Family

ID=40936482

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102009006113.4A Active DE102009006113B4 (en) 2008-03-03 2009-01-26 Device and method for sensor fusion with dynamic objects

Country Status (1)

Country Link
DE (1) DE102009006113B4 (en)

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010023199A1 (en) 2010-06-09 2011-02-10 Daimler Ag Method for operating image capturing device for realizing outer mirror functions of motor vehicle, involves monitoring momentary state of cameras in dependence of result of comparison and/or merging of environmental characteristics
DE102010006828A1 (en) * 2010-02-03 2011-08-04 Volkswagen AG, 38440 Method for creating model of surrounding of vehicle, involves detecting surrounding of vehicle with help of sensor, where two surrounding models are produced automatically on basis of sensor data
DE102010003375A1 (en) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Surrounding evaluation system, particularly for use in speed monitoring systems in vehicle, has electronic controller and sensor mediums for detecting objects in surrounding of vehicle
DE102012220191A1 (en) 2012-11-06 2014-05-08 Robert Bosch Gmbh Method for supporting driver during transverse guide of vehicle, involves carrying out steering intervention during collision of vehicle with recognized objects, and determining vehicle data through forward facing camera
WO2014131666A1 (en) * 2013-02-27 2014-09-04 Bayerische Motoren Werke Aktiengesellschaft Grid-based prediction of the position of an object
DE102013008828A1 (en) 2013-05-24 2014-11-27 Volkswagen Aktiengesellschaft Method for creating a model of an environment of a vehicle and a correspondingly configured driver assistance system
FR3005923A1 (en) * 2013-05-27 2014-11-28 Bosch Gmbh Robert METHOD FOR ASSISTING A DRIVER AND CONTROL APPARATUS FOR ITS IMPLEMENTATION
WO2014198484A1 (en) * 2013-06-14 2014-12-18 Robert Bosch Gmbh Assistance device and method for assisting a driver of a vehicle
CN104816697A (en) * 2014-02-05 2015-08-05 丰田自动车株式会社 Collision prevention control apparatus
CN102614003B (en) * 2011-01-31 2015-10-28 柯惠Lp公司 For lock cam driver and the clamp assemblies of applicator
WO2015166156A1 (en) * 2014-04-30 2015-11-05 Renault S.A.S. Device for signalling objects to a navigation module of a vehicle equipped with this device
CN105334514A (en) * 2015-10-19 2016-02-17 上海无线电设备研究所 Tramcar radar video compound early warning crashproof system and method
DE102014220687A1 (en) * 2014-10-13 2016-04-14 Continental Automotive Gmbh Communication device for a vehicle and method for communicating
DE102014223363A1 (en) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Method and device for localizing a motor vehicle in a fixed reference card
EP3082067A1 (en) * 2015-04-17 2016-10-19 Toyota Jidosha Kabushiki Kaisha Stereoscopic object detection device and stereoscopic object detection method
DE102015107391A1 (en) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Method for controlling a functional device of a motor vehicle on the basis of fused sensor data, control device, driver assistance system and motor vehicle
DE102015107392A1 (en) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Method for detecting an object in an environment of a motor vehicle based on fused sensor data, control device, driver assistance system and motor vehicle
CN107031646A (en) * 2015-09-11 2017-08-11 罗伯特·博世有限公司 For determining the method and apparatus in the environment of the motor vehicle in parking lot with the presence or absence of object
DE102016205661A1 (en) * 2016-04-06 2017-10-12 Continental Teves Ag & Co. Ohg Method for avoiding a collision and vehicle
DE102016212716A1 (en) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh CONTROL DEVICE AND METHOD
CN107813821A (en) * 2016-09-12 2018-03-20 北京行易道科技有限公司 Method for early warning and device
FR3056531A1 (en) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh OBSTACLE DETECTION FOR MOTOR VEHICLE
FR3056530A1 (en) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh OBSTRUCTION DETECTION BY FUSION OF OBJECTS FOR MOTOR VEHICLE
DE102016220581A1 (en) * 2016-10-20 2018-04-26 Continental Teves Ag & Co. Ohg METHOD AND DEVICE FOR DETERMINING A ENVIRONMENTAL MODEL
DE102016122193A1 (en) * 2016-11-18 2018-05-24 Valeo Schalter Und Sensoren Gmbh Function monitoring of a sensor device of a motor vehicle
EP3351965A1 (en) * 2017-01-19 2018-07-25 Honeywell International Inc. A quality metric for ranging sensor in a degraded visual environment for a situational awareness system
FR3062836A1 (en) * 2017-02-10 2018-08-17 Valeo Schalter Und Sensoren Gmbh METHOD AND SYSTEM FOR DETERMINING A TRUST INDEX ASSOCIATED WITH AN OBJECT OF AN ENVIRONMENT OF A VEHICLE
CN108569295A (en) * 2017-03-08 2018-09-25 奥迪股份公司 Method and system for environment measuring
DE102018004125A1 (en) 2018-05-23 2018-11-22 Daimler Ag Method for analyzing an object in an environment of a motor vehicle
DE102017210830A1 (en) * 2017-06-27 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Create and use an edge development map
DE102017116017A1 (en) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh An automotive sensor device having a plurality of sensor units and a plurality of neural networks for generating a combined representation of an environment
DE102017116016A1 (en) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment
WO2019029969A1 (en) 2017-08-10 2019-02-14 Siemens Mobility GmbH Sensor-controlled adjustment of odometric measurement parameters to weather conditions
DE102017220269A1 (en) * 2017-11-14 2019-05-16 Continental Automotive Gmbh DRIVER ASSISTANCE SYSTEM, VEHICLE AND METHOD FOR TRACKING OBJECTS
WO2019120392A1 (en) 2017-12-20 2019-06-27 Conti Temic Microelectronic Gmbh Method and device for the fusion of measurements from different information sources
WO2019196986A1 (en) * 2018-04-09 2019-10-17 Bayerische Motoren Werke Aktiengesellschaft Fusion system for fusing environment information for a motor vehicle
FR3080590A1 (en) * 2018-04-25 2019-11-01 Psa Automobiles Sa METHOD AND SYSTEM FOR OBSTACLE DETECTION IN THE ENVIRONMENT OF A MOTOR VEHICLE
CN110494866A (en) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 The fusion of the data of multiple sensors for Object identifying
WO2020025674A1 (en) * 2018-08-01 2020-02-06 Carl Zeiss Ag Sensor fusion with alternating correspondence analysis of sensor data
DE102018220024B3 (en) * 2018-11-22 2020-03-12 Audi Ag Method for fusing sensor data from several sensors and fusion device for fusing sensor data from several sensors
CN111507372A (en) * 2019-01-30 2020-08-07 斯特拉德视觉公司 Method and apparatus
DE102019201930A1 (en) * 2019-02-14 2020-08-20 Continental Automotive Gmbh Method for generating an environment model
DE102019123483A1 (en) * 2019-09-02 2021-03-04 Audi Ag Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
DE102019216387A1 (en) * 2019-10-24 2021-04-29 Zf Friedrichshafen Ag Floor conveyor with ultra broadband radar
DE102019132363A1 (en) * 2019-11-28 2021-06-02 Bayerische Motoren Werke Aktiengesellschaft Method for operating an environment detection device with a grid-based evaluation and with a merger, as well as environment detection device
DE102021003297A1 (en) 2021-06-25 2021-09-02 Daimler Ag Method for object tracking and merging of at least two sensor signals, control device for carrying out such a method, fusion device with such a control device and motor vehicle with such a fusion device
CN114511978A (en) * 2021-12-27 2022-05-17 浙江华锐捷技术有限公司 Intrusion early warning method and device, vehicle and computer readable storage medium
DE112012006868B4 (en) 2012-09-03 2022-09-22 Toyota Jidosha Kabushiki Kaisha Collision determination device and collision determination method
DE102021113111A1 (en) 2021-04-12 2022-10-13 Conti Temic Microelectronic Gmbh Method for calibrating sensor information of a vehicle and driver assistance system
DE102022211052A1 (en) 2022-10-19 2024-04-25 Robert Bosch Gesellschaft mit beschränkter Haftung Processing of measurement data from a multi-sensor arrangement with plausibility check
DE102023100418A1 (en) 2023-01-10 2024-07-11 Bayerische Motoren Werke Aktiengesellschaft Method and device for tracking the lateral distance of an object

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006035207A1 (en) 2006-07-29 2008-01-31 Volkswagen Ag Object e.g. traffic-relevant object, determining device for vehicle, has evaluation device determining and supplying threshold values depending on supplied value, and radar device verifying whether object is provided in position

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2718252B1 (en) 1994-03-30 1996-06-14 Onera (Off Nat Aerospatiale) Method of tracking mobiles.
DE59809476D1 (en) 1997-11-03 2003-10-09 Volkswagen Ag Autonomous vehicle and method for controlling an autonomous vehicle
DE102005009146A1 (en) 2005-03-01 2006-09-21 Robert Bosch Gmbh Driver assistance system with several assistance functions

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006035207A1 (en) 2006-07-29 2008-01-31 Volkswagen Ag Object e.g. traffic-relevant object, determining device for vehicle, has evaluation device determining and supplying threshold values depending on supplied value, and radar device verifying whether object is provided in position

Cited By (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006828A1 (en) * 2010-02-03 2011-08-04 Volkswagen AG, 38440 Method for creating model of surrounding of vehicle, involves detecting surrounding of vehicle with help of sensor, where two surrounding models are produced automatically on basis of sensor data
DE102010006828B4 (en) 2010-02-03 2021-07-08 Volkswagen Ag Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle
DE102010003375A1 (en) * 2010-03-29 2011-09-29 Bayerische Motoren Werke Aktiengesellschaft Surrounding evaluation system, particularly for use in speed monitoring systems in vehicle, has electronic controller and sensor mediums for detecting objects in surrounding of vehicle
DE102010003375B4 (en) 2010-03-29 2021-07-22 Bayerische Motoren Werke Aktiengesellschaft Environment evaluation system in a vehicle with sensor means for detecting objects in the vicinity of the vehicle
DE102010023199A1 (en) 2010-06-09 2011-02-10 Daimler Ag Method for operating image capturing device for realizing outer mirror functions of motor vehicle, involves monitoring momentary state of cameras in dependence of result of comparison and/or merging of environmental characteristics
CN102614003B (en) * 2011-01-31 2015-10-28 柯惠Lp公司 For lock cam driver and the clamp assemblies of applicator
DE112012006868B4 (en) 2012-09-03 2022-09-22 Toyota Jidosha Kabushiki Kaisha Collision determination device and collision determination method
DE102012220191A1 (en) 2012-11-06 2014-05-08 Robert Bosch Gmbh Method for supporting driver during transverse guide of vehicle, involves carrying out steering intervention during collision of vehicle with recognized objects, and determining vehicle data through forward facing camera
WO2014131666A1 (en) * 2013-02-27 2014-09-04 Bayerische Motoren Werke Aktiengesellschaft Grid-based prediction of the position of an object
DE102013008828A1 (en) 2013-05-24 2014-11-27 Volkswagen Aktiengesellschaft Method for creating a model of an environment of a vehicle and a correspondingly configured driver assistance system
FR3005923A1 (en) * 2013-05-27 2014-11-28 Bosch Gmbh Robert METHOD FOR ASSISTING A DRIVER AND CONTROL APPARATUS FOR ITS IMPLEMENTATION
WO2014198484A1 (en) * 2013-06-14 2014-12-18 Robert Bosch Gmbh Assistance device and method for assisting a driver of a vehicle
CN104816697A (en) * 2014-02-05 2015-08-05 丰田自动车株式会社 Collision prevention control apparatus
US9481365B2 (en) 2014-02-05 2016-11-01 Toyota Jidosha Kabushiki Kaisha Collision prevention control apparatus
WO2015166156A1 (en) * 2014-04-30 2015-11-05 Renault S.A.S. Device for signalling objects to a navigation module of a vehicle equipped with this device
FR3020616A1 (en) * 2014-04-30 2015-11-06 Renault Sas DEVICE FOR SIGNALING OBJECTS TO A NAVIGATION MODULE OF A VEHICLE EQUIPPED WITH SAID DEVICE
US10035508B2 (en) 2014-04-30 2018-07-31 Renault S.A.S. Device for signalling objects to a navigation module of a vehicle equipped with this device
JP2017521745A (en) * 2014-04-30 2017-08-03 ルノー エス.ア.エス. In-vehicle device that informs vehicle navigation module of presence of object
DE102014220687A1 (en) * 2014-10-13 2016-04-14 Continental Automotive Gmbh Communication device for a vehicle and method for communicating
DE102014223363A1 (en) * 2014-11-17 2016-05-19 Volkswagen Aktiengesellschaft Method and device for localizing a motor vehicle in a fixed reference card
DE102014223363B4 (en) * 2014-11-17 2021-04-29 Volkswagen Aktiengesellschaft Method and device for localizing a motor vehicle in a fixed reference map
US10203409B2 (en) 2014-11-17 2019-02-12 Volkswagen Aktiengesellschaft Method and device for the localization of a vehicle from a fixed reference map
CN106060517A (en) * 2015-04-17 2016-10-26 丰田自动车株式会社 Stereoscopic object detection device and stereoscopic object detection method
EP3082067A1 (en) * 2015-04-17 2016-10-19 Toyota Jidosha Kabushiki Kaisha Stereoscopic object detection device and stereoscopic object detection method
DE102015107392A1 (en) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Method for detecting an object in an environment of a motor vehicle based on fused sensor data, control device, driver assistance system and motor vehicle
DE102015107391A1 (en) * 2015-05-12 2016-11-17 Valeo Schalter Und Sensoren Gmbh Method for controlling a functional device of a motor vehicle on the basis of fused sensor data, control device, driver assistance system and motor vehicle
CN107031646A (en) * 2015-09-11 2017-08-11 罗伯特·博世有限公司 For determining the method and apparatus in the environment of the motor vehicle in parking lot with the presence or absence of object
CN105334514A (en) * 2015-10-19 2016-02-17 上海无线电设备研究所 Tramcar radar video compound early warning crashproof system and method
DE102016205661A1 (en) * 2016-04-06 2017-10-12 Continental Teves Ag & Co. Ohg Method for avoiding a collision and vehicle
DE102016205661B4 (en) 2016-04-06 2024-10-02 Continental Automotive Technologies GmbH Method for avoiding a collision and vehicle
DE102016212716A1 (en) * 2016-07-13 2018-01-18 Conti Temic Microelectronic Gmbh CONTROL DEVICE AND METHOD
CN107813821A (en) * 2016-09-12 2018-03-20 北京行易道科技有限公司 Method for early warning and device
CN107813821B (en) * 2016-09-12 2024-05-31 北京行易道科技有限公司 Early warning method and device
WO2018060380A1 (en) * 2016-09-29 2018-04-05 Valeo Schalter Und Sensoren Gmbh Detection of obstacles by merging objects for a motor vehicle
WO2018060381A1 (en) * 2016-09-29 2018-04-05 Valeo Schalter Und Sensoren Gmbh Obstacle detection for motor vehicles
FR3056531A1 (en) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh OBSTACLE DETECTION FOR MOTOR VEHICLE
FR3056530A1 (en) * 2016-09-29 2018-03-30 Valeo Schalter Und Sensoren Gmbh OBSTRUCTION DETECTION BY FUSION OF OBJECTS FOR MOTOR VEHICLE
DE102016220581A1 (en) * 2016-10-20 2018-04-26 Continental Teves Ag & Co. Ohg METHOD AND DEVICE FOR DETERMINING A ENVIRONMENTAL MODEL
DE102016122193A1 (en) * 2016-11-18 2018-05-24 Valeo Schalter Und Sensoren Gmbh Function monitoring of a sensor device of a motor vehicle
EP3351965A1 (en) * 2017-01-19 2018-07-25 Honeywell International Inc. A quality metric for ranging sensor in a degraded visual environment for a situational awareness system
FR3062836A1 (en) * 2017-02-10 2018-08-17 Valeo Schalter Und Sensoren Gmbh METHOD AND SYSTEM FOR DETERMINING A TRUST INDEX ASSOCIATED WITH AN OBJECT OF AN ENVIRONMENT OF A VEHICLE
CN108569295A (en) * 2017-03-08 2018-09-25 奥迪股份公司 Method and system for environment measuring
US11009602B2 (en) 2017-03-08 2021-05-18 Audi Ag Method and system for environment detection
DE102017203838B4 (en) 2017-03-08 2022-03-17 Audi Ag Process and system for detecting the surroundings
CN108569295B (en) * 2017-03-08 2021-11-23 奥迪股份公司 Method and system for environmental detection
CN110494866B (en) * 2017-04-10 2024-02-09 罗伯特·博世有限公司 Fusion of data of multiple sensors for object recognition
CN110494866A (en) * 2017-04-10 2019-11-22 罗伯特·博世有限公司 The fusion of the data of multiple sensors for Object identifying
DE102017210830A1 (en) * 2017-06-27 2018-12-27 Bayerische Motoren Werke Aktiengesellschaft Create and use an edge development map
DE102017116017A1 (en) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh An automotive sensor device having a plurality of sensor units and a plurality of neural networks for generating a combined representation of an environment
DE102017116016A1 (en) 2017-07-17 2019-01-17 Valeo Schalter Und Sensoren Gmbh A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment
WO2019029969A1 (en) 2017-08-10 2019-02-14 Siemens Mobility GmbH Sensor-controlled adjustment of odometric measurement parameters to weather conditions
DE102017220269A1 (en) * 2017-11-14 2019-05-16 Continental Automotive Gmbh DRIVER ASSISTANCE SYSTEM, VEHICLE AND METHOD FOR TRACKING OBJECTS
WO2019120392A1 (en) 2017-12-20 2019-06-27 Conti Temic Microelectronic Gmbh Method and device for the fusion of measurements from different information sources
US11521027B2 (en) 2017-12-20 2022-12-06 Conti Temic Microelectronic Gmbh Method and device for fusion of measurements from different information sources
DE102017223325A1 (en) * 2017-12-20 2019-06-27 Conti Temic Microelectronic Gmbh Method and device for merging measurements from different sources of information
WO2019196986A1 (en) * 2018-04-09 2019-10-17 Bayerische Motoren Werke Aktiengesellschaft Fusion system for fusing environment information for a motor vehicle
US11836987B2 (en) 2018-04-09 2023-12-05 Bayerische Motoren Werke Aktiengesellschaft Fusion system for fusing environment information for a motor vehicle
FR3080590A1 (en) * 2018-04-25 2019-11-01 Psa Automobiles Sa METHOD AND SYSTEM FOR OBSTACLE DETECTION IN THE ENVIRONMENT OF A MOTOR VEHICLE
DE102018004125A1 (en) 2018-05-23 2018-11-22 Daimler Ag Method for analyzing an object in an environment of a motor vehicle
US12000923B2 (en) * 2018-08-01 2024-06-04 Carl Zeiss Ag Sensor fusion with alternating correspondence analysis of sensor data
WO2020025674A1 (en) * 2018-08-01 2020-02-06 Carl Zeiss Ag Sensor fusion with alternating correspondence analysis of sensor data
US20210319271A1 (en) * 2018-08-01 2021-10-14 Carl Zeiss Ag Sensor fusion with alternating correspondence analysis of sensor data
CN112585499A (en) * 2018-08-01 2021-03-30 卡尔蔡司股份公司 Sensor fusion using interactive correspondence analysis of sensor data
DE102018220024B3 (en) * 2018-11-22 2020-03-12 Audi Ag Method for fusing sensor data from several sensors and fusion device for fusing sensor data from several sensors
CN111507372A (en) * 2019-01-30 2020-08-07 斯特拉德视觉公司 Method and apparatus
CN111507372B (en) * 2019-01-30 2023-10-20 斯特拉德视觉公司 Method and apparatus for multi-agent sensor in performing collaborative driving
DE102019201930A1 (en) * 2019-02-14 2020-08-20 Continental Automotive Gmbh Method for generating an environment model
DE102019123483B4 (en) 2019-09-02 2021-12-09 Audi Ag Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
DE102019123483A1 (en) * 2019-09-02 2021-03-04 Audi Ag Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level
DE102019216387A1 (en) * 2019-10-24 2021-04-29 Zf Friedrichshafen Ag Floor conveyor with ultra broadband radar
WO2021104805A1 (en) 2019-11-28 2021-06-03 Bayerische Motoren Werke Aktiengesellschaft Method for operating a surroundings sensing device with grid-based evaluation and with fusion, and surroundings sensing device
DE102019132363A1 (en) * 2019-11-28 2021-06-02 Bayerische Motoren Werke Aktiengesellschaft Method for operating an environment detection device with a grid-based evaluation and with a merger, as well as environment detection device
DE102021113111A1 (en) 2021-04-12 2022-10-13 Conti Temic Microelectronic Gmbh Method for calibrating sensor information of a vehicle and driver assistance system
DE102021003297A1 (en) 2021-06-25 2021-09-02 Daimler Ag Method for object tracking and merging of at least two sensor signals, control device for carrying out such a method, fusion device with such a control device and motor vehicle with such a fusion device
CN114511978A (en) * 2021-12-27 2022-05-17 浙江华锐捷技术有限公司 Intrusion early warning method and device, vehicle and computer readable storage medium
CN114511978B (en) * 2021-12-27 2024-02-20 浙江华锐捷技术有限公司 Intrusion early warning method, device, vehicle and computer readable storage medium
DE102022211052A1 (en) 2022-10-19 2024-04-25 Robert Bosch Gesellschaft mit beschränkter Haftung Processing of measurement data from a multi-sensor arrangement with plausibility check
DE102023100418A1 (en) 2023-01-10 2024-07-11 Bayerische Motoren Werke Aktiengesellschaft Method and device for tracking the lateral distance of an object

Also Published As

Publication number Publication date
DE102009006113B4 (en) 2019-03-28

Similar Documents

Publication Publication Date Title
DE102009006113B4 (en) Device and method for sensor fusion with dynamic objects
DE102014223363B4 (en) Method and device for localizing a motor vehicle in a fixed reference map
EP1298454B1 (en) Method for recognising and tracking objects
DE102005002760B4 (en) Device and method for accident prevention in motor vehicles
EP1475764B1 (en) Method and apparatus for calculating the probability of a collision between a vehicle and an object
DE102011119767A1 (en) APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS
EP3627386A1 (en) Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device
DE102008041679A1 (en) Method for environment recognition for navigation system in car, involves storing data of object or feature in storage, and classifying object or feature by comparison of data after visual inspection of object or feature
DE102011111440A1 (en) Method for representation of environment of vehicle, involves forming segments of same width from image points of equal distance in one of image planes, and modeling objects present outside free space in environment
DE102018122374B4 (en) Method for determining a free space surrounding a motor vehicle, computer program product, free space determination device and motor vehicle
DE102017111468A1 (en) A vehicle system and method for determining whether a vehicle occupant has sensed an off-vehicle object
DE102009031319A1 (en) Method and system for determining a vehicle class
WO2015010901A1 (en) Efficiently providing occupancy information on the surroundings of a vehicle
DE102014212216A1 (en) Method and driver assistance system for detecting a Fahrzeugumfel des
DE102017211387A1 (en) System and method for automated maneuvering of an ego vehicle
EP1298012B1 (en) Method for recognizing and tracking objects
DE102016220450A1 (en) Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object
DE102013214631A1 (en) Efficient provision of occupancy information for the environment of a vehicle
DE102017205245A1 (en) Free range fusion for driver assistance systems
DE102019208507A1 (en) Method for determining the degree of overlap between an object and a lane
DE102022000849A1 (en) Method for generating an environment representation for a vehicle
DE102021207609A1 (en) Procedure for marking a movement path
WO2022129266A1 (en) Method for detecting at least one object in surroundings by means of reflection signals of a radar sensor system
DE102016119592A1 (en) Method for detecting objects in an environmental region of a motor vehicle taking into account sensor data in the infrared wavelength range, object recognition device, driver assistance system and motor vehicle
DE102020212306A1 (en) Procedure for early tunnel detection

Legal Events

Date Code Title Description
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
R163 Identified publications notified
R163 Identified publications notified

Effective date: 20130802

R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R082 Change of representative