WO2004031877A1 - Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes - Google Patents

Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes Download PDF

Info

Publication number
WO2004031877A1
WO2004031877A1 PCT/EP2003/009840 EP0309840W WO2004031877A1 WO 2004031877 A1 WO2004031877 A1 WO 2004031877A1 EP 0309840 W EP0309840 W EP 0309840W WO 2004031877 A1 WO2004031877 A1 WO 2004031877A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
data
vehicle
evaluation unit
unit
Prior art date
Application number
PCT/EP2003/009840
Other languages
English (en)
French (fr)
Inventor
Alexander Kirchner
Michael Meinecke
Original Assignee
Volkswagen Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10308168A external-priority patent/DE10308168A1/de
Application filed by Volkswagen Aktiengesellschaft filed Critical Volkswagen Aktiengesellschaft
Priority to EP03747965A priority Critical patent/EP1546829B1/de
Priority to AT03747965T priority patent/ATE490497T1/de
Priority to DE50313297T priority patent/DE50313297D1/de
Publication of WO2004031877A1 publication Critical patent/WO2004031877A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Definitions

  • the invention relates to a method and a device for determining the vehicle environment.
  • a driving state of a vehicle is determined using internal sensors, for example yaw rate sensors or tachometers.
  • the external sensors radar, laser, etc.
  • the range and / or a desired sampling rate are selected appropriately.
  • the vehicle surroundings are scanned with the external sensors set and adjusted in this way and the data determined by the external sensors are transmitted to a central evaluation unit.
  • an evaluation of the driving situation is carried out in the evaluation unit, taking into account the internal driving state and the vehicle environment, objects and their movement being detected in the vehicle environment. Information determined in this way is used to selectively select and adjust external sensors for evaluation, so that an evaluation of the driving situation can be successively improved.
  • Information about the driving situation ie the vehicle surroundings, the vehicle and the driver, is used, for example, in driver assistance applications. It is known to use sensors to detect a driving situation, to analyze the driving situation by prediction of the driving tube or by selecting a destination, and to carry out subsequent actions accordingly, for example by regulating the vehicle.
  • future Driver assistance systems will include, for example, longitudinal control, such as distance control or "stop &go" control, lateral control, such as heading control, combined longitudinal and transverse controls, such as traffic jam assistants, or safety functions, such as automatic emergency braking. To perform these tasks in a user-friendly manner, A high level of reliability and a high level of information are required.
  • a combination or combination of measurement data from several data sources to form a common description is generally referred to as sensor fusion.
  • a sensor fusion is known, for example, from J. Langheim: "CARSENSE - New Environment Sensing for Advanced Driver Assistance Systems”; In: Proc. Of the IEEE Intelligent Vehicle Symposium 2001.
  • a system for detecting the vehicle environment by laser Radar and video are described, with the different sensors communicating with a central fusion unit, but the physical properties of the different sensor concepts are not taken into account in the fusion.
  • the invention is therefore based on the technical problem of creating a real-time capable method and a real-time capable device for determining a vehicle environment by means of sensors which have a high quality of information and a high degree of flexibility.
  • Objects in a vehicle environment are determined by a situation model in an evaluation unit using object data.
  • the vehicle surroundings are scanned by external sensors, the measurement data of the external sensors are transmitted to sensor units and associated with expected data of the measurement data, at least one associated environment characteristic being determined taking into account the physical properties of the assigned external sensor.
  • Object data determined at least depending on the associated environmental characteristic.
  • External sensors for scanning the vehicle's surroundings such as radar, lasers or image processing systems, are located decentrally in the vehicle and each capture sections from the surroundings, such as reflection points of vehicles (radar) or object contours (laser).
  • the sensor units form an interface between the sensors and the evaluation unit.
  • Sensor models are present in the sensor units, which simulate the physical properties of the respective sensor.
  • the strict separation of the sensor-independent situation model in the evaluation unit and the sensors through the interposition of the sensor units results in great flexibility with regard to the sensors that can be used.
  • a new sensor can be fitted into the existing structure using a sensor unit with a suitable sensor model. This also applies to different processing levels in the sensors. Since the sensor properties are abstracted by the sensor units, sensors with a high preprocessing depth as well as raw data can be introduced. Depending on the processing depth and computing capacity of the individual sensors, the sensor units can be distributed in the sensors as desired as well as centrally as a common computing unit.
  • the interposition of the sensor units can also be used for synchronization of the data acquisition. It is therefore also possible to use asynchronous sensors.
  • the processing of the sensor data in the sensor units can take place in parallel.
  • the first object data are determined by linking at least two associated environment features.
  • the associated environmental characteristics are determined taking into account the respective sensor properties.
  • the sensor units preferably provide standardized associated environment features. Different associated environment characteristics can then be linked by known methods without having to take into account the origin of the data.
  • the evaluation unit ascertains at least one object in the vehicle environment on the basis of second object data, object hypotheses being generated by at least one sensor unit from non-associated environment features and second object data being ascertained from object hypotheses.
  • Expectation data of the sensor data are, for example, certain reflection points on an object in the case of a radar sensor.
  • the properties of the sensor with regard to measurement accuracy, detection probability, etc. can be taken into account.
  • Environmental influences, for example with regard to laser sensors, can also be taken into account in the corresponding sensor units. If the recorded sensor data cannot be assigned to the expected data, the recorded sensor data become Object hypotheses formed. These can in turn be compared with object hypotheses from other sensors or with further information from the situation model, and new objects in the vehicle environment can thereby be detected.
  • the expectation data of at least one object in the vehicle environment are determined by the evaluation unit and transmitted to the sensor units, with the evaluation unit carrying out a classification and / or rejection of object models.
  • measurement data transmitted to the evaluation unit are classified as objects in the vehicle surroundings.
  • expectation data and their assignment to actual measurement data are generated and transmitted to the sensor units. In this way, sensor-specific properties can be fully used for the link. In contrast to other methods, in which the assignment takes place in the situation model used in the evaluation unit.
  • the evaluation unit checks a rejection of object models that have already been created and / or classifies new object models and, if necessary, carries them out. Suitable criteria can be found in advance for the classification of certain objects.
  • the expectation data are determined by a look ahead.
  • a prediction of the expected values is possible through a dynamic situation model.
  • the objects are described by a distribution function of the states and the dynamic situation model. As soon as new measurement data arrive, the objects are predicted based on the measurement time.
  • the evaluation unit determines at least one object in the vehicle environment on the basis of third object data, third object data being determined directly by the sensor unit, taking into account the physical properties of the associated sensor and / or an expected value. Not all objects require different sensors to be linked for detection. The object data of such objects are recognized directly by the sensor units and transmitted to the situation model in the evaluation unit.
  • the object data in the evaluation unit are linked by a filter, at least one distance and / or a relative speed of an object to the vehicle being detected.
  • the linkage preferably works on the basis of an extended Cayman filter, in which the simulation model is classified from a number Objects is formed.
  • other methods of sensor fusion are also conceivable as a linking method, for example the Bayes method or the method of least squares.
  • a driving state of the vehicle is detected by at least one internal sensor, a sensor unit being assigned to the internal sensor, the internal sensor transmitting measurement data to the sensor unit and at least one environmental characteristic being determined by the sensor unit.
  • Internal sensors are, for example, vehicle sensors (yaw rate sensor, tachometer, ...) or human-machine interface sensors (turn signals, accelerator pedal position, ).
  • the situation model of the evaluation unit receives the assigned environment characteristics and updates the objects, e.g. the vehicles in the vehicle environment, with the help of suitable algorithms such as a Cayman filter for tracking objects.
  • External sensors generally provide the evaluation unit with information about the infrastructure, such as the road, guard rails, signs, traffic lights, etc., the road users, such as vehicles, cyclists, pedestrians, etc. and obstacles, such as trees, houses, etc.
  • Internal sensors provide information about the own vehicle including the driver and possibly his intentions. In addition, it is also conceivable to use information from other road users, the infrastructure or from navigation systems.
  • the evaluation unit transmits data to a driver assistance program.
  • the sensors preprocess the measurement data. It is conceivable that the sensors automatically adapt to distances etc.
  • Fig. 1 is a schematic block diagram of a device for determining the
  • Evaluation unit for determining the vehicle environment. 1 schematically shows a device for determining a vehicle environment comprising three sensors 10, 20, 30, each of which a sensor unit 1, 21, 31 is assigned, and an evaluation unit 2, by means of which data for an application 3 are determined.
  • a radar sensor, a laser sensor and / or a video camera are conceivable as sensors 10, 20, 30, for example.
  • the sensors 10, 20, 30 and the actuators and / or control devices used are distributed in a vehicle and connected by a data bus, for example a CAN bus.
  • the data acquisition of the sensors 10, 20, 30 is preferably carried out by the respective sensor unit 11, 21, 31, the system time being distributed centrally from the evaluation unit 2 to the sensor units 11, 21, 31.
  • sensor data from asynchronous sensors 10, 20, 30 can also be linked to one another.
  • the measurement data recorded by sensors are transmitted to sensor units 11, 21, 31 via the data bus.
  • the sensor units 11, 21, 31 are integrated together with the evaluation unit 2 on a common computing means 4.
  • FIG. 2 schematically shows the sensor unit 11, comprising a prediction 111, an association 112 and an instantiation 113, and the evaluation unit 2, comprising a filter 201, an evaluation 202, a situation model 203 and a time prediction 204.
  • the sensor unit 11 the physical properties of the sensor 10 shown in FIG. 1 are described by a sensor model.
  • the sensor model comprises at least the signal processing properties of the sensor 10 and its tracking properties with regard to the situation model 203 used in the evaluation unit 2.
  • the prediction 111 the expectation data for an object in the vehicle environment transmitted from the evaluation unit 2 to the sensor unit 11 are corresponding to the properties of the associated sensor 2 processed. Multiple predictions or uncertainties are taken into account.
  • the processed expectation data are transmitted to the association 112 and associated with actual measurement data and, if necessary, prioritized.
  • Successful assignments provide so-called associated environment characteristics. These are transmitted to the evaluation unit 2 and linked in the filter 201 with associated environment features of other sensor units and / or with predicted environment features. If measurement data cannot be associated, the non-associated features are supplied to the instantiation 113.
  • the instantiation 113 creates new object hypotheses. If the data from a sensor are sufficient to recognize and evaluate an object, these objects are also determined in the sensor unit 11. The objects determined in this way, the object hypotheses determined by the instantiation 113 and those obtained by linking using a filter 201 Objects are supplied to evaluation 202 of evaluation unit 2.
  • the evaluation 202 detects new objects from sufficiently supported object hypotheses and / or rejects object hypotheses that are not sufficiently supported. All recognized objects are transmitted to the situation model 203. The result is a consistent reproduction of the vehicle's environment as far as it can be detected by sensors. This includes, for example, the positions of other vehicles and their dynamics, your own driving status, but also information about the driver.
  • a driver assistance system (not shown) connected to the situation model 203 can use this data to carry out a situation analysis and possibly a situation extrapolation in order to gain a basis for action planning and execution. Sensor fusion is controlled via requirements of driver assistance systems, such as attention control. Information about the objects is also fed to the sensor-independent time prediction 204.
  • a prediction of the position and / or the movement of the objects located in the vehicle surroundings is determined in the time predication 204. This prediction is transmitted to the prediction 111 of the sensor units 11.
  • sensor-dependent expected values of the measurement data are determined on the basis of the sensor model from the sensor-independent object predictions.
  • a radar sensor, a laser sensor and a video camera are conceivable as external sensors. Thanks to the radar sensor with a typical frequency of approx. 77 GHz, reflection points of objects at a distance of up to 150m can be recognized. Contours of objects can be detected with the laser sensor. Either a mono video system by means of which a track can be recognized or a stereo video system for recognizing three-dimensional structures is conceivable as a video camera. If a signal is recorded by the radar sensor, the laser sensor and / or the video camera, the associated sensor unit in the instantiation creates at least one object hypothesis, ie a hypothesis about an object in the vehicle's surroundings, which could deliver such a signal.
  • a radar sensor supplies a signal for a reflection point, it is not possible to make a clear statement about the associated object.
  • the reflection point can belong, for example, to a truck, a car or a cyclist.
  • its position on the object is ambiguous, for example, it can be on a license plate, an outside mirror, etc.
  • Different object hypotheses are therefore formed by the instantiation. These object hypotheses are transmitted to the central evaluation unit.
  • the evaluation unit evaluates the different competing object hypotheses for determining possible, associated objects. For example, matching object hypotheses from different sensors have a positive effect on the decision for a possible object.
  • Information regarding the ascertained possible objects is again transmitted to the sensor units. In the sensor units, expected data is determined from the information about possible objects in the vehicle environment.
  • the expectation data are the measurement data which the associated sensor would record if a supposed object is actually in a predicted position.
  • Sensor models are used to determine the expected data.
  • a radar sensor model which is used in a sensor unit assigned to a radar sensor, takes into account, for example, a prediction of reflection points of a vehicle at corners, license plate, exterior mirrors, inner reflection points etc., a local measurement accuracy of the reflection points, distance, angle, a longitudinal speed and a cross speed. If the object hypotheses are supported by the other sensors and / or the subsequent measurements, the corresponding measurement data can be clearly assigned to this object, ie so-called associated environment characteristics are obtained. Environment features of different sensors associated with a common object can then be linked. The association prevents inconsistent measurement signals and / or data from being linked to one another.
  • the evaluation of the individual sensors depends in part on the object predictions, but there are no dependencies among the sensors.
  • measurement points obtained by a laser sensor can be used to support a disparity calculation of a stereo video sensor.
  • the signal processing of the stereo video sensor is not based directly on the information from the laser sensor.

Abstract

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur Ermittlung des Fahrzeugumfeldes, umfassend mindestens einen externen Sensor (10, 20, 30), wobei durch den externen Sensor (10, 20, 30) das Fahrzeugumfeld abgetastet wird und dem Sensor (10, 20, 30) mindestens eine Sensoreinheit (11, 21, 31) zugeordnet ist, und eine Auswerteeinheit (2), wobei durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von Objektdaten ermittelt wird, der externe Sensor (10, 20, 30) Messdaten an die Sensoreinheit (11, 21, 31) überträgt, die Sensoreinheit (11, 21, 31) ein assoziiertes Umfeld-Merkmal ermittelt, wobei die Messdaten mit Erwartungsdaten der Messdaten assoziiert werden und dabei mindestens die physikalischen Eigenschaften des zugeordneten externen Sensors (10, 20, 30) berücksichtigt werden, erste Objektdaten mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmt werden und in der Auswerteeinheit (2) zur Auswertung der Objektdaten ein sensorunabhängiges Situationsmodell verwendet wird.

Description

V e rf a h re n u n d V o r ri c h t u n g z u r E r m i tt l u n g d e s F a rze u g u m fe l d e s
Die Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zur Ermittlung des Fahrzeugumfeldes.
Im Rahmen der Weiterentwicklung des Automobils genießt das Thema Sicherheit ein herausragende Bedeutung. Nachdem die passive Sicherheit das Verletzungsrisiko der Insassen bei einem Unfall dramatisch gesenkt hat, rückt nun zunehmend die aktive Sicherheit ins Blickfeld. Aktive Sicherheit verspricht einen weiter verbesserten Schutz der Insassen als auch der anderen am Unfall beteiligten Verkehrsteilnehmer, indem bereits im Vorfeld des Unfalls geeignete Schutzmaßnahmen ausgeführt werden. Diese reichen von der Vorspannung entsprechende Systeme für eine schnellere Reaktion im Crash-Fall bis hin zur automatischen Unfallvermeidung. Allen Maßnahmen ist gemeinsam, dass sie für eine Auslösung eine Kenntnis des Fahrzeugumfeldes benötigen, die je nach Komplexität der auszulösenden Reaktion eine hinreichende Informationsdichte und -gute besitzen muss.
Aus der DE 198 45 568 A1 ist eine Vorrichtung und ein Verfahren zur Erfassung und Verfolgung von Objekten im Fahrzeugumfeld bekannt. Dabei wird zunächst ein Fahrzustand eines Fahrzeugs anhand interner Sensoren, beispielsweise Gierratensensoren oder Tachometer, ermittelt. Auf Basis dieser Daten werden die externen Sensoren (Radar, Laser, etc.) entsprechend des ermittelten Fahrzustands eingestellt. Dafür werden beispielsweise die Reichweite und/oder eine gewünschte Abtastrate geeignet gewählt. Das Fahrzeugumfeld wird mit den derart eingestellten und justierten externen Sensoren abgetastet und die von den externen Sensoren ermittelten Daten werden an eine zentrale Auswerteeinheit übermittelt. In der Auswerteeinheit wird anhand der Daten eine Bewertung der Fahrsituation unter Berücksichtung des internen Fahrzustands und des Fahrzeugumfelds durchgeführt, wobei Objekte und deren Bewegung im Fahrzeugumfeld detektiert werden. So ermittelte Informationen werden verwendet, um gezielt externe Sensoren zur Bewertung auszuwählen und zu justieren, so dass eine Bewertung der Fahrsituation sukzessive verbessert werden kann.
Informationen über die Fahrsituation, d.h. das Fahrzeugumfeld, das Fahrzeug und den Fahrer, werden beispielsweise in Fahrerassistenz-Applikationen verwendet. Dabei ist es bekannt, durch Sensoren eine Fahrsituation zu Erfassen, die Fahrsituation durch Fahrschlauchprädiktion oder Zielauswahl zu analysieren und anschließende Aktionen beispielsweise durch eine Fahrzeugregelung entsprechend durchzuführen. Zukünftige Fahrerassistenzsysteme werden beispielsweise eine Längsregelung, z.B. eine Abstandregelung oder „Stop & Go"-Regelung, eine Querregelung, z.B. Heading Control, kombinierte Längs- und Querreglungen, z.B. Stauassistenten, oder Sicherheitsfunktionen, z.B. automatische Notbremsungen, umfassen. Um diese Aufgaben nutzergerecht zu erfüllen, ist eine hohe Zuverlässigkeit und eine hohe Informationsgüte notwendig. Um die Anforderungen an die Zuverlässigkeit zu erfüllen, ist es bekannt eine Vielzahl an Sensoren im Fahrzeug einzusetzen, ein sogenanntes Multi-Sensor-System. Werden für die Erfassung von Daten mehrere Sensoren eingesetzt, so arbeiten diese redundant, kooperativ, komplementär und/oder mit unterschiedlicher Verarbeitungstiefe.
Eine Zusammenfassung oder Verknüpfung von Messdaten mehrer Datenquellen zu einer gemeinsamen Beschreibung wird allgemein als Sensorfusion bezeichnet. Im Bereich der Automobiltechnik ist eine Sensorfusion beispielsweise aus J. Langheim: „CARSENSE - New Environment Sensing for Advanced Driver Assistance Systems"; In: Proc. of the IEEE Intelligent Vehicle Symposium 2001 bekannt. Dabei ist ein System zu Erfassung des Fahrzeugumfeldes durch Laser, Radar und Video beschrieben, wobei die unterschiedlichen Sensoren mit einer zentralen Fusionseinheit kommunizieren. Die physikalischen Eigenschaften der unterschiedlichen Sensorkonzepte bleiben jedoch in der Fusion unberücksichtigt.
Bekannte Berücksichtigungen der physikalischen Eigenschaften führen zu einer starken Abhängigkeit der eingesetzten Sensorik und daher zu einer Inflexibilität des Systems.
Der Erfindung liegt daher das technische Problem zugrunde, ein echtzeitfähiges Verfahren und eine echtzeitfähige Vorrichtung zur Ermittlung eines Fahrzeugumfeldes durch Sensoren zu schaffen, welche eine hohe Informationsgüte und eine hohe Flexibilität aufweisen.
Die Lösung des Problems ergibt sich durch die Gegenstände mit den Merkmalen der Patentansprüche 1 und 10. Weitere vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.
In einem Fahrzeugumfeld befindliche Objekte werden durch ein Situationsmodell in einer Auswerteeinheit anhand von Objektdaten ermittelt. Hierfür wird das Fahrzeugumfeld durch externe Sensoren abgetastet, die Messdaten der externen Sensoren werden an Sensoreinheiten übertragen und mit Erwartungsdaten der Messdaten assoziiert, wobei mindestens ein assoziiertes Umfeld-Merkmal unter Berücksichtigung der physikalischen Eigenschaften des zugeordneten externen Sensors ermittelt wird. Objektdaten werden mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmt. Externe Sensoren zum Abtasten des Fahrzeugumfeldes, wie Radar, Laser oder Bildverarbeitungssysteme, befinden sich dezentral im Fahrzeug und erfassen jeweils Ausschnitte aus der Umgebung, wie z.B. Reflexionspunkte von Fahrzeugen (Radar) oder Objektkonturen (Laser). Die Sensoreinheiten bilden eine Schnittstelle zwischen den Sensoren und der Auswerteeinheit. In den Sensoreinheiten liegen Sensormodelle vor, welche die physikalischen Eigenschaften des jeweiligen Sensors nachbilden. Die strikte Trennung des sensorunabhängigen Situationsmodells in der Auswerteeinheit und der Sensoren durch die Zwischenschaltung der Sensoreinheiten bewirkt eine große Flexibilität hinsichtlich der verwendbaren Sensorik. Ein neuer Sensor kann mittels einer Sensoreinheit mit passendem Sensormodell in die bestehende Struktur eingepasst werden. Dieses gilt ebenso für unterschiedliche Verarbeitungsebenen in den Sensoren. Da die Sensoreigenschaften durch die Sensoreinheiten abstrahiert werden, können sowohl Sensoren mit einer hohen Vorverarbeitungstiefe als auch Rohdaten eingebracht werden. Je nach Verarbeitungstiefe und Rechen kapazität der einzelnen Sensoren, können die Sensoreinheiten beliebig dezentral in den Sensoren vorliegen als auch zentral als gemeinsame Recheneinheit. Die Zwischenschaltung der Sensoreinheiten ist weiter für eine Synchronisation der Datenaufnahme nutzbar. Daher ist auch eine Verwendung asynchroner Sensoren möglich. Die Verarbeitung der Sensordaten in den Sensoreinheiten kann parallel erfolgen.
In einer weiteren Ausführungsform werden die ersten Objektdaten durch Verknüpfung von mindestens zwei assoziierten Umfeld-Merkmalen ermittelt. Die assoziierten Umfeld- Merkmale werden unter Berücksichtigung der jeweiligen Sensoreigenschaften ermittelt. Vorzugsweise liefern die Sensoreinheiten normierte assoziierte Umfeld-Merkmale. Verschiedene assoziierte Umfeld-Merkmale sind dann durch bekannte Verfahren verknüpfbar ohne dass die Herkunft der Daten zu berücksichtigen ist.
In einer weiteren Ausführungsform wird durch die Auswerteeinheit mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von zweiten Objektdaten ermittelt, wobei durch mindestens eine Sensoreinheit aus nicht assoziierten Umfeld-Merkmalen Objekthypothesen generiert werden und zweite Objektdaten aus Objekthypothesen ermittelt werden. Erwartungsdaten der Sensordaten sind beispielsweise im Falle eines Radarsensors bestimmte Reflexionspunkte an einem Objekt. Dabei sind die Eigenschaften des Sensors bezüglich Messgenauigkeit, Detektionswahrscheinlichkeit usw. berücksichtigbar. Auch Umwelteinflüsse beispielsweise bezüglich einer Lasersensorik können in den entsprechenden Sensoreinheiten berücksichtigt werden. Ist keine Zuordnung der erfassten Sensordaten zu den Erwartungsdaten möglich, so werden aus den erfassten Sensordaten Objekthypothesen gebildet. Diese können wiederum mit Objekthypothesen anderer Sensoren oder mit weiteren Informationen des Situationsmodells verglichen werden und dadurch neue Objekte im Fahrzeugumfeld detektiert werden.
In einer weiteren Ausführungsform werden die Erwartungsdaten von mindestens einem im Fahrzeugumfeld befindlichen Objekt durch die Auswerteeinheit ermittelt und den Sensoreinheiten übermittelt, wobei durch die Auswerteeinheit eine Klassifizierung in und/oder eine Verwerfung von Objektmodellen durchgeführt wird. Anhand von Objektmodellen werden an die Auswerteeinheit übermittelte Messdaten als im Fahrzeugumfeld befindliche Objekte klassifiziert. Anhand der Klassifizierung der Objekte werden Erwartungsdaten und deren Zuordnung zu tatsächlichen Messdaten generiert und an die Sensoreinheiten übermittelt. Auf diese Weise können sensorspezifische Eigenschaften in vollem Umfang für die Verknüpfung genutzt werden. Im Gegensatz zu anderen Verfahren, bei denen die Zuordnung in dem in der Auswerteeinheit verwendeten Situationsmodell erfolgt. Können Erwartungsdaten nicht mit den Messdaten assoziiert werden, so wird durch die Auswerteeinheit eine Verwerfung bereits erstellter Objektmodelle und/oder eine Klassifizierung neuer Objektmodelle geprüft und gegebenenfalls durchgeführt. Für die Klassifizierung bestimmter Objekte können im Vorfeld geeignete Kriterien gefunden werden.
In einer weiteren Ausführungsform werden die Erwartungsdaten durch eine Vorausschau ermittelt. Durch ein dynamisches Situationsmodell ist eine Voraussage der Erwartungswerte möglich. Die Objekte werden dabei durch eine Verteilungsfunktion der Zustände und dem dynamischen Situationsmodell beschrieben. Sobald neue Messdaten eintreffen, werden anhand der Messzeit die Objekte auf den Messzeitpunkt vorhergesagt.
In einer weiteren Ausführungsform wird durch die Auswerteeinheit mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von dritten Objektdaten ermittelt, wobei dritte Objektdaten direkt von der Sensoreinheit unter Berücksichtigung der physikalischen Eigenschaften des zugehörigen Sensors und/oder eines Erwartungswertes bestimmt werden. Nicht alle Objekte verlangen für eine Erkennung eine Verknüpfung verschiedener Sensoren. Die Objektdaten derartiger Objekte werden direkt von den Sensoreinheiten erkannt und an das Situationsmodell in der Auswerteeinheit übertragen.
In einer weiteren Ausführungsform werden die Objektdaten in der Auswerteeinheit durch ein Filter verknüpft, wobei mindestens ein Abstand und/oder eine Relativgeschwindigkeit eine Objektes zu dem Fahrzeug erfasst wird. Die Verknüpfung arbeitet bevorzugt auf Basis einer erweiterten Kaimanfilterung, bei der das Simulationsmodell aus einer Anzahl klassifizierter Objekte gebildet wird. Es sind jedoch auch andere Verfahren der Sensorfusion als Verknüpfungsmethode denkbar, beispielsweise die Bayes-Methode oder das Verfahren der kleinsten Fehlerquadrate.
In einer weiteren Ausführungsform wird ein Fahrzustand des Fahrzeugs durch mindestens einen internen Sensor erfasst, wobei dem internen Sensor ein Sensoreinheit zugeordnet ist, der interne Sensor Messdaten an die Sensoreinheit überträgt und durch die Sensoreinheit mindestens ein Umfeld-Merkmal ermittelt wird. Interne Sensoren sind beispielsweise Fahrzeugssensoren (Gierratensensor, Tachometer, ...) oder Mensch-Maschine- Schnittstellen-Sensoren (Blinker, Gaspedalstellung, ...). Das Situationsmodell der Auswerteeinheit erhält die zugeordneten Umfeld-Merkmale und aktualisiert die Objekte, z.B. die Fahrzeuge im Fahrzeugumfeld, mit Hilfe geeigneter Algorithmen wie beispielsweise einer Kaiman-Filterung für eine Verfolgung von Objekten. Durch externe Sensoren erhält die Auswerteeinheit allgemein Informationen über die Infrastruktur, wie Fahrbahn, Leitplanken, Schilder, Ampeln usw., die Verkehrsteilnehmer, wie Fahrzeuge, Radfahrer, Fußgänger usw.. und Hindernisse, wie Bäume, Häuser usw. Interne Sensoren liefern Informationen über das eigene Fahrzeug inklusive dem Fahrer und ggf. dessen Absichten. Darüber hinaus ist es auch denkbar, Informationen von anderen Verkehrsteilnehmern, der Infrastruktur oder aus Navigationssystemen zu verwenden.
In einer weiteren Ausführungsform werden durch die Auswerteinheit Daten an ein Fahrerassistenz-Programm übermittelt.
In einer weiteren Ausführungsform erfolgt durch die Sensoren eine Vorverarbeitung der Messdaten. Dabei ist es denkbar, dass die Sensoren sich selbsttätig an Entfernungen etc. anpassen.
Die Erfindung wird nachfolgend anhand eines bevorzugten Ausführungsbeispiels näher erläutert. Die Figuren zeigen:
Fig. 1 ein schematisches Blockschaltbild einer Vorrichtung zur Ermittlung des
Fahrzeugumfelds und Fig. 2 ein schematisches Blockschaltbild einer Sensoreinheit und einer
Auswerteeinheit zur Ermittlung des Fahrzeugumfelds. Fig. 1 zeigt schematisch eine Vorrichtung zur Ermittlung eines Fahrzeugumfeldes umfassend drei Sensoren 10, 20, 30, welchen jeweils eine Sensoreinheit 1 , 21 , 31 zugeordnet ist, und eine Auswertungseinheit 2, durch welche Daten für eine Applikation 3 ermittelt werden. Als Sensoren 10, 20, 30 sind beispielsweise ein Radarsensor, ein Lasersensor und/oder eine Videokamera denkbar. Die Sensoren 10, 20, 30 sowie verwendete Aktuatoren und/oder Steuergeräte sind in einem Fahrzeug verteilt angeordnet und durch einen Datenbus, beispielsweise einen CAN-Bus, verbunden. Die Datenerfassung der Sensoren 10, 20, 30 erfolgt vorzugsweise durch die jeweilige Sensoreinheit 11 , 21 , 31 , wobei die Systemzeit zentral von der Auswerteeinheit 2 an die Sensoreinheiten 11 , 21 , 31 verteilt wird. Dadurch lassen sich auch Sensordaten asynchroner Sensoren 10, 20, 30 miteinander verknüpfen. Die durch Sensoren erfassten Messdaten werden über den Datenbus an Sensoreinheiten 11 , 21 , 31 übermittelt. Die Sensoreinheiten 11 , 21 , 31 sind zusammen mit der Auswerteeinheit 2 auf einem gemeinsamen Rechenmittel 4 integriert. Daneben ist es auch denkbar, die Sensoreinheiten 11 , 21 , 31 räumlich an den Sensoren 10, 20, 30 anzuordnen und/oder in diese zu integrieren.
Fig. 2 zeigt schematisch die Sensoreinheit 11 , umfassend eine Prädiktion 111 , eine Assoziation 112 und eine lnstanziierung 113, und die Auswerteeinheit 2, umfassend einen Filter 201 , eine Bewertung 202, ein Situationsmodell 203 und eine Zeit-Prädiktion 204. In der Sensoreinheit 11 sind durch ein Sensormodell die physikalischen Eigenschaften des in Fig. 1 dargestellten Sensors 10 beschrieben. Das Sensormodell umfasst mindestens die Signalverarbeitungseigenschaften des Sensors 10 und dessen Tracking-Eigenschaften hinsichtlich des in der Auswerteeinheit 2 verwendeten Situationsmodells 203. In der Prädiktion 111 werden die von der Auswerteeinheit 2 an die Sensoreinheit 11 übermittelten Erwartungsdaten für ein im Fahrzeugumfeld befindliches Objekt entsprechend der Eigenschaften des zugehörigen Sensors 2 aufbereitet. Dabei werden Mehrfachprädiktionen oder Unsicherheiten berücksichtigt. Die aufbereiteten Erwartungsdaten werden an die Assoziation 112 übertragen und mit tatsächlichen Messdaten assoziiert und ggf. priorisiert. Erfolgreiche Zuordnungen liefern sogenannte assoziierte Umfeld-Merkmale. Diese werden an die Auswerteeinheit 2 übermittelt und in dem Filter 201 mit assoziierten Umfeld- Merkmalen anderer Sensoreinheiten und/oder mit vorhergesagten Umfeld-Merkmalen verknüpft. Wenn Messdaten nicht assoziiert werden können, so werden die nicht assoziierten Merkmale der lnstanziierung 113 zugeführt. Durch die lnstanziierung 113 werden neue Objekthypothesen erzeugt. Sind die Daten eines Sensors ausreichend, um ein Objekt zu erkennen und zu bewerten, so werden diese Objekte ebenfalls in der Sensoreinheit 11 ermittelt. Die derart ermittelten Objekte, die von der lnstanziierung 113 ermittelten Objekthypothesen und die durch Verknüpfung mittels Filter 201 erhaltenen Objekte werden der Bewertung 202 der Auswerteeinheit 2 zugeführt. Durch die Bewertung 202 werden aus ausreichend gestützten Objekthypothesen neue Objekte erkannt und/oder nicht ausreichend gestützte Objekthypothesen verworfen. Alle erkannten Objekte werden an das Situationsmodell 203 übertragen. Das Ergebnis ist eine konsistente Wiedergabe des Fahrzeugumfeldes soweit sie über Sensorik erfassbar ist. Darin enthalten sind z.B. die Positionen anderer Fahrzeuge und deren Dynamik, der eigene Fahrzustand aber auch Informationen über den Fahrer. Ein nicht dargestelltes, mit dem Situationsmodell 203 verbundenes Fahrerassistenzsystem kann anhand dieser Daten eine Situationsanalyse und ggf. eine Situationsextrapolation durchführen, um eine Basis für Aktionsplanung und -durchführung zu gewinnen. Über Anforderungen der Fahrerassistenzsysteme, wie beispielsweise eine Aufmerksamkeitssteuerung, wird die Sensorfusion gesteuert. Informationen über die Objekte werden außerdem der sensorunabhängigen Zeit-Prädiktion 204 zugeführt. In der Zeit-Prädikation 204 wird eine Voraussage über die Position und/oder die Bewegung der im Fahrzeugumfeld befindlichen Objekte ermittelt. Diese Voraussage wird an die Prädiktion 111 der Sensoreinheiten 11 übertragen. In der Prädiktion 111 der Sensoreinheit 11 werden anhand des Sensormodells aus den sensorunabhängigen Objekt- Voraussagen sensorabhängige Erwartungswerte der Messdaten ermittelt.
Als externe Sensoren sind ein Radarsensor, ein Lasersensor und eine Videokamera denkbar. Durch den Radarsensor mit einer typischen Frequenz von ca. 77 GHz lassen sich beispielsweise Reflexionspunkte von Objekten in einem Abstand von bis zu 150m erkennen. Mit dem Lasersensor sind Konturen von Objekten erfassbar. Als Videokamera ist entweder ein Mono-Video System denkbar, durch welches eine Spur erkennbar ist, oder ein Stereo- Video-System zur Erkennung dreidimensionaler Gebilde. Wird ein Signal durch den Radarsensor, den Lasersensor und/oder die Videokamera aufgenommen, so erstellt die zugehörige Sensoreinheit in der lnstanziierung mindestens eine Objekthypothese, d.h. eine Hypothese über ein im Fahrzeugumfeld befindliches Objekt, welches ein derartiges Signal liefern könnte. Liefert ein Radarsensor ein Signal für einen Reflexionspunkt so ist daraus keine eindeutige Aussage über das zugehörige Objekt machbar. Der Reflexionspunkt kann beispielsweise zu einem Lastwagen, einem PKW oder einem Fahrradfahrer gehören. Außerdem ist seine Position an dem Objekt mehrdeutig, er kann beispielsweise auf einem Nummernschild, einem Außenspiegel etc. liegen. Durch die lnstanziierung werden daher verschiedene Objekthypothesen gebildet. Diese Objekthypothesen werden an die zentrale Auswerteeinheit übermittelt. Die Auswerteeinheit bewertet die verschiedenen konkurrierenden Objekthypothesen für eine Ermittlung möglicher, zugehöriger Objekte. Positiv auf die Entscheidung für ein mögliches Objekt wirken sich beispielsweise übereinstimmende Objekthypothesen unterschiedlicher Sensoren aus. Informationen bezüglich der ermittelten möglichen Objekte werden wieder an die Sensoreinheiten übertragen. In den Sensoreinheiten werden aus den Informationen über mögliche Objekte im Fahrzeugumfeld Erwartungsdaten ermittelt. Die Erwartungsdaten sind die Messdaten, welche der zugehörige Sensor erfassen würde, falls sich ein vermeintliches Objekt tatsächlich in einer vorhergesagten Position befindet. Zur Bestimmung der Erwartungsdaten werden Sensormodelle verwendet. Ein Radar-Sensormodell, welches in einer einem Radar-Sensor zugeordneten Sensoreinheit eingesetzt ist, berücksichtigt beispielsweise eine Vorhersage von Reflexionspunkten eines Fahrzeugs an Ecken, Nummernschild, Außenspiegel, inneren Reflexionspunkten etc., eine örtliche Messgenauigkeit der Reflexionspunkte, Entfernung, Winkel, eine Längsgeschwindigkeit und eine Quergeschwindigkeit. Werden die Objekthypothesen von den anderen Sensoren und/oder den nachfolgenden Messungen unterstützt, so können die entsprechenden Messdaten eindeutig diesem Objekt zugeordnet werden, d.h. es werden sogenannte assoziierte Umfeld-Merkmale erhalten. Mit einem gemeinsamen Objekt assoziierte Umfeld- Merkmale verschiedener Sensoren können dann verknüpft werden. Durch die Assoziierung wird verhindert, das nicht zusammenhängende Messsignale und/oder Daten miteinander verknüpft werden.
Die Auswertung der einzelnen Sensoren bedingt sich teilweise durch die Objektvoraussagen, es bestehen jedoch keine Abhängigkeiten unter den Sensoren. So können beispielsweise durch einen Lasersensor gewonnen Messpunkte zur Stützung einer Disparitätsberechnung eines Stereo-Video-Sensors eingesetzt werden. Die Signalverarbeitung des Stereo-Video- Sensors baut aber nicht unmittelbar auf den Informationen des Lasersensors auf.

Claims

PAT E NTAN S P RÜ C H E
1. Verfahren zur Ermittlung des Fahrzeugumfeldes eines Fahrzeugs, umfassend mindestens einen externen Sensor (10, 20, 30), wobei durch den externen Sensor (10, 20, 30) das Fahrzeugumfeld abgetastet wird und dem Sensor (10, 20, 30) mindestens eine Sensoreinheit (11, 21, 31) zugeordnet ist, und eine Auswerteeinheit (2), wobei durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von Objektdaten ermittelt wird, dadurch gekennzeichnet, dass der externe Sensor (10, 20, 30) Messdaten an die Sensoreinheit (11, 21, 31) überträgt, die Sensoreinheit (11, 21, 31) mindestens ein assoziiertes Umfeld-Merkmal ermittelt, wobei die Messdaten mit Erwartungsdaten der Messdaten assoziiert werden und dabei mindestens die physikalischen Eigenschaften des zugeordneten externen
Sensors (10, 20, 30) berücksichtigt werden, erste Objektdaten mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmt werden und in der Auswerteeinheit (2) zur Auswertung der Objektdaten ein sensorunabhängiges
Situationsmodell verwendet wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die ersten Objektdaten durch Verknüpfung von mindestens zwei assoziierten Umfeld-Merkmalen bestimmt erden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von zweiten Objektdaten ermittelt wird, wobei durch mindestens eine Sensoreinheit (11, 21, 31) aus nicht assoziierten Umfeld-Merkmalen mindestens eine Objekthypothese generiert wird und zweiten Objektdaten aus der Objekthypothese ermittelt werden.
4. Verfahren nach einem der Ansprüche 1, 2 oder 3, dadurch gekennzeichnet, dass Erwartungsdaten von mindestens einem im Fahrzeugumfeld befindlichen Objekt durch die Auswerteeinheit (2) ermittelt werden und den Sensoreinheiten (11, 21, 31) übermittelt werden, wobei durch die Auswerteeinheit (2) eine Klassifizierung in und/oder eine Verwerfung von Objektmodellen durchgeführt wird.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die Erwartungsdaten durch eine Vorausschau ermittelt werden.
6. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von dritten Objektdaten ermittelt wird, wobei dritte Objektdaten direkt von der Sensoreinheit (11, 21, 31) unter Berücksichtigung der physikalischen Eigenschaften des zugehörigen Sensors (10, 20, 30) und/oder eines Erwartungswertes bestimmt werden.
7. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass die Objektdaten in der Auswerteeinheit (2) durch ein Filter (201) verknüpft werden, wobei mindestens ein Abstand und/oder eine Relativgeschwindigkeit eines Objektes zu dem Fahrzeug erfasst wird.
8. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass ein Fahrzustand des Fahrzeugs durch mindestens einen internen Sensor erfasst wird, wobei dem internen Sensor ein Sensoreinheit zugeordnet ist, der interne Sensor Messdaten an die Sensoreinheit überträgt und durch die Sensoreinheit mindestens ein assoziiertes Umfeld-Merkmal und/oder eine Objekthypothese ermittelt wird.
9. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass durch die Auswerteinheit (2) Daten an ein Fahrerassistenz-Programm übermittelt werden.
10. Verfahren nach einem der genannten Ansprüche, dadurch gekennzeichnet, dass durch die Sensoren (10, 20, 30) eine Vorverarbeitung der Messdaten erfolgt.
11. Vorrichtung zur Ermittlung des Fahrzeugumfeldes eines Fahrzeugs, umfassend mindestens einen externen Sensor (10, 20, 30), wobei durch den externen Sensor (10, 20, 30) das Fahrzeugumfeld abtastbar ist und dem Sensor (10, 20, 30) mindestens eine Sensoreinheit (11, 21, 31) zuordenbar ist, und eine Auswerteeinheit (2), wobei durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von ersten Objektdaten ermittelbar ist, dadurch gekennzeichnet, dass Messdaten von dem externen Sensor (10, 20, 30) an die Sensoreinheit (11 , 21, 31) übertragbar sind, durch die Sensoreinheit (11 , 21 , 31) mindestens ein assoziiertes Umfeld-Merkmal ermittelbar ist, wobei die Messdaten mit Erwartungsdaten der Messdaten assoziierbar sind und dabei mindestens die physikalischen Eigenschaften des zugeordneten externen Sensors (10, 20, 30) berücksichtigbar sind, erste Objektdaten mindestens in Abhängigkeit des assoziierten Umfeld-Merkmals bestimmbar sind und in der Auswerteeinheit (2) zur Auswertung der Objektdaten ein sensorunabhängiges
Situationsmodell verwendbar ist.
12. Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass erste Objektdaten durch eine Verknüpfung von mindestens zwei assoziierten Umfeld-Merkmalen bestimmbar sind.
13. Vorrichtung nach Anspruch 10 oder 11 , dadurch gekennzeichnet, dass durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von zweiten Objektdaten ermittelbar ist, wobei durch die Sensoreinheit (11, 21, 31) aus nicht assoziierten Umfeld-Merkmalen Objekthypothesen generierbar sind und zweiten Objektdaten aus Objekthypothesen ermittelbar sind.
14. Vorrichtung nach Anspruch 10, 11 oder 12, dadurch gekennzeichnet, dass Erwartungsdaten von mindestens einem im Fahrzeugumfeld befindlichen Objekt durch die Auswerteeinheit (2) ermittelbar und an die Sensoreinheiten (11, 21 , 31) übermittelbar sind, wobei durch die Auswerteeinheit (2) eine Klassifizierung in und/oder eine Verwerfung von Objektmodellen durchgeführt wird.
15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Erwartungsdaten durch eine Vorausschau ermittelbar sind.
16. Vorrichtung nach einem Ansprüche 10 bis 15, dadurch gekennzeichnet, dass durch die Auswerteeinheit (2) mindestens ein im Fahrzeugumfeld befindliches Objekt anhand von dritten Objektdaten ermittelbar ist, wobei dritte Objektdaten direkt von der Sensoreinheit (11, 21, 31) unter Berücksichtigung der physikalischen Eigenschaften des zugehörigen Sensors (10, 20, 30) und/oder eines Erwartungswertes bestimmbar sind.
17. Vorrichtung nach einem Ansprüche 10 bis 16, dadurch gekennzeichnet, dass die Objektdaten in der Auswerteeinheit (2) durch ein Filter (202) verknüpf bar sind, wobei mindestens ein Abstand und/oder eine Relativgeschwindigkeit eines Objektes zu dem Fahrzeug bewertbar sind.
18. Vorrichtung nach einem Ansprüche 10 bis 17, dadurch gekennzeichnet, dass ein Fahrzustand des Fahrzeugs durch mindestens einen internen Sensor erfassbar ist, wobei dem internen Sensor ein Sensoreinheit zugeordnet ist, durch den internen Sensor Messdaten an die Sensoreinheit übertragbar sind durch die Sensoreinheit mindestens ein assoziiertes Umfeld-Merkmal und/oder eine Objekthypothese ermittelbar ist.
19. Vorrichtung nach einem Ansprüche 10 bis 18, dadurch gekennzeichnet, dass durch die Auswerteinheit (2) Daten an ein Fahrerassistenz-Programm übermittelbar sind.
20. Vorrichtung nach einem Ansprüche 10 bis 19, dadurch gekennzeichnet, dass durch die Sensoren (10, 20, 30) eine Vorverarbeitung der Messdaten durchführbar ist.
PCT/EP2003/009840 2002-09-27 2003-09-04 Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes WO2004031877A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP03747965A EP1546829B1 (de) 2002-09-27 2003-09-04 Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes
AT03747965T ATE490497T1 (de) 2002-09-27 2003-09-04 Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes
DE50313297T DE50313297D1 (de) 2002-09-27 2003-09-04 Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE10245428 2002-09-27
DE10245428.0 2002-09-27
DE10308168.2 2003-02-20
DE10308168A DE10308168A1 (de) 2002-09-27 2003-02-20 Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes

Publications (1)

Publication Number Publication Date
WO2004031877A1 true WO2004031877A1 (de) 2004-04-15

Family

ID=32070697

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2003/009840 WO2004031877A1 (de) 2002-09-27 2003-09-04 Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes

Country Status (2)

Country Link
EP (1) EP1546829B1 (de)
WO (1) WO2004031877A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2056123A1 (de) * 2007-11-02 2009-05-06 Delphi Technologies, Inc. Kollisionsvermeidungs- und Kollisionswarnsystem und -verfahren
WO2015166156A1 (fr) * 2014-04-30 2015-11-05 Renault S.A.S. Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
CN108216249A (zh) * 2016-12-21 2018-06-29 罗伯特·博世有限公司 用于车辆的周围环境检测的系统和方法
US10168418B1 (en) 2017-08-25 2019-01-01 Honda Motor Co., Ltd. System and method for avoiding sensor interference using vehicular communication
US10334331B2 (en) 2017-08-25 2019-06-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
US10757485B2 (en) 2017-08-25 2020-08-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
CN113330448A (zh) * 2019-02-05 2021-08-31 宝马股份公司 用于车辆的传感器数据融合的方法和装置
US11163317B2 (en) 2018-07-31 2021-11-02 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
US11181929B2 (en) 2018-07-31 2021-11-23 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012023746A1 (de) * 2012-12-04 2014-06-05 Connaught Electronics Ltd. Verfahren zum Verfolgen eines Zielobjekts in einem Umgebungsbereich eines Kraftfahrzeugs durch Fusion von Bilddaten mit anderen Sensordaten, Fahrerassistenzeinrichtung und Kraftfahrzeug

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0301586A1 (de) * 1987-07-29 1989-02-01 Phoenix Software Development Co. Gerät und Verfahren zur Bildverarbeitung für automatische Farbanlage
WO1989001850A1 (en) * 1987-08-28 1989-03-09 Caplin Cybernetics Corporation Ltd. An adaptive vision-based controller
EP0358628A2 (de) * 1988-09-06 1990-03-14 Transitions Research Corporation Strukturiertes Lichtsystem für optische Navigation und zum Ausweichen vor Hindernissen
EP0363339A2 (de) * 1988-10-04 1990-04-11 Transitions Research Corporation Navigation für einen bewegbaren Roboter mittels einer an der Decke befestigten Leuchte
DE19845568A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
EP1220182A2 (de) * 2000-12-25 2002-07-03 Matsushita Electric Industrial Co., Ltd. Vorrichtung zur Erkennung von Bildern sowie Rechnerprogramm und Programmspeichereinheit

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0301586A1 (de) * 1987-07-29 1989-02-01 Phoenix Software Development Co. Gerät und Verfahren zur Bildverarbeitung für automatische Farbanlage
WO1989001850A1 (en) * 1987-08-28 1989-03-09 Caplin Cybernetics Corporation Ltd. An adaptive vision-based controller
EP0358628A2 (de) * 1988-09-06 1990-03-14 Transitions Research Corporation Strukturiertes Lichtsystem für optische Navigation und zum Ausweichen vor Hindernissen
EP0363339A2 (de) * 1988-10-04 1990-04-11 Transitions Research Corporation Navigation für einen bewegbaren Roboter mittels einer an der Decke befestigten Leuchte
DE19845568A1 (de) * 1998-04-23 1999-10-28 Volkswagen Ag Vorrichtung zur Objekterfassung für Kraftfahrzeuge
EP1220182A2 (de) * 2000-12-25 2002-07-03 Matsushita Electric Industrial Co., Ltd. Vorrichtung zur Erkennung von Bildern sowie Rechnerprogramm und Programmspeichereinheit

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
J. LANGHEIM: "CARSENSE - New Environment Sensing for Advanced Driver Assistance Systems", PROC. OF THE IEEE INTELLIGENT VEHICLE SYMPOSIUM, 2001
SCHMID M.: "An approach to model-based 3-D recognition of vehicles in real time by machine vision", INTELLIGENT ROBOTS AND SYSTEMS '94. 'ADVANDED ROBOTIC SYSTEMS AND THE REAL WORLD', IROS '94. PROCEEDINGS OF THE IEEE/RSJ/GI INTERNATIONAL CONFERENCE MUNICH; GERMANY 12-16 SEPT. 1994, 12 September 1994 (1994-09-12), pages 2064 - 2071, XP010142025, DOI: doi:10.1109/IROS.1994.407580
SCHMID M: "An approach to model-based 3-D recognition of vehicles in real time by machine vision", INTELLIGENT ROBOTS AND SYSTEMS '94. 'ADVANCED ROBOTIC SYSTEMS AND THE REAL WORLD', IROS '94. PROCEEDINGS OF THE IEEE/RSJ/GI INTERNATIONAL CONFERENCE ON MUNICH, GERMANY 12-16 SEPT. 1994, NEW YORK, NY, USA,IEEE, 12 September 1994 (1994-09-12), pages 2064 - 2071, XP010142025, ISBN: 0-7803-1933-8 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2056123A1 (de) * 2007-11-02 2009-05-06 Delphi Technologies, Inc. Kollisionsvermeidungs- und Kollisionswarnsystem und -verfahren
CN106255899B (zh) * 2014-04-30 2022-03-04 雷诺股份公司 用于将对象用信号通知给配备有此装置的车辆的导航模块的装置
WO2015166156A1 (fr) * 2014-04-30 2015-11-05 Renault S.A.S. Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
FR3020616A1 (fr) * 2014-04-30 2015-11-06 Renault Sas Dispositif de signalisation d'objets a un module de navigation de vehicule equipe de ce dispositif
CN106255899A (zh) * 2014-04-30 2016-12-21 雷诺股份公司 用于将对象用信号通知给配备有此装置的车辆的导航模块的装置
JP2017521745A (ja) * 2014-04-30 2017-08-03 ルノー エス.ア.エス. 車両のナビゲーションモジュールに対象物の存在を知らせる車載装置
US10035508B2 (en) 2014-04-30 2018-07-31 Renault S.A.S. Device for signalling objects to a navigation module of a vehicle equipped with this device
CN108216249A (zh) * 2016-12-21 2018-06-29 罗伯特·博世有限公司 用于车辆的周围环境检测的系统和方法
CN108216249B (zh) * 2016-12-21 2022-10-28 罗伯特·博世有限公司 用于车辆的周围环境检测的系统和方法
US10334331B2 (en) 2017-08-25 2019-06-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
US10757485B2 (en) 2017-08-25 2020-08-25 Honda Motor Co., Ltd. System and method for synchronized vehicle sensor data acquisition processing using vehicular communication
US10338196B2 (en) 2017-08-25 2019-07-02 Honda Motor Co., Ltd. System and method for avoiding sensor interference using vehicular communication
US10168418B1 (en) 2017-08-25 2019-01-01 Honda Motor Co., Ltd. System and method for avoiding sensor interference using vehicular communication
US11163317B2 (en) 2018-07-31 2021-11-02 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
US11181929B2 (en) 2018-07-31 2021-11-23 Honda Motor Co., Ltd. System and method for shared autonomy through cooperative sensing
CN113330448A (zh) * 2019-02-05 2021-08-31 宝马股份公司 用于车辆的传感器数据融合的方法和装置

Also Published As

Publication number Publication date
EP1546829A1 (de) 2005-06-29
EP1546829B1 (de) 2010-12-01

Similar Documents

Publication Publication Date Title
EP2585980B1 (de) Verfahren und system zur beschleunigten objekterkennung und/oder beschleunigten objektattributerkennung sowie verwendung des verfahrens
DE102006047131A1 (de) Verfahren zum automatischen Steuern eines Fahrzeugs
DE10133945A1 (de) Verfahren und Vorrichtung zum Austausch und zur Verarbeitung von Daten
DE102005002760A1 (de) Vorrichtung und Verfahren zur Unfallvermeidung bei Kraftfahrzeugen
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
WO2008071473A1 (de) Verfahren und vorrichtung zum erfassen eines hindernisses in einem umgebungsbereich eines kraftfahrzeugs und kraftfahrzeug
DE102018109404A1 (de) System und Verfahren zur Bestimmung der Position von Seitenaufprallvermeidungssensoren an einem Fahrzeug
DE102017217444A1 (de) Verfahren und System zum Aktualisieren eines Steuerungsmodells für eine automatische Steuerung zumindest einer mobilen Einheit
DE102019215399A1 (de) Verfahren und vorrichtung zum analysieren einer fahrtendenz und system zum steuern eines fahrzeugs
DE102017111468A1 (de) Fahrzeugsystem und Verfahren zum Bestimmen, ob ein Fahrzeuginsasse ein fahrzeugexternes Objekt wahrgenommen hat
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
EP1546829B1 (de) Verfahren und vorrichtung zur ermittlung des fahrzeugumfeldes
DE102008063033B4 (de) Vorrichtung und Verfahren zur Erkennung von Kollisionen mit erhöhter funktionaler Sicherheit
DE102010003375B4 (de) Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
EP3609755A1 (de) Fahrerassistenzsystem für ein fahrzeug
DE102017211387A1 (de) System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs
DE102016220450A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Abschätzung einer Kollisionswahrscheinlichkeit zwischen einem Fortbewegungsmittel und einem Umgebungsobjekt
DE10308168A1 (de) Verfahren und Vorrichtung zur Ermittlung des Fahrzeugumfeldes
DE102018219760A1 (de) Kollisionsprädiktionssystem
DE10354035A1 (de) Vorrichtung und Verfahren zur Objekterkennung für eine Kraftfahrzeug-Sicherheitseinrichtung
WO2022089800A1 (de) Verfahren zur bereitstellung von informationen über verkehrsteilnehmer
DE102019215359A1 (de) Verfahren zum Ausgeben eines Signals zum Auffahren eines Fahrzeugs auf eine Vorfahrtsstraße
DE102004047084A1 (de) Fahrerassistenzsystem mit Fuzzy-Logic
DE102016202317A1 (de) Verfahren zum steuern von fahrzeugfunktionen durch ein fahrerassistenzsystem, fahrerassistenzsystem und fahrzeug
DE102022205084B3 (de) Verfahren, Computerprogramm und Vorrichtung zur Umfeldwahrnehmung im Fahrzeug sowie entsprechendes Fahrzeug

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003747965

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2003747965

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP