DE102011117100A1 - Method for determining vehicle i.e. motor car, environment, involves checking actual local environment data representing objects based on other actual local environment data, and verifying determined objects - Google Patents

Method for determining vehicle i.e. motor car, environment, involves checking actual local environment data representing objects based on other actual local environment data, and verifying determined objects Download PDF

Info

Publication number
DE102011117100A1
DE102011117100A1 DE102011117100A DE102011117100A DE102011117100A1 DE 102011117100 A1 DE102011117100 A1 DE 102011117100A1 DE 102011117100 A DE102011117100 A DE 102011117100A DE 102011117100 A DE102011117100 A DE 102011117100A DE 102011117100 A1 DE102011117100 A1 DE 102011117100A1
Authority
DE
Germany
Prior art keywords
vehicle
environment
data
environment data
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011117100A
Other languages
German (de)
Inventor
Dipl.-Ing. Daniel (FH) Buck
Steffen Haug
Martin Keppler
Martin Wenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daimler AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102011117100A priority Critical patent/DE102011117100A1/en
Publication of DE102011117100A1 publication Critical patent/DE102011117100A1/en
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00791Recognising scenes perceived from the perspective of a land vehicle, e.g. recognising lanes, obstacles or traffic signs on road scenes
    • G06K9/00805Detecting potential obstacles
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06KRECOGNITION OF DATA; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K9/00Methods or arrangements for reading or recognising printed or written characters or for recognising patterns, e.g. fingerprints
    • G06K9/00624Recognising scenes, i.e. recognition of a whole field of perception; recognising scene-specific objects
    • G06K9/00791Recognising scenes perceived from the perspective of a land vehicle, e.g. recognising lanes, obstacles or traffic signs on road scenes
    • G06K9/00825Recognition of vehicle or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Abstract

The method involves storing actual local environment data (UD1, UD2) e.g. image and radar data, and optically detecting the actual local environment data (UD2) by an environment detecting unit (4) i.e. stereo camera, coupled with another environment detecting unit (3) i.e. radar sensor. A control unit (5) is processed such that objects (O1-On) e.g. animals, in a vehicle environment are determined based on the detected data. The actual local environment data representing the objects are checked based on other actual local environment data (UD1). The determined objects are verified. An independent claim is also included for a device for determining vehicle environment.

Description

  • Die Erfindung betrifft ein Verfahren zur Bestimmung einer Fahrzeugumgebung gemäß dem Oberbegriff des Patentanspruchs 1. Weiterhin betrifft die Erfindung eine Vorrichtung zur Bestimmung einer Fahrzeugumgebung gemäß dem Oberbegriff des Patentanspruchs 10. The invention relates to a method for determining a vehicle environment according to the preamble of patent claim 1. Furthermore, the invention relates to a device for determining a vehicle environment according to the preamble of patent claim 10.
  • Aus der WO 01/67131 A1 Aus der WO 01/67131 A1 ist ein Objektdetektionssystem, insbesondere für ein Kraftfahrzeug, bekannt, bei dem das Objektdetektionssystem mehrere Objektdetektoren und/oder Betriebsmodi aufweist, mit denen unterschiedliche Detektionsreichweiten und/oder Detektionsbereiche erfasst werden. an object detection system, in particular for a motor vehicle, is known in which the object detection system has a plurality of object detectors and / or operating modes with which different detection ranges and / or detection areas are recorded. Hierbei ist bevorzugt ein Objektdetektor ein Radarsensor, der in einem ersten Betriebsmodus eine relativ große Detektionsreichweite bei einem relativ kleinen Winkelerfassungsbereich und in einem zweiten Betriebsmodus eine relativ dazu geringe Detektionsreichweite bei einem vergrößerten Winkelerfassungsbereich aufweist. In this case, an object detector is preferably a radar sensor which in a first operating mode has a relatively large detection range with a relatively small angle detection range and in a second operating mode a relatively small detection range with an enlarged angle detection range. From the From the WO 01/67131 A1 WO 01/67131 A1 is an object detection system, in particular for a motor vehicle, known, in which the object detection system comprises a plurality of object detectors and / or operating modes with which different detection ranges and / or detection ranges are detected. is an object detection system, in particular for a motor vehicle, known, in which the object detection system comprises a plurality of object detectors and / or operating modes with which different detection ranges and / or detection ranges are detected. In this case, an object detector is preferably a radar sensor which, in a first operating mode, has a relatively large detection range at a relatively small angle detection range and, in a second operating mode, a relatively small detection range at an enlarged angle detection range. In this case, an object detector is preferably a radar sensor which, in a first operating mode, has a relatively large detection range at a relatively small angle detection range and, in a second operating mode, a relatively small detection range at an enlarged angle detection range.
  • Der Erfindung liegt die Aufgabe zugrunde, ein gegenüber dem Stand der Technik verbessertes Verfahren und verbesserte Vorrichtung zur Bestimmung einer Fahrzeugumgebung anzugeben. The invention has for its object to provide a comparison with the prior art improved method and improved device for determining a vehicle environment.
  • Die Aufgabe wird erfindungsgemäß mit einem Verfahren gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist. Hinsichtlich der Vorrichtung wird die Aufgabe durch die im Anspruch 10 angegebenen Merkmale gelöst. The object is achieved by a method having the features specified in claim 1. With regard to the device, the object is achieved by the features specified in claim 10.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche. Advantageous embodiments of the invention are the subject of the dependent claims.
  • Bei einem Verfahren zur Bestimmung einer Fahrzeugumgebung werden mittels einer ersten Umgebungserfassungseinheit erste aktuelle lokale Umgebungsdaten erfasst.In a method for determining a vehicle environment, first current local environment data are acquired by means of a first environment detection unit.
  • Erfindungsgemäß werden mittels einer mit der ersten Umgebungserfassungseinheit gekoppelten zweiten Umgebungserfassungseinheit zweite aktuelle lokale Umgebungsdaten optisch erfasst, wobei die Umgebungsdaten gespeichert und mittels mindestens einer mit den Umgebungserfassungseinheiten gekoppelten Steuereinheit derart verarbeitet werden, dass anhand eine der erfassten aktuellen lokalen Umgebungsdaten wenigstens ein Objekt in der Fahrzeugumgebung ermittelt wird und wobei die das Objekt repräsentierenden aktuellen lokalen Umgebungsdaten anhand der anderen aktuellen lokalen Umgebungsdaten geprüft werden und das ermittelte Objekt verifiziert wird.According to the invention, second current local environment data are optically acquired by means of a second environment detection unit coupled to the first environment detection unit, the environmental data being stored and processed by at least one control unit coupled to the environment detection units such that at least one object in the vehicle environment is determined based on one of the detected current local environment data and wherein the current local environment data representing the object is checked against the other current local environment data and the detected object is verified.
  • Hierbei umfassen die erste Umgebungserfassungseinheit bevorzugt zumindest einen Radarsensor und die zweite Umgebungserfassungseinheit zumindest eine Kamera, beispielsweise eine Stereo-Kamera. Alternativ kann die elektromagnetische Umgebungserfassungseinheit auch einen oder mehrere Lidar-Sensoren umfassen.In this case, the first environment detection unit preferably comprises at least one radar sensor and the second environment detection unit comprises at least one camera, for example a stereo camera. Alternatively, the ambient electromagnetic detection unit may also include one or more lidar sensors.
  • Aus dem erfindungsgemäßen Verfahren resultiert in vorteilhafter Weise, dass dem Fahrzeug vorausfahrende Objekte, insbesondere Fahrzeuge und/oder Radfahrer, besonders zuverlässig und sicher erfassbar sind. In einer Weiterbildung der Erfindung werden bei der gegenseitigen Überprüfung der aktuellen lokalen Umgebungsdaten anhand mindestens einer der erfassten aktuellen lokalen Umgebungsdaten eine Position und/oder eine Geschwindigkeit des Objekts relativ zum Fahrzeug ermittelt. Hierdurch ist zumindest ein Abstand zum vorausfahrenden Objekt sehr genau ermittelbar. Insbesondere bei einer Verwendung des erfindungsgemäßen Verfahrens zur automatischen Längssteuerung und/oder Quersteuerung des Fahrzeugs, vorzugsweise bei einer Verwendung für sogenannte adaptive Geschwindigkeits- und/oder Abstandsregelsysteme, ist es mittels der Kopplung der zweiten Umgebungserfassungseinheit an die erste Umgebungserfassungseinheit in einfacher und sicherer Weise möglich, ein relevantes Zielobjekt zu ermitteln, in dessen Abhängigkeit die Längssteuerung und/oder Quersteuerung des Fahrzeugs erfolgt.From the method according to the invention results in an advantageous manner that the vehicle in front of driving objects, in particular vehicles and / or cyclists, are particularly reliable and secure detectable. In one development of the invention, in the mutual check of the current local environment data, a position and / or a speed of the object relative to the vehicle are determined on the basis of at least one of the detected current local environment data. As a result, at least one distance to the preceding object can be determined very accurately. In particular, when using the method according to the invention for the automatic longitudinal control and / or lateral control of the vehicle, preferably when used for so-called adaptive speed and / or distance control systems, it is possible by means of the coupling of the second environment detection unit to the first environment detection unit in a simple and secure manner, to determine a relevant target object, in dependence of which the longitudinal control and / or lateral control of the vehicle takes place.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert. Embodiments of the invention will be explained in more detail below with reference to a drawing.
  • Dabei zeigt: Showing:
  • 1 schematisch ein Blockdiagramm mit Komponenten einer Vorrichtung zur Bestimmung einer Fahrzeugumgebung. 1 schematically a block diagram with components of a device for determining a vehicle environment. 1 schematisch ein Blockdiagramm mit Komponenten einer Vorrichtung zur Bestimmung einer Fahrzeugumgebung. 1 schematically a block diagram with components of a device for determining a vehicle environment. 1 schematisch ein Blockdiagramm mit Komponenten einer Vorrichtung zur Bestimmung einer Fahrzeugumgebung. 1 schematically a block diagram with components of a device for determining a vehicle environment. 1 schematisch ein Blockdiagramm mit Komponenten einer Vorrichtung zur Bestimmung einer Fahrzeugumgebung. 1 schematically a block diagram with components of a device for determining a vehicle environment.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen. Corresponding parts are provided in all figures with the same reference numerals.
  • In 1 In 1 ist eine Vorrichtung is a device 1 1 zur Bestimmung einer Fahrzeugumgebung dargestellt. to determine a vehicle environment. In In 1 1 is a device is a device 1 1 to determine a vehicle environment. to determine a vehicle environment.
  • Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out. Anhand der von der Vorrichtung 1 erfassten Daten der Fahrzeugumgebung wird eine Fahrerassistenzvorrichtung 2 gesteuert, wobei mittels der Fahrerassistenzvorrichtung 2 vorzugsweise eine automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs ausgeführt wird. On the basis of the device 1 acquired data of the vehicle environment becomes a driver assistance device 2 controlled, wherein by means of the driver assistance device 2 preferably an automatic longitudinal control and / or lateral control of the vehicle is carried out.
  • Bei der Fahrerassistenzvorrichtung 2 Bei der Fahrerassistenzvorrichtung 2 handelt es sich insbesondere um ein sogenanntes adaptives Geschwindigkeits- und/oder Abstandsregelsystem zur Anpassung einer Fahrzeuggeschwindigkeit und eines Sicherheitsabstands zu einem vorausfahrenden Objekt an gegebene Fahrsituationen. it is in particular a so-called adaptive speed and / or distance control system for adapting a vehicle speed and a safety distance to a preceding object to given driving situations. Hierzu stellt ein Fahrer des Fahrzeugs wunschgemäß über eine Bedieneinheit, welche sich insbesondere in Lenkradnähe befindet, sowohl die Fahrzeugsgeschwindigkeit als auch einen Sicherheitsabstand zu einem vorausfahrenden Fahrzeug ein. For this purpose, a driver of the vehicle sets both the vehicle speed and a safety distance to a vehicle traveling ahead as required via an operating unit which is located in particular near the steering wheel. In the driver assistance device In the driver assistance device 2 2 In particular, it is a so-called adaptive speed and / or distance control system for adapting a vehicle speed and a safety distance to a preceding vehicle to given driving situations. In particular, it is a so-called adaptive speed and / or distance control system for adapting a vehicle speed and a safety distance to a preceding vehicle to given driving situations. For this purpose, a driver of the vehicle as desired via an operating unit, which in particular Located near the steering wheel, both the vehicle speed and a safety distance to a vehicle ahead. For this purpose, a driver of the vehicle as desired via an operating unit, which in particular is located near the steering wheel, both the vehicle speed and a safety distance to a vehicle ahead.
  • Durch Auswerten der Fahrzeugumgebung wird das Fahrzeug automatisch mittels der Fahrerassistenzvorrichtung 2 beschleunigt oder verzögert. Durch Betätigen der Bedieneinheit oder des Bremspedals kann der Fahrer die Fahrerassistenzvorrichtung 2 jederzeit deaktivieren. Weiterhin ist es möglich, dass insbesondere im Fall einer hohen Relativgeschwindigkeit zu einem vorausfahrenden oder stehenden Fahrzeug automatisch eine Notfallbremsung eingeleitet wird. Das adaptive Geschwindigkeits- und/oder Abstandsregelsystem stellt somit nicht nur einen Komfortgewinn dar, sondern trägt auch aktiv zur Sicherheit im Straßenverkehr bei.By evaluating the vehicle environment, the vehicle automatically becomes the driver assistance device 2 accelerated or delayed. By operating the operating unit or the brake pedal, the driver can the driver assistance device 2 disable at any time. disable at any time. Furthermore, it is possible that emergency braking is automatically initiated, in particular in the case of a high relative speed to a vehicle in front or stationary. Furthermore, it is possible that emergency braking is automatically initiated, in particular in the case of a high relative speed to a vehicle in front or stationary. The adaptive speed and / or distance control system thus not only represents a gain in comfort, but also actively contributes to road safety. The adaptive speed and / or distance control system thus not only represents a gain in comfort, but also actively contributes to road safety.
  • Für die Funktionalität der Abstandsregelung ist eine Erkennung relevanter Objekte O1 bis On, insbesondere eines relevanten Zielfahrzeugs in der Umgebung des Fahrzeugs entscheidend, an dem sich die Regelung orientiert. Deshalb werden zunächst Objekte O1 bis On in der relevanten Umgebung des Fahrzeugs erkannt. Anschließend wird anhand eines Fahrspurverlaufs FV des oder der erkannten Objekte O1 bis On ermittelt, welches der erkannten Objekte O1 bis On als Zielobjekt auszuwählen ist.For the functionality of the distance control, a recognition of relevant objects O1 to On, in particular a relevant target vehicle in the environment of the vehicle is crucial to which the control is based. Therefore, objects O1 to On are first detected in the relevant environment of the vehicle. Subsequently, based on a lane course FV of the detected object or objects O1 to On, which of the detected objects O1 to On is to be selected as the target object.
  • Autobahnen und Kraftfahrtstraßen sind gemäß gesetzlichen Vorschriften derart konstruiert, dass Übergangsbögen einen definierten Verlauf gemäß sogenannter Klothoide aufweisen. Somit sind Parameter des aktuellen Fahrspurverlauf FV zuverlässig schätzbar/erfassbar und es kann entschieden werden, auf welcher Fahrspur sich ein vorausfahrendes und/oder stehendes Objekt befindet.Motorways and motorways are designed in accordance with legal requirements such that transitional arches have a defined course according to so-called clothoids. Thus, parameters of the current lane course FV can be reliably estimated / detected and it can be decided on which lane a preceding and / or stationary object is located.
  • Mittels des erfindungsgemäßen Verfahrens ist es möglich, zuverlässig die Relevanz der Objekte O1 bis On zu ermitteln. Diese Ermittlung erfolgt insbesondere mittels der dargestellten Vorrichtung 1 . By means of the method according to the invention, it is possible to reliably determine the relevance of the objects O1 to On. This determination is made in particular by means of the illustrated device 1 , Mittels des erfindungsgemäßen Verfahrens ist es möglich, zuverlässig die Relevanz der Objekte O1 bis On zu ermitteln. Diese Ermittlung erfolgt insbesondere mittels der dargestellten Vorrichtung 1 . By means of the method according to the invention, it is possible to reliably determine the relevance of the objects O1 to On. This determination is made in particular by means of the illustrated device 1 , Mittels des erfindungsgemäßen Verfahrens ist es möglich, zuverlässig die Relevanz der Objekte O1 bis On zu ermitteln. Diese Ermittlung erfolgt insbesondere mittels der dargestellten Vorrichtung 1 . By means of the method according to the invention, it is possible to reliably determine the relevance of the objects O1 to On. This determination is made in particular by means of the illustrated device 1 , Mittels des erfindungsgemäßen Verfahrens ist es möglich, zuverlässig die Relevanz der Objekte O1 bis On zu ermitteln. Diese Ermittlung erfolgt insbesondere mittels der dargestellten Vorrichtung 1 . By means of the method according to the invention, it is possible to reliably determine the relevance of the objects O1 to On. This determination is made in particular by means of the illustrated device 1 , Mittels des erfindungsgemäßen Verfahrens ist es möglich, zuverlässig die Relevanz der Objekte O1 bis On zu ermitteln. Diese Ermittlung erfolgt insbesondere mittels der dargestellten Vorrichtung 1 . By means of the method according to the invention, it is possible to reliably determine the relevance of the objects O1 to On. This determination is made in particular by means of the illustrated device 1 ,
  • Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 Die Vorrichtung 1 umfasst eine erste Umgebungserfassungseinheit 3 und eine zweite Umgebungserfassungseinheit 4 , welche miteinander gekoppelt sind und mittels welcher zumindest erste und zweite aktuelle lokale Umgebungsdaten UD1, UD2 einer Fahrzeugumgebung erfasst werden. The device 1 includes a first environment detection unit 3 and a second environment detection unit 4 which are coupled together and by means of which at least first and second current local environment data UD1, UD2 of a vehicle environment are detected. which are coupled together and by means of which at least first and second current local environment data UD1, UD2 of a vehicle environment are detected.
  • Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1. Die erste Umgebungserfassungseinheit 3 umfasst vorzugsweise zumindest einen Radarsensor und/oder zumindest einen Lidarsensor. Mittels der ersten Umgebungserfassungseinheit 3 werden als erste aktuelle lokale Umgebungsdaten UD1 beispielsweise Radardaten erfasst und gespeichert. The first environment detection unit 3 preferably comprises at least one radar sensor and / or at least one lidar sensor. By means of the first environment detection unit 3 For example, radar data are acquired and stored as first current local environment data UD1.
  • Die zweite Umgebungserfassungseinheit 4 Die zweite Umgebungserfassungseinheit 4 umfasst zumindest eine Kamera, welche bevorzugt auch als Stereokamera ausgebildet ist. comprises at least one camera, which is preferably also designed as a stereo camera. Mittels der Stereokamera ist die Umgebung dabei in besonders vorteilhafter Weise dreidimensional in einem großen Erfassungsbereich erfassbar. By means of the stereo camera, the surroundings can be captured in a particularly advantageous manner three-dimensionally in a large capture area. Hochauflösende Kameras mit Auflösungen von mehr als 1024 zu 512 Pixeln weisen den Vorteil auf, dass Objekte O1 bis On in großen Entfernungen, insbesondere von bis zu 400 m, sicher detektierbar sind. High-resolution cameras with resolutions of more than 1024 to 512 pixels have the advantage that objects O1 to On can be reliably detected at great distances, in particular of up to 400 m. Vorzugsweise werden aktuelle Umgebungsinformationen mittels der zweiten Umgebungserfassungseinheit Current environment information is preferably obtained by means of the second environment detection unit 4 4th optisch als Bildinformationen erfasst und als zweite aktuelle lokale Umgebungsdaten UD2 gespeichert. optically captured as image information and stored as a second current local environment data UD2. The second environment detection unit The second environment detection unit 4 4th includes at least one camera, which is preferably also designed as a stereo camera. includes at least one camera, which is preferably also designed as a stereo camera. By means of the stereo camera, the environment can be detected in a particularly advantageous manner three-dimensionally in a large detection area. By means of the stereo camera, the environment can be detected in a particularly advantageous manner three-dimensionally in a large detection area. High-resolution cameras with resolutions of more than 1024 to 512 pixels have the advantage that objects O1 to On are reliably detectable at great distances, in particular up to 400 m. High-resolution cameras with resolutions of more than 1024 to 512 pixels have the advantage that objects O1 to On are reliably detectable at great distances, in particular up to 400 m. Preferably, current environment information by means of the second environment detection unit Preferably, current environment information by means of the second environment detection unit 4 4th optically captured as image information and stored as the second current local environment data UD2. optically captured as image information and stored as the second current local environment data UD2.
  • Aus den zweiten aktuellen lokalen Umgebungsdaten UD2 werden Objekte O1 bis On in der Fahrzeugumgebung, insbesondere vorausfahrende Fahrzeuge, ermittelt. Beispielsweise erfolgt dies mittels einer mit der zweiten Umgebungserfassungseinheit 4 gekoppelten Steuereinheit 5 Aus den zweiten aktuellen lokalen Umgebungsdaten UD2 werden Objekte O1 bis On in der Fahrzeugumgebung, insbesondere vorausfahrende Fahrzeuge, ermittelt. Beispielsweise erfolgt dies mittels einer mit der zweiten Umgebungserfassungseinheit 4 gekoppelten Steuereinheit 5 Aus den zweiten aktuellen lokalen Umgebungsdaten UD2 werden Objekte O1 bis On in der Fahrzeugumgebung, insbesondere vorausfahrende Fahrzeuge, ermittelt. Beispielsweise erfolgt dies mittels einer mit der zweiten Umgebungserfassungseinheit 4 gekoppelten Steuereinheit 5 Aus den zweiten aktuellen lokalen Umgebungsdaten UD2 werden Objekte O1 bis On in der Fahrzeugumgebung, insbesondere vorausfahrende Fahrzeuge, ermittelt. Beispielsweise erfolgt dies mittels einer mit der zweiten Umgebungserfassungseinheit 4 gekoppelten Steuereinheit 5 , welche vorzugsweise auch mit der ersten Umgebungserfassungseinheit , which preferably also with the first environment detection unit 3 3 gekoppelt ist. is coupled. Alternativ ist die erste Umgebungserfassungseinheit Alternatively, the first environment detection unit 3 3 mit einer weiteren Steuereinheit gekoppelt. coupled to another control unit. Objects O1 to On in the vehicle environment, in particular vehicles in front, are determined from the second current local environment data UD2. Objects O1 to On in the vehicle environment, in particular vehicles in front, are determined from the second current local environment data UD2. For example, this is done by means of a with the second environment detection unit For example, this is done by means of a with the second environment detection unit 4 4th coupled control unit coupled control unit 5 5 , which preferably also with the first environment detection unit , which preferably also with the first environment detection unit 3 3 is coupled. is coupled. Alternatively, the first environment detection unit Alternatively, the first environment detection unit 3 3 coupled with another control unit. coupled with another control unit.
  • Dabei werden mittels der Steuereinheit 5 Dabei werden mittels der Steuereinheit 5 anhand der ermittelten ersten aktuellen lokalen Umgebungsdaten UD1 eine Position und/oder Geschwindigkeit des Objekts O1 bis On relativ zum Fahrzeug und ein Abstand des Fahrzeugs zum Objekt O1 bis On ermittelt und zusätzlich zu den ersten Umgebungsdaten UD1 derart hinterlegt, dass diese der Objekterkennung zugrunde gelegt werden. a position and / or speed of the object O1 to On relative to the vehicle and a distance of the vehicle to the object O1 to On are determined based on the determined first current local environment data UD1 and stored in addition to the first environment data UD1 in such a way that they are used as the basis for object recognition . Alternativ oder zusätzlich werden die zweiten aktuellen lokalen Umgebungsdaten UD2 derart hinterlegt, dass diese der Objekterkennung zugrunde gelegt werden. As an alternative or in addition, the second current local environment data UD2 are stored in such a way that they are used as the basis for object recognition. In this case, by means of the control unit In this case, by means of the control unit 5 5 determined on the basis of the determined first current local environment data UD1 a position and / or speed of the object O1 to On relative to the vehicle and a distance of the vehicle to the object O1 to On and in addition to the first environment data UD1 deposited such that they are based on the object recognition , Alternatively or additionally, the second current local environment data UD2 are stored in such a way that they are based on the object recognition. determined on the basis of the determined first current local environment data UD1 a position and / or speed of the object O1 to On relative to the vehicle and a distance of the vehicle to the object O1 to On and in addition to the first environment data UD1 deposited such that they are based on the object recognition, alternatively or additionally, the second current local environment data UD2 are stored in such a way that they are based on the object recognition.
  • Zur Verarbeitung der hinterlegten ersten und zweiten Umgebungsdaten UD1, UD2 ist in der Steuereinheit 5 Zur Verarbeitung der hinterlegten ersten und zweiten Umgebungsdaten UD1, UD2 ist in der Steuereinheit 5 ein Verfahren implementiert, bei welchem anhand eine der erfassten aktuellen lokalen Umgebungsdaten UD1 oder UD2 wenigstens ein Objekt O1 bis On in der Fahrzeugumgebung ermittelt wird und wobei die das Objekt O1 bis On repräsentierenden aktuellen lokalen Umgebungsdaten UD1 oder UD2 anhand der anderen aktuellen lokalen Umgebungsdaten UD2 oder UD1 geprüft werden und das ermittelte Objekt O1 bis On verifiziert wird. implements a method in which at least one object O1 to On is determined in the vehicle environment using one of the recorded current local environment data UD1 or UD2, and the current local environment data UD1 or UD2 representing the object O1 to On is determined using the other current local environment data UD2 or UD1 are checked and the determined object O1 to On is verified. Mit anderen Worten: Zur Plausibilisierung des mittels der einen erfassten aktuellen lokalen Umgebungsdaten UD1 oder UD2 erkannten Objekts O1 bis On werden weitere aktuelle lokale Umgebungsdaten UD2 bzw. UD1 einer anderen Umgebungserfassungseinheit In other words: For the plausibility check of the object O1 to On recognized by means of the one current local environment data UD1 or UD2 recorded, further current local environment data UD2 or UD1 of another environment detection unit are used 4 4th bzw. or. 3 3 herangezogen, indem eine gegenseitige Überprüfung der erfassten Umgebungsdaten UD1 und UD2 ausgeführt wird. used by performing a mutual check of the captured environmental data UD1 and UD2. For processing the stored first and second environment data UD1, UD2 is in the control unit For processing the stored first and second environment data UD1, UD2 is in the control unit 5 5 implements a method in which at least one object O1 to On in the vehicle environment is determined using one of the detected current local environment data UD1 or UD2 and wherein the current local environment data UD1 or UD2 representing the object O1 to On is based on the other current local environment data UD2 or UD1 are checked and the determined object O1 to On is verified. implements a method in which at least one object O1 to On in the vehicle environment is determined using one of the detected current local environment data UD1 or UD2 and wherein the current local environment data UD1 or UD2 representing the object O1 to On is based on the other current local environment data UD2 or UD1 are checked and the determined object O1 to On is verified. In other words, for the plausibility of the object O1 to On recognized by means of the one detected current local environment data UD1 or UD2, further current local environment data UD2 or UD1 of another environment detection unit In other words, for the plausibility of the object O1 to On recognized by means of the one detected current local environment data UD1 or UD2, further current local environment data UD2 or UD1 of another environment detection unit 4 4th respectively. respectively. 3 3 by performing a mutual check of the detected environment data UD1 and UD2. by performing a mutual check of the detected environment data UD1 and UD2.
  • Dabei kann es sich bei den unterschiedlich erfassten Umgebungsdaten UD1 und UD2, d. h. mittels unterschiedlicher Sensoren erfassten Daten, um unterschiedliche Daten, wie Bilddaten und Radardaten, handeln, aus denen wiederum unterschiedliche Kenndaten und/oder Eigenschaften der Objekte O1 bis On ermittelt werden. Somit erfolgt die Plausibilitätskontrolle der erfassten Umgebungsdaten UD1 und UD2 funktional diversitär.In this case, the differently recorded environment data UD1 and UD2, ie data acquired by means of different sensors, can be different data, such as image data and radar data, from which in turn different Characteristics and / or properties of the objects O1 to On are determined. Thus, the plausibility check of the detected environment data UD1 and UD2 is functionally diverse.
  • Eine mögliche Ausführungsform sieht bei der gegenseitigen Überprüfung der aktuellen lokalen Umgebungsdaten UD1, UD2 vor, dass anhand mindestens einer der erfassten aktuellen lokalen, insbesondere der ersten Umgebungsdaten UD1 eine Position POS1 bis POSn und/oder eine Geschwindigkeit des Objekts O1 bis On relativ zum Fahrzeug ermittelt werden bzw. wird und dieses als Zielobjekt ausgewählt wird.One possible embodiment provides for the mutual checking of the current local environment data UD1, UD2 that determines at least one of the detected current local, in particular the first environment data UD1 a position POS1 to POSn and / or a speed of the object O1 to On relative to the vehicle is or becomes and this is selected as the target object.
  • Durch Auswertung der erfassten zweiten Umgebungsdaten UD2 werden dann die ersten Umgebungsdaten UD1 geprüft und das als Zielobjekt ausgewählte Objekt O1 bis On verifiziert.By evaluating the detected second environment data UD2, the first environment data UD1 are then checked and the object O1 to On selected as the target object is verified.
  • Nachfolgend werden verschiedene Auswertungen für die zweiten Umgebungsdaten UD2 beschrieben, welcher einer Verifizierung des Objekts O1 bis On dienen. Alternativ kann anhand der erfassten zweiten Umgebungsdaten UD2 eine Zielobjekterkennung ausgeführt werden, wobei anhand der erfassten ersten Umgebungsdaten UD1 eine Überprüfung der erfassten zweiten Umgebungsdaten UD2 und eine Verifizierung der vorangegangenen Zielobjekterkennung erfolgt.In the following, various evaluations for the second environment data UD2 are described, which serve to verify the object O1 to On. Alternatively, a target object detection can be performed on the basis of the detected second environment data UD2, wherein based on the detected first environment data UD1 a check of the detected second environment data UD2 and a verification of the preceding target object detection takes place.
  • Durch Auswertung der erfassten zweiten Umgebungsdaten UD2, insbesondere der Bilddaten, werden das oder die Objekte O1 bis On beispielsweise anhand einer zugehörigen Außenkontur, einer zugehörigen Bereifung und/oder einer zugehörigen Heckleuchtenvorrichtung als vorausfahrende/s Fahrzeug/e erkannt. By evaluating the detected second environment data UD2, in particular the image data, the object or objects O1 to On are recognized, for example, as an in front of the vehicle / s by means of an associated outer contour, an associated tire and / or an associated tail lamp device.
  • Weiterhin ist es mittels der von der zweiten Umgebungserfassungseinheit 4 Weiterhin ist es mittels der von der zweiten Umgebungserfassungseinheit 4 erfassten zweiten Umgebungsdaten UD2 möglich, einen Fahrspurverlauf FV einer vor dem Fahrzeug befindlichen Fahrbahn zu ermitteln. detected second environmental data UD2 possible to determine a lane course FV of a lane in front of the vehicle. Beispielsweise wird dazu eine aktuelle lokale Umgebungskarte mit aus einer digitalen Straßenkarte einer Navigationsvorrichtung ausgelesenen Kartendaten verglichen. For example, a current local area map is compared with map data read out from a digital road map of a navigation device. Dabei wird insbesondere der Fahrspurverlauf FV in Bezug auf das/die ausgewählte/n Fahrzeug/e bestimmt. In particular, the course of the lane FV is determined in relation to the selected vehicle (s). Furthermore, it is by means of the second environment detection unit Furthermore, it is by means of the second environment detection unit 4 4th detected second environment data UD2 possible to determine a lane course FV of a road ahead of the vehicle. detected second environment data UD2 possible to determine a lane course FV of a road ahead of the vehicle. For example, a current local area map is compared with map data read from a digital map of a navigation device. For example, a current local area map is compared with map data read from a digital map of a navigation device. In particular, the lane course FV is determined with respect to the selected vehicle (s). In particular, the lane course FV is determined with respect to the selected vehicle (s).
  • Anhand der aus den zweiten aktuellen lokalen Umgebungsdaten UD2 ermittelten Objekten O1 bis On und besonders bevorzugt aus dem Fahrspurverlauf FV werden Positionen POS1 bis POSn der auf der Fahrbahn befindlichen Objekte O1 bis On ermittelt.On the basis of the objects O1 to On determined from the second current local environment data UD2 and particularly preferably from the traffic lane course FV, positions POS1 to POSn of the objects O1 to On located on the roadway are determined.
  • In einer bevorzugten Ausführungsform der Erfindung können zusätzlich bei der Ermittlung des Fahrspurverlaufs FV Fahrdynamikdaten des Fahrzeugs berücksichtigt werden. Beispielsweise werden die Fahrdynamikdaten mittels verschiedener am Fahrzeug befindlicher Sensoren, insbesondere Sensoren eines elektronischen Stabilitätsprogramms, eines Bremsassistenzsystems und/oder weiterer Fahrerassistenz- und Sicherheitssysteme erfasst und umfassen eine Fahrzeuggeschwindigkeit, eine Fahrzeugquerbeschleunigung, eine Fahrzeuglängsbeschleunigung, einen Lenkwinkel, einen Gierwinkel und/oder weitere Daten.In a preferred embodiment of the invention, driving dynamics data of the vehicle can additionally be taken into account when determining the lane course FV. For example, the vehicle dynamics data are detected by means of various sensors located on the vehicle, in particular sensors of an electronic stability program, a brake assistance system and / or further driver assistance and safety systems, and include a vehicle speed, a vehicle lateral acceleration, a vehicle longitudinal acceleration, a steering angle, a yaw angle and / or further data.
  • Das heißt, insbesondere andere Verkehrsteilnehmer lassen sich somit durch Verknüpfen dieser Informationen dem Fahrspurverlauf FV zuordnen. Damit sind die Positionen POS1 bis POSn dieser Objekte O1 bis On nicht nur relativ zum eigenen Fahrzeug bekannt, sondern auch relativ zum Verlauf der Fahrbahn. Somit kann entschieden werden, ob die Objekte O1 bis On sich auf der eigenen Fahrspur oder einer anderen Fahrspur befinden und somit als relevante Zielobjekte in Frage kommen oder nicht.That is, in particular other road users can thus be assigned to the lane course FV by linking this information. Thus, the positions POS1 to POSn of these objects O1 to On are known not only relative to the own vehicle, but also relative to the course of the road. Thus, it can be decided whether the objects O1 to On are located on the own traffic lane or another lane and thus can be considered as relevant target objects or not.
  • Anhand der Position der Objekte O1 bis On werden ein insbesondere vom eigenen Fahrzeug ausgehendes Gefahrenpotenzial für die Objekte O1 bis On und/oder ein von den Objekten O1 bis On ausgehendes Gefahrenpotenzial für das eigene Fahrzeug ermittelt und in Abhängigkeit dieser werden verschiedene Aktionen mittels der Fahrerassistenzvorrichtung 2, insbesondere die automatische Längssteuerung und/oder Quersteuerung des Fahrzeugs, ausgeführt.On the basis of the position of the objects O1 to On, a danger potential for the objects O1 to On and / or a danger potential for the own vehicle emanating from the own vehicle O1 to On are determined and depending on this different actions are carried out by means of the driver assistance device 2 , in particular the automatic longitudinal control and / or lateral control of the vehicle executed.
  • Beispielsweise ist anhand der mittels der zweiten Umgebungserfassungseinheit 4 optisch erfassten zweiten Umgebungsdaten UD2 ein Aufleuchten eines Bremslichts anhand einer Form der Heckleuchtenvorrichtung ermittelbar, wobei beispielsweise drei Lichteinheiten in einem Dreieck oder einer Linie spiegelsymmetrisch angeordnet sind. Weiterhin ist das Aufleuchten eines Bremslichts anhand einer Beleuchtung und/oder einer Farbe der Beleuchtung der Heckleuchtenvorrichtung erkennbar.For example, by means of the second environment detection unit 4 optically detected second environment data UD2 a lighting a brake light based on a shape of the taillight device detectable, for example, three light units are arranged in a triangle or a line mirror-symmetrical. Furthermore, the lighting of a brake light can be detected by means of lighting and / or a color of the lighting of the tail light device.
  • Falls die zweite Umgebungserfassungseinheit 4 eine Stereo-Kamera umfasst, ist es zur Plausibilisierung der Ermittlung der Position POS1 bis POSn und/oder Geschwindigkeit des Objekts O1 bis On relativ zum Fahrzeug und des Abstands des Fahrzeugs zum Objekt O1 bis On anhand der ersten Umgebungsdaten UD1 möglich, mittels von der Stereo-Kamera erfassten zweiten Umgebungsdaten UD2 eine Geschwindigkeit des Objekt O1 bis On relativ zum Fahrzeug und/oder einen Abstand des Fahrzeugs zum Objekt O1 bis On zu ermitteln und diese der Plausibilitätskontrolle zuzuführen und als Ergebnis dieser mindestens ein oder mehrere Objekte O1 bis On als relevante Zielobjekte zu erkennen.If the second environment detection unit 4 a stereo camera, it is for plausibility determination of the determination of the position POS1 to POSn and / or speed of the object O1 to On relative to the vehicle and the distance of the vehicle to the object O1 to On based on the first environment data UD1 possible by means of the stereo Camera detected second environment data UD2 a speed of the object O1 to On relative to the vehicle and / or a distance of the vehicle to the object O1 to On to determine and supply the plausibility control and as a result of these at least one or more objects O1 to On as relevant target objects to recognize. a stereo camera, it is for plausibility determination of the determination of the position POS1 to POSn and / or speed of the object O1 to On relative to the vehicle and the distance of the vehicle to the object O1 to On based on the first environment data UD1 possible by means of the stereo camera detected second environment data UD2 a speed of the object O1 to On relative to the vehicle and / or a distance of the vehicle to the object O1 to On to determine and supply the plausibility control and as a result of these at least one or more objects O1 to On as relevant target objects to recognize.
  • Wurden eines oder mehrere der Objekte O1 bis On als relevantes Zielobjekt erkannt, wird mittels der als adaptives Geschwindigkeitsregelsystem ausgebildeten Fahrerassistenzvorrichtung 2 Wurden eines oder mehrere der Objekte O1 bis On als relevantes Zielobjekt erkannt, wird mittels der als adaptives Geschwindigkeitsregelsystem ausgebildeten Fahrerassistenzvorrichtung 2 die Fahrzeugeigengeschwindigkeit durch automatischen Eingriff in die Brems- bzw. Beschleunigungsregelung des Fahrzeugs derart angepasst, dass ein gewünschter und/oder gesetzlich vorgeschriebener Mindestabstand zum Zielobjekt eingehalten wird. the vehicle's own speed is adjusted by automatic intervention in the braking or acceleration control of the vehicle in such a way that a desired and / or legally prescribed minimum distance from the target object is maintained. Darüber hinaus können entgegenkommende Fahrzeuge, beispielsweise während ihres Überholvorgangs, in die Geschwindigkeitsregelung miteinbezogen werden, um so potentiell gefährliche Situationen zu entschärfen. In addition, oncoming vehicles, for example during their overtaking maneuver, can be included in the speed control in order to defuse potentially dangerous situations. If one or more of the objects O1 to On have been recognized as a relevant target object, the driver assistance device is designed as an adaptive speed control system If one or more of the objects O1 to On have been recognized as a relevant target object, the driver assistance device is designed as an adaptive speed control system 2 2 the vehicle's own speed adjusted by automatic intervention in the braking or acceleration control of the vehicle such that a desired and / or legally prescribed minimum distance to the target object is maintained. the vehicle's own speed adjusted by automatic intervention in the braking or acceleration control of the vehicle such that a desired and / or legally prescribed minimum distance to the target object is maintained. In addition, oncoming vehicles, for example during their overtaking, can be included in the cruise control, so as to defuse potentially dangerous situations. In addition, oncoming vehicles, for example during their overtaking, can be included in the cruise control, so as to defuse potentially dangerous situations.
  • Besonders bevorzugt ist entscheidend für die Grundfunktion des adaptiven Geschwindigkeitsregelsystems, dass nur solche Objekte O1 bis On berücksichtigt werden, die sich auf der eigenen Fahrspur befinden. Objekte O1 bis On auf anderen Fahrspuren, anderen Straßen, welche beispielsweise parallel zur eigenen Straße verlaufen, auf Feldwegen, Abbiegespuren und anderen Verkehrswegen sind für den Betrieb des adaptiven Geschwindigkeitsregelsystems nicht relevant und werden deshalb nicht berücksichtigt.It is particularly preferred for the basic function of the adaptive cruise control system that only those objects O1 to On are taken into account, which are located in their own lane. Objects O1 to On on other lanes, other roads that run parallel to the own road, on country lanes, lanes and other traffic routes are not relevant for the operation of the adaptive cruise control system and are therefore not considered.
  • In einer weiteren bevorzugten Ausführungsform der Erfindung werden die Bildinformation der zweiten Umgebungserfassungseinheit 4 derart berücksichtigt, dass diese zur Detektion von Fußgängern in der Szenerie genutzt wird. Somit ist es möglich, insbesondere in hohen Entfernungen vor dem Fahrzeug durch den genauen Abgleich der aktuellen lokalen Umgebungskarte mit beispielsweise den Kartendaten der Navigationsvorrichtung auch Positionen der Fußgänger relativ zum Straßenrand zu bestimmen. Diese Positionen werden zusätzlich bei der Regelung der Geschwindigkeit des Fahrzeugs und bei Eingriffen in die Brems- bzw. Beschleunigungsregelung berücksichtigt. Dies ist vor allem auch im Hinblick auf Überholvorgänge von Vorteil.In a further preferred embodiment of the invention, the image information of the second environment detection unit 4 taken into account so that it is used for the detection of pedestrians in the scenery. taken into account so that it is used for the detection of pedestrians in the scenery. Thus, it is possible, in particular at high distances in front of the vehicle, to determine positions of the pedestrians relative to the roadside by the exact alignment of the current local area map with, for example, the map data of the navigation device. Thus, it is possible, in particular at high distances in the front of the vehicle, to determine positions of the pedestrians relative to the roadside by the exact alignment of the current local area map with, for example, the map data of the navigation device. These positions are additionally taken into account when controlling the speed of the vehicle and when intervening in the braking or acceleration control. These positions are additionally taken into account when controlling the speed of the vehicle and when intervening in the braking or acceleration control. This is particularly advantageous in terms of overtaking. This is particularly advantageous in terms of overtaking.
  • In einer besonders vorteilhaften Ausgestaltung des Verfahrens werden besondere Gegebenheiten, wie beispielsweise das Vorhandensein von Baustellen, Unfällen, Staus und anderen Situationen, welche mittels des Umgebungssensors oder anderer Sensoren des Fahrzeugs erfasst werden, an übergeordnete Systeme und/oder andere Fahrzeuge übermittelt. Hierzu ist am Fahrzeug eine geeignete Schnittstelle zur Übermittlung vorgesehen.In a particularly advantageous embodiment of the method, special circumstances, such as the presence of construction sites, accidents, traffic jams and other situations, which are detected by means of the environmental sensor or other sensors of the vehicle, transmitted to higher-level systems and / or other vehicles. For this purpose, a suitable interface for transmission is provided on the vehicle.
  • Ferner werden derartige Informationen vom Fahrzeug von übergeordneten Systemen und/oder anderen Fahrzeugen empfangen und in die Ermittlung des Fahrspurverlaufs FV und der Ausrichtung des Fahrzeugs zur Fahrbahn mit einbezogen. Hierzu ist eine geeignete Schnittstelle zum Empfang vorgesehen.Furthermore, such information is received by the vehicle from higher-level systems and / or other vehicles and included in the determination of the lane course FV and the orientation of the vehicle to the roadway. For this purpose, a suitable interface for receiving is provided.
  • Auch ist es mittels des Verfahrens zusätzlich möglich, bereits vorhandene Daten von im Fahrzeug befindlichen Vorrichtungen zur Fußgängererkennung zu verwenden, um die Objekte O1 bis On in der Umgebung des Fahrzeugs zu erfassen. In diesem Zusammenhang besteht die Möglichkeit, Farb-Infrarotkameras zur Erfassung des nahen Infrarotbereichs (= sogenannte NIR-Kameras) mit einer oder mehreren hochauflösenden Infrarotkameras zur Erfassung des fernen Infrarotbereichs (= sogenannte FIR-Kameras) zu kombinieren. Somit sind als Objekte O1 bis On beispielsweise auch Tiere detektierbar. Die als NIR-Kameras ausgebildeten Farb-Infrarotkameras sind vorzugsweise weiterhin als Stereo-Kameras ausgebildet in einem sogenannten ”One-Box-Design”, das heißt als eine Einheit ausgebildet und somit einfach im oder am Fahrzeug integrierbar.It is also possible by means of the method additionally to use existing data from pedestrian detection devices in the vehicle in order to detect the objects O1 to On in the surroundings of the vehicle. In this context, it is possible to combine color infrared cameras for detecting the near infrared range (= so-called NIR cameras) with one or more high-resolution infrared cameras for detecting the far infrared range (= so-called FIR cameras). Thus, for example, animals can also be detected as objects O1 to On. The trained as NIR cameras color infrared cameras are preferably further designed as stereo cameras in a so-called "one-box design", that is designed as a unit and thus easy to integrate in or on the vehicle.
  • Ferner ist durch die Anpassung der Fahrzeuggeschwindigkeit und des Sicherheitsabstands ein kraftstoffsparender Betrieb des Fahrzeugs realisierbar. Furthermore, by the adjustment of the vehicle speed and the safety distance fuel-efficient operation of the vehicle can be realized.
  • Bezugszeichenliste LIST OF REFERENCE NUMBERS
  • 1 1
    Vorrichtung contraption
    2 2
    Fahrerassistenzvorrichtung Driver assistance device
    3 3
    erste Umgebungserfassungseinheit first environment detection unit
    4 4
    zweite Umgebungserfassungseinheit second environment detection unit
    5 5
    Steuereinheit control unit
    FV FV
    Fahrspurverlauf lane course
    O1 bis On O1 to On
    Objekt object
    POS1 bis POSn POS1 to POSn
    Position position
    UD1, UD2 UD1, UD2
    aktuelle lokale Umgebungsdaten current local environment data
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen. This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.
  • Zitierte Patentliteratur Cited patent literature
    • WO 01/67131 A1 [0002] WO 01/67131 A1 [0002]

Claims (10)

  1. Verfahren zur Bestimmung einer Fahrzeugumgebung, bei dem mittels einer ersten Umgebungserfassungseinheit (3) erste aktuelle lokale Umgebungsdaten (UD1) erfasst werden, dadurch gekennzeichnet, dass mittels einer mit der ersten Umgebungserfassungseinheit (3) gekoppelten zweiten Umgebungserfassungseinheit (4) zweite aktuelle lokale Umgebungsdaten (UD2) optisch erfasst werden, wobei die Umgebungsdaten (UD1, UD2) gespeichert und mittels mindestens einer mit den Umgebungserfassungseinheiten (3, 4) gekoppelten Steuereinheit (5 ) derart verarbeitet werden, dass anhand eine der erfassten aktuellen lokalen Umgebungsdaten (UD1 oder UD2) wenigstens ein Objekt (O1 bis On) in der Fahrzeugumgebung ermittelt wird und wobei die das Objekt (O1 bis On) repräsentierenden aktuellen lokalen Umgebungsdaten (UD1 oder UD2) anhand der anderen aktuellen lokalen Umgebungsdaten (UD1 oder UD2) geprüft werden und das ermittelte Objekt (O1 bis On) verifiziert wird. ) are processed in such a way that at least one object (O1 to On) in the vehicle environment is determined based on one of the recorded current local environment data (UD1 or UD2) and the current local environment data (UD1 or UD2) representing the object (O1 to On) be checked using the other current local environment data (UD1 or UD2) and the determined object (O1 to On) is verified. Method for determining a vehicle environment, in which by means of a first environment detection unit ( Method for determining a vehicle environment, in which by means of a first environment detection unit ( 3 3 ) first current local environment data (UD1) are detected, characterized in that by means of a with the first environment detection unit ( ) first current local environment data (UD1) are detected, characterized in that by means of a with the first environment detection unit ( 3 3 ) coupled second environment detection unit ( ) coupled second environment detection unit ( 4 4th ) second current local environment data (UD2) are optically detected, wherein the environmental data (UD1, UD2) stored and by means of at least one with the environment detection units ( ) second current local environment data (UD2) are optically detected, wherein the environmental data (UD1, UD2) stored and by means of at least one with the environment detection units ( 3 3 . . 4 4th ) coupled control unit ( ) coupled control unit ( 5 5 ) are processed such that one of the detected current local environment data (UD1 or UD2) determines at least one object (O1 to On) in the vehicle environment and wherein the current local environment data (UD1 or UD2) representing the object (O1 to On) are checked against the other current local environment data (UD1 or UD2) and the detected object (O1 to On) is verified. ) are processed such that one of the detected current local environment data (UD1 or UD2) determines at least one object (O1 to On) in the vehicle environment and wherein the current local environment data (UD1 or UD2) representing the object (O1 to On) are checked against the other current local environment data (UD1 or UD2) and the detected object (O1 to On) is verified.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass bei der gegenseitigen Überprüfung der aktuellen lokalen Umgebungsdaten (UD1, UD2) anhand mindestens einer der erfassten aktuellen lokalen Umgebungsdaten (UD1, UD2) eine Position (POS1 bis POSn) und/oder eine Geschwindigkeit des Objekts (O1 bis On) relativ zum Fahrzeug ermittelt werden bzw. wird.A method according to claim 1, characterized in that in the mutual check of the current local environment data (UD1, UD2) based on at least one of the detected current local environment data (UD1, UD2) a position (POS1 to POSn) and / or a speed of the object ( O1 to On) relative to the vehicle is determined.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass anhand der ermittelten Position (POS1 bis POSn) und/oder Geschwindigkeit des Objekts (O1 bis On) relativ zum Fahrzeug ein Abstand des Fahrzeugs zu dem Objekt (O1 bis On) ermittelt wird.A method according to claim 2, characterized in that based on the determined position (POS1 to POSn) and / or speed of the object (O1 to On) relative to the vehicle, a distance of the vehicle to the object (O1 to On) is determined.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand mindestens einer der erfassten aktuellen lokalen, insbesondere der ersten Umgebungsdaten (UD1) ein Bremsvorgang des Objekts (O1 bis On) ermittelt wird. Method according to one of the preceding claims, characterized in that based on at least one of the detected current local, in particular the first environmental data (UD1), a braking operation of the object (O1 to On) is determined.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zur Verifizierung des Bremsvorgangs eine Kontur und/oder eine Beleuchtung und/oder eine Farbe der Beleuchtung der Heckleuchtenvorrichtung des Objekts (O1 bis On) anhand der anderen erfassten aktuellen lokalen, insbesondere der zweiten Umgebungsdaten (UD2) der zweiten Umgebungserfassungseinheit ( 4 Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass zur Verifizierung des Bremsvorgangs eine Kontur und/oder eine Beleuchtung und/oder eine Farbe der Beleuchtung der Heckleuchtenvorrichtung des Objekts (O1 bis On) anhand der anderen erfassten aktuellen lokalen, insbesondere der zweiten Umgebungsdaten (UD2) der zweiten Umgebungserfassungseinheit ( 4 ) ermittelt wird. ) is determined. A method according to claim 4, characterized in that for the verification of the braking operation, a contour and / or a lighting and / or a color of the illumination of the tail lamp device of the object (O1 to On) on the basis of the other detected current local, in particular the second environmental data (UD2). A method according to claim 4, characterized in that for the verification of the braking operation, a contour and / or a lighting and / or a color of the illumination of the tail lamp device of the object (O1 to On) on the basis of the other detected current local, in particular the second environmental data (UD2). the second environment detection unit ( the second environment detection unit ( 4 4th ) is determined. ) is determined.
  6. Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass die mittels der zweiten Umgebungserfassungseinheit ( 4 ) erfassten aktuellen lokalen Umgebungsdaten (UD2) der Ermittlung der Position (POS1 bis POSn) und/oder der Geschwindigkeit des Objekts (O1 bis On) und/oder der Ermittlung des Abstands des Fahrzeugs zu dem Objekt (O1 bis On) zugrunde gelegt werden. Method according to one of claims 2 to 5, characterized in that the means of the second environment detection unit ( 4 Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass die mittels der zweiten Umgebungserfassungseinheit ( 4 ) erfassten aktuellen lokalen Umgebungsdaten (UD2) der Ermittlung der Position (POS1 bis POSn) und/oder der Geschwindigkeit des Objekts (O1 bis On) und/oder der Ermittlung des Abstands des Fahrzeugs zu dem Objekt (O1 bis On) zugrunde gelegt werden. Method according to one of claims 2 to 5, characterized in that the means of the second environment detection unit ( 4 Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass die mittels der zweiten Umgebungserfassungseinheit ( 4 ) erfassten aktuellen lokalen Umgebungsdaten (UD2) der Ermittlung der Position (POS1 bis POSn) und/oder der Geschwindigkeit des Objekts (O1 bis On) und/oder der Ermittlung des Abstands des Fahrzeugs zu dem Objekt (O1 bis On) zugrunde gelegt werden. Method according to one of claims 2 to 5, characterized in that the means of the second environment detection unit ( 4 Verfahren nach einem der Ansprüche 2 bis 5, dadurch gekennzeichnet, dass die mittels der zweiten Umgebungserfassungseinheit ( 4 ) erfassten aktuellen lokalen Umgebungsdaten (UD2) der Ermittlung der Position (POS1 bis POSn) und/oder der Geschwindigkeit des Objekts (O1 bis On) und/oder der Ermittlung des Abstands des Fahrzeugs zu dem Objekt (O1 bis On) zugrunde gelegt werden. Method according to one of claims 2 to 5, characterized in that the means of the second environment detection unit ( 4 ) are detected based on the determination of the position (POS1 to POSn) and / or the speed of the object (O1 to On) and / or the determination of the distance of the vehicle to the object (O1 to On). ) are detected based on the determination of the position (POS1 to POSn) and / or the speed of the object (O1 to On) and / or the determination of the distance from the vehicle to the object (O1 to On).
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die mittels der ersten Umgebungserfassungseinheit ( 3 ) erfassten aktuellen lokalen Umgebungsdaten (UD1) einer Objekterkennung zugrunde gelegt werden. Method according to one of claims 1 to 6, characterized in that the means of the first environment detection unit ( 3 ) are based on the current local environment data (UD1) of an object detection. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die mittels der ersten Umgebungserfassungseinheit ( 3 ) erfassten aktuellen lokalen Umgebungsdaten (UD1) einer Objekterkennung zugrunde gelegt werden. Method according to one of claims 1 to 6, characterized in that the means of the first environment detection unit ( 3 ) are based on the current local environment data (UD1) of an object detection. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die mittels der ersten Umgebungserfassungseinheit ( 3 ) erfassten aktuellen lokalen Umgebungsdaten (UD1) einer Objekterkennung zugrunde gelegt werden. Method according to one of claims 1 to 6, characterized in that the means of the first environment detection unit ( 3 ) are based on the current local environment data (UD1) of an object detection. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die mittels der ersten Umgebungserfassungseinheit ( 3 ) erfassten aktuellen lokalen Umgebungsdaten (UD1) einer Objekterkennung zugrunde gelegt werden. Method according to one of claims 1 to 6, characterized in that the means of the first environment detection unit ( 3 ) are based on the current local environment data (UD1) of an object detection. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass die mittels der ersten Umgebungserfassungseinheit ( 3 ) erfassten aktuellen lokalen Umgebungsdaten (UD1) einer Objekterkennung zugrunde gelegt werden. Method according to one of claims 1 to 6, characterized in that the means of the first environment detection unit ( 3 ) are based on the current local environment data (UD1) of an object detection.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass zur Objekterkennung eine Kontur und/oder eine Bereifung und/oder eine Heckleuchtenvorrichtung des Objekts (O1 bis On) anhand der zweiten aktuellen lokalen Umgebungsdaten (UD2) der zweiten Umgebungserfassungseinheit (3) ermittelt werden.A method according to claim 7, characterized in that for the object recognition a contour and / or a tire and / or a taillight device of the object (O1 to On) based on the second current local environment data (UD2) of the second environment detection unit ( 3 ) be determined.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung der Position (POS1 bis POSn) des erkannten Objekts (O1 bis On) relativ zum Fahrzeug ein Fahrspurverlauf (FV) anhand der zweiten aktuellen lokalen Umgebungsdaten (UD2) der zweiten Umgebungserfassungseinheit (4) ermittelt wird, wobei eine Position (POS1 bis POSn) des Objekts (O1 bis On) bezüglich des Fahrspurverlaufs (FV) ermittelt wird.Method according to one of the preceding claims, characterized in that for determining the position (POS1 to POSn) of the detected object (O1 to On) relative to the vehicle a lane course (FV) based on the second current local environment data (UD2) of the second environment detection unit ( 4 ), wherein a position (POS1 to POSn) of the object (O1 to On) with respect to the lane course (FV) is detected.
  10. Vorrichtung zur Bestimmung einer Fahrzeugumgebung, bei der mittels einer ersten Umgebungserfassungseinheit (3) erste aktuelle lokale Umgebungsdaten (UD1) erfassbar sind, dadurch gekennzeichnet, dass die erste Umgebungserfassungseinheit (3) mit einer zweiten Umgebungserfassungseinheit (4) gekoppelt ist, mittels welcher zweite aktuelle lokale Umgebungsdaten (UD2) optisch erfassbar sind, wobei die Umgebungsdaten (UD1, UD2) gespeichert und mittels mindestens einer mit den Umgebungserfassungseinheiten (3, 4) gekoppelten Steuereinheit (5 ) derart verarbeitet werden, dass anhand eine der erfassten aktuellen lokalen Umgebungsdaten (UD1 oder UD2) wenigstens ein Objekt (O1 bis On) in der Fahrzeugumgebung ermittelbar ist und wobei die das Objekt (O1 bis On) repräsentierenden aktuellen lokalen Umgebungsdaten (UD1 oder UD2) anhand der anderen aktuellen lokalen Umgebungsdaten (UD1 oder UD2) geprüft werden und das ermittelte Objekt (O1 bis On) verifizierbar ist. ) are processed in such a way that at least one object (O1 to On) in the vehicle environment can be determined using one of the current local environment data (UD1 or UD2) recorded and the current local environment data (UD1 or UD2) representing the object (O1 to On) be checked using the other current local environment data (UD1 or UD2) and the determined object (O1 to On) can be verified. Device for determining a vehicle environment, in which by means of a first environment detection unit ( Device for determining a vehicle environment, in which by means of a first environment detection unit ( 3 3 ) first current local environment data (UD1) are detectable, characterized in that the first environment detection unit ( ) first current local environment data (UD1) are detectable, characterized in that the first environment detection unit ( 3 3 ) with a second environment detection unit ( ) with a second environment detection unit ( 4 4th ), by means of which second current local environment data (UD2) are optically detectable, wherein the environmental data (UD1, UD2) is stored and by means of at least one with the environment detection units (UD2). ), by means of which second current local environment data (UD2) are optically detectable, wherein the environmental data (UD1, UD2) is stored and by means of at least one with the environment detection units (UD2). 3 3 . . 4 4th ) coupled control unit ( ) coupled control unit ( 5 5 ) are processed in such a way that at least one object (O1 to On) in the vehicle environment can be determined on the basis of one of the detected current local environment data (UD1 or UD2) and wherein the current local environment data (UD1 or UD2) representing the object (O1 to On) be checked on the basis of the other current local environment data (UD1 or UD2) and the detected object (O1 to On) is verifiable. ) are processed in such a way that at least one object (O1 to On) in the vehicle environment can be determined on the basis of one of the detected current local environment data (UD1 or UD2) and wherein the current local environment data (UD1 or UD2) representing the object (O1 to On) be checked on the basis of the other current local environment data (UD1 or UD2) and the detected object (O1 to On) is verifiable.
DE102011117100A 2011-10-27 2011-10-27 Method for determining vehicle i.e. motor car, environment, involves checking actual local environment data representing objects based on other actual local environment data, and verifying determined objects Withdrawn DE102011117100A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011117100A DE102011117100A1 (en) 2011-10-27 2011-10-27 Method for determining vehicle i.e. motor car, environment, involves checking actual local environment data representing objects based on other actual local environment data, and verifying determined objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011117100A DE102011117100A1 (en) 2011-10-27 2011-10-27 Method for determining vehicle i.e. motor car, environment, involves checking actual local environment data representing objects based on other actual local environment data, and verifying determined objects

Publications (1)

Publication Number Publication Date
DE102011117100A1 true DE102011117100A1 (en) 2012-05-03

Family

ID=45935959

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011117100A Withdrawn DE102011117100A1 (en) 2011-10-27 2011-10-27 Method for determining vehicle i.e. motor car, environment, involves checking actual local environment data representing objects based on other actual local environment data, and verifying determined objects

Country Status (1)

Country Link
DE (1) DE102011117100A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015013085A1 (en) 2015-10-08 2016-03-31 Daimler Ag Method for determining a desired lane course of a motor vehicle
WO2018229552A3 (en) * 2017-06-14 2019-02-21 Mobileye Vision Technologies Ltd. Fusion framework of navigation information for autonomous navigation

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001067131A1 (en) 2000-03-08 2001-09-13 Robert Bosch Gmbh System for detecting an object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001067131A1 (en) 2000-03-08 2001-09-13 Robert Bosch Gmbh System for detecting an object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015013085A1 (en) 2015-10-08 2016-03-31 Daimler Ag Method for determining a desired lane course of a motor vehicle
WO2018229552A3 (en) * 2017-06-14 2019-02-21 Mobileye Vision Technologies Ltd. Fusion framework of navigation information for autonomous navigation

Similar Documents

Publication Publication Date Title
DE102014008578B4 (en) Method for determining position data for use in the operation of a vehicle system of a motor vehicle and position data acquisition and distribution system
DE102008060684B4 (en) Method and device for automatic parking of a motor vehicle
DE102011082126B4 (en) SAFETY DEVICE FOR MOTOR VEHICLES
EP2479077B1 (en) Method for operating a driver assistance system on a motor vehicle outputting a recommendation related to an overtaking manoeuvre and motor vehicle
EP1554604B1 (en) Method and device for preventing a collision of vehicles
EP2562039B1 (en) Method and advice for adjusting a light output of at least one headlamp of a vehicle
EP2755859B1 (en) Method and device for an assist system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver
EP2753532B1 (en) Method and device for an assist system in a vehicle for carrying out an autonomous or semi-autonomous driving maneuver
DE102010043033B4 (en) Engstellenlicht
DE102016211179A1 (en) A method and apparatus for performing automated driving of a vehicle along a provided trajectory
EP2291836B1 (en) Driver assistance system for preventing a vehicle colliding with pedestrians
EP1904340B1 (en) Driver assist method and device
EP2179381B1 (en) Method and apparatus for recognizing traffic signs
DE102013020315A1 (en) Method for carrying out an at least semi-autonomous parking operation of a motor vehicle, parking assistance system and motor vehicle
EP3060431B1 (en) Method for warning other traffic participants of pedestrians by means of a motor vehicle, and motor vehicle
DE102013101639A1 (en) Method and device for determining a road condition
DE102015201764A1 (en) Method and driver assistance system for generating a light distribution by a vehicle for outputting a driving instruction
DE102014201159A1 (en) Method and device for classifying a behavior of a pedestrian when crossing a roadway of a vehicle and personal protection system of a vehicle
EP1652161B1 (en) Device for classifying at least one object in the vicinity of a vehicle
DE102013012324A1 (en) Method and device for finding a route
EP2888143A1 (en) Method and system for promoting a uniform driving style
DE102009012917A1 (en) Obstacle detection device for vehicles
DE102004019337A1 (en) Assistance system for motor vehicles
EP1751728A1 (en) Assistance system for motor vehicles
EP2601480A1 (en) Method and device for determining the position of a vehicle on a carriageway and motor vehicle having such a device

Legal Events

Date Code Title Description
R230 Request for early publication
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee