WO2009074661A1 - Fahrerassistenz mit funsionierten sensordaten - Google Patents

Fahrerassistenz mit funsionierten sensordaten Download PDF

Info

Publication number
WO2009074661A1
WO2009074661A1 PCT/EP2008/067358 EP2008067358W WO2009074661A1 WO 2009074661 A1 WO2009074661 A1 WO 2009074661A1 EP 2008067358 W EP2008067358 W EP 2008067358W WO 2009074661 A1 WO2009074661 A1 WO 2009074661A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver assistance
assistance system
vehicle
validation
data
Prior art date
Application number
PCT/EP2008/067358
Other languages
English (en)
French (fr)
Inventor
Mattias Strauss
Ulrich STÄHLIN
Maxim Arbitmann
Original Assignee
Continental Teves Ag & Co. Ohg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Teves Ag & Co. Ohg filed Critical Continental Teves Ag & Co. Ohg
Publication of WO2009074661A1 publication Critical patent/WO2009074661A1/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle

Definitions

  • the invention relates to the assistance and safety technology for vehicles.
  • the invention relates to a driver assistance system for a vehicle, a vehicle having a driver assistance system, a method for carrying out a driving engagement of a driver assistance system in a vehicle, a program element and a computer-readable medium.
  • Modern motor vehicles are increasingly equipped with driver-supporting functions and services.
  • the driver-supporting functions such as ABS, ESP, ACC and automatic emergency call provide requested Services with a predefined procedure.
  • the services provide a service on request, usually leaving open how the service is provided. For example, in the service offering navigation, it is completely unclear on which route the destination is reached when the service request is made to route the vehicle to a selected destination. So far, the functions and services mentioned are predominantly driver-related, as they assist the driver of the individual vehicle in mastering the vehicle dynamics, in obtaining assistance and in finding the destination. On the other hand, services that support the driver due to fleet concerns are virtually unknown. Few examples are ARI, RDS-TMC and TEGARON, which essentially provide traffic information. The for the
  • each vehicle permanently at least one information about its state of motion with respect to instantaneous speed and / or instantaneous acceleration having signal in emits the reverse half-space opposite to the respective direction of travel, in which the signal received by each vehicle as it enters the transmission range of the vehicle is subjected to a comparison with the signal evaluated in terms of the presence of a collision risk, and in which the signal and / or as a result of the assessed settlement Collision hazard signaling comparison signal a the driver and / or other subsequent
  • a security signal comprising a triggering means for determining whether a safety-relevant event is present in the vehicle, wherein the carrier of the signal emitted by the transmitting means, an electromagnetic wave in the non-visible region, and having at least one information receiver in a second vehicle with a receiving part for Receiving safety-relevant information that is emitted by a vehicle transmitter, and at least one warning device in the vehicle, wherein the triggering means is connected to at least the following systems in the vehicle: Brake detector, on / off switch of the hazard warning lights and is set up so that it the transmitting means transmits information at least about the reason of the triggering and wherein the transmitting means of the vehicle transmitter this
  • the warning device has at least two different representations for different warning or emergency situations.
  • the described embodiments equally relate to the driver assistance system, the vehicle, the method, the program element and the computer-readable medium.
  • the below with regard to z. B. Implement the features mentioned in the driver assistance system in the method, the program element or the computer-readable medium, and vice versa.
  • a driver assistance system for a vehicle which includes a radar sensor and an optical sensor and a
  • Control unit has.
  • the radar sensor is designed to detect an object in the surroundings of the vehicle and to forward the corresponding object data to the control unit.
  • the optical sensor is designed to acquire optical data relating to the object, the control unit being adapted to validate the object data based on the optical data.
  • the driver assistance system is designed to carry out a driving intervention as a function of the validation of the object data.
  • both the measurement data of the radar sensor and the optical sensor are used to control the driver assistance system.
  • Radar sensor data for example, the relative position of the object to the vehicle and its speed can be determined.
  • the optical sensor data can be used to check what kind of object it is. In this way, for example, it can be determined whether it is a vehicle or a pedestrian.
  • the driver assistance system is then activated.
  • ⁇ sensors may be provided.
  • a lidar sensor may be provided.
  • an ultrasonic sensor may be provided.
  • the objects detected and detected by means of the radar sensor are therefore validated by the visual sensor, and the driver assistance system is activated by this validation.
  • the measurement data of the radar sensor and the measurement data of the optical sensor are fused together.
  • This data fusion can occur inside the control unit or in an upstream fusion module. In this case, it is therefore a one-step process (see also FIG. 3).
  • a Kalman filter is used. It is not necessary that a subsequent validation of the radar sensor data takes place on the basis of the optical data.
  • an estimation of a collision risk of the vehicle with the object takes place on the basis of the validation and the object data as well as further predefined parameters. Furthermore, a braking of the vehicle is carried out until the vehicle is at a standstill, if the collision risk is not equal to zero or at least exceeds a predetermined threshold value.
  • the driving of a driver assistance unit takes place in such a way that the vehicle is braked until it is completely stopped by the validation in accordance with the predetermined parameters of the driver assistance system in the event of a collision risk.
  • the validation of the object data comprises a classification of the object. For example, it can be determined whether it is a pedestrian, a bicycle or a motor vehicle. It is also possible to distinguish whether it is a truck or a passenger car. motorcycles can also be classified or identified.
  • the optical sensor is for detecting light in the visible
  • Spectral range executed is a video sensor, for. B. in the form of a mono video camera or a stereo video camera.
  • the object is an adjacent, for example, preceding vehicle, wherein the driver assistance system for Determination of a driving tube of the adjacent vehicle based on the validation is executed.
  • the driver assistance system for speed control of the vehicle is implemented on the basis of the validation and the object data.
  • the driver assistance system for accelerating the vehicle is implemented on the basis of the validation and the object data.
  • the driver assistance system furthermore has digital map data which are stored in a corresponding memory.
  • the validation takes place in this embodiment also on the basis of data from the corresponding digital map.
  • GPS satellite navigation device
  • GPS is representative of all Global Navigation Satellite Systems (GNSS), such as e.g. GPS, Galileo, GLONASS (Russia), Compass (China), IRNSS (India), ...
  • GNSS Global Navigation Satellite Systems
  • a vehicle is specified with a driver assistance system described above.
  • a method for carrying out a driving intervention of a driver assistance system in a vehicle in which an object in the environment of the vehicle is detected by a first sensor and corresponding object data are generated. Furthermore, optical data about the object is detected or generated by a second sensor. In a next step, the object data is validated on the basis of the optical data and the execution of a driving intervention as a function of the validation of the object data.
  • a program element is specified which, when executed on a processor of a driver assistance system, instructs the driver assistance system to carry out the method steps specified above.
  • the program element z. B. part of a software that is stored on a processor of the driver assistance system.
  • the processor can also be the subject of the invention.
  • this embodiment of the invention comprises a program element, which already uses the invention from the beginning, as well as a program element which causes by an update an existing program for using the invention.
  • a computer-readable medium is specified on which a program element is stored which, when executed on a processor of a driver assistance system, instructs the driver assistance system to carry out the method steps described above.
  • a dynamic vehicle speed control system also called Adaptive Cruise Control (ACC), or a so-called Greet Control (FSRA) or else a so-called Stop and Go ACC is supplemented by an autonomous braking function.
  • ACC Adaptive Cruise Control
  • FSRA Serving Air Traffic Control
  • Stop and Go ACC is supplemented by an autonomous braking function.
  • This autonomous braking function uses the validation data based on the images of the optical sensor (so-called Target Validated Braking).
  • Target Validated Braking is to be understood as meaning that the vehicle decelerates by means of the sensors located in the vehicle depending on the surrounding objects.
  • an additional camera is used in the vehicle and by means of this, vehicles that are in the vicinity are distinguished from other radar targets. Also, pedestrians can be identified. This makes it possible to validate automatically standing vehicles through the camera and automatically initiate a corresponding braking. In contrast, a radar sensor can reliably detect only stationary objects if they have previously moved.
  • An advantage of the invention is the ability to perform automatic braking maneuvers with an existing and known ACC system.
  • the journey can also be greatly simplified. Since the camera recognizes the object, the vehicle can be repeatedly approached autonomously, if the object has been confirmed once (for example by the driver) or is known from the previous situation. This means that the driver no longer has to confirm each time before starting off. The relatively simple operation and the universal application possibility of driving comfort is increased and relieves the driver.
  • the radar sensor distance and speed of the object can be detected well.
  • the optical sensor for example in the form of a video sensor, the transverse deviation (ie the lateral distance from the central axis of the vehicle) and the object type can be determined and the lane can be identified. Fusion of the two or more sensor datasets improves the quality of the ACC control. It is thus possible to better predict the travel path of one's own vehicle or of the vehicle ahead by way of the lane, and thus to more reliably recognize luffing and Ausschervor réelle. In response, the speed and distance can be adjusted earlier. In this way, it is possible to more closely match the behavior of the ACC with that of a human driver.
  • All obstacles of a relevant size that have a radar signature can be detected. This is especially true for obstacles from a size of about 200 mm x 200 mm.
  • the driver assistance system according to the invention and in particular the special design as FSRA, can thus detect all such objects which have the desired radar signature, thus also pedestrians.
  • an additional fusion with ultrasonic sensors can be performed.
  • the objects ie, for example, the vehicles in front
  • the optical sensor ie, the camera
  • Another advantage of the invention is the enhancement of the ACC cruise guidance prediction and the safe detection of engagement and disengagement operations.
  • FIG. 1 shows an illustration of a driver assistance system according to an embodiment of the invention.
  • Fig. 2 shows a vehicle according to an embodiment of the invention.
  • FIG. 3 shows a flowchart of a method according to an embodiment of the invention.
  • the driver assistance system 100 has a central control unit 103. To the control unit 103, a radar sensor 101, a lidar sensor 104, an ultrasonic sensor 105 and an optical sensor 102 are connected, wherein not all of the sensors must be present. With these sensors, the environment of the vehicle can be monitored. The individual sensor data or sensor data sets can be fused together in a fusion module 109, which is part of the control unit or upstream of the control unit.
  • the fusion of the sensor data leads to a comprehensive result, which allows a very precise identification of object types and object movements as well as the corresponding object distances to the vehicle permits.
  • the fusion result may then be supplied to a proximity control ACC 108, which then performs a corresponding driving engagement.
  • the data from a digital map can be used to analyze the situation.
  • the satellite navigation receiver 107 for receiving positioning signals of, for example, Galileo satellites or GPS satellites and the navigation unit 106 are provided.
  • the satellite navigation receiver 107 is connected to the control unit 103. Also, the navigation unit
  • digital maps should also be understood to mean maps for Advanced Driver Assistance Systems (ADAS) without navigation.
  • ADAS Advanced Driver Assistance Systems
  • FIG. 2 shows a vehicle 201 with a driver assistance system 100 according to an exemplary embodiment of the invention.
  • the vehicle 201 is preceded by an adjacent vehicle 202.
  • the vehicle 201 is able to perform autonomous braking interventions, up to full braking.
  • stationary vehicles can also be identified. It is also possible to identify pedestrians who, for example, move in a traffic jam between the individual vehicles. In this way, a stop-and-go operation can be carried out fully automatically.
  • step 301 an object in the vicinity of the vehicle is detected by a first sensor (for example a radar sensor) and corresponding object data are generated.
  • step 302 which may occur simultaneously with step 301 or before or after, optical data is acquired from the object
  • the optical data and the object data are transferred to a control unit and evaluated in step 303.
  • a driving route of the object can be predicted with high accuracy.
  • step 304 then an autonomous driving intervention by an ACC unit based on the calculations.

Abstract

Gemäß einem Ausführungsbeispiel der Erfindung erfolgt die Durchführung eines Fahreingriffs in Abhängigkeit von einer Validierung von Objektdaten. Hierfür werden Radarsensordaten mit optischen Sensordaten ergänzt und eine Validierung der Radarsensordaten durchgeführt. Auf diese Weise kann die Fahrschlauchprädiktion verbessert und es können Einscher- und Ausschervorgänge sicher erkannt werden. Auch können Fußgänger identifiziert werden, die sich zwischen stehenden Fahrzeugen bewegen.

Description

Fahrerassistenz mit fusionierten Sensordaten
Gebiet der Erfindung
Die Erfindung betrifft die Assistenz- und Sicherheitstechnik für Fahrzeuge. Insbesondere betrifft die Erfindung ein Fahrerassistenzsystem für ein Fahrzeug, ein Fahrzeug mit einem Fahrerassistenzsystem, ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, ein Programmelement und ein computerlesbares Medium.
Technologischer Hintergrund
Aus der Südwest Presse, "Auto der Zukunft denkt mit", 04.06.1996, geht ein Fahrzeug hervor, das einen Autopiloten aufweist. Dieser ermittelt mit Hilfe einer im Fahrzeug angeordneten Videokamera und Bildverarbeitungsalgorithmen
Informationen über Abstände zu Objekten auf der Fahrbahn und der Spur des Fahrzeugs. Ferner können auch von der Videokamera aufgezeichnete Verkehrszeichen erkannt werden. Es hat sich als nachteilig herausgestellt, dass die Bildverarbeitung häufig nicht zuverlässig ist. Überdies sind hohe Investitionen erforderlich .
Moderne Kraftfahrzeuge werden zunehmend mit den Fahrer unterstützenden Funktionen und Diensten ausgestattet. Die den Fahrer unterstützenden Funktionen, wie zum Beispiel ABS, ESP, ACC und automatischer Notruf erbringen dabei angeforderte Dienstleistungen mit einem jeweils vordefinierten Ablauf. Die Dienste dagegen stellen auf Anforderung eine Dienstleistung bereit, wobei in der Regel offen bleibt, wie die Dienstleistung erbracht wird. So ist zum Beispiel beim Dienstangebot Navigation völlig offen, auf welchem Weg das Ziel erreicht wird, wenn die Dienstanforderung gestellt ist, das Fahrzeug zu einem ausgewählten Zielort zu führen. Die erwähnten Funktionen und Dienste sind bisher überwiegend fahrerbezogen, da sie den Fahrer des einzelnen Fahrzeugs bei der Beherrschung der Fahrzeugdynamik, bei dem Herbeiholen von Hilfeleistungen und bei der Zielfindung unterstützen. Dienste dagegen, die den Fahrer aufgrund von Flottenbelangen unterstützen, sind so gut wie unbekannt. Wenige Beispiele sind ARI, RDS-TMC und TEGARON, mit denen im Wesentlichen Verkehrshinweise bereitgestellt werden. Die für die
Realisierung der oben genannten Funktionen und Dienste notwendigen technischen Einrichtungen sind in der Regel nur für die spezielle Funktion oder den Dienst ausgelegt und daher nicht mehrfach benutzbar.
Aus DE 39 41 402 Al ist ein Verfahren zum Erkennen und Abwenden einer Kollisionsgefahr zwischen einem im Verkehr sich vorausbewegenden Fahrzeug und einem sich nachbewegenden Fahrzeug bekannt, bei dem jedes Fahrzeug dauernd mindestens ein die Information über seinen Bewegungszustand hinsichtlich Momentangeschwindigkeit und/oder Momentanbeschleunigung aufweisendes Signal in den entgegengesetzt zur jeweiligen Fahrtrichtung liegenden rückwärtigen Halbraum aussendet, bei dem weiter das von jedem Fahrzeug beim Eintritt in den Sendebereich des Fahrzeugs empfangene Signal einem im Hinblick auf das Vorliegen einer Kollisionsgefahr ausgewerteten Vergleich mit dem Signal unterzogen wird, und beim dem das Signal und/oder ein infolge des bewerteten Vergleichs Kollisionsgefahr signalisierendes Vergleichssignal eine den Fahrzeugführer und/oder andere nachfolgende
Verkehrsteilnehmerinformierende SignalisierungsVorrichtung und/oder eine den Bewegungszustand des Fahrzeugs im Sinne einer Kollisionsvermeidung ändernde Fahrzeugvorrichtung beaufschlagt .
Aus DE 298 03 684 Ul ist weiter ein Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr bekannt, mit mindestens einem Fahrzeugsender in einem ersten Fahrzeug mit einem Sendemittel zur Ausstrahlung zumindest eines bestimmten
Sicherheitssignals, mit einem Auslösungsmittel zur Bestimmung, ob ein sicherheitsrelevantes Ereignis im Fahrzeug vorliegt, wobei der Träger des Signals, den das Sendemittel aussendet, eine elektromagnetische Welle im nicht-sichtbaren Bereich darstellt, und mit zumindest einem Informationsempfänger in einem zweiten Fahrzeug mit einem Empfangsteil zum Empfang von sicherheitsrelevanten Informationen, die von einem Fahrzeugsender ausgesendet werden, und zumindest einer Warneinrichtung im Fahrzeug, bei dem das Auslösungsmittel zumindest mit den folgenden Systemen im Fahrzeug verbunden ist: Bremsdetektor, Ein-/Ausschalter der Warnblinkanlage und dabei so eingerichtet ist, dass es an das Sendemittel Informationen zumindest über den Grund der Auslösung überträgt und wobei das Sendemittel des Fahrzeugsenders diese
Informationen mit aussendet, und die Warneinrichtung zumindest zwei unterschiedliche Darstellungen für verschiedene Warnoder Notsituationen aufweist.
Zusammenfassung der Erfindung
Es ist eine Aufgabe der Erfindung, eine verbesserte Fahrerassistenz für Fahrzeuge anzugeben. Es sind ein Fahrerassistenzsystem, ein Fahrzeug mit einem Fahrerassistenzsystem, ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, ein Programmelement und ein computerlesbares Medium gemäß den Merkmalen der unabhängigen Ansprüche angegeben. Weiterbildungen der Erfindung ergeben sich aus den Unteransprüchen .
Die beschriebenen Ausführungsbeispiele betreffen gleichermaßen das Fahrerassistenzsystem, das Fahrzeug, das Verfahren, das Programmelement und das computerlesbare Medium. In anderen Worten lassen sich die im Folgenden im Hinblick z. B. auf das Fahrerassistenzsystem genannten Merkmale auch in dem Verfahren, dem Programmelement oder dem computerlesbaren Medium implementieren, und umgekehrt.
Gemäß einem Ausführungsbeispiel der Erfindung ist ein Fahrerassistenzsystem für ein Fahrzeug angegeben, welches einen Radarsensor und einen optischen Sensor sowie eine
Steuereinheit aufweist. Der Radarsensor ist zur Erfassung eines Objekts im Umfeld des Fahrzeugs und zur Weiterleitung der entsprechenden Objektdaten an die Steuereinheit ausgeführt. Der optische Sensor ist zur Erfassung von optischen Daten hinsichtlich des Objekts ausgeführt, wobei die Steuereinheit zur Validierung der Objektdaten auf Basis der optischen Daten ausgeführt ist. Weiterhin ist das Fahrerassistenzsystem zur Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten ausgeführt.
In anderen Worten werden sowohl die Messdaten des Radarsensors und des optischen Sensors zur Steuerung des Fahrerassistenzsystems verwendet. Mit Hilfe der Radarsensordaten können beispielsweise die relative Position des Objekts zum Fahrzeug sowie seine Geschwindigkeit bestimmt werden. Mit Hilfe der optischen Sensordaten kann überprüft werden, um was für ein Objekt es sich handelt. Auf diese Weise kann beispielsweise bestimmt werden, ob es sich um ein Fahrzeug oder ein Fußgänger handelt.
In Abhängigkeit von dem erzielten Endergebnis (Positionsbestimmung, Geschwindigkeitsbestimmung und Validierung) wird dann das Fahrerassistenzsystem angesteuert.
Natürlich können auch mehrere optische Sensoren und mehrere Radarsensoren vorgesehen sein. Auch kann anstelle oder zusätzlich zum Radarsensor ein Lidarsensor vorgesehen sein. Zusätzlich kann ein Ultraschallsensor vorgesehen sein.
Die mittels des Radarsensors (und/oder der anderen Sensoren) erfassten und detektierten Objekte werden also durch den visuellen Sensor validiert und durch diese Validierung wird das Fahrerassistenzsystem angesteuert.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist es vorgesehen, dass die Messdaten des Radarsensors und die Messdaten des optischen Sensors miteinander fusioniert werden. Diese Datenfusion kann innerhalbe der Steuereinheit oder in einem vorgeschalteten Fusionsmodul erfolgen. In diesem Fall handelt es sich also um ein einstufiges Verfahren (siehe auch Fig. 3) . Hierfür wird beispielsweise ein Kaiman-Filter verwendet. Es ist nicht erforderlich, dass eine nachträgliche Validierung der Radarsensordaten auf Basis der optischen Daten stattfindet . Gemäß einem weiteren Ausführungsbeispiel der Erfindung erfolgt eine Abschätzung eines Kollisionsrisikos des Fahrzeugs mit dem Objekt auf Basis der Validierung und der Objektdaten sowie weiterer vorgegebener Parameter. Weiterhin erfolgt die Durchführung einer Bremsung des Fahrzeugs bis zum Stillstand des Fahrzeugs, wenn das Kollisionsrisiko ungleich Null ist oder zumindest einen vorbestimmten Schwellwert übersteigt.
In anderen Worten erfolgt die Ansteuerung einer Fahrerassistenzeinheit derart, dass durch die Validierung nach Maßgabe der vorgegebenen Parameter des Fahrerassistenzsystems bei Kollisionsgefahr das Fahrzeug bis zum völligen Stillstand abgebremst wird.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung umfasst die Validierung der Objektdaten eine Klassifikation des Objekts. Beispielsweise kann festgestellt werden, ob es sich um einen Fußgänger, ein Fahrrad oder ein Kraftfahrzeug handelt. Auch ist es möglich zu unterscheiden, ob es sich um einen Lastkraftwagen oder einen Personenkraftwagen handelt. Auch Motorräder können klassifiziert bzw. identifiziert werden .
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist der optische Sensor zum Detektieren von Licht im sichtbaren
Spektralbereich ausgeführt. Beispielsweise handelt es sich um einen Videosensor, z. B. in Form einer Mono-Videokamera oder einer Stereo-Videokamera.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung handelt es sich bei dem Objekt um ein benachbartes, beispielsweise vorausfahrendes Fahrzeug, wobei das Fahrerassistenzsystem zur Ermittlung eines Fahrschlauchs des benachbarten Fahrzeugs auf Basis der Validierung ausgeführt ist.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Fahrerassistenzsystem zur Geschwindigkeitsregelung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt .
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist das Fahrerassistenzsystem zur Beschleunigung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung weist das Fahrerassistenzsystem weiterhin digitale Kartendaten auf, die in einem entsprechenden Speicher gespeichert sind. Die Validierung erfolgt in diesem Ausführungsbeispiel auch auf Basis von Daten aus der entsprechenden digitalen Karte.
Wird hierfür die Position des Fahrzeugs benötigt, kann diese beispielsweise von einem Satellitennavigationsgerät (GPS-
Gerät) geliefert werden. Es sei darauf hingewiesen, dass im Kontext der vorliegenden Erfindung GPS stellvertretend für sämtliche Globale Navigationssatellitensysteme (GNSS) steht, wie z.B. GPS, Galileo, GLONASS (Russland), Compass (China), IRNSS (Indien), ...
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Fahrzeug mit einem oben beschriebenen Fahrerassistenzsystem angegeben .
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug angegeben, bei dem ein Objekt im Umfeld des Fahrzeugs durch einen ersten Sensor erfasst wird und entsprechende Objektdaten erzeugt werden. Weiterhin werden optische Daten über das Objekt durch einen zweiten Sensor erfasst bzw. erzeugt. In einem nächsten Schritt erfolgt eine Validierung der Objektdaten auf Basis der optischen Daten sowie die Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein Programmelement angegeben, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die oben angegebenen Verfahrensschritte durchzuführen .
Dabei kann das Programmelement z. B. Teil einer Software sein, die auf einem Prozessor des Fahrerassistenzsystems gespeichert ist. Der Prozessor kann dabei ebenso Gegenstand der Erfindung sein. Weiterhin umfasst dieses Ausführungsbeispiel der Erfindung ein Programmelement, welches schon von Anfang an die Erfindung verwendet, sowie auch ein Programmelement, welches durch eine Aktualisierung (Update) ein bestehendes Programm zur Verwendung der Erfindung veranlasst.
Gemäß einem weiteren Ausführungsbeispiel der Erfindung ist ein computerlesbares Medium angegeben, auf dem ein Programmelement gespeichert ist, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die oben beschriebenen Verfahrensschritte durchzuführen .
Ein Aspekt der Erfindung ist darin zu sehen, dass ein dynamisches Fahrgeschwindigkeitsregelsystem, auch Abstandsregeltempomat (Adaptive Cruise Control, ACC) genannt, oder auch ein sog. Füll Speed Range ACC (FSRA) oder aber auch ein sog. Stop and Go ACC um eine autonome Bremsfunktion ergänzt wird. Diese autonome Bremsfunktion nutzt die Validierungsdaten, die auf den Bildern des optischen Sensors basieren (sog. Target Validated Braking) .
Entscheidend ist hierbei die Zusammenführung von ACC und dem Target Validated Braking. Unter dem Begriff Target Validated Braking ist zu verstehen, dass das Fahrzeug mittels der im Fahrzeug befindlichen Sensorik abhängig von den im Umfeld befindlichen Objekten eine Abbremsung vornimmt.
Zu diesem Zweck wird eine zusätzliche Kamera im Fahrzeug eingesetzt und mittels dieser werden Fahrzeuge, die sich in der Umgebung befinden, von anderen Radarzielen unterschieden. Auch können Fußgänger identifiziert werden. Hierdurch ist es möglich, automatisch stehende Fahrzeuge durch die Kamera zu validieren und eine entsprechende Bremsung automatisch einzuleiten. Ein Radarsensor kann im Gegensatz hierzu nur stehende Objekte zuverlässig erkennen, wenn sich diese vorher bewegt haben.
Weiterhin werden auch kleinste Änderungen am Aussehen des vorausfahrenden Fahrzeugs erkannt. Somit können Hindernisse, die sich beispielsweise während des Stillstandes des vorausfahrenden Fahrzeugs zwischen das eigene und das vorausfahrende Fahrzeug bewegt haben, als Abbruchkriterium gewertet werden. Dies ist besonders vorteilhaft für Fußgänger als zu erkennende Objekte.
Ein Vorteil der Erfindung ist die Möglichkeit, mit einem bestehenden und bekannten ACC-System automatische Bremsmanöver durchzuführen. Insbesondere kann auch der Anfahrtsvorgang wesentlich vereinfacht werden. Da die Kamera das Objekt erkennt, kann das Fahrzeug immer wieder autonom angefahren werden, falls das Objekt einmal (beispielsweise durch den Fahrer) bestätigt worden ist oder aus der vorherigen Situation bekannt ist. Damit muss der Fahrer nicht mehr jedes Mal vor dem Anfahren eine Bestätigung durchführen. Durch die verhältnismäßig einfache Bedienung und die universelle Einsatzmöglichkeit wird der Fahrkomfort gesteigert und der Fahrer entlastet.
Mit dem Radarsensor können Abstand und Geschwindigkeit des Objekts gut erfasst werden. Mit dem optischen Sensor, beispielsweise in Form eines Videosensors, lassen sich die Querablage (also der seitliche Abstand von der Mittelachse des Fahrzeugs) und der Objekttyp ermitteln sowie die Fahrspur erkennen. Durch eine Fusion der zwei oder mehr Sensordatensätze wird die Qualität der ACC-Regelung verbessert. So ist es möglich, den Fahrschlauch des eigenen oder des vorausfahrenden Fahrzeugs über die Fahrspur besser vorherzusagen und damit Einscher- und Ausschervorgänge sicherer zu erkennen. Als Reaktion können die Geschwindigkeit und der Abstand früher angepasst werden. Auf diese Weise ist es möglich, das Verhalten vom ACC dem eines menschlichen Fahrers stärker anzugleichen.
Erkannt werden können alle Hindernisse einer relevanten Größe, die eine Radarsignatur aufweisen. Dies gilt insbesondere für Hindernisse ab einer Größe von etwa 200 mm x 200 mm. Das erfindungsgemäße Fahrerassistenzsystem und insbesondere die spezielle Ausführung als FSRA kann somit all solche Objekte detektieren, die die gewünschte Radarsignatur aufweisen, also auch Fußgänger. Abhängig von der Leistungsfähigkeit des Radars kann zusätzlich eine Fusion mit Ultraschallsensoren erfolgen.
10 Parallel dazu können die Objekte (also beispielsweise die vorausfahrenden Fahrzeuge) mit dem optischen Sensor (also der Kamera) klassifiziert werden. Dadurch ist es ähnlich zu FSRA mit Target Validated Braking möglich, in einem Stau autonom ohne Fahrerbestätigung anzufahren. Hindernisse, die sich zwischen die Fahrzeuge begeben, werden dann aber schon von den fusionierten Sensoren (bzw. einer nachgeschalteten Auswerteoder Steuereinheit) erkannt.
Ein weiterer Vorteil der Erfindung ist die Verbesserung der Fahrschlauchprädiktion von ACC und die sichere Erkennung von Einscher- und Ausschervorgängen.
Im Folgenden werden mit Verweis auf die Figuren Ausführungsbeispiele der Erfindung beschrieben.
Kurze Beschreibung der Figuren
Fig. 1 zeigt eine Darstellung eines Fahrerassistenzsystems gemäß einem Ausführungsbeispiel der Erfindung.
Fig. 2 zeigt ein Fahrzeug gemäß einem Ausführungsbeispiel der Erfindung .
Fig. 3 zeigt ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung.
Detaillierte Beschreibung von Ausführungsbeispielen
Die Darstellungen in den Figuren sind schematisch und nicht maßstäblich .
11 In der folgenden Figurenbeschreibung werden für die gleichen oder ähnlichen Elemente die gleichen Bezugsziffern verwendet.
Fig. 1 zeigt ein Fahrerassistenzsystem 100 gemäß einem Ausführungsbeispiel der Erfindung. Das Fahrerassistenzsystem 100 weist eine zentrale Steuereinheit 103 auf. An die Steuereinheit 103 sind ein Radarsensor 101, ein Lidarsensor 104, ein Ultraschallsensor 105 sowie ein optischer Sensor 102 angeschlossen, wobei nicht alle der Sensoren vorhanden sein müssen. Mit diesen Sensoren kann das Umfeld des Fahrzeugs überwacht werden. Die einzelnen Sensordaten bzw. Sensordatensätze können in einem Fusionsmodul 109, das Teil der Steuereinheit ist oder der Steuereinheit vorgeschaltet ist, miteinander fusioniert werden.
Da jeder der Sensoren teilweise unterschiedliche Messgrößen detektiert (der Radarsensor detektiert z.B. die Geschwindigkeit und den relativen Abstand des Objekt und die Kamera detektiert dessen Form) , führt die Fusion der Sensordaten zu einem umfassenden Ergebnis, welches eine sehr präzise Identifikation von Objekttypen und Objektbewegungen sowie den entsprechenden Objektabständen zum Fahrzeug zulässt. Das Fusionsergebnis kann dann einem Abstandsregeltempomat ACC 108 zugeführt werden, der dann einen entsprechenden Fahreingriff vornimmt.
Weiterhin können zur Situationsanalyse die Daten aus einer digitalen Karte hinzugezogen werden. Hierfür sind der Satellitennavigationsempfänger 107 zum Empfang von Positionierungssignalen von beispielsweise Galileo-Satelliten oder GPS-Satelliten sowie die Navigationseinheit 106 vorgesehen. Der Satellitennavigationsempfänger 107 ist mit der Steuereinheit 103 verbunden. Auch ist die Navigationseinheit
12 107 mit der Steuereinheit 103 verbunden. Weiterhin besteht eine direkte Verbindung zwischen der Navigationseinheit 106 und dem Satellitennavigationsempfänger 107. Somit können die GPS-Signale direkt an die Steuereinheit 103 übermittelt werden.
Unter dem Begriff „digitale Karten" sind auch Karten für fortschrittliche Fahrerassistenzsysteme (ADAS, Advanced Driver Assistance Systems) zu verstehen, ohne dass eine Navigation stattfindet.
An dieser Stelle sei weiterhin darauf hingewiesen, dass die Datenübertragung zwischen den einzelnen Komponenten sowohl kabelgebunden als auch kabellos erfolgen kann.
Fig. 2 zeigt ein Fahrzeug 201 mit einem Fahrerassistenzsystem 100 gemäß einem Ausführungsbeispiel der Erfindung. Dem Fahrzeug 201 fährt ein benachbartes Fahrzeug 202 voraus. Durch das Fahrerassistenzsystem 100 ist das Fahrzeug 201 in der Lage, autonome Bremseingriffe durchzuführen, bis hin zur Vollbremsung. Insbesondere können auch stehende Fahrzeuge identifiziert werden. Auch können Fußgänger identifiziert werden, die sich beispielsweise in einem Stau zwischen die einzelnen Fahrzeuge schieben. Auf diese Weise kann ein Stop and Go Betrieb vollautomatisch durchgeführt werden.
Fig. 3 zeigt ein Flussdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der Erfindung. In Schritt 301 wird ein Objekt im Umfeld des Fahrzeugs durch einen ersten Sensor (beispielsweise einen Radarsensor) erfasst und es werden entsprechende Objektdaten erzeugt. In Schritt 302, der gleichzeitig mit Schritt 301 oder auch davor oder danach stattfinden kann, werden optische Daten von dem Objekt erfasst
13 (beispielsweise mit Hilfe einer Kamera) . Die optischen Daten und die Objektdaten werden an eine Steuereinheit übergeben und in Schritt 303 ausgewertet. Hierbei erfolgt die Bestimmung der relativen Position des Objekts zum eigenen Fahrzeug, eine Bestimmung der Bewegungsrichtung und der Geschwindigkeit des Objekts sowie eine Identifikation der Art des Objekts (Validierung) . Außerdem kann ein Fahrschlauch des Objekts mit hoher Genauigkeit prognostiziert werden.
In Schritt 304 erfolgt dann ein autonomer Fahreingriff durch eine ACC-Einheit auf Basis der Berechnungen.
Ergänzend sei darauf hingewiesen, dass „umfassend" und „aufweisend" keine anderen Elemente oder Schritte ausschließt und „eine" oder „ein" keine Vielzahl ausschließt. Ferner sei darauf hingewiesen, dass Merkmale oder Schritte, die mit Verweis auf eines der obigen Ausführungsbeispiele beschrieben worden sind, auch in Kombination mit anderen Merkmalen oder Schritten anderer oben beschriebener Ausführungsbeispiele verwendet werden können. Bezugszeichen in den Ansprüchen sind nicht als Einschränkungen anzusehen.
14

Claims

Patentansprüche :
1. Fahrerassistenzsystem für ein Fahrzeug, das Fahrerassistenzsystem aufweisend: einen Radarsensor (101); einen optischen Sensor (102); eine Steuereinheit (103); wobei der Radarsensor (101) zur Erfassung eines Objekts im Umfeld des Fahrzeugs und zur Weiterleitung entsprechender Objektdaten an die Steuereinheit (103) ausgeführt ist; wobei der optische Sensor (102) zur Erfassung von optischen Daten über das Objekt ausgeführt ist; wobei die Steuereinheit (103) zur Validierung der Objektdaten auf Basis der optischen Daten ausgeführt ist; und wobei das Fahrerassistenzsystem zur Durchführung eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten ausgeführt ist.
2. Fahrerassistenzsystem nach Anspruch 1, ausgeführt zur: Abschätzung eines Kollisionsrisikos des Fahrzeugs auf
Basis der Validierung und der Objektdaten sowie weiterer vorgegebener Parameter; und
Durchführung einer Bremsung des Fahrzeugs bis zum Stillstand, wenn das Kollisionsrisiko einen vorbestimmten Schwellwert übersteigt.
3. Fahrerassistenzsystem nach Anspruch 1 oder 2, wobei die Validierung eine Klassifikation des Objekts umfasst .
4. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche,
15 wobei der optische Sensor (102) zum Detektieren von Licht im sichtbaren Bereich ausgeführt ist.
5. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei es sich bei dem Objekt um ein benachbartes Fahrzeug handelt; wobei das Fahrerassistenzsystem zur Ermittlung eines Fahrschlauches des benachbarten Fahrzeugs auf Basis der Validierung ausgeführt ist.
6. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei das Fahrerassistenzsystem zur Geschwindigkeitsregelung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt ist.
7. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, wobei das Fahrerassistenzsystem zur Beschleunigung des Fahrzeugs auf Basis der Validierung und der Objektdaten ausgeführt ist.
8. Fahrerassistenzsystem nach einem der vorhergehenden Ansprüche, weiterhin aufweisend: eine digitale Karte; wobei die Validierung auch auf Basis von Daten aus der digitalen Karte erfolgt.
9. Fahrzeug mit einem Fahrerassistenzsystem nach einem der Ansprüche 1 bis 8.
16
10. Verfahren zur Durchführung eines Fahreingriffs eines Fahrerassistenzsystems in einem Fahrzeug, das Verfahren aufweisend die Schritte:
Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (101, 104, 105) und Erzeugen entsprechender Objektdaten;
Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102);
Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
11. Programmelement, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die folgenden Schritte durchzuführen :
Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (101, 104, 105) und Erzeugen entsprechender Objektdaten; Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102);
Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
12. Computerlesbares Medium, auf dem ein Programmelement gespeichert ist, das, wenn es auf einem Prozessor eines Fahrerassistenzsystems ausgeführt wird, das Fahrerassistenzsystem anleitet, die folgenden Schritte durchzuführen:
Erfassen eines Objekts im Umfeld des Fahrzeugs durch einen ersten Sensor (101, 104, 105) und Erzeugen entsprechender Objektdaten;
17 Erfassen von optischen Daten über das Objekt durch einen zweiten Sensor (102);
Validierung der Objektdaten auf Basis der optischen Daten; Durchführen eines Fahreingriffs in Abhängigkeit von der Validierung der Objektdaten.
18
PCT/EP2008/067358 2007-12-11 2008-12-11 Fahrerassistenz mit funsionierten sensordaten WO2009074661A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DE102007059833 2007-12-11
DE102007059833.7 2007-12-11
DE102008061301.0A DE102008061301B4 (de) 2007-12-11 2008-12-11 Fahrerassistenz mit fusionierten Sensordaten
DE102008061301.0 2008-12-11

Publications (1)

Publication Number Publication Date
WO2009074661A1 true WO2009074661A1 (de) 2009-06-18

Family

ID=40680303

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2008/067358 WO2009074661A1 (de) 2007-12-11 2008-12-11 Fahrerassistenz mit funsionierten sensordaten

Country Status (2)

Country Link
DE (1) DE102008061301B4 (de)
WO (1) WO2009074661A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010006828B4 (de) 2010-02-03 2021-07-08 Volkswagen Ag Verfahren zur automatischen Erstellung eines Modells der Umgebung eines Fahrzeugs sowie Fahrerassistenzsystem und Fahrzeug
DE102010003375B4 (de) * 2010-03-29 2021-07-22 Bayerische Motoren Werke Aktiengesellschaft Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102011077997A1 (de) 2010-06-23 2012-01-05 Continental Teves Ag & Co. Ohg Verfahren und System zur beschleunigten Objekterkennung und/oder beschleunigten Objektattributerkennung sowie Verwendung des Verfahrens
DE102011102437A1 (de) 2011-05-25 2012-11-29 Audi Ag Verfahren zum Betrieb eines längsführenden Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102011108865A1 (de) 2011-07-28 2012-01-12 Daimler Ag Verfahren und eine Vorrichtung zum Betrieb eines Fahrerassistenzsystems eines Fahrzeuges
DE102011086342A1 (de) * 2011-11-15 2013-05-16 Robert Bosch Gmbh Vorrichtung und verfahren zum betreiben eines fahrzeugs
DE102012219106A1 (de) 2011-11-21 2013-05-23 Continental Teves Ag & Co. Ohg SIGNALGEBER, SYSTEM UND VERFAHREN ZUR HERVORHEBUNG VON OBJEKTEN IM STRAßENVERKEHR SOWIE VERWENDUNG DES SYSTEMS UND VERWENDUNG DES SIGNALGEBERS
DE102012001554A1 (de) * 2012-01-26 2013-08-01 Connaught Electronics Ltd. Verfahren zum Betreiben einer Fahrerassistenzeinrichtung eines Kraftfahrzeugs,Fahrerassistenzeinrichtung und Kraftfahrzeug
CN104094330B (zh) 2012-02-03 2016-06-29 大陆-特韦斯贸易合伙股份公司及两合公司 用于突显道路交通中物体的信号发生结构、系统和方法以及系统的应用和信号发生结构的应用
DE102012210608A1 (de) * 2012-06-22 2013-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen eines Steuerparameters für ein Abstandsassistenzsystem eines Fahrzeugs
DE102012211391A1 (de) * 2012-07-02 2014-01-02 Continental Teves Ag & Co. Ohg Verfahren und System zur Informationsnutzung
DE102012221766B4 (de) 2012-11-28 2018-08-30 Robert Bosch Gmbh Integration eines optischen Sensors und eines Ultraschallsensors
GB2511748B (en) * 2013-03-11 2015-08-12 Jaguar Land Rover Ltd Emergency braking system for a vehicle
DE102013206915A1 (de) 2013-04-17 2014-10-23 Continental Teves Ag & Co. Ohg Vorrichtung, System und Verfahren zur Identifizierung belebter Verkehrsobjekte sowie Verwendung des Systems
DE102013220526A1 (de) 2013-10-11 2015-04-16 Bayerische Motoren Werke Aktiengesellschaft Ausfallsicherere Sensorarchitektur für Fahrerassistenzsysteme
DE102015010270B4 (de) 2015-08-08 2021-10-28 Audi Ag Verfahren zum Betrieb von Fahrerassistenzsystemen in einem Kraftfahrzeug und Kraftfahrzeug
US9873429B1 (en) 2016-07-08 2018-01-23 Volkswagen Ag Turned-wheel detection for yielding during low-speed lane changes
DE102017220269A1 (de) 2017-11-14 2019-05-16 Continental Automotive Gmbh Fahrerassistenzsystem, fahrzeug und verfahren zum nachverfolgen von objekten
DE102019217212B3 (de) * 2019-11-07 2021-05-12 Zf Friedrichshafen Ag Verfahren und Steuereinrichtung zur Überwachung eines Fahrzeugzwischenbereichs
DE102021206981A1 (de) 2021-07-02 2023-01-05 Siemens Mobility GmbH Verfahren zum Prüfen der Zuverlässigkeit einer KI-basierten Objekt-Detektion
DE102021211255A1 (de) 2021-10-06 2023-04-06 Zf Friedrichshafen Ag Computerimplementiertes Verfahren, Hardwaremodul und Computerprogramm zum Auswählen wenigstens eines Kamerasensors eines Kamerasystems eines Fahrsys-tems zur Objekterkennung während einer Fahrt des Fahrsystems und automatisiert betreibbares Fahrsystem
DE102022204546A1 (de) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren für eine Verarbeitung von Sensordaten für ein Fahrassistenzsystem eines Fahrzeuges

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005013235A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE102004036825A1 (de) * 2004-03-19 2005-10-06 Daimlerchrysler Ag Vorausschauendes Fahrerassistenzsystem
EP1585083A2 (de) * 2004-04-07 2005-10-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3941402A1 (de) 1989-12-15 1991-06-20 Asea Brown Boveri Verfahren zum erkennen und abwenden einer kollisionsgefahr zwischen sich hintereinander herbewegenden fahrzeugen, insbesondere kraftfahrzeugen, sowie abstandswarnsysteme zur durchfuehrung der verfahren
JPH0717347A (ja) 1993-07-07 1995-01-20 Mazda Motor Corp 自動車の障害物検知装置
DE29803684U1 (de) 1998-03-03 1998-05-14 Hertel Juergen Sicherheitssystem für Kraftfahrzeuge im Straßenverkehr
DE10238936A1 (de) 2002-08-24 2004-03-04 Robert Bosch Gmbh Vorrichtung und Verfahren zur Steuerung wenigstens einer Systemkomponente eines informationstechnischen Systems
DE102005009146A1 (de) 2005-03-01 2006-09-21 Robert Bosch Gmbh Fahrerassistenzsystem mit mehreren Assistenzfunktionen

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005013235A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
DE102004036825A1 (de) * 2004-03-19 2005-10-06 Daimlerchrysler Ag Vorausschauendes Fahrerassistenzsystem
EP1585083A2 (de) * 2004-04-07 2005-10-12 Robert Bosch Gmbh Verfahren und Vorrichtung zur Warnung des Fahrers eines Kraftfahrzeuges

Also Published As

Publication number Publication date
DE102008061301A1 (de) 2009-06-18
DE102008061301B4 (de) 2023-03-16

Similar Documents

Publication Publication Date Title
DE102008061301B4 (de) Fahrerassistenz mit fusionierten Sensordaten
DE102008036131B4 (de) Verfahren und Vorrichtung zur Erkennung der Verkehrssituation in einer Fahrzeugumgebung
DE102010038097B4 (de) Fahrzeugfahrunterstützungs-Steuervorrichtung
DE102012200950B3 (de) Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr
EP2242674B1 (de) Verfahren und assistenzsystem zum erfassen von objekten im umfeld eines fahrzeugs
DE102016207308A1 (de) Fahrtsteuervorrichtung
DE102017100323A1 (de) Steuerung für die Fahrt eines Fahrzeugs
DE102016109592A1 (de) Kollisionsabschwächung und -vermeidung
DE102016011970A1 (de) Fahrzeugsicherheitssystem
DE102008061303A1 (de) Fahrzeugsteuerung unter Verwendung von Fahrzeug-zu-Fahrzeug-Kommunikation
DE102016107722A1 (de) Spurwechselunterstützungsapparat
EP2054869A1 (de) Verfahren und vorrichtung zur fahrerassistenz durch erzeugung von spurinformationen zur unterstützung oder zum ersatz von spurinformationen einer videobasierten spurinformationseinrichtung
DE102016117350A1 (de) Fahrunterstützungsvorrichtung
EP2188798A1 (de) Verkehrsleitsystem
DE102013112916A1 (de) Fahrzeugfahrtunterstützungssteuerungsvorrichtung
DE102016223579A1 (de) Verfahren zum Ermitteln von Daten einer Verkehrssituation
DE112015004042B4 (de) Objekterkennungsvorrichtung
DE102010052128A1 (de) Verfahren zum Betreiben eines Kraftfahrzeugs und Kraftfahrzeug
DE102011014083A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem
DE102010049091A1 (de) Verfahren zum Betreiben zumindest eines Sensors eines Fahrzeugs und Fahrzeug mit zumindest einem Sensor
DE102017202984A1 (de) Vorrichtung für autonomes fahren
DE102017100633A1 (de) Präventions-sicherheitsvorrichtung für die kursänderung eines kleinfahrzeugs
DE102013021835A1 (de) Verfahren zum Warnen vor einer Gefahrenstelle
DE102020202163A1 (de) Verfahren und Vorrichtung zur Detektierung von Objekten und/oder Strukturen im Umfeld eines Fahrzeugs
DE102020207928A1 (de) Vorrichtung zur unterstützung des fahrens eines fahrzeugs und verfahren dafür

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08859618

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 08859618

Country of ref document: EP

Kind code of ref document: A1