EP3008710A1 - Verfahren zur unterscheidung zwischen echten hindernissen und scheinhindernissen in einem fahrerassistenzsystem für kraftfahrzeuge - Google Patents

Verfahren zur unterscheidung zwischen echten hindernissen und scheinhindernissen in einem fahrerassistenzsystem für kraftfahrzeuge

Info

Publication number
EP3008710A1
EP3008710A1 EP14719679.4A EP14719679A EP3008710A1 EP 3008710 A1 EP3008710 A1 EP 3008710A1 EP 14719679 A EP14719679 A EP 14719679A EP 3008710 A1 EP3008710 A1 EP 3008710A1
Authority
EP
European Patent Office
Prior art keywords
location
obstacle
obstacles
stored
radar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP14719679.4A
Other languages
English (en)
French (fr)
Inventor
Venelin STAYNOV
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of EP3008710A1 publication Critical patent/EP3008710A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K31/00Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator
    • B60K31/0008Vehicle fittings, acting on a single sub-unit only, for automatically controlling vehicle speed, i.e. preventing speed from exceeding an arbitrarily established velocity or maintaining speed at a particular velocity, as selected by the vehicle operator including means for detecting potential obstacles in vehicle path
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/02Active or adaptive cruise control system; Distance control
    • B60T2201/022Collision avoidance systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2210/00Detection or estimation of road or environment conditions; Detection or estimation of road shapes
    • B60T2210/30Environment conditions or position therewithin
    • B60T2210/36Global Positioning System [GPS]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/93185Controlling the brakes

Definitions

  • the invention relates to a method for distinguishing between real obstacles and apparent obstacles in a driver assistance system for motor vehicles, which have a location system for determining one's own location and a radar sensor for measuring distances and relative speeds of radar targets.
  • Electronic driver assistance systems which, on the basis of information supplied in particular by the radar sensor, assist the driver in the guidance of the vehicle, for B. by issuing a warning in case of acute accident or automatically trigger an intervention in the form of emergency braking.
  • the driver assistance system By comparing the relative speed of a located object with the speed of the own vehicle, the driver assistance system is able to distinguish between absolutely (relative to the roadway) stationary objects and moving objects. divorce. In the case of moving objects on the road, whose relative speed is negative (that is, approaching), it can generally be assumed that they are real obstacles. For standing radar targets, however, the distinction is difficult. Although evaluation algorithms have been developed that allow an additional plausibility check of the obstacles, these algorithms do not work reliably in all situations.
  • the object of the invention is to provide a method that allows a simpler, faster and more reliable distinction between real obstacles and apparent obstacles.
  • This object is achieved in that location information for radar targets recognized as bogus obstacles is stored in a database, and that the driver assistance system, when it detects a stationary radar target at a specific location, queries the database as to whether a bogus obstacle has been stored for this location ,
  • the invention takes advantage of the fact that most motor vehicles equipped with a driver assistance system today also have a positioning system, for example a GPS navigation system, which allows the determination of the vehicle's own location. With the aid of this location system, it is also possible to determine the locations of the objects detected by the radar sensor at the current time so accurately that they can be compared with the location data stored in the database. If the query in the database shows that a bogus obstacle is already stored for the location in question, then the currently located stationary radar target can be reliably qualified as a bogus obstacle, and a false warning or a mishandling can be avoided.
  • a positioning system for example a GPS navigation system
  • the request is preferably carried out in the database before further processing steps are carried out for closer plausibility checking or verification of the detected stationary radar target. If the query reveals that the radar target is a dummy obstacle then computationally expensive further processing steps can be saved.
  • the method can also be used to detect any blindness of the radar sensor and / or to check the accuracy of the positioning system.
  • the database containing the bogus obstacles may be on board the vehicle equipped with the driver assistance system.
  • new bogus obstacles can always be stored when the vehicle first travels the route on which the bogus obstacle is located.
  • the radar sensor will then locate the bogus obstacle and either by a failed verification or at the latest when the alleged obstacle is then run over by the vehicle, the driver assistance system can recognize that it is a bogus obstacle. In this way, the driver assistance system thus "learns" the apparent obstacles present on any routes so that they no longer lead to false warnings or incorrect interventions.
  • a bogus obstacle can of course be stored if the driver assistance system has actually triggered a false warning or a misoperation and this has been corrected by active intervention of the driver.
  • the database is not on board the vehicle, but on a server that communicates with the driver assistance system in the vehicle through a wireless communication network (mobile radio with Internet access, WLAN or the like).
  • a wireless communication network mobile radio with Internet access, WLAN or the like.
  • the location data of obstructions that have been detected and reported by other vehicles may also be available in the database, so that for all participating vehicles substantially full more information about the bogus obstacles is available and can already be used by a single vehicle when this vehicle travels the route concerned.
  • a database on a fixed server that communicates with local databases aboard the vehicles involved.
  • the less extensive database aboard the vehicle may then be updated from time to time depending on the current location of that vehicle, for example, whenever there is a suitable data connection to the server.
  • the method is not limited to radar sensors in the actual sense, but mutatis mutandis applicable to Lidarsysteme.
  • FIG. 1 is a block diagram of a driver assistance system for motor vehicles; and FIG. 2 is a flowchart for explaining the operation of the driver assistance system in the detection of obstacles.
  • the driver assistance system shown in FIG. 1 has an electronic control unit 10 with a processor or a plurality of processors, which receives and evaluates data from a radar sensor 12 and / or a video camera 14.
  • the radar sensor 12 is, for example, an in-vehicle FMCW radar used to measure the distances and relative speeds of preceding vehicles and other obstacles on the road.
  • the control unit 10 also receives from an in-vehicle speed sensor (not shown) information about the airspeed of the vehicle equipped with the driver assistance system.
  • the relative speed of an object located by the radar sensor 12 coincides in magnitude with the airspeed, it can thus be established in the control unit that it is located at the location Object is a stationary object, for example, a traffic sign or guard rail posts on the edge of the road or even an object such as a manhole cover or a stationary vehicle on the road.
  • the driver assistance system described here has another assistance function, which is to issue a warning message to the driver or active to initiate emergency braking when a collision with an obstacle located by the radar sensor 12 threatens.
  • the assistance system also has an output unit 16 which is capable of issuing a warning to the driver via a human / machine interface with a display and / or a loudspeaker, and possibly also an active intervention in the brake system of the vehicle allowed.
  • the video camera 14 is installed in the vehicle so as to monitor the apron of the vehicle.
  • the image information supplied by the video camera is evaluated in the control unit 10 by image processing software and can be used, for example, as part of a lane keeping assistance function.
  • the data of the video camera 14 allow to verify the data provided by the radar sensor 12 when it has located a supposed obstacle.
  • the radar sensor 12 reports a stationary object on the roadway and indicates the approximate location of this object due to the distance measurement and its angular resolution
  • the object existing at this location can be qualified by evaluating the video image, and it can be differentiated in particular whether it is a real obstacle such as a parked vehicle or a bogus obstacle such as a manhole cover, which, although a radar echo triggers, but can be run over easily by your own vehicle.
  • This controller 10 also communicates with a GPS-based location system (navigation system) 18 and an interface 20 to a mobile data network and with a local database 22.
  • a GPS-based location system navigation system
  • the radar sensor 12 reports a stationary radar target on the roadway, but the destination based on the data of the video camera - ra 14 can not be verified as a real obstacle, it is determined using the positioning system 18, the current location of the own vehicle.
  • the controller 10 then causes this location information to be stored in the database 22. Then, when the vehicle next time travels the same route and the radar sensor 12 locates the bogus obstacle, so the costly verification based on the data of the video camera 14 can be omitted, and it is determined only on the basis of the entry in the database 22, that in this place a radar target that is not a real obstacle.
  • the entry stored in the local database 22 is additionally transmitted to an external database 24, which is stored on a stationary server.
  • an external database 24 which is stored on a stationary server.
  • FIG. 2 illustrates a typical process flow with reference to a flowchart.
  • the controller 10 determines, based on the data provided by the radar sensor 12, whether a stationary target has been detected in the driving line (i.e., in the predicted road). As long as this is not the case, the step S1 is repeated periodically at short time intervals. If a stationary destination is detected, in step S2 a query is made in the databases 22 and 24 as to whether a location obstacle is stored for the location where the vehicle is currently located. Optionally, instead of the location of the own vehicle and the location of the apparent obstacle itself can be stored and queried, which can be determined using the distance and direction data of the radar sensor closer.
  • step S3 If the database query indicates that a bogus obstacle has already been stored for this location, the target currently located by the radar sensor is identified with the bogus obstacle in step S3, and a return is made to step S1.
  • step S4 a verification algorithm is carried out by the control unit in step S4, in which an attempt is made to detect the detected radar target, which is now regarded as a potential obstacle. be verified by supplementary information of the radar sensor 12 and / or the video camera 14 as a real obstacle. If this verification is successful and, in addition, if the distance and speed data for this obstacle measured by the radar sensor indicate that a collision is to be feared, a warning is issued to the driver via the output unit 16. Depending on the urgency, emergency braking can also be triggered directly by intervention in the brake system.
  • step S5 is skipped. In both cases, it is then checked in step S6 whether the obstacle has been falsified. If the verification in step S4 was unsuccessful, the falsification in step S6 may be, for example, that the alleged obstacle is run over by the own vehicle. It is clear that this was not a real obstacle. Likewise, the obstacle is falsified if a warning has been issued to the driver in step S5, but the driver has ignored this warning and then overrun the obstacle. Furthermore, the obstacle is falsified in step S6 if an emergency braking has been actively triggered in step S5, but the driver has actively canceled this braking operation OR falsifies if a camera recognizes that no relevant target object is present (for example Guilideckel).
  • step S6 If the obstacle has been falsified in step S6, an entry is made in the databases 22 and 24 in step S7.
  • this entry simply consists of a location, which implies that there is a bogus obstacle in this location.
  • the location coordinates of the located apparent obstacle are stored or else the location coordinates which the own vehicle had at the time at which the radar target was first located by the radar sensor.
  • other information about the obstacle can be stored in addition to the location data. For example, by evaluating the image supplied by the video camera, the type of apparent obstruction be specified so that then in the databases next to the location of the obstacle and the relevant obstacle class can be stored.

Abstract

Verfahren zur Unterscheidung zwischen echten Hindernissen und Scheinhindernissen in einem Fahrerassistenzsystem für Kraftfahrzeuge, die ein Ortungssystem (18) zur Bestimmung des eigenen Ortes sowie einen Radarsensor (12) zur Messung von Abständen und Relativgeschwindigkeiten von Radarzielen aufweisen, dadurch gekennzeichnet, dass Ortsangaben für als Scheinhindernisse erkannte Radarziele in einer Datenbank (22, 24) gespeichert werden, und dass das Fahrerassistenzsystem, wenn es ein stehendes Radarziel an einem bestimmten Ort erkennt, in der Datenbank (22, 24) abfragt, ob für diesen Ort ein Scheinhindernis gespeichert ist.

Description

Verfahren zur Unterscheidung zwischen echten Hindernissen und Scheinhindernissen in einem Fahrerassistenzsystem für Kraftfahrzeuge
Die Erfindung betrifft ein Verfahren zur Unterscheidung zwischen echten Hindernissen und Scheinhindernissen in einem Fahrerassistenzsystem für Kraftfahrzeuge, die ein Ortungssystem zur Bestimmung des eigenen Ortes sowie einen Radarsensor zur Messung von Abständen und Relativgeschwindigkeiten von Radarzielen aufweisen.
Es sind elektronische Fahrerassistenzsysteme bekannt, die auf der Basis von Informationen, die insbesondere vom Radarsensor geliefert werden, den Fahrer bei der Füh- rung des Fahrzeugs unterstützen, z. B. indem sie bei akuter Unfallgefahr eine Warnung ausgeben oder automatisch einen Eingriff in Form einer Notbremsung auslösen.
Damit durch solche Fahrerassistenzsysteme die Verkehrssicherheit erhöht wird, ist es wichtig, dass Fehleingriffe, wie z. B. Fehlwarnungen oder unnötige - und damit für den Nachfolgverkehr unerwartete - Bremseingriffe so weit wie möglich vermieden werden. Das setzt voraus, dass das System anhand der verfügbaren Informationen in der Lage ist, zuverlässig zwischen echten Hindernissen, die eine Warnung oder einen Eingriff erfordern, und Scheinhindernissen zu unterscheiden, die der Radarsensor zwar erkennt, die aber kein echtes Hindernis darstellen. Beispiele für solche Scheinhindernisse sind etwa Guilideckel oder Kanaldeckel aus Metall, Kuhgatter und dergleichen, die aufgrund ihres hohen Reflexionsvermögens für Radarwellen vom Radarsensor geortet werden, jedoch keine wirklichen Hindernisse darstellen, da sie von dem Fahrzeug problemlos überfahren werden können. Aufgrund ihres begrenzten Winkelauflösungsvermögens sind die üblichen Radarsensoren nicht in der Lage, die Abmessungen, insbesondere die Höhe, und die genaue Lage des georteten Objekts so zuverlässig abzu- schätzen, dass diese Objekte von echten Hindernissen wie stehenden Fahrzeugen und dergleichen unterschieden werden können.
Durch Vergleich der Relativgeschwindigkeit eines georteten Objekts mit der Geschwindigkeit des eigenen Fahrzeugs ist das Fahrerassistenzsystem in der Lage, zwischen absolut (relativ zur Fahrbahn) stehenden Objekten und bewegten Objekten zu unter- scheiden. Bei bewegten Objekten auf der Fahrbahn, deren Relativgeschwindigkeit negativ ist (die sich also annähern), kann allgemein angenommen werden, dass es sich um echte Hindernisse handelt. Bei stehenden Radarzielen ist die Unterscheidung hingegen schwierig. Zwar sind Auswertungsalgorithmen entwickelt worden, die eine zu- sätzliche Plausibilisierung der Hindernisse ermöglichen, doch arbeiten diese Algorithmen nicht in allen Situationen zuverlässig.
Weiterhin ist es bekannt, zur Plausibilisierung oder Verifizierung von Hindernissen die Daten zusätzlicher Sensoren hinzuzuziehen, etwa die Daten einer Videokamera und eines zugehörigen Bildverarbeitungssystems. Diese aufwendigeren Auswertungsver- fahren erfordern jedoch eine erhebliche Rechenleistung bzw. Rechenzeit.
Aufgabe der Erfindung ist es, ein Verfahren anzugeben, das eine einfachere, schnellere und zuverlässigere Unterscheidung zwischen echten Hindernissen und Scheinhindernissen erlaubt.
Diese Aufgabe wird dadurch gelöst, dass Ortsangaben für als Scheinhindernisse er- kannte Radarziele in einer Datenbank gespeichert werden, und dass das Fahrerassistenzsystem, wenn es ein stehendes Radarziel an einem bestimmten Ort erkennt, in der Datenbank abfragt, ob für diesen Ort ein Scheinhindernis gespeichert ist.
Die Erfindung macht sich den Umstand zunutze, dass die meisten Kraftfahrzeuge, die mit einem Fahrerassistenzsystem ausgerüstet sind, heute auch ein Ortungssystem, beispielsweise ein GPS-Navigationssystem aufweisen, das die Bestimmung des eigenen Ortes des Fahrzeugs erlaubt. Mit Hilfe dieses Ortungssystems ist es auch möglich, die Orte der zum aktuellen Zeitpunkt vom Radarsensor erfassten Objekte so genau zu bestimmen, dass sie mit den in der Datenbank gespeicherten Ortsangaben abgeglichen werden können. Wenn die Abfrage in der Datenbank ergibt, dass für den betref- fenden Ort bereits ein Scheinhindernis gespeichert ist, so kann das aktuell geortete stehende Radarziel zuverlässig als Scheinhindernis qualifiziert werden, und eine Fehlwarnung oder ein Fehleingriff kann vermieden werden.
Vorteilhafte Weiterbildungen und Ausgestaltungen der Erfindung sind in den Unteransprüchen angegeben. Bevorzugt wird die Anfrage in der Datenbank durchgeführt, bevor weitere Verarbeitungsschritte zur näheren Plausibilisierung oder Verifizierung des erkannten stehenden Radarziels ausgeführt werden. Wenn die Abfrage ergibt, dass das Radarziel ein Scheinhindernis ist, können dann rechenaufwendige weitere Verarbeitungsschritte ein- gespart werden.
Es ist sogar möglich, die Datenbank während der Fahrt praktisch ständig nach Scheinhindernissen zu durchsuchen, die längs der aktuellen Fahrtroute gespeichert sind, so dass das Radarziel, wenn es vom Radarsensor geortet wird, sofort als Scheinhindernis qualifiziert werden kann. In diesem Fall kann das Verfahren auch dazu genutzt werden, eine etwaige Erblindung des Radarsensors zu erkennen und/oder die Genauigkeit des Ortungssystems zu überprüfen.
Die Datenbank, in der die Scheinhindernisse gespeichert sind, kann sich an Bord des Fahrzeugs befinden, das mit dem Fahrerassistenzsystem ausgerüstet ist. In dem Fall können neue Scheinhindernisse immer dann eingespeichert werden, wenn das Fahr- zeug erstmals die Route befährt, auf der sich das Scheinhindernis befindet. Der Radarsensor wird dann das Scheinhindernis orten und entweder anhand einer fehlgeschlagenen Verifizierung oder spätestens wenn das vermeintliche Hindernis dann von dem Fahrzeug überfahren wird, kann das Fahrerassistenzsystem erkennen, dass es sich um ein Scheinhindernis handelt. Auf diese Weise "lernt" das Fahrerassistenzsys- tem somit die auf beliebige Routen vorhandenen Scheinhindernisse, so dass diese künftig nicht mehr zu Fehlwarnungen oder Fehleingriffen führen. Ebenso kann ein Scheinhindernis selbstverständlich dann eingespeichert werden, wenn das Fahrerassistenzsystem tatsächlich eine Fehlwarnung oder einen Fehleingriff ausgelöst hat und dies durch aktives Eingreifen des Fahrers korrigiert wurde. In einer anderen Ausführungsform befindet sich die Datenbank nicht an Bord des Fahrzeugs, sondern auf einem Server, der durch ein drahtloses Kommunikationsnetz (Mobilfunk mit Internetzugang, WLAN oder dergleichen) mit dem Fahrerassistenzsystem im Fahrzeug kommuniziert. In diesem Fall können in der Datenbank auch die Ortsdaten von Scheinhindernissen zur Verfügung stehen, die von anderen Fahrzeugen erkannt und gemeldet wurden, so dass für alle beteiligten Fahrzeuge wesentlich voll- ständigere Information über die Scheinhindernisse zur Verfügung steht und von einem einzelnen Fahrzeug bereits genutzt werden kann, wenn dieses Fahrzeug die betreffende Route befährt.
Besonders vorteilhaft ist eine Kombination der beiden oben beschriebenen Varianten, d. h., eine Datenbank auf einem ortsfesten Server, die mit lokalen Datenbanken an Bord der beteiligten Fahrzeuge kommuniziert. Die weniger umfangreiche Datenbank an Bord des Fahrzeugs kann dann von Zeit zu Zeit in Abhängigkeit vom aktuellen Ort dieses Fahrzeugs aktualisiert werden, beispielsweise immer dann, wenn eine geeignete Datenverbindung zum Server besteht. Das Verfahren ist im übrigen nicht auf Radarsensoren im eigentlichen Sinne beschränkt, sondern sinngemäß beispielsweise auch auf Lidarsysteme anwendbar.
Im folgenden wird ein Ausführungsbeispiel anhand der Zeichnung näher erläutert.
Es zeigen:
Fig. 1 ein Blockdiagramm eines Fahrerassistenzsystems für Kraftfahrzeuge; und Fig. 2 ein Flussdiagramm zur Erläuterung der Arbeitsweise des Fahrerassistenzsystems bei der Erkennung von Hindernissen.
Das in Fig. 1 gezeigte Fahrerassistenzsystem weist ein elektronisches Steuergerät 10 mit einem Prozessor oder mehreren Prozessoren auf, das Daten von einem Radarsensor 12 und/oder einer Videokamera 14 empfängt und auswertet. Bei dem Radarsensor 12 handelt es sich beispielsweise um ein vorn im Fahrzeug eingebautes FMCW-Radar, das dazu dient, die Abstände und Relativgeschwindigkeiten von vorausfahrenden Fahrzeugen und sonstigen Hindernissen auf der Fahrbahn zu messen. Das Steuergerät 10 empfängt außerdem von einem nicht gezeigten fahrzeugeigenen Geschwindigkeitssensor Information über die Eigengeschwindigkeit des mit dem Fahrerassistenz- System ausgerüsteten Fahrzeugs. Wenn die Relativgeschwindigkeit eines vom Radarsensor 12 georteten Objekts dem Betrage nach mit der Eigengeschwindigkeit übereinstimmt, kann im Steuergerät somit festgestellt werden, dass es sich bei dem georteten Objekt um ein stehendes Objekt handelt, beispielsweise ein Verkehrsschild oder Leitplankenpfosten am Rand der Fahrbahn oder auch ein Objekt wie etwa einen Kanaldeckel oder ein stehendes Fahrzeug auf der Fahrbahn.
Neben einer ACC-Funktion (Adaptive Cruise Control), bei der die Geschwindigkeit des eigenen Fahrzeugs in Abhängigkeit vom gemessenen Abstand zum vorausfahrenden Fahrzeug geregelt wird, hat das hier beschriebenen Fahrerassistenzsystem eine weitere Assistenzfunktion, die darin besteht, eine Warnmeldung an den Fahrer auszugeben oder aktiv eine Notbremsung einzuleiten, wenn eine Kollision mit einem vom Radarsensor 12 georteten Hindernis droht. Zu diesem Zweck weist das Assistenzsystem auch eine Ausgabeeinheit 16 auf, die in der Lage ist, über eine Mensch/Maschine- Schnittstelle mit einem Display und/oder einem Lautsprecher einen Warnhinweis an den Fahrer auszugeben, und die gegebenenfalls auch einen aktiven Eingriff in das Bremssystem des Fahrzeugs erlaubt.
Die Videokamera 14 ist so im Fahrzeug eingebaut, dass sie das Vorfeld des Fahrzeugs überwacht. Die von der Videokamera gelieferte Bildinformation wird im Steuergerät 10 von einer Bildverarbeitungssoftware ausgewertet und kann beispielsweise im Rahmen einer Spurhalte-Assistenzfunktion genutzt werden. Außerdem erlauben es die Daten der Videokamera 14, die vom Radarsensor 12 gelieferten Daten zu verifizieren, wenn dieser ein vermeintliches Hindernis geortet hat. Wenn beispielsweise der Radarsensor 12 ein stehendes Objekt auf der Fahrbahn meldet und aufgrund der Abstandsmessung sowie seines Winkelauflösungsvermögens den ungefähren Ort dieses Objekts angibt, so kann durch Auswertung des Videobildes das an diesem Ort vorhandene Objekt näher qualifiziert werden, und es lässt sich insbesondere unterscheiden, ob es sich um ein echtes Hindernis wie etwa ein parkendes Fahrzeug handelt oder aber um ein Scheinhindernis wie beispielsweise einen Kanaldeckel, der zwar ein Radarecho auslöst, aber von dem eigenen Fahrzeug problemlos überfahren werden kann.
Dieses Steuergerät 10 kommuniziert außerdem mit einem GPS-gestützten Ortungssystem (Navigationssystem) 18 und einer Schnittstelle 20 zu einem mobilen Datennetzwerk sowie mit einer lokalen Datenbank 22. Wenn der Radarsensor 12 ein stehendes Radarziel auf der Fahrbahn meldet, das Ziel jedoch anhand der Daten der Videokame- ra 14 nicht als echtes Hindernis verifiziert werden kann, so wird mit Hilfe des Ortungssystems 18 der aktuelle Ort des eigenen Fahrzeugs ermittelt. Das Steuergerät 10 veranlasst dann, das diese Ortsinformation in der Datenbank 22 gespeichert wird. Wenn dann das Fahrzeug das nächste Mal dieselbe Route befährt und der Radarsensor 12 das Scheinhindernis erneut ortet, so kann die aufwendige Verifizierung anhand der Daten der Videokamera 14 unterbleiben, und es wird lediglich anhand des Eintrags in der Datenbank 22 festgestellt, dass sich an diesem Ort ein Radarziel befindet, das kein echtes Hindernis ist. Wenn über die Schnittstelle 20 eine Netzwerkverbindung besteht, dann wird der in der lokalen Datenbank 22 gespeicherte Eintrag zusätzlich an eine externe Datenbank 24 übermittelt, die auf einem ortsfesten Server abgelegt ist. Auf diese Weise wird die Information, dass an dem betreffenden Ort ein Radarziel zu erwarten ist, das kein echtes Hindernis darstellt, nicht nur für das eigene Fahrzeug, sondern auch für andere Fahrzeuge verfügbar gemacht.
In Fig. 2 ist anhand eines Flussdiagramms ein typischer Verfahrensablauf illustriert. In Schritt S1 stellt das Steuergerät 10 anhand der vom Radarsensor 12 gelieferten Daten fest, ob ein stehendes Ziel im Fahrschlauch (d.h. in der prädizierten Fahrbahn) erkannt wurde. Solange dies nicht der Fall ist, wird der Schritt S1 periodisch in kurzen Zeitintervallen wiederholt. Wenn ein stehendes Ziel erkannt wird, erfolgt in Schritt S2 eine Abfrage in den Datenbanken 22 und 24, ob für den Ort, an dem sich das Fahr- zeug aktuell befindet, ein Scheinhindernis gespeichert ist. Wahlweise kann anstelle des Ortes des eigenen Fahrzeugs auch der Ort des Scheinhindernisses selbst gespeichert und abgefragt werden, der sich anhand der Abstands- und Richtungsdaten des Radarsensors näher bestimmen lässt.
Wenn die Datenbankabfrage ergibt, dass für diesen Ort bereits ein Scheinhindernis gespeichert ist, so wird das aktuell vom Radarsensor geortete Ziel in Schritt S3 mit dem Scheinhindernis identifiziert und es erfolgt ein Rücksprung zu Schritt S1.
Wenn das Radarziel in Schritt S3 nicht als Scheinhindernis identifiziert werden konnte, wird in Schritt S4 von dem Steuergerät ein Verifizierungsalgorithmus durchgeführt, in dem versucht wird, das erkannte Radarziel, das nun als potentielles Hindernis betrach- tet werden muss, anhand ergänzender Informationen des Radarsensors 12 und/oder der Videokamera 14 als echtes Hindernis zu verifizieren. Wenn diese Verifizierung erfolgreich ist und wenn sich außerdem aus den vom Radarsensor gemessenen Abstand- und Geschwindigkeitsdaten für dieses Hindernis ergibt, dass eine Kollision zu befürchten ist, wird über die Ausgabeeinheit 16 eine Warnung an den Fahrer ausgegeben. Je nach Dringlichkeit kann auch unmittelbar durch Eingriff in das Bremssystem eine Notbremsung ausgelöst werden.
Wenn das vermeintliche Hindernis in Schritt S4 nicht verifiziert werden kann, so wird der Schritt S5 übersprungen. In beiden Fällen wird danach in Schritt S6 geprüft, ob das Hindernis falsifiziert wurde. Wenn die Verifizierung in Schritt S4 nicht erfolgreich war, kann die Falsifizierung in Schritt S6 beispielsweise darin bestehen, dass das vermeintliche Hindernis von dem eigenen Fahrzeug überfahren wird. Damit steht fest, dass es sich nicht um ein echtes Hindernis gehandelt hat. Ebenso wird das Hindernis falsifiziert, wenn in Schritt S5 eine Warnung an den Fahrer ausgegeben wurde, der Fahrer diese Warnung jedoch ignoriert hat und dann das Hindernis überfahren wird. Weiterhin wird das Hindernis in Schritt S6 falsifiziert, wenn in Schritt S5 aktiv eine Notbremsung ausgelöst wurde, der Fahrer diesen Bremsvorgang jedoch aktiv abgebrochen hat ODER falsifiziert falls eine Kamera erkennt, dass kein relevantes Zielobjekt vorliegt (z.B. Guilideckel). Wenn das Hindernis in Schritt S6 falsifiziert wurde, so erfolgt in Schritt S7 ein Eintrag in den Datenbanken 22 und 24. Im einfachsten Fall besteht dieser Eintrag einfach in einer Ortsangabe, womit impliziert wird, dass sich in diesem Ort ein Scheinhindernis befindet. Je nach Ausführungsform werden entweder die Ortskoordinaten des georteten Scheinhindernisses gespeichert oder aber die Ortskoordinaten, die das eigenen Fahr- zeug zu dem Zeitpunkt hatte, an dem das Radarziel erstmals vom Radarsensor geortet wurde.
In einer modifizierten Ausführungsform können neben den Ortsdaten auch weitere Informationen über das Hindernis gespeichert werden. Beispielsweise kann durch Auswertung des von der Videokamera gelieferten Bildes die Art des Scheinhindernisses näher spezifiziert werden, so dass dann in den Datenbanken neben dem Ort des Hindernisses auch die betreffende Hindernisklasse gespeichert werden kann.

Claims

PATENTANSPRÜCHE
1. Verfahren zur Unterscheidung zwischen echten Hindernissen und Scheinhindernissen in einem Fahrerassistenzsystem für Kraftfahrzeuge, die ein Ortungssystem (18) zur Bestimmung des eigenen Ortes sowie einen Radarsensor (12) zur Messung von Abständen und Relativgeschwindigkeiten von Radarzielen aufweisen, dadurch gekennzeichnet, dass Ortsangaben für als Scheinhindernisse erkannte Radarziele in einer Datenbank (22, 24) gespeichert werden, und dass das Fahrerassistenzsystem, wenn es ein stehendes Radarziel an einem bestimmten Ort erkennt, in der Datenbank (22, 24) abfragt, ob für diesen Ort ein Scheinhindernis gespeichert ist.
2. Verfahren nach Anspruch 1 , bei dem nach der Datenbankabfrage ein Verifizierungsalgorithmus durchgeführt wird, mit dem Ziel, das erkannte Radarziel anhand der Daten des Radarsensors (12) und/oder der Daten zusätzlicher Sensoren (14) als echtes Hindernis zu verifizieren.
3. Verfahren nach Anspruch 1 oder 2, bei dem die Ortsangaben der Scheinhindernisse in einer lokalen Datenbank (22) an Bord des eigenen Fahrzeugs gespeichert werden.
4. Verfahren nach einem der Ansprüche 1 bis 3, bei dem das Fahrerassistenzsystem die Speicherung der Ortsangabe eines vom Radarsensor erfassten stehenden Radarziels als Scheinhindernis veranlasst, wenn der Ort dieses Radarziels noch nicht gespeichert war und das Radarziel sich als kein echtes Hindernis erweist.
5. Verfahren nach den Ansprüchen 2 und 4, bei dem die Ortsangabe des erkannten Radarziels als Scheinhindernis gespeichert wird, wenn die Verifizierung als echtes Hindernis fehlgeschlagen ist.
6. Verfahren nach Anspruch 4, bei dem die Ortsangabe des erkannten stehenden Radarziels als Scheinhindernis gespeichert wird, wenn das eigene Fahrzeug dieses Radarziel überfährt.
7. Verfahren nach Anspruch 4, bei dem die Ortsangabe des erkannten stehenden Radarziels als Scheinhindernis gespeichert wird, wenn das Fahrerassistenzsystem einen Eingriff in das Bremssystem des Fahrzeugs veranlasst hatte und der Fahrer diesen Eingriff abbricht.
8. Verfahren nach einem der vorstehenden Ansprüche, bei dem die Ortsangaben der Scheinhindernisse in einer externen Datenbank (24) gespeichert werden, mit der das Fahrerassistenzsystem über eine Schnittstelle (20) eines drahtlosen Datennetzwerkes kommuniziert.
EP14719679.4A 2013-06-12 2014-04-16 Verfahren zur unterscheidung zwischen echten hindernissen und scheinhindernissen in einem fahrerassistenzsystem für kraftfahrzeuge Ceased EP3008710A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE201310210928 DE102013210928A1 (de) 2013-06-12 2013-06-12 Verfahren zur Unterscheidung zwischen echten Hindernissen und Scheinhindernissen in einem Fahrerassistenzsystem für Kraftfahrzeuge
PCT/EP2014/057696 WO2014198441A1 (de) 2013-06-12 2014-04-16 Verfahren zur unterscheidung zwischen echten hindernissen und scheinhindernissen in einem fahrerassistenzsystem für kraftfahrzeuge

Publications (1)

Publication Number Publication Date
EP3008710A1 true EP3008710A1 (de) 2016-04-20

Family

ID=50588659

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14719679.4A Ceased EP3008710A1 (de) 2013-06-12 2014-04-16 Verfahren zur unterscheidung zwischen echten hindernissen und scheinhindernissen in einem fahrerassistenzsystem für kraftfahrzeuge

Country Status (6)

Country Link
US (1) US10031225B2 (de)
EP (1) EP3008710A1 (de)
JP (1) JP6254690B2 (de)
CN (1) CN108028017B (de)
DE (1) DE102013210928A1 (de)
WO (1) WO2014198441A1 (de)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015111925B4 (de) * 2015-07-22 2021-09-23 Deutsches Zentrum für Luft- und Raumfahrt e.V. Spurhalteassistenzsystem für ein Fahrzeug
DE102015116574A1 (de) 2015-09-30 2017-03-30 Claas E-Systems Kgaa Mbh & Co Kg Selbstfahrende landwirtschaftliche Arbeitsmaschine
DE102015116586A1 (de) 2015-09-30 2017-03-30 Claas E-Systems Kgaa Mbh & Co Kg Selbstfahrende landwirtschaftliche Arbeitsmaschine
US10262540B2 (en) * 2016-01-29 2019-04-16 Ford Global Technologies, Llc Bollard receiver identification
US9889716B2 (en) * 2016-02-03 2018-02-13 Ford Global Technologies, Llc Roadway-crossing-anomaly detection system and method
DE102016204805A1 (de) 2016-03-23 2017-09-28 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtungen zum Bereitstellen von Daten für ein Fahrerassistenzsystem eines Kraftfahrzeugs
US10120385B2 (en) 2016-03-30 2018-11-06 Intel Corporation Comfort ride vehicle control system
US10151830B2 (en) 2016-09-14 2018-12-11 Caterpillar Inc. Systems and methods for detecting objects proximate to a machine utilizing a learned process
LU100761B1 (en) * 2018-04-03 2019-10-07 Iee Sa Method for obstacle identification
DE102018210814A1 (de) * 2018-06-30 2020-01-02 Robert Bosch Gmbh Verfahren zur Erkennung statischer Radarziele mit einem Radarsensor für Kraftfahrzeuge
DE102018009434A1 (de) * 2018-11-30 2020-06-04 Zf Active Safety Gmbh Steuerungssystem und -Verfahren für ein Kraftfahrzeug zur Verarbeitung von mehrfach reflektierten Signalen
CN110046569B (zh) * 2019-04-12 2022-04-12 北京百度网讯科技有限公司 一种无人驾驶数据处理方法、装置及电子设备
CN110827578B (zh) * 2019-10-23 2022-05-10 江苏广宇协同科技发展研究院有限公司 一种基于车路协同的车辆防碰撞提示方法、装置及系统
CN111506066B (zh) * 2020-04-16 2023-06-02 雄狮汽车科技(南京)有限公司 感知障碍物的方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009017731A1 (de) * 2008-04-30 2009-11-05 Continental Teves Ag & Co. Ohg Selbstlernende Karte auf Basis von Umfeldsensoren

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6553308B1 (en) * 1999-04-29 2003-04-22 Donnelly Corporation Vehicle-based navigation system with smart map filtering, portable unit home-base registration and multiple navigation system preferential use
US8630795B2 (en) * 1999-03-11 2014-01-14 American Vehicular Sciences Llc Vehicle speed control method and arrangement
JP3890967B2 (ja) * 2001-12-11 2007-03-07 日産自動車株式会社 車両用制動制御装置
US6687577B2 (en) * 2001-12-19 2004-02-03 Ford Global Technologies, Llc Simple classification scheme for vehicle/pole/pedestrian detection
DE10316637A1 (de) * 2003-04-11 2004-10-28 Robert Bosch Gmbh Radar-Antennenanordnung
DE10335898A1 (de) * 2003-08-06 2005-03-03 Robert Bosch Gmbh Vorrichtung zur Bewertung von stehenden Objekten in einem Fahrerassistenzsystem
US7379014B1 (en) * 2004-09-15 2008-05-27 Rockwell Collins, Inc. Taxi obstacle detecting radar
JP4210640B2 (ja) * 2004-10-29 2009-01-21 本田技研工業株式会社 車両用制御対象判定装置および車両制御装置
JP2006195579A (ja) * 2005-01-11 2006-07-27 Toyota Motor Corp 車両用制御装置
JP2006201942A (ja) * 2005-01-19 2006-08-03 Toyota Motor Corp 車両用制御装置
DE102005009146A1 (de) * 2005-03-01 2006-09-21 Robert Bosch Gmbh Fahrerassistenzsystem mit mehreren Assistenzfunktionen
JP4400584B2 (ja) * 2006-03-01 2010-01-20 トヨタ自動車株式会社 障害物検出方法及び障害物検出装置
JP4753765B2 (ja) * 2006-03-30 2011-08-24 ダイハツ工業株式会社 障害物認識方法
JP2007303841A (ja) * 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置
JP2009031053A (ja) * 2007-07-25 2009-02-12 Fujitsu Ten Ltd 前方障害物検出装置
AT507035B1 (de) * 2008-07-15 2020-07-15 Airbus Defence & Space Gmbh System und verfahren zur kollisionsvermeidung
JP2010072947A (ja) * 2008-09-18 2010-04-02 Toyota Motor Corp 障害物検出装置
US8477063B2 (en) * 2008-10-03 2013-07-02 Honeywell International Inc. System and method for obstacle detection and warning
US20100152967A1 (en) * 2008-12-15 2010-06-17 Delphi Technologies, Inc. Object detection system with learned position information and method
JP4807444B2 (ja) * 2009-07-09 2011-11-02 株式会社デンソー 制御対象物抽出装置および車両制御装置
EP2491344B1 (de) * 2009-10-22 2016-11-30 TomTom Global Content B.V. System und verfahren zur fahrzeugnavigation mit seitlichem versatz
CN101777266B (zh) * 2010-01-28 2012-06-13 广东好帮手电子科技股份有限公司 基于空间地理信息的车辆监控系统及方法
US8447437B2 (en) * 2010-11-22 2013-05-21 Yan-Hong Chiang Assistant driving system with video recognition
JP5538655B2 (ja) * 2011-03-25 2014-07-02 三菱電機株式会社 車載レーダ装置
DK2606482T3 (da) * 2011-05-23 2017-11-06 Ion Geophysical Corp Havtrusselovervågnings- og forsvarssystem
CN102509454B (zh) * 2011-11-03 2013-09-11 安徽科力信息产业有限责任公司 基于fcd与地磁检测器的道路状态融合方法
US9959774B2 (en) * 2012-05-30 2018-05-01 Honeywell International Inc. Systems and methods for displaying obstacle-avoidance information during surface operations
US8773286B1 (en) * 2013-02-08 2014-07-08 Caterpillar Inc. Operator assistance system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009017731A1 (de) * 2008-04-30 2009-11-05 Continental Teves Ag & Co. Ohg Selbstlernende Karte auf Basis von Umfeldsensoren

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of WO2014198441A1 *

Also Published As

Publication number Publication date
US10031225B2 (en) 2018-07-24
CN108028017B (zh) 2021-04-27
JP6254690B2 (ja) 2017-12-27
WO2014198441A1 (de) 2014-12-18
US20160139262A1 (en) 2016-05-19
DE102013210928A1 (de) 2014-12-18
CN108028017A (zh) 2018-05-11
JP2016527602A (ja) 2016-09-08

Similar Documents

Publication Publication Date Title
WO2014198441A1 (de) Verfahren zur unterscheidung zwischen echten hindernissen und scheinhindernissen in einem fahrerassistenzsystem für kraftfahrzeuge
EP2826031B1 (de) Verfahren zur stauerkennung mittels einer drahtlosen fahrzeug-zu-fahrzeug-kommunikation
EP1577682B1 (de) Objektortungssystem für Kraftfahrzeuge zur Erkennung eines Spurwechsels
EP1736797B1 (de) Fahrerassistenzsystem mit Navigationssystemschnittstelle
DE102017112865A1 (de) Vorrichtung zur automatisierten Fahrsteuerung, System mit derselben, und Verfahren hierfür
EP1690730B1 (de) Fahrerassistenzsystem mit redundanter Entscheidungseinheit
DE102017100013A1 (de) Bestimmen der fahrerabsicht an strassenverkehrskreuzungen zum vermeiden der kollision von automobilen
DE102014103307A1 (de) Fahrunterstützungssystem
DE112010005977B4 (de) Strassenformschätzvorrichtung
EP2033013A1 (de) Spurwechselassistent für kraftfahrzeuge
DE102008035992A1 (de) Ampelphasenassistent unterstützt durch Umfeldsensoren
DE102009043458A1 (de) Fahrunterstützungssystem für Fahrzeuge
DE112010005903B4 (de) Objekterfassungsvorrichtung und Objekterfassungsprogramm
DE102016217645A1 (de) Verfahren zum Bereitstellen von Information über eine voraussichtliche Fahrintention eines Fahrzeugs
EP1913452A1 (de) Verfahren zur erkennung eines abbiegevorgangs und fahrerassistenzsystem für kraftfahrzeuge
DE102013012324A1 (de) Verfahren und Vorrichtung zur Fahrwegfindung
DE102016215643A1 (de) Verfahren und Assistent zum Verhindern des unbeabsichtigten Verlassens der Fahrbahn
DE102019216989A1 (de) Zwischenfahrzeug-sensorvalidierung unter ver wendung eines sensorfusionsnetzwerks
DE102013217486A1 (de) Verfahren zur Repräsentation eines Umfelds eines Fahrzeugs in einem Belegungsgitter
EP3326165A1 (de) Spurhalteassistenzsystem
DE102012208302B4 (de) Verfahren zur Bereitstellung von Informationen über eine Umgebung eines Fahrzeugs
EP1643269A1 (de) Fahrerassistenzsystem mit Fuzzy-Logic
EP2995971A1 (de) Verfahren und system zur positionsbestimmung
DE102014220654A1 (de) Verfahren zum Reagieren auf eine Umfeldsituation eines Kraftfahrzeugs
DE102019131667A1 (de) Fahrzeug und verfahren zur voraussage einer kollision

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20160112

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAX Request for extension of the european patent (deleted)
RAP1 Party data changed (applicant data changed or rights of an application transferred)

Owner name: ROBERT BOSCH GMBH

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20210211

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20221110