WO2018054523A1 - Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug - Google Patents

Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug Download PDF

Info

Publication number
WO2018054523A1
WO2018054523A1 PCT/EP2017/001019 EP2017001019W WO2018054523A1 WO 2018054523 A1 WO2018054523 A1 WO 2018054523A1 EP 2017001019 W EP2017001019 W EP 2017001019W WO 2018054523 A1 WO2018054523 A1 WO 2018054523A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
driver
danger
source
warning
Prior art date
Application number
PCT/EP2017/001019
Other languages
English (en)
French (fr)
Inventor
Jakob Breu
Stephanie Preuß
Original Assignee
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag filed Critical Daimler Ag
Publication of WO2018054523A1 publication Critical patent/WO2018054523A1/de

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/163Decentralised systems, e.g. inter-vehicle communication involving continuous checking
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/164Centralised systems, e.g. external to vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Definitions

  • a method for warning a driver of a motor vehicle taking into account a current field of vision of the driver, computing device and detection vehicle
  • the present invention relates to a method for warning a driver of a
  • the present invention relates to a vehicle-external computing device.
  • the invention relates to a detection vehicle.
  • Road maps is deposited. It may also be the case that the source of danger is obscured by trees, embankments or parked vehicles that are not registered in a digital map. If there is no occlusion, however, warning of dangers can be considered by the driver to be superfluous or disturbing, since he can already see the source of danger himself.
  • road maps and curve radii can be determined based on digital maps. By evaluating the curve radii, it is possible to assess heuristically whether a source of danger lies within the field of vision of the driver. On a serpentine road, which has 180 ° curves, it is unlikely, for example
  • environmental sensors are not sufficient to assign sources of danger to the objects detected by the environmental sensors. For example, when a vehicle crashes in a curve that can be detected by the vehicle-to-vehicle communication, an imaging sensor can not yet distinguish whether it is a crashed vehicle or a static object.
  • EP 2 487 665 A1 describes a method for
  • electromagnetic radiation is encoded in the data transmitted by a transmitter which is present in a vehicle or in a traffic infrastructure object. Furthermore, a transmitter which is present in a vehicle or in a traffic infrastructure object. Furthermore, a transmitter which is present in a vehicle or in a traffic infrastructure object.
  • Reflector device for at least partially reflecting the emitted electromagnetic radiation provided.
  • the emitted electromagnetic radiation can be reflected to a receiver which is present in a vehicle or a traffic infrastructure object.
  • the data can be transmitted view-independent.
  • DE 10 2014 208 310 A1 describes a driver assistance system which comprises a display unit, a position determination unit, a reception unit and an evaluation unit.
  • the receiving unit is set up to receive a first image signal containing a surrounding area from the perspective of the driver of an environment object.
  • the position determination unit is set up to determine a head pose of the driver and / or a pose of the display unit.
  • the evaluation unit is set up to calculate a second image signal which corresponds to a virtual view of the driver on the surrounding area.
  • the display unit is configured to generate a partially transparent representation of the second image signal corresponding to the virtual view for the driver.
  • US 2006/0 055 525 A1 describes a driving support system for a vehicle.
  • virtual image information can be provided and displayed on a display device.
  • virtual image information virtual images of road users, such as pedestrians, motorcycles or the like, being represented.
  • This virtual image information serves as a warning to the driver or other occupants of the vehicle.
  • DE 20 2014 003 224 U1 discloses a driver assistance system for warning a driver of a vehicle from collisions with others
  • DE 10 2006 057 741 A1 describes a method for providing security-relevant information by a stationary data processing unit for at least one mobile data processing unit of a number of moving objects, each of which comprises a mobile data processing unit.
  • This object is achieved by a method by a computing device and by a detection vehicle with the features according to the respective
  • a method according to the invention serves to alert a driver of a vehicle in which a warning signal is transmitted to the vehicle, wherein the warning signal describes a danger source in an environment of the vehicle, and the warning is output to the driver in dependence on the warning signal. In addition, it checks whether the source of danger is inside or outside a current one
  • the driver's field of view is located and the warning is adjusted depending on whether the source of danger is inside or outside the current one
  • a warning level provided with the warning is reduced if the source of danger is in the field of view.
  • the driver of the vehicle should be warned of a possible source of danger in the vicinity of the vehicle.
  • a hazard can be an object or obstacle with which a collision threatens.
  • the warning signal is transmitted to the vehicle.
  • the warning signal can be transmitted to a communication device of the vehicle.
  • Communication device can in particular be designed for vehicle-to-vehicle communication (car-to-car communication) or for vehicle-to-infrastructure communication (car-to-infrastructure communication). If the warning signal is received with the communication device of the vehicle, a warning may be issued to the driver. This warning can be output by means of an output device in the vehicle interior to the driver of the vehicle. The warning can be output, for example, optically, acoustically and / or haptically. As a result of the warning, the driver may then control the vehicle to prevent a collision between the vehicle and the source of danger.
  • the present invention it is provided that it is checked whether the source of danger is located inside or outside a current field of vision of the driver.
  • the current field of vision of the driver is determined.
  • the field of vision of the driver describes the area in the surroundings of the vehicle in which the sources of danger can be visually perceived by the driver.
  • it can be determined whether the source of danger is located in a visual axis of the driver.
  • the warning signal can describe whether the source of danger is inside or outside the field of vision.
  • the output of the warning can be made depending on whether the
  • Source of danger lies in the field of vision or not.
  • the warning may be issued to the driver in a conventional manner if the source of danger is outside the driver's current field of vision or if the source of danger is in a non-visual axis of the driver. In other words, the warning can only be issued to the driver, if this is the
  • Danger source can not see. If the source of danger is within the driver's field of vision, the warning can not be issued. It may also be provided that the warning is adjusted if the source of danger is within the field of vision. For this purpose, the warning level provided with the warning is reduced if the source of danger is located in the field of vision. The warning can therefore be less critical if the driver can see the source of danger itself. For example, a less urgent warning sound or a more restrained graph be provided at the issue of the warning. It can also be considered whether the source of danger can be detected with environmental sensors of the vehicle. This allows alerts to be more targeted. This means that the driver is only warned if the source of danger is not yet visible to him. In this way, it can be prevented that the driver is unnecessarily warned.
  • the current viewing area is preferably determined on the basis of environmental data, wherein the environmental data describe objects in the environment which were detected by respective environmental sensors of detection vehicles in a respective detection area of the environmental sensors of the detection vehicles.
  • environmental data or sensor data that was previously provided by environmental sensors of detection vehicles are therefore used.
  • the detection vehicles may in particular be commercially available vehicles, in particular passenger cars, which are equipped with environmental sensors.
  • the environmental sensors may be, for example, cameras, radar sensors, lidar sensors and / or laser scanners. In particular, the environmental sensors are imaging sensors. To determine the environmental data, the sensor data of the
  • Environment sensors of the detection vehicles are used, for example, were recorded continuously during the movement of the detection vehicles and stored.
  • the environmental data may include position information describing at what position in the environment the
  • Environment data was recorded. Thus, it can be determined at which position in the environment objects with the environmental sensors could be detected and which areas in the environment were or are covered, for example, by buildings, plants or the like. Furthermore, the environmental data
  • the detection area describes the area in which objects can always be detected with the respective environmental sensor. Thus, it can be determined where in the detection area actually objects on the roadway can be detected and where the detection area is hidden. This information can then be used to determine the field of view.
  • the respective detection ranges can be converted to standardized viewing ranges for vehicles. This makes it possible to estimate the driver's current field of vision in advance on the basis of the environment data.
  • the environmental data describes as the objects other road users on a roadway, static objects on the roadway, buildings and / or infrastructures. For example, as the objects other road users can be detected, which are on lanes in the
  • Such a static object can be a parked vehicle, especially in parked
  • Trucks be. Since it is provided in particular that the environment data are determined continuously, it can be determined whether the static object was only present on the roadway for a certain period of time. It can also be provided that buildings or houses are detected as objects. As the objects also infrastructure facilities, such as walls, crash barriers, traffic lights or the like can be detected. As the objects also plants, slopes or the like can be detected. Thus, the objects can also be detected directly those objects that represent a visual obstacle. This also provides information about these obstructions, which are otherwise not available in digital maps. Thus, accurate information about the environment can be provided.
  • Detection vehicles are also recorded position information that describe at which position the environment data was recorded. If now the current field of vision of the driver is to be determined, first the position of the vehicle can be determined. Thereafter, those environmental data may be determined which have been recorded at exactly this position or at a position a predetermined minimum distance to the current position with the detection vehicles. This environment data describes detected objects in the
  • Detection range of the environmental sensor or the imaging sensor Based on the detection range can be deduced on the field of view of the driver.
  • the current field of vision of the driver can be determined in a simple and reliable manner.
  • a position of the source of danger is determined, and to determine the current field of view it is checked whether the position of the source of danger in the detection area of the environmental sensor of the
  • Detection vehicle with which the environmental data in the range of the current position of the vehicle have been determined.
  • the environmental data for the current position of the vehicle describe the area of the environment that could be detected with the environmental sensor at the current position of the vehicle.
  • the position of the source of danger is also determined, it can be checked whether the position of the source of danger was in the detection area of the environment sensor of the detection vehicle. Based on the conversion between the
  • Detecting vehicle to the driver's field of vision can be determined whether the source of danger can be seen by the driver or not. Thus, the danger message can be issued to the driver targeted.
  • for predetermined possible positions of the source of danger on the basis of the environmental data is a respective distance to a
  • predetermined possible position is arranged in the field of view.
  • the method can be used in particular for intersections or intersections, on the basis of which environmental data it is determined from which distance to a reference point of the intersection the source of danger, which is located at a predetermined position, can be seen by the driver.
  • the reference point of the crossing may be, for example, a crossing center point.
  • the respective distance can be determined for a predetermined number of possible positions of the source of danger.
  • These possible positions can then be compared with the current position of the source of danger and the distance corresponding to the possible position can be determined. Subsequently, the actual distance of the vehicle to the reference point can be determined.
  • the distances between curves can be determined.
  • the environment data is stored on a vehicle-external computing device and the current field of view is determined by the vehicle-external computing device.
  • a cloud-based approach is chosen in particular.
  • an online database can be provided, on which environmental data, which are determined by the detection vehicles, are continuously stored.
  • environmental data By collecting environmental data from many detection vehicles, one-off effects can be eliminated. For example, it can be detected whether the objects described by the environment data are static objects or dynamic objects. For example, a distinction can be made as to whether the objects described by the environmental data are buildings, infrastructures or plants.
  • the objects described by the environmental data are buildings, infrastructures or plants.
  • Computing device is transmitted to the vehicle or that a control signal from the vehicle-external computing device is transmitted to another vehicle and the warning signal is transmitted from the other vehicle in response to the control signal to the vehicle.
  • the warning signal can be transmitted directly from the vehicle-external computing device to the vehicle.
  • the warning signal can be transmitted to the vehicle via vehicle-to-infrastructure communication from the vehicle-external computing device.
  • the warning signal can describe whether the source of danger is located inside or outside the field of vision of the driver.
  • a control signal can be transmitted to another vehicle by the vehicle-external computing device.
  • the vehicle can be warned in principle about vehicle-to-vehicle communication from the source of danger.
  • the further vehicle may first receive a control signal from the computing device, which describes whether the source of danger is located inside or outside the field of vision of the driver.
  • a computing device can be arranged outside the vehicle and is designed for carrying out a method according to the invention and the advantageous embodiments thereof.
  • the computing device can have a transmitting and receiving unit, by means of which it can receive the environmental data from the detection vehicles.
  • the computing device can have a memory unit on which the received environment data can be stored. Furthermore, with the transmitting and receiving unit, the warning signal and / or the control signal
  • the computing device can be assigned to a specific road area that includes at least one intersection and / or curve.
  • a detection vehicle comprises an environment sensor for providing environmental data describing further objects in an environment of the detection vehicle in a detection area of the environment sensor.
  • the vehicle comprises a transmitting device for transmitting the
  • the detection vehicle is used to record the environment data and make the computing device available.
  • the detection vehicle is
  • imaging sensors is equipped in particular with imaging sensors.
  • Another independent aspect of the invention relates to a system with a
  • a warning signal from the computing device can be transmitted to the vehicle and the driver of the vehicle can be warned based on the warning signal.
  • the warning signal can be determined with the computing device based on the environmental data.
  • Fig. 1 detection vehicles, with the environmental sensors environment data are provided and transmitted to a vehicle-external computing device;
  • Fig. 2 shows a vehicle which depends on a current field of view of a
  • FIG. 1 shows a vehicle-external computing device 1, which is arranged at an intersection 2 or intersection. At the intersection 2, a first lane 3 and a second lane 4 intersect. On the first lane 3 is a first detection vehicle 5 and on the second lane 4 is a second detection vehicle 6.
  • the detection vehicles 5, 6 are passenger cars, which in the present case to move to the junction 2. The respective direction of movement of the detection vehicles 5, 6 is illustrated by the arrows 7.
  • Environmental sensors 8 of the detection vehicles 5, 6 detects an environment 9. With the respective environmental sensors 8 objects 10 in the environment 9 can be detected. As objects further road users 11 can be recognized, which are located on the lanes. In the present case, another road user 11 can be detected in the form of a passenger car. In addition, stationary objects 13 on the lanes 3, 4 can be recognized as object 10. In the example, there is a stationary object 13 on the first lane 3. The stationary object 13 may be, for example, a parked lorry. Furthermore, as objects 10, buildings 12 or other infrastructure facilities located outside the carriageways 3, 4 can be detected.
  • the current position can be based on a
  • the satellite-based positioning system It can thus be determined at which position which objects 10 in the surroundings 9 can be detected or which objects 10 are located in the respective detection area of the environmental sensors 8.
  • the detected objects 10 can be provided together with the position information as environmental data from a respective transmitting device 13 of the detection vehicles 5, 6 are transmitted to a transmitting and receiving unit 14 of the vehicle-external computing device 1.
  • the environment data can then be stored on a memory unit 15 of the computing device 1.
  • the computing device 1 determines, for respective positions on the lanes 3, 4, which areas of the lanes 3, 4 lie in a field of vision of a driver who is at the respective position.
  • the respective viewing areas can be determined on the basis of the detection areas of the environmental sensors 8 and of a corresponding computer model. For example, by means of the computing device 1 on the basis of the environmental data, which further
  • Positions objects on the lanes 3, 4 can be detected. Furthermore, on the basis of the environmental data, which the buildings 12 or infrastructure facilities, such as plants, embankments or the like, the possible obstructions can be detected directly. In particular, it is provided that the environmental data are determined continuously. Thus, it can be recognized on the basis of the environmental data, for example, that the stationary object 13 was present on the first lane 3 only a certain period of time.
  • the respective environment data or the viewing areas determined therefrom can be provided to a vehicle 17 in the manner of a cloud-based approach. This is illustrated with reference to FIG. 2.
  • Fig. 2 shows the intersection 2 of FIG. 1 at a later time. In this case, the vehicle 17 is located on the second lane 4. The vehicle 17 is moved in the forward direction to the junction 2. The vehicle 17 should be warned of a danger source 18.
  • danger source 18 is formed by a vehicle 19, which also moves in the direction of intersection 2. Based on the environmental data stored in the computing device 1, it can now be determined whether the
  • Hazard source 18 is located in the field of view of a driver of the vehicle 17.
  • the source of danger 18 is located in a field of view 20 of the driver of the vehicle 17.
  • a distance 21 to a reference point 22 of FIG. 1 For determining the driver 's field of vision 20, for possible positions of the source of danger 18, a distance 21 to a reference point 22 of FIG.
  • Crossing 2 can be determined.
  • the reference point 22 describes a present case
  • the distance 21 describes for the current position 23 of the danger source 18, the distance from which the danger source 18 for the driver of the vehicle 17 can be seen.
  • a warning signal is transmitted to the vehicle 17.
  • the warning signal is transmitted to a communication device 24 of the vehicle 17.
  • an output device 25 which may be formed for example by a screen, then a warning to the driver
  • the warning signal can in particular describe whether the source of danger is located inside or outside the field of view 20. Depending on this, the warning issued to the driver can then be adjusted. In the present case, the danger source 18 in the form of the vehicle 19 is located in the field of vision 20 of the driver. Therefore, no warning is issued to the driver. It can also be provided that a warning is output with a warning level which is lower than if the danger source 18 were outside the field of view 20.
  • the warning signal can, for example, directly from the computing device 1 to the
  • Vehicle 17 are transmitted. It can also be provided that the warning signal from the vehicle 19 via vehicle-to-vehicle communication to the vehicle 17 is transmitted.
  • the vehicle 19 may receive a control signal from the computing device 1, which describes whether the source of danger is located inside or outside the field of view 20. Depending on this, then the warning signal that is transmitted from the vehicle 19 to the vehicle 17 can be adjusted.
  • the warnings can be displayed more targeted, in particular, the dangers can only be displayed if they are not in the field of view 20 of the driver.

Abstract

Die Erfindung betrifft ein Verfahren zum Warnen eines Fahrers eines Fahrzeugs (17), bei welchem ein Warnsignal an das Fahrzeug (17) übertragen wird, wobei das Warnsignal eine Gefahrenquelle (18) in einer Umgebung (9) des Fahrzeugs (17) beschreibt, und die Warnung an den Fahrer in Abhängigkeit von dem Warnsignal ausgegeben wird, wobei überprüft wird, ob sich die Gefahrenquelle (18) innerhalb oder außerhalb eines aktuellen Sichtbereichs (20) des Fahrers befindet und die Warnung in Abhängigkeit davon ausgegeben wird, ob sich die Gefahrenquelle (18) außerhalb des aktuellen Sichtbereichs (20) befindet.

Description

Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs unter Berücksichtigung eines aktuellen Sichtbereichs des Fahrers, Recheneinrichtung sowie Erfassungsfahrzeug
Die vorliegende Erfindung betrifft ein Verfahren zum Warnen eines Fahrers eines
Fahrzeugs, bei welchem ein Warnsignal an das Fahrzeug übertragen wird, wobei das Warnsignal eine Gefahrenquelle in einer Umgebung des Fahrzeugs beschreibt, und die Warnung an den Fahrer in Abhängigkeit von dem Warnsignal ausgegeben wird. Darüber hinaus betrifft die vorliegende Erfindung eine fahrzeugexterne Recheneinrichtung.
Schließlich betrifft die Erfindung ein Erfassungsfahrzeug.
Verfahren zum Warnen eines Fahrers eines Fahrzeugs vor einer Gefahr sind aus dem Stand der Technik bekannt. Beispielsweise können in Systemen mit Fahrzeug-zuFahrzeug-Kommunikation (Car-to-Car-Communication) Fahrer vor Gefahren gewarnt werden, welches sie unter Umständen noch gar nicht sehen können, weil sie durch Objekte in der Umgebung des Kraftfahrzeugs, wie beispielsweise Gebäude, Böschungen, Pflanzen oder dergleichen, verdeckt werden.
Ob eine Gefahrenquelle verdeckt ist, kann jedoch nur schwer bestimmt werden, da zum Beispiel die Bebauung nicht oder nur in unzureichender Qualität in digitalen
Straßenkarten hinterlegt ist. Es kann auch der Fall sein, dass die Gefahrenquelle durch Bäume, Böschungen oder geparkte Fahrzeuge verdeckt ist, welche in einer digitalen Landkarte nicht eingetragen sind. Wenn keine Verdeckung vorliegt, können allerdings Warnung vor Gefahren von dem Fahrer als überflüssig oder störend eingeschätzt werden, da er die Gefahrenquelle bereits selbst sehen kann. Auf Grundlage von digitalen Landkarten können beispielsweise Straßenverläufe und Kurvenradien bestimmt werden. Durch die Auswertung der Kurvenradien kann heuristisch eingeschätzt werden, ob eine Gefahrenquelle in dem Sichtbereich des Fahrers liegt. Auf einer Serpentinenstraße, welche 180°-Kurven aufweist, ist es zum Beispiel unwahrscheinlich, dass man
Gefahrenquellen in einer anderen Höhenlage bereits vor der Kurve sehen kann. Bei anderen Kurven ist eine derartige Einordnung allerdings nur schwierig möglich. Ferner ist es aus dem Stand der Technik bekannt, Umgebungssensoren beziehungsweise bildgebende Sensoren zu verwenden, um Objekte in der Umgebung des Fahrzeugs zu erkennen. Dabei ist die Erkennungsleistung von den
Umgebungssensoren allerdings nicht ausreichend, um Gefahrenquellen den mit den Umgebungssensoren erkannten Objekten zuzuordnen. Wenn beispielsweise in einer Kurve ein Fahrzeug verunfallt, welches durch die Fahrzeug-zu-Fahrzeug-Kommunikation erfasst werden kann, kann ein bildgebender Sensor heute noch nicht unterscheiden, ob es sich um ein verunfalltes Fahrzeug oder ein statisches Objekt handelt.
In diesem Zusammenhang beschreibt die EP 2 487 665 A1 ein Verfahren zur
sichtverbindungsunabhängigen Datenübertragung. Dabei wird elektromagnetische Strahlung in der Daten kodiert sind, durch einen Sender, welcher in einem Fahrzeug oder in einem Verkehrsinfrastrukturobjekt vorliegt, ausgesendet. Ferner wird eine
Reflektorvorrichtung zum zumindest teilweisen Reflektieren der ausgesendeten elektromagnetischen Strahlung bereitgestellt. Mit der Reflektorvorrichtung kann die ausgesendete elektromagnetische Strahlung zu einem Empfänger reflektiert werden, welcher in einem Fahrzeug oder einem Verkehrsinfrastrukturobjekt vorliegt. Somit können die Daten sichtverbindungsunabhängig übertragen werden.
Des Weiteren beschreibt die DE 10 2014 208 310 A1 ein Fahrerassistenzsystem, welches eine Anzeigeeinheit, eine Positionsermittlungseinheit, eine Empfangseinheit und eine Auswerteeinheit umfasst. Dabei ist die Empfangseinheit eingerichtet, ein erstes Bildsignal enthaltend einen aus Sicht des Fahrers von einem Umgebungsobjekt verdeckten Umgebungsbereich zu empfangen. Die Positionsermittlungseinheit ist eingerichtet, eine Kopfpose des Fahrers und/oder eine Pose der Anzeigeeinheit zu ermitteln. Ferner ist die Auswerteeinheit eingerichtet, ein zweites Bildsignal zu errechnen, welches einer virtuellen Ansicht des Fahrers auf den Umgebungsbereich entspricht. Die Anzeigeeinheit ist eingerichtet, eine teilweise transparente Darstellung des zweiten Bildsignals entsprechend der virtuellen Ansicht für den Fahrer zu erzeugen.
Ferner beschreibt US 2006/0 055 525 A1 ein Fahrunterstützungssystem für ein Fahrzeug. Dabei können virtuelle Bildinformationen bereitgestellt und auf einer Anzeigeeinrichtung dargestellt werden. Bei diesen virtuellen Bildinformationen können virtuelle Bilder von Verkehrsteilnehmer, beispielsweise Fußgängern, Motorrädern oder dergleichen, dargestellt werden. Diese virtuellen Bildinformationen dienen als Warnung für den Fahrer oder andere Insassen des Fahrzeugs.
Darüber hinaus offenbart die DE 20 2014 003 224 U1 ein Fahrerassistenzsystem zur Warnung eines Fahrers eines Fahrzeugs vor Kollisionen mit anderen
Verkehrsteilnehmern. Hierbei wird auf Basis einer erfassten Verkehrssituation ein
Wahrscheinlichkeitswert einer Sichtbarkeit anderer Verkehrsteilnehmer für den Fahrer vor der Kollision bestimmt. Abhängig von dem Wahrscheinlichkeitswert kann dann ein Zeitpunkt für die Ausgabe der Warnung ermittelt werden.
Schließlich beschreibt die DE 10 2006 057 741 A1 ein Verfahren zum Bereitstellen von sicherheitsrelevanten Informationen durch eine stationäre Datenverarbeitungseinheit für zumindest eine mobile Datenverarbeitungseinheit einer Anzahl von sich bewegenden Objekten, welche jeweils eine mobile Datenverarbeitungseinheit umfassen.
Es ist Aufgabe der vorliegenden Erfindung, eine Lösung aufzuzeigen, wie eine Warnung eines Fahrers vor einer Gefahr gezielter und zuverlässiger erfolgen kann.
Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, durch eine Recheneinrichtung sowie durch ein Erfassungsfahrzeug mit den Merkmalen gemäß den jeweiligen
unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der vorliegenden
Erfindung sind Gegenstand der abhängigen Ansprüche.
Ein erfindungsgemäßes Verfahren dient zum Warnen eines Fahrers eines Fahrzeugs, bei welchem ein Warnsignal an das Fahrzeug übertragen wird, wobei das Warnsignal eine Gefahrenquelle in einer Umgebung des Fahrzeugs beschreibt, und die Warnung an den Fahrer in Abhängigkeit von dem Warnsignal ausgegeben wird. Darüber hinaus wird überprüft, ob sich die Gefahrenquelle innerhalb oder außerhalb eines aktuellen
Sichtbereichs des Fahrers befindet und die Warnung wird in Abhängigkeit davon angepasst, ob sich die Gefahrenquelle innerhalb oder außerhalb des aktuellen
Sichtbereichs befindet. Hierbei wird eine Warnstufe, die mit der Warnung bereitgestellt wird, reduziert, falls sich die Gefahrenquelle in dem Sichtbereich befindet.
Vorliegend soll der Fahrer des Fahrzeugs vor einer möglichen Gefahrenquelle in der Umgebung des Fahrzeugs gewarnt werden. Eine solche Gefahrenquelle kann ein Objekt oder Hindernis sein, mit welchem eine Kollision droht. Zum Warnen des Fahrers wird das Warnsignal an das Fahrzeug übertragen. Insbesondere kann das Warnsignal an eine Kommunikationseinrichtung des Fahrzeugs übertragen werden. Die
Kommunikationseinrichtung kann insbesondere zur Fahrzeug-zu-Fahrzeug- Kommunikation (Car-to-Car-Communication) oder zur Fahrzeug-zu-lnfrastruktur- Kommunikation (Car-to-lnfrastructure-Communication) ausgebildet sein. Falls das Warnsignal mit der Kommunikationseinrichtung des Fahrzeugs empfangen wird, kann eine Warnung an den Fahrer ausgegeben werden. Diese Warnung kann mithilfe einer Ausgabeeinrichtung in dem Fahrzeuginnenraum an den Fahrer des Fahrzeugs ausgegeben werden. Die Warnung kann beispielsweise optisch, akustisch und/oder haptisch ausgegeben werden. Infolge der Warnung kann dann der Fahrer das Fahrzeug so steuern, dass eine Kollision zwischen dem Fahrzeug und der Gefahrenquelle verhindert wird.
Gemäß einem wesentlichen Aspekt der vorliegenden Erfindung ist es vorgesehen, dass überprüft wird, ob sich die Gefahrenquelle innerhalb oder außerhalb eines aktuellen Sichtbereichs des Fahrers befindet. Hierzu wird der aktuelle Sichtbereich des Fahrers bestimmt. Der Sichtbereich des Fahrers beschreibt den Bereich in der Umgebung des Fahrzeugs, in welchem die Gefahrenquellen von dem Fahrer optisch wahrgenommen werden können. Insbesondere kann bestimmt werden, ob sich die Gefahrenquelle in einer Sichtachse des Fahrers befindet. Dabei kann das Warnsignal insbesondere beschreiben, ob sich die Gefahrenquelle innerhalb oder außerhalb des Sichtbereichs befindet. Die Ausgabe der Warnung kann in Abhängigkeit davon erfolgen, ob die
Gefahrenquelle in dem Sichtbereich liegt oder nicht. Beispielsweise kann die Warnung an den Fahrer in üblicher Weise ausgegeben werden, falls sich die Gefahrenquelle außerhalb des aktuellen Sichtbereichs des Fahrers befindet beziehungsweise falls sich die Gefahrenquelle in einer Nicht-Sichtachse des Fahrers befindet. Mit anderen Worten kann die Warnung nur dann an den Fahrer ausgegeben werden, falls dieser die
Gefahrenquelle nicht sehen kann. Falls die Gefahrenquelle in dem Sichtbereich des Fahrers liegt, kann die Warnung nicht ausgegeben werden. Es kann auch vorgesehen sein, dass die Warnung angepasst wird, falls sich die Gefahrenquelle innerhalb des Sichtbereichs befindet. Hierzu wird die Warnstufe, die mit der Warnung bereitgestellt wird, reduziert, falls sich die Gefahrenquelle in dem Sichtbereich befindet. Die Warnung kann also unkritischer ausfallen, wenn der Fahrer die Gefahrenquelle selbst sehen kann. Beispielsweise kann ein weniger dringlicher Warnton oder eine zurückhaltendere Grafik bei der Ausgabe der Warnung vorgesehen sein. Dabei kann auch berücksichtigt werden, ob die Gefahrenquelle mit Umgebungssensoren des Fahrzeugs erfasst werden kann. Damit können Warnungen gezielter ausgeben werden. Dies bedeutet, dass der Fahrer nur dann gewarnt wird, falls die Gefahrenquelle für ihn noch nicht sichtbar ist. Auf diese Weise kann verhindert werden, dass der Fahrer unnötigerweise gewarnt wird.
Bevorzugt wird der aktuelle Sichtbereich anhand von Umgebungsdaten bestimmt, wobei die Umgebungsdaten Objekte in der Umgebung beschreiben, welche mit jeweiligen Umgebungssensoren von Erfassungsfahrzeugen in einem jeweiligen Erfassungsbereich der Umgebungssensoren der Erfassungsfahrzeuge erfasst wurden. Zur Bestimmung des aktuellen Sichtbereiches des Fahrers werden also Umgebungsdaten beziehungsweise Sensordaten verwendet, die zuvor von Umgebungssensoren von Erfassungsfahrzeugen bereitgestellt wurden. Bei den Erfassungsfahrzeugen kann es sich insbesondere um handelsübliche Fahrzeuge, insbesondere Personenkraftwagen, handeln, welche mit Umgebungssensoren ausgestattet sind. Bei den Umgebungssensoren kann es sich beispielsweise um Kameras, Radarsensoren, Lidar-Sensoren und/oder Laserscanner handeln. Insbesondere handelt es sich bei den Umgebungssensoren um bildgebende Sensoren. Zum Bestimmen der Umgebungsdaten können die Sensordaten der
Umgebungssensoren der Erfassungsfahrzeuge genutzt werden, die beispielsweise fortlaufend während der Bewegung der Erfassungsfahrzeuge aufgezeichnet wurden und gespeichert wurden. Zudem können die Umgebungsdaten eine Positionsinformation beinhalten, welche beschreibt, an welcher Position in der Umgebung die
Umgebungsdaten aufgenommen wurden. Somit kann bestimmt werden, an welcher Position in der Umgebung Objekte mit den Umgebungssensoren erfasst werden konnten und welche Bereiche in der Umgebung beispielsweise durch Gebäude, Pflanzen oder dergleichen verdeckt waren oder sind. Ferner können die Umgebungsdaten
Informationen zu dem Erfassungsbereich des jeweiligen Umgebungssensors beinhalten. Der Erfassungsbereich beschreibt denjenigen Bereich, in welchem mit dem jeweiligen Umgebungssensor grundsätzlich Objekte erfasst werden können. Somit kann bestimmt werden, wo in dem Erfassungsbereich tatsächlich Objekte auf der Fahrbahn erfasst werden können und wo der Erfassungsbereich verdeckt ist. Diese Informationen können dann dazu verwendet werden, den Sichtbereich zu bestimmen. Insbesondere können die jeweiligen Erfassungsbereiche auf standardisierte Sichtbereiche für Fahrzeuge umgerechnet werden. Dies ermöglicht es, den aktuellen Sichtbereich des Fahrers bereits im Vorfeld auf Grundlage der Umgebungsdaten abzuschätzen. In einer weiteren Ausführungsform beschreiben die Umgebungsdaten als die Objekte weitere Verkehrsteilnehmer auf einer Fahrbahn, statische Objekte auf der Fahrbahn, Gebäude und/oder Infrastruktureinrichtungen. Beispielsweise können als die Objekte weitere Verkehrsteilnehmer erfasst werden, welche sich auf Fahrbahnen in dem
Erfassungsbereich der jeweiligen Umgebungssensoren der Erfassungsfahrzeuge bewegt haben. Hierbei kann es insbesondere vorgesehen sein, dass Trajektorien
beziehungsweise Bewegungsbahnen der Verkehrsteilnehmer aufgezeichnet werden. Auf diese Weise kann bestimmt werden, auf weichen Bereichen der Fahrbahnen Objekte oder weitere Verkehrsteilnehmer erkannt werden können. Als Objekte können auch statische Objekte, die sich auf einer Fahrbahn befinden, erfasst werden. Ein solches statisches Objekt kann ein geparktes Fahrzeug, insbesondere in geparkter
Lastkraftwagen, sein. Da es insbesondere vorgesehen ist, dass die Umgebungsdaten fortlaufend bestimmt werden, kann ermittelt werden, ob das statische Objekt nur für eine bestimmte Zeitdauer auf der Fahrbahn vorhanden war. Es kann auch vorgesehen sein, dass als Objekte Gebäude oder Häuser erfasst werden. Als die Objekte können auch Infrastruktureinrichtungen, wie Wände, Leitplanken, Ampelanlagen oder dergleichen erfasst werden. Als die Objekte können auch Pflanzen, Böschungen oder dergleichen erfasst werden. Als die Objekte können also auch direkt diejenigen Objekte erfasst werden, welche ein Sichthindernis darstellen. Damit liegen auch Informationen über diese Sichthindernisse vor, die ansonsten in digitalen Landkarten nicht vorhanden sind. Somit können präzise Informationen über die Umgebung bereitgestellt werden.
Weiterhin ist es vorteilhaft, wenn eine aktuelle Position des Fahrzeugs bestimmt wird und zum Bestimmen des aktuellen Sichtbereichs diejenigen Umgebungsdaten verwendet werden, welche in einem Bereich der aktuellen Position des Fahrzeugs bestimmt wurden. Wie bereits erläutert, können beim Aufzeichnen der Umgebungsdaten mit den
Erfassungsfahrzeugen zudem Positionsinformationen aufgezeichnet werden, welche beschreiben, an welcher Position die Umgebungsdaten aufgezeichnet wurden. Wenn nun der aktuelle Sichtbereich des Fahrers bestimmt werden soll, kann zunächst die Position des Fahrzeugs bestimmt werden. Danach können diejenigen Umgebungsdaten bestimmt werden, welche an genau dieser Position oder an einer Position einen vorbestimmten Mindestabstand zu der aktuellen Position mit den Erfassungsfahrzeugen aufgenommen wurden. Diese Umgebungsdaten beschreiben erkannte Objekte in dem
Erfassungsbereich des Umgebungssensors beziehungsweise des bildgebenden Sensors. Auf Grundlage des Erfassungsbereichs kann auf den Sichtbereich des Fahrers rückgeschlossen werden. Somit kann der aktuelle Sichtbereich des Fahrers auf einfache und zuverlässige Weise bestimmt werden.
Gemäß einer weiteren Ausgestaltung wird eine Position der Gefahrenquelle bestimmt und zum Bestimmen des aktuellen Sichtbereichs wird überprüft, ob sich die Position der Gefahrenquelle in dem Erfassungsbereich des Umgebungssensors des
Erfassungsfahrzeugs befindet, mit welchem die Umgebungsdaten in dem Bereich der aktuellen Position des Fahrzeugs bestimmt wurden. Die Umgebungsdaten für die aktuelle Position des Fahrzeugs beschreiben den Bereich von der Umgebung, der mit dem Umgebungssensor an der aktuellen Position des Fahrzeugs erfasst werden konnte.
Wenn nun auch die Position der Gefahrenquelle bestimmt wird, kann überprüft werden, ob die Position der Gefahrenquelle in dem Erfassungsbereich des Umgebungssensors des Erfassungsfahrzeugs war. Auf Grundlage der Umrechnung zwischen dem
Erfassungsbereich der damaligen Messung mit dem Umgebungssensor des
Erfassungsfahrzeugs zu dem Sichtbereich des Fahrers kann bestimmt werden, ob die Gefahrenquelle von dem Fahrer gesehen werden kann oder nicht. Somit kann die Gefahrenmeldung an den Fahrer gezielt ausgegeben werden.
Gemäß einer weiteren Ausgestaltung wird für vorbestimmte mögliche Positionen der Gefahrenquelle anhand der Umgebungsdaten ein jeweiliger Abstand zu einem
Bezugspunkt einer Kreuzung und/oder einer Kurve bestimmt, ab welchem die
vorbestimmte mögliche Position in dem Sichtbereich angeordnet ist. Das Verfahren kann insbesondere für Kreuzungen beziehungsweise Straßenkreuzungen verwendet werden, bei denen auf Grundlage der Umgebungsdaten ermittelt wird, ab welchem Abstand zu einem Bezugspunkt der Kreuzung die Gefahrenquelle, die sich an einer vorbestimmten Position befindet, von dem Fahrer gesehen werden kann. Bei dem Bezugspunkt der Kreuzung kann es sich beispielsweise um einen Kreuzungsmittelpunkt handeln. Somit kann an Kreuzungen bestimmt werden, an welchen Distanzen zum Kreuzungsmittelpunkt kreuzende Fahrzeuge erkannt werden können. Der jeweilige Abstand kann für eine vorbestimmte Anzahl von möglichen Positionen der Gefahrenquelle bestimmt werden. Diese möglichen Positionen können dann mit der aktuellen Position der Gefahrenquelle verglichen werden und der zu der möglichen Position korrespondierende Abstand bestimmt werden. Anschließend daran kann der aktuelle Abstand des Fahrzeugs zu dem Bezugspunkt bestimmt werden. Somit kann auf einfache und zuverlässige Weise ermittelt werden, ob der Fahrer des Kraftfahrzeugs die Gefahrenquelle sehen kann oder nicht. In gleicher Weise können jeweilige Abstände bei Kurven bestimmt werden.
Gemäß einer weiteren Ausführungsform werden die Umgebungsdaten auf einer fahrzeugexternen Recheneinrichtung gespeichert und der aktuelle Sichtbereich wird mit der fahrzeugexternen Recheneinrichtung bestimmt. Vorliegend wird also insbesondere ein Cloud-basierter Ansatz gewählt. Durch die fahrzeugexterne Recheneinrichtung kann eine Online-Datenbank bereitgestellt werden, auf der fortlaufend Umgebungsdaten, die mit den Erfassungsfahrzeugen bestimmt werden, gespeichert werden. Durch die Sammlung der Umgebungsdaten von vielen Erfassungsfahrzeugen können einmalige Effekte eliminiert werden. Beispielsweise kann erkannt werden, ob es sich bei den Objekten, die durch die Umgebungsdaten beschrieben werden, um statische Objekte oder um dynamische Objekte handelt. Beispielsweise kann unterschieden werden, ob es sich bei den Objekten, die durch die Umgebungsdaten beschrieben sind, um Gebäude, Infrastruktureinrichtungen oder Pflanzen handelt. Hierbei kann auch der
Aufnahmezeitpunkt der Umgebungsdaten berücksichtigt werden. Dabei kann
beispielsweise berücksichtigt werden, dass Bäume oder andere Pflanzen Blätter tragen und somit die Sicht beschränken können. Im Winter sind diese Blätter beispielsweise nicht vorhanden und die Sicht wird ermöglicht. Somit kann in Abhängigkeit von der Jahreszeit bestimmt werden, ob eine Gefahrenquelle von dem Fahrer optisch
wahrgenommen werden kann oder nicht. Es kann auch unterschieden werden, ob ein Objekt nur für eine vorbestimmte zeitliche Dauer vorhanden ist. Somit kann
beispielsweise erkannt werden, dass es sich bei einem Objekt um einen parkenden Lastkraftwagen handelt, der nur für eine vorbestimmte zeitliche Dauer auf der Fahrbahn abgestellt wurde. Dies ermöglicht eine zuverlässige Bestimmung des aktuellen
Sichtbereichs des Fahrers.
Weiterhin ist es vorteilhaft, wenn das Warnsignal von der fahrzeugexternen
Recheneinrichtung an das Fahrzeug übertragen wird oder dass ein Steuersignal von der fahrzeugexternen Recheneinrichtung an ein weiteres Fahrzeug übertragen wird und das Warnsignal von dem weiteren Fahrzeug in Abhängigkeit von dem Steuersignal an das Fahrzeug übertragen wird. Das Warnsignal kann direkt von der fahrzeugexternen Recheneinrichtung an das Fahrzeug übertragen werden. Beispielsweise kann das Warnsignal über Fahrzeug-zu-lnfrastruktur-Kommunikation von der fahrzeugexternen Recheneinrichtung an das Fahrzeug übertragen werden. In diesem Fall kann mit der fahrzeugexternen Recheneinrichtung bestimmt werden, ob die Gefahrenquelle in dem aktuellen Sichtbereich des Fahrers ist. Dabei kann das Warnsignal beschreiben, ob sich die Gefahrenquelle innerhalb oder außerhalb des Sichtbereichs des Fahrers befindet.. Alternativ dazu kann von der fahrzeugexternen Recheneinrichtung ein Steuersignal an ein weiteres Fahrzeug übertragen werden. Mit diesem weiteren Fahrzeug kann das Fahrzeug grundsätzlich über Fahrzeug-zu-Fahrzeug-Kommunikation vor der Gefahrenquelle gewarnt werden. Hier kann das weitere Fahrzeug zunächst ein Steuersignal von der Recheneinrichtung empfangen, welches beschreibt, ob sich die Gefahrenquelle innerhalb oder außerhalb des Sichtbereichs des Fahrers befindet.
Eine erfindungsgemäße Recheneinrichtung ist fahrzeugextern anordenbar und ist zum Durchführen eines erfindungsgemäßen Verfahrens und der vorteilhaften Ausgestaltungen davon ausgelegt. Die Recheneinrichtung kann eine Sende- und Empfangseinheit aufweisen, mittels welcher es die Umgebungsdaten von den Erfassungsfahrzeugen empfangen kann. Zudem kann die Recheneinrichtung eine Speichereinheit aufweisen, auf der die empfangenen Umgebungsdaten abgelegt werden können. Ferner können mit der Sende- und Empfangseinheit das Warnsignal und/oder das Steuersignal
ausgesendet werden. Die Recheneinrichtung kann beispielsweise einen bestimmten Straßenbereich, der zumindest einen Kreuzung und/oder Kurve umfasst, zugeordnet sein.
Ein erfindungsgemäßes Erfassungsfahrzeug umfasst einen Umgebungssensor zum Bereitstellen von Umgebungsdaten, welche weitere Objekte in einer Umgebung des Erfassungsfahrzeugs in einem Erfassungsbereich des Umgebungssensors beschreiben. Zudem umfasst das Fahrzeug eine Sendeeinrichtung zum Übertragen der
Umgebungsdaten an eine fahrzeugexterne Recheneinrichtung gemäß der vorliegenden Erfindung. Das Erfassungsfahrzeug dient dazu, die Umgebungsdaten aufzuzeichnen und der Recheneinrichtung zur Verfügung zu stellen. Das Erfassungsfahrzeug ist
insbesondere ein Personenkraftwagen, welcher mit Umgebungssensoren und
insbesondere mit bildgebenden Sensoren ausgestattet ist.
Ein weiterer unabhängiger Aspekt der Erfindung betrifft ein System mit einer
erfindungsgemäßen Recheneinrichtung und einem Fahrzeug. Dabei kann ein Warnsignal von der Recheneinrichtung zu dem Fahrzeug übertragen werden und der Fahrer des Fahrzeugs anhand des Warnsignals gewarnt werden. Das Warnsignal kann mit der Recheneinrichtung auf Grundlage der Umgebungsdaten bestimmt werden. Weitere Vorteile, Merkmale und Einzelheiten der Erfindung ergeben sich aus der nachfolgenden Beschreibung eines bevorzugten Ausführungsbeispiels sowie anhand der Zeichnung. Die vorstehend in der Beschreibung genannten Merkmale und
Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung genannten und/oder in den Figuren alleine gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen
Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.
Die Erfindung wird nun anhand von bevorzugten Ausführungsbeispielen sowie unter Bezugnahme auf die beigefügte Zeichnung näher erläutert.
Dabei zeigen:
Fig. 1 Erfassungsfahrzeuge, mit deren Umgebungssensoren Umgebungsdaten bereitgestellt werden und an eine fahrzeugexterne Recheneinrichtung übertragen werden; und
Fig. 2 ein Fahrzeug, welches abhängig von einem aktuellen Sichtbereich eines
Fahrers des Fahrzeugs vor einer Gefahrenquelle gewarnt wird.
In den Figuren werden gleiche und funktionsgleiche Elemente mit den gleichen
Bezugszeichen versehen.
Fig. 1 zeigt eine fahrzeugexterne Recheneinrichtung 1 , welche an einer Kreuzung 2 beziehungsweise Straßenkreuzung angeordnet ist. An der Kreuzung 2 kreuzen sich eine erste Fahrbahn 3 und eine zweite Fahrbahn 4. Auf der ersten Fahrbahn 3 befindet sich ein erstes Erfassungsfahrzeug 5 und auf der zweiten Fahrbahn 4 befindet sich ein zweites Erfassungsfahrzeug 6. Die Erfassungsfahrzeuge 5, 6 sind Personenkraftwagen, welche sich vorliegend auf die Kreuzung 2 zu bewegen. Die jeweilige Bewegungsrichtung der Erfassungsfahrzeuge 5, 6 ist durch die Pfeile 7 veranschaulicht.
Während der Bewegung der Erfassungsfahrzeuge 5, 6 wird mit jeweiligen
Umgebungssensoren 8 der Erfassungsfahrzeuge 5, 6 eine Umgebung 9 erfasst. Mit den jeweiligen Umgebungssensoren 8 können Objekte 10 in der Umgebung 9 erfasst werden. Als Objekte können weitere Verkehrsteilnehmer 11 erkannt werden, welche sich auf den Fahrbahnen befinden. Vorliegend kann ein weiterer Verkehrsteilnehmer 11 in Form eines Personenkraftwagens erfasst werden. Zudem können als Objekt 10 stationäre Objekte 13 auf den Fahrbahnen 3, 4 erkannt werden. In dem Beispiel befindet sich ein stationäres Objekt 13 auf der ersten Fahrbahn 3. Bei dem stationären Objekt 13 kann es sich beispielsweise um einen geparkten Lastkraftwagen handeln. Des Weiteren können als Objekte 10 Gebäude 12 oder andere Infrastruktureinrichtungen, welches sich außerhalb der Fahrbahnen 3, 4 befinden, erkannt werden.
Mit den Erfassungsfahrzeugen 5, 6 kann zudem jeweils die aktuelle Position bestimmt werden. Die aktuelle Position kann beispielsweise auf Grundlage eines
satellitengestützten Positionsbestimmungssystems ermittelt werden. Somit kann bestimmt werden, an welcher Position welche Objekte 10 in der Umgebung 9 erkannt werden können beziehungsweise welche Objekte 10 in dem jeweiligen Erfassungsbereich der Umgebungssensoren 8 liegen. Die erkannten Objekte 10 können zusammen mit der Positionsinformation als Umgebungsdaten bereitgestellt werden von einer jeweiligen Sendeeinrichtung 13 der Erfassungsfahrzeuge 5, 6 an eine Sende- und Empfangseinheit 14 der fahrzeugexternen Recheneinrichtung 1 übertragen werden. Ferner können die Umgebungsdaten dann auf einer Speichereinheit 15 der Recheneinrichtung 1 gespeichert werden.
Mithilfe der Recheneinrichtung 1 kann ferner für jeweilige Positionen auf den Fahrbahnen 3, 4 bestimmt werden, welche Bereiche der Fahrbahnen 3, 4 in einem Sichtbereich eines Fahrers liegen, der sich an der jeweiligen Position befindet. Die jeweiligen Sichtbereiche können auf Grundlage der Erfassungsbereiche der Umgebungssensoren 8 und eines entsprechenden Rechenmodells bestimmt werden. Beispielsweise kann mittels der Recheneinrichtung 1 auf Grundalge der Umgebungsdaten, welche die weiteren
Verkehrsteilnehmer 1 beschreiben, bestimmt werden, ausgehend von welchen
Positionen Objekte auf den Fahrbahnen 3, 4 erkannt werden können. Ferner können anhand der Umgebungsdaten, welche die Gebäude 12 oder Infrastruktureinrichtungen, wie Pflanzen, Böschungen oder dergleichen, die möglichen Sichthindernisse direkt erkannt werden. Es ist insbesondere vorgesehen, dass die Umgebungsdaten fortlaufend bestimmt werden. Somit kann anhand der Umgebungsdaten beispielsweise erkannt werden, dass das stationäre Objekt 13 nur vor eine bestimmte Zeitdauer auf der ersten Fahrbahn 3 vorhanden war. Die jeweiligen Umgebungsdaten beziehungsweise die daraus bestimmten Sichtbereiche können nach Art eines Cloud-basierten Ansatzes einem Fahrzeug 17 zur Verfügung gestellt werden. Dies ist anhand von Fig. 2 veranschaulicht. Fig. 2 zeigt die Kreuzung 2 gemäß Fig. 1 zu einem späteren Zeitpunkt. Dabei befindet sich das Fahrzeug 17 auf der zweiten Fahrbahn 4. Das Fahrzeug 17 wird in Vorwärtsfahrtrichtung zu der Kreuzung 2 bewegt. Das Fahrzeug 17 soll vor einer Gefahrenquelle 18 gewarnt werden. Die
Gefahrenquelle 18 wird vorliegend durch ein Fahrzeug 19 gebildet, welches sich ebenfalls in Richtung der Kreuzung 2 bewegt. Auf Grundlage der Umgebungsdaten, die in der Recheneinrichtung 1 hinterlegt sind, kann nun bestimmt werden, ob sich die
Gefahrenquelle 18 in dem Sichtbereich eines Fahrers des Fahrzeugs 17 befindet.
Vorliegend befindet sich die Gefahrenquelle 18 in einem Sichtbereich 20 des Fahrers des Fahrzeugs 17. Zum Bestimmen des Sichtbereichs 20 des Fahrers kann für mögliche Positionen der Gefahrenquelle 18 ein Abstand 21 zu einem Bezugspunkt 22 der
Kreuzung 2 bestimmt werden. Der Bezugspunkt 22 beschreibt vorliegend einen
Mittelpunkt der Kreuzung 2. Der Abstand 21 beschreibt für die aktuelle Position 23 der Gefahrenquelle 18 die Entfernung, ab welcher die Gefahrenquelle 18 für den Fahrer des Fahrzeugs 17 zu erkennen ist.
Wenn die Gefahrenquelle 18 vorhanden ist, wird ein Warnsignal an das Fahrzeug 17 übertragen. Insbesondere wird das Warnsignal an eine Kommunikationseinrichtung 24 des Fahrzeugs 17 übertragen. Mit einer Ausgabeeinrichtung 25, die beispielsweise durch einen Bildschirm gebildet sein kann, kann dann eine Warnung an den Fahrer
ausgegeben werden. Das Warnsignal kann insbesondere beschreiben, ob sich die Gefahrenquelle innerhalb oder außerhalb des Sichtbereichs 20 befindet. In Abhängigkeit davon kann dann die Warnung, die an den Fahrer ausgegeben wird, angepasst werden. In dem vorliegenden Fall befindet sich die Gefahrenquelle 18 in Form des Fahrzeugs 19 in dem Sichtbereich 20 des Fahrers. Daher wird keine Warnung an den Fahrer ausgegeben. Es kann auch vorgesehen sein, dass eine Warnung mit einer Warnstufe ausgegeben wird, welcher geringer ist, als wenn die Gefahrenquelle 18 außerhalb des Sichtbereichs 20 wäre.
Das Warnsignal kann beispielsweise direkt von der Recheneinrichtung 1 an das
Fahrzeug 17 übertragen werden. Es kann auch vorgesehen sein, dass das Warnsignal von dem Fahrzeug 19 über Fahrzeug-zu-Fahrzeug-Kommunikation an das Fahrzeug 17 übertragen wird. In diesem Fall kann das Fahrzeug 19 ein Steuersignal von der Recheneinrichtung 1 empfangen, welches beschreibt, ob sich die Gefahrenquelle innerhalb oder außerhalb des Sichtbereichs 20 befindet. In Abhängigkeit davon kann dann das Warnsignal, das von dem Fahrzeug 19 an das Fahrzeug 17 übertragen wird, angepasst werden. Damit können die Warnungen gezielter angezeigt werden, insbesondere können die Gefahren nur dann angezeigt werden, falls diese nicht im Sichtbereich 20 des Fahrers sind.

Claims

Patentansprüche
1. Verfahren zum Warnen eines Fahrers eines Fahrzeugs (17), bei welchem ein
Warnsignal an das Fahrzeug (17) übertragen wird, wobei das Warnsignal eine Gefahrenquelle (18) in einer Umgebung (9) des Fahrzeugs (17) beschreibt, und eine Warnung an den Fahrer in Abhängigkeit von dem Warnsignal ausgegeben wird, wobei überprüft wird, ob sich die Gefahrenquelle (18) innerhalb oder außerhalb eines aktuellen Sichtbereichs (20) des Fahrers befindet,
dadurch gekennzeichnet, dass
die Warnung in Abhängigkeit davon angepasst wird, ob sich die Gefahrenquelle (18) innerhalb oder außerhalb des aktuellen Sichtbereichs (20) befindet, wobei eine Warnstufe, die mit der Warnung bereitgestellt wird, reduziert wird, falls sich die Gefahrenquelle (18) in dem Sichtbereich (20) befindet.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
der aktuelle Sichtbereich (20) anhand von Umgebungsdaten bestimmt wird, wobei die Umgebungsdaten Objekte (10) in der Umgebung (9) beschreiben, welche mit jeweiligen Umgebungssensoren (8) von Erfassungsfahrzeugen (5, 6) in einem jeweiligen Erfassungsbereich der Umgebungssensoren (8) der
Erfassungsfahrzeuge (5, 6) erfasst wurden.
3. Verfahren nach Anspruch 2,
dadurch gekennzeichnet, dass
die Umgebungsdaten als die Objekte (10) weitere Verkehrsteilnehmer (1 1 ) auf einer Fahrbahn (3, 4), statische Objekte (13) auf der Fahrbahn (3, 4), Gebäude (12) und/oder Infrastruktureinrichtungen beschreiben.
4. Verfahren nach Anspruch 2 oder 3,
dadurch gekennzeichnet, dass eine aktuelle Position des Fahrzeugs (17) bestimmt wird und zum Bestimmen des aktuellen Sichtbereichs (20) diejenigen Umgebungsdaten verwendet werden, welche in einem Bereich der aktuellen Position des Fahrzeugs (17) bestimmt wurden.
Verfahren nach Anspruch 4,
dadurch gekennzeichnet, dass
eine Position der Gefahrenquelle (18) bestimmt wird und zum Bestimmen des aktuellen Sichtbereichs (20) überprüft wird, ob sich die Position der Gefahrenquelle (18) in dem Erfassungsbereich des Umgebungssensors (8) des
Erfassungsfahrzeugs (5, 6) angeordnet war, mit welchem die Umgebungsdaten in dem Bereich der aktuellen Position des Fahrzeugs (17) bestimmt wurden.
Verfahren nach einem der Ansprüche 2 bis 4,
dadurch gekennzeichnet, dass
für vorbestimmte mögliche Positionen (23) der Gefahrenquelle (18) anhand der Umgebungsdaten ein jeweiliger Abstand (21 ) zu einem Bezugspunkt (22) einer Kreuzung (2) oder einer Kurve bestimmt wird, ab welchem die vorbestimmte mögliche Position (23) in dem Sichtbereich (20) angeordnet ist.
Verfahren nach einem der Ansprüche 2 bis 6,
dadurch gekennzeichnet, dass
die Umgebungsdaten auf einer fahrzeugexternen Recheneinrichtung (1 )
gespeichert werden und der aktuelle Sichtbereich (20) mit der fahrzeugexternen Recheneinrichtung (1) bestimmt wird.
Verfahren nach Anspruch 7,
dadurch gekennzeichnet, dass
das Warnsignal von der fahrzeugexternen Recheneinrichtung (1 ) an das Fahrzeug (17) übertragen wird oder dass ein Steuersignal von der fahrzeugexternen
Recheneinrichtung (1) an ein weiteres Fahrzeug (19) übertragen wird und das Warnsignal von dem weiteren Fahrzeug (19) in Abhängigkeit von dem Steuersignal an das Fahrzeug (17) übertragen wird.
9. Recheneinrichtung (1), welche fahrzeugextern anordenbar ist und welche zum Durchführen eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.
10. Erfassungsfahrzeug (5, 6) mit einem Umgebungssensor (8) zum Bereitstellen von Umgebungsdaten, welche weitere Objekte (10) in einer Umgebung (9) des
Erfassungsfahrzeugs (5, 6) in einem Erfassungsbereich des Umgebungssensors (8) beschreiben und mit einer Sendeeinrichtung (16) zum Übertragen der
Umgebungsdaten an eine fahrzeugexterne Recheneinrichtung (1) nach Anspruch 9.
PCT/EP2017/001019 2016-09-22 2017-08-28 Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug WO2018054523A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102016011414.2A DE102016011414A1 (de) 2016-09-22 2016-09-22 Verfahren zum Warnen eines Fahrers eines Kraftfahrzeugs unter Berücksichtigung eines aktuellen Sichtbereichs des Fahrers, Recheneinrichtung sowie Erfassungsfahrzeug
DE102016011414.2 2016-09-22

Publications (1)

Publication Number Publication Date
WO2018054523A1 true WO2018054523A1 (de) 2018-03-29

Family

ID=59713969

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2017/001019 WO2018054523A1 (de) 2016-09-22 2017-08-28 Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug

Country Status (2)

Country Link
DE (1) DE102016011414A1 (de)
WO (1) WO2018054523A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109094457A (zh) * 2018-07-16 2018-12-28 武汉理工大学 一种考虑驾驶员外周视野的车辆防碰撞预警系统及方法
CN111332310A (zh) * 2018-11-30 2020-06-26 采埃孚主动安全股份有限公司 通过间接信号反射来识别物体

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018213230A1 (de) 2018-08-07 2020-02-13 Volkswagen Aktiengesellschaft Verfahren und Steuervorrichtung zum Warnen eines Fahrers eines Kraftfahrzeugs sowie Kraftfahrzeug mit einer derartigen Steuervorrichtung
DE102019105739A1 (de) * 2019-03-07 2020-09-10 Daimler Ag Verfahren zum zumindest teilautomatisierten Führen eines Kraftfahrzeugs
DE102020208637A1 (de) 2020-07-09 2022-01-13 Robert Bosch Gesellschaft mit beschränkter Haftung Vorhersage von dynamischen Objekten an verdeckten Bereichen
DE102022205932A1 (de) 2022-06-10 2023-12-21 Volkswagen Aktiengesellschaft Verfahren und Warnvorrichtung für ein Fahrzeug zur Warnung eines Nutzers eines Fahrzeugs vor einer temporären Gefahrensituation in einem Fahrzeugumfeld

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060055525A1 (en) 2004-09-03 2006-03-16 Aisin Aw Co., Ltd. Driving support system and driving support module
DE102006057741A1 (de) 2006-12-07 2007-09-06 Siemens Restraint Systems Gmbh System und Verfahren zum Bereitstellen von sicherheitsrelevanten Informationen
DE102010040803A1 (de) * 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
EP2487665A1 (de) 2011-02-10 2012-08-15 Audi AG Verfahren und System zur sichtverbindungsunabhängigen Datenübertragung
FR2986647A3 (fr) * 2012-02-07 2013-08-09 Renault Sas Vehicule automobile associe a un drone d'observation
US20140019005A1 (en) * 2012-07-10 2014-01-16 Samsung Electronics Co., Ltd. Transparent display apparatus for displaying information of danger element, and method thereof
US20140297059A1 (en) * 2013-03-28 2014-10-02 Fujitsu Limited Visual confirmation evaluating apparatus and method
DE202014003224U1 (de) 2014-04-15 2015-07-20 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrerassistenzsystem zur Warnung eines Fahrers vor eineKollision mit einem anderen Verkehrsteilnehmer
DE102014208310A1 (de) 2014-05-05 2015-11-05 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem zur Darstellung einer erweiterten Realität

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060055525A1 (en) 2004-09-03 2006-03-16 Aisin Aw Co., Ltd. Driving support system and driving support module
DE102006057741A1 (de) 2006-12-07 2007-09-06 Siemens Restraint Systems Gmbh System und Verfahren zum Bereitstellen von sicherheitsrelevanten Informationen
DE102010040803A1 (de) * 2010-09-15 2012-03-15 Continental Teves Ag & Co. Ohg Visuelles Fahrerinformations- und Warnsystem für einen Fahrer eines Kraftfahrzeugs
EP2487665A1 (de) 2011-02-10 2012-08-15 Audi AG Verfahren und System zur sichtverbindungsunabhängigen Datenübertragung
FR2986647A3 (fr) * 2012-02-07 2013-08-09 Renault Sas Vehicule automobile associe a un drone d'observation
US20140019005A1 (en) * 2012-07-10 2014-01-16 Samsung Electronics Co., Ltd. Transparent display apparatus for displaying information of danger element, and method thereof
US20140297059A1 (en) * 2013-03-28 2014-10-02 Fujitsu Limited Visual confirmation evaluating apparatus and method
DE202014003224U1 (de) 2014-04-15 2015-07-20 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrerassistenzsystem zur Warnung eines Fahrers vor eineKollision mit einem anderen Verkehrsteilnehmer
DE102014208310A1 (de) 2014-05-05 2015-11-05 Bayerische Motoren Werke Aktiengesellschaft Fahrerassistenzsystem zur Darstellung einer erweiterten Realität

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
NIVEDITA SAIRAM ET AL: "Development of Mobile Mapping System for 3D Road Asset Inventory", SENSORS, vol. 16, no. 3, 12 March 2016 (2016-03-12), pages 367, XP055434811, DOI: 10.3390/s16030367 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109094457A (zh) * 2018-07-16 2018-12-28 武汉理工大学 一种考虑驾驶员外周视野的车辆防碰撞预警系统及方法
CN111332310A (zh) * 2018-11-30 2020-06-26 采埃孚主动安全股份有限公司 通过间接信号反射来识别物体

Also Published As

Publication number Publication date
DE102016011414A1 (de) 2018-03-22

Similar Documents

Publication Publication Date Title
EP2082388B1 (de) Verfahren und vorrichtung zur erkennung von verdeckten objekten im strassenverkehr
WO2018054523A1 (de) Verfahren zum warnen eines fahrers eines kraftfahrzeugs unter berücksichtigung eines aktuellen sichtbereichs des fahrers, recheneinrichtung sowie erfassungsfahrzeug
EP2617022B1 (de) Visuelles fahrerinformations- und warnsystem für einen fahrer eines kraftfahrzeugs
DE102014106890B4 (de) System zur Fahrerunterstützung
EP2620929B1 (de) Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr
DE102009043385B4 (de) Vorrichtung und Verfahren zum Optimieren einer Fahrzeugkollisions-Vorbereitungsreaktion
EP1475765A2 (de) Vorrichtung zur Bestimmung einer Durchfahrtsmöglichkeit für ein Fahrzeug
DE102011018159A1 (de) Vorrichtung und Verfahren zur Fahrerunterstützung
DE102005025387A1 (de) Verfahren und Vorrichtung zur Fahrerwahrnung bzw. zum aktiven Eingreifen in die Fahrdynamik, falls ein Verlassen der Fahrspur droht
DE102004045690A1 (de) Vorrichtung zur Bestimmung externer Schallquellen in der Umgebung eines Kraftfahrzeugs und entsprechendes Fahrerassistenzsystem
DE202014003224U1 (de) Fahrerassistenzsystem zur Warnung eines Fahrers vor eineKollision mit einem anderen Verkehrsteilnehmer
DE102018009434A1 (de) Steuerungssystem und -Verfahren für ein Kraftfahrzeug zur Verarbeitung von mehrfach reflektierten Signalen
DE102013005404A1 (de) Verfahren zur Unterstützung eines Fahrers eines Fahrzeuges
DE102019215657A1 (de) Fahrzeugsteuerungsstystem und -verfahren
DE102021111144A1 (de) Spurenbasierte fahrzeugsteuerung
DE102015103361A1 (de) Verkehrsdichte-empfindlichkeitswähler
DE19851434B4 (de) Verfahren und Vorrichtung zur Fahrerassistenz beim Abbiegen eines Kraftfahrzeuges
DE10125426A1 (de) Warnsystem und Verfahren zur Überwachung eines toten Winkels für ein Fahrzeug
DE102022003175A1 (de) Kollisionswarnsystem für Fahrzeuge
DE102012214959B4 (de) Verfahren zur Kollisionsvermeidung oder zur Verminderung von Unfallschäden und Fahrerassistenzsystem
DE102014214505A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102014214507A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102014214506A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
DE102022127433A1 (de) Kollisionswarnsystem für ein kraftfahrzeug mit einem augmented-reality-head-up-display
DE102016202088B4 (de) Verfahren zur Beeinflussung des Straßenverkehrs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17758048

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17758048

Country of ref document: EP

Kind code of ref document: A1