EP2869284B1 - Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge - Google Patents

Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge Download PDF

Info

Publication number
EP2869284B1
EP2869284B1 EP14190877.2A EP14190877A EP2869284B1 EP 2869284 B1 EP2869284 B1 EP 2869284B1 EP 14190877 A EP14190877 A EP 14190877A EP 2869284 B1 EP2869284 B1 EP 2869284B1
Authority
EP
European Patent Office
Prior art keywords
vehicle
collision
collision object
assistance system
driver assistance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP14190877.2A
Other languages
English (en)
French (fr)
Other versions
EP2869284A1 (de
Inventor
Dr. Werner Lang
Dr. Stefan Schinzer
Manuel Kunz
Michael Witzke
Johannes Nagel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mekra Lang GmbH and Co KG
Original Assignee
Mekra Lang GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mekra Lang GmbH and Co KG filed Critical Mekra Lang GmbH and Co KG
Publication of EP2869284A1 publication Critical patent/EP2869284A1/de
Application granted granted Critical
Publication of EP2869284B1 publication Critical patent/EP2869284B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present invention relates to a driver assistance system for vehicles, in particular commercial vehicles, for warning against collision objects located in the surroundings of the vehicle.
  • a (image) recording unit continuously captures an image, captured by the recording unit (Video -) data, for example, by means of a calculation unit and optionally after further processing, to a reproducing device located in the cab are supplied, which for the driver permanently and always visible the recorded area, which may contain legally required fields of view.
  • the objects located in the recorded area are displayed.
  • the DE 10 2011 010 624 A1 a display device for legally prescribed fields of view of a commercial vehicle in a cab of the commercial vehicle, which has at least one display unit which is adapted to display at least two of the legally prescribed fields permanently and in real time on the display unit in the cab.
  • the visibility in the immediate vehicle environment, especially on the vehicle sides and especially on the passenger side is critical. Obstacles, like other road users, eg. As other vehicles, pedestrians and / or cyclists and / or stationary objects such as street posts, street lights, street signs, etc., are poorly recognized, since the resolution of the representation is often insufficient, eg. B. due to the figure relatively wide angle, and a variety of information is displayed. Also, the orientation for the driver on the relatively many facilities for indirect vision difficult, so that there is a risk that especially during turning or maneuvering collision objects are overlooked, although they are shown in the device for indirect vision.
  • the receiving unit is mounted on the vehicle, in particular commercial vehicle, in such a way that a viewing area is detected which contains the so-called blind spot.
  • the disadvantage here is that parts of the playback image are obscured by the graphic overlays and thus often the exact location of the obstacle on the playback image is not clear or the orientation for the driver on the playback image is difficult, and no distinction between collision-relevant objects and such objects , which have no or only a very small probability of collision, is made.
  • current warning systems are unable to recognize obstacles that are detected from different perspectives as such because they have different representations on the playback image in different perspectives.
  • driver assistance systems for example so-called “crossing assistants”, can determine the trajectories of the detected collision objects and indicate potential collisions.
  • a method for detecting objects on the side of a commercial vehicle is known.
  • at least one camera detects objects located in a sector located on one side of a commercial vehicle.
  • the detected objects are evaluated in an evaluation unit, whereby a position of the detected objects relative to the commercial vehicle is determined and a risk of collision with the commercial vehicle is evaluated.
  • the evaluation unit transmits information to a reproduction unit, to which the reproduction unit issues a warning signal.
  • the DE 103 36 638 A1 discloses an apparatus for classifying at least one object in a vehicle environment by means of an environmental sensor system.
  • the object is classified at least on the basis of its three-dimensional shape and its dimensions.
  • the environment sensor system is configured so that it can determine the shape and the dimensions.
  • From the DE 10 2007 059 735 A1 is a stereo vision system for vehicles for detection of lateral obstacles known.
  • the system and method employ cameras in the stereo ratio with unobtrusive mounting to provide reliable detection within good range discrimination.
  • the image signal received by each camera can be conditioned before it is adjusted and compared to bumps viewed above the ground and measured against predetermined inequality criteria.
  • the DE 10 2011 116 771 A1 relates to a method for displaying image information on a display unit of a vehicle, in which an environment of the vehicle is detected with a detection device of the vehicle, and in which the vehicle environment in a first representation in a first perspective or in a second perspective as image information on the display unit is shown.
  • a change of presentation then takes place automatically when the vehicle is on a first lane which opens at an angle into a second lane and the vehicle moves in the direction of the second lane, and the detection device of the vehicle with its coverage area at least the second lane can laterally capture the lateral and front boundaries of the first lane.
  • a driver assistance system for a vehicle in particular a commercial vehicle, which issues a warning to the driver and / or intervenes in the control of the vehicle if at least one collision object emitting a risk of collision for the vehicle enters the vehicle environment is detected.
  • directional indications refer to a vehicle, in particular commercial vehicle, during normal forward travel.
  • lateral direction thus means that direction along the vertical to a forward direction of travel vector of the Motor vehicle is and corresponds to the left-right direction.
  • viewing area describes an area that can be detected by a recording unit, for example a camera, to the maximum. This is different from the concept of a "field of view", which indicates an area which has to be consulted by law by the driver. Therefore, a viewing area usually describes an area that is usually larger than a legally prescribed field of view.
  • the invention is based on the idea of providing a driver assistance system for a vehicle, in particular a commercial vehicle, which issues a warning to the driver and / or intervenes in the control of the vehicle if an obstacle or collision object presents a risk of collision for the vehicle radiates, is located in the vehicle environment. It is not or relatively slowly moving object in the immediate vicinity of the vehicle or it is a relatively fast moving object with risk of collision farther away from the vehicle.
  • the driver assistance system has a recording unit, a calculation unit and a playback unit.
  • the receiving unit has a recording device having an optical axis which is at an angle to the roadway of the vehicle.
  • the calculation unit is adapted to evaluate data received from the acquisition unit with regard to collision objects and to initiate the issuing of a warning to the driver and / or to intervene in the control of the vehicle upon detection of a collision object.
  • the calculation unit determines the presence and / or the type of a collision object for the purpose of detecting collision objects on the basis of collision object parameters selected as a function of a relative position of a collision object to the acquisition device.
  • the calculation unit determines the type of object when recognizing an object in the recording image on the basis of parameters that vary depending on the relative position of the object to the recording device. From the determined type of object and the relative position, the calculation unit can then conclude whether it is a collision object. That is to say, the detection of the at least one collision object takes place everywhere in the entire multi-perspective image depending on the respective perspective of the photograph and thus the type of image of a respective collision object by selecting the collision parameters corresponding to the relative position to the recorder.
  • a pedestrian in plan view may have a completely different outline than in a horizon or side view.
  • the mounting position of the receiving unit can be very high, for example, in a height of more than 2 m, which in the immediate vicinity of the vehicle a plan view of the collision objects is detected.
  • the collision object can be recognized as a pedestrian by selecting the recognition parameters depending on the recording position.
  • a pedestrian is dependent on the detection as such z. B. classified as a collision object when it is near the vehicle, but not classified as a collision object when it is sufficiently removed from the vehicle.
  • further features such as movement trajectories, can be used for the classification as a collision object.
  • Another example is a motorcyclist to call, for. B. is located relative to the vehicle and approaches the vehicle at a relatively fast speed.
  • the calculation unit can recognize the motorcyclist in the almost horizontal and frontal view from the captured image received by the capture unit, which in this view has a shape similar to a thick vertical bar. If the motorcyclist approaches the vehicle, his perspective, for example, can also change from the front view into a nearly side view, which in this view has the familiar shape of a motorcyclist with both wheels.
  • the calculation unit is able to determine from both perspectives the presence and type of the collision object, in this example a motorcyclist, and to classify the object as a collision object, depending on its distance from the vehicle. When detected as a motorcycle, for example, a remote motorcycle is classified as a collision object due to its possible higher speed.
  • the calculation unit is adapted to evaluate the captured images of the recording unit. It should be mentioned that the recording unit continuously captures individual snapshots of the vehicle surroundings at different times and sends these individual images to the calculation unit for image evaluation. For example, the capture unit is adapted to capture 25 frames per second. Preferably the computing unit evaluates each image received by the capturing unit with respect to the above-mentioned collision parameters.
  • the driver of the vehicle is warned of those collision objects which emit a collision risk to the vehicle, independently of the perspective detection.
  • the calculation unit takes into account in the evaluation of each of the recording unit as a plan view or as a view obliquely from above on the vehicle environment recorded images, recognizes critical and / or dangerous for the vehicle collision objects and warns the driver, for example, acoustically, visually or haptically, in front of them ,
  • the driver is preferably warned of those collision objects which are located in an area behind and / or laterally next to the vehicle, in particular in the so-called blind spot, and from which a risk of collision arises.
  • the calculation unit additionally or alternatively to the above-mentioned warning causes an intervention in the control of the vehicle when a collision object has been detected.
  • the calculation unit may provide the control of the vehicle with a signal indicating that the vehicle is to be braked or accelerated so as to prevent a collision with the collision object.
  • the calculation unit can provide the control of the vehicle with a signal which indicates that the steering angle of the vehicle is to be changed in such a way that a collision with the collision object can be avoided.
  • collision objects refer to any objects that are in the immediate, but also remote vehicle environment during a journey with a vehicle, in particular a commercial vehicle.
  • Collision objects are those objects with which the vehicle can collide and cause an accident.
  • Kollisions Fantasy-like objects, such as other road users, cyclists, motorcyclists, pedestrians, etc. are mentioned, for the most part an increased risk emanating from the vehicle and represent an increased risk to the vehicle.
  • stationary objects such as street signs, street posts, street lamps, garbage cans, advertising columns, parked vehicles or other non-moving objects besides the movable collision objects.
  • this may be advantageous in a parking or maneuvering operation, so that the driver does not inadvertently overlook one of the stationary objects and cause a collision with it.
  • the calculation unit is further adapted to determine the presence and / or the type of a collision object on the basis of stored data with respect to previously detected collision objects.
  • the calculation unit has a memory in which the parameters and features of already determined and detected collision objects are stored, for. B. the respective outlines or silhouettes of pedestrians, motorcyclists, cyclists, etc. in plan view, side view, front view. Upon re-detection of collision objects, the calculation unit may access and compare this data with the parameters and features of the newly detected collision objects to determine the presence and / or type of the collision objects.
  • the calculation unit has a learning algorithm which preferably generalizes the detected and individual examples and recognizes laws in the acquired examples, which can then be used in the future detection of collision objects.
  • the memory can be provided with prestored information, for example already known collision object parameters and features, which the calculation unit can access when determining the collision object parameters.
  • collision object parameters refer to the particular silhouette of the collision object on the captured image.
  • a head detected from above and arms or shoulders are collision object parameters for a pedestrian.
  • z For example, two thinner strokes with a human outline in between, the collision object parameters for a cyclist and two thicker strokes with a human outline in between, the collision object parameters for a motorcyclist.
  • the calculation unit is further adapted to subdivide the captured images of the recording unit into at least two image areas and to determine the presence and type of the collision object depending on in which of the at least two image areas the collision object is based on different parameters.
  • the calculation unit divides the data acquired by the recording unit into three image areas.
  • the calculation unit divides the field of view detected by the acquisition unit into at least two image areas, e.g. For example, a vehicle-proximate area and a vehicle-remote area, so that the recording unit detects a multi-perspective recording image having different angles of view of an object, depending on its relative position to the recording device of the recording unit.
  • the perspective detection or the viewing angle of a collision object in the vehicle-proximate area to the perspective detection or the viewing angle of the collision object in the vehicle-distant area is different, so that the calculation unit determines the collision object in the at least two image areas based on different parameters. For example, a pedestrian is received in the vehicle-near area from the top and therefore has a different representation on the playback picture than a pedestrian in the vehicle-distant area, which is detected from top to bottom obliquely.
  • the calculation unit is thus adapted in this embodiment to infer from the two different images of the pedestrian on the Kollisions Participart "pedestrian".
  • an on-vehicle cyclist for example, being detected from above, is displayed on the photograph as two dashes representing the wheels of the bicycle as a top view and as a body of the cyclist from above. From this representation, the calculation unit can close the collision object "cyclist".
  • the recording device of the recording unit which is for example a camera, has a lens which determines the course of the optical axis.
  • the optical axis is adjusted as desired to include a desired angle with the roadway that is in the range of about 5 ° to 90 °.
  • the optical axis intersects the road surface and does not run parallel to the roadway or to the longitudinal direction of the vehicle. Due to this course of the optical Axis, the recording device is able to capture multi-perspective images of the vehicle environment.
  • the calculation unit is further adapted to recognize from the collision object parameters whether the collision objects detected at two different times are one and the same collision object, for example a pedestrian or cyclist moving along the vehicle.
  • the calculation unit can preferably recognize these pedestrians or cyclists from the recorded images acquired by the recording unit at different points in time and thus "track" them. As soon as the trajectory of the pedestrian changes such that the collision probability exceeds a predetermined threshold therewith, the above-mentioned warning is issued to the driver or intervention is made in the vehicle control to prevent a collision with the recognized pedestrian or cyclist.
  • the calculation unit is further configured to detect at least one collision object based on the above-mentioned collision object parameters.
  • collision object parameters for example, the movement speed of the collision object, the position of the collision object relative to the vehicle, the position of the collision object relative to the recording device and / or the size of the collision object are to be mentioned.
  • the calculation unit is adapted to determine the trajectory of the vehicle and / or the trajectory of the collision object.
  • the calculation unit records the trajectory of the collision object from the data acquired by the acquisition unit and can also estimate the future trajectory of the collision object. This estimation of the trajectory is updated in the continuous acquisition and evaluation of the data acquired by the acquisition unit.
  • the calculation unit preferably determines the actual and the estimated trajectory of the vehicle that is equipped with the driver assistance system, for example from the vehicle speed, the steering movements of the vehicle, the activation state of a turn signal of the vehicle and / or the global position data (GPS). Data) of the vehicle.
  • GPS global position data
  • the calculation unit may issue the above warning and / or make the intervention in the vehicle control when the calculation unit calculates an expected collision from the determined trajectories.
  • the calculation unit can determine from the trajectories a collision probability of the vehicle with the collision object and warn the driver of the vehicle if this probability exceeds a predetermined threshold value, or change the type of warning as a function of the collision probability.
  • the driver assistance system has, in addition to the receiving unit, at least one sensor, for example a radar and / or ultrasound sensor, as a distance sensor which is mounted on the vehicle, in particular the commercial vehicle.
  • the sensor can determine a collision object in the immediate vehicle environment and send a corresponding signal to the calculation unit.
  • the calculation unit may use the data of the at least one sensor in determining the collision object parameters in addition to the acquisition images acquired by the acquisition unit. Furthermore, the calculation unit can take into account the data received from the at least one sensor in the calculation of the collision probability.
  • Other additional sensors may, for. B. be a GPS sensor for GPS data of the vehicle, whose data are also included in the determination of whether a detected object is a collision object.
  • the calculation unit issues a warning to the driver of the vehicle and / or intervenes in the vehicle control when selected collision objects, such as, for example, crashed.
  • selected collision objects such as, for example, crashed.
  • moving objects or moving at a speed greater than a certain threshold speed objects are determined.
  • the driver assistance system preferably determines how far away a detected collision object from the vehicle is. From the determined distance and taking into account the collision object speed and the vehicle speed, the calculation unit can determine the collision probability and issue a warning to the driver or intervene in the vehicle control if the calculated collision probability exceeds a predetermined value.
  • the determination of the distance of the object to the vehicle can be made either before determining whether it is a collision object or only afterwards. Collision objects with increased collision probability receive an increased priority and cause a warning to be issued as low collision probability collision objects.
  • the field of vision detected by the receiving unit contains at least part of a legally prescribed field of view.
  • the legally prescribed field of view may correspond to one of the fields of view defined in ECE Guideline R 46.
  • the receiving unit is adapted to capture at least a portion of a first legally prescribed field of view and / or part of a second legally prescribed field of view and / or part of a third legally prescribed field of view and / or part of a fourth legally prescribed field of view ,
  • the first legally prescribed field of view corresponds to field of view II according to ECE Directive R 46
  • the second legally prescribed field of view IV according to ECE Directive R 46 the third legally prescribed field of view V according to ECE Directive R 46 and the fourth legally prescribed field of view the field of view VI according to the ECE Directive R 46.
  • a first recording unit detects at least a portion of the first and / or second field of view and a second recording unit at least a portion of the third and / or fourth field of view.
  • the issuing of a warning to the driver of the vehicle preferably comprises a visual, acoustic and / or haptic indication.
  • a visual indication of the collision object is given to the reproduction image displayed on the reproduction unit, in particular via flashing of the reproduction image, coloring of the reproduction image and / or changing the reproduction quality of the reproduction image.
  • An acoustic indication may be, for example, a short tone that indicates to the driver via a loudspeaker in the vehicle that there is a collision object in the vehicle environment.
  • a haptic indication may be, for example, a vibration of the steering wheel of the vehicle, which indicates the driver to the object of collision located in the vehicle environment.
  • the recording unit which creates a recording image of the vehicle environment and provides it to the calculation unit, is connected to the calculation unit via a first connection, for example a suitable data cable for the digital or analog transmission of the acquisition images captured by the acquisition unit.
  • the calculation unit is further connected to the playback unit via a second connection, for example a suitable one Data cable for digital or analog transmission of images.
  • a first connection for example a suitable data cable for the digital or analog transmission of the acquisition images captured by the acquisition unit.
  • the calculation unit is further connected to the playback unit via a second connection, for example a suitable one Data cable for digital or analog transmission of images.
  • a second connection for example a suitable one Data cable for digital or analog transmission of images.
  • one or both of the above-mentioned connections can also be carried out wirelessly, for example via Bluetooth, WLAN or an infrared connection.
  • the playback unit is designed to display the received playback picture permanently and in real time.
  • the recording unit is also preferably designed to record recorded images permanently and in real time, and the calculation unit is designed to process these recording images also permanently and in real time.
  • Permanent means here that, for example, the representation of the playback image is not interrupted by other information (temporally), so that the driver at any time can look at the playback unit in the environment of the vehicle and be notified of relevant obstacles and collision objects.
  • permanent means also that the representation of the fields of view at least in driving operation of the commercial vehicle is continuously available.
  • condition which is to be described as “permanently” and to be encompassed by it may also optionally be based on the ignition state of the vehicle or, for example, on a state in which a driver may be in the vehicle, eg. B. depending on detecting a located in the vicinity of the vehicle or in the vehicle key device, be extended.
  • the calculation unit may be integrally implemented with the recording unit, the playback unit or the control unit of the vehicle. Furthermore, the calculation unit can be mounted as a separate unit in or on the vehicle, for. B. integral with an on-board computer.
  • the reproducing unit may be a unit suitably displaying the reproduced image provided by the calculating unit to the driver of the vehicle.
  • the playback unit may be a separate device, such as an LCD, an LED, a projector, or the like.
  • the playback unit with the so-called Central Information Display which can already be standard in the vehicle, be integral.
  • the receiving unit may preferably be a camera with a lens which may be mounted on or in the vehicle.
  • the driver assistance system disclosed herein With the driver assistance system disclosed herein, dangerous collision objects can be detected and the driver can be warned prematurely of these collision objects and, if necessary, even intervene in the vehicle control, so that the accident risk can be reduced.
  • the driver assistance system disclosed herein may preventively prevent accidents.
  • the driver assistance system is used on commercial vehicles, since in commercial vehicles, such as trucks, the direct view of other road users, such as pedestrians and cyclists who move parallel to the vehicle, is hardly possible.
  • the driver can be particularly warned of collision objects, which the driver recognizes in the devices for indirect vision, such as mirrors, but incorrectly classified as uncritical. For example, a pedestrian may initially be uncritical, but at the next moment be on a collision course with the vehicle.
  • Fig. 1 schematically shows a driver assistance system 10.
  • the driver assistance system 10 which on a commercial vehicle 50 (see Fig. 2 ), such as a truck, includes at least one image pickup unit 20, a computing unit 30, and a display unit 40 Fig. 1
  • Recording unit 20 shown has a first recording device, such as a first camera 22, and a second recording device, such as a second camera 24, which at different positions on the commercial vehicle can be attached.
  • the field of vision detected by the first camera 22 is then provided to the calculation unit 30 via a first connection 21, for example a suitable data cable for the digital transmission of the images captured by the image acquisition unit, and the field of vision detected by the second camera 24 is then transferred to the calculation unit 30 a second connection 23, for example a suitable data cable for the digital transmission of the images captured by the image acquisition unit.
  • the first and second cameras 22, 24 are highly dynamic and high-resolution cameras, each replacing a side mirror of the vehicle.
  • the driver assistance system 10 is an additional system to a camera system that replaces the side mirrors.
  • the calculation unit 30 is configured to modify the captured images to a display image in a desired manner.
  • the calculation unit 30 can evaluate the captured images of the image acquisition unit 20 and detect certain collision objects in the captured image, so that a warning is issued to the driver of the utility vehicle 50.
  • the reproduction image modified by the calculation unit 30 is then provided to the rendering unit 40 via a third connection 31, for example a suitable data cable for the digital transmission of images.
  • the reproduction unit 40 is adapted to present the reproduction image photorealistically to a driver of the utility vehicle 50 in a visible manner. In this case, the reproduction unit 40 can reproduce both the image captured by the first camera 22 and the image captured by the second camera 24 in a representation, for example in the so-called split-screen method.
  • the optical axis 28 of the first recording device 22 of the receiving unit 20 is shown, which forms an angle ⁇ with the roadway of the vehicle.
  • the angle ⁇ is chosen such that the recording unit captures an image from above to below obliquely.
  • the angle ⁇ is preferably in a range of about 5 ° to about 90 °.
  • the driver assistance system 10 is shown attached to the utility vehicle 50. It should be noted that the calculation unit 30 and the reproduction unit 40 in the Fig. 2 are not explicitly shown.
  • the receiving unit 20 is mounted, for example, at an elevated position on the driver side of the utility vehicle 50 in such a way that essentially a viewing area 60 is detected obliquely from above becomes.
  • the receiving unit 20 is mounted approximately 2 m above the lane on the driver's side of the vehicle 50.
  • the viewing area 60 has a three-dimensional shape, but in the Fig. 2 only the projected onto the roadway and captured area is shown hatched.
  • the field of view 60 detected by the image acquisition unit 20 comprises at least a portion of a first legally prescribed field of view 70 and at least a portion of a second legally prescribed field of view 72.
  • the first legally prescribed field of view 70 corresponds to the field of view II according to the ECE Directive R 46 and the second legally prescribed field of view 72 the field of view IV according to ECE guideline R 46.
  • the Fig. 3 schematically shows the relative position of a collision object 100 to the receiving unit 20.
  • the collision object 100 is a pedestrian 100.
  • the viewing area 60 detected by the recording unit 20 is subdivided into a first area 62, a second area 64 and a third area 66, which differ in the perspective of the collision objects and thus in the perspective.
  • the pedestrian 100 in the first area 62 which represents the vehicle-proximate area, is detected in plan view and consequently displayed on the display image according to the representation 101, in which only the head and the arms of the pedestrian 100 are recognized.
  • the pedestrian 102 in the second area 64 is detected in a perspective that upsets the pedestrian 102 on the reproduced image as shown in FIG.
  • the pedestrian 104 in the third area 66 which is the vehicle-distant area, is detected in a perspective including the vehicle Pedestrian 104 on the display image as shown in the representation 104 almost real faithful, since the pedestrian 104 is detected almost frontal.
  • the driver assistance system 10, in particular the calculation unit 30, is able to determine from the representations 101, 103, 105 the presence and / or the type of a collision object 100 and then cause the driver of the vehicle 50 to have a visual, acoustic and / haptic warning is issued and / or intervened in the control of the vehicle 50.
  • the calculation unit 30 can fall back on different collision object parameters for the different regions 62, 64, 66 and thus perform different collision object determination methods in these regions 62, 64, 66.
  • the calculation unit 30 is adapted to distinguish from the representations 101, 103, 105 and their parameters, for example, a pedestrian from a vehicle, a cyclist, a motorcyclist and / or a stationary collision object.
  • the calculation unit 30 uses the features typical of the respective collision object, such as the typical velocity or direction change capability, for example, to estimate the future trajectory of the collision object.
  • the different silhouettes are z. B. in a memory, which can access the calculation unit 30, deposited or learned as so-called collision object parameters that are dependent on the relative position to the recording device.
  • the calculation unit 30 can determine the type of the collision object 100 and then store the detected Kollisionsdorfparameter in memory and learn.
  • the Fig. 4 2 shows, by way of example, an image acquired by the image acquisition unit 20, which comprises at least part of the vehicle 50, a pedestrian 100, 102, 104 and at least partially the horizon 80 and is subdivided into the first region 62, the second region 64 and the third region 66 ,
  • the pedestrian 100, 102, 104 is one and the same pedestrian captured at different times.
  • the pedestrian 100 is detected at a first time in plan view, whereas the pedestrian 102 and the pedestrian 104 are detected at a second and third time, for example, later than the first time.
  • the pedestrian 100 has a different representation on the playback image than the pedestrian 102 or the pedestrian 104.
  • the calculation unit 30 can determine the trajectory of this pedestrian 100, 102, 104 from the detection time and the detection positions of the pedestrian 100, 102, 104 relative to the recording unit 20 and calculate a collision probability with the vehicle 50. If the collision probability exceeds a predetermined threshold value, the calculation unit 30 outputs a signal to the driver and possibly takes preventive measures in the vehicle control in order to prevent a collision with the collision object.
  • FIG. 3 is an exemplary flowchart of the steps performed by the driver assistance system 10.
  • the method begins at step 200, for example, when the vehicle 50 is started or when the driver assistance system 10 is activated.
  • the capture unit 20 continuously acquires multi-perspective vehicle-environment images at step 202 and sends these captured images to the computing unit 30 at step 204.
  • the computing unit 30 evaluates at query 206, the received pictures are for objects. If no object is detected in the captured image at step 206, the process returns to step 202. However, if an object in the shot image, such as a pedestrian 100, in the shot image is detected at step 206, the process proceeds to step 208, where it is determined whether the object is a collision object. Further, at step 208, the collision object type and the collision object probability are determined.
  • the step 208 of Fig. 5 represents a subroutine used in the Fig. 6 is shown in more detail.
  • the subroutine 208 starts at step 300.
  • the computing unit 30 determines the relative position of the object 100 to the recorder from the captured image received by the capture unit 20.
  • the calculation unit may further data from z. B. take into account a mounted on the vehicle 50 distance sensor. Further, in this step, the calculation unit 30 may determine further object parameters, such as the size of the collision object.
  • the computing unit 30 determines the object type from the object parameters determined at step 302, such as whether the object is a pedestrian, a cyclist, a vehicle, or a static object. For example, if it is determined at step 304 that the object is a pedestrian 100 that is far from the vehicle 50, subroutine 208 may revert to the method of FIG Fig. 5 return because the object is not a collision object. However, if a critical object, such as a motorcyclist determined in the immediate vicinity of the vehicle, the method can also be used to process the Fig. 5 return because it is determined that the object is a collision object. However, the calculation unit 30 is capable of additionally performing the following steps.
  • step 306 the calculation unit 30 can determine the velocity of the collision object from the determined object parameters and / or from the collision object parameters stored for the determined object type. In this case, the calculation unit 30 can also use the previously determined position of the collision object and the associated collision object parameters. In addition, the calculation unit 30 acquires the speed of the vehicle 50 at step 306.
  • the calculation unit 30 estimates in step 310 the future trajectory of the collision object and the vehicle 50, from which the calculation unit 30 calculates the collision probability in step 312, before, in step 314, the method 200 of FIG Fig. 5 returns.
  • the calculation unit 30 may be the one in Fig. 6 omit step 304 for determining the type of object and proceed directly with the calculation of the collision probability.
  • the individual steps may be performed in a suitably different order to reasonably calculate the collision probability.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge, zur Warnung vor sich in der Umgebung des Fahrzeugs befindlichen Kollisionsobjekten.
  • Neben herkömmlichen Spiegeln als Einrichtungen zur indirekten Sicht werden derzeit in Ergänzung oder als Ersatz für die Spiegel Kamerasysteme bzw. Bildaufnahmesysteme als Einrichtungen zur indirekten Sicht eingesetzt, bei denen eine (Bild-)Aufnahmeeinheit ein Auf nahmebild kontinuierlich erfasst, diese von der Aufnahmeeinheit erfassten (Video-)Daten, beispielsweise mittels einer Berechnungseinheit und gegebenenfalls nach Weiterbearbeitung, an eine im Fahrerhaus befindliche Wiedergabeeinrichtung geliefert werden, welche für den Fahrer dauerhaft und jederzeit einsehbar den aufgenommenen Bereich darstellt, der gesetzlich geforderte Sichtfelder enthalten kann. Außerdem werden die in dem aufgenommen Bereich befindliche Objekte dargestellt.
  • Beispielsweise offenbart die DE 10 2011 010 624 A1 eine Anzeigevorrichtung für gesetzlich vorgeschriebene Sichtfelder eines Nutzfahrzeugs in einem Fahrerhaus des Nutzfahrzeugs, die mindestens eine Anzeigeeinheit aufweist, die dazu angepasst ist, mindestens zwei der gesetzlich vorgeschriebenen Sichtfelder dauerhaft und in Echtzeit auf der Anzeigeeinheit im Fahrerhaus anzuzeigen.
  • Trotz dieser vorgeschriebenen Einrichtungen für indirekte Sicht ist es jedoch für einen Fahrzeugführer kaum möglich bzw. sehr schwierig, die unfallkritischen Bereiche rund um ein Nutzfahrzeug jederzeit vollständig und ausreichend im Auge zu behalten, insbesondere auf Grund deren Vielzahl.
  • Gerade bei Nutzfahrzeugen wie LKWs, Bussen etc. ist beispielsweise die Einsehbarkeit in die unmittelbare Fahrzeugumgebung, besonders auf den Fahrzeugseiten und insbesondere auf der Beifahrerseite kritisch. Hindernisse, wie andere Verkehrsteilnehmer, z. B. andere Fahrzeuge, Fußgänger und/oder Fahrradfahrer und/oder stationäre Objekte wie Straßenpfosten, Straßenlaternen, Straßenschilder, usw., werden schlecht erkannt, da die Auflösung der Darstellung oft ungenügend ist, z. B. auf Grund der Abbildung verhältnismäßig weiter Winkel, und eine Vielzahl an Informationen dargestellt wird. Auch ist die Orientierung für den Fahrer auf den verhältnismäßig zahlreichen Einrichtungen für indirekte Sicht schwierig, so dass die Gefahr besteht, dass gerade bei Abbiege- oder Rangiervorgängen Kollisionsobjekte übersehen werden, obwohl sie in der Einrichtung für indirekte Sicht abgebildet sind. Bevorzugt ist die Aufnahmeeinheit derart an dem Fahrzeug, insbesondere Nutzfahrzeug, angebracht, dass ein Sichtbereiche erfasst wird, der den sogenannten toten Winkel beinhaltet.
  • Daher ist es ferner bekannt, ergänzende Information, wie z. B. Kollisionshinweise, Abstände und Ähnliches, für den Bereich rund um das Fahrzeug darzustellen. So können Hindernisse und Kollisionsobjekte unabhängig von ihrem Typ, sofern sie sich in einem kritischen Bereich befinden, auf einem Wiedergabebild durch graphische Einblendung, wie beispielsweise farbige Rahmen oder dergleichen, hervorgehoben werden. Auch akustische bzw. visuelle Warnsignale mittels Lautsprechern bzw. Lichteffekten zum Hinweisen auf Hindernisse, die sich in der unmittelbaren Fahrzeugumgebung befinden, sind bekannt, wobei die Nähe des Objekts z. B. durch Abstandssensoren am Fahrzeug erfasst wird.
  • Nachteilig hierbei ist, dass durch die graphischen Einblendungen Teile des Wiedergabebilds verdeckt werden und dadurch häufig die genaue Lokalisierung des Hindernisses auf dem Wiedergabebild nicht eindeutig ist bzw. die Orientierung für den Fahrer auf dem Wiedergabebild erschwert ist, und keine Unterscheidung zwischen kollisionsrelevanten Objekten und solchen Objekten, die keine oder eine nur sehr geringe Kollisionswahrscheinlichkeit haben, gemacht wird. Außerdem sind derzeitige Warnsysteme nicht in der Lage, Hindernisse, die aus unterschiedlichen Perspektiven erfasst werden, als solche zu erkennen, da diese in den unterschiedlichen Perspektiven andere Darstellungen auf dem Wiedergabebild besitzen. Außerdem ist es bekannt, weitere Warnsysteme und Fahrerassistenzsysteme an einem Fahrzeug anzubringen, um das Fahren mit dem Fahrzeug sicherer zu gestalten In diesem Kontext sind Warnsysteme wie Notbremsassistenten, Spurhalteassistenten, Spurwechselassistenten, Einparkhilfen, usw. zu erwähnen. Zudem ist es möglich, Kollisionsobjekte im Aufnahmebild, beispielsweise mittels der sogenannten "Mobileye Pedestrian Collision Warning" (Fußgängererkennung) und mittels Geschwindigkeitslimit-Assistenten (Verkehrszeichenerkennung), zu erkennen und den Fahrer diesbezüglich zu warnen. Ferner können Fahrerassistenzsysteme, beispielsweise sogenannte "Kreuzungsassistenten", die Trajektorien der erkannten Kollisionsobjekte bestimmen und auf potentielle Kollisionen hinweisen.
  • Aus der DE 10 2011 109 459 A1 ist ein Verfahren zum Erfassen von Objekten seitlich eines Nutzfahrzeugs bekannt. Dabei werden mit mindestens einer Kamera in einem an einer Seite eines Nutzfahrzeugs liegenden Sektor befindliche Objekte erfasst. Daraufhin werden in einer Auswerteeinheit die erfassten Objekte bewertet, wobei eine Lage der erfassten Objekte relativ zum Nutzfahrzeug ermittelt und eine Kollisionsgefahr mit dem Nutzfahrzeug bewertet wird. Im Falle einer Kollisionsgefahr wird von der Auswerteeinheit an eine Wiedergabeeinheit eine Information übermittelt, auf die hin die Wiedergabeeinheit ein Warnsignal ausgibt.
  • Die DE 103 36 638 A1 offenbart eine Vorrichtung zur Klassifizierung von wenigstens einem-Objekt in einem Fahrzeugumfeld mittels einer Umfeldsensorik. Das Objekt wird zumindest anhand seiner dreidimensionalen Form und seiner Abmessungen klassifiziert. Die Umfeldsensorikist dabei derart konfiguriert, dass sie die Form und die Abmessungen ermitteln kann.
  • Aus der DE 10 2007 059 735 A1 ist ein Stereo-Sichtsystem für Fahrzeuge zur Erkennung seitlich liegender Hindernisse bekannt. Durch den Gebrauch eines schmalen Grundlinien Stereosichtsystems, das im Verhältnis zum Boden/zur Straße vertikal angeordnet werden kann, werden bei dem System und der Methode Kameras im Stereoverhältnis bei unauffälliger Montage eingesetzt, um eine verlässliche Erkennung innerhalb einer guten Reichweitenunterscheidung anzubieten. Das von jeder Kamera empfangene Bildsignal kann konditioniert werden, ehe es angeglichen und mit Unebenheiten verglichen wird, die oberhalb des Bodens angesehen wurden und anhand zuvor festgelegter Ungleichheitskriterien gemessen werden.
  • Die DE 10 2011 116 771 A1 betrifft ein Verfahren zum Anzeigen von Bildinformationen auf einer Anzeigeeinheit eines Fahrzeugs, bei welchem eine Umgebung des Fahrzeugs mit einer Detektionseinrichtung des Fahrzeugs erfasst wird, und bei welchem die Fahrzeugumgebung in einer ersten Darstellung in einer ersten Perspektive oder in einer zweiten Perspektive als Bildinformation auf der Anzeigeeinheit angezeigt wird. Ein Wechsel der Darstellung erfolgt dann automatisch, wenn sich das Fahrzeug auf einer ersten Fahrbahn befindet, welche in einem Winkel in eine zweite Fahrbahn mündet und das Fahrzeug sich in Richtung der zweiten Fahrbahn bewegt, und die Detektionseinrichtung des Fahrzeugs mit ihrem Erfassungsbereich die zweite Fahrbahn zumindest seitlich den seitlichen und vorderen Begrenzungen der ersten Fahrbahn erfassen kann.
  • Davon ausgehend ist es Aufgabe der Erfindung ein Fahrerassistenzsystem für ein Fahrzeug, insbesondere Nutzfahrzeug, bereitzustellen, das dem Fahrer eine Warnung ausgibt und/oder einen Eingriff in die Steuerung des Fahrzeugs vornimmt, wenn zumindest ein Kollisionsobjekt, das eine Kollisionsgefahr für das Fahrzeug ausstrahlt, in der Fahrzeugumgebung erfasst wird.
  • Diese Aufgabe wird mit einem Fahrerassistenzsystem mit den Merkmalen des Anspruchs 1 gelöst. Bevorzugte Ausführungsformen sind in den abhängigen Ansprüchen angegeben.
  • In der Beschreibung dieser Erfindung beziehen sich Richtungsangaben auf ein Fahrzeug, insbesondere Nutzfahrzeug, bei normaler Vorwärtsfahrt. In seitlicher Richtung bedeutet somit diejenige Richtung, die entlang der Senkrechten zu einem Vorwärtsfahrtrichtungsvektor des Kraftfahrzeugs ist und der Links-Rechts-Richtung entspricht. Ferner beschreibt der Begriff "Sichtbereich" einen Bereich, der von einer Aufnahmeeinheit, beispielsweise einer Kamera, maximal erfasst werden kann. Davon unterscheidet sich der Begriff eines "Sichtfelds", das einen Bereich angibt, der gesetzlich vorgeschrieben vom Fahrer eingesehen werden muss. Deshalb beschreibt ein Sichtbereich in der Regel einen Bereich, der zumeist größer als ein gesetzlich vorgeschriebenes Sichtfeld ist.
  • Der Erfindung liegt der Gedanke zugrunde, ein Fahrerassistenzsystem für ein Fahrzeug, insbesondere Nutzfahrzeug, vorzusehen, das dem Fahrer eine Warnung ausgibt und/oder einen Eingriff in die Steuerung des Fahrzeugs vornimmt, wenn sich ein Hindernis bzw. Kollisionsobjekt, das eine Kollisionsgefahr für das Fahrzeug ausstrahlt, in der Fahrzeugumgebung befindet. Dabei ist das sich nicht oder verhältnismäßig langsam bewegende Objekt in unmittelbarer Fahrzeugumgebung oder es ist ein sich verhältnismäßig schnell bewegendes Objekt mit Kollisionsgefahr weiter entfernt vom Fahrzeug.
  • Das Fahrerassistenzsystem weist eine Aufnahmeeinheit, eine Berechnungseinheit und eine Wiedergabeeinheit auf. Die Aufnahmeeinheit hat ein Aufnahmegerät, das eine optische Achse aufweist, die unter einem Winkel zur Fahrbahn des Fahrzeugs steht. Die Berechnungseinheit ist dazu angepasst, von der Aufnahmeeinheit erhaltene Daten im Hinblick auf Kollisionsobjekte auszuwerten und beim Erfassen eines Kollisionsobjekts das Ausgeben einer Warnung an den Fahrer zu veranlassen und/oder in die Steuerung des Fahrzeugs einzugreifen.
  • Die Berechnungseinheit bestimmt zur Erkennung von Kollisionsobjekten auf Basis von in Abhängigkeit von einer Relativposition eines Kollisionsobjekts zum Aufnahmegerät gewählten Kollisionsobjektparametern das Vorhandensein und/oder die Art eines Kollisionsobjekts.
  • Die Berechnungseinheit bestimmt somit beim Erkennen eines Objekts im Aufnahmebild die Art des Objekts anhand von Parametern, die in Abhängigkeit von der Relativposition des Objekts zum Aufnahmegerät variieren. Aus der bestimmten Art des Objekts und der Relativposition kann die Berechnungseinheit dann schließen, ob es sich um ein Kollisionsobjekt handelt. Das heißt, die Erkennung des wenigstens einen Kollisionsobjekts erfolgt dabei überall im gesamten mehrperspektivischen Bild abhängig von der jeweiligen Perspektive der Aufnahme und damit der Art der Abbildung eines jeweiligen Kollisionsobjekts, indem die von der Relativposition zum Aufnahmegerät entsprechenden Kollisionsparameter gewählt werden.
  • So kann beispielsweise ein Fußgänger in einer Draufsicht einen vollständig anderen Umriss als in einer Horizont- oder Seitenansicht haben. Insbesondere bei Nutzfahrzeugen kann die Anbauposition der Aufnahmeeinheit sehr hoch sein, beispielsweise in einer Höhe von mehr als 2 m, wodurch in unmittelbarer Fahrzeugumgebung eine Draufsicht der Kollisionsobjekte erfasst wird. Durch die Auswahl der Erkennungsparameter in Abhängigkeit von der Aufnahmeposition kann das Kollisionsobjekt jedoch im Beispiel in beiden Fällen als Fußgänger erkannt werden. Ein Fußgänger wird in Abhängigkeit von der Erkennung als solcher z. B. dann als Kollisionsobjekt eingestuft, wenn er sich in Fahrzeugnähe befindet, jedoch nicht als Kollisionsobjekt eingestuft, wenn er ausreichend entfernt vom Fahrzeug ist. Alternativ oder zusätzlich zur Auswertung im Hinblick auf den Typ des möglichen Kollisionsobjekts können weitere Merkmale, wie Bewegungstrajektorien, für die Einstufung als Kollisionsobjekt herangezogen werden.
  • Als weiteres Beispiel ist ein Motorradfahrer zu nennen, der sich z. B. relativ zum Fahrzeug entfernt befindet und sich mit verhältnismäßig schneller Geschwindigkeit dem Fahrzeug nähert. Die Berechnungseinheit kann in diesem Beispiel aus dem von der Aufnahmeeinheit empfangenen Aufnahmebild den Motorradfahrer in der nahezu horizontalen und frontalen Ansicht erkennen, der in dieser Ansicht eine Gestalt ähnlich zu einem dicken vertikalen Balken aufweist. Nähert sich der Motorradfahrer dem Fahrzeug, kann sich auch beispielsweise seine Perspektive von der Frontansicht in eine nahezu Seitenansicht ändern, der in dieser Ansicht die bekannte Gestalt eines Motorradfahrers mit beiden Rädern aufweist. In beiden Fällen ist auch hier die Berechnungseinheit in der Lage, aus beiden Perspektiven das Vorhandensein und die Art des Kollisionsobjekts, in diesem Beispiel ein Motorradfahrer, zu ermitteln, und das Objekt, je nach seiner Entfernung zum Fahrzeug, als Kollisionsobjekt einzustufen. Bei Erkennung als Motorrad wird beispielsweise auch ein entferntes Motorrad auf Grund seiner möglichen höheren Geschwindigkeit als Kollisionsobjekt eingestuft.
  • Die Berechnungseinheit ist dazu angepasst, die von der Aufnahmeeinheit erfassten Aufnahmebilder auszuwerten. Dabei sei erwähnt, dass die Aufnahmeeinheit kontinuierlich zu verschiedenen Zeitpunkten einzelne Momentaufnahmen der Fahrzeugumgebung fotografisch erfasst und diese Einzelbilder an die Berechnungseinheit zur Bildauswertung sendet. Beispielsweise ist die Aufnahmeeinheit dazu angepasst, 25 Bilder pro Sekunde zu erfassen. Vorzugsweise wertet die Berechnungseinheit jedes von der Aufnahmeeinheit empfangene Bild hinsichtlich der oben erwähnten Kollisionsparameter aus.
  • Durch das erfindungsgemäße Fahrerassistenzsystem wird der Fahrer des Fahrzeugs unabhängig von der perspektivischen Erfassung vor denjenigen Kollisionsobjekten gewarnt, die eine Kollisionsgefahr auf das Fahrzeug ausstrahlen. Die Berechnungseinheit berücksichtigt bei der Auswertung jedes der von der Aufnahmeeinheit als Draufsicht oder als Sicht von schräg oben auf die Fahrzeugumgebung erfassten Aufnahmebilder, erkennt darin kritische und/oder für das Fahrzeug gefährliche Kollisionsobjekte und warnt den Fahrer, beispielsweise akustisch, visuell oder haptisch, vor diesen. Bevorzugt wird der Fahrer vor denjenigen Kollisionsobjekten gewarnt, die sich in einem Bereich hinter und/oder seitlich neben dem Fahrzeug, insbesondere im sogenannten toten Winkel, befinden und von denen eine Kollisionsgefahr ausgeht.
  • Vorteilhafterweise veranlasst die Berechnungseinheit zusätzlich oder alternativ zur oben genannten Warnung einen Eingriff in die Steuerung des Fahrzeugs, wenn ein Kollisionsobjekt erfasst worden ist. Beispielsweise kann die Berechnungseinheit der Steuerung des Fahrzeugs ein Signal bereitstellen, das daraufhinweist, dass das Fahrzeug gebremst oder beschleunigt werden soll, um so einer Kollision mit dem Kollisionsobjekt vorzubeugen. In einer weiteren Ausgestaltung kann die Berechnungseinheit der Steuerung des Fahrzeugs ein Signal bereitstellen, das daraufhinweist, dass der Lenkwinkel des Fahrzeugs derart verändert werden soll, so dass eine Kollision mit dem Kollisionsobjekt vermieden werden kann.
  • In der Beschreibung dieser Erfindung beziehen sich Kollisionsobjekte auf jegliche Objekte, die sich während einer Fahrt mit einem Fahrzeug, insbesondere Nutzfahrzeug, in der unmittelbaren, aber auch entfernten Fahrzeugumgebung befinden. Als Kollisionsobjekte sind diejenigen Objekte gemeint, mit denen das Fahrzeug kollidieren und einen Unfall verursachen kann. Als beispielhafte Kollisionsobjektart sind insbesondere bewegliche Objekte, wie beispielsweise andere Verkehrsteilnehmer, Fahrradfahrer, Motorradfahrer, Fußgänger, etc. zu nennen, für die zumeist eine erhöhte Gefahr von dem Fahrzeug ausgeht und die eine erhöhte Gefahr für das Fahrzeug darstellen.
  • Es sind aber auch neben den beweglichen Kollisionsobjekten auch stationäre Objekte, wie beispielsweise Straßenschilder, Straßenpfosten, Straßenlaternen, Mülltonnen, Litfaßsäulen, parkende Fahrzeuge oder sonstige nicht bewegliche Objekte zu nennen. Beispielsweise kann dies bei einem Auspark- oder Rangiervorgang von Vorteil sein, damit der Fahrer nicht versehentlich eines der stationären Objekte übersieht und mit diesem eine Kollision verursacht.
  • In einer weiteren Ausgestaltung ist die Berechnungseinheit ferner dazu angepasst, das Vorhandensein und/oder die Art eines Kollisionsobjekts auf Basis gespeicherter Daten bezüglich bereits zuvor erkannter Kollisionsobjekte zu bestimmen. In dieser Ausgestaltung weist die Berechnungseinheit einen Speicher auf, in dem die Parameter und Merkmale bereits ermittelter und erfasster Kollisionsobjekte gespeichert werden, z. B. die jeweiligen Umrisse bzw. Silhouetten von Fußgängern, Motorradfahrern, Fahrradfahrern usw. in Draufsicht, Seitenansicht, Vorderansicht. Bei erneuter Erfassung von Kollisionsobjekten kann die Berechnungseinheit auf diese Daten zugreifen und mit den Parametern und Merkmalen der neu erfassten Kollisionsobjekten vergleichen, um so das Vorhandensein und/oder die Art der Kollisionsobjekte zu bestimmen. Somit weist die Berechnungseinheit einen lernenden Algorithmus auf, der bevorzugt die erfassten und individuellen Beispiele verallgemeinert und in den erfassten Beispielen Gesetzmäßigkeiten erkennt, die dann beim zukünftigen Erfassen von Kollisionsobjekten verwendet werden können. Alternativ oder zusätzlich kann der Speicher mit vorgespeicherten Informationen, beispielsweise bereits bekannte Kollisionsobjektparameter und -merkmale, bereitgestellt werden, auf die die Berechnungseinheit beim Ermitteln der Kollisionsobjektparameter zugreifen kann.
  • In der vorliegenden Beschreibung beziehen sich (Kollisionsobjekt-)Parameter auf die spezielle Silhouette bzw. das spezielle Aussehen des Kollisionsobjekts auf dem Aufnahmebild. So sind beispielsweise ein von oben erkannter Kopf und Arme bzw. Schultern Kollisionsobjektparameter für einen Fußgänger. Ferner sind z. B. zwei dünnere Striche mit einem Menschenumriss dazwischen die Kollisionsobjektparameter für einen Fahrradfahrer und zwei dickere Striche mit einem Menschenumriss dazwischen die Kollisionsobjektparameter für einen Motorradfahrer.
  • Im Gegensatz zu den (Kollisionsobjekt-)Parametern sind (Kollisionsobjekt-)Merkmale dahingehend zu verstehen, dass diese z. B. die Geschwindigkeit des Kollisionsobjekts, das Richtungsänderungsvermögen des Kollisionsobjekts, die Größe des Kollisionsobjekts und/oder das Geschwindigkeitsänderungsvermögen des Kollisionsobjekts umfassen. So ist für einen Fußgänger eine andere Merkmalsgeschwindigkeit hinterlegt als für einen Motorradfahrer.
  • Erfindungsgemäß ist die Berechnungseinheit ferner dazu angepasst, die von der Aufnahmeeinheit erfassten Aufnahmebilder in zumindest zwei Bildbereiche zu unterteilen und das Vorhandensein und die Art des Kollisionsobjekts in Abhängigkeit davon, in welchem der zumindest zwei Bildbereiche sich das Kollisionsobjekt befindet, auf Basis unterschiedlicher Parameter zu bestimmen. In einer bevorzugten Ausgestaltung unterteilt die Berechnungseinheit die von der Aufnahmeeinheit erfassten Daten in drei Bildbereiche. Somit teilt die Berechnungseinheit den von der Aufnahmeeinheit erfassten Sichtbereich in zumindest zwei Bildbereiche auf, z. B. einen fahrzeugnahen Bereich und einen fahrzeugentfernten Bereich, so dass die Aufnahmeeinheit ein multiperspektivisches Aufnahmebild erfasst, das unterschiedliche Blickwinkel auf ein Objekt, abhängig von seiner Relativposition zum Aufnahmegerät der Aufnahmeeinheit, aufweist. Demzufolge ist die perspektivische Erfassung bzw. der Blickwinkel eines Kollisionsobjekts im fahrzeugnahen Bereich zu der perspektivischen Erfassung bzw. dem Blickwinkel des Kollisionsobjekts im fahrzeugentfernten Bereich unterschiedlich, so dass die Berechnungseinheit der Ermittlung des Kollisionsobjekts in den zumindest zwei Bildbereichen unterschiedliche Parameter zugrunde legt. Beispielsweise wird ein Fußgänger im fahrzeugnahen Bereich von oben aufgenommen und hat demnach auf dem Wiedergabebild eine andere Darstellung als ein Fußgänger im fahrzeugentfernten Bereich, der von oben nach schräg unten erfasst wird. Die Berechnungseinheit ist somit in dieser Ausgestaltung dazu angepasst, aus den beiden unterschiedlichen Abbildungen des Fußgängers überhaupt auf die Kollisionsobjektart "Fußgänger" zu schließen.
  • In einem weiteren Beispiel wird ein sich in unmittelbarer Fahrzeugumgebung befindlicher Fahrradfahrer, der beispielsweise von oben erfasst wird, auf dem Aufnahmebild als zwei Striche, die die Räder des Fahrrads als Draufsicht darstellen, und als Körper des Fahrradfahrers von oben dargestellt. Aus dieser Darstellung kann die Berechnungseinheit auf das Kollisionsobjekt "Fahrradfahrer" schließen.
  • Das Aufnahmegerät der Aufnahmeeinheit, das beispielsweise eine Kamera ist, weist ein Objektiv auf, das den Verlauf der optischen Achse festlegt. Durch Einstellen der Ausrichtung des Objektivs wird die optische Achse wie gewünscht eingestellt, so dass diese mit der Fahrbahn einen gewünschten Winkel einschließt, der im Bereich von ungefähr 5° bis 90° liegt. So ist es bevorzugt, dass die optische Achse die Fahrbahn schneidet und nicht parallel zu der Fahrbahn bzw. zur Längsrichtung des Fahrzeugs verläuft. Auf Grund dieses Verlaufs der optischen Achse ist das Aufnahmegerät in der Lage, multiperspektivische Bilder der Fahrzeugumgebung zu erfassen.
  • Vorteilhafterweise ist die Berechnungseinheit ferner dazu angepasst, aus den Kollisionsobjektparametern zu erkennen, ob es sich bei an zwei verschiedenen Zeitpunkten erkannten Kollisionsobjekten um ein und das selbe Kollisionsobjekt, beispielsweise einen sich entlang des Fahrzeugs bewegenden Fußgänger oder Fahrradfahrer, handelt. Die Berechnungseinheit kann dabei bevorzugt aus den von der Aufnahmeeinheit an verschiedenen Zeitpunkten erfassten Aufnahmebildern diesen Fußgänger bzw. Fahrradfahrer erkennen und somit "verfolgen". Sobald sich die Trajektorie des Fußgängers derart ändert, dass die Kollisionswahrscheinlichkeit mit diesem einen vorbestimmten Schwellenwert übersteigt, wird die oben erwähnte Warnung an den Fahrer ausgegeben bzw. der Eingriff in die Fahrzeugsteuerung vorgenommen, um eine Kollision mit dem erkannten Fußgänger bzw. Fahrradfahrer zu verhindern.
  • In einer weiteren Ausgestaltung ist die Berechnungseinheit ferner dazu ausgebildet, wenigstens ein Kollisionsobjekt anhand von den oben genannten Kollisionsobjektparametern zu erfassen. Als Kollisionsobjektparameter sind beispielsweise die Bewegungsgeschwindigkeit des Kollisionsobjekts, die Position des Kollisionsobjekts relativ zum Fahrzeug, die Position des Kollisionsobjekts relativ zum Aufnahmegerät und/oder die Größe des Kollisionsobjekts zu erwähnen.
  • Die Berechnungseinheit ist in einer weiteren Ausgestaltung dazu angepasst, die Trajektorie des Fahrzeugs und/oder die Trajektorie des Kollisionsobjekts zu bestimmen. Dabei zeichnet die Berechnungseinheit aus den von der Aufnahmeeinheit erfassten Daten die Trajektorie des Kollisionsobjekts auf und kann außerdem die zukünftige Trajektorie des Kollisionsobjekts abschätzen. Diese Abschätzung der Trajektorie wird beim kontinuierlichen Erfassen und Auswerten der von der Aufnahmeeinheit erfassten Daten aktualisiert.
  • Außerdem ermittelt die Berechnungseinheit vorzugsweise in einer weiteren Ausgestaltung die tatsächliche und die abgeschätzte Trajektorie des Fahrzeugs, das mit dem Fahrerassistenzsystem ausgestattet ist, beispielsweise aus der Fahrzeuggeschwindigkeit, der Lenkbewegungen des Fahrzeugs, dem Aktivierungszustand eines Blinkers des Fahrzeugs und/oder den globalen Positionsdaten (GPS-Daten) des Fahrzeugs. Sind die Trajektorien des Fahrzeugs und des Kollisionsobjekts ermittelt, kann die Berechnungseinheit die oben genannte Warnung und/oder den Eingriff in die Fahrzeugsteuerung vornehmen, wenn die Berechnungseinheit aus den ermittelten Trajektorien eine erwartete Kollision berechnet. Alternativ oder zusätzlich kann die Berechnungseinheit aus den Trajektorien eine Kollisionswahrscheinlichkeit des Fahrzeugs mit dem Kollisionsobjekt ermitteln und den Fahrer des Fahrzeugs warnen, wenn diese Wahrscheinlichkeit einen vorbestimmten Schwellenwert übersteigt, oder die Art der Warnung in Abhängigkeit von der Kollisionswahrscheinlichkeit ändern.
  • In einer weiteren Ausgestaltung weist das Fahrerassistenzsystem zusätzlich zur Aufnahmeeinheit zumindest einen Sensor, beispielsweise einen Radar- und/oder Ultraschallsensor, als Abstandssensor auf, der am Fahrzeug, insbesondere Nutzfahrzeug, angebracht ist. Der Sensor kann beispielsweise ein Kollisionsobjekt in der unmittelbaren Fahrzeugumgebung ermitteln und ein entsprechendes Signal an die Berechnungseinheit senden. Die Berechnungseinheit kann zusätzlich zu den von der Aufnahmeeinheit erfassten Aufnahmebildern die Daten des wenigstens einen Sensors beim Ermitteln der Kollisionsobjektparameter verwenden. Ferner kann die Berechnungseinheit die von dem wenigstens einen Sensor empfangenen Daten bei der Berechnung der Kollisionswahrscheinlichkeit berücksichtigen. Andere zusätzliche Sensoren können z. B. ein GPS Sensor für GPS Daten des Fahrzeugs sein, dessen Daten ebenfalls in die Bestimmung eingehen, ob ein erfasstes Objekt ein Kollisionsobjekt ist.
  • Die Berechnungseinheit gibt insbesondere eine Warnung an den Fahrer des Fahrzeugs aus und/oder nimmt einen Eingriff in die Fahrzeugsteuerung vor, wenn ausgewählte Kollisionsobjekte, wie z. B. sich bewegende Objekte oder sich mit einer größeren Geschwindigkeit als einer bestimmten Schwellengeschwindigkeit bewegende Objekte, ermittelt werden. Dabei wird beim Erfassen eines Kollisionsobjekts zusätzlich noch bestimmt, ob es sich um ein solches ausgewähltes Objekt handelt.
  • Das erfindungsgemäße Fahrerassistenzsystem bestimmt bevorzugt, wie weit entfernt sich ein erkanntes Kollisionsobjekt vom Fahrzeug befindet. Aus dem ermittelten Abstand und unter Berücksichtigung der Kollisionsobjektgeschwindigkeit und der Fahrzeuggeschwindigkeit kann die Berechnungseinheit die Kollisionswahrscheinlichkeit bestimmen und eine Warnung an den Fahrer ausgeben bzw. einen Eingriff in die Fahrzeugsteuerung vornehmen, wenn die berechnete Kollisionswahrscheinlichkeit einen vorbestimmten Wert überschreitet. Die Bestimmung des Abstandes des Objekts zum Fahrzeug kann entweder vor der Bestimmung, ob es ein Kollisionsobjekt ist, oder erst danach erfolgen. Kollisionsobjekte mit erhöhter Kollisionswahrscheinlichkeit erhalten eine erhöhte Priorität und führen zum Ausgeben einer Warnung als Kollisionsobjekte mit niedriger Kollisionswahrscheinlichkeit.
  • Vorteilhafterweise enthält der von der Aufnahmeeinheit erfasste Sichtbereich zumindest einen Teil eines gesetzlich vorgeschriebenen Sichtfelds. Das gesetzlich vorgeschriebene Sichtfeld kann einem der Sichtfelder entsprechen, die in der ECE-Richtlinie R 46 definiert sind. In einer bevorzugten Ausgestaltung ist die Aufnahmeeinheit dazu angepasst, zumindest einen Teil eines ersten gesetzlich vorgeschriebenen Sichtfelds und/oder einen Teil eines zweiten gesetzlich vorgeschriebenen Sichtfelds und/oder einen Teil eines dritten gesetzlich vorgeschriebenen Sichtfelds und/oder einen Teil eines vierten gesetzlich vorgeschriebenen Sichtfelds zu erfassen. Vorzugsweise entspricht das erste gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld II gemäß der ECE Richtlinie R 46, das zweite gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld IV gemäß der ECE Richtlinie R 46, das dritte gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld V gemäß der ECE Richtlinie R 46 und das vierte gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld VI gemäß der ECE Richtlinie R 46. Vorteilhafterweise erfasst eine erste Aufnahmeeinheit zumindest einen Teil des ersten und/oder zweiten Sichtfelds und eine zweite Aufnahmeeinheit zumindest einen Teil des dritten und/oder vierten Sichtfelds.
  • Bevorzugt umfasst das Ausgeben einer Warnung an den Fahrer des Fahrzeugs einen visuellen, akustischen und/oder haptischen Hinweis. Beispielsweise wird dem auf dem von der Wiedergabeeinheit dargestellten Wiedergabebild ein visueller Hinweis auf das Kollisionsobjekt gegeben, insbesondere über ein Blinken des Wiedergabebildes, ein Einfärben des Wiedergabebildes und/oder ein Ändern der Wiedergabequalität des Wiedergabebildes. Ein akustischer Hinweis kann beispielsweise ein kurzer Ton sein, der den Fahrer über einen Lautsprecher im Fahrzeug daraufhinweist, dass sich ein Kollisionsobjekt in der Fahrzeugumgebung befindet. Ferner kann ein haptischer Hinweis beispielsweise eine Vibration des Lenkrads des Fahrzeugs sein, das den Fahrer auf das sich in der Fahrzeugumgebung befindende Kollisionsobjekt hinweist.
  • Die Aufnahmeeinheit, die ein Aufnahmebild der Fahrzeugumgebung erstellt und dieses der Berechnungseinheit bereitstellt, ist mit der Berechnungseinheit über eine erste Verbindung verbunden, beispielsweise ein geeignetes Datenkabel zur digitalen oder analogen Übertragung der von der Aufnahmeeinheit erfassten Aufnahmebilder. Die Berechnungseinheit ist ferner mit der Wiedergabeeinheit über eine zweite Verbindung verbunden, beispielsweise ein geeignetes Datenkabel zur digitalen oder analogen Übertragung von Bildern. Alternativ kann eine oder beide der oben genannten Verbindungen auch drahtlos ausgeführt werden, beispielsweise über Bluetooth, WLAN oder eine Infrarot-Verbindung.
  • Ferner ist es bevorzugt, dass die Wiedergabeeinheit dazu ausgebildet ist, das empfangene Wiedergabebild dauerhaft und in Echtzeit darzustellen. Dabei ist auch die Aufnahmeeinheit vorzugsweise dazu ausgebildet, dauerhaft und in Echtzeit Aufnahmebilder zu erfassen, und die Berechnungseinheit dazu ausgebildet, diese Aufnahmebilder ebenfalls dauerhaft und in Echtzeit zu verarbeiten. Dauerhaft bedeutet hier, dass beispielsweise die Darstellung des Wiedergabebildes nicht durch andere Angaben (zeitlich) unterbrochen wird, so dass der Fahrer jederzeit bei einem Blick auf die Wiedergabeeinheit in die Umgebung des Fahrzeugs einsehen und auf relevante Hindernisse und Kollisionsobjekte hingewiesen werden kann. Dauerhaft bedeutet aber auch, dass die Darstellung der Sichtfelder wenigstens im Fahrbetrieb des Nutzfahrzeugs durchgängig vorhanden ist. Der Zustand, der mit "dauerhaft" beschrieben und davon umfasst werden soll, kann auch optional auf den Zündzustand des Fahrzeugs oder beispielsweise auf einen Zustand, in dem sich ein Fahrer im Fahrzeug befinden kann, z. B. abhängig vom Erfassen einer sich in der Nähe des Fahrzeugs oder im Fahrzeug befindenden Schlüsseleinrichtung, ausgeweitet werden.
  • Die Berechnungseinheit kann mit der Aufnahmeeinheit, der Wiedergabeeinheit oder dem Steuergerät des Fahrzeugs integral ausgeführt werden. Des Weiteren kann die Berechnungseinheit als separate Einheit im oder am Fahrzeug angebracht werden, z. B. integral mit einem Bordcomputer. Die Wiedergabeeinheit kann eine Einheit sein, die in geeigneter Weise das von der Berechnungseinheit bereitgestellte Wiedergabebild für den Fahrer des Fahrzeugs einsehbar darstellt. Beispielsweise kann die Wiedergabeeinheit ein separates Gerät, beispielsweise ein LCD, ein LED, ein Projektor oder ähnliches sein. Außerdem kann die Wiedergabeeinheit mit dem sogenannten Central Information Display, das sich bereits standardmäßig im Fahrzeug befinden kann, integral ausgeführt sein. Die Aufnahmeeinheit kann bevorzugt eine Kamera mit einem Objektiv sein, die sich am oder im Fahrzeug angebracht befinden kann.
  • Mit dem hierin offenbarten Fahrerassistenzsystem können gefährliche Kollisionsobjekte erkannt und der Fahrer frühzeitig vor diesen Kollisionsobjekten gewarnt werden und bei Bedarf sogar ein Eingriff in die Fahrzeugsteuerung erfolgen, so dass das Unfallrisiko reduziert werden kann. Insbesondere bei einem Spurwechsel auf der Autobahn, beim Auffahren auf Autobahnen oder Abbiegevorgängen inner- und außerorts kann das hierin offenbarte Fahrerassistenzsystem präventiv Unfälle vermeiden. Vorteilhafterweise wird das Fahrerassistenzsystem an Nutzfahrzeugen eingesetzt, da bei Nutzfahrzeugen, wie beispielsweise Lastkraftwägen, die direkte Sicht auf andere Verkehrsteilnehmer, wie beispielsweise Fußgänger und Fahrradfahrer, die sich parallel zum Fahrzeug bewegen, kaum möglich ist. Ferner kann der Fahrer besonders vor Kollisionsobjekten gewarnt werden, die der Fahrer zwar in den Vorrichtungen für indirekte Sicht, beispielsweise Spiegel, erkennt, jedoch fälschlicherweise als unkritisch einstuft. Zum Beispiel kann ein Fußgänger zunächst unkritisch sein, sich jedoch im nächsten Moment auf Kollisionskurs mit dem Fahrzeug befinden.
  • Nachfolgend wird die Erfindung beispielhaft anhand der beigefügten Figuren beschrieben, in denen:
  • Fig. 1
    eine schematische Darstellung eines Fahrerassistenzsystems darstellt;
    Fig. 2
    ein an einem Nutzfahrzeug angebrachtes Fahrerassistenzsystem darstellt;
    Fig. 3
    schematisch die Untergliederung des Sichtbereichs in drei Bereiche darstellt;
    Fig. 4
    schematisch ein von der Aufnahmeeinheit multiperspektivisches Aufnahmebild darstellt;
    Fig. 5
    ein beispielhaftes Ablaufdiagramm der von dem Fahrerassistenzsystem durchgeführten Schritte darstellt und
    Fig. 6
    ein beispielhaftes Ablaufdiagramm für die Bestimmung der Art des Kollisionsobjekts und der Kollisionswahrscheinlichkeit darstellt.
  • Fig. 1 zeigt schematisch ein Fahrerassistenzsystem 10. Das Fahrerassistenzsystem 10, das an einem Nutzfahrzeug 50 (siehe Fig. 2), wie beispielsweise einem Lastkraftwagen, verwendet werden kann, umfasst wenigstens eine Bildaufnahmeeinheit 20, eine Berechnungseinheit 30 und eine Wiedergabeeinheit 40. Die in der Fig. 1 dargestellte Aufnahmeeinheit 20 weist ein erstes Aufnahmegerät, beispielsweise eine erste Kamera 22, und ein zweites Aufnahmegerät, beispielsweise eine zweite Kamera 24, auf, die an unterschiedlichen Positionen am Nutzfahrzeug angebracht werden können. Der von der ersten Kamera 22 erfasste Sichtbereich wird daraufhin der Berechnungseinheit 30 über eine erste Verbindung 21, beispielsweise ein geeignetes Datenkabel zur digitalen Übertragung der von der Bildaufnahmeeinheit erfassten Bilder, bereitgestellt, und der von der zweiten Kamera 24 erfasste Sichtbereich wird daraufhin der Berechnungseinheit 30 über eine zweite Verbindung 23, beispielsweise ein geeignetes Datenkabel zur digitalen Übertragung der von der Bildaufnahmeeinheit erfassten Bilder, bereitgestellt. In einer Ausgestaltung sind die erste und zweite Kamera 22, 24 hochdynamische und hochauflösende Kameras, die jeweils einen Seitenspiegel des Fahrzeugs ersetzen Alternativ ist das Fahrerassistenzsystem 10 ein zu einem Kamerasystem, das die Seitenspiegel ersetzende Kameras aufweist, zusätzliches System.
  • Die Berechnungseinheit 30 ist dazu ausgebildet, die erfassten Bilder zu einem Wiedergabebild in einer gewünschten Weise zu modifizieren. Beispielsweise kann die Berechnungseinheit 30 die von der Bildaufnahmeeinheit 20 erfassten Aufnahmebilder auswerten und bestimmte Kollisionsobjekte in dem Aufnahmebild erfassen, so dass eine Warnung an den Fahrer des Nutzfahrzeugs 50 ausgegeben wird. Das von der Berechnungseinheit 30 modifizierte Wiedergabebild wird dann der Wiedergabeeinheit 40 über eine dritte Verbindung 31, beispielsweise ein geeignetes Datenkabel zur digitalen Übertragung von Bildern, bereitgestellt. Die Wiedergabeeinheit 40 ist dazu angepasst, das Wiedergabebild einem Fahrer des Nutzfahrzeugs 50 einsehbar fotorealistisch darzustellen. Dabei kann die Wiedergabeeinheit 40 sowohl das von der ersten Kamera 22 erfasste Bild und das von der zweiten Kamera 24 erfasste Bild in einer Darstellung wiedergeben, beispielsweise im sogenannten Split-Screen-Verfahren.
  • Ferner ist in der Fig. 2 die optische Achse 28 des ersten Aufnahmegeräts 22 der Aufnahmeeinheit 20 gezeigt, die mit der Fahrbahn des Fahrzeugs einen Winkel α einschließt. Der Winkel α ist derart gewählt, dass die Aufnahmeeinheit ein Bild von oben nach schräg unten erfasst. Der Winkel α liegt bevorzugt in einem Bereich von ungefähr 5° bis ungefähr 90°.
  • Unter Bezugnahme auf die Fig. 2 ist das Fahrerassistenzsystem 10 dargestellt, das an dem Nutzfahrzeug 50 angebracht ist. Dabei ist zu beachten, dass die Berechnungseinheit 30 und die Wiedergabeeinheit 40 in der Fig. 2 nicht explizit dargestellt sind. Die Aufnahmeeinheit 20 ist beispielsweise an einer erhöhten Position auf der Fahrerseite des Nutzfahrzeugs 50 derart angebracht, dass im Wesentlichen ein Sichtbereich 60 von oben nach schräg unten erfasst wird. Beispielsweise ist die Aufnahmeeinheit 20 ungefähr 2 m über der Fahrbahn auf der Fahrerseite des Fahrzeugs 50 angebracht. Es ist zu beachten, dass der Sichtbereich 60 eine dreidimensionale Gestalt hat, jedoch in der Fig. 2 nur der auf die Fahrbahn projizierte und erfasste Bereich schraffiert dargestellt ist. Der von der Bildaufnahmeeinheit 20 erfasste Sichtbereich 60 umfasst zumindest einen Teil eines ersten gesetzlich vorgeschriebenen Sichtfelds 70 und zumindest einen Teil eines zweiten gesetzlich vorgeschriebenen Sichtfelds 72. Vorzugsweise entspricht das erste gesetzlich vorgeschriebene Sichtfeld 70 dem Sichtfeld II gemäß der ECE-Richtlinie R 46 und das zweite gesetzlich vorgeschriebene Sichtfeld 72 dem Sichtfeld IV gemäß der ECE Richtlinie R 46.
  • Die Fig. 3 zeigt schematisch die Relativposition eines Kollisionsobjekts 100 zu der Aufnahmeeinheit 20. In dem in der Fig. 2 gezeigten Beispiel ist das Kollisionsobjekt 100 ein Fußgänger 100. Der von der Aufnahmeeinheit 20 erfasste Sichtbereich 60 ist in einen ersten Bereich 62, einen zweiten Bereich 64 und einen dritten Bereich 66 unterteilt, die sich im Blickwinkel der Kollisionsobjekte und demnach in der Perspektive unterscheiden. So wird der Fußgänger 100 im ersten Bereich 62, der den fahrzeugnahen Bereich darstellt, in Draufsicht erfasst und demzufolge auf dem Wiedergabebild gemäß der Darstellung 101 dargestellt, in der man lediglich den Kopf und die Arme des Fußgängers 100 erkennt. Der Fußgänger 102 im zweiten Bereich 64 wird in einer Perspektive erfasst, die den Fußgänger 102 auf dem Wiedergabebild gemäß der Darstellung 103 gestaucht darstellt, und der Fußgänger 104 im dritten Bereich 66, der den fahrzeugentfernten Bereich darstellt, wird in einer Perspektive erfasst, die den Fußgänger 104 auf dem Wiedergabebild gemäß der Darstellung 104 nahezu realgetreu darstellt, da der Fußgänger 104 nahezu frontal erfasst wird.
  • Das Fahrerassistenzsystem 10, insbesondere die Berechnungseinheit 30, ist in der Lage, aus den Darstellungen 101, 103, 105 das Vorhandensein und/oder die Art eines Kollisionsobjekts 100 zu bestimmen und daraufhin zu veranlassen, dass dem Fahrer des Fahrzeugs 50 eine visuelle, akustische und/oder haptische Warnung ausgegeben wird und/oder in die Steuerung des Fahrzeugs 50 eingegriffen wird. Dabei kann die Berechnungseinheit 30 für die verschiedenen Bereiche 62, 64, 66 auf verschiedene Kollisionsobjektparameter zurückgreifen und somit in diesen Bereichen 62, 64 , 66 unterschiedliche Verfahren zur Kollisionsobjektbestimmung durchführen.
  • Insbesondere ist die Berechnungseinheit 30 dazu angepasst, aus den Darstellungen 101, 103, 105 und deren Parametern beispielsweise einen Fußgänger von einem Fahrzeug, einem Fahrradfahrer, einem Motorradfahrer und/oder einem stationären Kollisionsobjekt zu unterscheiden.
  • Die Berechnungseinheit 30 greift dabei auf die für das jeweilig erfasste Kollisionsobjekt typischen Merkmale zurück, wie beispielsweise die typische Geschwindigkeit oder Richtungswechselvermögen, um beispielsweise die zukünftige Trajektorie des Kollisionsobjekts abzuschätzen. Die unterschiedlichen Silhouetten sind z. B. in einem Speicher, auf den die Berechnungseinheit 30 zugreifen kann, hinterlegt bzw. werden als sogenannte Kollisionsobjektparameter gelernt, die von der Relativposition zum Aufnahmegerät abhängig sind. Durch Vergleich des erfassten Aufnahmebildes mit dem bezüglich der Perspektive relevanten Kollisionsobjektparameter kann die Berechnungseinheit 30 den Typ des Kollisionsobjekts 100 bestimmen und daraufhin die erkannten Kollisionsobjektparameter im Speicher ablegen und dazulernen.
  • Wird z. B. ein Fußgänger auf dem Aufnahmebild von der Berechnungseinheit 30 erkannt, so ist hinterlegt, dass sich dieser mit einer mittleren Geschwindigkeit bewegen kann, die geringer als die mittlere Geschwindigkeit eines erkannten Fahrradfahrers ist. Mit Hilfe solcher Kollisionsobjektmerkmale kann dann die zukünftige Trajektorie des Kollisionsobjekts abgeschätzt werden.
  • Die Fig. 4 zeigt beispielhaft ein von der Bildaufnahmeeinheit 20 erfasstes Bild, das zumindest einen Teil des Fahrzeugs 50, einen Fußgänger 100, 102, 104 und zumindest teilweise den Horizont 80 umfasst und in den ersten Bereich 62, den zweiten Bereich 64 und den dritten Bereich 66 unterteilt ist. Es ist zu beachten, dass der Fußgänger 100, 102, 104 ein und der gleiche Fußgänger ist, der zu verschiedenen Zeitpunkten erfasst wurde. Der Fußgänger 100 wird bei einem ersten Zeitpunkt in Draufsicht erfasst, wohingegen der Fußgänger 102 bzw. der Fußgänger 104 bei einem zweiten bzw. dritten Zeitpunkt erfasst werden, die beispielsweise später als der erste Zeitpunkt sind. In der Fig. 4 ist ebenfalls zu erkennen, dass der Fußgänger 100 auf dem Wiedergabebild eine unterschiedliche Darstellung aufweist als der Fußgänger 102 oder der Fußgänger 104.
  • Die Berechnungseinheit 30 kann aus der Erfassungszeit und den Erfassungspositionen des Fußgängers 100, 102, 104 relativ zur Aufnahmeeinheit 20 die Trajektorie dieses Fußgängers 100, 102, 104 ermitteln und eine Kollisionswahrscheinlichkeit mit dem Fahrzeug 50 berechnen. Übersteigt die Kollisionswahrscheinlichkeit einen vorbestimmten Schwellenwert, gibt die Berechnungseinheit 30 ein Signal an den Fahrer aus und nimmt unter Umständen präventive Maßnahmen in der Fahrzeugsteuerung vor, um eine Kollision mit dem Kollisionsobjekt zu verhindern.
  • In der Fig. 5 ist ein beispielhaftes Ablaufdiagramm der von dem Fahrerassistenzsystem 10 durchgeführten Schritte dargestellt. Das Verfahren beginnt beim Schritt 200, beispielsweise beim Anlassen des Fahrzeugs 50 oder bei der Aktivierung des Fahrerassistenzsystems 10. Die Aufnahmeeinheit 20 erfasst beim Schritt 202 kontinuierlich multiperspektivische Aufnahmebilder der Fahrzeugumgebung und sendet diese erfassten Aufnahmebilder beim Schritt 204 an die Berechnungseinheit 30. Die Berechnungseinheit 30 wertet bei der Abfrage 206 die empfangenen Aufnahmebilder hinsichtlich Objekten aus. Wird beim Schritt 206 kein Objekt im Aufnahmebild erkannt, kehrt das Verfahren zum Schritt 202 zurück. Wird jedoch beim Schritt 206 ein Objekt im Aufnahmebild, beispielsweise ein Fußgänger 100, im Aufnahmebild erkannt, schreitet das Verfahren zum Schritt 208 fort, bei dem ermittelt wird, ob das Objekt ein Kollisionsobjekt ist. Ferner wird beim Schritt 208 der Kollisionsobjekttyp und die Kollisionsobjektwahrscheinlichkeit ermittelt.
  • Der Schritt 208 der Fig. 5 stellt eine Unterroutine dar, die in der Fig. 6 genauer dargestellt ist. Die Unterroutine 208 beginnt beim Schritt 300. Beim darauffolgenden Schritt 302 bestimmt die Berechnungseinheit 30 aus dem von der Aufnahmeeinheit 20 empfangenen Aufnahmebild die Relativposition des Objekts 100 zum Aufnahmegerät. Dabei kann die Berechnungseinheit ferner Daten von z. B. einem am Fahrzeug 50 angebrachten Abstandssensor berücksichtigen. Ferner kann die Berechnungseinheit 30 in diesem Schritt weitere Objektparameter, wie beispielsweise die Größe des Kollisionsobjekts, bestimmen.
  • Beim Schritt 304 bestimmt die Berechnungseinheit 30 aus den im Schritt 302 ermittelten Objektparametern die Objektart, beispielsweise ob das Objekt ein Fußgänger, ein Fahrradfahrer, ein Fahrzeug oder ein statisches Objekt ist. Wird beispielsweise beim Schritt 304 ermittelt, dass das Objekt ein Fußgänger 100 ist, der sich weit entfernt vom Fahrzeug 50 befindet, kann die Unterroutine 208 an diesem Punkt wieder zum Verfahren der Fig. 5 zurückkehren, da das Objekt kein Kollisionsobjekt ist. Wird jedoch ein kritisches Objekt, beispielsweise ein Motorradfahrer in unmittelbarer Fahrzeugumgebung ermittelt, kann das Verfahren ebenfalls zum Verfahren der Fig. 5 zurückkehren, da bestimmt ist, dass das Objekt ein Kollisionsobjekt ist. Jedoch ist die Berechnungseinheit 30 in der Lage, die folgenden Schritte zusätzlich durchzuführen. Beim Schritt 306 kann die Berechnungseinheit 30 aus den ermittelten Objektparametern und/oder aus den zur ermittelten Objektart hinterlegten Kollisionsobjektparametern die Geschwindigkeit des Kollisionsobjekts ermitteln. Dabei kann die Berechnungseinheit 30 ferner auf die zeitlich zuvor ermittelte Position des Kollisionsobjekts und die damit verbundenen Kollisionsobjektparameter zurückgreifen. Außerdem erfasst die Berechnungseinheit 30 bein Schritt 306 die Geschwindigkeit des Fahrzeugs 50.
  • Aus den im Schritt 306 ermittelten Geschwindigkeiten schätzt bzw. berechnet die Berechnungseinheit 30 beim Schritt 310 die zukünftige Trajektorie des Kollisionsobjekts und des Fahrzeugs 50, aus denen die Berechnungseinheit 30 im Schritt 312 die Kollisionswahrscheinlichkeit berechnet, bevor es beim Schritt 314 zum Verfahren 200 der Fig. 5 zurückkehrt.
  • Bei der Abfrage 210 der Fig. 5 wird abgefragt, ob das Objekt ein Kollisionsobjekt ist. Ist das Objekt kein Kollisionsobjekt, kehrt das Verfahren zum Schritt 202 zurück. Hat jedoch die Unterroutine 208 ergeben, dass das Objekt ein Kollisionsobjekt ist, und wurde die Kollisionswahrscheinlichkeit berechnet, die einen Schwellenwert übersteigt, wird beim Schritt 212 eine Warnung an den Fahrer ausgegeben bzw. es erfolgt ein Eingriff in die Fahrzeugsteuerung und das Verfahren endet beim Schritt 214 und kann erneut starten.
  • Die in den Fig. 5 und 6 gezeigten Schritte sind nicht zwangsläufig von der Berechnungseinheit 30 durchzuführen. Beispielsweise kann die Berechnungseinheit 30 den in der Fig. 6 gezeigten Schritt 304 zum Bestimmen der Objektart auslassen und direkt mit der Berechnung der Kollisionswahrscheinlichkeit fortfahren. Auch können die einzelnen Schritte in einer geeigneten anderen Reihenfolge ausgeführt werden, um die Kollisionswahrscheinlichkeit angemessen zu berechnen.
  • Bezugszeichenliste
  • 10
    Fahrerassistenzsystem
    20
    Aufnahmeeinheit
    21
    erste Verbindung
    22
    erste Kamera
    23
    zweite Verbindung
    24
    zweite Kamera
    28
    optische Achse
    30
    Berechnungseinheit
    31
    dritte Verbindung
    40
    Wiedergabeeinheit
    50
    Nutzfahrzeug
    60
    Sichtbereich
    62
    erster Bereich
    64
    zweiter Bereich
    66
    dritter Bereich
    70
    erstes gesetzlich vorgeschriebenes Sichtfeld
    72
    zweites gesetzlich vorgeschriebenes Sichtfeld
    80
    Horizont
    100
    Fußgänger
    101
    Darstellung
    102
    Fußgänger
    103
    Darstellung
    104
    Fußgänger
    105
    Darstellung
    200
    Start
    202
    Schritt
    204
    Schritt
    206
    Abfrage
    208
    Schritt
    210
    Abfrage
    212
    Schritt
    214
    Ende
    300
    Start
    302
    Schritt
    304
    Schritt
    306
    Schritt
    308
    Schritt
    310
    Schritt
    312
    Schritt
    313
    Ende
    α
    Winkel zur Fahrbahn

Claims (14)

  1. Fahrerassistenzsystem (10) für ein Fahrzeug (50), insbesondere Nutzfahrzeug, mit einer Aufnahmeeinheit (20) und einer Berechnungseinheit (30), wobei die Aufnahmeeinheit (20) ein Aufnahmegerät enthält, das eine optische Achse (28) hat, die unter einem Winkel (α) zur Fahrbahn des Fahrzeugs (50) verläuft, und ein multiperspektivisches Aufnahmebild erfasst, das unterschiedliche Blickwinkel auf ein Kollisionsobjekt (100, 102, 104), abhängig von seiner Relativposition zum Aufnahmegerät der Auf nahmeeinheit (20), aufweist, wobei die Berechnungseinheit (30) dazu angepasst ist, die von der Aufnahmeeinheit (20) erfassten Daten in zumindest zwei Bildbereiche (62, 64, 66) zu unterteilen, die von der Aufnahmeeinheit (20) erfassten multiperspektivischen Aufnahmebilder im Hinblick auf Kollisionsobjekte (100, 102, 104) auszuwerten und beim Erfassen eines Kollisionsobjekts (100, 102, 104) das Ausgeben einer Warnung an den Fahrer des Fahrzeugs (50) zu veranlassen und/oder einen Eingriff in die Steuerung des Fahrzeugs (50) vorzunehmen, wobei die Berechnungseinheit (30) zur Erkennung von Kollisionsobjekten (100, 102, 104) das Vorhandensein und die Art eines Kollisionsobjekts (100, 102, 104) in den zumindest zwei Bildbereichen (62, 64, 66) anhand der Relativposition des Kollisionsobjekts (100, 102, 104) zum Aufnahmegerät der Aufnahmeeinheit (20) und anhand von Kollisionsobjektparametern, abhängig davon bestimmt, in welchem der zumindest zwei Bildbereiche (60, 62, 64) sich das Kollisionsobjekt (100, 102, 104), befindet, wobei die Kollisionsobjektparameter in Abhängigkeit von der Relativposition des Kollisionsobjekts (100, 102, 104) zum Aufnahmegerät der Auf nahmeeinheit variieren.
  2. Fahrerassistenzsystem (10) nach Anspruch 1, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, das Vorhandensein und/oder die Art eines Kollisionsobjekts (100, 102, 104) auf Basis gespeicherter Daten bezüglich bereits zuvor erkannter Kollisionsobjekte (100, 102, 104) zu bestimmen.
  3. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei es sich bei den Kollisionsobjekten (100, 102, 104) um Fußgänger und/oder Fahrradfahrer und/oder andere Fahrzeuge und/oder stationäre Objekte handelt.
  4. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die tatsächliche Trajektorie des Kollisionsobjekts (100, 102, 104) aus den von der Aufnahmeeinheit (20) erfassten Daten zu bestimmen.
  5. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die zukünftige Trajektorie des Kollisionsobjekts (100, 102, 104) aus den von der Aufnahmeeinheit (20) erfassten Daten abzuschätzen.
  6. Fahrerassistenzsystem (10) nach Anspruch 5, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die zukünftige Trajektorie des Fahrzeugs (50) auf Basis der Geschwindigkeit des Fahrzeugs (50), der Lenkbewegungen des Fahrzeugs (50) und/oder dem Aktivierungszustand eines Blinkers des Fahrzeugs (50) abzuschätzen.
  7. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, ferner mit zumindest einem am Fahrzeug (50) angebrachten Abstandssensor, wobei die Berechnungseinheit (30) dazu angepasst ist, die Erkennung des Kollisionsobjekts (100, 102, 104) und/oder die Bestimmung der Trajektorie des Kollisionsobjekts (100, 102, 104) auf Basis der von dem zumindest einen Abstandssensor empfangenen Daten durchzuführen.
  8. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu ausgebildet ist, eine Kollisionswahrscheinlichkeit aus der Trajektorie des Fahrzeugs (50) und der Trajektorie des Kollisionsobjekts (100, 102, 104) zu bestimmen.
  9. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Aufnahmeeinheit (20) zumindest eine Kamera (22, 24) umfasst, die alternativ oder zusätzlich zu einem Seitenspiegel am Fahrzeug (50) angebracht ist.
  10. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Aufnahmeeinheit (20) ferner dazu angepasst ist, zumindest einen Teil eines ersten gesetzlich vorgeschriebenen Sichtfelds (70) und/oder zumindest einen Teil eines zweiten gesetzlich vorgeschriebenen Sichtfelds (72) zu erfassen.
  11. Fahrerassistenzsystem (10) nach Anspruch 10 wobei die Aufnahmeeinheit (20) ferner dazu angepasst ist, zumindest einen Teil eines dritten gesetzlich vorgeschriebenen Sichtfelds und/oder zumindest einen Teil eines vierten gesetzlich vorgeschriebenen Sichtfelds zu erfassen.
  12. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die an den Fahrer des Fahrzeugs (50) ausgegebene Warnung eine visuelle Warnung auf einer Wiedergabeeinheit (40) und/oder akustische und/oder haptische Warnung ist.
  13. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei der Eingriff in die Steuerung des Fahrzeugs (50) ein Bremsen des Fahrzeugs (50) und/oder ein Beschleunigen des Fahrzeugs (50) und/oder eine Änderung der Lenkbewegung des Fahrzeugs (50) umfasst.
  14. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die Art des Kollisionsobjekts (100, 102, 104) auf Basis von erfassten globalen Positionsdaten des Kollisionsobjekts (100, 102, 104) und /oder der Geschwindigkeit des Kollisionsobjekts (100, 102, 104) zu bestimmen.
EP14190877.2A 2013-11-05 2014-10-29 Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge Active EP2869284B1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310018543 DE102013018543A1 (de) 2013-11-05 2013-11-05 Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge

Publications (2)

Publication Number Publication Date
EP2869284A1 EP2869284A1 (de) 2015-05-06
EP2869284B1 true EP2869284B1 (de) 2016-10-12

Family

ID=51845303

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14190877.2A Active EP2869284B1 (de) 2013-11-05 2014-10-29 Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge

Country Status (3)

Country Link
EP (1) EP2869284B1 (de)
DE (1) DE102013018543A1 (de)
ES (1) ES2603002T3 (de)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015011536A1 (de) 2015-09-02 2017-03-02 Man Truck & Bus Ag Spiegelersatzsystem als Kamera-Monitor-System (KMS) eines Kraftfahrzeugs, insbesondere eines Nutzfahrzeugs
DE102016008218A1 (de) 2016-07-06 2018-01-11 Audi Ag Verfahren zum verbesserten Erkennen von Objekten durch ein Fahrerassistenzsystem
DE102016213493A1 (de) * 2016-07-22 2018-01-25 Conti Temic Microelectronic Gmbh Kameravorrichtung zur Aufnahme eines Umgebungsbereichs eines eigenen Fahrzeugs sowie Verfahren zur Bereitstellung einer Fahrerassistenzfunktion
CA3033738A1 (en) * 2016-08-22 2018-03-01 Sony Corporation Driving assistant apparatus, driving assistant method, moving object, and program
DE102016116963A1 (de) * 2016-09-09 2018-03-15 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Vorrichtung zum Warnen eines Fahrzeugführers eines Fahrzeugs vor einem Objekt sowie Fahrzeug mit einer solchen Vorrichtung
US20180372875A1 (en) * 2017-06-27 2018-12-27 Uber Technologies, Inc. Sensor configuration for an autonomous semi-truck
DE102017215379A1 (de) 2017-09-01 2019-03-07 Robert Bosch Gmbh Verfahren zur Ermittlung einer Kollisionsgefahr
DE102018108751B4 (de) 2018-04-12 2023-05-04 Motherson Innovations Company Limited Verfahren, System und Vorrichtung zum Erhalten von 3D-Information von Objekten
DE102019204752A1 (de) * 2019-04-03 2020-03-26 Thyssenkrupp Ag Verfahren und Einrichtung zum Betrieb von insbesondere im Tagebau einsetzbaren Abraum- und Fördermaschinen
AU2020394957B2 (en) * 2019-12-03 2024-05-23 Kabushiki Kaisha Toyota Jidoshokki Industrial vehicle

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (de) * 2003-07-25 2005-02-10 Robert Bosch Gmbh Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
DE102006031895B4 (de) * 2006-07-07 2014-03-27 Continental Automotive Gmbh Anzeigesystem zur Visualisierung von Fahrzeugabständen
US8199975B2 (en) * 2006-12-12 2012-06-12 Cognex Corporation System and method for side vision detection of obstacles for vehicles
US20080300755A1 (en) * 2007-05-30 2008-12-04 Dinu Petre Madau Side collision avoidance system
DE102011010624B4 (de) 2011-02-08 2014-10-16 Mekra Lang Gmbh & Co. Kg Anzeigevorrichtung für Sichtfelder eines Nutzfahrzeugs
DE102011010524A1 (de) * 2011-02-08 2012-08-09 Hester Döring Bewegliche Schranktheke mit zwei Zugängen
DE102011016775A1 (de) * 2011-04-12 2011-12-15 Daimler Ag Assistenzsystem sowie Verfahren zum Betrieb eines Assistenzsystems
DE102011109459A1 (de) * 2011-08-04 2013-02-07 Man Truck & Bus Ag Verfahren zum Erfassen von Objekten seitlich eines Nutzfahrzeugs und Nutzfahrzeug mit einem Erfassungssystem zum Ausführen des Verfahrens
DE102011116771A1 (de) * 2011-10-22 2013-04-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Anzeigen von Bildinformationen auf einer Anzeigeeinheit eines Fahrzeugs sowie Fahrerassistenzeinrichtung zum Durchführen eines derartigen Verfahrens

Also Published As

Publication number Publication date
DE102013018543A1 (de) 2015-05-07
ES2603002T3 (es) 2017-02-23
EP2869284A1 (de) 2015-05-06

Similar Documents

Publication Publication Date Title
EP2869284B1 (de) Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge
EP2620929B1 (de) Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr
DE102019205223A1 (de) Einfädelverhaltenssysteme und Verfahren zum Einfädeln von Fahrzeugen
DE102019205228A1 (de) Einfädelverhaltenssysteme und Verfahren für Fahrzeuge auf einer Hauptspur
EP2998937B1 (de) Anzeigeeinrichtung für fahrzeuge, insbesondere nutzfahrzeuge
DE102016123878A1 (de) Fahrzeugblinksignaldetektion
DE10336638A1 (de) Vorrichtung zur Klassifizierung wengistens eines Objekts in einem Fahrzeugumfeld
DE102008011228A1 (de) Verfahren zur Unterstützung eines Nutzers eines Fahrzeugs, Steuereinrichtung für ein Fahrerassistenzsystem eines Fahrzeugs und Fahrzeug mit einer derartigen Steuereinrichtung
DE102011121948A1 (de) Vorausschau auf Aktionen eines autonomen Fahrsystems
DE102011080928A1 (de) Verfahren zur Unterstützung eines Fahrers eines Kraftfahrzeugs
EP3044727B1 (de) Verfahren und vorrichtung zur objekterkennung aus tiefenaufgelösten bilddaten
WO2007051835A1 (de) Verfahren zum unterstützen eines fahrers beim fahren mit einem fahrzeug
DE102006016807A1 (de) Verfahren und Vorrichtung zur Verbesserung der Sicht von Fahrern von Kraftfahrzeugen
DE102017214969A1 (de) Verfahren und Vorrichtung zur Falschfahrwarnung eines Fahrzeugs nach einem Unfall und/oder einer sicherheitskritischen Fahrsituation, insbesondere nach einem zwischenzeitlichen Stillstand des Fahrzeugs
DE102008020007A1 (de) Verfahren zum Unterstützen eines Fahrers beim Fahren mit einem Fahrzeug mit einer Fahrspurerkennung
WO2020030467A1 (de) Verfahren und steuervorrichtung zum warnen eines fahrers eines kraftfahrzeugs sowie kraftfahrzeug mit einer derartigen steuervorrichtung
DE102017223439B4 (de) Warnvorrichtung vor Gefahrensituationen für ein Kraftfahrzeug
DE102022126702A1 (de) Fahrzeug- und anhängerradweg-kollisionserkennung und -warnung
DE102018220791A1 (de) Verfahren und Fahrzeug zum Reagieren auf ein Objekt im Fahrzeugumfeld
EP1028387B2 (de) Einrichtung zur Umfelderkennung, insbesondere zur Verkehrszeichenerkennung
DE102011016217A1 (de) Verfahren und Kamerasystem zum Warnen eines Fahrers eines Kraftfahrzeugs vor einer Kollisionsgefahr und Kraftfahrzeug mit einem Kamerasystem
EP1652161A1 (de) Vorrichtung zur klassifizierung wenigstens eines objekts in einem fahrzeugumfeld
EP2555178B1 (de) Verfahren zum Erfassen von Objekten seitlich eines Nutzfahrzeugs und Nutzfahrzeug mit einem Erfassungssystem zum Ausführen des Verfahrens
DE102011055441A1 (de) Verfahren und Vorrichtung zur Abstandsermittlung zwischen Fahrzeugen
DE102016002232A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20141029

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

R17P Request for examination filed (corrected)

Effective date: 20150710

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

17Q First examination report despatched

Effective date: 20150818

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20160520

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 837128

Country of ref document: AT

Kind code of ref document: T

Effective date: 20161015

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502014001694

Country of ref document: DE

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 3

REG Reference to a national code

Ref country code: NL

Ref legal event code: FP

REG Reference to a national code

Ref country code: SE

Ref legal event code: TRGR

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

REG Reference to a national code

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2603002

Country of ref document: ES

Kind code of ref document: T3

Effective date: 20170223

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20161031

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170113

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170112

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170213

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170212

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502014001694

Country of ref document: DE

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170112

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20161029

26N No opposition filed

Effective date: 20170713

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 4

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20161029

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20161031

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20141029

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171031

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171031

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 5

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 837128

Country of ref document: AT

Kind code of ref document: T

Effective date: 20191029

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191029

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230427

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502014001694

Country of ref document: DE

Representative=s name: ALPSPITZ IP ALLGAYER UND PARTNER PATENTANWAELT, DE

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: NL

Payment date: 20231023

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20231025

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: ES

Payment date: 20231117

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: SE

Payment date: 20231025

Year of fee payment: 10

Ref country code: IT

Payment date: 20231031

Year of fee payment: 10

Ref country code: FR

Payment date: 20231023

Year of fee payment: 10

Ref country code: DE

Payment date: 20231018

Year of fee payment: 10