EP2869284A1 - Driver assistance system for vehicles, in particular for commercial vehicles - Google Patents

Driver assistance system for vehicles, in particular for commercial vehicles Download PDF

Info

Publication number
EP2869284A1
EP2869284A1 EP20140190877 EP14190877A EP2869284A1 EP 2869284 A1 EP2869284 A1 EP 2869284A1 EP 20140190877 EP20140190877 EP 20140190877 EP 14190877 A EP14190877 A EP 14190877A EP 2869284 A1 EP2869284 A1 EP 2869284A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
collision
collision object
unit
assistance system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
EP20140190877
Other languages
German (de)
French (fr)
Other versions
EP2869284B1 (en
Inventor
Dr. Werner Lang
Dr. Stefan Schinzer
Manuel Kunz
Michael Witzke
Johannes Nagel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mekra Lang GmbH and Co KG
Original Assignee
Mekra Lang GmbH and Co KG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mekra Lang GmbH and Co KG filed Critical Mekra Lang GmbH and Co KG
Publication of EP2869284A1 publication Critical patent/EP2869284A1/en
Application granted granted Critical
Publication of EP2869284B1 publication Critical patent/EP2869284B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection

Definitions

  • the present invention relates to a driver assistance system for vehicles, in particular commercial vehicles, for warning against collision objects located in the surroundings of the vehicle.
  • a (image) recording unit continuously records a recording image.
  • Data for example, by means of a calculation unit and optionally after further processing, to a reproducing device located in the cab are supplied, which for the driver permanently and at any time visible the recorded area that may contain legally required fields of view.
  • the objects located in the recorded area are displayed.
  • the DE 10 2011 010 624 A1 a display device for legally prescribed fields of view of a commercial vehicle in a cab of the commercial vehicle, which has at least one display unit which is adapted to display at least two of the legally prescribed fields permanently and in real time on the display unit in the cab.
  • the visibility in the immediate vehicle environment, especially on the vehicle sides and especially on the passenger side is critical. Obstacles, like other road users, eg. As other vehicles, pedestrians and / or cyclists and / or stationary objects such as street posts, street lights, street signs, etc., are poorly recognized, since the resolution of the representation is often insufficient, eg. B. due to the figure relatively wide angle, and a variety of information is displayed. Also, the orientation for the driver on the relatively many facilities for indirect vision difficult, so that there is a risk that especially during turning or maneuvering collision objects are overlooked, although they are shown in the device for indirect vision.
  • the receiving unit is mounted on the vehicle, in particular commercial vehicle, in such a way that a viewing area is detected which contains the so-called blind spot.
  • the disadvantage here is that parts of the playback image are obscured by the graphic overlays and thus often the exact location of the obstacle on the playback image is not clear or the orientation for the driver on the playback image is difficult, and no distinction between collision-relevant objects and such objects , which have no or only a very small probability of collision, is made.
  • current warning systems are unable to recognize obstacles that are detected from different perspectives as such because they have different representations on the playback image in different perspectives.
  • warning systems such as emergency brake assist, lane departure warning, lane change assistants, parking aids, etc. should be mentioned.
  • it is possible to detect collision objects in the recorded image for example by means of the so-called “Mobileye Pedestrian Collision Warning” (pedestrian recognition) and by means of speed limit assistants (traffic sign recognition), and to warn the driver in this regard.
  • driver assistance systems for example so-called “crossing assistants”, can determine the trajectories of the detected collision objects and indicate potential collisions.
  • a method for detecting objects on the side of a commercial vehicle is known.
  • at least one camera detects objects located in a sector located on one side of a commercial vehicle.
  • the detected objects are evaluated in an evaluation unit, whereby a position of the detected objects relative to the commercial vehicle is determined and a risk of collision with the commercial vehicle is evaluated.
  • the evaluation unit transmits information to a reproduction unit, to which the reproduction unit issues a warning signal.
  • the DE 103 36 638 A1 discloses an apparatus for classifying at least one object in a vehicle environment by means of environmental sensors.
  • the object is classified at least on the basis of its three-dimensional shape and its dimensions.
  • the environment sensor is configured so that it can determine the shape and dimensions.
  • From the DE 10 2007 059 735 A1 is a stereo vision system for vehicles for detection of lateral obstacles known.
  • the system and method employ cameras in the stereo ratio with unobtrusive mounting to provide reliable detection within a good range discrimination.
  • the image signal received by each camera can be conditioned before it is adjusted and compared to bumps viewed above the ground and measured against predetermined inequality criteria.
  • a driver assistance system for a vehicle in particular a commercial vehicle, which issues a warning to the driver and / or intervenes in the control of the vehicle if at least one collision object emitting a risk of collision for the vehicle enters the vehicle environment is detected.
  • directional indications refer to a vehicle, in particular commercial vehicle, during normal forward travel.
  • lateral direction thus means that direction along the vertical to a forward direction of travel vector of the Motor vehicle is and corresponds to the left-right direction.
  • viewing area describes an area that can be detected by a recording unit, for example a camera, to the maximum. This is different from the concept of a "field of view", which indicates an area which has to be consulted by law by the driver. Therefore, a viewing area usually describes an area that is usually larger than a legally prescribed field of view.
  • the invention is based on the idea of providing a driver assistance system for a vehicle, in particular a commercial vehicle, which issues a warning to the driver and / or intervenes in the control of the vehicle if an obstacle or collision object presents a risk of collision for the vehicle radiates, is located in the vehicle environment. It is not or relatively slowly moving object in the immediate vicinity of the vehicle or it is a relatively fast moving object with risk of collision farther away from the vehicle.
  • the driver assistance system has a recording unit, a calculation unit and a playback unit.
  • the receiving unit has a recording device having an optical axis which is at an angle to the roadway of the vehicle.
  • the calculation unit is adapted to evaluate data received from the acquisition unit with regard to collision objects and to initiate the issuing of a warning to the driver and / or to intervene in the control of the vehicle upon detection of a collision object.
  • the calculation unit determines the presence and / or the type of a collision object for the purpose of detecting collision objects on the basis of collision object parameters selected as a function of a relative position of a collision object to the acquisition device.
  • the calculation unit determines the type of object when recognizing an object in the recording image on the basis of parameters that vary depending on the relative position of the object to the recording device. From the determined type of object and the relative position, the calculation unit can then conclude whether it is a collision object. That is to say, the detection of the at least one collision object takes place everywhere in the entire multi-perspective image depending on the respective perspective of the photograph and thus the type of image of a respective collision object by selecting the collision parameters corresponding to the relative position to the recorder.
  • a pedestrian in plan view may have a completely different outline than in a horizon or side view.
  • the mounting position of the receiving unit can be very high, for example, in a height of more than 2 m, which in the immediate vicinity of the vehicle a plan view of the collision objects is detected.
  • the collision object can be recognized as a pedestrian by selecting the recognition parameters depending on the recording position.
  • a pedestrian is dependent on the detection as such z. B. classified as a collision object when it is near the vehicle, but not classified as a collision object when it is sufficiently removed from the vehicle.
  • further features such as movement trajectories, can be used for the classification as a collision object.
  • Another example is a motorcyclist to call, for. B. is located relative to the vehicle and approaches the vehicle at a relatively fast speed.
  • the calculation unit can recognize the motorcyclist in the almost horizontal and frontal view from the captured image received by the capture unit, which in this view has a shape similar to a thick vertical bar. If the motorcyclist approaches the vehicle, his perspective, for example, can also change from the front view into a nearly side view, which in this view has the familiar shape of a motorcyclist with both wheels.
  • the calculation unit is able to determine from both perspectives the presence and type of the collision object, in this example a motorcyclist, and to classify the object as a collision object, depending on its distance from the vehicle. When detected as a motorcycle, for example, a remote motorcycle is classified as a collision object due to its possible higher speed.
  • the calculation unit is adapted to evaluate the captured images of the recording unit. It should be mentioned that the recording unit continuously captures individual snapshots of the vehicle surroundings at different times and sends these individual images to the calculation unit for image evaluation. For example, the capture unit is adapted to capture 25 frames per second. Preferably the computing unit evaluates each image received by the capturing unit with respect to the above-mentioned collision parameters.
  • the driver of the vehicle is warned of those collision objects which emit a collision risk to the vehicle, independently of the perspective detection.
  • the calculation unit takes into account in the evaluation of each of the recording unit as a plan view or as a view obliquely from above on the vehicle environment recorded images, recognizes critical and / or dangerous for the vehicle collision objects and warns the driver, for example, acoustically, visually or haptically, in front of them ,
  • the driver is preferably warned of those collision objects which are located in an area behind and / or laterally next to the vehicle, in particular in the so-called blind spot, and from which a risk of collision arises.
  • the calculation unit additionally or alternatively to the above-mentioned warning causes an intervention in the control of the vehicle when a collision object has been detected.
  • the calculation unit may provide the control of the vehicle with a signal indicating that the vehicle is to be braked or accelerated so as to prevent a collision with the collision object.
  • the calculation unit can provide the control of the vehicle with a signal which indicates that the steering angle of the vehicle is to be changed in such a way that a collision with the collision object can be avoided.
  • collision objects refer to any objects that are in the immediate, but also remote vehicle environment during a journey with a vehicle, in particular a commercial vehicle.
  • Collision objects are those objects with which the vehicle can collide and cause an accident.
  • Kollisions Fantasy-like objects, such as other road users, cyclists, motorcyclists, pedestrians, etc. are mentioned, for the most part an increased risk emanating from the vehicle and represent an increased risk to the vehicle.
  • stationary objects such as street signs, street posts, street lamps, garbage cans, advertising columns, parked vehicles or other non-moving objects besides the movable collision objects.
  • this will be beneficial in a parking or maneuvering operation so that the driver does not inadvertently overlook one of the stationary objects and cause a collision with it.
  • the calculation unit is further adapted to determine the presence and / or the type of a collision object on the basis of stored data with respect to previously detected collision objects.
  • the calculation unit has a memory in which the parameters and features of already determined and detected collision objects are stored, for. B. the respective outlines or silhouettes of pedestrians, motorcyclists, cyclists, etc. in plan view, side view, front view. Upon re-detection of collision objects, the calculation unit may access and compare this data with the parameters and features of the newly detected collision objects to determine the presence and / or type of the collision objects.
  • the calculation unit has a learning algorithm which preferably generalizes the detected and individual examples and recognizes laws in the acquired examples, which can then be used in the future detection of collision objects.
  • the memory can be provided with prestored information, for example already known collision object parameters and features, which the calculation unit can access when determining the collision object parameters.
  • collision object parameters refer to the particular silhouette of the collision object on the captured image.
  • a head detected from above and arms or shoulders are collision object parameters for a pedestrian.
  • z For example, two thinner strokes with a human outline in between, the collision object parameters for a cyclist and two thicker strokes with a human outline in between, the collision object parameters for a motorcyclist.
  • the calculation unit is further adapted to subdivide the captured images of the capture unit into at least two image areas and the presence and / or the nature of the collision object depending on in which of the at least two image areas the collision object is based on different parameters determine. In a preferred embodiment, the calculation unit divides the data acquired by the recording unit into three image areas.
  • the calculation unit divides the field of view detected by the acquisition unit into at least two image areas, e.g. For example, a vehicle-proximate area and a vehicle-remote area, so that the recording unit detects a multi-perspective recording image having different angles of view of an object, depending on its relative position to the recording device of the recording unit. Consequently, the perspective detection or the viewing angle of a collision object in the vehicle-proximate area to the perspective detection or the viewing angle of the collision object in the vehicle-distant area is different, so that the calculation unit determines the collision object in the at least two image areas based on different parameters.
  • a pedestrian is received in the vehicle-near area from the top and therefore has a different representation on the playback picture than a pedestrian in the vehicle-distant area, which is detected from top to bottom obliquely.
  • the calculation unit is thus adapted in this embodiment to infer from the two different images of the pedestrian on the Kollisions Participart "pedestrian".
  • an on-vehicle cyclist for example, being detected from above, is displayed on the photograph as two dashes representing the wheels of the bicycle as a top view and as a body of the cyclist from above. From this representation, the calculation unit can close the collision object "cyclist".
  • the recording device of the recording unit which is for example a camera, has a lens which determines the course of the optical axis.
  • the optical axis is adjusted as desired to include a desired angle with the roadway that is in the range of about 5 ° to 90 °.
  • the optical axis intersects the road surface and does not run parallel to the roadway or to the longitudinal direction of the vehicle. Due to this course of the optical Axis, the recording device is able to capture multi-perspective images of the vehicle environment.
  • the calculation unit is further adapted to recognize from the collision object parameters whether the collision objects detected at two different times are one and the same collision object, for example a pedestrian or cyclist moving along the vehicle.
  • the calculation unit can preferably recognize these pedestrians or cyclists from the recorded images acquired by the recording unit at different points in time and thus "track" them. As soon as the trajectory of the pedestrian changes such that the collision probability exceeds a predetermined threshold therewith, the above-mentioned warning is issued to the driver or intervention is made in the vehicle control to prevent a collision with the recognized pedestrian or cyclist.
  • the calculation unit is further configured to detect at least one collision object based on the above-mentioned collision object parameters.
  • collision object parameters for example, the movement speed of the collision object, the position of the collision object relative to the vehicle, the position of the collision object relative to the recording device and / or the size of the collision object are to be mentioned.
  • the calculation unit is adapted to determine the trajectory of the vehicle and / or the trajectory of the collision object.
  • the calculation unit records the trajectory of the collision object from the data acquired by the acquisition unit and can also estimate the future trajectory of the collision object. This estimation of the trajectory is updated in the continuous acquisition and evaluation of the data acquired by the acquisition unit.
  • the calculation unit preferably determines the actual and the estimated trajectory of the vehicle that is equipped with the driver assistance system, for example from the vehicle speed, the steering movements of the vehicle, the activation state of a turn signal of the vehicle and / or the global position data (GPS). Data) of the vehicle.
  • GPS global position data
  • the calculation unit may issue the above warning and / or make the intervention in the vehicle control when the calculation unit calculates an expected collision from the determined trajectories.
  • the calculation unit can determine from the trajectories a collision probability of the vehicle with the collision object and warn the driver of the vehicle if this probability exceeds a predetermined threshold value, or change the type of warning as a function of the collision probability.
  • the driver assistance system has, in addition to the receiving unit, at least one sensor, for example a radar and / or ultrasound sensor, as a distance sensor which is mounted on the vehicle, in particular the commercial vehicle.
  • the sensor can determine a collision object in the immediate vehicle environment and send a corresponding signal to the calculation unit.
  • the calculation unit may use the data of the at least one sensor in determining the collision object parameters in addition to the acquisition images acquired by the acquisition unit. Furthermore, the calculation unit can take into account the data received from the at least one sensor in the calculation of the collision probability.
  • Other additional sensors may, for. B. be a GPS sensor for GPS data of the vehicle, whose data are also included in the determination of whether a detected object is a collision object.
  • the calculation unit preferably issues a warning to the driver of the vehicle and / or intervenes in the vehicle control if selected collision objects, such as, for example, crashed. B. moving objects or moving at a speed greater than a certain threshold speed objects are determined. In addition, when detecting a collision object, it is additionally determined whether it is such a selected object.
  • the driver assistance system preferably determines how far away a detected collision object from the vehicle is. From the determined distance and taking into account the collision object speed and the vehicle speed, the calculation unit can determine the collision probability and issue a warning to the driver or intervene in the vehicle control if the calculated collision probability exceeds a predetermined value.
  • the determination of the distance of the object to the vehicle can be made either before determining whether it is a collision object or only afterwards. Collision objects with increased collision probability receive an increased priority and cause a warning to be issued as low collision probability collision objects.
  • the field of vision detected by the receiving unit contains at least part of a legally prescribed field of view.
  • the legally prescribed field of view may correspond to one of the fields of view defined in ECE Guideline R 46.
  • the receiving unit is adapted to capture at least a portion of a first legally prescribed field of view and / or part of a second legally prescribed field of view and / or part of a third legally prescribed field of view and / or part of a fourth legally prescribed field of view ,
  • the first legally prescribed field of view corresponds to field of view II according to ECE Directive R 46
  • the second legally prescribed field of view IV according to ECE Directive R 46 the third legally prescribed field of view V according to ECE Directive R 46 and the fourth legally prescribed field of view the field of view VI according to the ECE Directive R 46.
  • a first recording unit detects at least a portion of the first and / or second field of view and a second recording unit at least a portion of the third and / or fourth field of view.
  • the issuing of a warning to the driver of the vehicle preferably comprises a visual, acoustic and / or haptic indication.
  • a visual indication of the collision object is given to the reproduction image displayed on the reproduction unit, in particular via flashing of the reproduction image, coloring of the reproduction image and / or changing the reproduction quality of the reproduction image.
  • An acoustic indication may be, for example, a short tone that indicates to the driver via a loudspeaker in the vehicle that there is a collision object in the vehicle environment.
  • a haptic indication may be, for example, a vibration of the steering wheel of the vehicle, which indicates the driver to the object of collision located in the vehicle environment.
  • the recording unit which creates a recording image of the vehicle environment and provides it to the calculation unit, is connected to the calculation unit via a first connection, for example a suitable data cable for the digital or analog transmission of the acquisition images captured by the acquisition unit.
  • the calculation unit is further connected to the playback unit via a second connection, for example a suitable one Data cable for digital or analog transmission of images.
  • a first connection for example a suitable data cable for the digital or analog transmission of the acquisition images captured by the acquisition unit.
  • the calculation unit is further connected to the playback unit via a second connection, for example a suitable one Data cable for digital or analog transmission of images.
  • a second connection for example a suitable one Data cable for digital or analog transmission of images.
  • one or both of the above-mentioned connections can also be carried out wirelessly, for example via Bluetooth, WLAN or an infrared connection.
  • the playback unit is designed to display the received playback picture permanently and in real time.
  • the recording unit is also preferably designed to record recorded images permanently and in real time, and the calculation unit is designed to process these recording images also permanently and in real time.
  • Permanent means here that, for example, the representation of the playback image is not interrupted by other information (temporally), so that the driver at any time can look at the playback unit in the environment of the vehicle and be notified of relevant obstacles and collision objects.
  • permanent means also that the representation of the fields of view at least in driving operation of the commercial vehicle is continuously available.
  • condition which is to be described as “permanently” and to be encompassed by it may also optionally be based on the ignition state of the vehicle or, for example, on a state in which a driver may be in the vehicle, eg. B. depending on detecting a located in the vicinity of the vehicle or in the vehicle key device, be extended.
  • the calculation unit may be integrally implemented with the recording unit, the playback unit or the control unit of the vehicle. Furthermore, the calculation unit can be mounted as a separate unit in or on the vehicle, for. B. integral with an on-board computer.
  • the reproducing unit may be a unit suitably displaying the reproduced image provided by the calculating unit to the driver of the vehicle.
  • the playback unit may be a separate device, such as an LCD, an LED, a projector, or the like.
  • the playback unit with the so-called Central Information Display which can already be standard in the vehicle, be integral.
  • the receiving unit may preferably be a camera with a lens which may be mounted on or in the vehicle.
  • the driver assistance system disclosed herein may preventively prevent accidents.
  • the driver assistance system is used on commercial vehicles, since in commercial vehicles, such as trucks, the direct view of other road users, such as pedestrians and cyclists who move parallel to the vehicle, is hardly possible.
  • the driver can be particularly warned of collision objects, which the driver recognizes in the devices for indirect vision, such as mirrors, but incorrectly classified as uncritical. For example, a pedestrian may initially be uncritical, but at the next moment be on a collision course with the vehicle.
  • Fig. 1 schematically shows a driver assistance system 10.
  • the driver assistance system 10 which on a commercial vehicle 50 (see Fig. 2 ), such as a truck, includes at least one image pickup unit 20, a computing unit 30, and a display unit 40 Fig. 1
  • Recording unit 20 shown has a first recording device, such as a first camera 22, and a second recording device, such as a second camera 24, which at different positions on the commercial vehicle can be attached.
  • the field of vision detected by the first camera 22 is then provided to the calculation unit 30 via a first connection 21, for example a suitable data cable for the digital transmission of the images captured by the image acquisition unit, and the field of vision detected by the second camera 24 is then transferred to the calculation unit 30 a second connection 23, for example a suitable data cable for the digital transmission of the images captured by the image acquisition unit.
  • the first and second cameras 22, 24 are highly dynamic and high-resolution cameras, each replacing a side mirror of the vehicle.
  • the driver assistance system 10 is an additional system to a camera system that replaces the side mirrors.
  • the calculation unit 30 is configured to modify the captured images to a display image in a desired manner.
  • the calculation unit 30 can evaluate the captured images of the image acquisition unit 20 and detect certain collision objects in the captured image, so that a warning is issued to the driver of the utility vehicle 50.
  • the reproduction image modified by the calculation unit 30 is then provided to the rendering unit 40 via a third connection 31, for example a suitable data cable for the digital transmission of images.
  • the reproduction unit 40 is adapted to present the reproduction image photorealistically to a driver of the utility vehicle 50 in a visible manner. In this case, the reproduction unit 40 can reproduce both the image captured by the first camera 22 and the image captured by the second camera 24 in a representation, for example in the so-called split-screen method.
  • the optical axis 28 of the first recording device 22 of the receiving unit 20 is shown, which forms an angle ⁇ with the roadway of the vehicle.
  • the angle ⁇ is chosen such that the recording unit captures an image from above to below obliquely.
  • the angle ⁇ is preferably in a range of about 5 ° to about 90 °.
  • the driver assistance system 10 is shown attached to the utility vehicle 50. It should be noted that the calculation unit 30 and the reproduction unit 40 in the Fig. 2 are not explicitly shown.
  • the receiving unit 20 is mounted, for example, at an elevated position on the driver side of the utility vehicle 50 in such a way that essentially a viewing area 60 is detected obliquely from above becomes.
  • the receiving unit 20 is mounted approximately 2 m above the lane on the driver's side of the vehicle 50.
  • the viewing area 60 has a three-dimensional shape, but in the Fig. 2 only the projected onto the roadway and captured area is shown hatched.
  • the field of view 60 detected by the image acquisition unit 20 comprises at least a portion of a first legally prescribed field of view 70 and at least a portion of a second legally prescribed field of view 72.
  • the first legally prescribed field of view 70 corresponds to the field of view II according to the ECE Directive R 46 and the second legally prescribed field of view 72 the field of view IV according to ECE guideline R 46.
  • the Fig. 3 schematically shows the relative position of a collision object 100 to the receiving unit 20.
  • the collision object 100 is a pedestrian 100.
  • the viewing area 60 detected by the recording unit 20 is subdivided into a first area 62, a second area 64 and a third area 66, which differ in the perspective of the collision objects and thus in the perspective.
  • the pedestrian 100 in the first area 62 which represents the vehicle-proximate area, is detected in plan view and consequently displayed on the display image according to the representation 101, in which only the head and the arms of the pedestrian 100 are recognized.
  • the pedestrian 102 in the second area 64 is detected in a perspective that upsets the pedestrian 102 on the reproduced image as shown in FIG.
  • the pedestrian 104 in the third area 66 which is the vehicle-distant area, is detected in a perspective including the vehicle Pedestrian 104 on the display image as shown in the representation 104 almost real faithful, since the pedestrian 104 is detected almost frontal.
  • the driver assistance system 10, in particular the calculation unit 30, is able to determine from the representations 101, 103, 105 the presence and / or the type of a collision object 100 and then cause the driver of the vehicle 50 to have a visual, acoustic and / haptic warning is issued and / or intervened in the control of the vehicle 50.
  • the calculation unit 30 can fall back on different collision object parameters for the different regions 62, 64, 66 and thus perform different collision object determination methods in these regions 62, 62, 66.
  • the calculation unit 30 is adapted to distinguish, for example, a pedestrian from a vehicle, a cyclist, a motorcyclist and / or a stationary collision object from the representations 101, 103, 105 and their parameters.
  • the calculation unit 30 uses the features typical of the respective collision object, such as the typical velocity or direction change capability, for example, to estimate the future trajectory of the collision object.
  • the different silhouettes are z. B. in a memory, which can access the calculation unit 30, deposited or learned as so-called collision object parameters that are dependent on the relative position to the recording device.
  • the calculation unit 30 can determine the type of the collision object 100 and then store the detected Kollisionsdorfparameter in memory and learn.
  • the Fig. 4 2 shows, by way of example, an image acquired by the image acquisition unit 20, which comprises at least part of the vehicle 50, a pedestrian 100, 102, 104 and at least partially the horizon 80 and is subdivided into the first region 62, the second region 64 and the third region 66 ,
  • the pedestrian 100, 102, 104 is one and the same pedestrian captured at different times.
  • the pedestrian 100 is detected at a first time in plan view, whereas the pedestrian 102 and the pedestrian 104 are detected at a second and third time, for example, later than the first time.
  • the pedestrian 100 has a different representation on the playback image than the pedestrian 102 or the pedestrian 104.
  • the calculation unit 30 can determine the trajectory of this pedestrian 100, 102, 104 from the detection time and the detection positions of the pedestrian 100, 102, 104 relative to the recording unit 20 and calculate a collision probability with the vehicle 50. If the collision probability exceeds a predetermined threshold value, the calculation unit 30 outputs a signal to the driver and possibly takes preventive measures in the vehicle control in order to prevent a collision with the collision object.
  • FIG. 3 is an exemplary flowchart of the steps performed by the driver assistance system 10.
  • the method begins at step 200, for example, when the vehicle 50 is started or when the driver assistance system 10 is activated.
  • the capture unit 20 continuously acquires multi-perspective vehicle-environment images at step 202 and sends these captured images to the computing unit 30 at step 204.
  • the computing unit 30 evaluates at query 206, the received images are in terms of objects. If no object is detected in the captured image at step 206, the process returns to step 202. However, if an object in the shot image, such as a pedestrian 100, in the shot image is detected at step 206, the process proceeds to step 208, where it is determined whether the object is a collision object. Further, at step 208, the collision object type and the collision object probability are determined.
  • the step 208 of Fig. 5 represents a subroutine used in the Fig. 6 is shown in more detail.
  • the subroutine 208 starts at step 300.
  • the computing unit 30 determines the relative position of the object 100 to the recorder from the captured image received by the capture unit 20.
  • the calculation unit may further data from z. B. take into account a mounted on the vehicle 50 distance sensor. Further, in this step, the calculation unit 30 may determine further object parameters, such as the size of the collision object.
  • the computing unit 30 determines the object type from the object parameters determined at step 302, such as whether the object is a pedestrian, a cyclist, a vehicle, or a static object. For example, if it is determined at step 304 that the object is a pedestrian 100 that is far from the vehicle 50, subroutine 208 may revert to the method of FIG Fig. 5 return because the object is not a collision object. However, if a critical object, such as a motorcyclist determined in the immediate vicinity of the vehicle, the method can also be used to process the Fig. 5 return because it is determined that the object is a collision object.
  • a critical object such as a motorcyclist determined in the immediate vicinity of the vehicle
  • the method can also be used to process the Fig. 5 return because it is determined that the object is a collision object.
  • the calculation unit 30 is capable of additionally performing the following steps.
  • the calculation unit 30 can determine the velocity of the collision object from the determined object parameters and / or from the collision object parameters stored for the determined object type. In this case, the calculation unit 30 can also refer back to the previously determined position of the collision object and the associated collision object parameters.
  • the calculation unit 30 detects the speed of the vehicle 50 at step 306.
  • the calculation unit 30 estimates in step 310 the future trajectory of the collision object and the vehicle 50, from which the calculation unit 30 calculates the collision probability in step 312, before, in step 314, the method 200 of FIG Fig. 5 returns.
  • the calculation unit 30 may be the one in Fig. 6 omit step 304 for determining the type of object and proceed directly with the calculation of the collision probability.
  • the individual steps may be performed in a suitably different order to reasonably calculate the collision probability.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Anmeldung betrifft ein Fahrerassistenzsystem (10) für ein Fahrzeug (50), insbesondere Nutzfahrzeug, mit einer Aufnahmeeinheit (20), einer Berechnungseinheit und einer Wiedergabeeinheit. Die Berechnungseinheit ist dazu angepasst, von der Aufnahmeeinheit (20) erhaltene Daten im Hinblick auf Kollisionsobjekte auszuwerten und beim Erfassen eines Kollisionsobjekts das Ausgeben einer Warnung an den Fahrer des Fahrzeugs (50) zu veranlassen und/oder einen Eingriff in die Steuerung des Fahrzeugs (50) vorzunehmen. Die Berechnungseinheit bestimmt zur Erkennung von Kollisionsobjekten auf Basis von in Abhängigkeit von einer Relativposition eines Kollisionsobjekts zur Aufnahmeeinheit (20) gewählten Kollisionsobjektparametern das Vorhandensein und/oder die Art eines Kollisionsobjekts.The present application relates to a driver assistance system (10) for a vehicle (50), in particular commercial vehicle, with a recording unit (20), a calculation unit and a playback unit. The calculation unit is adapted to evaluate data received by the acquisition unit (20) with regard to collision objects and to initiate the issuing of a warning to the driver of the vehicle (50) and / or an intervention in the control of the vehicle (50 ). The calculation unit determines the presence and / or the type of a collision object for the purpose of detecting collision objects on the basis of collision object parameters selected as a function of a relative position of a collision object to the acquisition unit (20).

Description

Die vorliegende Erfindung betrifft ein Fahrerassistenzsystem für Fahrzeuge, insbesondere Nutzfahrzeuge, zur Warnung vor sich in der Umgebung des Fahrzeugs befindlichen Kollisionsobjekten.The present invention relates to a driver assistance system for vehicles, in particular commercial vehicles, for warning against collision objects located in the surroundings of the vehicle.

Neben herkömmlichen Spiegeln als Einrichtungen zur indirekten Sicht werden derzeit in Ergänzung oder als Ersatz für die Spiegel Kamerasysteme bzw. Bildaufnahmesysteme als Einrichtungen zur indirekten Sicht eingesetzt, bei denen eine (Bild-)Aufnahmeeinheit ein Aufnahmebild kontinuierlich erfasst, diese von der Aufnahmeeinheit erfassten (Video-)Daten, beispielsweise mittels einer Berechnungseinheit und gegebenenfalls nach Weiterbearbeitung, an eine im Fahrerhaus befindliche Wiedergabeeinrichtung geliefert werden, welche für den Fahrer dauerhaft und jederzeit einsehbar den aufgenommenen Bereich darstellt, der gesetzlich geforderte Sichtfelder enthalten kann. Außerdem werden die in dem aufgenommen Bereich befindliche Objekte dargestellt.In addition to conventional mirrors as devices for indirect vision, camera systems or image acquisition systems are currently being used as devices for indirect vision in addition to or as a replacement for the mirrors, in which a (image) recording unit continuously records a recording image. ) Data, for example, by means of a calculation unit and optionally after further processing, to a reproducing device located in the cab are supplied, which for the driver permanently and at any time visible the recorded area that may contain legally required fields of view. In addition, the objects located in the recorded area are displayed.

Beispielsweise offenbart die DE 10 2011 010 624 A1 eine Anzeigevorrichtung für gesetzlich vorgeschriebene Sichtfelder eines Nutzfahrzeugs in einem Fahrerhaus des Nutzfahrzeugs, die mindestens eine Anzeigeeinheit aufweist, die dazu angepasst ist, mindestens zwei der gesetzlich vorgeschriebenen Sichtfelder dauerhaft und in Echtzeit auf der Anzeigeeinheit im Fahrerhaus anzuzeigen.For example, the DE 10 2011 010 624 A1 a display device for legally prescribed fields of view of a commercial vehicle in a cab of the commercial vehicle, which has at least one display unit which is adapted to display at least two of the legally prescribed fields permanently and in real time on the display unit in the cab.

Trotz dieser vorgeschriebenen Einrichtungen für indirekte Sicht ist es jedoch für einen Fahrzeugführer kaum möglich bzw. sehr schwierig, die unfallkritischen Bereiche rund um ein Nutzfahrzeug jederzeit vollständig und ausreichend im Auge zu behalten, insbesondere auf Grund deren Vielzahl.However, in spite of these prescribed devices for indirect vision, it is hardly possible or very difficult for a vehicle driver to keep the accident-critical areas around a commercial vehicle fully and sufficiently in view at all times, in particular because of their large number.

Gerade bei Nutzfahrzeugen wie LKWs, Bussen etc. ist beispielsweise die Einsehbarkeit in die unmittelbare Fahrzeugumgebung, besonders auf den Fahrzeugseiten und insbesondere auf der Beifahrerseite kritisch. Hindernisse, wie andere Verkehrsteilnehmer, z. B. andere Fahrzeuge, Fußgänger und/oder Fahrradfahrer und/oder stationäre Objekte wie Straßenpfosten, Straßenlaternen, Straßenschilder, usw., werden schlecht erkannt, da die Auflösung der Darstellung oft ungenügend ist, z. B. auf Grund der Abbildung verhältnismäßig weiter Winkel, und eine Vielzahl an Informationen dargestellt wird. Auch ist die Orientierung für den Fahrer auf den verhältnismäßig zahlreichen Einrichtungen für indirekte Sicht schwierig, so dass die Gefahr besteht, dass gerade bei Abbiege- oder Rangiervorgängen Kollisionsobjekte übersehen werden, obwohl sie in der Einrichtung für indirekte Sicht abgebildet sind. Bevorzugt ist die Aufnahmeeinheit derart an dem Fahrzeug, insbesondere Nutzfahrzeug, angebracht, dass ein Sichtbereiche erfasst wird, der den sogenannten toten Winkel beinhaltet.Especially in commercial vehicles such as trucks, buses, etc., for example, the visibility in the immediate vehicle environment, especially on the vehicle sides and especially on the passenger side is critical. Obstacles, like other road users, eg. As other vehicles, pedestrians and / or cyclists and / or stationary objects such as street posts, street lights, street signs, etc., are poorly recognized, since the resolution of the representation is often insufficient, eg. B. due to the figure relatively wide angle, and a variety of information is displayed. Also, the orientation for the driver on the relatively many facilities for indirect vision difficult, so that there is a risk that especially during turning or maneuvering collision objects are overlooked, although they are shown in the device for indirect vision. Preferably, the receiving unit is mounted on the vehicle, in particular commercial vehicle, in such a way that a viewing area is detected which contains the so-called blind spot.

Daher ist es ferner bekannt, ergänzende Information, wie z. B. Kollisionshinweise, Abstände und Ähnliches, für den Bereich rund um das Fahrzeug darzustellen. So können Hindernisse und Kollisionsobjekte unabhängig von ihrem Typ, sofern sie sich in einem kritischen Bereich befinden, auf einem Wiedergabebild durch graphische Einblendung, wie beispielsweise farbige Rahmen oder dergleichen, hervorgehoben werden. Auch akustische bzw. visuelle Warnsignale mittels Lautsprechern bzw. Lichteffekten zum Hinweisen auf Hindernisse, die sich in der unmittelbaren Fahrzeugumgebung befinden, sind bekannt, wobei die Nähe des Objekts z. B. durch Abstandssensoren am Fahrzeug erfasst wird.Therefore, it is also known, additional information, such. As collision notes, distances and the like, represent the area around the vehicle. Thus, obstacles and collision objects, regardless of their type, if they are in a critical area, can be highlighted on a display image by graphic fade-in, such as colored frames or the like. Also, acoustic or visual warning signals by means of speakers or light effects for indicating obstacles that are in the immediate vicinity of the vehicle are known, wherein the proximity of the object z. B. is detected by distance sensors on the vehicle.

Nachteilig hierbei ist, dass durch die graphischen Einblendungen Teile des Wiedergabebilds verdeckt werden und dadurch häufig die genaue Lokalisierung des Hindernisses auf dem Wiedergabebild nicht eindeutig ist bzw. die Orientierung für den Fahrer auf dem Wiedergabebild erschwert ist, und keine Unterscheidung zwischen kollisionsrelevanten Objekten und solchen Objekten, die keine oder eine nur sehr geringe Kollisionswahrscheinlichkeit haben, gemacht wird. Außerdem sind derzeitige Warnsysteme nicht in der Lage, Hindernisse, die aus unterschiedlichen Perspektiven erfasst werden, als solche zu erkennen, da diese in den unterschiedlichen Perspektiven andere Darstellungen auf dem Wiedergabebild besitzen.The disadvantage here is that parts of the playback image are obscured by the graphic overlays and thus often the exact location of the obstacle on the playback image is not clear or the orientation for the driver on the playback image is difficult, and no distinction between collision-relevant objects and such objects , which have no or only a very small probability of collision, is made. In addition, current warning systems are unable to recognize obstacles that are detected from different perspectives as such because they have different representations on the playback image in different perspectives.

Außerdem ist es bekannt, weitere Warnsysteme und Fahrerassistenzsysteme an einem Fahrzeug anzubringen, um das Fahren mit dem Fahrzeug sicherer zu gestalteten. In diesem Kontext sind Warnsysteme wie Notbremsassistenten, Spurhalteassistenten, Spurwechselassistenten, Einparkhilfen, usw. zu erwähnen. Zudem ist es möglich, Kollisionsobjekte im Aufnahmebild, beispielsweise mittels der sogenannten "Mobileye Pedestrian Collision Warning" (Fußgängerkennung) und mittels Geschwindigkeitslimit-Assistenten (Verkehrszeichenerkennung), zu erkennen und den Fahrer diesbezüglich zu warnen. Ferner können Fahrerassistenzsysteme, beispielsweise sogenannte "Kreuzungsassistenten", die Trajektorien der erkannten Kollisionsobjekte bestimmen und auf potentielle Kollisionen hinweisen.It is also known to attach further warning systems and driver assistance systems to a vehicle to make driving safer with the vehicle. In this context, warning systems such as emergency brake assist, lane departure warning, lane change assistants, parking aids, etc. should be mentioned. In addition, it is possible to detect collision objects in the recorded image, for example by means of the so-called "Mobileye Pedestrian Collision Warning" (pedestrian recognition) and by means of speed limit assistants (traffic sign recognition), and to warn the driver in this regard. Furthermore, driver assistance systems, for example so-called "crossing assistants", can determine the trajectories of the detected collision objects and indicate potential collisions.

Aus der DE 10 2011 109 459 A1 ist ein Verfahren zum Erfassen von Objekten seitlich eines Nutzfahrzeugs bekannt. Dabei werden mit mindestens einer Kamera in einem an einer Seite eines Nutzfahrzeugs liegenden Sektor befindliche Objekte erfasst. Daraufhin werden in einer Auswerteeinheit die erfassten Objekte bewertet, wobei eine Lage der erfassten Objekte relativ zum Nutzfahrzeug ermittelt und eine Kollisionsgefahr mit dem Nutzfahrzeug bewertet wird. Im Falle einer Kollisionsgefahr wird von der Auswerteeinheit an eine Wiedergabeeinheit eine Information übermittelt, auf die hin die Wiedergabeeinheit ein Warnsignal ausgibt.From the DE 10 2011 109 459 A1 For example, a method for detecting objects on the side of a commercial vehicle is known. In this case, at least one camera detects objects located in a sector located on one side of a commercial vehicle. Subsequently, the detected objects are evaluated in an evaluation unit, whereby a position of the detected objects relative to the commercial vehicle is determined and a risk of collision with the commercial vehicle is evaluated. In the event of a risk of collision, the evaluation unit transmits information to a reproduction unit, to which the reproduction unit issues a warning signal.

Die DE 103 36 638 A1 offenbart eine Vorrichtung zur Klassifizierung von wenigstens einem Objekt in einem Fahrzeugumfeld mittels einer Umfeldsensorik. Das Objekt wird zumindest anhand seiner dreidimensionalen Form und seiner Abmessungen klassifiziert. Die Umfeldsensorik ist dabei derart konfiguriert, dass sie die Form und die Abmessungen ermitteln kann.The DE 103 36 638 A1 discloses an apparatus for classifying at least one object in a vehicle environment by means of environmental sensors. The object is classified at least on the basis of its three-dimensional shape and its dimensions. The environment sensor is configured so that it can determine the shape and dimensions.

Aus der DE 10 2007 059 735 A1 ist ein Stereo-Sichtsystem für Fahrzeuge zur Erkennung seitlich liegender Hindernisse bekannt. Durch den Gebrauch eines schmalen Grundlinien-Stereosichtsystems, das im Verhältnis zum Boden/zur Straße vertikal angeordnet werden kann, werden bei dem System und der Methode Kameras im Stereoverhältnis bei unauffälliger Montage eingesetzt, um eine verlässliche Erkennung innerhalb einer guten Reichweitenunterscheidung anzubieten. Das von jeder Kamera empfangene Bildsignal kann konditioniert werden, ehe es angeglichen und mit Unebenheiten verglichen wird, die oberhalb des Bodens angesehen wurden und anhand zuvor festgelegter Ungleichheitskriterien gemessen werden.From the DE 10 2007 059 735 A1 is a stereo vision system for vehicles for detection of lateral obstacles known. Using a narrow baseline stereo sighting system that can be vertically positioned relative to the ground / road, the system and method employ cameras in the stereo ratio with unobtrusive mounting to provide reliable detection within a good range discrimination. The image signal received by each camera can be conditioned before it is adjusted and compared to bumps viewed above the ground and measured against predetermined inequality criteria.

Davon ausgehend ist es Aufgabe der Erfindung ein Fahrerassistenzsystem für ein Fahrzeug, insbesondere Nutzfahrzeug, bereitzustellen, das dem Fahrer eine Warnung ausgibt und/oder einen Eingriff in die Steuerung des Fahrzeugs vornimmt, wenn zumindest ein Kollisionsobjekt, das eine Kollisionsgefahr für das Fahrzeug ausstrahlt, in der Fahrzeugumgebung erfasst wird.On this basis, it is the object of the invention to provide a driver assistance system for a vehicle, in particular a commercial vehicle, which issues a warning to the driver and / or intervenes in the control of the vehicle if at least one collision object emitting a risk of collision for the vehicle enters the vehicle environment is detected.

Diese Aufgabe wird mit einem Fahrerassistenzsystem mit den Merkmalen des Anspruchs 1 gelöst. Bevorzugte Ausführungsformen sind in den abhängigen Ansprüchen angegeben.This object is achieved with a driver assistance system having the features of claim 1. Preferred embodiments are given in the dependent claims.

In der Beschreibung dieser Erfindung beziehen sich Richtungsangaben auf ein Fahrzeug, insbesondere Nutzfahrzeug, bei normaler Vorwärtsfahrt. In seitlicher Richtung bedeutet somit diejenige Richtung, die entlang der Senkrechten zu einem Vorwärtsfahrtrichtungsvektor des Kraftfahrzeugs ist und der Links-Rechts-Richtung entspricht. Ferner beschreibt der Begriff "Sichtbereich" einen Bereich, der von einer Aufnahmeeinheit, beispielsweise einer Kamera, maximal erfasst werden kann. Davon unterscheidet sich der Begriff eines "Sichtfelds", das einen Bereich angibt, der gesetzlich vorgeschrieben vom Fahrer eingesehen werden muss. Deshalb beschreibt ein Sichtbereich in der Regel einen Bereich, der zumeist größer als ein gesetzlich vorgeschriebenes Sichtfeld ist.In the description of this invention, directional indications refer to a vehicle, in particular commercial vehicle, during normal forward travel. In the lateral direction thus means that direction along the vertical to a forward direction of travel vector of the Motor vehicle is and corresponds to the left-right direction. Furthermore, the term "viewing area" describes an area that can be detected by a recording unit, for example a camera, to the maximum. This is different from the concept of a "field of view", which indicates an area which has to be consulted by law by the driver. Therefore, a viewing area usually describes an area that is usually larger than a legally prescribed field of view.

Der Erfindung liegt der Gedanke zugrunde, ein Fahrerassistenzsystem für ein Fahrzeug, insbesondere Nutzfahrzeug, vorzusehen, das dem Fahrer eine Warnung ausgibt und/oder einen Eingriff in die Steuerung des Fahrzeugs vornimmt, wenn sich ein Hindernis bzw. Kollisionsobjekt, das eine Kollisionsgefahr für das Fahrzeug ausstrahlt, in der Fahrzeugumgebung befindet. Dabei ist das sich nicht oder verhältnismäßig langsam bewegende Objekt in unmittelbarer Fahrzeugumgebung oder es ist ein sich verhältnismäßig schnell bewegendes Objekt mit Kollisionsgefahr weiter entfernt vom Fahrzeug.The invention is based on the idea of providing a driver assistance system for a vehicle, in particular a commercial vehicle, which issues a warning to the driver and / or intervenes in the control of the vehicle if an obstacle or collision object presents a risk of collision for the vehicle radiates, is located in the vehicle environment. It is not or relatively slowly moving object in the immediate vicinity of the vehicle or it is a relatively fast moving object with risk of collision farther away from the vehicle.

Das Fahrerassistenzsystem weist eine Aufnahmeeinheit, eine Berechnungseinheit und eine Wiedergabeeinheit auf. Die Aufnahmeeinheit hat ein Aufnahmegerät, das eine optische Achse aufweist, die unter einem Winkel zur Fahrbahn des Fahrzeugs steht. Die Berechnungseinheit ist dazu angepasst, von der Aufnahmeeinheit erhaltene Daten im Hinblick auf Kollisionsobjekte auszuwerten und beim Erfassen eines Kollisionsobjekts das Ausgeben einer Warnung an den Fahrer zu veranlassen und/oder in die Steuerung des Fahrzeugs einzugreifen.The driver assistance system has a recording unit, a calculation unit and a playback unit. The receiving unit has a recording device having an optical axis which is at an angle to the roadway of the vehicle. The calculation unit is adapted to evaluate data received from the acquisition unit with regard to collision objects and to initiate the issuing of a warning to the driver and / or to intervene in the control of the vehicle upon detection of a collision object.

Die Berechnungseinheit bestimmt zur Erkennung von Kollisionsobjekten auf Basis von in Abhängigkeit von einer Relativposition eines Kollisionsobjekts zum Aufnahmegerät gewählten Kollisionsobjektparametern das Vorhandensein und/oder die Art eines Kollisionsobjekts.The calculation unit determines the presence and / or the type of a collision object for the purpose of detecting collision objects on the basis of collision object parameters selected as a function of a relative position of a collision object to the acquisition device.

Die Berechnungseinheit bestimmt somit beim Erkennen eines Objekts im Aufnahmebild die Art des Objekts anhand von Parametern, die in Abhängigkeit von der Relativposition des Objekts zum Aufnahmegerät variieren. Aus der bestimmten Art des Objekts und der Relativposition kann die Berechnungseinheit dann schließen, ob es sich um ein Kollisionsobjekt handelt. Das heißt, die Erkennung des wenigstens einen Kollisionsobjekts erfolgt dabei überall im gesamten mehrperspektivischen Bild abhängig von der jeweiligen Perspektive der Aufnahme und damit der Art der Abbildung eines jeweiligen Kollisionsobjekts, indem die von der Relativposition zum Aufnahmegerät entsprechenden Kollisionsparameter gewählt werden.The calculation unit thus determines the type of object when recognizing an object in the recording image on the basis of parameters that vary depending on the relative position of the object to the recording device. From the determined type of object and the relative position, the calculation unit can then conclude whether it is a collision object. That is to say, the detection of the at least one collision object takes place everywhere in the entire multi-perspective image depending on the respective perspective of the photograph and thus the type of image of a respective collision object by selecting the collision parameters corresponding to the relative position to the recorder.

So kann beispielsweise ein Fußgänger in einer Draufsicht einen vollständig anderen Umriss als in einer Horizont- oder Seitenansicht haben. Insbesondere bei Nutzfahrzeugen kann die Anbauposition der Aufnahmeeinheit sehr hoch sein, beispielsweise in einer Höhe von mehr als 2 m, wodurch in unmittelbarer Fahrzeugumgebung eine Draufsicht der Kollisionsobjekte erfasst wird. Durch die Auswahl der Erkennungsparameter in Abhängigkeit von der Aufnahmeposition kann das Kollisionsobjekt jedoch im Beispiel in beiden Fällen als Fußgänger erkannt werden. Ein Fußgänger wird in Abhängigkeit von der Erkennung als solcher z. B. dann als Kollisionsobjekt eingestuft, wenn er sich in Fahrzeugnähe befindet, jedoch nicht als Kollisionsobjekt eingestuft, wenn er ausreichend entfernt vom Fahrzeug ist. Alternativ oder zusätzlich zur Auswertung im Hinblick auf den Typ des möglichen Kollisionsobjekts können weiter Merkmale, wie Bewegungstrajektorien, für die Einstufung als Kollisionsobjekt herangezogen werden.For example, a pedestrian in plan view may have a completely different outline than in a horizon or side view. In particular, in commercial vehicles, the mounting position of the receiving unit can be very high, for example, in a height of more than 2 m, which in the immediate vicinity of the vehicle a plan view of the collision objects is detected. However, in the example, the collision object can be recognized as a pedestrian by selecting the recognition parameters depending on the recording position. A pedestrian is dependent on the detection as such z. B. classified as a collision object when it is near the vehicle, but not classified as a collision object when it is sufficiently removed from the vehicle. As an alternative or in addition to the evaluation with regard to the type of the possible collision object, further features, such as movement trajectories, can be used for the classification as a collision object.

Als weiteres Beispiel ist ein Motorradfahrer zu nennen, der sich z. B. relativ zum Fahrzeug entfernt befindet und sich mit verhältnismäßig schneller Geschwindigkeit dem Fahrzeug nähert. Die Berechnungseinheit kann in diesem Beispiel aus dem von der Aufnahmeeinheit empfangenen Aufnahmebild den Motorradfahrer in der nahezu horizontalen und frontalen Ansicht erkennen, der in dieser Ansicht eine Gestalt ähnlich zu einem dicken vertikalen Balken aufweist. Nähert sich der Motorradfahrer dem Fahrzeug, kann sich auch beispielsweise seine Perspektive von der Frontansicht in eine nahezu Seitenansicht ändern, der in dieser Ansicht die bekannte Gestalt eines Motorradfahrers mit beiden Rädern aufweist. In beiden Fällen ist auch hier die Berechnungseinheit in der Lage, aus beiden Perspektiven das Vorhandensein und die Art des Kollisionsobjekts, in diesem Beispiel ein Motorradfahrer, zu ermitteln, und das Objekt, je nach seiner Entfernung zum Fahrzeug, als Kollisionsobjekt einzustufen. Bei Erkennung als Motorrad wird beispielsweise auch ein entferntes Motorrad auf Grund seiner möglichen höheren Geschwindigkeit als Kollisionsobjekt eingestuft.Another example is a motorcyclist to call, for. B. is located relative to the vehicle and approaches the vehicle at a relatively fast speed. In this example, the calculation unit can recognize the motorcyclist in the almost horizontal and frontal view from the captured image received by the capture unit, which in this view has a shape similar to a thick vertical bar. If the motorcyclist approaches the vehicle, his perspective, for example, can also change from the front view into a nearly side view, which in this view has the familiar shape of a motorcyclist with both wheels. In both cases, the calculation unit is able to determine from both perspectives the presence and type of the collision object, in this example a motorcyclist, and to classify the object as a collision object, depending on its distance from the vehicle. When detected as a motorcycle, for example, a remote motorcycle is classified as a collision object due to its possible higher speed.

Die Berechnungseinheit ist dazu angepasst, die von der Aufnahmeeinheit erfassten Aufnahmebilder auszuwerten. Dabei sei erwähnt, dass die Aufnahmeeinheit kontinuierlich zu verschiedenen Zeitpunkten einzelne Momentaufnahmen der Fahrzeugumgebung fotografisch erfasst und diese Einzelbilder an die Berechnungseinheit zur Bildauswertung sendet. Beispielsweise ist die Aufnahmeeinheit dazu angepasst, 25 Bilder pro Sekunde zu erfassen. Vorzugsweise wertet die Berechnungseinheit jedes von der Aufnahmeeinheit empfangene Bild hinsichtlich der oben erwähnten Kollisionsparameter aus.The calculation unit is adapted to evaluate the captured images of the recording unit. It should be mentioned that the recording unit continuously captures individual snapshots of the vehicle surroundings at different times and sends these individual images to the calculation unit for image evaluation. For example, the capture unit is adapted to capture 25 frames per second. Preferably the computing unit evaluates each image received by the capturing unit with respect to the above-mentioned collision parameters.

Durch das erfindungsgemäße Fahrerassistenzsystem wird der Fahrer des Fahrzeugs unabhängig von der perspektivischen Erfassung vor denjenigen Kollisionsobjekten gewarnt, die eine Kollisionsgefahr auf das Fahrzeug ausstrahlen. Die Berechnungseinheit berücksichtigt bei der Auswertung jedes der von der Aufnahmeeinheit als Draufsicht oder als Sicht von schräg oben auf die Fahrzeugumgebung erfassten Aufnahmebilder, erkennt darin kritische und/oder für das Fahrzeug gefährliche Kollisionsobjekte und warnt den Fahrer, beispielsweise akustisch, visuell oder haptisch, vor diesen. Bevorzugt wird der Fahrer vor denjenigen Kollisionsobjekten gewarnt, die sich in einem Bereich hinter und/oder seitlich neben dem Fahrzeug, insbesondere im sogenannten toten Winkel, befinden und von denen eine Kollisionsgefahr ausgeht.By means of the driver assistance system according to the invention, the driver of the vehicle is warned of those collision objects which emit a collision risk to the vehicle, independently of the perspective detection. The calculation unit takes into account in the evaluation of each of the recording unit as a plan view or as a view obliquely from above on the vehicle environment recorded images, recognizes critical and / or dangerous for the vehicle collision objects and warns the driver, for example, acoustically, visually or haptically, in front of them , The driver is preferably warned of those collision objects which are located in an area behind and / or laterally next to the vehicle, in particular in the so-called blind spot, and from which a risk of collision arises.

Vorteilhafterweise veranlasst die Berechnungseinheit zusätzlich oder alternativ zur oben genannten Warnung einen Eingriff in die Steuerung des Fahrzeugs, wenn ein Kollisionsobjekt erfasst worden ist. Beispielsweise kann die Berechnungseinheit der Steuerung des Fahrzeugs ein Signal bereitstellen, das daraufhinweist, dass das Fahrzeug gebremst oder beschleunigt werden soll, um so einer Kollision mit dem Kollisionsobjekt vorzubeugen. In einer weiteren Ausgestaltung kann die Berechnungseinheit der Steuerung des Fahrzeugs ein Signal bereitstellen, das daraufhinweist, dass der Lenkwinkel des Fahrzeugs derart verändert werden soll, so dass eine Kollision mit dem Kollisionsobjekt vermieden werden kann.Advantageously, the calculation unit additionally or alternatively to the above-mentioned warning causes an intervention in the control of the vehicle when a collision object has been detected. For example, the calculation unit may provide the control of the vehicle with a signal indicating that the vehicle is to be braked or accelerated so as to prevent a collision with the collision object. In a further refinement, the calculation unit can provide the control of the vehicle with a signal which indicates that the steering angle of the vehicle is to be changed in such a way that a collision with the collision object can be avoided.

In der Beschreibung dieser Erfindung beziehen sich Kollisionsobjekte auf jegliche Objekte, die sich während einer Fahrt mit einem Fahrzeug, insbesondere Nutzfahrzeug, in der unmittelbaren, aber auch entfernten Fahrzeugumgebung befinden. Als Kollisionsobjekte sind diejenigen Objekte gemeint, mit denen das Fahrzeug kollidieren und einen Unfall verursachen kann. Als beispielhafte Kollisionsobjektart sind insbesondere bewegliche Objekte, wie beispielsweise andere Verkehrsteilnehmer, Fahrradfahrer, Motorradfahrer, Fußgänger, etc. zu nennen, für die zumeist eine erhöhte Gefahr von dem Fahrzeug ausgeht und die eine erhöhte Gefahr für das Fahrzeug darstellen.In the description of this invention, collision objects refer to any objects that are in the immediate, but also remote vehicle environment during a journey with a vehicle, in particular a commercial vehicle. Collision objects are those objects with which the vehicle can collide and cause an accident. As an example Kollisionsobjektart particular moving objects, such as other road users, cyclists, motorcyclists, pedestrians, etc. are mentioned, for the most part an increased risk emanating from the vehicle and represent an increased risk to the vehicle.

Es sind aber auch neben den beweglichen Kollisionsobjekten auch stationäre Objekte, wie beispielsweise Straßenschilder, Straßenpfosten, Straßenlaternen, Mülltonnen, Litfaßsäulen, parkende Fahrzeuge oder sonstige nicht bewegliche Objekte zu nennen. Beispielsweise kann dies bei einem Auspark- oder Rangiervorgang von Vorteil sein, damit der Fahrer nicht versehentlich eines der stationären Objekte übersieht und mit diesem eine Kollision verursacht.But there are also stationary objects, such as street signs, street posts, street lamps, garbage cans, advertising columns, parked vehicles or other non-moving objects besides the movable collision objects. For example, can this will be beneficial in a parking or maneuvering operation so that the driver does not inadvertently overlook one of the stationary objects and cause a collision with it.

In einer weiteren Ausgestaltung ist die Berechnungseinheit ferner dazu angepasst, das Vorhandensein und/oder die Art eines Kollisionsobjekts auf Basis gespeicherter Daten bezüglich bereits zuvor erkannter Kollisionsobjekte zu bestimmen. In dieser Ausgestaltung weist die Berechnungseinheit einen Speicher auf, in dem die Parameter und Merkmale bereits ermittelter und erfasster Kollisionsobjekte gespeichert werden, z. B. die jeweiligen Umrisse bzw. Silhouetten von Fußgängern, Motorradfahrern, Fahrradfahrern usw. in Draufsicht, Seitenansicht, Vorderansicht. Bei erneuter Erfassung von Kollisionsobjekten kann die Berechnungseinheit auf diese Daten zugreifen und mit den Parametern und Merkmalen der neu erfassten Kollisionsobjekten vergleichen, um so das Vorhandensein und/oder die Art der Kollisionsobjekte zu bestimmen. Somit weist die Berechnungseinheit einen lernenden Algorithmus auf, der bevorzugt die erfassten und individuellen Beispiele verallgemeinert und in den erfassten Beispielen Gesetzmäßigkeiten erkennt, die dann beim zukünftigen Erfassen von Kollisionsobjekten verwendet werden können. Alternativ oder zusätzlich kann der Speicher mit vorgespeicherten Informationen, beispielsweise bereits bekannte Kollisionsobjektparameter und -merkmale, bereitgestellt werden, auf die die Berechnungseinheit beim Ermitteln der Kollisionsobjektparameter zugreifen kann.In a further embodiment, the calculation unit is further adapted to determine the presence and / or the type of a collision object on the basis of stored data with respect to previously detected collision objects. In this embodiment, the calculation unit has a memory in which the parameters and features of already determined and detected collision objects are stored, for. B. the respective outlines or silhouettes of pedestrians, motorcyclists, cyclists, etc. in plan view, side view, front view. Upon re-detection of collision objects, the calculation unit may access and compare this data with the parameters and features of the newly detected collision objects to determine the presence and / or type of the collision objects. Thus, the calculation unit has a learning algorithm which preferably generalizes the detected and individual examples and recognizes laws in the acquired examples, which can then be used in the future detection of collision objects. Alternatively or additionally, the memory can be provided with prestored information, for example already known collision object parameters and features, which the calculation unit can access when determining the collision object parameters.

In der vorliegenden Beschreibung beziehen sich (Kollisionsobjekt-)Parameter auf die spezielle Silhouette bzw. das spezielle Aussehen des Kollisionsobjekts auf dem Aufnahmebild. So sind beispielsweise ein von oben erkannter Kopf und Arme bzw. Schultern Kollisionsobjektparameter für einen Fußgänger. Ferner sind z. B. zwei dünnere Striche mit einem Menschenumriss dazwischen die Kollisionsobjektparameter für einen Fahrradfahrer und zwei dickere Striche mit einem Menschenumriss dazwischen die Kollisionsobjektparameter für einen Motorradfahrer.In the present description, (collision object) parameters refer to the particular silhouette of the collision object on the captured image. For example, a head detected from above and arms or shoulders are collision object parameters for a pedestrian. Furthermore, z. For example, two thinner strokes with a human outline in between, the collision object parameters for a cyclist and two thicker strokes with a human outline in between, the collision object parameters for a motorcyclist.

Im Gegensatz zu den (Kollisionsobjekt-)Parametern sind (Kollisionsobjekt-)Merkmale dahingehend zu verstehen, dass diese z. B. die Geschwindigkeit des Kollisionsobjekts, das Richtungsänderungsvermögen des Kollisionsobjekts, die Größe des Kollisionsobjekts und/oder das Geschwindigkeitsänderungsvermögen des Kollisionsobjekts umfassen. So ist für einen Fußgänger eine andere Merkmalsgeschwindigkeit hinterlegt als für einen Motorradfahrer. Vorteilhafterweise ist die Berechnungseinheit ferner dazu angepasst, die von der Aufnahmeeinheit erfassten Aufnahmebilder in zumindest zwei Bildbereiche zu unterteilen und das Vorhandensein und/oder die Art des Kollisionsobjekts in Abhängigkeit davon, in welchem der zumindest zwei Bildbereiche sich das Kollisionsobjekt befindet, auf Basis unterschiedlicher Parameter zu bestimmen. In einer bevorzugten Ausgestaltung unterteilt die Berechnungseinheit die von der Aufnahmeeinheit erfassten Daten in drei Bildbereiche. Somit teilt die Berechnungseinheit den von der Aufnahmeeinheit erfassten Sichtbereich in zumindest zwei Bildbereiche auf, z. B. einen fahrzeugnahen Bereich und einen fahrzeugentfernten Bereich, so dass die Aufnahmeeinheit ein multiperspektivisches Aufnahmebild erfasst, das unterschiedliche Blickwinkel auf ein Objekt, abhängig von seiner Relativposition zum Aufnahmegerät der Aufnahmeeinheit, aufweist. Demzufolge ist die perspektivische Erfassung bzw. der Blickwinkel eines Kollisionsobjekts im fahrzeugnahen Bereich zu der perspektivischen Erfassung bzw. dem Blickwinkel des Kollisionsobjekts im fahrzeugentfernten Bereich unterschiedlich, so dass die Berechnungseinheit der Ermittlung des Kollisionsobjekts in den zumindest zwei Bildbereichen unterschiedliche Parameter zugrunde legt. Beispielsweise wird ein Fußgänger im fahrzeugnahen Bereich von oben aufgenommen und hat demnach auf dem Wiedergabebild eine andere Darstellung als ein Fußgänger im fahrzeugentfernten Bereich, der von oben nach schräg unten erfasst wird. Die Berechnungseinheit ist somit in dieser Ausgestaltung dazu angepasst, aus den beiden unterschiedlichen Abbildungen des Fußgängers überhaupt auf die Kollisionsobjektart "Fußgänger" zu schließen.In contrast to the (collision object) parameters are (Kollisionsobjekt-) features to be understood that these z. For example, the speed of the collision object, the directional change ability of the collision object, the size of the collision object and / or the speed change capability of the collision object. For a pedestrian a different feature speed is stored than for a motorcyclist. Advantageously, the calculation unit is further adapted to subdivide the captured images of the capture unit into at least two image areas and the presence and / or the nature of the collision object depending on in which of the at least two image areas the collision object is based on different parameters determine. In a preferred embodiment, the calculation unit divides the data acquired by the recording unit into three image areas. Thus, the calculation unit divides the field of view detected by the acquisition unit into at least two image areas, e.g. For example, a vehicle-proximate area and a vehicle-remote area, so that the recording unit detects a multi-perspective recording image having different angles of view of an object, depending on its relative position to the recording device of the recording unit. Consequently, the perspective detection or the viewing angle of a collision object in the vehicle-proximate area to the perspective detection or the viewing angle of the collision object in the vehicle-distant area is different, so that the calculation unit determines the collision object in the at least two image areas based on different parameters. For example, a pedestrian is received in the vehicle-near area from the top and therefore has a different representation on the playback picture than a pedestrian in the vehicle-distant area, which is detected from top to bottom obliquely. The calculation unit is thus adapted in this embodiment to infer from the two different images of the pedestrian on the Kollisionsobjektart "pedestrian".

In einem weiteren Beispiel wird ein sich in unmittelbarer Fahrzeugumgebung befindlicher Fahrradfahrer, der beispielsweise von oben erfasst wird, auf dem Aufnahmebild als zwei Striche, die die Räder des Fahrrads als Draufsicht darstellen, und als Körper des Fahrradfahrers von oben dargestellt. Aus dieser Darstellung kann die Berechnungseinheit auf das Kollisionsobjekt "Fahrradfahrer" schließen.In another example, an on-vehicle cyclist, for example, being detected from above, is displayed on the photograph as two dashes representing the wheels of the bicycle as a top view and as a body of the cyclist from above. From this representation, the calculation unit can close the collision object "cyclist".

Das Aufnahmegerät der Aufnahmeeinheit, das beispielsweise eine Kamera ist, weist ein Objektiv auf, das den Verlauf der optischen Achse festlegt. Durch Einstellen der Ausrichtung des Objektivs wird die optische Achse wie gewünscht eingestellt, so dass diese mit der Fahrbahn einen gewünschten Winkel einschließt, der im Bereich von ungefähr 5° bis 90° liegt. So ist es bevorzugt, dass die optische Achse die Fahrbahn schneidet und nicht parallel zu der Fahrbahn bzw. zur Längsrichtung des Fahrzeugs verläuft. Auf Grund dieses Verlaufs der optischen Achse ist das Aufnahmegerät in der Lage, multiperspektivische Bilder der Fahrzeugumgebung zu erfassen.The recording device of the recording unit, which is for example a camera, has a lens which determines the course of the optical axis. By adjusting the orientation of the lens, the optical axis is adjusted as desired to include a desired angle with the roadway that is in the range of about 5 ° to 90 °. Thus, it is preferable that the optical axis intersects the road surface and does not run parallel to the roadway or to the longitudinal direction of the vehicle. Due to this course of the optical Axis, the recording device is able to capture multi-perspective images of the vehicle environment.

Vorteilhafterweise ist die Berechnungseinheit ferner dazu angepasst, aus den Kollisionsobjektparametern zu erkennen, ob es sich bei an zwei verschiedenen Zeitpunkten erkannten Kollisionsobjekten um ein und das selbe Kollisionsobjekt, beispielsweise einen sich entlang des Fahrzeugs bewegenden Fußgänger oder Fahrradfahrer, handelt. Die Berechnungseinheit kann dabei bevorzugt aus den von der Aufnahmeeinheit an verschiedenen Zeitpunkten erfassten Aufnahmebildern diesen Fußgänger bzw. Fahrradfahrer erkennen und somit "verfolgen". Sobald sich die Trajektorie des Fußgängers derart ändert, dass die Kollisionswahrscheinlichkeit mit diesem einen vorbestimmten Schwellenwert übersteigt, wird die oben erwähnte Warnung an den Fahrer ausgegeben bzw. der Eingriff in die Fahrzeugsteuerung vorgenommen, um eine Kollision mit dem erkannten Fußgänger bzw. Fahrradfahrer zu verhindern.Advantageously, the calculation unit is further adapted to recognize from the collision object parameters whether the collision objects detected at two different times are one and the same collision object, for example a pedestrian or cyclist moving along the vehicle. In this case, the calculation unit can preferably recognize these pedestrians or cyclists from the recorded images acquired by the recording unit at different points in time and thus "track" them. As soon as the trajectory of the pedestrian changes such that the collision probability exceeds a predetermined threshold therewith, the above-mentioned warning is issued to the driver or intervention is made in the vehicle control to prevent a collision with the recognized pedestrian or cyclist.

In einer weiteren Ausgestaltung ist die Berechnungseinheit ferner dazu ausgebildet, wenigstens ein Kollisionsobjekt anhand von den oben genannten Kollisionsobjektparametern zu erfassen. Als Kollisionsobjektparameter sind beispielsweise die Bewegungsgeschwindigkeit des Kollisionsobjekts, die Position des Kollisionsobjekts relativ zum Fahrzeug, die Position des Kollisionsobjekts relativ zum Aufnahmegerät und/oder die Größe des Kollisionsobjekts zu erwähnen.In a further embodiment, the calculation unit is further configured to detect at least one collision object based on the above-mentioned collision object parameters. As collision object parameters, for example, the movement speed of the collision object, the position of the collision object relative to the vehicle, the position of the collision object relative to the recording device and / or the size of the collision object are to be mentioned.

Die Berechnungseinheit ist in einer weiteren Ausgestaltung dazu angepasst, die Trajektorie des Fahrzeugs und/oder die Trajektorie des Kollisionsobjekts zu bestimmen. Dabei zeichnet die Berechnungseinheit aus den von der Aufnahmeeinheit erfassten Daten die Trajektorie des Kollisionsobjekts auf und kann außerdem die zukünftige Trajektorie des Kollisionsobjekts abschätzen. Diese Abschätzung der Trajektorie wird beim kontinuierlichen Erfassen und Auswerten der von der Aufnahmeeinheit erfassten Daten aktualisiert.In another embodiment, the calculation unit is adapted to determine the trajectory of the vehicle and / or the trajectory of the collision object. In this case, the calculation unit records the trajectory of the collision object from the data acquired by the acquisition unit and can also estimate the future trajectory of the collision object. This estimation of the trajectory is updated in the continuous acquisition and evaluation of the data acquired by the acquisition unit.

Außerdem ermittelt die Berechnungseinheit vorzugsweise in einer weiteren Ausgestaltung die tatsächliche und die abgeschätzte Trajektorie des Fahrzeugs, das mit dem Fahrerassistenzsystem ausgestattet ist, beispielsweise aus der Fahrzeuggeschwindigkeit, der Lenkbewegungen des Fahrzeugs, dem Aktivierungszustand eines Blinkers des Fahrzeugs und/oder den globalen Positionsdaten (GPS-Daten) des Fahrzeugs. Sind die Trajektorien des Fahrzeugs und des Kollisionsobjekts ermittelt, kann die Berechnungseinheit die oben genannte Warnung und/oder den Eingriff in die Fahrzeugsteuerung vornehmen, wenn die Berechnungseinheit aus den ermittelten Trajektorien eine erwartete Kollision berechnet. Alternativ oder zusätzlich kann die Berechnungseinheit aus den Trajektorien eine Kollisionswahrscheinlichkeit des Fahrzeugs mit dem Kollisionsobjekt ermitteln und den Fahrer des Fahrzeugs warnen, wenn diese Wahrscheinlichkeit einen vorbestimmten Schwellenwert übersteigt, oder die Art der Warnung in Abhängigkeit von der Kollisionswahrscheinlichkeit ändern.In addition, in another embodiment, the calculation unit preferably determines the actual and the estimated trajectory of the vehicle that is equipped with the driver assistance system, for example from the vehicle speed, the steering movements of the vehicle, the activation state of a turn signal of the vehicle and / or the global position data (GPS). Data) of the vehicle. Once the trajectories of the vehicle and the collision object have been determined, the calculation unit may issue the above warning and / or make the intervention in the vehicle control when the calculation unit calculates an expected collision from the determined trajectories. Alternatively or additionally, the calculation unit can determine from the trajectories a collision probability of the vehicle with the collision object and warn the driver of the vehicle if this probability exceeds a predetermined threshold value, or change the type of warning as a function of the collision probability.

In einer weiteren Ausgestaltung weist das Fahrerassistenzsystem zusätzlich zur Aufnahmeeinheit zumindest einen Sensor, beispielsweise einen Radar- und/oder Ultraschallsensor, als Abstandssensor auf, der am Fahrzeug, insbesondere Nutzfahrzeug, angebracht ist. Der Sensor kann beispielsweise ein Kollisionsobjekt in der unmittelbaren Fahrzeugumgebung ermitteln und ein entsprechendes Signal an die Berechnungseinheit senden. Die Berechnungseinheit kann zusätzlich zu den von der Aufnahmeeinheit erfassten Aufnahmebilder die Daten des wenigstens einen Sensors beim Ermitteln der Kollisionsobjektparameter verwenden. Ferner kann die Berechnungseinheit die von dem wenigstens einen Sensor empfangenen Daten bei der Berechnung der Kollisionswahrscheinlichkeit berücksichtigen. Andere zusätzliche Sensoren können z. B. ein GPS Sensor für GPS Daten des Fahrzeugs sein, dessen Daten ebenfalls in die Bestimmung eingehen, ob ein erfasstes Objekt ein Kollisionsobjekt ist.In a further refinement, the driver assistance system has, in addition to the receiving unit, at least one sensor, for example a radar and / or ultrasound sensor, as a distance sensor which is mounted on the vehicle, in particular the commercial vehicle. By way of example, the sensor can determine a collision object in the immediate vehicle environment and send a corresponding signal to the calculation unit. The calculation unit may use the data of the at least one sensor in determining the collision object parameters in addition to the acquisition images acquired by the acquisition unit. Furthermore, the calculation unit can take into account the data received from the at least one sensor in the calculation of the collision probability. Other additional sensors may, for. B. be a GPS sensor for GPS data of the vehicle, whose data are also included in the determination of whether a detected object is a collision object.

Bevorzugt gibt die Berechnungseinheit insbesondere eine Warnung an den Fahrer des Fahrzeugs aus und/oder nimmt einen Eingriff in die Fahrzeugsteuerung vor, wenn ausgewählte Kollisionsobjekte, wie z. B. sich bewegende Objekte oder sich mit einer größeren Geschwindigkeit als einer bestimmten Schwellengeschwindigkeit bewegende Objekte, ermittelt werden. Dabei wird beim Erfassen eines Kollisionsobjekts zusätzlich noch bestimmt, ob es sich um ein solches ausgewähltes Objekt handelt.In particular, the calculation unit preferably issues a warning to the driver of the vehicle and / or intervenes in the vehicle control if selected collision objects, such as, for example, crashed. B. moving objects or moving at a speed greater than a certain threshold speed objects are determined. In addition, when detecting a collision object, it is additionally determined whether it is such a selected object.

Das erfindungsgemäße Fahrerassistenzsystem bestimmt bevorzugt, wie weit entfernt sich ein erkanntes Kollisionsobjekt vom Fahrzeug befindet. Aus dem ermittelten Abstand und unter Berücksichtigung der Kollisionsobjektgeschwindigkeit und der Fahrzeuggeschwindigkeit kann die Berechnungseinheit die Kollisionswahrscheinlichkeit bestimmen und eine Warnung an den Fahrer ausgeben bzw. einen Eingriff in die Fahrzeugsteuerung vornehmen, wenn die berechnete Kollisionswahrscheinlichkeit einen vorbestimmten Wert überschreitet. Die Bestimmung des Abstandes des Objekts zum Fahrzeug kann entweder vor der Bestimmung, ob es ein Kollisionsobjekt ist, oder erst danach erfolgen. Kollisionsobjekte mit erhöhter Kollisionswahrscheinlichkeit erhalten eine erhöhte Priorität und führen zum Ausgeben einer Warnung als Kollisionsobjekte mit niedriger Kollisionswahrscheinlichkeit.The driver assistance system according to the invention preferably determines how far away a detected collision object from the vehicle is. From the determined distance and taking into account the collision object speed and the vehicle speed, the calculation unit can determine the collision probability and issue a warning to the driver or intervene in the vehicle control if the calculated collision probability exceeds a predetermined value. The determination of the distance of the object to the vehicle can be made either before determining whether it is a collision object or only afterwards. Collision objects with increased collision probability receive an increased priority and cause a warning to be issued as low collision probability collision objects.

Vorteilhafterweise enthält der von der Aufnahmeeinheit erfasste Sichtbereich zumindest einen Teil eines gesetzlich vorgeschriebenen Sichtfelds. Das gesetzlich vorgeschriebene Sichtfeld kann einem der Sichtfelder entsprechen, die in der ECE-Richtlinie R 46 definiert sind. In einer bevorzugten Ausgestaltung ist die Aufnahmeeinheit dazu angepasst, zumindest einen Teil eines ersten gesetzlich vorgeschriebenen Sichtfelds und/oder einen Teil eines zweiten gesetzlich vorgeschriebenen Sichtfelds und/oder einen Teil eines dritten gesetzlich vorgeschriebenen Sichtfelds und/oder einen Teil eines vierten gesetzlich vorgeschriebenen Sichtfelds zu erfassen. Vorzugsweise entspricht das erste gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld II gemäß der ECE Richtlinie R 46, das zweite gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld IV gemäß der ECE Richtlinie R 46, das dritte gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld V gemäß der ECE Richtlinie R 46 und das vierte gesetzlich vorgeschriebene Sichtfeld dem Sichtfeld VI gemäß der ECE Richtlinie R 46. Vorteilhafterweise erfasst eine erste Aufnahmeeinheit zumindest einen Teil des ersten und/oder zweiten Sichtfelds und eine zweite Aufnahmeeinheit zumindest einen Teil des dritten und/oder vierten Sichtfelds.Advantageously, the field of vision detected by the receiving unit contains at least part of a legally prescribed field of view. The legally prescribed field of view may correspond to one of the fields of view defined in ECE Guideline R 46. In a preferred embodiment, the receiving unit is adapted to capture at least a portion of a first legally prescribed field of view and / or part of a second legally prescribed field of view and / or part of a third legally prescribed field of view and / or part of a fourth legally prescribed field of view , Preferably, the first legally prescribed field of view corresponds to field of view II according to ECE Directive R 46, the second legally prescribed field of view IV according to ECE Directive R 46, the third legally prescribed field of view V according to ECE Directive R 46 and the fourth legally prescribed field of view the field of view VI according to the ECE Directive R 46. Advantageously, a first recording unit detects at least a portion of the first and / or second field of view and a second recording unit at least a portion of the third and / or fourth field of view.

Bevorzugt umfasst das Ausgeben einer Warnung an den Fahrer des Fahrzeugs einen visuellen, akustischen und/oder haptischen Hinweis. Beispielsweise wird dem auf dem von der Wiedergabeeinheit dargestellten Wiedergabebild ein visueller Hinweis auf das Kollisionsobjekt gegeben, insbesondere über ein Blinken des Wiedergabebildes, ein Einfärben des Wiedergabebildes und/oder ein Ändern der Wiedergabequalität des Wiedergabebildes. Ein akustischer Hinweis kann beispielsweise ein kurzer Ton sein, der den Fahrer über einen Lautsprecher im Fahrzeug daraufhinweist, dass sich ein Kollisionsobjekt in der Fahrzeugumgebung befindet. Ferner kann ein haptischer Hinweis beispielsweise eine Vibration des Lenkrads des Fahrzeugs sein, das den Fahrer auf das sich in der Fahrzeugumgebung befindende Kollisionsobjekt hinweist.The issuing of a warning to the driver of the vehicle preferably comprises a visual, acoustic and / or haptic indication. For example, a visual indication of the collision object is given to the reproduction image displayed on the reproduction unit, in particular via flashing of the reproduction image, coloring of the reproduction image and / or changing the reproduction quality of the reproduction image. An acoustic indication may be, for example, a short tone that indicates to the driver via a loudspeaker in the vehicle that there is a collision object in the vehicle environment. Further, a haptic indication may be, for example, a vibration of the steering wheel of the vehicle, which indicates the driver to the object of collision located in the vehicle environment.

Die Aufnahmeeinheit, die ein Aufnahmebild der Fahrzeugumgebung erstellt und dieses der Berechnungseinheit bereitstellt, ist mit der Berechnungseinheit über eine erste Verbindung verbunden, beispielsweise ein geeignetes Datenkabel zur digitalen oder analogen Übertragung der von der Aufnahmeeinheit erfassten Aufnahmebilder. Die Berechnungseinheit ist ferner mit der Wiedergabeeinheit über eine zweite Verbindung verbunden, beispielsweise ein geeignetes Datenkabel zur digitalen oder analogen Übertragung von Bildern. Alternativ kann eine oder beide der oben genannten Verbindungen auch drahtlos ausgeführt werden, beispielsweise über Bluetooth, WLAN oder eine Infrarot-Verbindung.The recording unit, which creates a recording image of the vehicle environment and provides it to the calculation unit, is connected to the calculation unit via a first connection, for example a suitable data cable for the digital or analog transmission of the acquisition images captured by the acquisition unit. The calculation unit is further connected to the playback unit via a second connection, for example a suitable one Data cable for digital or analog transmission of images. Alternatively, one or both of the above-mentioned connections can also be carried out wirelessly, for example via Bluetooth, WLAN or an infrared connection.

Ferner ist es bevorzugt, dass die Wiedergabeeinheit dazu ausgebildet ist, das empfangene Wiedergabebild dauerhaft und in Echtzeit darzustellen. Dabei ist auch die Aufnahmeeinheit vorzugsweise dazu ausgebildet, dauerhaft und in Echtzeit Aufnahmebilder zu erfassen, und die Berechnungseinheit dazu ausgebildet, diese Aufnahmebilder ebenfalls dauerhaft und in Echtzeit zu verarbeiten. Dauerhaft bedeutet hier, dass beispielsweise die Darstellung des Wiedergabebildes nicht durch andere Angaben (zeitlich) unterbrochen wird, so dass der Fahrer jederzeit bei einem Blick auf die Wiedergabeeinheit in die Umgebung des Fahrzeugs einsehen und auf relevante Hindernisse und Kollisionsobjekte hingewiesen werden kann. Dauerhaft bedeutet aber auch, dass die Darstellung der Sichtfelder wenigstens im Fahrbetrieb des Nutzfahrzeugs durchgängig vorhanden ist. Der Zustand, der mit "dauerhaft" beschrieben und davon umfasst werden soll, kann auch optional auf den Zündzustand des Fahrzeugs oder beispielsweise auf einen Zustand, in dem sich ein Fahrer im Fahrzeug befinden kann, z. B. abhängig vom Erfassen einer sich in der Nähe des Fahrzeugs oder im Fahrzeug befinden Schlüsseleinrichtung, ausgeweitet werden.Furthermore, it is preferred that the playback unit is designed to display the received playback picture permanently and in real time. In this case, the recording unit is also preferably designed to record recorded images permanently and in real time, and the calculation unit is designed to process these recording images also permanently and in real time. Permanent means here that, for example, the representation of the playback image is not interrupted by other information (temporally), so that the driver at any time can look at the playback unit in the environment of the vehicle and be notified of relevant obstacles and collision objects. However, permanent means also that the representation of the fields of view at least in driving operation of the commercial vehicle is continuously available. The condition which is to be described as "permanently" and to be encompassed by it may also optionally be based on the ignition state of the vehicle or, for example, on a state in which a driver may be in the vehicle, eg. B. depending on detecting a located in the vicinity of the vehicle or in the vehicle key device, be extended.

Die Berechnungseinheit kann mit der Aufnahmeeinheit, der Wiedergabeeinheit oder dem Steuergerät des Fahrzeugs integral ausgeführt werden. Des Weiteren kann die Berechnungseinheit als separate Einheit im oder am Fahrzeug angebracht werden, z. B. integral mit einem Bordcomputer. Die Wiedergabeeinheit kann eine Einheit sein, die in geeigneter Weise das von der Berechnungseinheit bereitgestellte Wiedergabebild für den Fahrer des Fahrzeugs einsehbar darstellt. Beispielsweise kann die Wiedergabeeinheit ein separates Gerät, beispielsweise ein LCD, ein LED, ein Projektor oder ähnliches sein. Außerdem kann die Wiedergabeeinheit mit dem sogenannten Central Information Display, das sich bereits standardmäßig im Fahrzeug befinden kann, integral ausgeführt sein. Die Aufnahmeeinheit kann bevorzugt eine Kamera mit einem Objektiv sein, die sich am oder im Fahrzeug angebracht befinden kann.The calculation unit may be integrally implemented with the recording unit, the playback unit or the control unit of the vehicle. Furthermore, the calculation unit can be mounted as a separate unit in or on the vehicle, for. B. integral with an on-board computer. The reproducing unit may be a unit suitably displaying the reproduced image provided by the calculating unit to the driver of the vehicle. For example, the playback unit may be a separate device, such as an LCD, an LED, a projector, or the like. In addition, the playback unit with the so-called Central Information Display, which can already be standard in the vehicle, be integral. The receiving unit may preferably be a camera with a lens which may be mounted on or in the vehicle.

Mit dem hierin offenbarten Fahrerassistenzsystem können gefährliche Kollisionsobjekte erkannt und der Fahrer frühzeitig vor diesen Kollisionsobjekten gewarnt werden und bei Bedarf sogar ein Eingriff in die Fahrzeugsteuerung erfolgen, so dass das Unfallrisiko reduziert werden kann. Insbesondere bei einem Spurwechsel auf der Autobahn, beim Auffahren auf Autobahnen oder Abbiegevorgängen inner- und außerorts kann das hierin offenbarte Fahrerassistenzsystem präventiv Unfälle vermeiden. Vorteilhafterweise wird das Fahrerassistenzsystem an Nutzfahrzeugen eingesetzt, da bei Nutzfahrzeugen, wie beispielsweise Lastkraftwägen, die direkte Sicht auf andere Verkehrsteilnehmer, wie beispielsweise Fußgänger und Fahrradfahrer, die sich parallel zum Fahrzeug bewegen, kaum möglich ist. Ferner kann der Fahrer besonders vor Kollisionsobjekten gewarnt werden, die der Fahrer zwar in den Vorrichtungen für indirekte Sicht, beispielsweise Spiegel, erkennt, jedoch fälschlicherweise als unkritisch einstuft. Zum Beispiel kann ein Fußgänger zunächst unkritisch sein, sich jedoch im nächsten Moment auf Kollisionskurs mit dem Fahrzeug befinden.With the driver assistance system disclosed herein, dangerous collision objects can be detected and the driver can be warned prematurely of these collision objects and, if necessary, an intervention in the vehicle control can take place, so that the accident risk can be reduced. Especially when changing lanes on the highway, when driving on highways or in-and-out turns, the driver assistance system disclosed herein may preventively prevent accidents. Advantageously, the driver assistance system is used on commercial vehicles, since in commercial vehicles, such as trucks, the direct view of other road users, such as pedestrians and cyclists who move parallel to the vehicle, is hardly possible. Furthermore, the driver can be particularly warned of collision objects, which the driver recognizes in the devices for indirect vision, such as mirrors, but incorrectly classified as uncritical. For example, a pedestrian may initially be uncritical, but at the next moment be on a collision course with the vehicle.

Nachfolgend wird die Erfindung beispielhaft anhand der beigefügten Figuren beschrieben, in denen:

Fig. 1
eine schematische Darstellung eines Fahrerassistenzsystems darstellt;
Fig. 2
ein an einem Nutzfahrzeug angebrachtes Fahrerassistenzsystem darstellt;
Fig. 3
schematisch die Untergliederung des Sichtbereichs in drei Bereiche darstellt;
Fig. 4
schematisch ein von der Aufnahmeeinheit multiperspektivisches Aufnahmebild darstellt;
Fig. 5
ein beispielhaftes Ablaufdiagramm der von dem Fahrerassistenzsystem durchgeführten Schritte darstellt und
Fig. 6
ein beispielhaftes Ablaufdiagramm für die Bestimmung der Art des Kollisionsobjekts und der Kollisionswahrscheinlichkeit darstellt.
The invention will now be described by way of example with reference to the accompanying drawings, in which:
Fig. 1
a schematic representation of a driver assistance system represents;
Fig. 2
represents a mounted on a commercial vehicle driver assistance system;
Fig. 3
schematically illustrates the subdivision of the field of view into three areas;
Fig. 4
schematically illustrates a multi-perspective shot of the recording unit;
Fig. 5
FIG. 3 is an exemplary flowchart illustrating the steps performed by the driver assistance system; and FIG
Fig. 6
an exemplary flowchart for the determination of the type of collision object and the collision probability represents.

Fig. 1 zeigt schematisch ein Fahrerassistenzsystem 10. Das Fahrerassistenzsystem 10, das an einem Nutzfahrzeug 50 (siehe Fig. 2), wie beispielsweise einem Lastkraftwagen, verwendet werden kann, umfasst wenigstens eine Bildaufnahmeeinheit 20, eine Berechnungseinheit 30 und eine Wiedergabeeinheit 40. Die in der Fig. 1 dargestellte Aufnahmeeinheit 20 weist ein erstes Aufnahmegerät, beispielsweise eine erste Kamera 22, und ein zweites Aufnahmegerät, beispielsweise eine zweite Kamera 24, auf, die an unterschiedlichen Positionen am Nutzfahrzeug angebracht werden können. Der von der ersten Kamera 22 erfasste Sichtbereich wird daraufhin der Berechnungseinheit 30 über eine erste Verbindung 21, beispielsweise ein geeignetes Datenkabel zur digitalen Übertragung der von der Bildaufnahmeeinheit erfassten Bilder, bereitgestellt, und der von der zweiten Kamera 24 erfasste Sichtbereich wird daraufhin der Berechnungseinheit 30 über eine zweite Verbindung 23, beispielsweise ein geeignetes Datenkabel zur digitalen Übertragung der von der Bildaufnahmeeinheit erfassten Bilder, bereitgestellt. In einer Ausgestaltung sind die erste und zweite Kamera 22, 24 hochdynamische und hochauflösende Kameras, die jeweils einen Seitenspiegel des Fahrzeugs ersetzen Alternativ ist das Fahrerassistenzsystem 10 ein zu einem Kamerasystem, das die Seitenspiegel ersetzende Kameras aufweist, zusätzliches System. Fig. 1 schematically shows a driver assistance system 10. The driver assistance system 10, which on a commercial vehicle 50 (see Fig. 2 ), such as a truck, includes at least one image pickup unit 20, a computing unit 30, and a display unit 40 Fig. 1 Recording unit 20 shown has a first recording device, such as a first camera 22, and a second recording device, such as a second camera 24, which at different positions on the commercial vehicle can be attached. The field of vision detected by the first camera 22 is then provided to the calculation unit 30 via a first connection 21, for example a suitable data cable for the digital transmission of the images captured by the image acquisition unit, and the field of vision detected by the second camera 24 is then transferred to the calculation unit 30 a second connection 23, for example a suitable data cable for the digital transmission of the images captured by the image acquisition unit. In one embodiment, the first and second cameras 22, 24 are highly dynamic and high-resolution cameras, each replacing a side mirror of the vehicle. Alternatively, the driver assistance system 10 is an additional system to a camera system that replaces the side mirrors.

Die Berechnungseinheit 30 ist dazu ausgebildet, die erfassten Bilder zu einem Wiedergabebild in einer gewünschten Weise zu modifizieren. Beispielsweise kann die Berechnungseinheit 30 die von der Bildaufnahmeeinheit 20 erfassten Aufnahmebilder auswerten und bestimmte Kollisionsobjekte in dem Aufnahmebild erfassen, so dass eine Warnung an den Fahrer des Nutzfahrzeugs 50 ausgegeben wird. Das von der Berechnungseinheit 30 modifizierte Wiedergabebild wird dann der Wiedergabeeinheit 40 über eine dritte Verbindung 31, beispielsweise ein geeignetes Datenkabel zur digitalen Übertragung von Bildern, bereitgestellt. Die Wiedergabeeinheit 40 ist dazu angepasst, das Wiedergabebild einem Fahrer des Nutzfahrzeugs 50 einsehbar fotorealistisch darzustellen. Dabei kann die Wiedergabeeinheit 40 sowohl das von der ersten Kamera 22 erfasste Bild und das von der zweiten Kamera 24 erfasste Bild in einer Darstellung wiedergeben, beispielsweise im sogenannten Split-Screen-Verfahren.The calculation unit 30 is configured to modify the captured images to a display image in a desired manner. For example, the calculation unit 30 can evaluate the captured images of the image acquisition unit 20 and detect certain collision objects in the captured image, so that a warning is issued to the driver of the utility vehicle 50. The reproduction image modified by the calculation unit 30 is then provided to the rendering unit 40 via a third connection 31, for example a suitable data cable for the digital transmission of images. The reproduction unit 40 is adapted to present the reproduction image photorealistically to a driver of the utility vehicle 50 in a visible manner. In this case, the reproduction unit 40 can reproduce both the image captured by the first camera 22 and the image captured by the second camera 24 in a representation, for example in the so-called split-screen method.

Ferner ist in der Fig. 2 die optische Achse 28 des ersten Aufnahmegeräts 22 der Aufnahmeeinheit 20 gezeigt, die mit der Fahrbahn des Fahrzeugs einen Winkel α einschließt. Der Winkel α ist derart gewählt, dass die Aufnahmeeinheit ein Bild von oben nach schräg unten erfasst. Der Winkel α liegt bevorzugt in einem Bereich von ungefähr 5° bis ungefähr 90°.Furthermore, in the Fig. 2 the optical axis 28 of the first recording device 22 of the receiving unit 20 is shown, which forms an angle α with the roadway of the vehicle. The angle α is chosen such that the recording unit captures an image from above to below obliquely. The angle α is preferably in a range of about 5 ° to about 90 °.

Unter Bezugnahme auf die Fig. 2 ist das Fahrerassistenzsystem 10 dargestellt, das an dem Nutzfahrzeug 50 angebracht ist. Dabei ist zu beachten, dass die Berechnungseinheit 30 und die Wiedergabeeinheit 40 in der Fig. 2 nicht explizit dargestellt sind. Die Aufnahmeeinheit 20 ist beispielsweise an einer erhöhten Position auf der Fahrerseite des Nutzfahrzeugs 50 derart angebracht, dass im Wesentlichen ein Sichtbereich 60 von oben nach schräg unten erfasst wird. Beispielsweise ist die Aufnahmeeinheit 20 ungefähr 2 m über der Fahrbahn auf der Fahrerseite des Fahrzeugs 50 angebracht. Es ist zu beachten, dass der Sichtbereich 60 eine dreidimensionale Gestalt hat, jedoch in der Fig. 2 nur der auf die Fahrbahn projizierte und erfasste Bereich schraffiert dargestellt ist. Der von der Bildaufnahmeeinheit 20 erfasste Sichtbereich 60 umfasst zumindest einen Teil eines ersten gesetzlich vorgeschriebenen Sichtfelds 70 und zumindest einen Teil eines zweiten gesetzlich vorgeschriebenen Sichtfelds 72. Vorzugsweise entspricht das erste gesetzlich vorgeschriebene Sichtfeld 70 dem Sichtfeld II gemäß der ECE-Richtlinie R 46 und das zweite gesetzlich vorgeschriebene Sichtfeld 72 dem Sichtfeld IV gemäß der ECE Richtlinie R 46.With reference to the Fig. 2 the driver assistance system 10 is shown attached to the utility vehicle 50. It should be noted that the calculation unit 30 and the reproduction unit 40 in the Fig. 2 are not explicitly shown. The receiving unit 20 is mounted, for example, at an elevated position on the driver side of the utility vehicle 50 in such a way that essentially a viewing area 60 is detected obliquely from above becomes. For example, the receiving unit 20 is mounted approximately 2 m above the lane on the driver's side of the vehicle 50. It should be noted that the viewing area 60 has a three-dimensional shape, but in the Fig. 2 only the projected onto the roadway and captured area is shown hatched. The field of view 60 detected by the image acquisition unit 20 comprises at least a portion of a first legally prescribed field of view 70 and at least a portion of a second legally prescribed field of view 72. Preferably, the first legally prescribed field of view 70 corresponds to the field of view II according to the ECE Directive R 46 and the second legally prescribed field of view 72 the field of view IV according to ECE guideline R 46.

Die Fig. 3 zeigt schematisch die Relativposition eines Kollisionsobjekts 100 zu der Aufnahmeeinheit 20. In dem in der Fig. 2 gezeigten Beispiel ist das Kollisionsobjekt 100 ein Fußgänger 100. Der von der Aufnahmeeinheit 20 erfasste Sichtbereich 60 ist in einen ersten Bereich 62, einen zweiten Bereich 64 und einen dritten Bereich 66 unterteilt, die sich im Blickwinkel der Kollisionsobjekte und demnach in der Perspektive unterscheiden. So wird der Fußgänger 100 im ersten Bereich 62, der den fahrzeugnahen Bereich darstellt, in Draufsicht erfasst und demzufolge auf dem Wiedergabebild gemäß der Darstellung 101 dargestellt, in der man lediglich den Kopf und die Arme des Fußgängers 100 erkennt. Der Fußgänger 102 im zweiten Bereich 64 wird in einer Perspektive erfasst, die den Fußgänger 102 auf dem Wiedergabebild gemäß der Darstellung 103 gestaucht darstellt, und der Fußgänger 104 im dritten Bereich 66, der den fahrzeugentfernten Bereich darstellt, wird in einer Perspektive erfasst, die den Fußgänger 104 auf dem Wiedergabebild gemäß der Darstellung 104 nahezu realgetreu darstellt, da der Fußgänger 104 nahezu frontal erfasst wird.The Fig. 3 schematically shows the relative position of a collision object 100 to the receiving unit 20. In the in the Fig. 2 In the example shown, the collision object 100 is a pedestrian 100. The viewing area 60 detected by the recording unit 20 is subdivided into a first area 62, a second area 64 and a third area 66, which differ in the perspective of the collision objects and thus in the perspective. Thus, the pedestrian 100 in the first area 62, which represents the vehicle-proximate area, is detected in plan view and consequently displayed on the display image according to the representation 101, in which only the head and the arms of the pedestrian 100 are recognized. The pedestrian 102 in the second area 64 is detected in a perspective that upsets the pedestrian 102 on the reproduced image as shown in FIG. 103, and the pedestrian 104 in the third area 66, which is the vehicle-distant area, is detected in a perspective including the vehicle Pedestrian 104 on the display image as shown in the representation 104 almost real faithful, since the pedestrian 104 is detected almost frontal.

Das Fahrerassistenzsystem 10, insbesondere die Berechnungseinheit 30, ist in der Lage, aus den Darstellungen 101, 103, 105 das Vorhandensein und/oder die Art eines Kollisionsobjekts 100 zu bestimmen und daraufhin zu veranlassen, dass dem Fahrer des Fahrzeugs 50 eine visuelle, akustische und/oder haptische Warnung ausgegeben wird und/oder in die Steuerung des Fahrzeugs 50 eingegriffen wird. Dabei kann die Berechnungseinheit 30 für die verschiedenen Bereiche 62, 64, 66 auf verschiedene Kollisionsobjektparameter zurückgreifen und somit in diesen Bereichen 62, 62, 66 unterschiedliche Verfahren zur Kollisionsobjektbestimmung durchführen.The driver assistance system 10, in particular the calculation unit 30, is able to determine from the representations 101, 103, 105 the presence and / or the type of a collision object 100 and then cause the driver of the vehicle 50 to have a visual, acoustic and / haptic warning is issued and / or intervened in the control of the vehicle 50. In this case, the calculation unit 30 can fall back on different collision object parameters for the different regions 62, 64, 66 and thus perform different collision object determination methods in these regions 62, 62, 66.

Insbesondere ist die Berechnungseinheit 30 dazu angepasst, aus den Darstellungen 101, 103, 105 und deren Parametern beispielsweise einen Fußgänger von einem Fahrzeug, einem Fahrradfahrer, einem Motorradfahrer und/oder einem stationäre Kollisionsobjekt zu unterscheiden. Die Berechnungseinheit 30 greift dabei auf die für das jeweilig erfasste Kollisionsobjekt typischen Merkmale zurück, wie beispielsweise die typische Geschwindigkeit oder Richtungswechselvermögen, um beispielsweise die zukünftige Trajektorie des Kollisionsobjekts abzuschätzen. Die unterschiedlichen Silhouetten sind z. B. in einem Speicher, auf den die Berechnungseinheit 30 zugreifen kann, hinterlegt bzw. werden als sogenannte Kollisionsobjektparameter gelernt, die von der Relativposition zum Aufnahmegerät abhängig sind. Durch Vergleich des erfassten Aufnahmebildes mit dem bezüglich der Perspektive relevanten Kollisionsobjektparameter kann die Berechnungseinheit 30 den Typ des Kollisionsobjekts 100 bestimmen und daraufhin die erkannten Kollisionsobjektparameter im Speicher ablegen und dazulernen.In particular, the calculation unit 30 is adapted to distinguish, for example, a pedestrian from a vehicle, a cyclist, a motorcyclist and / or a stationary collision object from the representations 101, 103, 105 and their parameters. In this case, the calculation unit 30 uses the features typical of the respective collision object, such as the typical velocity or direction change capability, for example, to estimate the future trajectory of the collision object. The different silhouettes are z. B. in a memory, which can access the calculation unit 30, deposited or learned as so-called collision object parameters that are dependent on the relative position to the recording device. By comparing the captured image with the relevant with respect to the perspective Kollisionsobjektparameter the calculation unit 30 can determine the type of the collision object 100 and then store the detected Kollisionsobjektparameter in memory and learn.

Wird z. B. ein Fußgänger auf dem Aufnahmebild von der Berechnungseinheit 30 erkannt, so ist hinterlegt, dass sich dieser mit einer mittleren Geschwindigkeit bewegen kann, die geringer als die mittlere Geschwindigkeit eines erkannten Fahrradfahrers ist. Mit Hilfe solcher Kollisionsobjektmerkmale kann dann die zukünftige Trajektorie des Kollisionsobjekts abgeschätzt werden.If z. If, for example, a pedestrian is recognized by the calculation unit 30 on the recording image, it is recorded that the latter can move at an average speed which is lower than the average speed of a recognized cyclist. With the aid of such collision object features, the future trajectory of the collision object can then be estimated.

Die Fig. 4 zeigt beispielhaft ein von der Bildaufnahmeeinheit 20 erfasstes Bild, das zumindest einen Teil des Fahrzeugs 50, einen Fußgänger 100, 102, 104 und zumindest teilweise den Horizont 80 umfasst und in den ersten Bereich 62, den zweiten Bereich 64 und den dritten Bereich 66 unterteilt ist. Es ist zu beachten, dass der Fußgänger 100, 102, 104 ein und der gleiche Fußgänger ist, der zu verschiedenen Zeitpunkten erfasst wurde. Der Fußgänger 100 wird bei einem ersten Zeitpunkt in Draufsicht erfasst, wohingegen der Fußgänger 102 bzw. der Fußgänger 104 bei einem zweiten bzw. dritten Zeitpunkt erfasst werden, die beispielsweise später als der erste Zeitpunkt sind. In der Fig. 4 ist ebenfalls zu erkennen, dass der Fußgänger 100 auf dem Wiedergabebild eine unterschiedliche Darstellung aufweist als der Fußgänger 102 oder der Fußgänger 104.The Fig. 4 2 shows, by way of example, an image acquired by the image acquisition unit 20, which comprises at least part of the vehicle 50, a pedestrian 100, 102, 104 and at least partially the horizon 80 and is subdivided into the first region 62, the second region 64 and the third region 66 , It should be noted that the pedestrian 100, 102, 104 is one and the same pedestrian captured at different times. The pedestrian 100 is detected at a first time in plan view, whereas the pedestrian 102 and the pedestrian 104 are detected at a second and third time, for example, later than the first time. In the Fig. 4 It can also be seen that the pedestrian 100 has a different representation on the playback image than the pedestrian 102 or the pedestrian 104.

Die Berechnungseinheit 30 kann aus der Erfassungszeit und den Erfassungspositionen des Fußgängers 100, 102, 104 relativ zur Aufnahmeeinheit 20 die Trajektorie dieses Fußgängers 100, 102, 104 ermitteln und eine Kollisionswahrscheinlichkeit mit dem Fahrzeug 50 berechnen. Übersteigt die Kollisionswahrscheinlichkeit einen vorbestimmten Schwellenwert, gibt die Berechnungseinheit 30 ein Signal an den Fahrer aus und nimmt unter Umständen präventive Maßnahmen in der Fahrzeugsteuerung vor, um eine Kollision mit dem Kollisionsobjekt zu verhindern.The calculation unit 30 can determine the trajectory of this pedestrian 100, 102, 104 from the detection time and the detection positions of the pedestrian 100, 102, 104 relative to the recording unit 20 and calculate a collision probability with the vehicle 50. If the collision probability exceeds a predetermined threshold value, the calculation unit 30 outputs a signal to the driver and possibly takes preventive measures in the vehicle control in order to prevent a collision with the collision object.

In der Fig. 5 ist ein beispielhaftes Ablaufdiagramm der von dem Fahrerassistenzsystem 10 durchgeführten Schritte dargestellt. Das Verfahren beginnt beim Schritt 200, beispielsweise beim Anlassen des Fahrzeugs 50 oder bei der Aktivierung des Fahrerassistenzsystems 10. Die Aufnahmeeinheit 20 erfasst beim Schritt 202 kontinuierlich multiperspektivische Aufnahmebilder der Fahrzeugumgebung und sendet diese erfassten Aufnahmebilder beim Schritt 204 an die Berechnungseinheit 30. Die Berechnungseinheit 30 wertet bei der Abfrage 206 die empfangenen Aufnahmebilder hinsichtlich Objekte aus. Wird beim Schritt 206 kein Objekt im Aufnahmebild erkannt, kehrt das Verfahren zum Schritt 202 zurück. Wird jedoch beim Schritt 206 ein Objekt im Aufnahmebild, beispielsweise ein Fußgänger 100, im Aufnahmebild erkannt, schreitet das Verfahren zum Schritt 208 fort, bei dem ermittelt wird, ob das Objekt ein Kollisionsobjekt ist. Ferner wird beim Schritt 208 der Kollisionsobjekttyp und die Kollisionsobjektwahrscheinlichkeit ermittelt.In the Fig. 5 FIG. 3 is an exemplary flowchart of the steps performed by the driver assistance system 10. The method begins at step 200, for example, when the vehicle 50 is started or when the driver assistance system 10 is activated. The capture unit 20 continuously acquires multi-perspective vehicle-environment images at step 202 and sends these captured images to the computing unit 30 at step 204. The computing unit 30 evaluates at query 206, the received images are in terms of objects. If no object is detected in the captured image at step 206, the process returns to step 202. However, if an object in the shot image, such as a pedestrian 100, in the shot image is detected at step 206, the process proceeds to step 208, where it is determined whether the object is a collision object. Further, at step 208, the collision object type and the collision object probability are determined.

Der Schritt 208 der Fig. 5 stellt eine Unterroutine dar, die in der Fig. 6 genauer dargestellt ist. Die Unterroutine 208 beginnt beim Schritt 300. Beim darauffolgenden Schritt 302 bestimmt die Berechnungseinheit 30 aus dem von der Aufnahmeeinheit 20 empfangenen Aufnahmebild die Relativposition des Objekts 100 zum Aufnahmegerät. Dabei kann die Berechnungseinheit ferner Daten von z. B. einem am Fahrzeug 50 angebrachten Abstandssensor berücksichtigen. Ferner kann die Berechnungseinheit 30 in diesem Schritt weitere Objektparameter, wie beispielsweise die Größe des Kollisionsobjekts, bestimmen.The step 208 of Fig. 5 represents a subroutine used in the Fig. 6 is shown in more detail. The subroutine 208 starts at step 300. At the subsequent step 302, the computing unit 30 determines the relative position of the object 100 to the recorder from the captured image received by the capture unit 20. In this case, the calculation unit may further data from z. B. take into account a mounted on the vehicle 50 distance sensor. Further, in this step, the calculation unit 30 may determine further object parameters, such as the size of the collision object.

Beim Schritt 304 bestimmt die Berechnungseinheit 30 aus den im Schritt 302 ermittelten Objektparametern die Objektart, beispielsweise ob das Objekt ein Fußgänger, ein Fahrradfahrer, ein Fahrzeug oder ein statisches Objekt ist. Wird beispielsweise beim Schritt 304 ermittelt, dass das Objekt ein Fußgänger 100 ist, der sich weit entfernt vom Fahrzeug 50 befindet, kann die Unterroutine 208 an diesem Punkt wieder zum Verfahren der Fig. 5 zurückkehren, da das Objekt kein Kollisionsobjekt ist. Wird jedoch ein kritisches Objekt, beispielsweise ein Motorradfahrer in unmittelbarer Fahrzeugumgebung ermittelt, kann das Verfahren ebenfalls zum Verfahren der Fig. 5 zurückkehren, da bestimmt ist, dass das Objekt ein Kollisionsobjekt ist.At step 304, the computing unit 30 determines the object type from the object parameters determined at step 302, such as whether the object is a pedestrian, a cyclist, a vehicle, or a static object. For example, if it is determined at step 304 that the object is a pedestrian 100 that is far from the vehicle 50, subroutine 208 may revert to the method of FIG Fig. 5 return because the object is not a collision object. However, if a critical object, such as a motorcyclist determined in the immediate vicinity of the vehicle, the method can also be used to process the Fig. 5 return because it is determined that the object is a collision object.

Jedoch ist die Berechnungseinheit 30 in der Lage, die folgenden Schritte zusätzlich durchzuführen. Beim Schritt 306 kann die Berechnungseinheit 30 aus den ermittelten Objektparametern und/oder aus den zur ermittelten Objektart hinterlegten Kollisionsobjektparametern die Geschwindigkeit des Kollisionsobjekts ermitteln. Dabei kann die Berechnungseinheit 30 ferner auf die zeitlich zuvor ermittelte Position des Kollisionsobjekts und die damit verbundenen Kollisionsobjektparametern zurückgreifen. Außerdem erfasst die Berechnungseinheit 30 beim Schritt 306 die Geschwindigkeit des Fahrzeugs 50.However, the calculation unit 30 is capable of additionally performing the following steps. In step 306, the calculation unit 30 can determine the velocity of the collision object from the determined object parameters and / or from the collision object parameters stored for the determined object type. In this case, the calculation unit 30 can also refer back to the previously determined position of the collision object and the associated collision object parameters. In addition, the calculation unit 30 detects the speed of the vehicle 50 at step 306.

Aus den im Schritt 306 ermittelten Geschwindigkeiten schätzt bzw. berechnet die Berechnungseinheit 30 beim Schritt 310 die zukünftige Trajektorie des Kollisionsobjekts und des Fahrzeugs 50, aus denen die Berechnungseinheit 30 im Schritt 312 die Kollisionswahrscheinlichkeit berechnet, bevor es beim Schritt 314 zum Verfahren 200 der Fig. 5 zurückkehrt.From the velocities determined in step 306, the calculation unit 30 estimates in step 310 the future trajectory of the collision object and the vehicle 50, from which the calculation unit 30 calculates the collision probability in step 312, before, in step 314, the method 200 of FIG Fig. 5 returns.

Bei der Abfrage 210 der Fig. 5 wird abgefragt, ob das Objekt ein Kollisionsobjekt ist. Ist das Objekt kein Kollisionsobjekt, kehrt das Verfahren zum Schritt 202 zurück. Hat jedoch die Unterroutine 208 ergeben, dass das Objekt ein Kollisionsobjekt ist, und wurde die Kollisionswahrscheinlichkeit berechnet, die einen Schwellenwert übersteigt, wird beim Schritt 212 eine Warnung an den Fahrer ausgegeben bzw. es erfolgt ein Eingriff in die Fahrzeugsteuerung und das Verfahren endet beim Schritt 214 und kann erneut starten.When querying 210 of the Fig. 5 it is queried whether the object is a collision object. If the object is not a collision object, the process returns to step 202. However, if the subroutine 208 has determined that the object is a collision object and the collision probability exceeding a threshold has been calculated, then a warning to the driver is issued at step 212 and the procedure ends at the step 214 and can start again.

Die in den Fig. 5 und 6 gezeigten Schritte sind nicht zwangsläufig von der Berechnungseinheit 30 durchzuführen. Beispielsweise kann die Berechnungseinheit 30 den in der Fig. 6 gezeigten Schritt 304 zum Bestimmen der Objektart auslassen und direkt mit der Berechnung der Kollisionswahrscheinlichkeit fortfahren. Auch können die einzelnen Schritte in einer geeigneten anderen Reihenfolge ausgeführt werden, um die Kollisionswahrscheinlichkeit angemessen zu berechnen.The in the Fig. 5 and 6 The steps shown are not necessarily performed by the calculation unit 30. For example, the calculation unit 30 may be the one in Fig. 6 omit step 304 for determining the type of object and proceed directly with the calculation of the collision probability. Also, the individual steps may be performed in a suitably different order to reasonably calculate the collision probability.

BezugszeichenlisteLIST OF REFERENCE NUMBERS

1010
FahrerassistenzsystemDriver assistance system
2020
Aufnahmeeinheitrecording unit
2121
erste Verbindungfirst connection
2222
erste Kamerafirst camera
2323
zweite Verbindungsecond connection
2424
zweite Kamerasecond camera
2828
optische Achseoptical axis
3030
Berechnungseinheitcalculation unit
3131
dritte Verbindungthird connection
4040
WiedergabeeinheitPlayback unit
5050
Nutzfahrzeugcommercial vehicle
6060
Sichtbereichviewing area
6262
erster Bereichfirst area
6464
zweiter Bereichsecond area
6666
dritter Bereichthird area
7070
erstes gesetzlich vorgeschriebenes Sichtfeldfirst legally required field of view
7272
zweites gesetzlich vorgeschriebenes Sichtfeldsecond statutory field of view
8080
Horizonthorizon
100100
Fußgängerpedestrian
101101
Darstellungpresentation
102102
Fußgängerpedestrian
103103
Darstellungpresentation
104104
Fußgängerpedestrian
105105
Darstellungpresentation
200200
Startbegin
202202
Schrittstep
204204
Schrittstep
206206
Abfragequery
208208
Schrittstep
210210
Abfragequery
212212
Schrittstep
214214
EndeThe End
300300
Startbegin
302302
Schrittstep
304304
Schrittstep
306306
Schrittstep
308308
Schrittstep
310310
Schrittstep
312312
Schrittstep
313313
EndeThe End
αα
Winkel zur FahrbahnAngle to the roadway

Claims (15)

Fahrerassistenzsystem (10) für ein Fahrzeug (50), insbesondere Nutzfahrzeug, mit einer Aufnahmeeinheit (20) und einer Berechnungseinheit (30), wobei die Aufnahmeeinheit (20) ein Aufnahmegerät enthält, das eine optische Achse (28) hat, die unter einem Winkel (α) zur Fahrbahn des Fahrzeugs (50) verläuft, und ein multiperspektivisches Aufnahmebild erfasst, das unterschiedliche Blickwinkel auf ein Kollisionsobjekt (100, 102, 104), abhängig von seiner Relativposition zum Aufnahmegerät der Aufnahmeeinheit (20), aufweist, wobei die Berechnungseinheit (30) dazu angepasst ist, die von der Aufnahmeeinheit (20) erfassten multiperspektivischen Aufnahmebilder im Hinblick auf Kollisionsobjekte (100, 102, 104) auszuwerten und beim Erfassen eines Kollisionsobjekts (100, 102, 104) das Ausgeben einer Warnung an den Fahrer des Fahrzeugs (50) zu veranlassen und/oder einen Eingriff in die Steuerung des Fahrzeugs (50) vorzunehmen, wobei die Berechnungseinheit (30) zur Erkennung von Kollisionsobjekten (100, 102, 104) das Vorhandensein und die Art eines Kollisionsobjekts (100, 102, 104) anhand der Relativposition des Kollisionsobjekts (100, 102, 104) zum Aufnahmegerät der Aufnahmeeinheit (20) und anhand von Kollisionsobjektparametern, die in Abhängigkeit von der Relativposition des Kollisionsobjekts (100, 102, 104) zum Aufnahmegerät der Aufnahmeeinheit (20) variieren, bestimmt.Driver assistance system (10) for a vehicle (50), in particular utility vehicle, having a receiving unit (20) and a calculating unit (30), wherein the receiving unit (20) includes a recording device having an optical axis (28) at an angle (α) to the roadway of the vehicle (50), and a multi-perspective image captured captured, the different angles of view on a collision object (100, 102, 104), depending on its relative position to the recording device of the receiving unit (20), wherein the calculation unit ( 30) is adapted to evaluate the multi-perspective images recorded by the capture unit (20) with respect to collision objects (100, 102, 104) and upon detection of a collision object (100, 102, 104) outputting a warning to the driver of the vehicle ( 50) and / or to interfere with the control of the vehicle (50), wherein the calculation unit (30) for detecting collision objects (100, 102, 104) the presence and type of a collision object (100, 102, 104) based on the relative position of the collision object (100, 102, 104) to the recording device of the recording unit (20) and on the basis of collision object parameters, which depend on the Relative position of the collision object (100, 102, 104) to the recording device of the recording unit (20) vary determined. Fahrerassistenzsystem (10) nach Anspruch 1, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, das Vorhandensein und/oder die Art eines Kollisionsobjekts (100, 102, 104) auf Basis gespeicherter Daten bezüglich bereits zuvor erkannter Kollisionsobjekte (100, 102, 104) zu bestimmen.The driver assistance system (10) of claim 1, wherein the computing unit (30) is further adapted to determine the presence and / or type of a collision object (100, 102, 104) based on stored data relating to previously detected collision objects (100, 102, 104 ). Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei es sich bei den Kollisionsobjekten (100, 102, 104) um Fußgänger und/oder Fahrradfahrer und/oder andere Fahrzeuge und/oder stationäre Objekte handelt.Driver assistance system (10) according to one of the preceding claims, wherein the collision objects (100, 102, 104) are pedestrians and / or cyclists and / or other vehicles and / or stationary objects. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die tatsächliche Trajektorie des Kollisionsobjekts (100, 102, 104) aus den von der Aufnahmeeinheit (20) erfassten Daten zu bestimmen.Driver assistance system (10) according to any one of the preceding claims, wherein the calculation unit (30) is further adapted to determine the actual trajectory of the collision object (100, 102, 104) from the data acquired by the recording unit (20). Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die zukünftige Trajektorie des Kollisionsobjekts (100, 102, 104) aus den von der Aufnahmeeinheit (20) erfassten Daten abzuschätzen.Driver assistance system (10) according to any one of the preceding claims, wherein the calculation unit (30) is further adapted to estimate the future trajectory of the collision object (100, 102, 104) from the data acquired by the recording unit (20). Fahrerassistenzsystem (10) nach Anspruch 5, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die zukünftige Trajektorie des Fahrzeugs (50) auf Basis der Geschwindigkeit des Fahrzeugs (50), der Lenkbewegungen des Fahrzeugs (50) und/oder dem Aktivierungszustand eines Blinkers des Fahrzeugs (50) abzuschätzen.The driver assistance system (10) of claim 5, wherein the computing unit (30) is further adapted to determine the future trajectory of the vehicle (50) based on the speed of the vehicle (50), the steering movements of the vehicle (50), and / or the activation state of a vehicle To estimate the turn signal of the vehicle (50). Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, ferner mit zumindest einem am Fahrzeug (50) angebrachten Ultraschall-, Radar- und/oder Abstandssensor, wobei die Berechnungseinheit (30) dazu angepasst ist, die Erkennung des Kollisionsobjekts (100, 102, 104) und/oder die Bestimmung der Trajektorie des Kollisionsobjekts (100, 102, 104) auf Basis der von dem zumindest einen Ultraschall-, Radar- und/oder Abstandssensor empfangenen Daten durchzuführen.Driver assistance system (10) according to any one of the preceding claims, further comprising at least one mounted on the vehicle (50) ultrasonic, radar and / or distance sensor, wherein the calculation unit (30) is adapted to the detection of the collision object (100, 102, 104 ) and / or the determination of the trajectory of the collision object (100, 102, 104) on the basis of the data received from the at least one ultrasound, radar and / or distance sensor. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu ausgebildet ist, eine Kollisionswahrscheinlichkeit aus der Trajektorie des Fahrzeugs (50) und der Trajektorie des Kollisionsobjekts (100, 102, 104) zu bestimmen.Driver assistance system (10) according to any one of the preceding claims, wherein the calculation unit (30) is further adapted to determine a collision probability of the trajectory of the vehicle (50) and the trajectory of the collision object (100, 102, 104). Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Aufnahmeeinheit (20) zumindest eine Kamera (22, 24) umfasst, die alternativ oder zusätzlich zu einem Seitenspiegel am Fahrzeugs (50) angebracht ist.Driver assistance system (10) according to any one of the preceding claims, wherein the receiving unit (20) comprises at least one camera (22, 24) which is mounted as an alternative or in addition to a side mirror on the vehicle (50). Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Aufnahmeeinheit (20) ferner dazu angepasst ist, zumindest einen Teil eines ersten gesetzlich vorgeschriebenen Sichtfelds (70) und/oder zumindest einen Teil eines zweiten gesetzlich vorgeschriebenen Sichtfelds (72) zu erfassen.Driver assistance system (10) according to any one of the preceding claims, wherein the receiving unit (20) is further adapted to detect at least a portion of a first legally prescribed field of view (70) and / or at least part of a second legally prescribed field of view (72). Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Aufnahmeeinheit (20) ferner dazu angepasst ist, zumindest einen Teil eines dritten gesetzlich vorgeschriebenen Sichtfelds und/oder zumindest einen Teil eines vierten gesetzlich vorgeschriebenen Sichtfelds zu erfassen.Driver assistance system (10) according to any one of the preceding claims, wherein the receiving unit (20) is further adapted to at least a part of a third legally prescribed field of view and / or at least part of a fourth legally prescribed field of view to capture. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die von der Aufnahmeeinheit (20) erfassten Daten in zumindest zwei Bildbereiche (62, 64, 66) zu unterteilen und das Vorhandensein und/oder die Art eines Kollisionsobjekts (100, 102, 104) in den zwei Bildbereichen (62, 64, 66) auf Basis unterschiedlicher Kollisionsobjektparametern zu bestimmen.Driver assistance system (10) according to any one of the preceding claims, wherein the calculation unit (30) is further adapted to subdivide the data acquired by the recording unit (20) in at least two image areas (62, 64, 66) and the presence and / or the Type of collision object (100, 102, 104) in the two image areas (62, 64, 66) to determine based on different collision object parameters. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die an den Fahrer des Fahrzeugs (50) ausgegebene Warnung eine visuelle Warnung auf einer Wiedergabeeinheit (40) und/oder akustische und/oder haptische Warnung ist.A driver assistance system (10) according to any one of the preceding claims, wherein the warning issued to the driver of the vehicle (50) is a visual warning on a display unit (40) and / or audible and / or haptic warning. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei der Eingriff in die Steuerung des Fahrzeugs (50) ein Bremsen des Fahrzeugs (50) und/oder ein Beschleunigen des Fahrzeugs (50) und/oder eine Änderung der Lenkbewegung des Fahrzeugs (50) umfasst.Driver assistance system (10) according to one of the preceding claims, wherein the intervention in the control of the vehicle (50), a braking of the vehicle (50) and / or an acceleration of the vehicle (50) and / or a change of the steering movement of the vehicle (50). includes. Fahrerassistenzsystem (10) nach einem der vorhergehenden Ansprüche, wobei die Berechnungseinheit (30) ferner dazu angepasst ist, die Art des Kollisionsobjekts (100, 102, 104) auf Basis von erfassten globalen Positionsdaten des Kollisionsobjekts (100, 102, 104) und /oder der Geschwindigkeit des Kollisionsobjekts (100, 102, 104) zu bestimmen.Driver assistance system (10) according to any one of the preceding claims, wherein the calculation unit (30) is further adapted to the type of collision object (100, 102, 104) based on detected global position data of the collision object (100, 102, 104) and / or the velocity of the collision object (100, 102, 104).
EP14190877.2A 2013-11-05 2014-10-29 Driver assistance system for vehicles, in particular for commercial vehicles Active EP2869284B1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE201310018543 DE102013018543A1 (en) 2013-11-05 2013-11-05 Driver assistance system for vehicles, in particular commercial vehicles

Publications (2)

Publication Number Publication Date
EP2869284A1 true EP2869284A1 (en) 2015-05-06
EP2869284B1 EP2869284B1 (en) 2016-10-12

Family

ID=51845303

Family Applications (1)

Application Number Title Priority Date Filing Date
EP14190877.2A Active EP2869284B1 (en) 2013-11-05 2014-10-29 Driver assistance system for vehicles, in particular for commercial vehicles

Country Status (3)

Country Link
EP (1) EP2869284B1 (en)
DE (1) DE102013018543A1 (en)
ES (1) ES2603002T3 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109562757A (en) * 2016-08-22 2019-04-02 索尼公司 Drive assistance device, driving assistance method, moving body and program
CN109644251A (en) * 2016-07-22 2019-04-16 康蒂-特米克微电子有限公司 For shooting the photographic device of the environmental area of this vehicle and for providing the method for driver assistance function
CN109952518A (en) * 2016-09-09 2019-06-28 克诺尔商用车制动系统有限公司 Vehicle driver used for vehicles carries out the equipment of the warning of object and the vehicle with this equipment

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015011536A1 (en) 2015-09-02 2017-03-02 Man Truck & Bus Ag Mirror replacement system as a camera monitor system (KMS) of a motor vehicle, in particular a commercial vehicle
DE102016008218A1 (en) 2016-07-06 2018-01-11 Audi Ag Method for improved recognition of objects by a driver assistance system
US20180372875A1 (en) * 2017-06-27 2018-12-27 Uber Technologies, Inc. Sensor configuration for an autonomous semi-truck
DE102017215379A1 (en) 2017-09-01 2019-03-07 Robert Bosch Gmbh Method for determining a risk of collision
DE102018108751B4 (en) * 2018-04-12 2023-05-04 Motherson Innovations Company Limited Method, system and device for obtaining 3D information from objects
DE102019204752A1 (en) * 2019-04-03 2020-03-26 Thyssenkrupp Ag Method and device for the operation of overburden and conveyor machines, which can be used in particular in open-cast mining
KR20220086689A (en) * 2019-12-03 2022-06-23 가부시키가이샤 도요다 지도숏키 industrial vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (en) 2003-07-25 2005-02-10 Robert Bosch Gmbh Apparatus for classifying at least one object in a vehicle environment
DE102006031895A1 (en) * 2006-07-07 2008-01-10 Siemens Ag Vehicle interval display in traffic shows the leading vehicle in a changing perspective and color according to the length of gap between it and the own vehicle
DE102007059735A1 (en) 2006-12-12 2008-07-24 Cognex Corp., Natick Obstacle and vehicle e.g. lorry, recognition system, has cameras aligned such that area on side and over end of own vehicle are recognized, and output device providing information about object or vehicle within range of own vehicle
DE102011010624A1 (en) 2011-02-08 2012-08-09 Mekra Lang Gmbh & Co. Kg Display device for fields of view of a commercial vehicle
DE102011109459A1 (en) 2011-08-04 2013-02-07 Man Truck & Bus Ag Method for detecting objects on the side of a utility vehicle and utility vehicle with a detection system for carrying out the method
DE102011116771A1 (en) * 2011-10-22 2013-04-25 Valeo Schalter Und Sensoren Gmbh Method for displaying image information on a display unit of a vehicle and driver assistance device for carrying out such a method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080300755A1 (en) * 2007-05-30 2008-12-04 Dinu Petre Madau Side collision avoidance system
DE102011010524A1 (en) * 2011-02-08 2012-08-09 Hester Döring Movable cabinet counter for accommodating fresh food products sold in e.g. butcher shop, has desk leveled portions that are located at space formed in compression-refrigerating machine, and are lifted to same distance
DE102011016775A1 (en) * 2011-04-12 2011-12-15 Daimler Ag Assistance system for car to pass obstacles in multi-storey parking space, has sensor systems determining distance of objects, where assistance system is formed to display one of objects in collision-endangered region relative to vehicle

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10336638A1 (en) 2003-07-25 2005-02-10 Robert Bosch Gmbh Apparatus for classifying at least one object in a vehicle environment
DE102006031895A1 (en) * 2006-07-07 2008-01-10 Siemens Ag Vehicle interval display in traffic shows the leading vehicle in a changing perspective and color according to the length of gap between it and the own vehicle
DE102007059735A1 (en) 2006-12-12 2008-07-24 Cognex Corp., Natick Obstacle and vehicle e.g. lorry, recognition system, has cameras aligned such that area on side and over end of own vehicle are recognized, and output device providing information about object or vehicle within range of own vehicle
DE102011010624A1 (en) 2011-02-08 2012-08-09 Mekra Lang Gmbh & Co. Kg Display device for fields of view of a commercial vehicle
DE102011109459A1 (en) 2011-08-04 2013-02-07 Man Truck & Bus Ag Method for detecting objects on the side of a utility vehicle and utility vehicle with a detection system for carrying out the method
DE102011116771A1 (en) * 2011-10-22 2013-04-25 Valeo Schalter Und Sensoren Gmbh Method for displaying image information on a display unit of a vehicle and driver assistance device for carrying out such a method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109644251A (en) * 2016-07-22 2019-04-16 康蒂-特米克微电子有限公司 For shooting the photographic device of the environmental area of this vehicle and for providing the method for driver assistance function
CN109562757A (en) * 2016-08-22 2019-04-02 索尼公司 Drive assistance device, driving assistance method, moving body and program
CN109562757B (en) * 2016-08-22 2022-07-12 索尼公司 Driving assistance device, driving assistance method, mobile body, and program
CN109952518A (en) * 2016-09-09 2019-06-28 克诺尔商用车制动系统有限公司 Vehicle driver used for vehicles carries out the equipment of the warning of object and the vehicle with this equipment

Also Published As

Publication number Publication date
ES2603002T3 (en) 2017-02-23
DE102013018543A1 (en) 2015-05-07
EP2869284B1 (en) 2016-10-12

Similar Documents

Publication Publication Date Title
EP2869284B1 (en) Driver assistance system for vehicles, in particular for commercial vehicles
DE102019205223A1 (en) Threading systems and methods for threading vehicles
DE102019205228A1 (en) Threading systems and methods for vehicles on a main track
EP2620929B1 (en) Method and apparatus for detecting an exceptional traffic situation
DE60122963T2 (en) navigation device
EP2998937B1 (en) Display apparatus for vehicles, in particular for commercial vehicles
DE10336638A1 (en) Apparatus for classifying at least one object in a vehicle environment
DE102011121948A1 (en) Perspective on actions of an autonomous driving system
DE102008011228A1 (en) Method for assisting a user of a vehicle, control device for a driver assistance system of a vehicle and vehicle having such a control device
EP1554604A1 (en) Method and device for preventing a collision of vehicles
DE102011080928A1 (en) Method for assisting driver of motor vehicle e.g. car for planned lane change adjacent to vehicle track, involves determining whether object is driven in adjacent track and issuing warning to driver, when object is on adjacent track
DE102012108563A1 (en) Method and devices for collision warning during lane changes
DE10336986A1 (en) Method for avoiding collisions of a vehicle
WO2007051835A1 (en) Method for assistance to a driver while driving a vehicle
DE102006016807A1 (en) Method for improving view of drivers of motor vehicles entails vehicle travelling ahead producing image data by video camera, wherein evaluating unit effects transmission of image data to receiver on following vehicle
DE102017214969A1 (en) Method and device for wrong-way warning of a vehicle after an accident and / or a safety-critical driving situation, in particular after an interim standstill of the vehicle
DE102008020007A1 (en) Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients
DE102017223439B4 (en) Warning device against dangerous situations for a motor vehicle
DE102018220791A1 (en) Method and vehicle for reacting to an object in the vehicle environment
EP1028387B1 (en) Device for recognizing the environment, in particuliar for recognising traffic road signs
DE102011016217A1 (en) Method for warning driver of passenger car before rear end collision, involves projecting path of image, and warning driver of vehicle based on image with projected path, where path is determined based on velocity and steering angle
DE102022126702A1 (en) VEHICLE AND TRAILER PATH COLLISION DETECTION AND ALERT
EP1652161A1 (en) Device for classifying at least one object in the vicinity of a vehicle
EP2555178B1 (en) Method for detecting objects to the side of a commercial vehicle and commercial vehicle with a detection system for performing the method
WO2018149768A1 (en) Automated activation of a vision support system

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20141029

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

R17P Request for examination filed (corrected)

Effective date: 20150710

RBV Designated contracting states (corrected)

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

17Q First examination report despatched

Effective date: 20150818

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

INTG Intention to grant announced

Effective date: 20160520

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: AT

Ref legal event code: REF

Ref document number: 837128

Country of ref document: AT

Kind code of ref document: T

Effective date: 20161015

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

REG Reference to a national code

Ref country code: DE

Ref legal event code: R096

Ref document number: 502014001694

Country of ref document: DE

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 3

REG Reference to a national code

Ref country code: NL

Ref legal event code: FP

REG Reference to a national code

Ref country code: SE

Ref legal event code: TRGR

REG Reference to a national code

Ref country code: LT

Ref legal event code: MG4D

REG Reference to a national code

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2603002

Country of ref document: ES

Kind code of ref document: T3

Effective date: 20170223

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: BE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20161031

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: GR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170113

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: NO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170112

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: HR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170213

Ref country code: PL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170212

Ref country code: RS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

REG Reference to a national code

Ref country code: DE

Ref legal event code: R097

Ref document number: 502014001694

Country of ref document: DE

REG Reference to a national code

Ref country code: IE

Ref legal event code: MM4A

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20170112

Ref country code: SM

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20161029

26N No opposition filed

Effective date: 20170713

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 4

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: IE

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20161029

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

REG Reference to a national code

Ref country code: BE

Ref legal event code: MM

Effective date: 20161031

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT; INVALID AB INITIO

Effective date: 20141029

REG Reference to a national code

Ref country code: CH

Ref legal event code: PL

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: MT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

Ref country code: MK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LI

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171031

Ref country code: CH

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20171031

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 5

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: TR

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AL

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20161012

REG Reference to a national code

Ref country code: AT

Ref legal event code: MM01

Ref document number: 837128

Country of ref document: AT

Kind code of ref document: T

Effective date: 20191029

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: AT

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20191029

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230427

REG Reference to a national code

Ref country code: DE

Ref legal event code: R082

Ref document number: 502014001694

Country of ref document: DE

Representative=s name: ALPSPITZ IP ALLGAYER UND PARTNER PATENTANWAELT, DE

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: NL

Payment date: 20231023

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GB

Payment date: 20231025

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: ES

Payment date: 20231117

Year of fee payment: 10

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: SE

Payment date: 20231025

Year of fee payment: 10

Ref country code: IT

Payment date: 20231031

Year of fee payment: 10

Ref country code: FR

Payment date: 20231023

Year of fee payment: 10

Ref country code: DE

Payment date: 20231018

Year of fee payment: 10