EP4314895A1 - Method for operating a driver assistance system, computer program product, driver assistance system, and vehicle - Google Patents

Method for operating a driver assistance system, computer program product, driver assistance system, and vehicle

Info

Publication number
EP4314895A1
EP4314895A1 EP22718982.6A EP22718982A EP4314895A1 EP 4314895 A1 EP4314895 A1 EP 4314895A1 EP 22718982 A EP22718982 A EP 22718982A EP 4314895 A1 EP4314895 A1 EP 4314895A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
time
sensor signals
sig1
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP22718982.6A
Other languages
German (de)
French (fr)
Inventor
Ludovic Mosnier-Thoumas
Markus Heimberger
Niko Moritz Scholz
Jean-Francois Bariant
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Publication of EP4314895A1 publication Critical patent/EP4314895A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/006Arrangement or adaptation of acoustic signal devices automatically actuated indicating risk of collision between vehicles or with pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S15/588Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details

Definitions

  • the present invention relates to a method for operating a driver assistance system, a computer program product, a driver assistance system and a vehicle with such a driver assistance system.
  • Known vehicles have a number of sensor units with which they can detect their surroundings, such as ultrasonic sensors. This can be particularly helpful when maneuvering and/or parking the vehicle, especially if the vehicle is large and/or difficult to see.
  • an acoustic, haptic and/or visual signal can be output to the driver to warn him of a collision.
  • One difficulty is detecting moving (dynamic) objects and determining whether a collision with them can occur.
  • a dynamic object is, in particular, another road user, such as a pedestrian or a cyclist.
  • DE 102006045418 A1 discloses a motor vehicle with a driver assistance system and with a sensor for measuring the distance from an obstacle. It is proposed to detect a movement direction of a moving object in order to increase road safety.
  • an object of the present invention is to improve the operation of a driver assistance system.
  • a method for operating a driver assistance system for a vehicle includes: a) receiving a driving condition sensor signal indicative of a driving condition of the vehicle at a number of different points in time, b) receiving a number of sensor signals indicative of an area surrounding the vehicle at a number of different points in time, c) detecting a number of objects in the area of the vehicle as a function of a first number of sensor signals received at a first point in time, d) determining a position and a motion vector for a detected object as a function of the first number of sensor signals and a second number of sensor signals which are received at a second , the time following the first time was received using a plurality of different determination methods, wherein different determination methods of the plurality have a different computing effort, and e) outputting a warning signal when a potential collision of the vehicle with de m detected object is determined on the basis of the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its movement
  • This method has the advantage that the movement of detected objects is determined using different determination methods.
  • a less complex determination method that can be carried out very quickly and a more complex determination method that can be carried out somewhat more slowly can be used here.
  • the different determination methods have, for example, different levels of accuracy and/or reliability with regard to their respective results. So in particular a less complex investigative procedures can be less reliable, but save time, especially in critical situations.
  • the driving condition sensor signal includes, for example, odometry data of the vehicle, such as a current speed, a current wheel speed, a current wheel angle and/or a current steering angle.
  • odometry data of the vehicle such as a current speed, a current wheel speed, a current wheel angle and/or a current steering angle.
  • a direction of the vehicle for example a future trajectory or a driving path, can be determined on the basis of the driving state sensor signal.
  • the fact that the driving condition sensor signal is received at a number of different points in time is to be understood in particular to mean that the driving condition sensor signal that is current at this point in time is received at a particular point in time.
  • the current driving condition sensor signal is indicative in particular of the current driving condition at the current point in time.
  • the driving condition sensor signal is received regularly, in particular periodically, for example with a frequency of more than 1 Hz, preferably at least 10 Hz, preferably up to 100 Hz. Based on at least consecutive driving condition sensor signals, a change in the driving condition can be determined, for example.
  • the sensor signals indicative of the surroundings of the vehicle include, in particular, ultrasonic sensor signals.
  • a number of sensor signals are received is to be understood in particular as meaning, for example, that sensor signals are received from a number of different sensors, with different sensors on the one hand comprising sensors of the same type but with a different arrangement and/or orientation, but on the other hand also comprising sensors of different types , such as an ultrasonic sensor and a camera.
  • the number comprises a quantity greater than or equal to one.
  • the sensor signals can still be received from virtual sensors. Alternatively, one can also say that the sensor signals are retrieved.
  • a sensor provides an output signal that can be called up by external components, such as the driver assistance system.
  • the fact that the number of sensor signals are received at a number of different points in time is to be understood in particular to mean that the sensor signals that are current at this point in time are received at a particular point in time. All of the sensor signals of the number are preferably received at one point in time, for example as a data packet that includes all of the sensor signals of the number.
  • sensor signals of the number for example sensor signals from two different ultrasonic sensors, can have different detection times, even if the number of sensor signals is received at one time.
  • an interval between two sensor signals from a respective sensor is different from an interval between two sensor signals from a further sensor.
  • Each sensor preferably provides its sensor signal regularly, in particular periodically, for example with a frequency of more than 1 Hz, preferably at least 10 Hz, preferably up to 100 Hz, with the current sensor signal always being provided at a particular point in time.
  • the times at which the number of sensor signals is received may differ from the times at which the driving condition sensor signal is received.
  • the fact that a number of objects in the area surrounding the vehicle are detected as a function of a first number of sensor signals that were received at a first point in time means in particular that the first number of received sensor signals is processed and/or analyzed , and as a result of the processing and/or the analyzing a number of objects are detected.
  • the processing and/or analysis includes, for example, a signal analysis of the individual sensor signals and/or a signal analysis of a number of sensor signals that are correlated with one another.
  • the number of objects is greater than or equal to one.
  • a position and a motion vector are determined for at least one of the detected objects.
  • a single sensor signal at a point in time can be sufficient to determine the position.
  • At least two sensor signals, which were received at different points in time, are necessary to determine the movement vector.
  • Two sensor signals of a specific sensor received at different times are preferably used to determine the movement vector, but sensor signals from different sensors that were received at different times can also be used.
  • the more sensor signals are used for a respective object the more accurate the determination of the position and the motion vector can be.
  • the position of the object relates in particular to a position in a coordinate system of the vehicle and has at least two coordinates.
  • the position of the object can refer to a single point of the object.
  • the motion vector comprises a two-dimensional vector.
  • a magnitude of the motion vector corresponds, for example, to the speed of the object.
  • the plurality of different determination methods includes at least two determination methods that have different computational complexity. For example, in a first determination method, the position is determined and the motion vector is determined directly on the basis of raw sensor data, and in a second determination method, processed data is generated on the basis of the raw data and the position is determined and the motion vector is determined on the basis of the processed data.
  • Sensor raw data are in particular the unprocessed output signal of a respective sensors. Since there is no pre-processing, this determination method can be particularly fast. On the other hand, signal noise or the like may affect a determination result.
  • a processing step includes, for example, performing a particular mathematical operation on a respective sensor signal, such as forming a moving average to mask outliers in the sensor signal, or applying a noise filter, a Fourier transform, and the like.
  • a processing step can also include a number of sensor signals, for example when a correlation is determined and/or the sensor signals are mutually checked for plausibility.
  • Different positions and/or movement vectors can be determined for an object on the basis of the various determination methods.
  • the most up-to-date position and the most up-to-date movement vector are preferably always used as the basis for determining a possible collision. If a position and a motion vector for an object were determined by two different determination methods, which are based on the same current sensor signals, then in particular that position and that motion vector are used as the basis for determining a possible collision, their respective accuracy and/or reliability is higher.
  • the accuracy and/or reliability can be determined, for example, in the form of a determination error, which can originate on the one hand from measurement errors and on the other hand from the determination method itself.
  • the position and the motion vector are determined for several of the detected objects of the number, preferably for each detected object of the number.
  • the position and the motion vector are constantly updated. For example, a new determination is made whenever a current sensor signal or a number of current sensor signals is received.
  • the current position and the current movement vector can therefore also be used in the following.
  • the vehicle Based on the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its movement vector, it can be determined whether the vehicle may collide with the object moving according to its movement vector in the future.
  • an extrapolation of the position of the vehicle and the object based on the respective current driving state sensor signal and an extrapolation of the position of the object based on the current position and the current movement vector of the object can be determined.
  • a warning signal is given when a collision is likely.
  • the warning signal can be output directly to the user of the vehicle, for example as an acoustic, haptic and/or visual signal.
  • the warning signal can also be output to the outside of the vehicle, for example to the object, in particular as an acoustic warning signal. If the warning signal is issued, further functions of the driver assistance system and/or other units of the vehicle can also be triggered.
  • the warning signal is preferably output independently of the determination method used to determine the position and the movement vector of the object with which a possible collision was determined.
  • the number of different determination methods includes at least one first determination method in which for each detected object of the number a Kalman filter is assigned and initialized, which is used to determine the position and the motion vector of the respective object.
  • the Kalman filter (also Kalman-Bucy filter, Stratonovich-Kalman-Bucy filter or Kalman-Bucy-Stratonovich filter) is a mathematical method for the iterative estimation of parameters, in this case the position and the motion vector of the object based on erroneous measurements, in this case the received sensor signals.
  • the Kalman filter is used to estimate system variables that cannot be measured directly, while the errors in the measurements are optimally reduced.
  • the Kalman filter describes an estimated value using multidimensional normal distributions. These represent a probability distribution of possible errors around each estimate, as well as correlations between estimate errors of different variables.
  • the previous estimated values are optimally combined with the new measurements in each time step, so that remaining errors are minimized as quickly as possible.
  • the Kalman filter has a filter state comprising the current estimated values as well as error estimates and correlations. After each new measurement, the Kalman filter improves the previous estimates and updates the associated error estimates and correlations. In dynamic systems in which, for example, a speed is also estimated, the Kalman filter also estimates correlations between the speed and, for example, the position, in particular on the basis of equations of motion, and takes these into account for the next time step.
  • the Kalman filter is preferably updated at least whenever a number of current sensor signals have been received.
  • different sensor signals of the number of different scanning areas in the environment are assigned, with a respective sensor signal of the number of sensor signals received at a particular point in time, assigned to a specific scanning area in the area, being fed to that Kalman filter whose assigned object has a position , which lies within the scanning range assigned to the sensor signal.
  • the warning signal is output if a potential collision is determined on the basis of the position determined for the respective detected object using the first determination method and its motion vector, only if the determined motion vector of the object is not equal to zero.
  • the possible collision there is no warning of a possible collision with an object if the possible collision was determined based on the position determined using the first determination method and, for example, a movement of the vehicle, but the object itself is not moving but is static. It should be noted that this does not preclude warnings of such a collision.
  • the possible collision can also be determined on the basis of the position of the object determined using a further determination method, and a warning can then be issued accordingly.
  • this includes:
  • the term “travel path” describes in particular the area that the vehicle would sweep over if it were moved forwards or backwards with the current wheel angle or steering angle. This means that a change in the steering angle or the wheel angle causes a change in the driving path.
  • the driving path can be represented, for example, by trajectories for each wheel of the vehicle.
  • the driving path can also be understood as a two-dimensional future trajectory of the vehicle.
  • a warning signal is only output when a distance of the respective object from the vehicle and/or from the determined driving path is less than or equal to a lower threshold value.
  • the threshold value can be variably determined in particular for different vehicles and/or situations. Furthermore, the threshold value can be determined as a function of the vehicle speed and/or the speed of the object. Furthermore, the threshold value can be determined as a function of a measurement accuracy, such as a standard deviation or a variance.
  • This embodiment has the advantage that a warning is only issued when the probability of a collision is relatively high.
  • the threshold value takes into account that it is unknown how the object will continue to move, ie whether it will change its speed and/or direction, for example.
  • the threshold can, for example, assume a value from an interval from zero to two meters.
  • a warning signal is only output when the determined movement vector of the respective object points in the direction of the vehicle and/or the determined driving path.
  • step e) comprises:
  • the future trajectory can be determined, for example, as an extrapolation of a previous trajectory of the object.
  • a curved future trajectory can also be determined here.
  • the predetermined minimum distance can be equal to the lower threshold value, but it can also be different from it.
  • the predetermined minimum distance can be variably determined, in particular for different vehicles and/or situations.
  • the predetermined minimum distance can be determined as a function of the vehicle speed and/or the speed of the object.
  • the predetermined minimum distance can be determined as a function of a measurement accuracy, such as a standard deviation or a variance.
  • the predetermined minimum distance is determined as a function of another variable, such as the vehicle speed, means, for example, that the predetermined minimum distance is predetermined as a function of the other variable, so that a specific numerical value at a point in time depends on the current value of the other quantity is determined.
  • the received sensor signals exclusively include ultrasonic sensor signals.
  • This embodiment can be used advantageously for vehicles that only have ultrasonic sensors. Compared to other sensors, such as radar, lidar and/or cameras, ultrasonic sensors are inexpensive to manufacture and do not require high computing power to evaluate their sensor signals.
  • This embodiment can also be advantageous for vehicles that have additional sensors, since the computing power required for the proposed method is less than for alternative methods that, for example, additionally carry out an image evaluation of a camera image.
  • the number of different determination methods includes at least one second determination method in which a feature recognition is carried out on the basis of the number of sensor signals received at a particular point in time and a digital map of the surroundings is determined using recognized features.
  • the digital map of the surroundings can advantageously be used to also determine a collision with static objects and to warn of this.
  • carrying out a feature detection (English: "feature extraction") is complex and requires more computing power. Therefore, the second preliminary investigation may last longer.
  • moving objects are not detected during feature detection, for example if the sensor signal changes quickly and therefore looks like noise. This can be the case in particular with pedestrians and/or cyclists.
  • the method is only carried out when the vehicle has a speed of less than or equal to 15 km/h, preferably less than or equal to 10 km/h, preferably less than or equal to 7 km/h, more preferably less than or equal to 5 km/h.
  • the vehicle speed can be determined in particular on the basis of the driving condition sensor signal.
  • a computer program product which comprises instructions which, when the program is executed by a computer, cause the latter to execute the method according to the first aspect.
  • a computer program product such as a computer program means
  • a server in a network, for example, as a storage medium such as a memory card, USB stick, CD-ROM, DVD, or in the form of a downloadable file. This can be done, for example, in a wireless communication network by transferring a corresponding file with the computer program product or the computer program means.
  • a driver assistance system for a vehicle comprises a receiving unit for receiving a driving condition sensor signal indicative of a driving condition of the vehicle at a number of different points in time, and for receiving a number of sensor signals indicative of an area surrounding the vehicle at a number of different points in time, a detection unit for detecting a number of objects in the Environment of the vehicle depending on a first number of sensor signals received at a first point in time, a determination unit for determining a position and a movement vector for a detected object of the number depending on the first number of sensor signals and a second number of sensor signals, received at a second time subsequent to the first time using a plurality different determination methods, wherein different determination methods of the plurality have a different computing effort, and an output unit for outputting a warning signal if there is a potential collision of the vehicle with the detected object on the basis of the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its Motion vector is determined.
  • the embodiments and features described for the proposed method apply accordingly to the proposed driver assistance system.
  • the advantages and/or definitions that were mentioned in relation to the method according to the first aspect also apply to the proposed driver assistance system.
  • the driver assistance system is operated in particular with the method according to the first aspect or one of the specific embodiments of the method.
  • the respective unit of the driver assistance system can be implemented in terms of hardware and/or software.
  • the respective unit can be embodied, for example, as a computer or as a microprocessor.
  • the respective unit can be designed as a computer program product, as a function, as a routine, as an algorithm, as part of a program code or as an executable object.
  • each of the units mentioned here can also be designed as part of a higher-level control system of the vehicle, such as a central electronic control device and/or an engine control unit (ECU: Engine Control Unit).
  • ECU Engine Control Unit
  • the driver assistance system can be set up in particular for semi-autonomous or fully autonomous driving of the vehicle.
  • Partially autonomous driving is understood to mean, for example, that the driver assistance system controls a steering device and/or an automatic driving stage.
  • Fully autonomous driving means, for example, that the driver assistance system also controls a drive device and a braking device.
  • the vehicle is, for example, a passenger car or a truck.
  • the vehicle preferably includes a number of sensor units that are set up to detect the driving state of the vehicle and to detect an environment of the vehicle.
  • sensor units of the vehicle are imaging devices, such as a camera, radar (radio detection and ranging) or a lidar (engl, light detection and ranging), ultrasonic sensors, location sensors, wheel angle sensors and/or wheel speed sensors.
  • the sensor units are each set up to output a sensor signal, for example to the driver assistance system, which carries out the partially autonomous or fully autonomous driving as a function of the detected sensor signals.
  • the environmental sensor units exclusively include ultrasonic sensors.
  • the vehicle has a mass of more than 2.5 tons and/or a length of more than 5 meters.
  • the vehicle is designed as a transporter.
  • Vans for example, are confusing and can have one or more "blind spots" that a driver of the van can see poorly or not at all.
  • a blind spot is, for example, on the passenger side behind the A-pillar or on the driver and/or passenger side close to the vehicle.
  • the method has the advantage that a warning can be given in the event of an imminent collision with an object that is in an area close to the vehicle that is difficult or impossible for the driver to see.
  • FIG. 1 shows a schematic view of an exemplary embodiment of a vehicle
  • Fig. 2 shows a schematic view of different scanning areas
  • FIG. 3 shows a schematic view of a first traffic situation
  • FIG. 5 shows a schematic view of a third traffic situation at different points in time
  • FIG. 6 shows a schematic block diagram of an exemplary embodiment of a driver assistance system
  • FIG. 7 shows a schematic block diagram of an exemplary embodiment of a method for operating a driver assistance system.
  • FIG. 1 shows a schematic view of a vehicle 100 from a bird's eye view.
  • the vehicle 100 is, for example, a car that is arranged in an environment 200 .
  • Car 100 has a driver assistance system 110, which is embodied as a control unit, for example.
  • a plurality of environment sensor devices 120, 130 are arranged on car 100, these being optical sensors 120 and ultrasonic sensors 130, for example.
  • the optical sensors 120 include, for example, visual cameras, a radar and/or a lidar.
  • the optical sensors 120 can each capture an image of a respective area from the environment 200 of the car 100 and output it as an optical sensor signal.
  • the ultrasonic sensors 130 are set up in particular for scanning a respective area 131 - 136 (see FIG. 2 ) of the environment 200 . On the basis of the sensor signal output by the ultrasonic sensors 130, objects 210, 211 (see FIGS.
  • a motion vector VEC (see FIGS. 3-5) of an object 210, 211 can be determined from sensor signals that follow one another in time.
  • driver assistance system 110 may be able to drive car 100 partially or fully autonomously.
  • the vehicle 100 has various other sensor devices 120, 130. Examples of this are a microphone, an acceleration sensor, a wheel speed sensor, a wheel angle sensor, a steering angle sensor, an antenna with a coupled receiver for receiving electromagnetically transmittable data signals, and the like.
  • Driver assistance system 110 is designed, for example, as explained with reference to FIG. 6 and set up to carry out the method described with reference to FIG. 7 .
  • Driver assistance system 110 is preferably also set up to carry out processing procedures as described below with reference to FIGS. 2-5.
  • FIG. 2 shows a schematic view of different scanning areas 131-136 of different ultrasonic sensors 130.
  • six ultrasonic sensors 130 are arranged on a front sill of a vehicle 100.
  • Vehicle 100 is designed, for example, as described with reference to FIG. 1 .
  • Each sensor 130 has a specific scanning range 131-136.
  • the shape of a respective scanning area 131 - 136 depends on the arrangement and alignment of ultrasonic sensor 130 on vehicle 100, but also on the structure of ultrasonic sensor 130.
  • the scanning areas 131 - 136 can at least partially overlap, so that the immediate surroundings 200 in front of the sill of vehicle 100 can preferably be detected without any gaps.
  • the range of a respective ultrasonic sensor 130 depends on its structure, for example in a range between five meters and ten meters.
  • a virtual ultrasonic sensor is based, for example, on a first ultrasonic sensor 130 emitting an ultrasonic signal and a second ultrasonic sensor 130 receiving a reflection of the ultrasonic signal emitted by the first ultrasonic sensor.
  • a virtual ultrasonic sensor has, for example, a virtual position between two ultrasonic sensors 130 that are physically present.
  • a first object 210 for example a cyclist, is located in the scanning areas 135, 136 of two ultrasonic sensors 130. The cyclist 210 is therefore detected by two ultrasonic sensors in particular. In addition, the cyclist can be detected by a virtual ultrasonic sensor as described above.
  • a second object 211 for example a Pedestrian is located in the scanning area 132 of a single ultrasonic sensor 130. However, the pedestrian 211 can also be detected by a virtual ultrasonic sensor as described above.
  • each detected object 210, 211 is assigned a Kalman filter mapped and initialized.
  • a respective Kalman filter is set up to estimate the position of the respective object 210, 211 on the basis of the ultrasonic sensor signals SIG1(t) received one after the other.
  • the position includes in particular the position POS and the movement vector VEC of the respective object 210, 211.
  • each Kalman filter is supplied with the ultrasonic sensor signals SIG1(t) received from those ultrasonic sensors 130 in whose scanning range 131 - 136 the respective object 210, 211 is located just located. A precise and consistent result and an exact tracking of the objects 210, 211 are thus possible.
  • a second determination method V2 can provide that on the basis of the number of sensor signals SIG1(t) received at a particular point in time tO-15 (see FIG. 5) a feature recognition is carried out and a digital environment map is used is determined from recognized features.
  • FIG. 3 shows a schematic view of a first traffic situation, in which, for example, vehicle 100 from FIG. 1 or FIG. 2 is shown on a road.
  • An object 210 for example a pedestrian, is shown on the right in front of vehicle 100 .
  • the driving path TR for the vehicle 100 is also shown.
  • Driving path TR is determined, for example, by driver assistance system 110 (see FIG. 1 or 6) on the basis of a driving condition sensor signal SIG0(t) (see FIG. 6 or 7), which includes a current steering angle or a current wheel angle.
  • the ultrasonic sensors 130 preferably constantly emit ultrasonic signals and detect the reflected signals, ie they constantly scan their respective scanning area 131-136 (see FIG. 2) with ultrasonic signals.
  • the sampling occurs 10 times per second, preferably at least 50 times per second, preferably at least 100 times per second.
  • Ultrasonic sensors 130 emit ultrasonic sensor signals SIG1(t) (see FIG. 6 or 7) with a corresponding frequency, for example to driver assistance system 110. Based on the ultrasonic sensor signals, a position POS (see FIG. 7) of pedestrian 210 can be inferred.
  • a movement vector VEC for the pedestrian 210 can also be determined on the basis of at least two ultrasonic sensor signals SIG(t) recorded one after the other. This is done, for example, as described with reference to FIG. 2 using a first determination method V1
  • pedestrian 210 is moving toward route path TR of vehicle 100 .
  • the current distance D of the pedestrian 210 from the driving path TR is also shown.
  • Driver assistance system 110 is set up to output a warning signal as a function of predetermined criteria. For example, it is checked whether the distance D of the pedestrian 210 from the current driving path TR (alternatively from the vehicle 100) is less than or equal to a predetermined threshold value, or whether the determined movement vector VEC points in the direction of the driving path TR or the vehicle 100. If one or more of these criteria are met, then the warning signal is issued since a collision with the pedestrian 210 is then likely unless the vehicle 100 is stopped or changes direction.
  • FIG. 4 shows a schematic view of a second traffic situation, in which, for example, vehicle 100 from FIG. 1 or FIG. 2 is shown on a road. An object 210 , for example a pedestrian, is shown on the right in front of vehicle 100 .
  • the driving path TR for the vehicle 100 is also shown.
  • Driving path TR is determined, for example, by driver assistance system 110 (see FIG. 1 or 6) on the basis of a driving condition sensor signal SIG0(t) (see FIG. 6 or 7), which includes a current steering angle or a current wheel angle.
  • a position POS (see FIG. 7) and a movement vector VEC of the pedestrian 210 are determined on the basis of ultrasonic sensor signals SIG1(t) (see FIG. 6 or 7).
  • a future trajectory TR1 of pedestrian 210 is determined in this example.
  • the previous trajectory of the pedestrian 210 is extrapolated for this purpose.
  • the future trajectory TR1 can be determined on the basis of a specific embodiment of the first determination method V1, ie using Kalman filters. Additionally and/or alternatively, the future trajectory TR1 can be determined on the basis of a third determination method.
  • a smallest distance between the driving path TR and the future trajectory TR1 can be determined. If this distance D is less than a predetermined minimum distance, a warning signal is output, for example.
  • FIG. 5 shows a schematic view of a third traffic situation at different points in time tO ⁇ 15, vehicle 100 of FIG. 1 or FIG. 2 being shown on a road, for example.
  • An object 210 is determined to the right of vehicle 100 at an initial time tO. This takes place in particular on the basis of a number of sensor signals SIG1(t) received at the start time t0 (see FIG. 6 or 7). At a subsequent first point in time t1, a second number of sensor signals SIG1(t) are received. A current position POS (see FIG. 7) of the object 210(t1) is determined on the basis of the second number of sensor signals.
  • a current motion vector VEC(t1) for Time t1 are determined.
  • a third number of sensor signals SIG1(t) are received and a current position POS of object 210(t2) at point in time t2 and a current motion vector VEC(t2) at point in time t2 are determined.
  • a fourth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t3) at time t3 and a current motion vector VEC(t3) at time t3 are determined.
  • a fifth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t4) at time t4 and a current motion vector VEC(t4) at time t4 are determined.
  • a sixth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t5) at time t5 and a motion vector VEC(t5) current at time t5 are determined.
  • the movement of the object 210 can thus be tracked at any point in time t0 ⁇ 15.
  • the movement of the object 210 can additionally be predicted, for example using corresponding equations of motion.
  • the determination of the position POS and the motion vector VEC at a respective point in time t0 - 15 is preferably based on the first determination method V1 using a Kalman filter and on the basis of a further determination method V2 (see Fig. 6 or 7)
  • Fig. 6 shows a schematic block diagram of an exemplary embodiment of a driver assistance system 110, for example driver assistance system 110 of vehicle 100 in Fig.
  • the driving assistance system 110 includes a receiving unit 112 for receiving a driving condition sensor signal SIG0(t) indicative of a driving condition of the vehicle 100 at a number of different points in time tO-15 (see FIG. 5), and for receiving a number of signals for an environment 200 ( see Fig. 1 or 2) of the vehicle 100 indicative sensor signals SIG1 (t) at a number of different times tO - 15.
  • the driver assistance system 110 further includes a detection unit 114 for detecting a number of objects 210, 211 (see Fig. 2) in the Environment 200 of the vehicle 100 depending from a first number of sensor signals SIG1(t), which were received at a first point in time, a determination unit 116 for determining a position POS (see Fig.
  • a motion vector VEC (see Fig. 3 - 5) for a detected object 210 , 211 as a function of the first number of sensor signals SIG(t) and a second number of sensor signals SIG(t), which was received at a second point in time following the first point in time, using a plurality of different determination methods V1, V2, where different determination methods of the plurality have a different computing effort, and an output unit 118 for outputting a warning signal if there is a potential collision of vehicle 100 with the detected object 210, 211 on the basis of the driving condition sensor signal SIG0(t) received at a specific point in time tO - 15 and the position POS determined for the detected object 210, 211 and its motion vector VEC.
  • Fig. 7 shows a schematic block diagram of an exemplary embodiment of a method for operating a driver assistance system 110, for example the driver assistance system 110 of Fig. 6 or the driver assistance system 110 of the vehicle 100 of Fig. 1.
  • a driver assistance system 110 for example the driver assistance system 110 of Fig. 6 or the driver assistance system 110 of the vehicle 100 of Fig. 1.
  • a first step S1 a for a driving state of the vehicle 100 indicative vehicle condition sensor signal SIG0(t) at a number of different times tO-15 (see Figure 5).
  • a number of sensor signals SIG1(t) indicative of an area 200 (see FIG. 1 or 2) of vehicle 100 is received at a number of different points in time t0-15.
  • a third step S3 a number of objects 210, 211 (see FIG.
  • a position POS and a movement vector VEC for a detected object 210, 211 are determined as a function of the first number of sensor signals SIG1(t) and a second number of sensor signals SIG1(t) , which was received at a second point in time following the first point in time, determined using a plurality of different determination methods V1, V2, with different determination methods V1, V2 of the plurality having a different chen calculation effort.
  • a warning signal is output if there is a potential collision of the vehicle 100 with the detected object 110 based on the driving condition sensor signal SIG0(t) received at a specific point in time tO - 15 and the position POS determined for the detected object 210 and its Movement vector VEC is determined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

The invention relates to a method for operating a driver assistance system (110). The method has the steps of: a) receiving (S1) a drive state sensor signal (SIG0(t)), which indicates the drive state, at a number of different points in time (t0 - t5), b) receiving (S2) a number of sensor signals (SIG1(t)), which indicate the surroundings (200), at a number of different points in time (t0 - t5), c) detecting (S3) a number of objects (210, 211) in the surroundings (200) on the basis of a first number of sensor signals (SIG1(t)), which have been detected at a first point in time, d) ascertaining (S4) a position (POS) and a movement vector (VEC) for a detected object (210, 211) on the basis of the first number of sensor signals (SIG1(t)) and a second number of sensor signals (SIG1(t)), which have been received at a second point in time following the first point in time, using a plurality of different ascertaining methods (V1, V2), wherein different ascertaining methods (V1, V2) of the plurality have a different degree of computing complexity, and e) outputting (S5) a warning signal if a potential collision with the detected object (210, 211) is ascertained on the basis of the drive state sensor signal (SIG0(t)) received at a specified point in time and the position (POS) and the movement vector (VEC) ascertained for the detected object (210, 211).

Description

VERFAHREN ZUM BETREIBEN EINES FAHRASSISTENZSYSTEMS, COMPUTERPROGRAMMPRODUKT, FAHRASSISTENZSYSTEM UND FAHRZEUG METHOD OF OPERATING A DRIVING ASSISTANCE SYSTEM, COMPUTER PROGRAM PRODUCT, DRIVING ASSISTANCE SYSTEM AND VEHICLE
Die vorliegende Erfindung betrifft ein Verfahren zum Betreiben eines Fahrassistenzsystems, ein Computerprogrammprodukt, ein Fahrassistenzsystem und ein Fahrzeug mit einem solchen Fahrassistenzsystem. The present invention relates to a method for operating a driver assistance system, a computer program product, a driver assistance system and a vehicle with such a driver assistance system.
Bekannte Fahrzeuge weisen eine Anzahl von Sensoreinheiten auf, mit denen sie ihre Umgebung erfassen können, wie beispielsweise Ultraschallsensoren. Dies kann speziell beim Rangieren und/oder Einparken des Fahrzeugs hilfreich sein, insbesondere wenn es sich um ein großes und/oder unübersichtliches Fahrzeug handelt. So kann auf Basis der Sensordaten ein akustisches, haptisches und/oder visuelles Signal an den Fahrer ausgegeben werden, um diesen vor einer Kollision zu warnen. Eine Schwierigkeit besteht darin, bewegliche (dynamische) Objekten zu erfassen und zu ermitteln, ob mit diesen eine Kollision auftreten kann. Ein dynamisches Objekt ist insbesondere ein anderer Verkehrsteilnehmer, wie ein Fußgänger oder ein Radfahrer. Known vehicles have a number of sensor units with which they can detect their surroundings, such as ultrasonic sensors. This can be particularly helpful when maneuvering and/or parking the vehicle, especially if the vehicle is large and/or difficult to see. Based on the sensor data, an acoustic, haptic and/or visual signal can be output to the driver to warn him of a collision. One difficulty is detecting moving (dynamic) objects and determining whether a collision with them can occur. A dynamic object is, in particular, another road user, such as a pedestrian or a cyclist.
DE 102006045418 A1 offenbart ein Kraftfahrzeug mit einem Fahrassistenzsystem und mit einem Sensor zur Abstandsmessung zu einem Hindernis auf. Es ist vorgeschlagen, zur Erhöhung der Verkehrssicherheit eine Bewegungsrichtung eines sich bewegenden Objekts zu erfassen. DE 102006045418 A1 discloses a motor vehicle with a driver assistance system and with a sensor for measuring the distance from an obstacle. It is proposed to detect a movement direction of a moving object in order to increase road safety.
Bekannte Verfahren zum Ermitteln von dynamischen Objekten sind rechenintensiv und komplex, weshalb eine Fehlerkennung vermehrt auftreten kann und/oder eine Zeitdauer vom Empfangen des Sensorsignals bis zum Ergebnis recht lange ist. Dies reduziert die Zeit, die für eine Reaktion verbleibt, sollte eine Kollision drohen. Weiterhin benötigen bekannte Systeme eine teure Sensorik, wie beispielsweise ein Radar, ein Lidar oder eine Kamera. Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, den Betrieb eines Fahrassistenzsystems zu verbessern. Known methods for determining dynamic objects are computationally intensive and complex, which is why error detection can occur more often and/or the time from receiving the sensor signal to the result is quite long. This reduces the time left to react if a collision is imminent. Furthermore, known systems require expensive sensors, such as radar, a lidar or a camera. Against this background, an object of the present invention is to improve the operation of a driver assistance system.
Gemäß einem ersten Aspekt wird ein Verfahren zum Betreiben eines Fahrassistenzsystems für ein Fahrzeug vorgeschlagen. Das Verfahren umfasst: a) Empfangen eines für einen Fahrzustand des Fahrzeugs indikativen Fahrzustandssensorsignals zu einer Anzahl unterschiedlicher Zeitpunkte, b) Empfangen einer Anzahl von für eine Umgebung des Fahrzeugs indikativen Sensorsignalen zu einer Anzahl unterschiedlicher Zeitpunkte, c) Erfassen einer Anzahl von Objekten in der Umgebung des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen, die zu einem ersten Zeitpunkt empfangen wurden, d) Ermitteln einer Position und eines Bewegungsvektors für ein erfasstes Objekt in Abhängigkeit von der ersten Anzahl von Sensorsignalen und einer zweiten Anzahl von Sensorsignalen, die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren, wobei verschiedene Ermittlungsverfahren der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und e) Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs mit dem erfassten Objekt auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals und der für das erfasste Objekt ermittelten Position und seines Bewegungsvektors ermittelt wird. According to a first aspect, a method for operating a driver assistance system for a vehicle is proposed. The method includes: a) receiving a driving condition sensor signal indicative of a driving condition of the vehicle at a number of different points in time, b) receiving a number of sensor signals indicative of an area surrounding the vehicle at a number of different points in time, c) detecting a number of objects in the area of the vehicle as a function of a first number of sensor signals received at a first point in time, d) determining a position and a motion vector for a detected object as a function of the first number of sensor signals and a second number of sensor signals which are received at a second , the time following the first time was received using a plurality of different determination methods, wherein different determination methods of the plurality have a different computing effort, and e) outputting a warning signal when a potential collision of the vehicle with de m detected object is determined on the basis of the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its movement vector.
Dieses Verfahren weist den Vorteil auf, dass die Bewegung erfasster Objekte mit verschiedenen Ermittlungsverfahren ermittelt wird. Hierbei kann insbesondere ein wenig komplexes und sehr schnell durchzuführendes Ermittlungsverfahren und ein komplexeres und etwas langsamer durchzuführendes Ermittlungsverfahren verwendet werden. Die unterschiedlichen Ermittlungsverfahren weisen beispielsweise eine unterschiedliche Genauigkeit und/oder Zuverlässigkeit bezüglich ihrer jeweiligen Ergebnisse auf. So kann insbesondere ein weniger komplexes Ermittlungsverfahren weniger zuverlässig sein, aber gerade in kritischen Situationen Zeit einsparen. This method has the advantage that the movement of detected objects is determined using different determination methods. In particular, a less complex determination method that can be carried out very quickly and a more complex determination method that can be carried out somewhat more slowly can be used here. The different determination methods have, for example, different levels of accuracy and/or reliability with regard to their respective results. So in particular a less complex investigative procedures can be less reliable, but save time, especially in critical situations.
Das Fahrzustandssensorsignal umfasst beispielsweise Odometriedaten des Fahrzeugs, wie beispielsweise eine aktuelle Geschwindigkeit, eine aktuelle Raddrehzahl, ein aktueller Radwinkel und/oder ein aktueller Lenkwinkel. Insbesondere lässt sich auf Basis des Fahrzustandssensorsignals beispielsweise eine Richtung des Fahrzeugs, beispielsweise eine zukünftige Trajektorie oder ein Fahrschlauch ermitteln. The driving condition sensor signal includes, for example, odometry data of the vehicle, such as a current speed, a current wheel speed, a current wheel angle and/or a current steering angle. In particular, a direction of the vehicle, for example a future trajectory or a driving path, can be determined on the basis of the driving state sensor signal.
Darunter, dass das Fahrzustandssensorsignal zu einer Anzahl unterschiedliche Zeitpunkte empfangen wird, ist vorliegend insbesondere zu verstehen, dass zu einem jeweiligen Zeitpunkt das zu diesem Zeitpunkt aktuelle Fahrzustandssensorsignal empfangen wird. Das aktuelle Fahrzustandssensorsignal ist insbesondere für den zu dem aktuellen Zeitpunkt aktuellen Fahrzustand indikativ. Beispielsweise wird das Fahrzustandssensorsignal regelmäßig, insbesondere periodisch, empfangen, beispielsweise mit einer Frequenz von mehr als 1 Hz, vorzugsweise wenigstens 10 Hz, bevorzugt bis zu 100 Hz. Auf Basis von wenigstens aufeinanderfolgenden Fahrzustandssensorsignalen lässt sich beispielsweise eine Änderung des Fahrzustands ermitteln. In the present case, the fact that the driving condition sensor signal is received at a number of different points in time is to be understood in particular to mean that the driving condition sensor signal that is current at this point in time is received at a particular point in time. The current driving condition sensor signal is indicative in particular of the current driving condition at the current point in time. For example, the driving condition sensor signal is received regularly, in particular periodically, for example with a frequency of more than 1 Hz, preferably at least 10 Hz, preferably up to 100 Hz. Based on at least consecutive driving condition sensor signals, a change in the driving condition can be determined, for example.
Die für die Umgebung des Fahrzeugs indikativen Sensorsignale umfassen insbesondere Ultraschall-Sensorsignale. Darunter, dass eine Anzahl von Sensorsignalen empfangen wird, ist vorliegend insbesondere zu verstehen, dass beispielsweise Sensorsignale von einer Anzahl unterschiedlicher Sensoren empfangen werden, wobei unterschiedliche Sensoren einerseits Sensoren gleicher Art aber anderer Anordnung und/oder Ausrichtung umfassen, andererseits aber auch Sensoren unterschiedlicher Art umfassen, wie beispielsweise ein Ultraschallsensor und eine Kamera. Die Anzahl umfasst hierbei eine Menge größer oder gleich Eins. Die Sensorsignale können weiterhin auch von virtuellen Sensoren empfangen werden. Man kann alternativ auch sagen, dass die Sensorsignale abgerufen werden. Beispielsweise stellt ein Sensor ein Ausgangssignal bereit, das durch externe Komponenten, beispielsweise das Fahrassistenzsystem, entsprechend abrufbar ist. Darunter, dass die Anzahl von Sensorsignalen zu einer Anzahl unterschiedlicher Zeitpunkte empfangen werden, ist vorliegend insbesondere zu verstehen, dass zu einem jeweiligen Zeitpunkt die zu diesem Zeitpunkt aktuellen Sensorsignale empfangen werden. Vorzugsweise werden alle Sensorsignale der Anzahl zu einem Zeitpunkt empfangen, beispielsweise als ein Datenpaket, das alle Sensorsignale der Anzahl umfasst. The sensor signals indicative of the surroundings of the vehicle include, in particular, ultrasonic sensor signals. In the present case, the fact that a number of sensor signals are received is to be understood in particular as meaning, for example, that sensor signals are received from a number of different sensors, with different sensors on the one hand comprising sensors of the same type but with a different arrangement and/or orientation, but on the other hand also comprising sensors of different types , such as an ultrasonic sensor and a camera. In this case, the number comprises a quantity greater than or equal to one. The sensor signals can still be received from virtual sensors. Alternatively, one can also say that the sensor signals are retrieved. For example, a sensor provides an output signal that can be called up by external components, such as the driver assistance system. In the present case, the fact that the number of sensor signals are received at a number of different points in time is to be understood in particular to mean that the sensor signals that are current at this point in time are received at a particular point in time. All of the sensor signals of the number are preferably received at one point in time, for example as a data packet that includes all of the sensor signals of the number.
Es sei angemerkt, dass unterschiedliche Sensorsignale der Anzahl, beispielsweise Sensorsignale von zwei verschiedenen Ultraschallsensoren, unterschiedliche Erfassungszeitpunkte aufweisen können, auch wenn die Anzahl von Sensorsignale zu einem Zeitpunkt empfangen wird. It should be noted that different sensor signals of the number, for example sensor signals from two different ultrasonic sensors, can have different detection times, even if the number of sensor signals is received at one time.
Es kann ferner sein, dass ein Intervall zwischen zwei Sensorsignalen eines jeweiligen Sensors unterschiedlich zu einem Intervall zwischen zwei Sensorsignalen eines weiteren Sensors ist. Vorzugsweise stellt jeder Sensor sein Sensorsignal regelmäßig, insbesondere periodisch, beispielsweise mit einer Frequenz von mehr als 1 Hz, vorzugsweise wenigstens 10 Hz, bevorzugt bis zu 100 Hz., bereit, wobei zu einem jeweiligen Zeitpunkt immer das gerade aktuelle Sensorsignale bereitgestellt wird. It can also be the case that an interval between two sensor signals from a respective sensor is different from an interval between two sensor signals from a further sensor. Each sensor preferably provides its sensor signal regularly, in particular periodically, for example with a frequency of more than 1 Hz, preferably at least 10 Hz, preferably up to 100 Hz, with the current sensor signal always being provided at a particular point in time.
Die Zeitpunkte, zu denen die Anzahl von Sensorsignalen empfangen wird, können sich von den Zeitpunkten, zu denen das Fahrzustandssensorsignal empfangen wird, unterscheiden. The times at which the number of sensor signals is received may differ from the times at which the driving condition sensor signal is received.
Darunter, dass eine Anzahl von Objekten in der Umgebung des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen, die zu einem ersten Zeitpunkt empfangen wurden, erfasst wird, ist vorliegend insbesondere zu verstehen, dass die erste Anzahl empfangener Sensorsignale verarbeitet und/oder analysiert wird, und als ein Ergebnis des Verarbei- tens und/oder des Analysierens eine Anzahl von Objekten detektiert werden. Das Verarbeiten und/oder Analysieren umfasst beispielsweise eine Signalanalyse der einzelnen Sensorsignale und/oder eine Signalanalyse mehrerer miteinander korrelierter Sensorsignale. Die Anzahl von Objekten ist größer oder gleich Eins. In the present case, the fact that a number of objects in the area surrounding the vehicle are detected as a function of a first number of sensor signals that were received at a first point in time means in particular that the first number of received sensor signals is processed and/or analyzed , and as a result of the processing and/or the analyzing a number of objects are detected. The processing and/or analysis includes, for example, a signal analysis of the individual sensor signals and/or a signal analysis of a number of sensor signals that are correlated with one another. The number of objects is greater than or equal to one.
Für wenigstens eines der erfassten Objekte wird eine Position und ein Bewegungsvektor ermittelt. Zum Ermitteln der Position kann ein einzelnes Sensorsignal eines Zeitpunkts ausreichend sein. Zum Ermitteln des Bewegungsvektors sind wenigstens zwei Sensorsingale, die zu unterschiedlichen Zeitpunkten empfangen wurden, notwendig. Zum Ermitteln des Bewegungsvektors werden vorzugsweise zwei zu unterschiedlichen Zeitpunkten empfangene Sensorsignale eines bestimmten Sensors verwendet, es können aber auch Sensorsignale unterschiedlicher Sensoren, die zu unterschiedlichen Zeitpunkten empfangen wurden, verwendet werden. Je mehr Sensorsignale für ein jeweiliges Objekt verwendet werden, um so genauer kann die Ermittlung der Position und des Bewegungsvektors sein. Zudem ist es vorteilhaft, den Zeitabstand zwischen zwei Sensorsignalen so gering wie möglich zu halten, um die Genauigkeit und die Aktualität zu verbessern, da sich der Bewegungsvektor jederzeit ändern kann, beispielsweise wenn ein Fußgänger abrupt stehen bleibt oder sich in Bewegung setzt. A position and a motion vector are determined for at least one of the detected objects. A single sensor signal at a point in time can be sufficient to determine the position. At least two sensor signals, which were received at different points in time, are necessary to determine the movement vector. Two sensor signals of a specific sensor received at different times are preferably used to determine the movement vector, but sensor signals from different sensors that were received at different times can also be used. The more sensor signals are used for a respective object, the more accurate the determination of the position and the motion vector can be. In addition, it is advantageous to keep the time interval between two sensor signals as short as possible in order to improve accuracy and timeliness, since the movement vector can change at any time, for example if a pedestrian stops abruptly or starts moving.
Die Position des Objekts bezieht sich insbesondere auf eine Position in einem Koordinatensystem des Fahrzeugs und weist wenigstens zwei Koordinaten auf. Die Position des Objekts kann sich hierbei auf einen einzelnen Punkt des Objekts beziehen. The position of the object relates in particular to a position in a coordinate system of the vehicle and has at least two coordinates. The position of the object can refer to a single point of the object.
Der Bewegungsvektor umfasst insbesondere einen zweidimensionalen Vektor. Ein Betrag des Bewegungsvektors entspricht beispielsweise der Geschwindigkeit des Objekts. In particular, the motion vector comprises a two-dimensional vector. A magnitude of the motion vector corresponds, for example, to the speed of the object.
Die Mehrzahl unterschiedlicher Ermittlungsverfahren umfasst wenigstens zwei Ermittlungsverfahren, die einen unterschiedlichen Rechenaufwand aufweisen. Beispielsweise erfolgt bei einem ersten Ermittlungsverfahren die Positionsbestimmung und die Bewegungsvektorbestimmung unmittelbar auf Basis von Sensor-Rohdaten, und bei einem zweiten Ermittlungsverfahren werden auf Basis der Rohdaten verarbeitete Daten erzeugt und die Positionsbestimmung und die Bewegungsvektorbestimmung erfolgt auf Basis der verarbeiteten Daten. Sensor-Rohdaten sind insbesondere das unbearbeitete Ausgangssignal eines jeweiligen Sensors. Dadurch, dass eine Vorverarbeitung entfällt, kann dieses Ermittlungsverfahren besonders schnell sein. Andererseits kann eine Signalrauschen oder dergleichen ein Ermittlungsergebnis beeinträchtigen. The plurality of different determination methods includes at least two determination methods that have different computational complexity. For example, in a first determination method, the position is determined and the motion vector is determined directly on the basis of raw sensor data, and in a second determination method, processed data is generated on the basis of the raw data and the position is determined and the motion vector is determined on the basis of the processed data. Sensor raw data are in particular the unprocessed output signal of a respective sensors. Since there is no pre-processing, this determination method can be particularly fast. On the other hand, signal noise or the like may affect a determination result.
Je weniger Verarbeitungsschritte ein Ermittlungsverfahren aufweist, umso weniger komplex ist es, und umso schneller kann es durchführbar sein. Vorteilhaft umfasst die Mehrzahl unterschiedlicher Ermittlungsverfahren daher wenigstens zwei Ermittlungsverfahren mit einer unterschiedlichen Anzahl an Verarbeitungsschritten. Ein Verarbeitungsschritt umfasst beispielsweise das Durchführen einer bestimmten mathematischen Operation mit einem jeweiligen Sensorsignal, wie das Bilden eines gleitenden Durchschnitts, um Ausreißer in dem Sensorsignal zu maskieren, oder das Anwendung eines Rauschfilters, einer Fouriertransformation und dergleichen mehr. Ein Verarbeitungsschritt kann auch mehrere Sensorsignale umfassen, beispielsweise wenn eine Korrelation ermittelt wird und/oder die Sensorsignale gegenseitig plausibilisiert werden. The fewer processing steps a discovery method has, the less complex it is and the faster it can be performed. The plurality of different determination methods therefore advantageously includes at least two determination methods with a different number of processing steps. A processing step includes, for example, performing a particular mathematical operation on a respective sensor signal, such as forming a moving average to mask outliers in the sensor signal, or applying a noise filter, a Fourier transform, and the like. A processing step can also include a number of sensor signals, for example when a correlation is determined and/or the sensor signals are mutually checked for plausibility.
Auf Basis der verschiedenen Ermittlungsverfahren können für ein Objekt unterschiedliche Positionen und/oder Bewegungsvektoren ermittelt werden. Vorzugsweise werden zu einem Zeitpunkt immer die aktuellste Position und der aktuellste Bewegungsvektor als Grundlage für das Ermitteln einer möglichen Kollision herangezogen. Wenn von zwei unterschiedlichen Ermittlungsverfahren jeweils eine Position und ein Bewegungsvektor für ein Objekt ermittelt wurden, die auf den gleichen aktuellen Sensorsignalen basieren, dann wird insbesondere diejenige Position und derjenige Bewegungsvektor als Grundlage für das Ermitteln einer möglichen Kollision herangezogen, deren jeweilige Genauigkeit und/oder Zuverlässigkeit höher ist. Die Genauigkeit und/oder Zuverlässigkeit kann beispielsweise in Form eines Ermittlungsfehlers, der einerseits von Messfehlern und andererseits von dem Ermittlungsverfahren selbst herrühren kann, bestimmt werden. Different positions and/or movement vectors can be determined for an object on the basis of the various determination methods. The most up-to-date position and the most up-to-date movement vector are preferably always used as the basis for determining a possible collision. If a position and a motion vector for an object were determined by two different determination methods, which are based on the same current sensor signals, then in particular that position and that motion vector are used as the basis for determining a possible collision, their respective accuracy and/or reliability is higher. The accuracy and/or reliability can be determined, for example, in the form of a determination error, which can originate on the one hand from measurement errors and on the other hand from the determination method itself.
Vorzugsweise werden die Position und der Bewegungsvektor für mehrere der erfassten Objekte der Anzahl ermittelt, bevorzugt für jedes erfasste Objekt der Anzahl. Die Position und der Bewegungsvektor werden insbesondere ständig aktualisiert. Beispielsweise wird immer dann eine neue Ermittlung durchgeführt, wenn ein aktuelles Sensorsignal oder eine Anzahl aktueller Sensorsignale empfangen wird. Nachfolgend kann daher auch von der aktuellen Position und dem aktuellen Bewegungsvektor gesprochen werden. Preferably, the position and the motion vector are determined for several of the detected objects of the number, preferably for each detected object of the number. In particular, the position and the motion vector are constantly updated. For example, a new determination is made whenever a current sensor signal or a number of current sensor signals is received. The current position and the current movement vector can therefore also be used in the following.
Auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals und der für das erfasste Objekt ermittelten Position und seines Bewegungsvektors kann ermittelt werden, ob es in der Zukunft zu einer Kollision des Fahrzeugs mit dem sich gemäß seinem Bewegungsvektor bewegenden Objekt kommen kann. Hierbei kann insbesondere eine Extrapolation der Position des Fahrzeugs und des Objekts auf Basis des jeweiligen aktuellen Fahrzustandssensorsignals und eine Extrapolation der Position des Objekts auf Basis der aktuellen Position und dem aktuellen Bewegungsvektor des Objekts ermittelt werden. Based on the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its movement vector, it can be determined whether the vehicle may collide with the object moving according to its movement vector in the future. Here, in particular, an extrapolation of the position of the vehicle and the object based on the respective current driving state sensor signal and an extrapolation of the position of the object based on the current position and the current movement vector of the object can be determined.
Wenn sich die extrapolierten Positionen zu einem bestimmten Zeitpunkt beispielsweise zu nahe kommen, ist eine Kollision wahrscheinlich. For example, if the extrapolated positions get too close at a certain point in time, a collision is likely.
Wenn eine Kollision wahrscheinlich ist, wird ein Warnsignal ausgegeben. Das Ausgeben des Warnsignals kann direkt an den Nutzer des Fahrzeugs erfolgen, beispielsweise als ein akustischen, eine haptisches und/oder ein visuelles Signal. Das Warnsignal kann auch nach außerhalb des Fahrzeugs, beispielsweise an das Objekt, ausgegeben werden, insbesondere als ein akustisches Warnsignal. Wenn das Warnsignal ausgegeben wird, können ferner weitere Funktionen des Fahrassistenzsystems und/oder anderer Einheiten des Fahrzeugs ausgelöst werden. A warning signal is given when a collision is likely. The warning signal can be output directly to the user of the vehicle, for example as an acoustic, haptic and/or visual signal. The warning signal can also be output to the outside of the vehicle, for example to the object, in particular as an acoustic warning signal. If the warning signal is issued, further functions of the driver assistance system and/or other units of the vehicle can also be triggered.
Das Warnsignal wird vorzugsweise unabhängig davon, mit welchem Ermittlungsverfahren die Position und der Bewegungsvektor des Objekts, mit dem eine mögliche Kollision ermittelt wurde, ausgegeben. Gemäß einer Ausführungsform des Verfahrens umfasst die Anzahl unterschiedlicher Ermittlungsverfahren wenigstens ein erstes Ermittlungsverfahren, bei dem für jedes erfasste Objekt der Anzahl ein Kalman-Filter zugeordnet und initialisiert wird, das zum Ermitteln der Position sowie des Bewegungsvektors des jeweiligen Objekts verwendet wird. The warning signal is preferably output independently of the determination method used to determine the position and the movement vector of the object with which a possible collision was determined. According to one embodiment of the method, the number of different determination methods includes at least one first determination method in which for each detected object of the number a Kalman filter is assigned and initialized, which is used to determine the position and the motion vector of the respective object.
Das heißt, dass bei fünf erfassten Objekten fünf zugeordnete Kalman-Filter initialisiert werden. Das Kalman-Filter (auch Kalman-Bucy-Filter, Stratonovich-Kalman-Bucy-Filter oder Kal- man-Bucy-Stratonovich-Filter) ist ein mathematisches Verfahren zur iterativen Schätzung von Parametern, vorliegend der Position und des Bewegungsvektors des Objekts, auf der Basis von fehlerbehafteten Messungen, vorliegend die empfangenen Sensorsignale. Das Kalman-Filter dient dazu, nicht direkt messbare Systemgrößen zu schätzen, während die Fehler der Messungen optimal reduziert werden. Das Kalman-Filter beschreibt einen Schätzwert durch mehrdimensionale Normalverteilungen. Diese repräsentieren eine Wahrscheinlichkeitsverteilung möglicher Fehler um jeden Schätzwert sowie Korrelationen zwischen Schätzfehlern unterschiedlicher Variablen. Mit dieser Information werden in jedem Zeitschritt die bisherigen Schätzwerte mit den neuen Messungen auf optimale Weise kombiniert, so dass verbleibende Fehler schnellstmöglich minimiert werden. Das Kalman-Filter hat zu einem aktuellen Zeitpunkt ein Filterzustand umfassend die aktuellen Schätzwerte sowie Fehlerschätzungen und Korrelationen. Nach jeder neuen Messung verbessert das Kalman-Filter die bisherigen Schätzwerte und aktualisiert die zugehörigen Fehlerschätzungen und Korrelationen. In dynamischen Systemen, in denen beispielsweise auch eine Geschwindigkeit geschätzt wird, schätzt das Kalman-Filter auch Korrelationen zwischen der Geschwindigkeit und beispielsweise der Position, insbesondere auf Basis von Bewegungsgleichungen, und berücksichtigt diese für den nächsten Zeitschritt. This means that with five objects detected, five associated Kalman filters are initialized. The Kalman filter (also Kalman-Bucy filter, Stratonovich-Kalman-Bucy filter or Kalman-Bucy-Stratonovich filter) is a mathematical method for the iterative estimation of parameters, in this case the position and the motion vector of the object based on erroneous measurements, in this case the received sensor signals. The Kalman filter is used to estimate system variables that cannot be measured directly, while the errors in the measurements are optimally reduced. The Kalman filter describes an estimated value using multidimensional normal distributions. These represent a probability distribution of possible errors around each estimate, as well as correlations between estimate errors of different variables. With this information, the previous estimated values are optimally combined with the new measurements in each time step, so that remaining errors are minimized as quickly as possible. At a current point in time, the Kalman filter has a filter state comprising the current estimated values as well as error estimates and correlations. After each new measurement, the Kalman filter improves the previous estimates and updates the associated error estimates and correlations. In dynamic systems in which, for example, a speed is also estimated, the Kalman filter also estimates correlations between the speed and, for example, the position, in particular on the basis of equations of motion, and takes these into account for the next time step.
Das Kalman-Filter wird vorzugsweise wenigstens immer dann aktualisiert, wenn eine Anzahl aktueller Sensorsignale empfangen wurde. Gemäß einer Ausführungsform des Verfahren sind unterschiedlichen Sensorsignalen der Anzahl unterschiedliche Abtastbereiche in der Umgebung zugeordnet, wobei ein jeweiliges einem bestimmten Abtastbereich in der Umgebung zugeordnetes Sensorsignal der zu einem jeweiligen Zeitpunkt empfangenen Anzahl von Sensorsignalen demjenigen Kalman-Filter zugeführt wird, dessen zugeordnetes Objekt eine Position aufweist, die innerhalb des dem Sensorsignal zugeordneten Abtastbereichs liegt. The Kalman filter is preferably updated at least whenever a number of current sensor signals have been received. According to one embodiment of the method, different sensor signals of the number of different scanning areas in the environment are assigned, with a respective sensor signal of the number of sensor signals received at a particular point in time, assigned to a specific scanning area in the area, being fed to that Kalman filter whose assigned object has a position , which lies within the scanning range assigned to the sensor signal.
Hiermit ist sichergestellt, dass das jeweilige Kalman-Filter für die nächsten Aktualisierung dasjenige Sensorsignal zugeführt bekommt, das sich auch auf das dem Kalman-Filter zugeordnete Objekt bezieht. This ensures that the respective Kalman filter is supplied with that sensor signal for the next update which also relates to the object assigned to the Kalman filter.
Gemäß einer weiteren Ausführungsform des Verfahrens erfolgt das Ausgeben des Warnsignals, wenn eine potentielle Kollision auf Basis der für das jeweilige erfasste Objekt unter Verwendung des ersten Ermittlungsverfahrens ermittelten Position und seines Bewegungsvektors ermittelt wird, ausschließlich dann, wenn der ermittelte Bewegungsvektor des Objekts ungleich Null ist. According to a further embodiment of the method, the warning signal is output if a potential collision is determined on the basis of the position determined for the respective detected object using the first determination method and its motion vector, only if the determined motion vector of the object is not equal to zero.
Mit anderen Worten wird vor einer möglichen Kollision mit einem Objekt nicht gewarnt, wenn die mögliche Kollision auf Basis der mit dem ersten Ermittlungsverfahren ermittelten Position und beispielsweise einer Bewegung des Fahrzeugs ermittelt wurde, das Objekt selbst sich aber nicht bewegt, sondern statisch ist. Es sei angemerkt, dass die nicht ausschließt, dass vor einer solchen Kollision gewarnt wird. Beispielsweise kann die mögliche Kollision auch auf Basis der mit einem weiteren Ermittlungsverfahren ermittelten Position des Objekts ermittelt werden und es kann dann entsprechend eine Warnung ausgegeben werden. In other words, there is no warning of a possible collision with an object if the possible collision was determined based on the position determined using the first determination method and, for example, a movement of the vehicle, but the object itself is not moving but is static. It should be noted that this does not preclude warnings of such a collision. For example, the possible collision can also be determined on the basis of the position of the object determined using a further determination method, and a warning can then be issued accordingly.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses: According to a further embodiment of the method, this includes:
Ermitteln eines Fahrschlauchs für das Fahrzeug in Abhängigkeit des empfangenen Fahrzustandssensorsignals. Der Begriff "Fahrschlauch" beschreibt vorliegend insbesondere die Fläche, die das Fahrzeug überstreichen würde, wenn es mit dem aktuellen Radwinkel oder Lenkwinkel vorwärts oder rückwärts bewegt würde. Das heißt, dass eine Änderung des Lenkwinkels oder des Radwinkels eine Änderung des Fahrschlauchs bewirkt. Der Fahrschlauch kann beispielsweise durch Trajektorien für jedes Rad des Fahrzeugs repräsentiert sein. Der Fahrschlauch kann auch als zweidimensionale zukünftige Trajektorie des Fahrzeugs aufgefasst werden. Determining a driving path for the vehicle depending on the received driving condition sensor signal. In the present case, the term “travel path” describes in particular the area that the vehicle would sweep over if it were moved forwards or backwards with the current wheel angle or steering angle. This means that a change in the steering angle or the wheel angle causes a change in the driving path. The driving path can be represented, for example, by trajectories for each wheel of the vehicle. The driving path can also be understood as a two-dimensional future trajectory of the vehicle.
Gemäß einer weiteren Ausführungsform des Verfahrens wird ein Warnsignal nur dann ausgegeben, wenn ein Abstand des jeweiligen Objekts zu dem Fahrzeug und/oder zu dem ermittelten Fahrschlauch kleiner oder gleich einem unteren Schwellwert ist. According to a further embodiment of the method, a warning signal is only output when a distance of the respective object from the vehicle and/or from the determined driving path is less than or equal to a lower threshold value.
Der Schwellwert ist insbesondere für unterschiedliche Fahrzeuge und/oder Situationen variabel bestimmbar. Weiterhin kann der Schwellwert in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Geschwindigkeit des Objekts bestimmt werden. Weiterhin kann der Schwellwert in Abhängigkeit einer Messgenauigkeit, wie einer Standardabweichung oder einer Varianz, bestimmt werden. The threshold value can be variably determined in particular for different vehicles and/or situations. Furthermore, the threshold value can be determined as a function of the vehicle speed and/or the speed of the object. Furthermore, the threshold value can be determined as a function of a measurement accuracy, such as a standard deviation or a variance.
Diese Ausführungsform hat den Vorteil, dass nur dann eine Warnung ausgegeben wird, wenn die Wahrscheinlichkeit einer Kollision relativ hoch ist. Insbesondere wird durch den Schwellwert berücksichtigt, dass unbekannt ist, wie sich das Objekt weiterbewegen wird, das heißt, ob es beispielsweise seine Geschwindigkeit und/oder Richtung ändern wird. Der Schwellwert kann beispielsweise einen Wert aus einem Intervall von Null bis zu zwei Meter annehmen. This embodiment has the advantage that a warning is only issued when the probability of a collision is relatively high. In particular, the threshold value takes into account that it is unknown how the object will continue to move, ie whether it will change its speed and/or direction, for example. The threshold can, for example, assume a value from an interval from zero to two meters.
Gemäß einer weiteren Ausführungsform des Verfahrens wird ein Warnsignal nur dann ausgegeben, wenn der ermittelte Bewegungsvektor des jeweiligen Objekts in Richtung zu dem Fahrzeug und/oder zu dem ermittelten Fahrschlauch weist. According to a further embodiment of the method, a warning signal is only output when the determined movement vector of the respective object points in the direction of the vehicle and/or the determined driving path.
Dies hat den Vorteil, dass beispielsweise bei einem Objekt, dessen aktueller Abstand unterhalb des unteren Schwellwerts ist, das sich aber von dem Fahrzeug oder dem Fahrschlauch wegbewegt und mit dem deshalb eine Kollision sehr unwahrscheinlich ist, kein Warnsignal ausgegeben wird. This has the advantage that, for example, in the case of an object whose current distance is below the lower threshold value, but which is away from the vehicle or the driving path moved away and with which a collision is therefore very unlikely, no warning signal is issued.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst der Schritt e): According to a further embodiment of the method, step e) comprises:
Ermitteln einer zukünftigen Trajektorie des erfassten Objekts auf Basis der ermittelten Position und dem Bewegungsvektor, wobei ein Warnsignal nur dann ausgegeben wird, wenn die ermittelte zukünftige Trajektorie an wenigstens einer Position einen vorbestimmten Minimalabstand unterschreitet und/oder einen Schnittpunkt mit dem ermittelten Fahrschlauch aufweist. Determining a future trajectory of the detected object on the basis of the determined position and the movement vector, with a warning signal only being output if the determined future trajectory falls below a predetermined minimum distance at at least one position and/or has an intersection with the determined driving path.
Die zukünftige Trajektorie kann beispielsweise als eine Extrapolation einer bisherigen Trajektorie des Objekts ermittelt werden. Hierbei kann insbesondere auch eine gekrümmte zukünftige Trajektorie ermittelbar sein. The future trajectory can be determined, for example, as an extrapolation of a previous trajectory of the object. In particular, a curved future trajectory can also be determined here.
Der vorbestimmte Minimalabstand kann gleich dem unteren Schwellwert sein, er kann aber auch unterschiedlich zu diesem sein. Der vorbestimmte Minimalabstand kann insbesondere für unterschiedliche Fahrzeuge und/oder Situationen variabel bestimmbar sein. Weiterhin kann der vorbestimmte Minimalabstand in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Geschwindigkeit des Objekts bestimmt werden. Weiterhin kann der vorbestimmte Minimalabstand in Abhängigkeit einer Messgenauigkeit, wie einer Standardabweichung oder einer Varianz, bestimmt werden. The predetermined minimum distance can be equal to the lower threshold value, but it can also be different from it. The predetermined minimum distance can be variably determined, in particular for different vehicles and/or situations. Furthermore, the predetermined minimum distance can be determined as a function of the vehicle speed and/or the speed of the object. Furthermore, the predetermined minimum distance can be determined as a function of a measurement accuracy, such as a standard deviation or a variance.
Darunter, dass der vorbestimmte Minimalabstand in Abhängigkeit einer anderen Größe, wie beispielsweise der Fahrzeuggeschwindigkeit, bestimmt wird, ist beispielsweise zu verstehen, dass der vorbestimmte Minimalabstand als eine Funktion der anderen Größe vorbestimmt ist, so dass ein konkreter Zahlenwert zu einem Zeitpunkt in Abhängigkeit des aktuellen Werts der anderen Größe bestimmt wird. The fact that the predetermined minimum distance is determined as a function of another variable, such as the vehicle speed, means, for example, that the predetermined minimum distance is predetermined as a function of the other variable, so that a specific numerical value at a point in time depends on the current value of the other quantity is determined.
Gemäß einer weiteren Ausführungsform des Verfahrens umfassen die empfangenen Sensorsignale ausschließlich Ultraschallsensorsignale. Diese Ausführungsform kann vorteilhaft für Fahrzeuge genutzt werden, die ausschließlich Ultraschallsensoren aufweisen. Ultraschallsensoren sind im Vergleich zu anderen Sensoren, wie Radar, Lidar und/oder Kameras, günstig in der Herstellung und benötigen keine hohe Rechenleistung zur Auswertung ihrer Sensorsignale. According to a further embodiment of the method, the received sensor signals exclusively include ultrasonic sensor signals. This embodiment can be used advantageously for vehicles that only have ultrasonic sensors. Compared to other sensors, such as radar, lidar and/or cameras, ultrasonic sensors are inexpensive to manufacture and do not require high computing power to evaluate their sensor signals.
Auch für Fahrzeuge, die über weitere Sensorik verfügen, kann diese Ausführungsform vorteilhaft sein, da die benötigte Rechenleistung für das vorgeschlagene Verfahren geringer ist, als für alternative Verfahren, die beispielsweise zusätzlich eine Bildauswertung eines Kamerabildes durchführen. This embodiment can also be advantageous for vehicles that have additional sensors, since the computing power required for the proposed method is less than for alternative methods that, for example, additionally carry out an image evaluation of a camera image.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst die Anzahl unterschiedlicher Ermittlungsverfahren wenigstens ein zweites Ermittlungsverfahren, bei dem auf Basis der zu einem jeweiligen Zeitpunkt empfangenen Anzahl von Sensorsignalen eine Merkmalserkennung durchgeführt wird und eine digitale Umgebungskarte unter Verwendung von erkannten Merkmalen ermittelt wird. According to a further embodiment of the method, the number of different determination methods includes at least one second determination method in which a feature recognition is carried out on the basis of the number of sensor signals received at a particular point in time and a digital map of the surroundings is determined using recognized features.
Die digitale Umgebungskarte kann vorteilhaft dazu verwendet werden, auch eine Kollision mit statischen Objekten zu ermitteln und hiervor zu warnen. Im Vergleich zu dem ersten Ermittlungsverfahren ist insbesondere das Durchführen einer Merkmalserkennung (englisch: "feature extraction") aufwändig und benötigt mehr Rechenleistung. Daher kann das zweite Ermittlungsverfahren insbesondere auch länger dauern. Weiterhin kann es Vorkommen, dass sich bewegende Objekte bei der Merkmalserkennung nicht erkannt werden, beispielsweise wenn sich das Sensorsignal schnell verändert und daher wie Rauschen aussieht. Dies kann insbesondere bei Fußgängern und/oder Radfahren der Fall sein. The digital map of the surroundings can advantageously be used to also determine a collision with static objects and to warn of this. In comparison to the first determination method, carrying out a feature detection (English: "feature extraction") is complex and requires more computing power. Therefore, the second preliminary investigation may last longer. Furthermore, it can happen that moving objects are not detected during feature detection, for example if the sensor signal changes quickly and therefore looks like noise. This can be the case in particular with pedestrians and/or cyclists.
Gemäß einer weiteren Ausführungsform des Verfahrens wird das Verfahren ausschließlich dann durchgeführt, wenn das Fahrzeug eine Geschwindigkeit von kleiner oder gleich 15 km/h, vorzugsweise kleiner oder gleich 10 km/h, bevorzugt kleiner oder gleich 7 km/h, weiter bevorzugt kleiner oder gleich 5 km/h aufweist. Die Fahrzeuggeschwindigkeit lässt sich insbesondere auf Basis des Fahrzustandssensorsignals ermitteln. According to a further embodiment of the method, the method is only carried out when the vehicle has a speed of less than or equal to 15 km/h, preferably less than or equal to 10 km/h, preferably less than or equal to 7 km/h, more preferably less than or equal to 5 km/h. The vehicle speed can be determined in particular on the basis of the driving condition sensor signal.
Dies ist insbesondere bei der Verwendung von Ultraschallsensorsignalen vorteilhaft, da Ultraschallsensoren aufgrund der Ausbreitungsgeschwindigkeit von Schall in Luft vergleichsweise langsam arbeiten und daher für hohe Geschwindigkeiten weniger geeignet sind. This is particularly advantageous when using ultrasonic sensor signals, since ultrasonic sensors work comparatively slowly due to the propagation speed of sound in air and are therefore less suitable for high speeds.
Gemäß einem zweiten Aspekt wird ein Computerprogrammprodukt vorgeschlagen, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren gemäß dem ersten Aspekt auszuführen. According to a second aspect, a computer program product is proposed which comprises instructions which, when the program is executed by a computer, cause the latter to execute the method according to the first aspect.
Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen. A computer program product, such as a computer program means, can be made available or supplied by a server in a network, for example, as a storage medium such as a memory card, USB stick, CD-ROM, DVD, or in the form of a downloadable file. This can be done, for example, in a wireless communication network by transferring a corresponding file with the computer program product or the computer program means.
Gemäß einem dritten Aspekt wird ein Fahrassistenzsystem für ein Fahrzeug vorgeschlagen. Das Fahrassistenzsystem umfasst eine Empfangseinheit zum Empfangen eines für einen Fahrzustand des Fahrzeugs indikativen Fahrzustandssensorsignals zu einer Anzahl unterschiedlicher Zeitpunkte, und zum Empfangen einer Anzahl von für eine Umgebung des Fahrzeugs indikativen Sensorsignalen zu einer Anzahl unterschiedlicher Zeitpunkte, eine Erfassungseinheit zum Erfassen einer Anzahl von Objekten in der Umgebung des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen, die zu einem ersten Zeitpunkt empfangen wurden, eine Ermittlungseinheit zum Ermitteln einer Position und eines Bewegungsvektors für ein erfasstes Objekt der Anzahl in Abhängigkeit von der ersten Anzahl von Sensorsignalen und einer zweiten Anzahl von Sensorsignalen, die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren, wobei verschiedene Ermittlungsverfahren der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und eine Ausgabeeinheit zum Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs mit dem erfassten Objekt auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals und der für das erfasste Objekt ermittelten Position und seines Bewegungsvektors ermittelt wird. According to a third aspect, a driver assistance system for a vehicle is proposed. The driver assistance system comprises a receiving unit for receiving a driving condition sensor signal indicative of a driving condition of the vehicle at a number of different points in time, and for receiving a number of sensor signals indicative of an area surrounding the vehicle at a number of different points in time, a detection unit for detecting a number of objects in the Environment of the vehicle depending on a first number of sensor signals received at a first point in time, a determination unit for determining a position and a movement vector for a detected object of the number depending on the first number of sensor signals and a second number of sensor signals, received at a second time subsequent to the first time using a plurality different determination methods, wherein different determination methods of the plurality have a different computing effort, and an output unit for outputting a warning signal if there is a potential collision of the vehicle with the detected object on the basis of the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its Motion vector is determined.
Die für das vorgeschlagen Verfahren beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Fahrassistenzsystem entsprechend. Die Vorteile und/oder Definitionen, die in Bezug auf das Verfahren gemäß dem ersten Aspekt genannt wurden, gelten auch für das vorgeschlagene Fahrassistenzsystem. Das Fahrassistenzsystem wird insbesondere mit dem Verfahren gemäß dem ersten Aspekt oder einer der Ausführungsformen des Verfahrens betrieben. The embodiments and features described for the proposed method apply accordingly to the proposed driver assistance system. The advantages and/or definitions that were mentioned in relation to the method according to the first aspect also apply to the proposed driver assistance system. The driver assistance system is operated in particular with the method according to the first aspect or one of the specific embodiments of the method.
Die jeweilige Einheit des Fahrassistenzsystem kann hardwaretechnisch und/oder softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit zum Beispiel als Computer oder als Mikroprozessor ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als ein Algorithmus, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein. Ferner kann jede der vorliegend genannten Einheiten auch als Teil eines übergeordneten Steuerungssystems des Fahrzeugs, wie beispielsweise einer zentralen elektronischen Steuereinrichtung und/oder einem Motorsteuergerät (ECU: Engine Control Unit), ausgebildet sein. The respective unit of the driver assistance system can be implemented in terms of hardware and/or software. In the case of a hardware implementation, the respective unit can be embodied, for example, as a computer or as a microprocessor. In the case of a software implementation, the respective unit can be designed as a computer program product, as a function, as a routine, as an algorithm, as part of a program code or as an executable object. Furthermore, each of the units mentioned here can also be designed as part of a higher-level control system of the vehicle, such as a central electronic control device and/or an engine control unit (ECU: Engine Control Unit).
Das Fahrassistenzsystem kann insbesondere zum teilautonomen oder vollautonomen Fahren des Fahrzeugs eingerichtet sein. Unter teilautonomem Fahren wird beispielsweise verstanden, dass das Fahrassistenzsystem eine Lenkvorrichtung und/oder eine Fahrstufenautomatik steuert. Unter vollautonomem Fahren wird beispielsweise verstanden, dass das Fahrassistenzsystem zusätzlich auch eine Antriebseinrichtung und eine Bremseinrichtung steu- ert. Gemäß einem vierten Aspekt wird ein Fahrzeug mit einer Anzahl von Umgebungssensoreinheiten zum Erfassen einer Umgebung des Fahrzeugs und zum Ausgeben eines jeweiligen Sensorsignals und mit einem Fahrassistenzsystem gemäß dem dritten Aspekt . The driver assistance system can be set up in particular for semi-autonomous or fully autonomous driving of the vehicle. Partially autonomous driving is understood to mean, for example, that the driver assistance system controls a steering device and/or an automatic driving stage. Fully autonomous driving means, for example, that the driver assistance system also controls a drive device and a braking device. According to a fourth aspect, a vehicle with a number of surroundings sensor units for detecting surroundings of the vehicle and for outputting a respective sensor signal and with a driver assistance system according to the third aspect.
Das Fahrzeug ist beispielsweise ein Personenkraftwagen oder auch ein Lastkraftwagen. Das Fahrzeug umfasst vorzugsweise eine Anzahl an Sensoreinheiten, die zum Erfassen des Fahrzustands des Fahrzeugs und zum Erfassen einer Umgebung des Fahrzeugs eingerichtet sind. Beispiele für derartige Sensoreinheiten des Fahrzeugs sind Bildaufnahmeeinrichtungen, wie eine Kamera, ein Radar (engl, radio detection and ranging) oder auch ein Lidar (engl, light detection and ranging), Ultraschallsensoren, Ortungssensoren, Radwinkelsensoren und/oder Raddrehzahlsensoren. Die Sensoreinheiten sind jeweils zum Ausgeben eines Sensorsignals eingerichtet, beispielsweise an das Fahrassistenzsystem, welches das teilautonome oder vollautonome Fahren in Abhängigkeit der erfassten Sensorsignale durchführt. The vehicle is, for example, a passenger car or a truck. The vehicle preferably includes a number of sensor units that are set up to detect the driving state of the vehicle and to detect an environment of the vehicle. Examples of such sensor units of the vehicle are imaging devices, such as a camera, radar (radio detection and ranging) or a lidar (engl, light detection and ranging), ultrasonic sensors, location sensors, wheel angle sensors and/or wheel speed sensors. The sensor units are each set up to output a sensor signal, for example to the driver assistance system, which carries out the partially autonomous or fully autonomous driving as a function of the detected sensor signals.
Gemäß einer Ausführungsform des Fahrzeugs umfassen die Umgebungssensoreinheiten ausschließlich Ultraschallsensoren. According to one embodiment of the vehicle, the environmental sensor units exclusively include ultrasonic sensors.
Dies ermöglicht ein wenig komplexes und in der Fierstellung günstiges Fahrzeug. This allows for a vehicle that is less complex and less expensive to stow.
Gemäß einer weiteren Ausführungsform des Fahrzeugs weist das Fahrzeug eine Masse von über 2,5 Tonnen und/oder eine Länge von über 5 Metern auf. According to a further embodiment of the vehicle, the vehicle has a mass of more than 2.5 tons and/or a length of more than 5 meters.
Beispielsweise ist das Fahrzeug als ein Transporter ausgebildet. Transporter sind beispielsweise unübersichtlich und können einen oder mehrere "tote Winkel" aufweisen, die ein Fahrer des Transporters schlecht oder gar nicht einsehen kann. Ein solcher toter Winkel ist beispielsweise auf der Beifahrerseite hinter der A-Säule oder auf der Fahrer- und/oder Beifahrerseite nahe an dem Fahrzeug. Insbesondere bei großen und/oder unübersichtlichen Fahrzeugen weist das Verfahren den Vorteil auf, dass bei einer drohenden Kollision mit einem Objekt, das sich in einem von dem Fahrer schlecht oder gar nicht einsehbaren Bereich in der Nähe des Fahrzeugs befindet, gewarnt werden kann. For example, the vehicle is designed as a transporter. Vans, for example, are confusing and can have one or more "blind spots" that a driver of the van can see poorly or not at all. Such a blind spot is, for example, on the passenger side behind the A-pillar or on the driver and/or passenger side close to the vehicle. Particularly in the case of large and/or unclear vehicles, the method has the advantage that a warning can be given in the event of an imminent collision with an object that is in an area close to the vehicle that is difficult or impossible for the driver to see.
Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen. Further possible implementations of the invention also include combinations of features or embodiments described above or below with regard to the exemplary embodiments that are not explicitly mentioned. The person skilled in the art will also add individual aspects as improvements or additions to the respective basic form of the invention.
Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert. Further advantageous refinements and aspects of the invention are the subject matter of the dependent claims and of the exemplary embodiments of the invention described below. The invention is explained in more detail below on the basis of preferred embodiments with reference to the enclosed figures.
Fig. 1 zeigt eine schematische Ansicht einer Ausführungsbeispiels eines Fahrzeugs; 1 shows a schematic view of an exemplary embodiment of a vehicle;
Fig. 2 zeigt eine schematische Ansicht unterschiedlicher Abtastbereiche; Fig. 2 shows a schematic view of different scanning areas;
Fig. 3 zeigt eine schematische Ansicht einer ersten Verkehrssituation; 3 shows a schematic view of a first traffic situation;
Fig. 4 zeigt eine schematische Ansicht einer zweiten Verkehrssituation; 4 shows a schematic view of a second traffic situation;
Fig. 5 zeigt eine schematische Ansicht einer dritten Verkehrssituation zu unterschiedlichen Zeitpunkten; 5 shows a schematic view of a third traffic situation at different points in time;
Fig. 6 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels für ein Fahrassistenzsystem; und Fig. 7 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines Fahrassistenzsystems. 6 shows a schematic block diagram of an exemplary embodiment of a driver assistance system; and FIG. 7 shows a schematic block diagram of an exemplary embodiment of a method for operating a driver assistance system.
In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist. Elements that are the same or have the same function have been provided with the same reference symbols in the figures, unless otherwise stated.
Fig. 1 zeigt eine schematische Ansicht eines Fahrzeugs 100 aus einer Vogelperspektive.1 shows a schematic view of a vehicle 100 from a bird's eye view.
Das Fahrzeug 100 ist beispielsweise ein Auto, das in einer Umgebung 200 angeordnet ist. Das Auto 100 weist ein Fahrassistenzsystem 110 auf, das beispielsweise als ein Steuergerät ausgebildet ist. Zudem sind an dem Auto 100 eine Mehrzahl an Umgebungssensoreinrichtungen 120, 130 angeordnet, wobei es sich beispielhaft um optische Sensoren 120 und Ultraschallsensoren 130 handelt. Die optischen Sensoren 120 umfassen beispielsweise visuelle Kameras, ein Radar und/oder ein Lidar. Die optischen Sensoren 120 können jeweils ein Bild eines jeweiligen Bereichs aus der Umgebung 200 des Autos 100 erfassen und als optisches Sensorsignal ausgeben. Die Ultraschallsensoren 130 sind insbesondere zum Abtasten eines jeweiligen Bereichs 131 - 136 (siehe Fig. 2) der Umgebung 200 eingerichtet. Auf Basis des von den Ultraschallsensoren 130 jeweils ausgegebenen Sensorsignals lassen sich beispielsweise Objekte 210, 211 (siehe Fig. 2 - 5) erfassen und ein Abstand zu den Objekten 210,The vehicle 100 is, for example, a car that is arranged in an environment 200 . Car 100 has a driver assistance system 110, which is embodied as a control unit, for example. In addition, a plurality of environment sensor devices 120, 130 are arranged on car 100, these being optical sensors 120 and ultrasonic sensors 130, for example. The optical sensors 120 include, for example, visual cameras, a radar and/or a lidar. The optical sensors 120 can each capture an image of a respective area from the environment 200 of the car 100 and output it as an optical sensor signal. The ultrasonic sensors 130 are set up in particular for scanning a respective area 131 - 136 (see FIG. 2 ) of the environment 200 . On the basis of the sensor signal output by the ultrasonic sensors 130, objects 210, 211 (see FIGS.
211 ermitteln. Aus zeitlich aufeinanderfolgenden Sensorsignalen kann beispielsweise ein Bewegungsvektor VEC (siehe Fig. 3 - 5) eines Objekts 210, 211 ermittelt werden. Mittels den von den Sensoren 120, 130 erfassten Sensorsignalen kann das Fahrassistenzsystem 110 in der Lage sein, das Auto 100 teilautonom oder auch vollautonom zu fahren. Außer den in der Fig. 1 dargestellten optischen Sensoren 120 und Ultraschallsensoren 130 kann vorgesehen sein, dass das Fahrzeug 100 verschiedene weitere Sensoreinrichtungen 120, 130 aufweist. Beispiele hierfür sind ein Mikrofon, ein Beschleunigungssensor, ein Raddrehzahlsensor, ein Radwinkelsensor, ein Lenkwinkelsensor, eine Antenne mit gekoppeltem Empfänger zum Empfangen von elektromagnetisch übertragbarer Datensignale, und dergleichen mehr. Das Fahrassistenzsystem 110 ist beispielsweise wie anhand der Fig. 6 erläutert ausgebildet und dazu eingerichtet, das anhand der Fig. 7 beschriebene Verfahren auszuführen. Vorzugsweise ist das Fahrassistenzsystem 110 ferner dazu eingerichtet, Verarbeitungsprozesse wie nachfolgend anhand der Fig. 2 - 5 beschrieben auszuführen. 211 determine. For example, a motion vector VEC (see FIGS. 3-5) of an object 210, 211 can be determined from sensor signals that follow one another in time. Using the sensor signals detected by sensors 120, 130, driver assistance system 110 may be able to drive car 100 partially or fully autonomously. In addition to the optical sensors 120 and ultrasonic sensors 130 shown in FIG. 1, it can be provided that the vehicle 100 has various other sensor devices 120, 130. Examples of this are a microphone, an acceleration sensor, a wheel speed sensor, a wheel angle sensor, a steering angle sensor, an antenna with a coupled receiver for receiving electromagnetically transmittable data signals, and the like. Driver assistance system 110 is designed, for example, as explained with reference to FIG. 6 and set up to carry out the method described with reference to FIG. 7 . Driver assistance system 110 is preferably also set up to carry out processing procedures as described below with reference to FIGS. 2-5.
Fig. 2 zeigt eine schematische Ansicht unterschiedlicher Abtastbereiche 131 - 136 verschiedener Ultraschallsensoren 130. In diesem Beispiel sind sechs Ultraschallsensoren 130 an einem vorderen Schweller eines Fahrzeugs 100 angeordnet. Das Fahrzeug 100 ist beispielsweise wie anhand der Fig. 1 beschrieben ausgebildet. Jeder Sensor 130 weist einen bestimmten Abtastbereich 131 - 136 auf. Die Form eines jeweiligen Abtastbereichs 131 - 136 hängt von der Anordnung und der Ausrichtung des Ultraschallsensors 130 an dem Fahrzeug 100 ab, aber auch von dem Aufbau des Ultraschallsensors 130. Die Abtastbereiche 131 - 136 können sich zumindest teilweise überlappen, so dass die direkte Umgebung 200 vor dem Schweller des Fahrzeugs 100 vorzugsweise lückenlos erfassbar ist. Die Reichweite eines jeweiligen Ultraschallsensors 130 hängt von dessen Aufbau ab, diese liegt beispielsweise in einem Bereich zwischen fünf Meter bis zehn Meter. 2 shows a schematic view of different scanning areas 131-136 of different ultrasonic sensors 130. In this example, six ultrasonic sensors 130 are arranged on a front sill of a vehicle 100. Vehicle 100 is designed, for example, as described with reference to FIG. 1 . Each sensor 130 has a specific scanning range 131-136. The shape of a respective scanning area 131 - 136 depends on the arrangement and alignment of ultrasonic sensor 130 on vehicle 100, but also on the structure of ultrasonic sensor 130. The scanning areas 131 - 136 can at least partially overlap, so that the immediate surroundings 200 in front of the sill of vehicle 100 can preferably be detected without any gaps. The range of a respective ultrasonic sensor 130 depends on its structure, for example in a range between five meters and ten meters.
Außer den hier dargestellten sechs Ultraschallsensoren 130, die physisch vorhanden sind, können zusätzliche virtuelle Ultraschallsensoren (nicht dargestellt) vorhanden sein. Ein virtueller Ultraschallsensor basiert beispielsweise darauf, dass ein erster Ultraschallsensor 130 ein Ultraschall-Signal aussendet und ein zweiter Ultraschallsensor 130 eine Reflexion des von dem ersten Ultraschallsensor ausgesandten Ultraschall-Signals empfängt. Ein virtueller Ultraschallsensor weist beispielsweise eine virtuelle Position zwischen zwei physisch vorhandenen Ultraschallsensoren 130 auf. In addition to the six ultrasonic sensors 130 shown here that are physically present, additional virtual ultrasonic sensors (not shown) may be present. A virtual ultrasonic sensor is based, for example, on a first ultrasonic sensor 130 emitting an ultrasonic signal and a second ultrasonic sensor 130 receiving a reflection of the ultrasonic signal emitted by the first ultrasonic sensor. A virtual ultrasonic sensor has, for example, a virtual position between two ultrasonic sensors 130 that are physically present.
Es befinden sich zwei Objekte 210, 211 in der Umgebung 200 des Fahrzeugs 100. Ein erstes Objekt 210, beispielsweise ein Radfahrer, befindet sich in den Abtastbereichen 135, 136 von zwei Ultraschallsensoren 130. Der Radfahrer 210 wird daher insbesondere von zwei Ultraschallsensoren erfasst. Zusätzlich kann der Radfahrer wie vorstehend beschrieben von einem virtuellen Ultraschallsensor erfasst werden. Ein zweites Objekt 211, beispielsweise ein Fußgänger, befindet sich in dem Abtastbereich 132 eines einzelnen Ultraschallsensors 130. Der Fußgänger 211 kann aber auch von einem virtuellen Ultraschallsensor wie vorstehend beschrieben erfasst werden. There are two objects 210, 211 in the surroundings 200 of the vehicle 100. A first object 210, for example a cyclist, is located in the scanning areas 135, 136 of two ultrasonic sensors 130. The cyclist 210 is therefore detected by two ultrasonic sensors in particular. In addition, the cyclist can be detected by a virtual ultrasonic sensor as described above. A second object 211, for example a Pedestrian is located in the scanning area 132 of a single ultrasonic sensor 130. However, the pedestrian 211 can also be detected by a virtual ultrasonic sensor as described above.
Zum Ermitteln der Position POS (siehe Fig. 7) und des Bewegungsvektors VEC (siehe Fig. 3 - 5) eines jeweiligen Objekts 210, 211 mittels eines ersten Ermittlungsverfahrens V1 (siehe Fig. 6 oder 7) wird jedem erfassten Objekt 210, 211 ein Kalman-Filter zugeordnet und initialisiert. In diesem Beispiel werden daher zwei Kalman-Filter initialisiert. Ein jeweiliges Kalman- Filter ist dazu eingerichtet, auf Basis der zeitlich nacheinander empfangenen Ultraschallsensorsignale SIG1(t) die Lage des jeweiligen Objekts 210, 211 zu schätzen. Die Lage umfasst hierbei insbesondere die Position POS und den Bewegungsvektor VEC des jeweiligen Objekts 210, 211. Insbesondere werden jedem Kalman-Filter die empfangenen Ultraschallsensorsignale SIG1(t) derjenigen Ultraschallsensoren 130 zugeführt, in deren Abtastbereich 131 - 136 das jeweilige Objekt 210, 211 sich gerade befindet. Damit ist ein genaues und konsistentes Ergebnis und eine exakte Verfolgung der Objekte 210, 211 möglich. Ein zweites Ermittlungsverfahren V2 (siehe Fig. 6 oder 7) kann vorsehen, dass auf Basis der zu einem jeweiligen Zeitpunkt tO - 15 (siehe Fig. 5) empfangenen Anzahl von Sensorsignalen SIG1(t) eine Merkmalserkennung durchgeführt wird und eine digitale Umgebungskarte unter Verwendung von erkannten Merkmalen ermittelt wird. To determine the position POS (see Fig. 7) and the motion vector VEC (see Fig. 3 - 5) of a respective object 210, 211 by means of a first determination method V1 (see Fig. 6 or 7), each detected object 210, 211 is assigned a Kalman filter mapped and initialized. In this example, therefore, two Kalman filters are initialized. A respective Kalman filter is set up to estimate the position of the respective object 210, 211 on the basis of the ultrasonic sensor signals SIG1(t) received one after the other. In this case, the position includes in particular the position POS and the movement vector VEC of the respective object 210, 211. In particular, each Kalman filter is supplied with the ultrasonic sensor signals SIG1(t) received from those ultrasonic sensors 130 in whose scanning range 131 - 136 the respective object 210, 211 is located just located. A precise and consistent result and an exact tracking of the objects 210, 211 are thus possible. A second determination method V2 (see FIG. 6 or 7) can provide that on the basis of the number of sensor signals SIG1(t) received at a particular point in time tO-15 (see FIG. 5) a feature recognition is carried out and a digital environment map is used is determined from recognized features.
Fig. 3 zeigt eine schematische Ansicht einer ersten Verkehrssituation, bei der beispielsweise das Fahrzeug 100 der Fig. 1 oder der Fig. 2 auf einer Straße gezeigt ist. Rechts vor dem Fahrzeug 100 ist ein Objekt 210 dargestellt, beispielsweise ein Fußgänger. Es ist weiterhin der Fahrschlauch TR für das Fahrzeug 100 gezeigt. Der Fahrschlauch TR wird beispielsweise durch das Fahrassistenzsystem 110 (siehe Fig. 1 oder 6) auf Basis eines Fahrzustandssensorsignals SIG0(t) (siehe Fig. 6 oder 7), das einen aktuellen Lenkwinkel oder einen aktuellen Radwinkel umfasst, ermittelt. Die Ultraschallsensoren 130 (siehe Fig. 1 oder 2) senden vorzugsweise ständig Ultraschall- Signale aus und erfassen die reflektierten Signale, das heißt, sie tasten ständig ihren jeweiligen Abtastbereich 131 - 136 (siehe Fig. 2) mit Ultraschall-Signalen ab. Beispielsweise erfolgt das Abtasten 10 Mal pro Sekunde, vorzugsweise wenigsten 50 Mal pro Sekunde, bevorzugt wenigstens 100 Mal pro Sekunde. Die Ultraschallsensoren 130 geben mit einer entsprechenden Häufigkeit Ultraschallsensorsignale SIG1(t) (siehe Fig. 6 oder 7) aus, beispielsweise an das Fahrassistenzsystem 110. Auf Basis der Ultraschallsensorsignale kann auf eine Position POS (siehe Fig. 7) des Fußgängers 210 geschlossen werden. Auf Basis von wenigsten zwei zeitlich nacheinander erfassten Ultraschallsensorsignalen SIG(t) lässt sich zudem ein Bewegungsvektor VEC für den Fußgänger 210 ermitteln. Dies erfolgt beispielsweise wie anhand der Fig. 2 beschrieben unter Verwendung eines ersten Ermittlungsverfahrens V1 FIG. 3 shows a schematic view of a first traffic situation, in which, for example, vehicle 100 from FIG. 1 or FIG. 2 is shown on a road. An object 210 , for example a pedestrian, is shown on the right in front of vehicle 100 . The driving path TR for the vehicle 100 is also shown. Driving path TR is determined, for example, by driver assistance system 110 (see FIG. 1 or 6) on the basis of a driving condition sensor signal SIG0(t) (see FIG. 6 or 7), which includes a current steering angle or a current wheel angle. The ultrasonic sensors 130 (see FIG. 1 or 2) preferably constantly emit ultrasonic signals and detect the reflected signals, ie they constantly scan their respective scanning area 131-136 (see FIG. 2) with ultrasonic signals. For example, the sampling occurs 10 times per second, preferably at least 50 times per second, preferably at least 100 times per second. Ultrasonic sensors 130 emit ultrasonic sensor signals SIG1(t) (see FIG. 6 or 7) with a corresponding frequency, for example to driver assistance system 110. Based on the ultrasonic sensor signals, a position POS (see FIG. 7) of pedestrian 210 can be inferred. A movement vector VEC for the pedestrian 210 can also be determined on the basis of at least two ultrasonic sensor signals SIG(t) recorded one after the other. This is done, for example, as described with reference to FIG. 2 using a first determination method V1
In der dargestellten Situation bewegt sich der Fußgänger 210 auf den Fahrschlauch TR des Fahrzeugs 100 zu. Der aktuelle Abstand D des Fußgängers 210 von dem Fahrschlauch TR ist ebenfalls dargestellt. Das Fahrassistenzsystem 110 ist dazu eingerichtet, ein Warnsignal in Abhängigkeit von vorbestimmten Kriterien auszugeben. Beispielsweise wird geprüft, ob der Abstand D des Fußgängers 210 von dem aktuellen Fahrschlauch TR (alternativ von dem Fahrzeug 100) kleiner oder gleich einem vorbestimmten Schwellwert ist, oder ob der ermittelte Bewegungsvektor VEC in Richtung zu dem Fahrschlauch TR oder zu dem Fahrzeug 100 weist. Wenn eines oder mehrere dieser Kriterien erfüllt sind, dann wird das Warnsignal ausgegeben, da dann eine Kollision mit dem Fußgänger 210 wahrscheinlich ist, sofern nicht das Fahrzeug 100 angehalten wird oder seine Richtung ändert. In the situation shown, pedestrian 210 is moving toward route path TR of vehicle 100 . The current distance D of the pedestrian 210 from the driving path TR is also shown. Driver assistance system 110 is set up to output a warning signal as a function of predetermined criteria. For example, it is checked whether the distance D of the pedestrian 210 from the current driving path TR (alternatively from the vehicle 100) is less than or equal to a predetermined threshold value, or whether the determined movement vector VEC points in the direction of the driving path TR or the vehicle 100. If one or more of these criteria are met, then the warning signal is issued since a collision with the pedestrian 210 is then likely unless the vehicle 100 is stopped or changes direction.
Mit anderen Worten wird das Warnsignal ausgegeben, wenn eine potentielle Kollision des Fahrzeugs 100 mit dem erfassten Objekt 210, 211 auf Basis des zu einem bestimmten Zeitpunkt tO - 15 (siehe Fig. 5) empfangenen Fahrzustandssensorsignals SIG0(t) und der für das erfasste Objekt 210, 211 ermittelten Position POS und seines Bewegungsvektors VEC ermittelt wird. Fig. 4 zeigt eine schematische Ansicht einer zweiten Verkehrssituation, bei der beispielsweise das Fahrzeug 100 der Fig. 1 oder der Fig. 2 auf einer Straße gezeigt ist. Rechts vor dem Fahrzeug 100 ist ein Objekt 210 dargestellt, beispielsweise ein Fußgänger. Es ist weiterhin der Fahrschlauch TR für das Fahrzeug 100 gezeigt. Der Fahrschlauch TR wird beispielsweise durch das Fahrassistenzsystem 110 (siehe Fig. 1 oder 6) auf Basis eines Fahrzustandssensorsignals SIG0(t) (siehe Fig. 6 oder 7), das einen aktuellen Lenkwinkel oder einen aktuellen Radwinkel umfasst, ermittelt. In other words, the warning signal is issued when there is a potential collision of the vehicle 100 with the detected object 210, 211 based on the driving condition sensor signal SIG0(t) received at a specific point in time tO - 15 (see FIG. 5) and that for the detected object 210, 211 determined position POS and its motion vector VEC is determined. FIG. 4 shows a schematic view of a second traffic situation, in which, for example, vehicle 100 from FIG. 1 or FIG. 2 is shown on a road. An object 210 , for example a pedestrian, is shown on the right in front of vehicle 100 . The driving path TR for the vehicle 100 is also shown. Driving path TR is determined, for example, by driver assistance system 110 (see FIG. 1 or 6) on the basis of a driving condition sensor signal SIG0(t) (see FIG. 6 or 7), which includes a current steering angle or a current wheel angle.
Auf Basis von Ultraschallsensorsignalen SIG1(t) (siehe Fig. 6 oder 7) werden eine Position POS (siehe Fig. 7) und ein Bewegungsvektor VEC des Fußgängers 210 ermittelt. Zusätzlich wird in diesem Beispiel eine zukünftige Trajektorie TR1 des Fußgängers 210 ermittelt. Flierzu wird beispielsweise die bisherige Trajektorie des Fußgängers 210 extrapoliert. Beispielsweise kann die zukünftige Trajektorie TR1 auf Basis einer spezifischen Ausführungsform des ersten Ermittlungsverfahrens V1, das heißt, unter Verwendung von Kalman-Filtern, ermittelt werden. Zusätzlich und/oder alternativ kann die zukünftige Trajektorie TR1 auf Basis eines dritten Ermittlungsverfahrens ermittelt werden. A position POS (see FIG. 7) and a movement vector VEC of the pedestrian 210 are determined on the basis of ultrasonic sensor signals SIG1(t) (see FIG. 6 or 7). In addition, a future trajectory TR1 of pedestrian 210 is determined in this example. For example, the previous trajectory of the pedestrian 210 is extrapolated for this purpose. For example, the future trajectory TR1 can be determined on the basis of a specific embodiment of the first determination method V1, ie using Kalman filters. Additionally and/or alternatively, the future trajectory TR1 can be determined on the basis of a third determination method.
Es kann ein kleinster Abstand zwischen dem Fahrschlauch TR und der zukünftigen Trajektorie TR1 ermittelt werden. Wenn dieser Abstand D kleiner als ein vorbestimmter Minimalabstand ist, wird beispielsweise ein Warnsignal ausgegeben. A smallest distance between the driving path TR and the future trajectory TR1 can be determined. If this distance D is less than a predetermined minimum distance, a warning signal is output, for example.
Fig. 5 zeigt eine schematische Ansicht einer dritten Verkehrssituation zu unterschiedlichen Zeitpunkten tO - 15, wobei beispielsweise das Fahrzeug 100 der Fig. 1 oder der Fig. 2 auf einer Straße gezeigt ist. Zu einem Anfangszeitpunkt tO wird rechts neben dem Fahrzeug 100 ein Objekt 210 ermittelt. Dies erfolgt insbesondere auf Basis von einer Anzahl zu dem Anfangszeitpunkt tO empfangenen Sensorsignalen SIG1 (t) (siehe Fig. 6 oder 7). Zu einem darauffolgenden ersten Zeitpunkt t1 wird eine zweite Anzahl von Sensorsignalen SIG1(t) empfangen. Auf Basis der zweiten Anzahl von Sensorsignalen wird eine aktuelle Position POS (siehe Fig. 7) des Objekts 210(t1) ermittelt. Weiterhin kann auf Basis der ersten Anzahl und der zweiten Anzahl von Sensorsignalen SIG1(t) ein aktueller Bewegungsvektor VEC(t1) zum Zeitpunkt t1 ermittelt werden. Zu einem darauffolgenden zweiten Zeitpunkt t2 wird eine dritte Anzahl von Sensorsignalen SIG1(t) empfangen und es werden eine zum Zeitpunkt t2 aktuelle Position POS des Objekts 210(t2) und ein zum Zeitpunkt t2 aktueller Bewegungsvektor VEC(t2) ermittelt. Zu einem darauffolgenden dritten Zeitpunkt t3 wird eine vierte Anzahl von Sensorsignalen SIG1 (t) empfangen und es werden eine zum Zeitpunkt t3 aktuelle Position POS des Objekts 210(t3) und ein zum Zeitpunkt t3 aktueller Bewegungsvektor VEC(t3) ermittelt. Zu einem darauffolgenden vierten Zeitpunkt t4 wird eine fünfte Anzahl von Sensorsignalen SIG1(t) empfangen und es werden eine zum Zeitpunkt t4 aktuelle Position POS des Objekts 210(t4) und ein zum Zeitpunkt t4 aktueller Bewegungsvektor VEC(t4) ermittelt. Zu einem darauffolgenden fünften Zeitpunkt t5 wird eine sechste Anzahl von Sensorsignalen SIG1(t) empfangen und es werden eine zum Zeitpunkt t5 aktuelle Position POS des Objekts 210(t5) und ein zum Zeitpunkt t5 aktueller Bewegungsvektor VEC(t5) ermittelt. Es kann somit die Bewegung des Objekts 210 zu jedem Zeitpunkt tO - 15 mitverfolgt werden. In Ausführungsformen kann zusätzlich eine Vorhersage der Bewegung des Objekts 210 durchgeführt werden, beispielsweise unter Verwendung von entsprechenden Bewegungsgleichungen. FIG. 5 shows a schematic view of a third traffic situation at different points in time tO−15, vehicle 100 of FIG. 1 or FIG. 2 being shown on a road, for example. An object 210 is determined to the right of vehicle 100 at an initial time tO. This takes place in particular on the basis of a number of sensor signals SIG1(t) received at the start time t0 (see FIG. 6 or 7). At a subsequent first point in time t1, a second number of sensor signals SIG1(t) are received. A current position POS (see FIG. 7) of the object 210(t1) is determined on the basis of the second number of sensor signals. Furthermore, based on the first number and the second number of sensor signals SIG1(t), a current motion vector VEC(t1) for Time t1 are determined. At a subsequent second point in time t2, a third number of sensor signals SIG1(t) are received and a current position POS of object 210(t2) at point in time t2 and a current motion vector VEC(t2) at point in time t2 are determined. At a subsequent third time t3, a fourth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t3) at time t3 and a current motion vector VEC(t3) at time t3 are determined. At a subsequent fourth time t4, a fifth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t4) at time t4 and a current motion vector VEC(t4) at time t4 are determined. At a subsequent fifth time t5, a sixth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t5) at time t5 and a motion vector VEC(t5) current at time t5 are determined. The movement of the object 210 can thus be tracked at any point in time t0−15. In embodiments, the movement of the object 210 can additionally be predicted, for example using corresponding equations of motion.
Das Ermitteln der Position POS und des Bewegungsvektors VEC zu einem jeweiligen Zeitpunkt tO - 15 erfolgt vorzugsweise auf Basis des ersten Ermittlungsverfahrens V1 unter Verwendung eines Kalman-Filters und auf Basis eines weiteren Ermittlungsverfahrens V2 (siehe Fig. 6 oder 7) The determination of the position POS and the motion vector VEC at a respective point in time t0 - 15 is preferably based on the first determination method V1 using a Kalman filter and on the basis of a further determination method V2 (see Fig. 6 or 7)
Fig. 6 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels für ein Fahrassistenzsystem 110, beispielsweise des Fahrassistenzsystems 110 des Fahrzeugs 100 der Fig. Fig. 6 shows a schematic block diagram of an exemplary embodiment of a driver assistance system 110, for example driver assistance system 110 of vehicle 100 in Fig.
1. Das Fahrassistenzsystem 110 umfasst eine Empfangseinheit 112 zum Empfangen eines für einen Fahrzustand des Fahrzeugs 100 indikativen Fahrzustandssensorsignals SIG0(t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15 (siehe Fig. 5), und zum Empfangen einer Anzahl von für eine Umgebung 200 (siehe Fig. 1 oder 2) des Fahrzeugs 100 indikativen Sensorsignalen SIG1 (t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15. Das Fahrassistenzsystem 110 umfasst weiterhin eine Erfassungseinheit 114 zum Erfassen einer Anzahl von Objekten 210, 211 (siehe Fig. 2) in der Umgebung 200 des Fahrzeugs 100 in Abhängigkeit von einer ersten Anzahl von Sensorsignalen SIG1(t), die zu einem ersten Zeitpunkt empfangen wurden, eine Ermittlungseinheit 116 zum Ermitteln einer Position POS (siehe Fig. 7) und eines Bewegungsvektors VEC (siehe Fig. 3 - 5) für ein erfasstes Objekt 210, 211 in Abhängigkeit von der ersten Anzahl von Sensorsignalen SIG(t) und einer zweiten Anzahl von Sensorsignalen SIG(t), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren V1, V2, wobei verschiedene Ermittlungsverfahren der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und eine Ausgabeeinheit 118 zum Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs 100 mit dem erfassten Objekt 210, 211 auf Basis des zu einem bestimmten Zeitpunkt tO - 15 empfangenen Fahrzustandssensorsignals SIG0(t) und der für das erfasste Objekt 210, 211 ermittelten Position POS und seines Bewegungsvektors VEC ermittelt wird. 1. The driving assistance system 110 includes a receiving unit 112 for receiving a driving condition sensor signal SIG0(t) indicative of a driving condition of the vehicle 100 at a number of different points in time tO-15 (see FIG. 5), and for receiving a number of signals for an environment 200 ( see Fig. 1 or 2) of the vehicle 100 indicative sensor signals SIG1 (t) at a number of different times tO - 15. The driver assistance system 110 further includes a detection unit 114 for detecting a number of objects 210, 211 (see Fig. 2) in the Environment 200 of the vehicle 100 depending from a first number of sensor signals SIG1(t), which were received at a first point in time, a determination unit 116 for determining a position POS (see Fig. 7) and a motion vector VEC (see Fig. 3 - 5) for a detected object 210 , 211 as a function of the first number of sensor signals SIG(t) and a second number of sensor signals SIG(t), which was received at a second point in time following the first point in time, using a plurality of different determination methods V1, V2, where different determination methods of the plurality have a different computing effort, and an output unit 118 for outputting a warning signal if there is a potential collision of vehicle 100 with the detected object 210, 211 on the basis of the driving condition sensor signal SIG0(t) received at a specific point in time tO - 15 and the position POS determined for the detected object 210, 211 and its motion vector VEC.
Fig. 7 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines Fahrassistenzsystems 110, beispielsweise des Fahrassistenzsystems 110 der Fig. 6 oder des Fahrassistenzsystems 110 des Fahrzeugs 100 der Fig. 1. In einem ersten Schritt S1 wird ein für einen Fahrzustand des Fahrzeugs 100 indikatives Fahrzustandssensorsignal SIG0(t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15 (siehe Fig. 5) empfangen. In einem zweiten Schritt S2 wird eine Anzahl von für eine Umgebung 200 (siehe Fig. 1 oder 2) des Fahrzeugs 100 indikativen Sensorsignalen SIG1 (t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15 empfangen. In einem dritten Schritt S3 wird eine Anzahl von Objekten 210, 211 (siehe Fig. 2) in der Umgebung 200 des Fahrzeugs 100 in Abhängigkeit von einer ersten Anzahl von Sensorsignalen SIG1(t), die zu einem ersten Zeitpunkt empfangen wurden, erfasst. In einem vierten Schritt S4 wird eine Position POS und ein Bewegungsvektor VEC (siehe Fig. 3 - 5) für ein erfasstes Objekt 210, 211 in Abhängigkeit von der ersten Anzahl von Sensorsignalen SIG1(t) und einer zweiten Anzahl von Sensorsignalen SIG1(t), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren V1, V2 ermittelt, wobei verschiedene Ermittlungsverfahren V1, V2 der Mehrzahl einen unterschiedli- chen Rechenaufwand aufweisen. In einem fünften Schritt S5 wird ein Warnsignal ausgegeben, wenn eine potentielle Kollision des Fahrzeugs 100 mit dem erfassten Objekt 110 auf Basis des zu einem bestimmten Zeitpunkt tO - 15 empfangenen Fahrzustandssensorsignals SIG0(t) und der für das erfasste Objekt 210 ermittelten Position POS und seines Bewe- gungsvektors VEC ermittelt wird. Fig. 7 shows a schematic block diagram of an exemplary embodiment of a method for operating a driver assistance system 110, for example the driver assistance system 110 of Fig. 6 or the driver assistance system 110 of the vehicle 100 of Fig. 1. In a first step S1, a for a driving state of the vehicle 100 indicative vehicle condition sensor signal SIG0(t) at a number of different times tO-15 (see Figure 5). In a second step S2, a number of sensor signals SIG1(t) indicative of an area 200 (see FIG. 1 or 2) of vehicle 100 is received at a number of different points in time t0-15. In a third step S3, a number of objects 210, 211 (see FIG. 2) in the surroundings 200 of vehicle 100 are detected as a function of a first number of sensor signals SIG1(t), which were received at a first point in time. In a fourth step S4, a position POS and a movement vector VEC (see FIGS. 3-5) for a detected object 210, 211 are determined as a function of the first number of sensor signals SIG1(t) and a second number of sensor signals SIG1(t) , which was received at a second point in time following the first point in time, determined using a plurality of different determination methods V1, V2, with different determination methods V1, V2 of the plurality having a different chen calculation effort. In a fifth step S5, a warning signal is output if there is a potential collision of the vehicle 100 with the detected object 110 based on the driving condition sensor signal SIG0(t) received at a specific point in time tO - 15 and the position POS determined for the detected object 210 and its Movement vector VEC is determined.
Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar. Although the present invention has been described using exemplary embodiments, it can be modified in many ways.
BEZUGSZEICHENLISTE REFERENCE LIST
100 Fahrzeug 110 Fahrassistenzsystem 112 Empfangseinheit 114 Erfassungseinheit 116 Ermittlungseinheit 118 Ausgabeeinheit 120 Sensor 100 vehicle 110 driver assistance system 112 receiving unit 114 detection unit 116 determination unit 118 output unit 120 sensor
130 Sensor 130 sensors
131 Abtastbereich 131 scan area
132 Abtastbereich 132 scan area
133 Abtastbereich 133 scanning area
134 Abtastbereich 134 scan area
135 Abtastbereich 135 scan area
136 Abtastbereich 200 Umgebung 136 scan area 200 environment
210 Objekt 210(t0) Objekt 210(t1 ) Objekt 210(t2) Objekt 210(t3) Objekt 210(t4) Objekt 210(t5) Objekt 210 object 210(t0) object 210(t1) object 210(t2) object 210(t3) object 210(t4) object 210(t5) object
211 Objekt 211 object
D Abstand POS Position S1 VerfahrensschrittD distance POS position S1 process step
S2 Verfahrensschritt S3 Verfahrensschritt S2 method step S3 method step
54 Verfahrensschritt 54 process step
55 Verfahrensschritt SIGO(t) Fahrzustandssensorsignal SIG1(t) Sensorsignal t Zeit tO Zeitpunkt t1 Zeitpunkt t2 Zeitpunkt t3 Zeitpunkt t4 Zeitpunkt t5 Zeitpunkt TR Fahrschlauch TR1 Trajektorie V1 Ermittlungsverfahren V2 Ermittlungsverfahren VEC Bewegungsvektor VEC(t1) Bewegungsvektor VEC(t2) Bewegungsvektor VEC(t3) Bewegungsvektor VEC(t4) Bewegungsvektor VEC(t5) Bewegungsvektor 55 Process step SIGO(t) Driving status sensor signal SIG1(t) Sensor signal t Time t0 Time t1 Time t2 Time t3 Time t4 Time t5 Time TR driving path TR1 trajectory V1 determination method V2 determination method VEC motion vector VEC(t1) motion vector VEC(t2) motion vector VEC(t3) Motion Vector VEC(t4) Motion Vector VEC(t5) Motion Vector

Claims

PATENTANSPRÜCHE PATENT CLAIMS
1. Verfahren zum Betreiben eines Fahrassistenzsystems (110) für ein Fahrzeug (100), das Verfahren umfassend: a) Empfangen (S1) eines für einen Fahrzustand des Fahrzeugs (100) indikativen Fahrzustandssensorsignals (SIGO(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO - 15), b) Empfangen (S2) einer Anzahl von für eine Umgebung (200) des Fahrzeugs (100) indikativen Sensorsignalen (SIG1(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO — 15), c) Erfassen (S3) einer Anzahl von Objekten (210, 211) in der Umgebung (200) des Fahrzeugs (100) in Abhängigkeit von einer ersten Anzahl von Sensorsignalen (SIG1 (t)), die zu einem ersten Zeitpunkt empfangen wurden, d) Ermitteln (S4) einer Position (POS) und eines Bewegungsvektors (VEC) für ein erfasstes Objekt (210, 211) in Abhängigkeit von der ersten Anzahl von Sensorsignalen (SIG1 (t)) und einer zweiten Anzahl von Sensorsignalen (SIG1(t)), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren (V1, V2), wobei verschiedene Ermittlungsverfahren (V1, V2) der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und e) Ausgeben (S5) eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs (100) mit dem erfassten Objekt (210, 211) auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals (SIG0(t)) und der für das erfasste Objekt (210, 211) ermittelten Position (POS) und seines Bewegungsvektors (VEC) ermittelt wird. 1. A method for operating a driver assistance system (110) for a vehicle (100), the method comprising: a) receiving (S1) a driving state sensor signal (SIGO(t)) indicative of a driving state of the vehicle (100) at a number of different points in time ( tO - 15), b) receiving (S2) a number of sensor signals (SIG1(t)) indicative of an environment (200) of the vehicle (100) at a number of different points in time (tO - 15), c) detecting (S3) a number of objects (210, 211) in the area (200) of the vehicle (100) as a function of a first number of sensor signals (SIG1 (t)) received at a first point in time, d) determining (S4) a Position (POS) and a motion vector (VEC) for a detected object (210, 211) as a function of the first number of sensor signals (SIG1 (t)) and a second number of sensor signals (SIG1 (t)) resulting in a second , time point following the first time point was received using ei ner plurality of different determination methods (V1, V2), wherein different determination methods (V1, V2) of the plurality have a different computing effort, and e) outputting (S5) of a warning signal if there is a potential collision of the vehicle (100) with the detected object (210 , 211) on the basis of the driving condition sensor signal (SIG0(t)) received at a specific point in time and the position (POS) determined for the detected object (210, 211) and its motion vector (VEC).
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Anzahl unterschiedlicher Ermittlungsverfahren (V1, V2) wenigstens ein erstes Ermittlungsverfahren umfasst, bei dem für jedes erfasste Objekt (210, 211) der Anzahl ein Kalman-Filter zugeordnet und initialisiert wird, das zum Ermitteln der Position (POS) sowie des Bewegungsvektors (VEC) des jeweiligen Objekts (210, 211) verwendet wird. 2. The method as claimed in claim 1, characterized in that the number of different determination methods (V1, V2) comprises at least one first determination method in which for each detected object (210, 211) the number is assigned and initialized a Kalman filter which, for Determining the position (POS) and the motion vector (VEC) of the respective object (210, 211) is used.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass unterschiedlichen Sensorsignalen (SIG1 (t)) der Anzahl unterschiedliche Abtastbereiche (131 - 136) in der Umgebung (200) zugeordnet sind, wobei ein jeweiliges einem bestimmten Abtastbereich (131 - 136) in der Umgebung (200) zugeordnetes Sensorsignal (SIG1(t)) der zu einem jeweiligen Zeitpunkt empfangenen Anzahl von Sensorsignalen (SIG1(t)) demjenigen Kalman-Filter zugeführt wird, dessen zugeordnetes Objekt (210, 211) eine Position (POS) aufweist, die innerhalb des dem Sensorsignal (SIG1 (t)) zugeordneten Abtastbereichs (131 - 136) liegt. 3. The method according to claim 2, characterized in that different sensor signals (SIG1 (t)) of the number of different scanning areas (131 - 136) in the area (200), wherein a sensor signal (SIG1(t)) of the number of sensor signals (SIG1(t)) received at a particular point in time and assigned to a specific scanning area (131-136) in the area (200) is assigned to that Kalman filter is supplied, the associated object (210, 211) of which has a position (POS) which lies within the scanning range (131 - 136) associated with the sensor signal (SIG1 (t)).
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass das Ausgeben des Warnsignals, wenn eine potentielle Kollision auf Basis der für das jeweilige erfasste Objekt (210, 211) unter Verwendung des ersten Ermittlungsverfahrens (V1) ermittelten Position (POS) und seines Bewegungsvektors (VEC) ermittelt wird, ausschließlich dann erfolgt, wenn der ermittelte Bewegungsvektor (VEC) des Objekts (210, 211) ungleich Null ist. 4. The method according to claim 2 or 3, characterized in that the output of the warning signal when a potential collision based on the for the respective detected object (210, 211) using the first determination method (V1) determined position (POS) and its Motion vector (VEC) is determined, only takes place when the determined motion vector (VEC) of the object (210, 211) is not equal to zero.
5. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: Ermitteln eines Fahrschlauchs (TR) für das Fahrzeug (100) in Abhängigkeit des empfangenen Fahrzustandssensorsignals (SIG0(t)). 5. The method according to any one of the preceding claims, characterized by: determining a driving path (TR) for the vehicle (100) as a function of the received driving condition sensor signal (SIG0(t)).
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass ein Warnsignal nur dann ausgegeben wird, wenn ein Abstand (D) des jeweiligen Objekts (210, 211) zu dem Fahrzeug (100) und/oder zu dem ermittelten Fahrschlauch (TR) kleiner oder gleich einem unteren Schwellwert ist. 6. The method according to claim 5, characterized in that a warning signal is only output when a distance (D) of the respective object (210, 211) to the vehicle (100) and / or to the determined driving path (TR) is smaller or is equal to a lower threshold.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass ein Warnsignal nur dann ausgegeben wird, wenn der ermittelte Bewegungsvektor (VEC) des jeweiligen Objekts (210, 211) in Richtung zu dem Fahrzeug (100) und/oderzu dem ermittelten Fahrschlauch (TR) weist. 7. The method according to claim 5 or 6, characterized in that a warning signal is only output if the determined movement vector (VEC) of the respective object (210, 211) in the direction of the vehicle (100) and/or the determined driving path ( TR) points.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass der Schritt e) umfasst: 8. The method according to any one of claims 5 to 7, characterized in that step e) comprises:
Ermitteln einer zukünftigen Trajektorie (TR1) des erfassten Objekts (210, 211) auf Basis der ermittelten Position (POS) und dem Bewegungsvektor (VEC), wobei ein Warnsignal nur dann ausgegeben wird, wenn die ermitelte zukünftige Trajektorie (TR1) an wenigstens einer Position einen vorbestimmten Minimalabstand unterschreitet und/oder einen Schnitpunkt mit dem ermittelten Fahrschlauch (TR) aufweist. Determining a future trajectory (TR1) of the detected object (210, 211) based on the determined position (POS) and the motion vector (VEC), with a warning signal is only output if the determined future trajectory (TR1) falls below a predetermined minimum distance at at least one position and/or has an intersection with the determined driving path (TR).
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die empfangenen Sensorsignale (SIG1(t)) ausschließlich Ultraschallsensorsignale umfassen. 9. The method as claimed in one of the preceding claims, characterized in that the received sensor signals (SIG1(t)) exclusively comprise ultrasonic sensor signals.
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anzahl unterschiedlicher Ermitlungsverfahren (V1, V2) wenigstens ein zweites Ermittlungsverfahren umfasst, bei dem auf Basis der zu einem jeweiligen Zeitpunkt (tO - 15) empfangenen Anzahl von Sensorsignalen (SIG1 (t)) eine Merkmalserkennung durchgeführt wird und eine digitale Umgebungskarte unter Verwendung von erkannten Merkmalen ermittelt wird. 10. The method as claimed in one of the preceding claims, characterized in that the number of different determination methods (V1, V2) comprises at least one second determination method in which, on the basis of the number of sensor signals (SIG1 (t )) a feature recognition is carried out and a digital map of the area is determined using recognized features.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren ausschließlich dann durchgeführt wird, wenn das Fahrzeug (100) eine Geschwindigkeit von kleiner oder gleich 15 km/h, vorzugsweise kleiner oder gleich 10 km/h, bevorzugt kleiner oder gleich 7 km/h, weiter bevorzugt kleiner oder gleich 5 km/h aufweist. 11. The method according to any one of the preceding claims, characterized in that the method is carried out exclusively when the vehicle (100) has a speed of less than or equal to 15 km/h, preferably less than or equal to 10 km/h, preferably less than or equal to 7 km/h, more preferably less than or equal to 5 km/h.
12. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 - 11 auszuführen. 12. A computer program product comprising instructions which, when the program is executed by a computer, cause the latter to execute the method according to any one of claims 1-11.
13. Fahrassistenzsystem (110) für ein Fahrzeug (100), mit einer Empfangseinheit (112) zum Empfangen eines für einen Fahrzustand des Fahrzeugs (100) indikativen Fahrzustandssensorsignals (SIG0(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO - 15), und zum Empfangen einer Anzahl von für eine Umgebung (200) des Fahrzeugs (100) indikativen Sensorsignalen (SIG1 (t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO - 15), einer Erfassungseinheit (114) zum Erfassen einer Anzahl von Objekten (210, 211) in der Umgebung (200) des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen (SIG1 (t)), die zu einem ersten Zeitpunkt empfangen wurden, einer Ermittlungseinheit (116) zum Ermitteln einer Position (POS) und eines Bewegungsvektors (VEC) für ein erfasstes Objekt (210) in Abhängigkeit von der ersten Anzahl von Sensorsignalen (SIG1 (t)) und einer zweiten Anzahl von Sensorsignalen (SIG1 (t)), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren (V1, V2), wobei verschiedene Ermittlungsverfahren (V1, V2) der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und einer Ausgabeeinheit (118) zum Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs (100) mit dem erfassten Objekt (210, 211) auf Basis des zu einem bestimmten Zeitpunkt (tO - 15) empfangenen Fahrzustandssensorsignals (SIG0(t)) und der für das erfasste Objekt (210, 211) ermittelten Position (POS) und seines Bewegungsvektors (VEC) ermittelt wird. 13. Driver assistance system (110) for a vehicle (100), with a receiving unit (112) for receiving a driving condition of the vehicle (100) indicative driving condition sensor signal (SIG0 (t)) at a number of different times (tO - 15), and for receiving a number of sensor signals (SIG1 (t)) indicative of an area (200) of the vehicle (100) at a number of different points in time (t0 - 15), a detection unit (114) for detecting a number of objects (210, 211) in the surroundings (200) of the vehicle as a function of a first number of sensor signals (SIG1 (t)) which were received at a first point in time, a determination unit ( 116) for determining a position (POS) and a motion vector (VEC) for a detected object (210) in dependence on the first number of sensor signals (SIG1 (t)) and a second number of sensor signals (SIG1 (t)), the was received at a second point in time following the first point in time, using a plurality of different determination methods (V1, V2), wherein different determination methods (V1, V2) of the plurality have a different computing effort, and an output unit (118) for outputting a warning signal , when a potential collision of the vehicle (100) with the detected object (210, 211) on the basis of the driving condition sensor received at a specific point in time (tO-15). signal (SIG0(t)) and the position (POS) determined for the detected object (210, 211) and its motion vector (VEC).
14. Fahrzeug (100) mit einer Anzahl von Umgebungssensoreinheiten (120, 130) zum Erfassen einer Umgebung (200) des Fahrzeugs (100) und zum Ausgeben eines jeweiligen Sensorsignals (SIG1(t) und mit einem Fahrassistenzsystem (110) nach Anspruch 13. 14. Vehicle (100) with a number of environment sensor units (120, 130) for detecting an environment (200) of the vehicle (100) and for outputting a respective sensor signal (SIG1(t) and with a driver assistance system (110) according to claim 13.
15. Fahrzeug nach Anspruch 14, dadurch gekennzeichnet, dass die Umgebungssensoreinheiten (120, 130) ausschließlich Ultraschallsensoren umfassen. 15. Vehicle according to claim 14, characterized in that the environmental sensor units (120, 130) exclusively comprise ultrasonic sensors.
16. Fahrzeug nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass das Fahrzeug (100) eine Masse von über 2,5 Tonnen und/oder eine Länge von über 5 Metern aufweist. 16. Vehicle according to claim 14 or 15, characterized in that the vehicle (100) has a mass of more than 2.5 tons and/or a length of more than 5 meters.
EP22718982.6A 2021-03-30 2022-03-30 Method for operating a driver assistance system, computer program product, driver assistance system, and vehicle Pending EP4314895A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021107972.1A DE102021107972A1 (en) 2021-03-30 2021-03-30 METHOD OF OPERATING A DRIVING ASSISTANCE SYSTEM, COMPUTER PROGRAM PRODUCT, DRIVING ASSISTANCE SYSTEM AND VEHICLE
PCT/EP2022/058356 WO2022207679A1 (en) 2021-03-30 2022-03-30 Method for operating a driver assistance system, computer program product, driver assistance system, and vehicle

Publications (1)

Publication Number Publication Date
EP4314895A1 true EP4314895A1 (en) 2024-02-07

Family

ID=81387319

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22718982.6A Pending EP4314895A1 (en) 2021-03-30 2022-03-30 Method for operating a driver assistance system, computer program product, driver assistance system, and vehicle

Country Status (7)

Country Link
US (1) US20240194077A1 (en)
EP (1) EP4314895A1 (en)
JP (1) JP2024511664A (en)
KR (1) KR20230164145A (en)
CN (1) CN117157555A (en)
DE (1) DE102021107972A1 (en)
WO (1) WO2022207679A1 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0952459B1 (en) 1998-04-23 2011-05-25 Volkswagen Aktiengesellschaft Device for detecting objects for vehicles
DE10257842A1 (en) 2002-05-07 2003-11-27 Bosch Gmbh Robert Determining risk of accident between first vehicle and at least one second object involves determining collision probability and hazard probability from movements of first object and second object
DE102006045418A1 (en) 2006-09-26 2008-04-10 GM Global Technology Operations, Inc., Detroit Motor vehicle, has parking assistance system with sensors for distance measurement to obstacle, in particular for detecting moving direction of moving object, where presence of moving object is determined in detection range of sensors
DE102012214547A1 (en) * 2012-08-16 2014-02-20 Robert Bosch Gmbh Method for monitoring a blind spot and driver assistance system
DE102017213353A1 (en) 2017-08-02 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verification of a planned trajectory of an automated motor vehicle
US11789449B2 (en) * 2018-02-09 2023-10-17 Nvidia Corporation Controlling autonomous vehicles using safe arrival times

Also Published As

Publication number Publication date
JP2024511664A (en) 2024-03-14
WO2022207679A1 (en) 2022-10-06
CN117157555A (en) 2023-12-01
KR20230164145A (en) 2023-12-01
DE102021107972A1 (en) 2022-10-06
US20240194077A1 (en) 2024-06-13

Similar Documents

Publication Publication Date Title
EP1475764B1 (en) Method and apparatus for calculating the probability of a collision between a vehicle and an object
DE102004035842B4 (en) Dual disparate sensing object detection and detection system
DE102007055799B4 (en) Vehicle environment monitoring device
EP1531343B1 (en) Method for tracking objects
DE102016100401A1 (en) Method for determining a misalignment of an object sensor
EP3292423B1 (en) Diagnostic method for a vision sensor of a vehicle and vehicle having a vision sensor
DE102016106298A1 (en) Fusion method for a cross traffic application using radar devices and a camera
DE102016106299A1 (en) Wheel detection and its application for object tracking and sensor registration
DE102018120789A1 (en) Method and device for monitoring an autonomous vehicle
EP2046619B1 (en) Driver assistance system
EP1731922A1 (en) Method and device for determining free areas in the vicinity of a motor vehicle
EP1298454A2 (en) Method for recognising and tracking objects
DE102013202377A1 (en) A method of determining an object sensor misalignment
DE102020119541A1 (en) DETECTING VEHICLE OPERATING CONDITIONS
DE102018109404A1 (en) System and method for determining the position of side impact avoidance sensors on a vehicle
DE102005042989B3 (en) Method for determining imminent accident of a moving vehicle involves the determination of a number of vehicle parameters that include the angle of the vehicle and angle velocity
EP1298453A2 (en) Method for recognising and tracking objects
EP1306690B1 (en) Method for recognising and tracking objects
DE112017000865T5 (en) estimator
DE102020211970A1 (en) Method for controlling a vehicle
DE102020127205A1 (en) METHOD AND DEVICE FOR LIGHT LIGHT POSITIONING AND MAPPING USING CROWD-SENSED DATA
EP4052064A1 (en) Method for tracking a remote target vehicle in an area surrounding a motor vehicle by means of a collision detection device
EP1298012B1 (en) Method for recognizing and tracking objects
DE102021100701A1 (en) SITUATIONAL AWARENESS FOR SIMULTANEOUSLY CHANGING LANES
DE19828160A1 (en) Automatically detecting main-direction carriageway in multilane highway

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230906

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR