EP4314895A1 - Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug - Google Patents

Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug

Info

Publication number
EP4314895A1
EP4314895A1 EP22718982.6A EP22718982A EP4314895A1 EP 4314895 A1 EP4314895 A1 EP 4314895A1 EP 22718982 A EP22718982 A EP 22718982A EP 4314895 A1 EP4314895 A1 EP 4314895A1
Authority
EP
European Patent Office
Prior art keywords
vehicle
time
sensor signals
sig1
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP22718982.6A
Other languages
English (en)
French (fr)
Inventor
Ludovic Mosnier-Thoumas
Markus Heimberger
Niko Moritz Scholz
Jean-Francois Bariant
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Valeo Schalter und Sensoren GmbH
Original Assignee
Valeo Schalter und Sensoren GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Valeo Schalter und Sensoren GmbH filed Critical Valeo Schalter und Sensoren GmbH
Publication of EP4314895A1 publication Critical patent/EP4314895A1/de
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/50Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking
    • B60Q1/525Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating other intentions or conditions, e.g. request for waiting or overtaking automatically indicating risk of collision between vehicles in traffic or with pedestrians, e.g. after risk assessment using the vehicle sensor data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q5/00Arrangement or adaptation of acoustic signal devices
    • B60Q5/005Arrangement or adaptation of acoustic signal devices automatically actuated
    • B60Q5/006Arrangement or adaptation of acoustic signal devices automatically actuated indicating risk of collision between vehicles or with pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/50Systems of measurement, based on relative movement of the target
    • G01S15/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S15/588Velocity or trajectory determination systems; Sense-of-movement determination systems measuring the velocity vector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/87Combinations of sonar systems
    • G01S15/876Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details

Definitions

  • the present invention relates to a method for operating a driver assistance system, a computer program product, a driver assistance system and a vehicle with such a driver assistance system.
  • Known vehicles have a number of sensor units with which they can detect their surroundings, such as ultrasonic sensors. This can be particularly helpful when maneuvering and/or parking the vehicle, especially if the vehicle is large and/or difficult to see.
  • an acoustic, haptic and/or visual signal can be output to the driver to warn him of a collision.
  • One difficulty is detecting moving (dynamic) objects and determining whether a collision with them can occur.
  • a dynamic object is, in particular, another road user, such as a pedestrian or a cyclist.
  • DE 102006045418 A1 discloses a motor vehicle with a driver assistance system and with a sensor for measuring the distance from an obstacle. It is proposed to detect a movement direction of a moving object in order to increase road safety.
  • an object of the present invention is to improve the operation of a driver assistance system.
  • a method for operating a driver assistance system for a vehicle includes: a) receiving a driving condition sensor signal indicative of a driving condition of the vehicle at a number of different points in time, b) receiving a number of sensor signals indicative of an area surrounding the vehicle at a number of different points in time, c) detecting a number of objects in the area of the vehicle as a function of a first number of sensor signals received at a first point in time, d) determining a position and a motion vector for a detected object as a function of the first number of sensor signals and a second number of sensor signals which are received at a second , the time following the first time was received using a plurality of different determination methods, wherein different determination methods of the plurality have a different computing effort, and e) outputting a warning signal when a potential collision of the vehicle with de m detected object is determined on the basis of the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its movement
  • This method has the advantage that the movement of detected objects is determined using different determination methods.
  • a less complex determination method that can be carried out very quickly and a more complex determination method that can be carried out somewhat more slowly can be used here.
  • the different determination methods have, for example, different levels of accuracy and/or reliability with regard to their respective results. So in particular a less complex investigative procedures can be less reliable, but save time, especially in critical situations.
  • the driving condition sensor signal includes, for example, odometry data of the vehicle, such as a current speed, a current wheel speed, a current wheel angle and/or a current steering angle.
  • odometry data of the vehicle such as a current speed, a current wheel speed, a current wheel angle and/or a current steering angle.
  • a direction of the vehicle for example a future trajectory or a driving path, can be determined on the basis of the driving state sensor signal.
  • the fact that the driving condition sensor signal is received at a number of different points in time is to be understood in particular to mean that the driving condition sensor signal that is current at this point in time is received at a particular point in time.
  • the current driving condition sensor signal is indicative in particular of the current driving condition at the current point in time.
  • the driving condition sensor signal is received regularly, in particular periodically, for example with a frequency of more than 1 Hz, preferably at least 10 Hz, preferably up to 100 Hz. Based on at least consecutive driving condition sensor signals, a change in the driving condition can be determined, for example.
  • the sensor signals indicative of the surroundings of the vehicle include, in particular, ultrasonic sensor signals.
  • a number of sensor signals are received is to be understood in particular as meaning, for example, that sensor signals are received from a number of different sensors, with different sensors on the one hand comprising sensors of the same type but with a different arrangement and/or orientation, but on the other hand also comprising sensors of different types , such as an ultrasonic sensor and a camera.
  • the number comprises a quantity greater than or equal to one.
  • the sensor signals can still be received from virtual sensors. Alternatively, one can also say that the sensor signals are retrieved.
  • a sensor provides an output signal that can be called up by external components, such as the driver assistance system.
  • the fact that the number of sensor signals are received at a number of different points in time is to be understood in particular to mean that the sensor signals that are current at this point in time are received at a particular point in time. All of the sensor signals of the number are preferably received at one point in time, for example as a data packet that includes all of the sensor signals of the number.
  • sensor signals of the number for example sensor signals from two different ultrasonic sensors, can have different detection times, even if the number of sensor signals is received at one time.
  • an interval between two sensor signals from a respective sensor is different from an interval between two sensor signals from a further sensor.
  • Each sensor preferably provides its sensor signal regularly, in particular periodically, for example with a frequency of more than 1 Hz, preferably at least 10 Hz, preferably up to 100 Hz, with the current sensor signal always being provided at a particular point in time.
  • the times at which the number of sensor signals is received may differ from the times at which the driving condition sensor signal is received.
  • the fact that a number of objects in the area surrounding the vehicle are detected as a function of a first number of sensor signals that were received at a first point in time means in particular that the first number of received sensor signals is processed and/or analyzed , and as a result of the processing and/or the analyzing a number of objects are detected.
  • the processing and/or analysis includes, for example, a signal analysis of the individual sensor signals and/or a signal analysis of a number of sensor signals that are correlated with one another.
  • the number of objects is greater than or equal to one.
  • a position and a motion vector are determined for at least one of the detected objects.
  • a single sensor signal at a point in time can be sufficient to determine the position.
  • At least two sensor signals, which were received at different points in time, are necessary to determine the movement vector.
  • Two sensor signals of a specific sensor received at different times are preferably used to determine the movement vector, but sensor signals from different sensors that were received at different times can also be used.
  • the more sensor signals are used for a respective object the more accurate the determination of the position and the motion vector can be.
  • the position of the object relates in particular to a position in a coordinate system of the vehicle and has at least two coordinates.
  • the position of the object can refer to a single point of the object.
  • the motion vector comprises a two-dimensional vector.
  • a magnitude of the motion vector corresponds, for example, to the speed of the object.
  • the plurality of different determination methods includes at least two determination methods that have different computational complexity. For example, in a first determination method, the position is determined and the motion vector is determined directly on the basis of raw sensor data, and in a second determination method, processed data is generated on the basis of the raw data and the position is determined and the motion vector is determined on the basis of the processed data.
  • Sensor raw data are in particular the unprocessed output signal of a respective sensors. Since there is no pre-processing, this determination method can be particularly fast. On the other hand, signal noise or the like may affect a determination result.
  • a processing step includes, for example, performing a particular mathematical operation on a respective sensor signal, such as forming a moving average to mask outliers in the sensor signal, or applying a noise filter, a Fourier transform, and the like.
  • a processing step can also include a number of sensor signals, for example when a correlation is determined and/or the sensor signals are mutually checked for plausibility.
  • Different positions and/or movement vectors can be determined for an object on the basis of the various determination methods.
  • the most up-to-date position and the most up-to-date movement vector are preferably always used as the basis for determining a possible collision. If a position and a motion vector for an object were determined by two different determination methods, which are based on the same current sensor signals, then in particular that position and that motion vector are used as the basis for determining a possible collision, their respective accuracy and/or reliability is higher.
  • the accuracy and/or reliability can be determined, for example, in the form of a determination error, which can originate on the one hand from measurement errors and on the other hand from the determination method itself.
  • the position and the motion vector are determined for several of the detected objects of the number, preferably for each detected object of the number.
  • the position and the motion vector are constantly updated. For example, a new determination is made whenever a current sensor signal or a number of current sensor signals is received.
  • the current position and the current movement vector can therefore also be used in the following.
  • the vehicle Based on the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its movement vector, it can be determined whether the vehicle may collide with the object moving according to its movement vector in the future.
  • an extrapolation of the position of the vehicle and the object based on the respective current driving state sensor signal and an extrapolation of the position of the object based on the current position and the current movement vector of the object can be determined.
  • a warning signal is given when a collision is likely.
  • the warning signal can be output directly to the user of the vehicle, for example as an acoustic, haptic and/or visual signal.
  • the warning signal can also be output to the outside of the vehicle, for example to the object, in particular as an acoustic warning signal. If the warning signal is issued, further functions of the driver assistance system and/or other units of the vehicle can also be triggered.
  • the warning signal is preferably output independently of the determination method used to determine the position and the movement vector of the object with which a possible collision was determined.
  • the number of different determination methods includes at least one first determination method in which for each detected object of the number a Kalman filter is assigned and initialized, which is used to determine the position and the motion vector of the respective object.
  • the Kalman filter (also Kalman-Bucy filter, Stratonovich-Kalman-Bucy filter or Kalman-Bucy-Stratonovich filter) is a mathematical method for the iterative estimation of parameters, in this case the position and the motion vector of the object based on erroneous measurements, in this case the received sensor signals.
  • the Kalman filter is used to estimate system variables that cannot be measured directly, while the errors in the measurements are optimally reduced.
  • the Kalman filter describes an estimated value using multidimensional normal distributions. These represent a probability distribution of possible errors around each estimate, as well as correlations between estimate errors of different variables.
  • the previous estimated values are optimally combined with the new measurements in each time step, so that remaining errors are minimized as quickly as possible.
  • the Kalman filter has a filter state comprising the current estimated values as well as error estimates and correlations. After each new measurement, the Kalman filter improves the previous estimates and updates the associated error estimates and correlations. In dynamic systems in which, for example, a speed is also estimated, the Kalman filter also estimates correlations between the speed and, for example, the position, in particular on the basis of equations of motion, and takes these into account for the next time step.
  • the Kalman filter is preferably updated at least whenever a number of current sensor signals have been received.
  • different sensor signals of the number of different scanning areas in the environment are assigned, with a respective sensor signal of the number of sensor signals received at a particular point in time, assigned to a specific scanning area in the area, being fed to that Kalman filter whose assigned object has a position , which lies within the scanning range assigned to the sensor signal.
  • the warning signal is output if a potential collision is determined on the basis of the position determined for the respective detected object using the first determination method and its motion vector, only if the determined motion vector of the object is not equal to zero.
  • the possible collision there is no warning of a possible collision with an object if the possible collision was determined based on the position determined using the first determination method and, for example, a movement of the vehicle, but the object itself is not moving but is static. It should be noted that this does not preclude warnings of such a collision.
  • the possible collision can also be determined on the basis of the position of the object determined using a further determination method, and a warning can then be issued accordingly.
  • this includes:
  • the term “travel path” describes in particular the area that the vehicle would sweep over if it were moved forwards or backwards with the current wheel angle or steering angle. This means that a change in the steering angle or the wheel angle causes a change in the driving path.
  • the driving path can be represented, for example, by trajectories for each wheel of the vehicle.
  • the driving path can also be understood as a two-dimensional future trajectory of the vehicle.
  • a warning signal is only output when a distance of the respective object from the vehicle and/or from the determined driving path is less than or equal to a lower threshold value.
  • the threshold value can be variably determined in particular for different vehicles and/or situations. Furthermore, the threshold value can be determined as a function of the vehicle speed and/or the speed of the object. Furthermore, the threshold value can be determined as a function of a measurement accuracy, such as a standard deviation or a variance.
  • This embodiment has the advantage that a warning is only issued when the probability of a collision is relatively high.
  • the threshold value takes into account that it is unknown how the object will continue to move, ie whether it will change its speed and/or direction, for example.
  • the threshold can, for example, assume a value from an interval from zero to two meters.
  • a warning signal is only output when the determined movement vector of the respective object points in the direction of the vehicle and/or the determined driving path.
  • step e) comprises:
  • the future trajectory can be determined, for example, as an extrapolation of a previous trajectory of the object.
  • a curved future trajectory can also be determined here.
  • the predetermined minimum distance can be equal to the lower threshold value, but it can also be different from it.
  • the predetermined minimum distance can be variably determined, in particular for different vehicles and/or situations.
  • the predetermined minimum distance can be determined as a function of the vehicle speed and/or the speed of the object.
  • the predetermined minimum distance can be determined as a function of a measurement accuracy, such as a standard deviation or a variance.
  • the predetermined minimum distance is determined as a function of another variable, such as the vehicle speed, means, for example, that the predetermined minimum distance is predetermined as a function of the other variable, so that a specific numerical value at a point in time depends on the current value of the other quantity is determined.
  • the received sensor signals exclusively include ultrasonic sensor signals.
  • This embodiment can be used advantageously for vehicles that only have ultrasonic sensors. Compared to other sensors, such as radar, lidar and/or cameras, ultrasonic sensors are inexpensive to manufacture and do not require high computing power to evaluate their sensor signals.
  • This embodiment can also be advantageous for vehicles that have additional sensors, since the computing power required for the proposed method is less than for alternative methods that, for example, additionally carry out an image evaluation of a camera image.
  • the number of different determination methods includes at least one second determination method in which a feature recognition is carried out on the basis of the number of sensor signals received at a particular point in time and a digital map of the surroundings is determined using recognized features.
  • the digital map of the surroundings can advantageously be used to also determine a collision with static objects and to warn of this.
  • carrying out a feature detection (English: "feature extraction") is complex and requires more computing power. Therefore, the second preliminary investigation may last longer.
  • moving objects are not detected during feature detection, for example if the sensor signal changes quickly and therefore looks like noise. This can be the case in particular with pedestrians and/or cyclists.
  • the method is only carried out when the vehicle has a speed of less than or equal to 15 km/h, preferably less than or equal to 10 km/h, preferably less than or equal to 7 km/h, more preferably less than or equal to 5 km/h.
  • the vehicle speed can be determined in particular on the basis of the driving condition sensor signal.
  • a computer program product which comprises instructions which, when the program is executed by a computer, cause the latter to execute the method according to the first aspect.
  • a computer program product such as a computer program means
  • a server in a network, for example, as a storage medium such as a memory card, USB stick, CD-ROM, DVD, or in the form of a downloadable file. This can be done, for example, in a wireless communication network by transferring a corresponding file with the computer program product or the computer program means.
  • a driver assistance system for a vehicle comprises a receiving unit for receiving a driving condition sensor signal indicative of a driving condition of the vehicle at a number of different points in time, and for receiving a number of sensor signals indicative of an area surrounding the vehicle at a number of different points in time, a detection unit for detecting a number of objects in the Environment of the vehicle depending on a first number of sensor signals received at a first point in time, a determination unit for determining a position and a movement vector for a detected object of the number depending on the first number of sensor signals and a second number of sensor signals, received at a second time subsequent to the first time using a plurality different determination methods, wherein different determination methods of the plurality have a different computing effort, and an output unit for outputting a warning signal if there is a potential collision of the vehicle with the detected object on the basis of the driving condition sensor signal received at a specific point in time and the position determined for the detected object and its Motion vector is determined.
  • the embodiments and features described for the proposed method apply accordingly to the proposed driver assistance system.
  • the advantages and/or definitions that were mentioned in relation to the method according to the first aspect also apply to the proposed driver assistance system.
  • the driver assistance system is operated in particular with the method according to the first aspect or one of the specific embodiments of the method.
  • the respective unit of the driver assistance system can be implemented in terms of hardware and/or software.
  • the respective unit can be embodied, for example, as a computer or as a microprocessor.
  • the respective unit can be designed as a computer program product, as a function, as a routine, as an algorithm, as part of a program code or as an executable object.
  • each of the units mentioned here can also be designed as part of a higher-level control system of the vehicle, such as a central electronic control device and/or an engine control unit (ECU: Engine Control Unit).
  • ECU Engine Control Unit
  • the driver assistance system can be set up in particular for semi-autonomous or fully autonomous driving of the vehicle.
  • Partially autonomous driving is understood to mean, for example, that the driver assistance system controls a steering device and/or an automatic driving stage.
  • Fully autonomous driving means, for example, that the driver assistance system also controls a drive device and a braking device.
  • the vehicle is, for example, a passenger car or a truck.
  • the vehicle preferably includes a number of sensor units that are set up to detect the driving state of the vehicle and to detect an environment of the vehicle.
  • sensor units of the vehicle are imaging devices, such as a camera, radar (radio detection and ranging) or a lidar (engl, light detection and ranging), ultrasonic sensors, location sensors, wheel angle sensors and/or wheel speed sensors.
  • the sensor units are each set up to output a sensor signal, for example to the driver assistance system, which carries out the partially autonomous or fully autonomous driving as a function of the detected sensor signals.
  • the environmental sensor units exclusively include ultrasonic sensors.
  • the vehicle has a mass of more than 2.5 tons and/or a length of more than 5 meters.
  • the vehicle is designed as a transporter.
  • Vans for example, are confusing and can have one or more "blind spots" that a driver of the van can see poorly or not at all.
  • a blind spot is, for example, on the passenger side behind the A-pillar or on the driver and/or passenger side close to the vehicle.
  • the method has the advantage that a warning can be given in the event of an imminent collision with an object that is in an area close to the vehicle that is difficult or impossible for the driver to see.
  • FIG. 1 shows a schematic view of an exemplary embodiment of a vehicle
  • Fig. 2 shows a schematic view of different scanning areas
  • FIG. 3 shows a schematic view of a first traffic situation
  • FIG. 5 shows a schematic view of a third traffic situation at different points in time
  • FIG. 6 shows a schematic block diagram of an exemplary embodiment of a driver assistance system
  • FIG. 7 shows a schematic block diagram of an exemplary embodiment of a method for operating a driver assistance system.
  • FIG. 1 shows a schematic view of a vehicle 100 from a bird's eye view.
  • the vehicle 100 is, for example, a car that is arranged in an environment 200 .
  • Car 100 has a driver assistance system 110, which is embodied as a control unit, for example.
  • a plurality of environment sensor devices 120, 130 are arranged on car 100, these being optical sensors 120 and ultrasonic sensors 130, for example.
  • the optical sensors 120 include, for example, visual cameras, a radar and/or a lidar.
  • the optical sensors 120 can each capture an image of a respective area from the environment 200 of the car 100 and output it as an optical sensor signal.
  • the ultrasonic sensors 130 are set up in particular for scanning a respective area 131 - 136 (see FIG. 2 ) of the environment 200 . On the basis of the sensor signal output by the ultrasonic sensors 130, objects 210, 211 (see FIGS.
  • a motion vector VEC (see FIGS. 3-5) of an object 210, 211 can be determined from sensor signals that follow one another in time.
  • driver assistance system 110 may be able to drive car 100 partially or fully autonomously.
  • the vehicle 100 has various other sensor devices 120, 130. Examples of this are a microphone, an acceleration sensor, a wheel speed sensor, a wheel angle sensor, a steering angle sensor, an antenna with a coupled receiver for receiving electromagnetically transmittable data signals, and the like.
  • Driver assistance system 110 is designed, for example, as explained with reference to FIG. 6 and set up to carry out the method described with reference to FIG. 7 .
  • Driver assistance system 110 is preferably also set up to carry out processing procedures as described below with reference to FIGS. 2-5.
  • FIG. 2 shows a schematic view of different scanning areas 131-136 of different ultrasonic sensors 130.
  • six ultrasonic sensors 130 are arranged on a front sill of a vehicle 100.
  • Vehicle 100 is designed, for example, as described with reference to FIG. 1 .
  • Each sensor 130 has a specific scanning range 131-136.
  • the shape of a respective scanning area 131 - 136 depends on the arrangement and alignment of ultrasonic sensor 130 on vehicle 100, but also on the structure of ultrasonic sensor 130.
  • the scanning areas 131 - 136 can at least partially overlap, so that the immediate surroundings 200 in front of the sill of vehicle 100 can preferably be detected without any gaps.
  • the range of a respective ultrasonic sensor 130 depends on its structure, for example in a range between five meters and ten meters.
  • a virtual ultrasonic sensor is based, for example, on a first ultrasonic sensor 130 emitting an ultrasonic signal and a second ultrasonic sensor 130 receiving a reflection of the ultrasonic signal emitted by the first ultrasonic sensor.
  • a virtual ultrasonic sensor has, for example, a virtual position between two ultrasonic sensors 130 that are physically present.
  • a first object 210 for example a cyclist, is located in the scanning areas 135, 136 of two ultrasonic sensors 130. The cyclist 210 is therefore detected by two ultrasonic sensors in particular. In addition, the cyclist can be detected by a virtual ultrasonic sensor as described above.
  • a second object 211 for example a Pedestrian is located in the scanning area 132 of a single ultrasonic sensor 130. However, the pedestrian 211 can also be detected by a virtual ultrasonic sensor as described above.
  • each detected object 210, 211 is assigned a Kalman filter mapped and initialized.
  • a respective Kalman filter is set up to estimate the position of the respective object 210, 211 on the basis of the ultrasonic sensor signals SIG1(t) received one after the other.
  • the position includes in particular the position POS and the movement vector VEC of the respective object 210, 211.
  • each Kalman filter is supplied with the ultrasonic sensor signals SIG1(t) received from those ultrasonic sensors 130 in whose scanning range 131 - 136 the respective object 210, 211 is located just located. A precise and consistent result and an exact tracking of the objects 210, 211 are thus possible.
  • a second determination method V2 can provide that on the basis of the number of sensor signals SIG1(t) received at a particular point in time tO-15 (see FIG. 5) a feature recognition is carried out and a digital environment map is used is determined from recognized features.
  • FIG. 3 shows a schematic view of a first traffic situation, in which, for example, vehicle 100 from FIG. 1 or FIG. 2 is shown on a road.
  • An object 210 for example a pedestrian, is shown on the right in front of vehicle 100 .
  • the driving path TR for the vehicle 100 is also shown.
  • Driving path TR is determined, for example, by driver assistance system 110 (see FIG. 1 or 6) on the basis of a driving condition sensor signal SIG0(t) (see FIG. 6 or 7), which includes a current steering angle or a current wheel angle.
  • the ultrasonic sensors 130 preferably constantly emit ultrasonic signals and detect the reflected signals, ie they constantly scan their respective scanning area 131-136 (see FIG. 2) with ultrasonic signals.
  • the sampling occurs 10 times per second, preferably at least 50 times per second, preferably at least 100 times per second.
  • Ultrasonic sensors 130 emit ultrasonic sensor signals SIG1(t) (see FIG. 6 or 7) with a corresponding frequency, for example to driver assistance system 110. Based on the ultrasonic sensor signals, a position POS (see FIG. 7) of pedestrian 210 can be inferred.
  • a movement vector VEC for the pedestrian 210 can also be determined on the basis of at least two ultrasonic sensor signals SIG(t) recorded one after the other. This is done, for example, as described with reference to FIG. 2 using a first determination method V1
  • pedestrian 210 is moving toward route path TR of vehicle 100 .
  • the current distance D of the pedestrian 210 from the driving path TR is also shown.
  • Driver assistance system 110 is set up to output a warning signal as a function of predetermined criteria. For example, it is checked whether the distance D of the pedestrian 210 from the current driving path TR (alternatively from the vehicle 100) is less than or equal to a predetermined threshold value, or whether the determined movement vector VEC points in the direction of the driving path TR or the vehicle 100. If one or more of these criteria are met, then the warning signal is issued since a collision with the pedestrian 210 is then likely unless the vehicle 100 is stopped or changes direction.
  • FIG. 4 shows a schematic view of a second traffic situation, in which, for example, vehicle 100 from FIG. 1 or FIG. 2 is shown on a road. An object 210 , for example a pedestrian, is shown on the right in front of vehicle 100 .
  • the driving path TR for the vehicle 100 is also shown.
  • Driving path TR is determined, for example, by driver assistance system 110 (see FIG. 1 or 6) on the basis of a driving condition sensor signal SIG0(t) (see FIG. 6 or 7), which includes a current steering angle or a current wheel angle.
  • a position POS (see FIG. 7) and a movement vector VEC of the pedestrian 210 are determined on the basis of ultrasonic sensor signals SIG1(t) (see FIG. 6 or 7).
  • a future trajectory TR1 of pedestrian 210 is determined in this example.
  • the previous trajectory of the pedestrian 210 is extrapolated for this purpose.
  • the future trajectory TR1 can be determined on the basis of a specific embodiment of the first determination method V1, ie using Kalman filters. Additionally and/or alternatively, the future trajectory TR1 can be determined on the basis of a third determination method.
  • a smallest distance between the driving path TR and the future trajectory TR1 can be determined. If this distance D is less than a predetermined minimum distance, a warning signal is output, for example.
  • FIG. 5 shows a schematic view of a third traffic situation at different points in time tO ⁇ 15, vehicle 100 of FIG. 1 or FIG. 2 being shown on a road, for example.
  • An object 210 is determined to the right of vehicle 100 at an initial time tO. This takes place in particular on the basis of a number of sensor signals SIG1(t) received at the start time t0 (see FIG. 6 or 7). At a subsequent first point in time t1, a second number of sensor signals SIG1(t) are received. A current position POS (see FIG. 7) of the object 210(t1) is determined on the basis of the second number of sensor signals.
  • a current motion vector VEC(t1) for Time t1 are determined.
  • a third number of sensor signals SIG1(t) are received and a current position POS of object 210(t2) at point in time t2 and a current motion vector VEC(t2) at point in time t2 are determined.
  • a fourth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t3) at time t3 and a current motion vector VEC(t3) at time t3 are determined.
  • a fifth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t4) at time t4 and a current motion vector VEC(t4) at time t4 are determined.
  • a sixth number of sensor signals SIG1(t) are received and a current position POS of the object 210(t5) at time t5 and a motion vector VEC(t5) current at time t5 are determined.
  • the movement of the object 210 can thus be tracked at any point in time t0 ⁇ 15.
  • the movement of the object 210 can additionally be predicted, for example using corresponding equations of motion.
  • the determination of the position POS and the motion vector VEC at a respective point in time t0 - 15 is preferably based on the first determination method V1 using a Kalman filter and on the basis of a further determination method V2 (see Fig. 6 or 7)
  • Fig. 6 shows a schematic block diagram of an exemplary embodiment of a driver assistance system 110, for example driver assistance system 110 of vehicle 100 in Fig.
  • the driving assistance system 110 includes a receiving unit 112 for receiving a driving condition sensor signal SIG0(t) indicative of a driving condition of the vehicle 100 at a number of different points in time tO-15 (see FIG. 5), and for receiving a number of signals for an environment 200 ( see Fig. 1 or 2) of the vehicle 100 indicative sensor signals SIG1 (t) at a number of different times tO - 15.
  • the driver assistance system 110 further includes a detection unit 114 for detecting a number of objects 210, 211 (see Fig. 2) in the Environment 200 of the vehicle 100 depending from a first number of sensor signals SIG1(t), which were received at a first point in time, a determination unit 116 for determining a position POS (see Fig.
  • a motion vector VEC (see Fig. 3 - 5) for a detected object 210 , 211 as a function of the first number of sensor signals SIG(t) and a second number of sensor signals SIG(t), which was received at a second point in time following the first point in time, using a plurality of different determination methods V1, V2, where different determination methods of the plurality have a different computing effort, and an output unit 118 for outputting a warning signal if there is a potential collision of vehicle 100 with the detected object 210, 211 on the basis of the driving condition sensor signal SIG0(t) received at a specific point in time tO - 15 and the position POS determined for the detected object 210, 211 and its motion vector VEC.
  • Fig. 7 shows a schematic block diagram of an exemplary embodiment of a method for operating a driver assistance system 110, for example the driver assistance system 110 of Fig. 6 or the driver assistance system 110 of the vehicle 100 of Fig. 1.
  • a driver assistance system 110 for example the driver assistance system 110 of Fig. 6 or the driver assistance system 110 of the vehicle 100 of Fig. 1.
  • a first step S1 a for a driving state of the vehicle 100 indicative vehicle condition sensor signal SIG0(t) at a number of different times tO-15 (see Figure 5).
  • a number of sensor signals SIG1(t) indicative of an area 200 (see FIG. 1 or 2) of vehicle 100 is received at a number of different points in time t0-15.
  • a third step S3 a number of objects 210, 211 (see FIG.
  • a position POS and a movement vector VEC for a detected object 210, 211 are determined as a function of the first number of sensor signals SIG1(t) and a second number of sensor signals SIG1(t) , which was received at a second point in time following the first point in time, determined using a plurality of different determination methods V1, V2, with different determination methods V1, V2 of the plurality having a different chen calculation effort.
  • a warning signal is output if there is a potential collision of the vehicle 100 with the detected object 110 based on the driving condition sensor signal SIG0(t) received at a specific point in time tO - 15 and the position POS determined for the detected object 210 and its Movement vector VEC is determined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Es wird ein Verfahren zum Betreiben eines Fahrassistenzsystems (110) vorgeschlagen. Das Verfahren umfasst: a) Empfangen (S1) eines für einen Fahrzustand indikativen Fahrzustandssensorsignals (SIG0(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (t0 - t5), b) Empfangen (S2) einer Anzahl von für eine Umgebung (200) indikativen Sensorsignalen (SIG1(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (t0 - t5), c) Erfassen (S3) einer Anzahl von Objekten (210, 211) in der Umgebung (200) in Abhängigkeit von einer ersten Anzahl von Sensorsignalen (SIG1(t)), die zu einem ersten Zeitpunkt empfangen wurden, d) Ermitteln (S4) einer Position (POS) und eines Bewegungsvektors (VEC) für ein erfasstes Objekt (210, 211) in Abhängigkeit von der ersten Anzahl von Sensorsignalen (SIG1(t)) und einer zweiten Anzahl von Sensorsignalen (SIG1(t)), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren (V1, V2), wobei verschiedene Ermittlungsverfahren (V1, V2) der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und e) Ausgeben (S5) eines Warnsignals, wenn eine potentielle Kollision mit dem erfassten Objekt (210, 211) auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals (SIG0(t)) und der für das erfasste Objekt (210, 211) ermittelten Position (POS) und seines Bewegungsvektors (VEC) ermittelt wird.

Description

VERFAHREN ZUM BETREIBEN EINES FAHRASSISTENZSYSTEMS, COMPUTERPROGRAMMPRODUKT, FAHRASSISTENZSYSTEM UND FAHRZEUG
Die vorliegende Erfindung betrifft ein Verfahren zum Betreiben eines Fahrassistenzsystems, ein Computerprogrammprodukt, ein Fahrassistenzsystem und ein Fahrzeug mit einem solchen Fahrassistenzsystem.
Bekannte Fahrzeuge weisen eine Anzahl von Sensoreinheiten auf, mit denen sie ihre Umgebung erfassen können, wie beispielsweise Ultraschallsensoren. Dies kann speziell beim Rangieren und/oder Einparken des Fahrzeugs hilfreich sein, insbesondere wenn es sich um ein großes und/oder unübersichtliches Fahrzeug handelt. So kann auf Basis der Sensordaten ein akustisches, haptisches und/oder visuelles Signal an den Fahrer ausgegeben werden, um diesen vor einer Kollision zu warnen. Eine Schwierigkeit besteht darin, bewegliche (dynamische) Objekten zu erfassen und zu ermitteln, ob mit diesen eine Kollision auftreten kann. Ein dynamisches Objekt ist insbesondere ein anderer Verkehrsteilnehmer, wie ein Fußgänger oder ein Radfahrer.
DE 102006045418 A1 offenbart ein Kraftfahrzeug mit einem Fahrassistenzsystem und mit einem Sensor zur Abstandsmessung zu einem Hindernis auf. Es ist vorgeschlagen, zur Erhöhung der Verkehrssicherheit eine Bewegungsrichtung eines sich bewegenden Objekts zu erfassen.
Bekannte Verfahren zum Ermitteln von dynamischen Objekten sind rechenintensiv und komplex, weshalb eine Fehlerkennung vermehrt auftreten kann und/oder eine Zeitdauer vom Empfangen des Sensorsignals bis zum Ergebnis recht lange ist. Dies reduziert die Zeit, die für eine Reaktion verbleibt, sollte eine Kollision drohen. Weiterhin benötigen bekannte Systeme eine teure Sensorik, wie beispielsweise ein Radar, ein Lidar oder eine Kamera. Vor diesem Hintergrund besteht eine Aufgabe der vorliegenden Erfindung darin, den Betrieb eines Fahrassistenzsystems zu verbessern.
Gemäß einem ersten Aspekt wird ein Verfahren zum Betreiben eines Fahrassistenzsystems für ein Fahrzeug vorgeschlagen. Das Verfahren umfasst: a) Empfangen eines für einen Fahrzustand des Fahrzeugs indikativen Fahrzustandssensorsignals zu einer Anzahl unterschiedlicher Zeitpunkte, b) Empfangen einer Anzahl von für eine Umgebung des Fahrzeugs indikativen Sensorsignalen zu einer Anzahl unterschiedlicher Zeitpunkte, c) Erfassen einer Anzahl von Objekten in der Umgebung des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen, die zu einem ersten Zeitpunkt empfangen wurden, d) Ermitteln einer Position und eines Bewegungsvektors für ein erfasstes Objekt in Abhängigkeit von der ersten Anzahl von Sensorsignalen und einer zweiten Anzahl von Sensorsignalen, die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren, wobei verschiedene Ermittlungsverfahren der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und e) Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs mit dem erfassten Objekt auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals und der für das erfasste Objekt ermittelten Position und seines Bewegungsvektors ermittelt wird.
Dieses Verfahren weist den Vorteil auf, dass die Bewegung erfasster Objekte mit verschiedenen Ermittlungsverfahren ermittelt wird. Hierbei kann insbesondere ein wenig komplexes und sehr schnell durchzuführendes Ermittlungsverfahren und ein komplexeres und etwas langsamer durchzuführendes Ermittlungsverfahren verwendet werden. Die unterschiedlichen Ermittlungsverfahren weisen beispielsweise eine unterschiedliche Genauigkeit und/oder Zuverlässigkeit bezüglich ihrer jeweiligen Ergebnisse auf. So kann insbesondere ein weniger komplexes Ermittlungsverfahren weniger zuverlässig sein, aber gerade in kritischen Situationen Zeit einsparen.
Das Fahrzustandssensorsignal umfasst beispielsweise Odometriedaten des Fahrzeugs, wie beispielsweise eine aktuelle Geschwindigkeit, eine aktuelle Raddrehzahl, ein aktueller Radwinkel und/oder ein aktueller Lenkwinkel. Insbesondere lässt sich auf Basis des Fahrzustandssensorsignals beispielsweise eine Richtung des Fahrzeugs, beispielsweise eine zukünftige Trajektorie oder ein Fahrschlauch ermitteln.
Darunter, dass das Fahrzustandssensorsignal zu einer Anzahl unterschiedliche Zeitpunkte empfangen wird, ist vorliegend insbesondere zu verstehen, dass zu einem jeweiligen Zeitpunkt das zu diesem Zeitpunkt aktuelle Fahrzustandssensorsignal empfangen wird. Das aktuelle Fahrzustandssensorsignal ist insbesondere für den zu dem aktuellen Zeitpunkt aktuellen Fahrzustand indikativ. Beispielsweise wird das Fahrzustandssensorsignal regelmäßig, insbesondere periodisch, empfangen, beispielsweise mit einer Frequenz von mehr als 1 Hz, vorzugsweise wenigstens 10 Hz, bevorzugt bis zu 100 Hz. Auf Basis von wenigstens aufeinanderfolgenden Fahrzustandssensorsignalen lässt sich beispielsweise eine Änderung des Fahrzustands ermitteln.
Die für die Umgebung des Fahrzeugs indikativen Sensorsignale umfassen insbesondere Ultraschall-Sensorsignale. Darunter, dass eine Anzahl von Sensorsignalen empfangen wird, ist vorliegend insbesondere zu verstehen, dass beispielsweise Sensorsignale von einer Anzahl unterschiedlicher Sensoren empfangen werden, wobei unterschiedliche Sensoren einerseits Sensoren gleicher Art aber anderer Anordnung und/oder Ausrichtung umfassen, andererseits aber auch Sensoren unterschiedlicher Art umfassen, wie beispielsweise ein Ultraschallsensor und eine Kamera. Die Anzahl umfasst hierbei eine Menge größer oder gleich Eins. Die Sensorsignale können weiterhin auch von virtuellen Sensoren empfangen werden. Man kann alternativ auch sagen, dass die Sensorsignale abgerufen werden. Beispielsweise stellt ein Sensor ein Ausgangssignal bereit, das durch externe Komponenten, beispielsweise das Fahrassistenzsystem, entsprechend abrufbar ist. Darunter, dass die Anzahl von Sensorsignalen zu einer Anzahl unterschiedlicher Zeitpunkte empfangen werden, ist vorliegend insbesondere zu verstehen, dass zu einem jeweiligen Zeitpunkt die zu diesem Zeitpunkt aktuellen Sensorsignale empfangen werden. Vorzugsweise werden alle Sensorsignale der Anzahl zu einem Zeitpunkt empfangen, beispielsweise als ein Datenpaket, das alle Sensorsignale der Anzahl umfasst.
Es sei angemerkt, dass unterschiedliche Sensorsignale der Anzahl, beispielsweise Sensorsignale von zwei verschiedenen Ultraschallsensoren, unterschiedliche Erfassungszeitpunkte aufweisen können, auch wenn die Anzahl von Sensorsignale zu einem Zeitpunkt empfangen wird.
Es kann ferner sein, dass ein Intervall zwischen zwei Sensorsignalen eines jeweiligen Sensors unterschiedlich zu einem Intervall zwischen zwei Sensorsignalen eines weiteren Sensors ist. Vorzugsweise stellt jeder Sensor sein Sensorsignal regelmäßig, insbesondere periodisch, beispielsweise mit einer Frequenz von mehr als 1 Hz, vorzugsweise wenigstens 10 Hz, bevorzugt bis zu 100 Hz., bereit, wobei zu einem jeweiligen Zeitpunkt immer das gerade aktuelle Sensorsignale bereitgestellt wird.
Die Zeitpunkte, zu denen die Anzahl von Sensorsignalen empfangen wird, können sich von den Zeitpunkten, zu denen das Fahrzustandssensorsignal empfangen wird, unterscheiden.
Darunter, dass eine Anzahl von Objekten in der Umgebung des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen, die zu einem ersten Zeitpunkt empfangen wurden, erfasst wird, ist vorliegend insbesondere zu verstehen, dass die erste Anzahl empfangener Sensorsignale verarbeitet und/oder analysiert wird, und als ein Ergebnis des Verarbei- tens und/oder des Analysierens eine Anzahl von Objekten detektiert werden. Das Verarbeiten und/oder Analysieren umfasst beispielsweise eine Signalanalyse der einzelnen Sensorsignale und/oder eine Signalanalyse mehrerer miteinander korrelierter Sensorsignale. Die Anzahl von Objekten ist größer oder gleich Eins.
Für wenigstens eines der erfassten Objekte wird eine Position und ein Bewegungsvektor ermittelt. Zum Ermitteln der Position kann ein einzelnes Sensorsignal eines Zeitpunkts ausreichend sein. Zum Ermitteln des Bewegungsvektors sind wenigstens zwei Sensorsingale, die zu unterschiedlichen Zeitpunkten empfangen wurden, notwendig. Zum Ermitteln des Bewegungsvektors werden vorzugsweise zwei zu unterschiedlichen Zeitpunkten empfangene Sensorsignale eines bestimmten Sensors verwendet, es können aber auch Sensorsignale unterschiedlicher Sensoren, die zu unterschiedlichen Zeitpunkten empfangen wurden, verwendet werden. Je mehr Sensorsignale für ein jeweiliges Objekt verwendet werden, um so genauer kann die Ermittlung der Position und des Bewegungsvektors sein. Zudem ist es vorteilhaft, den Zeitabstand zwischen zwei Sensorsignalen so gering wie möglich zu halten, um die Genauigkeit und die Aktualität zu verbessern, da sich der Bewegungsvektor jederzeit ändern kann, beispielsweise wenn ein Fußgänger abrupt stehen bleibt oder sich in Bewegung setzt.
Die Position des Objekts bezieht sich insbesondere auf eine Position in einem Koordinatensystem des Fahrzeugs und weist wenigstens zwei Koordinaten auf. Die Position des Objekts kann sich hierbei auf einen einzelnen Punkt des Objekts beziehen.
Der Bewegungsvektor umfasst insbesondere einen zweidimensionalen Vektor. Ein Betrag des Bewegungsvektors entspricht beispielsweise der Geschwindigkeit des Objekts.
Die Mehrzahl unterschiedlicher Ermittlungsverfahren umfasst wenigstens zwei Ermittlungsverfahren, die einen unterschiedlichen Rechenaufwand aufweisen. Beispielsweise erfolgt bei einem ersten Ermittlungsverfahren die Positionsbestimmung und die Bewegungsvektorbestimmung unmittelbar auf Basis von Sensor-Rohdaten, und bei einem zweiten Ermittlungsverfahren werden auf Basis der Rohdaten verarbeitete Daten erzeugt und die Positionsbestimmung und die Bewegungsvektorbestimmung erfolgt auf Basis der verarbeiteten Daten. Sensor-Rohdaten sind insbesondere das unbearbeitete Ausgangssignal eines jeweiligen Sensors. Dadurch, dass eine Vorverarbeitung entfällt, kann dieses Ermittlungsverfahren besonders schnell sein. Andererseits kann eine Signalrauschen oder dergleichen ein Ermittlungsergebnis beeinträchtigen.
Je weniger Verarbeitungsschritte ein Ermittlungsverfahren aufweist, umso weniger komplex ist es, und umso schneller kann es durchführbar sein. Vorteilhaft umfasst die Mehrzahl unterschiedlicher Ermittlungsverfahren daher wenigstens zwei Ermittlungsverfahren mit einer unterschiedlichen Anzahl an Verarbeitungsschritten. Ein Verarbeitungsschritt umfasst beispielsweise das Durchführen einer bestimmten mathematischen Operation mit einem jeweiligen Sensorsignal, wie das Bilden eines gleitenden Durchschnitts, um Ausreißer in dem Sensorsignal zu maskieren, oder das Anwendung eines Rauschfilters, einer Fouriertransformation und dergleichen mehr. Ein Verarbeitungsschritt kann auch mehrere Sensorsignale umfassen, beispielsweise wenn eine Korrelation ermittelt wird und/oder die Sensorsignale gegenseitig plausibilisiert werden.
Auf Basis der verschiedenen Ermittlungsverfahren können für ein Objekt unterschiedliche Positionen und/oder Bewegungsvektoren ermittelt werden. Vorzugsweise werden zu einem Zeitpunkt immer die aktuellste Position und der aktuellste Bewegungsvektor als Grundlage für das Ermitteln einer möglichen Kollision herangezogen. Wenn von zwei unterschiedlichen Ermittlungsverfahren jeweils eine Position und ein Bewegungsvektor für ein Objekt ermittelt wurden, die auf den gleichen aktuellen Sensorsignalen basieren, dann wird insbesondere diejenige Position und derjenige Bewegungsvektor als Grundlage für das Ermitteln einer möglichen Kollision herangezogen, deren jeweilige Genauigkeit und/oder Zuverlässigkeit höher ist. Die Genauigkeit und/oder Zuverlässigkeit kann beispielsweise in Form eines Ermittlungsfehlers, der einerseits von Messfehlern und andererseits von dem Ermittlungsverfahren selbst herrühren kann, bestimmt werden.
Vorzugsweise werden die Position und der Bewegungsvektor für mehrere der erfassten Objekte der Anzahl ermittelt, bevorzugt für jedes erfasste Objekt der Anzahl. Die Position und der Bewegungsvektor werden insbesondere ständig aktualisiert. Beispielsweise wird immer dann eine neue Ermittlung durchgeführt, wenn ein aktuelles Sensorsignal oder eine Anzahl aktueller Sensorsignale empfangen wird. Nachfolgend kann daher auch von der aktuellen Position und dem aktuellen Bewegungsvektor gesprochen werden.
Auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals und der für das erfasste Objekt ermittelten Position und seines Bewegungsvektors kann ermittelt werden, ob es in der Zukunft zu einer Kollision des Fahrzeugs mit dem sich gemäß seinem Bewegungsvektor bewegenden Objekt kommen kann. Hierbei kann insbesondere eine Extrapolation der Position des Fahrzeugs und des Objekts auf Basis des jeweiligen aktuellen Fahrzustandssensorsignals und eine Extrapolation der Position des Objekts auf Basis der aktuellen Position und dem aktuellen Bewegungsvektor des Objekts ermittelt werden.
Wenn sich die extrapolierten Positionen zu einem bestimmten Zeitpunkt beispielsweise zu nahe kommen, ist eine Kollision wahrscheinlich.
Wenn eine Kollision wahrscheinlich ist, wird ein Warnsignal ausgegeben. Das Ausgeben des Warnsignals kann direkt an den Nutzer des Fahrzeugs erfolgen, beispielsweise als ein akustischen, eine haptisches und/oder ein visuelles Signal. Das Warnsignal kann auch nach außerhalb des Fahrzeugs, beispielsweise an das Objekt, ausgegeben werden, insbesondere als ein akustisches Warnsignal. Wenn das Warnsignal ausgegeben wird, können ferner weitere Funktionen des Fahrassistenzsystems und/oder anderer Einheiten des Fahrzeugs ausgelöst werden.
Das Warnsignal wird vorzugsweise unabhängig davon, mit welchem Ermittlungsverfahren die Position und der Bewegungsvektor des Objekts, mit dem eine mögliche Kollision ermittelt wurde, ausgegeben. Gemäß einer Ausführungsform des Verfahrens umfasst die Anzahl unterschiedlicher Ermittlungsverfahren wenigstens ein erstes Ermittlungsverfahren, bei dem für jedes erfasste Objekt der Anzahl ein Kalman-Filter zugeordnet und initialisiert wird, das zum Ermitteln der Position sowie des Bewegungsvektors des jeweiligen Objekts verwendet wird.
Das heißt, dass bei fünf erfassten Objekten fünf zugeordnete Kalman-Filter initialisiert werden. Das Kalman-Filter (auch Kalman-Bucy-Filter, Stratonovich-Kalman-Bucy-Filter oder Kal- man-Bucy-Stratonovich-Filter) ist ein mathematisches Verfahren zur iterativen Schätzung von Parametern, vorliegend der Position und des Bewegungsvektors des Objekts, auf der Basis von fehlerbehafteten Messungen, vorliegend die empfangenen Sensorsignale. Das Kalman-Filter dient dazu, nicht direkt messbare Systemgrößen zu schätzen, während die Fehler der Messungen optimal reduziert werden. Das Kalman-Filter beschreibt einen Schätzwert durch mehrdimensionale Normalverteilungen. Diese repräsentieren eine Wahrscheinlichkeitsverteilung möglicher Fehler um jeden Schätzwert sowie Korrelationen zwischen Schätzfehlern unterschiedlicher Variablen. Mit dieser Information werden in jedem Zeitschritt die bisherigen Schätzwerte mit den neuen Messungen auf optimale Weise kombiniert, so dass verbleibende Fehler schnellstmöglich minimiert werden. Das Kalman-Filter hat zu einem aktuellen Zeitpunkt ein Filterzustand umfassend die aktuellen Schätzwerte sowie Fehlerschätzungen und Korrelationen. Nach jeder neuen Messung verbessert das Kalman-Filter die bisherigen Schätzwerte und aktualisiert die zugehörigen Fehlerschätzungen und Korrelationen. In dynamischen Systemen, in denen beispielsweise auch eine Geschwindigkeit geschätzt wird, schätzt das Kalman-Filter auch Korrelationen zwischen der Geschwindigkeit und beispielsweise der Position, insbesondere auf Basis von Bewegungsgleichungen, und berücksichtigt diese für den nächsten Zeitschritt.
Das Kalman-Filter wird vorzugsweise wenigstens immer dann aktualisiert, wenn eine Anzahl aktueller Sensorsignale empfangen wurde. Gemäß einer Ausführungsform des Verfahren sind unterschiedlichen Sensorsignalen der Anzahl unterschiedliche Abtastbereiche in der Umgebung zugeordnet, wobei ein jeweiliges einem bestimmten Abtastbereich in der Umgebung zugeordnetes Sensorsignal der zu einem jeweiligen Zeitpunkt empfangenen Anzahl von Sensorsignalen demjenigen Kalman-Filter zugeführt wird, dessen zugeordnetes Objekt eine Position aufweist, die innerhalb des dem Sensorsignal zugeordneten Abtastbereichs liegt.
Hiermit ist sichergestellt, dass das jeweilige Kalman-Filter für die nächsten Aktualisierung dasjenige Sensorsignal zugeführt bekommt, das sich auch auf das dem Kalman-Filter zugeordnete Objekt bezieht.
Gemäß einer weiteren Ausführungsform des Verfahrens erfolgt das Ausgeben des Warnsignals, wenn eine potentielle Kollision auf Basis der für das jeweilige erfasste Objekt unter Verwendung des ersten Ermittlungsverfahrens ermittelten Position und seines Bewegungsvektors ermittelt wird, ausschließlich dann, wenn der ermittelte Bewegungsvektor des Objekts ungleich Null ist.
Mit anderen Worten wird vor einer möglichen Kollision mit einem Objekt nicht gewarnt, wenn die mögliche Kollision auf Basis der mit dem ersten Ermittlungsverfahren ermittelten Position und beispielsweise einer Bewegung des Fahrzeugs ermittelt wurde, das Objekt selbst sich aber nicht bewegt, sondern statisch ist. Es sei angemerkt, dass die nicht ausschließt, dass vor einer solchen Kollision gewarnt wird. Beispielsweise kann die mögliche Kollision auch auf Basis der mit einem weiteren Ermittlungsverfahren ermittelten Position des Objekts ermittelt werden und es kann dann entsprechend eine Warnung ausgegeben werden.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst dieses:
Ermitteln eines Fahrschlauchs für das Fahrzeug in Abhängigkeit des empfangenen Fahrzustandssensorsignals. Der Begriff "Fahrschlauch" beschreibt vorliegend insbesondere die Fläche, die das Fahrzeug überstreichen würde, wenn es mit dem aktuellen Radwinkel oder Lenkwinkel vorwärts oder rückwärts bewegt würde. Das heißt, dass eine Änderung des Lenkwinkels oder des Radwinkels eine Änderung des Fahrschlauchs bewirkt. Der Fahrschlauch kann beispielsweise durch Trajektorien für jedes Rad des Fahrzeugs repräsentiert sein. Der Fahrschlauch kann auch als zweidimensionale zukünftige Trajektorie des Fahrzeugs aufgefasst werden.
Gemäß einer weiteren Ausführungsform des Verfahrens wird ein Warnsignal nur dann ausgegeben, wenn ein Abstand des jeweiligen Objekts zu dem Fahrzeug und/oder zu dem ermittelten Fahrschlauch kleiner oder gleich einem unteren Schwellwert ist.
Der Schwellwert ist insbesondere für unterschiedliche Fahrzeuge und/oder Situationen variabel bestimmbar. Weiterhin kann der Schwellwert in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Geschwindigkeit des Objekts bestimmt werden. Weiterhin kann der Schwellwert in Abhängigkeit einer Messgenauigkeit, wie einer Standardabweichung oder einer Varianz, bestimmt werden.
Diese Ausführungsform hat den Vorteil, dass nur dann eine Warnung ausgegeben wird, wenn die Wahrscheinlichkeit einer Kollision relativ hoch ist. Insbesondere wird durch den Schwellwert berücksichtigt, dass unbekannt ist, wie sich das Objekt weiterbewegen wird, das heißt, ob es beispielsweise seine Geschwindigkeit und/oder Richtung ändern wird. Der Schwellwert kann beispielsweise einen Wert aus einem Intervall von Null bis zu zwei Meter annehmen.
Gemäß einer weiteren Ausführungsform des Verfahrens wird ein Warnsignal nur dann ausgegeben, wenn der ermittelte Bewegungsvektor des jeweiligen Objekts in Richtung zu dem Fahrzeug und/oder zu dem ermittelten Fahrschlauch weist.
Dies hat den Vorteil, dass beispielsweise bei einem Objekt, dessen aktueller Abstand unterhalb des unteren Schwellwerts ist, das sich aber von dem Fahrzeug oder dem Fahrschlauch wegbewegt und mit dem deshalb eine Kollision sehr unwahrscheinlich ist, kein Warnsignal ausgegeben wird.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst der Schritt e):
Ermitteln einer zukünftigen Trajektorie des erfassten Objekts auf Basis der ermittelten Position und dem Bewegungsvektor, wobei ein Warnsignal nur dann ausgegeben wird, wenn die ermittelte zukünftige Trajektorie an wenigstens einer Position einen vorbestimmten Minimalabstand unterschreitet und/oder einen Schnittpunkt mit dem ermittelten Fahrschlauch aufweist.
Die zukünftige Trajektorie kann beispielsweise als eine Extrapolation einer bisherigen Trajektorie des Objekts ermittelt werden. Hierbei kann insbesondere auch eine gekrümmte zukünftige Trajektorie ermittelbar sein.
Der vorbestimmte Minimalabstand kann gleich dem unteren Schwellwert sein, er kann aber auch unterschiedlich zu diesem sein. Der vorbestimmte Minimalabstand kann insbesondere für unterschiedliche Fahrzeuge und/oder Situationen variabel bestimmbar sein. Weiterhin kann der vorbestimmte Minimalabstand in Abhängigkeit der Fahrzeuggeschwindigkeit und/oder der Geschwindigkeit des Objekts bestimmt werden. Weiterhin kann der vorbestimmte Minimalabstand in Abhängigkeit einer Messgenauigkeit, wie einer Standardabweichung oder einer Varianz, bestimmt werden.
Darunter, dass der vorbestimmte Minimalabstand in Abhängigkeit einer anderen Größe, wie beispielsweise der Fahrzeuggeschwindigkeit, bestimmt wird, ist beispielsweise zu verstehen, dass der vorbestimmte Minimalabstand als eine Funktion der anderen Größe vorbestimmt ist, so dass ein konkreter Zahlenwert zu einem Zeitpunkt in Abhängigkeit des aktuellen Werts der anderen Größe bestimmt wird.
Gemäß einer weiteren Ausführungsform des Verfahrens umfassen die empfangenen Sensorsignale ausschließlich Ultraschallsensorsignale. Diese Ausführungsform kann vorteilhaft für Fahrzeuge genutzt werden, die ausschließlich Ultraschallsensoren aufweisen. Ultraschallsensoren sind im Vergleich zu anderen Sensoren, wie Radar, Lidar und/oder Kameras, günstig in der Herstellung und benötigen keine hohe Rechenleistung zur Auswertung ihrer Sensorsignale.
Auch für Fahrzeuge, die über weitere Sensorik verfügen, kann diese Ausführungsform vorteilhaft sein, da die benötigte Rechenleistung für das vorgeschlagene Verfahren geringer ist, als für alternative Verfahren, die beispielsweise zusätzlich eine Bildauswertung eines Kamerabildes durchführen.
Gemäß einer weiteren Ausführungsform des Verfahrens umfasst die Anzahl unterschiedlicher Ermittlungsverfahren wenigstens ein zweites Ermittlungsverfahren, bei dem auf Basis der zu einem jeweiligen Zeitpunkt empfangenen Anzahl von Sensorsignalen eine Merkmalserkennung durchgeführt wird und eine digitale Umgebungskarte unter Verwendung von erkannten Merkmalen ermittelt wird.
Die digitale Umgebungskarte kann vorteilhaft dazu verwendet werden, auch eine Kollision mit statischen Objekten zu ermitteln und hiervor zu warnen. Im Vergleich zu dem ersten Ermittlungsverfahren ist insbesondere das Durchführen einer Merkmalserkennung (englisch: "feature extraction") aufwändig und benötigt mehr Rechenleistung. Daher kann das zweite Ermittlungsverfahren insbesondere auch länger dauern. Weiterhin kann es Vorkommen, dass sich bewegende Objekte bei der Merkmalserkennung nicht erkannt werden, beispielsweise wenn sich das Sensorsignal schnell verändert und daher wie Rauschen aussieht. Dies kann insbesondere bei Fußgängern und/oder Radfahren der Fall sein.
Gemäß einer weiteren Ausführungsform des Verfahrens wird das Verfahren ausschließlich dann durchgeführt, wenn das Fahrzeug eine Geschwindigkeit von kleiner oder gleich 15 km/h, vorzugsweise kleiner oder gleich 10 km/h, bevorzugt kleiner oder gleich 7 km/h, weiter bevorzugt kleiner oder gleich 5 km/h aufweist. Die Fahrzeuggeschwindigkeit lässt sich insbesondere auf Basis des Fahrzustandssensorsignals ermitteln.
Dies ist insbesondere bei der Verwendung von Ultraschallsensorsignalen vorteilhaft, da Ultraschallsensoren aufgrund der Ausbreitungsgeschwindigkeit von Schall in Luft vergleichsweise langsam arbeiten und daher für hohe Geschwindigkeiten weniger geeignet sind.
Gemäß einem zweiten Aspekt wird ein Computerprogrammprodukt vorgeschlagen, welches Befehle umfasst, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren gemäß dem ersten Aspekt auszuführen.
Ein Computerprogrammprodukt, wie z.B. ein Computerprogramm-Mittel, kann beispielsweise als Speichermedium, wie z.B. Speicherkarte, USB-Stick, CD-ROM, DVD, oder auch in Form einer herunterladbaren Datei von einem Server in einem Netzwerk bereitgestellt oder geliefert werden. Dies kann zum Beispiel in einem drahtlosen Kommunikationsnetzwerk durch die Übertragung einer entsprechenden Datei mit dem Computerprogrammprodukt oder dem Computerprogramm-Mittel erfolgen.
Gemäß einem dritten Aspekt wird ein Fahrassistenzsystem für ein Fahrzeug vorgeschlagen. Das Fahrassistenzsystem umfasst eine Empfangseinheit zum Empfangen eines für einen Fahrzustand des Fahrzeugs indikativen Fahrzustandssensorsignals zu einer Anzahl unterschiedlicher Zeitpunkte, und zum Empfangen einer Anzahl von für eine Umgebung des Fahrzeugs indikativen Sensorsignalen zu einer Anzahl unterschiedlicher Zeitpunkte, eine Erfassungseinheit zum Erfassen einer Anzahl von Objekten in der Umgebung des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen, die zu einem ersten Zeitpunkt empfangen wurden, eine Ermittlungseinheit zum Ermitteln einer Position und eines Bewegungsvektors für ein erfasstes Objekt der Anzahl in Abhängigkeit von der ersten Anzahl von Sensorsignalen und einer zweiten Anzahl von Sensorsignalen, die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren, wobei verschiedene Ermittlungsverfahren der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und eine Ausgabeeinheit zum Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs mit dem erfassten Objekt auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals und der für das erfasste Objekt ermittelten Position und seines Bewegungsvektors ermittelt wird.
Die für das vorgeschlagen Verfahren beschriebenen Ausführungsformen und Merkmale gelten für das vorgeschlagene Fahrassistenzsystem entsprechend. Die Vorteile und/oder Definitionen, die in Bezug auf das Verfahren gemäß dem ersten Aspekt genannt wurden, gelten auch für das vorgeschlagene Fahrassistenzsystem. Das Fahrassistenzsystem wird insbesondere mit dem Verfahren gemäß dem ersten Aspekt oder einer der Ausführungsformen des Verfahrens betrieben.
Die jeweilige Einheit des Fahrassistenzsystem kann hardwaretechnisch und/oder softwaretechnisch implementiert sein. Bei einer hardwaretechnischen Implementierung kann die jeweilige Einheit zum Beispiel als Computer oder als Mikroprozessor ausgebildet sein. Bei einer softwaretechnischen Implementierung kann die jeweilige Einheit als Computerprogrammprodukt, als eine Funktion, als eine Routine, als ein Algorithmus, als Teil eines Programmcodes oder als ausführbares Objekt ausgebildet sein. Ferner kann jede der vorliegend genannten Einheiten auch als Teil eines übergeordneten Steuerungssystems des Fahrzeugs, wie beispielsweise einer zentralen elektronischen Steuereinrichtung und/oder einem Motorsteuergerät (ECU: Engine Control Unit), ausgebildet sein.
Das Fahrassistenzsystem kann insbesondere zum teilautonomen oder vollautonomen Fahren des Fahrzeugs eingerichtet sein. Unter teilautonomem Fahren wird beispielsweise verstanden, dass das Fahrassistenzsystem eine Lenkvorrichtung und/oder eine Fahrstufenautomatik steuert. Unter vollautonomem Fahren wird beispielsweise verstanden, dass das Fahrassistenzsystem zusätzlich auch eine Antriebseinrichtung und eine Bremseinrichtung steu- ert. Gemäß einem vierten Aspekt wird ein Fahrzeug mit einer Anzahl von Umgebungssensoreinheiten zum Erfassen einer Umgebung des Fahrzeugs und zum Ausgeben eines jeweiligen Sensorsignals und mit einem Fahrassistenzsystem gemäß dem dritten Aspekt .
Das Fahrzeug ist beispielsweise ein Personenkraftwagen oder auch ein Lastkraftwagen. Das Fahrzeug umfasst vorzugsweise eine Anzahl an Sensoreinheiten, die zum Erfassen des Fahrzustands des Fahrzeugs und zum Erfassen einer Umgebung des Fahrzeugs eingerichtet sind. Beispiele für derartige Sensoreinheiten des Fahrzeugs sind Bildaufnahmeeinrichtungen, wie eine Kamera, ein Radar (engl, radio detection and ranging) oder auch ein Lidar (engl, light detection and ranging), Ultraschallsensoren, Ortungssensoren, Radwinkelsensoren und/oder Raddrehzahlsensoren. Die Sensoreinheiten sind jeweils zum Ausgeben eines Sensorsignals eingerichtet, beispielsweise an das Fahrassistenzsystem, welches das teilautonome oder vollautonome Fahren in Abhängigkeit der erfassten Sensorsignale durchführt.
Gemäß einer Ausführungsform des Fahrzeugs umfassen die Umgebungssensoreinheiten ausschließlich Ultraschallsensoren.
Dies ermöglicht ein wenig komplexes und in der Fierstellung günstiges Fahrzeug.
Gemäß einer weiteren Ausführungsform des Fahrzeugs weist das Fahrzeug eine Masse von über 2,5 Tonnen und/oder eine Länge von über 5 Metern auf.
Beispielsweise ist das Fahrzeug als ein Transporter ausgebildet. Transporter sind beispielsweise unübersichtlich und können einen oder mehrere "tote Winkel" aufweisen, die ein Fahrer des Transporters schlecht oder gar nicht einsehen kann. Ein solcher toter Winkel ist beispielsweise auf der Beifahrerseite hinter der A-Säule oder auf der Fahrer- und/oder Beifahrerseite nahe an dem Fahrzeug. Insbesondere bei großen und/oder unübersichtlichen Fahrzeugen weist das Verfahren den Vorteil auf, dass bei einer drohenden Kollision mit einem Objekt, das sich in einem von dem Fahrer schlecht oder gar nicht einsehbaren Bereich in der Nähe des Fahrzeugs befindet, gewarnt werden kann.
Weitere mögliche Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmale oder Ausführungsformen. Dabei wird der Fachmann auch Einzelaspekte als Verbesserungen oder Ergänzungen zu der jeweiligen Grundform der Erfindung hinzufügen.
Weitere vorteilhafte Ausgestaltungen und Aspekte der Erfindung sind Gegenstand der Unteransprüche sowie der im Folgenden beschriebenen Ausführungsbeispiele der Erfindung. Im Weiteren wird die Erfindung anhand von bevorzugten Ausführungsformen unter Bezugnahme auf die beigelegten Figuren näher erläutert.
Fig. 1 zeigt eine schematische Ansicht einer Ausführungsbeispiels eines Fahrzeugs;
Fig. 2 zeigt eine schematische Ansicht unterschiedlicher Abtastbereiche;
Fig. 3 zeigt eine schematische Ansicht einer ersten Verkehrssituation;
Fig. 4 zeigt eine schematische Ansicht einer zweiten Verkehrssituation;
Fig. 5 zeigt eine schematische Ansicht einer dritten Verkehrssituation zu unterschiedlichen Zeitpunkten;
Fig. 6 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels für ein Fahrassistenzsystem; und Fig. 7 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines Fahrassistenzsystems.
In den Figuren sind gleiche oder funktionsgleiche Elemente mit denselben Bezugszeichen versehen worden, sofern nichts anderes angegeben ist.
Fig. 1 zeigt eine schematische Ansicht eines Fahrzeugs 100 aus einer Vogelperspektive.
Das Fahrzeug 100 ist beispielsweise ein Auto, das in einer Umgebung 200 angeordnet ist. Das Auto 100 weist ein Fahrassistenzsystem 110 auf, das beispielsweise als ein Steuergerät ausgebildet ist. Zudem sind an dem Auto 100 eine Mehrzahl an Umgebungssensoreinrichtungen 120, 130 angeordnet, wobei es sich beispielhaft um optische Sensoren 120 und Ultraschallsensoren 130 handelt. Die optischen Sensoren 120 umfassen beispielsweise visuelle Kameras, ein Radar und/oder ein Lidar. Die optischen Sensoren 120 können jeweils ein Bild eines jeweiligen Bereichs aus der Umgebung 200 des Autos 100 erfassen und als optisches Sensorsignal ausgeben. Die Ultraschallsensoren 130 sind insbesondere zum Abtasten eines jeweiligen Bereichs 131 - 136 (siehe Fig. 2) der Umgebung 200 eingerichtet. Auf Basis des von den Ultraschallsensoren 130 jeweils ausgegebenen Sensorsignals lassen sich beispielsweise Objekte 210, 211 (siehe Fig. 2 - 5) erfassen und ein Abstand zu den Objekten 210,
211 ermitteln. Aus zeitlich aufeinanderfolgenden Sensorsignalen kann beispielsweise ein Bewegungsvektor VEC (siehe Fig. 3 - 5) eines Objekts 210, 211 ermittelt werden. Mittels den von den Sensoren 120, 130 erfassten Sensorsignalen kann das Fahrassistenzsystem 110 in der Lage sein, das Auto 100 teilautonom oder auch vollautonom zu fahren. Außer den in der Fig. 1 dargestellten optischen Sensoren 120 und Ultraschallsensoren 130 kann vorgesehen sein, dass das Fahrzeug 100 verschiedene weitere Sensoreinrichtungen 120, 130 aufweist. Beispiele hierfür sind ein Mikrofon, ein Beschleunigungssensor, ein Raddrehzahlsensor, ein Radwinkelsensor, ein Lenkwinkelsensor, eine Antenne mit gekoppeltem Empfänger zum Empfangen von elektromagnetisch übertragbarer Datensignale, und dergleichen mehr. Das Fahrassistenzsystem 110 ist beispielsweise wie anhand der Fig. 6 erläutert ausgebildet und dazu eingerichtet, das anhand der Fig. 7 beschriebene Verfahren auszuführen. Vorzugsweise ist das Fahrassistenzsystem 110 ferner dazu eingerichtet, Verarbeitungsprozesse wie nachfolgend anhand der Fig. 2 - 5 beschrieben auszuführen.
Fig. 2 zeigt eine schematische Ansicht unterschiedlicher Abtastbereiche 131 - 136 verschiedener Ultraschallsensoren 130. In diesem Beispiel sind sechs Ultraschallsensoren 130 an einem vorderen Schweller eines Fahrzeugs 100 angeordnet. Das Fahrzeug 100 ist beispielsweise wie anhand der Fig. 1 beschrieben ausgebildet. Jeder Sensor 130 weist einen bestimmten Abtastbereich 131 - 136 auf. Die Form eines jeweiligen Abtastbereichs 131 - 136 hängt von der Anordnung und der Ausrichtung des Ultraschallsensors 130 an dem Fahrzeug 100 ab, aber auch von dem Aufbau des Ultraschallsensors 130. Die Abtastbereiche 131 - 136 können sich zumindest teilweise überlappen, so dass die direkte Umgebung 200 vor dem Schweller des Fahrzeugs 100 vorzugsweise lückenlos erfassbar ist. Die Reichweite eines jeweiligen Ultraschallsensors 130 hängt von dessen Aufbau ab, diese liegt beispielsweise in einem Bereich zwischen fünf Meter bis zehn Meter.
Außer den hier dargestellten sechs Ultraschallsensoren 130, die physisch vorhanden sind, können zusätzliche virtuelle Ultraschallsensoren (nicht dargestellt) vorhanden sein. Ein virtueller Ultraschallsensor basiert beispielsweise darauf, dass ein erster Ultraschallsensor 130 ein Ultraschall-Signal aussendet und ein zweiter Ultraschallsensor 130 eine Reflexion des von dem ersten Ultraschallsensor ausgesandten Ultraschall-Signals empfängt. Ein virtueller Ultraschallsensor weist beispielsweise eine virtuelle Position zwischen zwei physisch vorhandenen Ultraschallsensoren 130 auf.
Es befinden sich zwei Objekte 210, 211 in der Umgebung 200 des Fahrzeugs 100. Ein erstes Objekt 210, beispielsweise ein Radfahrer, befindet sich in den Abtastbereichen 135, 136 von zwei Ultraschallsensoren 130. Der Radfahrer 210 wird daher insbesondere von zwei Ultraschallsensoren erfasst. Zusätzlich kann der Radfahrer wie vorstehend beschrieben von einem virtuellen Ultraschallsensor erfasst werden. Ein zweites Objekt 211, beispielsweise ein Fußgänger, befindet sich in dem Abtastbereich 132 eines einzelnen Ultraschallsensors 130. Der Fußgänger 211 kann aber auch von einem virtuellen Ultraschallsensor wie vorstehend beschrieben erfasst werden.
Zum Ermitteln der Position POS (siehe Fig. 7) und des Bewegungsvektors VEC (siehe Fig. 3 - 5) eines jeweiligen Objekts 210, 211 mittels eines ersten Ermittlungsverfahrens V1 (siehe Fig. 6 oder 7) wird jedem erfassten Objekt 210, 211 ein Kalman-Filter zugeordnet und initialisiert. In diesem Beispiel werden daher zwei Kalman-Filter initialisiert. Ein jeweiliges Kalman- Filter ist dazu eingerichtet, auf Basis der zeitlich nacheinander empfangenen Ultraschallsensorsignale SIG1(t) die Lage des jeweiligen Objekts 210, 211 zu schätzen. Die Lage umfasst hierbei insbesondere die Position POS und den Bewegungsvektor VEC des jeweiligen Objekts 210, 211. Insbesondere werden jedem Kalman-Filter die empfangenen Ultraschallsensorsignale SIG1(t) derjenigen Ultraschallsensoren 130 zugeführt, in deren Abtastbereich 131 - 136 das jeweilige Objekt 210, 211 sich gerade befindet. Damit ist ein genaues und konsistentes Ergebnis und eine exakte Verfolgung der Objekte 210, 211 möglich. Ein zweites Ermittlungsverfahren V2 (siehe Fig. 6 oder 7) kann vorsehen, dass auf Basis der zu einem jeweiligen Zeitpunkt tO - 15 (siehe Fig. 5) empfangenen Anzahl von Sensorsignalen SIG1(t) eine Merkmalserkennung durchgeführt wird und eine digitale Umgebungskarte unter Verwendung von erkannten Merkmalen ermittelt wird.
Fig. 3 zeigt eine schematische Ansicht einer ersten Verkehrssituation, bei der beispielsweise das Fahrzeug 100 der Fig. 1 oder der Fig. 2 auf einer Straße gezeigt ist. Rechts vor dem Fahrzeug 100 ist ein Objekt 210 dargestellt, beispielsweise ein Fußgänger. Es ist weiterhin der Fahrschlauch TR für das Fahrzeug 100 gezeigt. Der Fahrschlauch TR wird beispielsweise durch das Fahrassistenzsystem 110 (siehe Fig. 1 oder 6) auf Basis eines Fahrzustandssensorsignals SIG0(t) (siehe Fig. 6 oder 7), das einen aktuellen Lenkwinkel oder einen aktuellen Radwinkel umfasst, ermittelt. Die Ultraschallsensoren 130 (siehe Fig. 1 oder 2) senden vorzugsweise ständig Ultraschall- Signale aus und erfassen die reflektierten Signale, das heißt, sie tasten ständig ihren jeweiligen Abtastbereich 131 - 136 (siehe Fig. 2) mit Ultraschall-Signalen ab. Beispielsweise erfolgt das Abtasten 10 Mal pro Sekunde, vorzugsweise wenigsten 50 Mal pro Sekunde, bevorzugt wenigstens 100 Mal pro Sekunde. Die Ultraschallsensoren 130 geben mit einer entsprechenden Häufigkeit Ultraschallsensorsignale SIG1(t) (siehe Fig. 6 oder 7) aus, beispielsweise an das Fahrassistenzsystem 110. Auf Basis der Ultraschallsensorsignale kann auf eine Position POS (siehe Fig. 7) des Fußgängers 210 geschlossen werden. Auf Basis von wenigsten zwei zeitlich nacheinander erfassten Ultraschallsensorsignalen SIG(t) lässt sich zudem ein Bewegungsvektor VEC für den Fußgänger 210 ermitteln. Dies erfolgt beispielsweise wie anhand der Fig. 2 beschrieben unter Verwendung eines ersten Ermittlungsverfahrens V1
In der dargestellten Situation bewegt sich der Fußgänger 210 auf den Fahrschlauch TR des Fahrzeugs 100 zu. Der aktuelle Abstand D des Fußgängers 210 von dem Fahrschlauch TR ist ebenfalls dargestellt. Das Fahrassistenzsystem 110 ist dazu eingerichtet, ein Warnsignal in Abhängigkeit von vorbestimmten Kriterien auszugeben. Beispielsweise wird geprüft, ob der Abstand D des Fußgängers 210 von dem aktuellen Fahrschlauch TR (alternativ von dem Fahrzeug 100) kleiner oder gleich einem vorbestimmten Schwellwert ist, oder ob der ermittelte Bewegungsvektor VEC in Richtung zu dem Fahrschlauch TR oder zu dem Fahrzeug 100 weist. Wenn eines oder mehrere dieser Kriterien erfüllt sind, dann wird das Warnsignal ausgegeben, da dann eine Kollision mit dem Fußgänger 210 wahrscheinlich ist, sofern nicht das Fahrzeug 100 angehalten wird oder seine Richtung ändert.
Mit anderen Worten wird das Warnsignal ausgegeben, wenn eine potentielle Kollision des Fahrzeugs 100 mit dem erfassten Objekt 210, 211 auf Basis des zu einem bestimmten Zeitpunkt tO - 15 (siehe Fig. 5) empfangenen Fahrzustandssensorsignals SIG0(t) und der für das erfasste Objekt 210, 211 ermittelten Position POS und seines Bewegungsvektors VEC ermittelt wird. Fig. 4 zeigt eine schematische Ansicht einer zweiten Verkehrssituation, bei der beispielsweise das Fahrzeug 100 der Fig. 1 oder der Fig. 2 auf einer Straße gezeigt ist. Rechts vor dem Fahrzeug 100 ist ein Objekt 210 dargestellt, beispielsweise ein Fußgänger. Es ist weiterhin der Fahrschlauch TR für das Fahrzeug 100 gezeigt. Der Fahrschlauch TR wird beispielsweise durch das Fahrassistenzsystem 110 (siehe Fig. 1 oder 6) auf Basis eines Fahrzustandssensorsignals SIG0(t) (siehe Fig. 6 oder 7), das einen aktuellen Lenkwinkel oder einen aktuellen Radwinkel umfasst, ermittelt.
Auf Basis von Ultraschallsensorsignalen SIG1(t) (siehe Fig. 6 oder 7) werden eine Position POS (siehe Fig. 7) und ein Bewegungsvektor VEC des Fußgängers 210 ermittelt. Zusätzlich wird in diesem Beispiel eine zukünftige Trajektorie TR1 des Fußgängers 210 ermittelt. Flierzu wird beispielsweise die bisherige Trajektorie des Fußgängers 210 extrapoliert. Beispielsweise kann die zukünftige Trajektorie TR1 auf Basis einer spezifischen Ausführungsform des ersten Ermittlungsverfahrens V1, das heißt, unter Verwendung von Kalman-Filtern, ermittelt werden. Zusätzlich und/oder alternativ kann die zukünftige Trajektorie TR1 auf Basis eines dritten Ermittlungsverfahrens ermittelt werden.
Es kann ein kleinster Abstand zwischen dem Fahrschlauch TR und der zukünftigen Trajektorie TR1 ermittelt werden. Wenn dieser Abstand D kleiner als ein vorbestimmter Minimalabstand ist, wird beispielsweise ein Warnsignal ausgegeben.
Fig. 5 zeigt eine schematische Ansicht einer dritten Verkehrssituation zu unterschiedlichen Zeitpunkten tO - 15, wobei beispielsweise das Fahrzeug 100 der Fig. 1 oder der Fig. 2 auf einer Straße gezeigt ist. Zu einem Anfangszeitpunkt tO wird rechts neben dem Fahrzeug 100 ein Objekt 210 ermittelt. Dies erfolgt insbesondere auf Basis von einer Anzahl zu dem Anfangszeitpunkt tO empfangenen Sensorsignalen SIG1 (t) (siehe Fig. 6 oder 7). Zu einem darauffolgenden ersten Zeitpunkt t1 wird eine zweite Anzahl von Sensorsignalen SIG1(t) empfangen. Auf Basis der zweiten Anzahl von Sensorsignalen wird eine aktuelle Position POS (siehe Fig. 7) des Objekts 210(t1) ermittelt. Weiterhin kann auf Basis der ersten Anzahl und der zweiten Anzahl von Sensorsignalen SIG1(t) ein aktueller Bewegungsvektor VEC(t1) zum Zeitpunkt t1 ermittelt werden. Zu einem darauffolgenden zweiten Zeitpunkt t2 wird eine dritte Anzahl von Sensorsignalen SIG1(t) empfangen und es werden eine zum Zeitpunkt t2 aktuelle Position POS des Objekts 210(t2) und ein zum Zeitpunkt t2 aktueller Bewegungsvektor VEC(t2) ermittelt. Zu einem darauffolgenden dritten Zeitpunkt t3 wird eine vierte Anzahl von Sensorsignalen SIG1 (t) empfangen und es werden eine zum Zeitpunkt t3 aktuelle Position POS des Objekts 210(t3) und ein zum Zeitpunkt t3 aktueller Bewegungsvektor VEC(t3) ermittelt. Zu einem darauffolgenden vierten Zeitpunkt t4 wird eine fünfte Anzahl von Sensorsignalen SIG1(t) empfangen und es werden eine zum Zeitpunkt t4 aktuelle Position POS des Objekts 210(t4) und ein zum Zeitpunkt t4 aktueller Bewegungsvektor VEC(t4) ermittelt. Zu einem darauffolgenden fünften Zeitpunkt t5 wird eine sechste Anzahl von Sensorsignalen SIG1(t) empfangen und es werden eine zum Zeitpunkt t5 aktuelle Position POS des Objekts 210(t5) und ein zum Zeitpunkt t5 aktueller Bewegungsvektor VEC(t5) ermittelt. Es kann somit die Bewegung des Objekts 210 zu jedem Zeitpunkt tO - 15 mitverfolgt werden. In Ausführungsformen kann zusätzlich eine Vorhersage der Bewegung des Objekts 210 durchgeführt werden, beispielsweise unter Verwendung von entsprechenden Bewegungsgleichungen.
Das Ermitteln der Position POS und des Bewegungsvektors VEC zu einem jeweiligen Zeitpunkt tO - 15 erfolgt vorzugsweise auf Basis des ersten Ermittlungsverfahrens V1 unter Verwendung eines Kalman-Filters und auf Basis eines weiteren Ermittlungsverfahrens V2 (siehe Fig. 6 oder 7)
Fig. 6 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels für ein Fahrassistenzsystem 110, beispielsweise des Fahrassistenzsystems 110 des Fahrzeugs 100 der Fig.
1. Das Fahrassistenzsystem 110 umfasst eine Empfangseinheit 112 zum Empfangen eines für einen Fahrzustand des Fahrzeugs 100 indikativen Fahrzustandssensorsignals SIG0(t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15 (siehe Fig. 5), und zum Empfangen einer Anzahl von für eine Umgebung 200 (siehe Fig. 1 oder 2) des Fahrzeugs 100 indikativen Sensorsignalen SIG1 (t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15. Das Fahrassistenzsystem 110 umfasst weiterhin eine Erfassungseinheit 114 zum Erfassen einer Anzahl von Objekten 210, 211 (siehe Fig. 2) in der Umgebung 200 des Fahrzeugs 100 in Abhängigkeit von einer ersten Anzahl von Sensorsignalen SIG1(t), die zu einem ersten Zeitpunkt empfangen wurden, eine Ermittlungseinheit 116 zum Ermitteln einer Position POS (siehe Fig. 7) und eines Bewegungsvektors VEC (siehe Fig. 3 - 5) für ein erfasstes Objekt 210, 211 in Abhängigkeit von der ersten Anzahl von Sensorsignalen SIG(t) und einer zweiten Anzahl von Sensorsignalen SIG(t), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren V1, V2, wobei verschiedene Ermittlungsverfahren der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und eine Ausgabeeinheit 118 zum Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs 100 mit dem erfassten Objekt 210, 211 auf Basis des zu einem bestimmten Zeitpunkt tO - 15 empfangenen Fahrzustandssensorsignals SIG0(t) und der für das erfasste Objekt 210, 211 ermittelten Position POS und seines Bewegungsvektors VEC ermittelt wird.
Fig. 7 zeigt ein schematisches Blockschaltbild eines Ausführungsbeispiels eines Verfahrens zum Betreiben eines Fahrassistenzsystems 110, beispielsweise des Fahrassistenzsystems 110 der Fig. 6 oder des Fahrassistenzsystems 110 des Fahrzeugs 100 der Fig. 1. In einem ersten Schritt S1 wird ein für einen Fahrzustand des Fahrzeugs 100 indikatives Fahrzustandssensorsignal SIG0(t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15 (siehe Fig. 5) empfangen. In einem zweiten Schritt S2 wird eine Anzahl von für eine Umgebung 200 (siehe Fig. 1 oder 2) des Fahrzeugs 100 indikativen Sensorsignalen SIG1 (t) zu einer Anzahl unterschiedlicher Zeitpunkte tO - 15 empfangen. In einem dritten Schritt S3 wird eine Anzahl von Objekten 210, 211 (siehe Fig. 2) in der Umgebung 200 des Fahrzeugs 100 in Abhängigkeit von einer ersten Anzahl von Sensorsignalen SIG1(t), die zu einem ersten Zeitpunkt empfangen wurden, erfasst. In einem vierten Schritt S4 wird eine Position POS und ein Bewegungsvektor VEC (siehe Fig. 3 - 5) für ein erfasstes Objekt 210, 211 in Abhängigkeit von der ersten Anzahl von Sensorsignalen SIG1(t) und einer zweiten Anzahl von Sensorsignalen SIG1(t), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren V1, V2 ermittelt, wobei verschiedene Ermittlungsverfahren V1, V2 der Mehrzahl einen unterschiedli- chen Rechenaufwand aufweisen. In einem fünften Schritt S5 wird ein Warnsignal ausgegeben, wenn eine potentielle Kollision des Fahrzeugs 100 mit dem erfassten Objekt 110 auf Basis des zu einem bestimmten Zeitpunkt tO - 15 empfangenen Fahrzustandssensorsignals SIG0(t) und der für das erfasste Objekt 210 ermittelten Position POS und seines Bewe- gungsvektors VEC ermittelt wird.
Obwohl die vorliegende Erfindung anhand von Ausführungsbeispielen beschrieben wurde, ist sie vielfältig modifizierbar.
BEZUGSZEICHENLISTE
100 Fahrzeug 110 Fahrassistenzsystem 112 Empfangseinheit 114 Erfassungseinheit 116 Ermittlungseinheit 118 Ausgabeeinheit 120 Sensor
130 Sensor
131 Abtastbereich
132 Abtastbereich
133 Abtastbereich
134 Abtastbereich
135 Abtastbereich
136 Abtastbereich 200 Umgebung
210 Objekt 210(t0) Objekt 210(t1 ) Objekt 210(t2) Objekt 210(t3) Objekt 210(t4) Objekt 210(t5) Objekt
211 Objekt
D Abstand POS Position S1 Verfahrensschritt
S2 Verfahrensschritt S3 Verfahrensschritt
54 Verfahrensschritt
55 Verfahrensschritt SIGO(t) Fahrzustandssensorsignal SIG1(t) Sensorsignal t Zeit tO Zeitpunkt t1 Zeitpunkt t2 Zeitpunkt t3 Zeitpunkt t4 Zeitpunkt t5 Zeitpunkt TR Fahrschlauch TR1 Trajektorie V1 Ermittlungsverfahren V2 Ermittlungsverfahren VEC Bewegungsvektor VEC(t1) Bewegungsvektor VEC(t2) Bewegungsvektor VEC(t3) Bewegungsvektor VEC(t4) Bewegungsvektor VEC(t5) Bewegungsvektor

Claims

PATENTANSPRÜCHE
1. Verfahren zum Betreiben eines Fahrassistenzsystems (110) für ein Fahrzeug (100), das Verfahren umfassend: a) Empfangen (S1) eines für einen Fahrzustand des Fahrzeugs (100) indikativen Fahrzustandssensorsignals (SIGO(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO - 15), b) Empfangen (S2) einer Anzahl von für eine Umgebung (200) des Fahrzeugs (100) indikativen Sensorsignalen (SIG1(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO — 15), c) Erfassen (S3) einer Anzahl von Objekten (210, 211) in der Umgebung (200) des Fahrzeugs (100) in Abhängigkeit von einer ersten Anzahl von Sensorsignalen (SIG1 (t)), die zu einem ersten Zeitpunkt empfangen wurden, d) Ermitteln (S4) einer Position (POS) und eines Bewegungsvektors (VEC) für ein erfasstes Objekt (210, 211) in Abhängigkeit von der ersten Anzahl von Sensorsignalen (SIG1 (t)) und einer zweiten Anzahl von Sensorsignalen (SIG1(t)), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren (V1, V2), wobei verschiedene Ermittlungsverfahren (V1, V2) der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und e) Ausgeben (S5) eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs (100) mit dem erfassten Objekt (210, 211) auf Basis des zu einem bestimmten Zeitpunkt empfangenen Fahrzustandssensorsignals (SIG0(t)) und der für das erfasste Objekt (210, 211) ermittelten Position (POS) und seines Bewegungsvektors (VEC) ermittelt wird.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Anzahl unterschiedlicher Ermittlungsverfahren (V1, V2) wenigstens ein erstes Ermittlungsverfahren umfasst, bei dem für jedes erfasste Objekt (210, 211) der Anzahl ein Kalman-Filter zugeordnet und initialisiert wird, das zum Ermitteln der Position (POS) sowie des Bewegungsvektors (VEC) des jeweiligen Objekts (210, 211) verwendet wird.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass unterschiedlichen Sensorsignalen (SIG1 (t)) der Anzahl unterschiedliche Abtastbereiche (131 - 136) in der Umgebung (200) zugeordnet sind, wobei ein jeweiliges einem bestimmten Abtastbereich (131 - 136) in der Umgebung (200) zugeordnetes Sensorsignal (SIG1(t)) der zu einem jeweiligen Zeitpunkt empfangenen Anzahl von Sensorsignalen (SIG1(t)) demjenigen Kalman-Filter zugeführt wird, dessen zugeordnetes Objekt (210, 211) eine Position (POS) aufweist, die innerhalb des dem Sensorsignal (SIG1 (t)) zugeordneten Abtastbereichs (131 - 136) liegt.
4. Verfahren nach Anspruch 2 oder 3, dadurch gekennzeichnet, dass das Ausgeben des Warnsignals, wenn eine potentielle Kollision auf Basis der für das jeweilige erfasste Objekt (210, 211) unter Verwendung des ersten Ermittlungsverfahrens (V1) ermittelten Position (POS) und seines Bewegungsvektors (VEC) ermittelt wird, ausschließlich dann erfolgt, wenn der ermittelte Bewegungsvektor (VEC) des Objekts (210, 211) ungleich Null ist.
5. Verfahren nach einem der vorhergehenden Ansprüche, gekennzeichnet durch: Ermitteln eines Fahrschlauchs (TR) für das Fahrzeug (100) in Abhängigkeit des empfangenen Fahrzustandssensorsignals (SIG0(t)).
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass ein Warnsignal nur dann ausgegeben wird, wenn ein Abstand (D) des jeweiligen Objekts (210, 211) zu dem Fahrzeug (100) und/oder zu dem ermittelten Fahrschlauch (TR) kleiner oder gleich einem unteren Schwellwert ist.
7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass ein Warnsignal nur dann ausgegeben wird, wenn der ermittelte Bewegungsvektor (VEC) des jeweiligen Objekts (210, 211) in Richtung zu dem Fahrzeug (100) und/oderzu dem ermittelten Fahrschlauch (TR) weist.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass der Schritt e) umfasst:
Ermitteln einer zukünftigen Trajektorie (TR1) des erfassten Objekts (210, 211) auf Basis der ermittelten Position (POS) und dem Bewegungsvektor (VEC), wobei ein Warnsignal nur dann ausgegeben wird, wenn die ermitelte zukünftige Trajektorie (TR1) an wenigstens einer Position einen vorbestimmten Minimalabstand unterschreitet und/oder einen Schnitpunkt mit dem ermittelten Fahrschlauch (TR) aufweist.
9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die empfangenen Sensorsignale (SIG1(t)) ausschließlich Ultraschallsensorsignale umfassen.
10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anzahl unterschiedlicher Ermitlungsverfahren (V1, V2) wenigstens ein zweites Ermittlungsverfahren umfasst, bei dem auf Basis der zu einem jeweiligen Zeitpunkt (tO - 15) empfangenen Anzahl von Sensorsignalen (SIG1 (t)) eine Merkmalserkennung durchgeführt wird und eine digitale Umgebungskarte unter Verwendung von erkannten Merkmalen ermittelt wird.
11. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren ausschließlich dann durchgeführt wird, wenn das Fahrzeug (100) eine Geschwindigkeit von kleiner oder gleich 15 km/h, vorzugsweise kleiner oder gleich 10 km/h, bevorzugt kleiner oder gleich 7 km/h, weiter bevorzugt kleiner oder gleich 5 km/h aufweist.
12. Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, das Verfahren nach einem der Ansprüche 1 - 11 auszuführen.
13. Fahrassistenzsystem (110) für ein Fahrzeug (100), mit einer Empfangseinheit (112) zum Empfangen eines für einen Fahrzustand des Fahrzeugs (100) indikativen Fahrzustandssensorsignals (SIG0(t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO - 15), und zum Empfangen einer Anzahl von für eine Umgebung (200) des Fahrzeugs (100) indikativen Sensorsignalen (SIG1 (t)) zu einer Anzahl unterschiedlicher Zeitpunkte (tO - 15), einer Erfassungseinheit (114) zum Erfassen einer Anzahl von Objekten (210, 211) in der Umgebung (200) des Fahrzeugs in Abhängigkeit von einer ersten Anzahl von Sensorsignalen (SIG1 (t)), die zu einem ersten Zeitpunkt empfangen wurden, einer Ermittlungseinheit (116) zum Ermitteln einer Position (POS) und eines Bewegungsvektors (VEC) für ein erfasstes Objekt (210) in Abhängigkeit von der ersten Anzahl von Sensorsignalen (SIG1 (t)) und einer zweiten Anzahl von Sensorsignalen (SIG1 (t)), die zu einem zweiten, auf den ersten Zeitpunkt folgenden Zeitpunkt empfangen wurde, unter Verwendung einer Mehrzahl unterschiedlicher Ermittlungsverfahren (V1, V2), wobei verschiedene Ermittlungsverfahren (V1, V2) der Mehrzahl einen unterschiedlichen Rechenaufwand aufweisen, und einer Ausgabeeinheit (118) zum Ausgeben eines Warnsignals, wenn eine potentielle Kollision des Fahrzeugs (100) mit dem erfassten Objekt (210, 211) auf Basis des zu einem bestimmten Zeitpunkt (tO - 15) empfangenen Fahrzustandssensorsignals (SIG0(t)) und der für das erfasste Objekt (210, 211) ermittelten Position (POS) und seines Bewegungsvektors (VEC) ermittelt wird.
14. Fahrzeug (100) mit einer Anzahl von Umgebungssensoreinheiten (120, 130) zum Erfassen einer Umgebung (200) des Fahrzeugs (100) und zum Ausgeben eines jeweiligen Sensorsignals (SIG1(t) und mit einem Fahrassistenzsystem (110) nach Anspruch 13.
15. Fahrzeug nach Anspruch 14, dadurch gekennzeichnet, dass die Umgebungssensoreinheiten (120, 130) ausschließlich Ultraschallsensoren umfassen.
16. Fahrzeug nach Anspruch 14 oder 15, dadurch gekennzeichnet, dass das Fahrzeug (100) eine Masse von über 2,5 Tonnen und/oder eine Länge von über 5 Metern aufweist.
EP22718982.6A 2021-03-30 2022-03-30 Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug Pending EP4314895A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102021107972.1A DE102021107972A1 (de) 2021-03-30 2021-03-30 Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug
PCT/EP2022/058356 WO2022207679A1 (de) 2021-03-30 2022-03-30 Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug

Publications (1)

Publication Number Publication Date
EP4314895A1 true EP4314895A1 (de) 2024-02-07

Family

ID=81387319

Family Applications (1)

Application Number Title Priority Date Filing Date
EP22718982.6A Pending EP4314895A1 (de) 2021-03-30 2022-03-30 Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug

Country Status (7)

Country Link
US (1) US20240194077A1 (de)
EP (1) EP4314895A1 (de)
JP (1) JP2024511664A (de)
KR (1) KR20230164145A (de)
CN (1) CN117157555A (de)
DE (1) DE102021107972A1 (de)
WO (1) WO2022207679A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102023201371A1 (de) 2023-02-17 2024-08-22 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Abstandswarnung für ein Fahrrad

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0952459B1 (de) 1998-04-23 2011-05-25 Volkswagen Aktiengesellschaft Vorrichtung zur Objekterfassung für Kraftfahrzeuge
DE10257842A1 (de) 2002-05-07 2003-11-27 Bosch Gmbh Robert Verfahren zur Bestimmung einer Unfallgefahr eines ersten Objekts mit wenigstens einem zweiten Objekt
DE102006045418A1 (de) 2006-09-26 2008-04-10 GM Global Technology Operations, Inc., Detroit Kraftfahrzeug mit einem Parkassistenzsystem
DE102012214547A1 (de) * 2012-08-16 2014-02-20 Robert Bosch Gmbh Verfahren zur Überwachung eines toten Winkels und Fahrassistenzsystem
DE102017213353A1 (de) 2017-08-02 2019-02-07 Bayerische Motoren Werke Aktiengesellschaft Verifikation einer geplanten Trajektorie eines automatisierten Kraftfahrzeugs
US11789449B2 (en) * 2018-02-09 2023-10-17 Nvidia Corporation Controlling autonomous vehicles using safe arrival times

Also Published As

Publication number Publication date
JP2024511664A (ja) 2024-03-14
CN117157555A (zh) 2023-12-01
DE102021107972A1 (de) 2022-10-06
WO2022207679A1 (de) 2022-10-06
US20240194077A1 (en) 2024-06-13
KR20230164145A (ko) 2023-12-01

Similar Documents

Publication Publication Date Title
EP1475764B1 (de) Verfahren und Vorrichtung zur Ermittlung der Wahrscheinlichkeit für eine Kollision eines Fahrzeugs mit einem Gegenstand
DE102004035842B4 (de) Duales ungleichartiges erfassendes Objektdetektions- und Zielerfassungssystem
DE69426916T2 (de) Fahr-Kontrollanlage für Kraftfahrzeuge
EP1531343B1 (de) Verfahren zur Verfolgung von Objekten
DE102007055799B4 (de) Fahrzeugumgebungsüberwachungsgerät
DE102016100401A1 (de) Verfahren zum Ermitteln einer Falschausrichtung eines Objektsensors
EP3292423B1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE102019108645B4 (de) Verfahren und vorrichtung zur erzeugung von situationswahrnehmungsgrafiken unter verwendung von kameras von verschiedenen fahrzeugen
DE102016106298A1 (de) Fusionsverfahren für eine Querverkehr-Applikation unter Verwenden von Radargeräten und einer Kamera
DE102016106299A1 (de) Raderfassung und ihre Applikation bei Objektverfolgung und Sensorregistrierung
DE102018120789A1 (de) Verfahren und Vorrichtung zur Überwachung eines autonomen Fahrzeugs
EP1731922A1 (de) Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Kraftfahrzeuges
EP1298454A2 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE102020119541A1 (de) Detektieren von fahrzeugbetriebsbedingungen
DE102018109404A1 (de) System und Verfahren zur Bestimmung der Position von Seitenaufprallvermeidungssensoren an einem Fahrzeug
DE102005042989B3 (de) Verfahren zur Erkennung eines bevorstehenden Unfalls aufgrund eines Schleudervorgangs bei einem vorausfahrenden Fahrzeug
EP1306690B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
DE112017000865T5 (de) Abschätzungsvorrichtung
DE102020211970A1 (de) Verfahren zum Steuern eines Fahrzeugs
DE102020127205A1 (de) Verfahren und vorrichtung zur ampelpositionierung und -kartierung unter verwendung von durch menschenmengen (crowd-sensed) erfassten daten
WO2021083464A1 (de) Verfahren zum verfolgen eines entfernten zielfahrzeugs in einem umgebungsbereich eines kraftfahrzeugs mittels einer kollisionserkennungsvorrichtung
DE102021100701A1 (de) Situationsbewusstsein für gleichzeitigen spurwechsel
EP1298012B1 (de) Verfahren zur Erkennung und Verfolgung von Objekten
EP4314895A1 (de) Verfahren zum betreiben eines fahrassistenzsystems, computerprogrammprodukt, fahrassistenzsystem und fahrzeug
DE19828160A1 (de) Verfahren zum automatischen Erkennen der Hauptrichtungsfahrbahn bei einer mehrspurigen Strecke

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20230906

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)