WO2020088857A1 - Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs - Google Patents

Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs Download PDF

Info

Publication number
WO2020088857A1
WO2020088857A1 PCT/EP2019/076053 EP2019076053W WO2020088857A1 WO 2020088857 A1 WO2020088857 A1 WO 2020088857A1 EP 2019076053 W EP2019076053 W EP 2019076053W WO 2020088857 A1 WO2020088857 A1 WO 2020088857A1
Authority
WO
WIPO (PCT)
Prior art keywords
environment detection
detection sensor
vehicle
recognized
expected
Prior art date
Application number
PCT/EP2019/076053
Other languages
English (en)
French (fr)
Inventor
Christoph Gustav KELLER DR.
Holger Mielenz
Original Assignee
Daimler Ag
Robert Bosch Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag, Robert Bosch Gmbh filed Critical Daimler Ag
Priority to CN201980072365.6A priority Critical patent/CN112955775B/zh
Priority to US17/290,370 priority patent/US11787424B2/en
Publication of WO2020088857A1 publication Critical patent/WO2020088857A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • B60W60/00186Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions related to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation

Definitions

  • the invention relates to a method for checking at least one
  • the environment detection system comprises at least two different ones
  • the field of view of the first type of environment sensor does not overlap with the field of view of the second type of environment sensor. Objects in the surroundings of the vehicle are recorded with the first type of environment sensor and with the data of the first
  • Environment sensor types categorized into static and dynamic objects.
  • the relative position of the detected static objects to the vehicle is determined. This position is compared with a position determined using the second type of environment sensor. If there is a deviation above a limit value, an error is concluded.
  • the relative position of the detected static objects is updated after leaving the field of view of the first type of environment sensor, taking into account the movement of the vehicle.
  • a vehicle environment detection unit is described in DE 103 13 002 B4.
  • Environmental information is acquired by means of at least one image sensor.
  • the recorded environmental information is added using a computing unit
  • Image information processed and displayed on a video image display is stored in a buffer.
  • the last captured image is compared with the image information stored in the buffer using an image processing algorithm. In the event of an impermissible deviation of the last captured image from the stored image information, the displayed video image becomes shown changed.
  • Vehicle operating parameters are supplied in order to infer an impermissible deviation in that a deviation of the image information to be expected on the basis of the operating parameters between the times of recording the last captured image and the stored image information cannot be plausibly correlated with the result of a comparison of this image information.
  • the invention is based on the object of specifying a method for checking at least one environmental detection sensor of a vehicle which is improved compared to the prior art.
  • the object is achieved according to the invention by a method for checking at least one environment detection sensor of a vehicle with the features of claim 1.
  • a radar sensor for example a radar sensor, a lidar sensor
  • the vehicle is localized in a digital map, in particular by determining a position of the vehicle and determining a corresponding position in the digital map, according to the invention, in an image acquisition sensor, in particular a video sensor, or an ultrasound sensor.
  • an image acquisition sensor in particular a video sensor, or an ultrasound sensor.
  • features of stationary objects of an environment of the vehicle stored there are identified which are expected to be recognized by the environment detection sensor if it works without errors.
  • the environment of the vehicle is detected with the environment detection sensor.
  • a conclusion is drawn about a degradation of the environment detection sensor if the features to be recognized as expected are not recognized by the environment detection sensor or if features actually recognized by the environment detection sensor deviate greatly from the features to be recognized as expected. I.e. if the
  • Environment detection sensor recognizes features, the features to be recognized as expected are compared with these features actually recognized by the environment detection sensor. If the features to be recognized as expected match these features actually recognized by the environment detection sensor or at least there is no excessive deviation between the features to be recognized as expected and the features actually recognized by the environment detection sensor, no degradation of the environment detection sensor is determined. But when the environment detection sensor does not recognize any features or if the features actually recognized by the environment detection sensor in this comparison do not match the features to be recognized as expected and there is a strong, in particular too strong, deviation, the degradation of the
  • Environment detection sensor closed.
  • a large deviation, in particular a deviation that is too great, is present in particular if the deviation exceeds a predetermined tolerance range. I.e. If the features actually recognized by the environment detection sensor do not agree with the features to be recognized as expected, but the deviation between the features actually recognized by the environment detection sensor and the features to be recognized as expected is not too great, in particular lies within the predetermined tolerance range, there will be no degradation of the environment detection sensor recognized.
  • a degradation of the environment detection sensor is inferred if an expected distance between the vehicle and one of the objects stored in the map deviates from a determined actual distance by more than a predetermined distance threshold.
  • the distance between the vehicle and an object represents the feature of the object to be considered.
  • the expected distance of an object is determined from the digital map as the feature of the object to be recognized as expected and the actual distance is determined as an actually recognized feature by means of the environment detection sensor determined.
  • the contour of a certain object for example a tree, is at a certain distance from a given location with a known scatter, e.g. 50 m +/- 0.1 5 m, and if the determined distance is currently 45 m +/- 1, 2 m, or the object is not at all
  • Classification of an object recognizes a classification type of the object.
  • the classification type of an object represents the characteristic of this object to be considered.
  • the recognized classification types of the objects are in agreement with expected classification types, the expected features of the objects, checked. It is due to a degradation of the environment detection sensor
  • the classification rate specifies how high the proportion of matches between the determined and expected classification types is.
  • a degradation of the environment detection sensor is concluded if the classification shows that a detected object is a right-of-way sign and if the determined classification rate shows that the probability that the object is a right-of-way sign is less than 87%.
  • the method according to the invention thus enables the degradation of the at least one environment detection sensor of the vehicle to be determined.
  • This method is particularly advantageous for automated vehicles, for example shuttle, robotaxis or other vehicles. If there is a degradation of at least one
  • Vehicle comprising the at least one environment detection sensor or
  • a speed of the vehicle can be reduced, ie the speed is adapted in particular to the reduced detection range. This applies, for example, to a current speed and / or a maximum permissible speed for the vehicle.
  • the vehicle is parked, for example in a safe manner on a lane edge or next to the lane or on a parking space or parking lot or in an emergency stop bay or in another safe place where the vehicle in particular poses no danger to other road users represents brought to a standstill, especially in an automated vehicle.
  • the vehicle driver can, alternatively or additionally, be informed of the degradation of the environment detection sensor so that he can take over the vehicle guidance, for example. Then, for example, autonomous or automated ferry operation is not possible, but manual ferry operation by the vehicle driver is still possible.
  • a teleoperator ie in particular a person outside the vehicle with remote access to the
  • Vehicle in particular on control and / or regulating devices of the
  • the method according to the invention can thus be potentially dangerous
  • the degradation of the environment detection sensor is advantageously not inferred if it is determined that, due to a concealment by at least one dynamic object, the features to be recognized as expected do not differ from the
  • Environment detection sensor are recognized or due to a covering by at least one dynamic object, the features actually recognized by the environment detection sensor deviate greatly from the features to be recognized as expected. In this way, incorrect detection of degradation due to visual obscuration by dynamic objects is avoided.
  • the features of stored stationary objects of the surroundings of the vehicle which are expected to be from the
  • Environment detection sensor can be identified by means of sensor-specific detection information stored in the digital map in the digital map. Alternatively or additionally, the characteristics of stored stationary objects of the Environment of the vehicle that is expected to be from
  • Environment detection sensor are identified in the digital map by calculating an expected recognizability, in particular by means of at least one ray tracing method based on a three-dimensional model of the digital map.
  • Ray tracing or ray tracing is an algorithm based on the emission of rays for calculating occlusion, i.e. for determining the visibility of three-dimensional objects from a certain point in space.
  • the method can be used for one of the environment detection sensors, for several of the
  • Environment detection sensors or for all environment detection sensors are carried out, for example simultaneously or in succession.
  • the method is carried out for that environment detection sensor or for those environment detection sensors by means of which / which features of stationary objects of the surroundings of the vehicle stored in the digital map can be recognized.
  • Fig. 1 shows schematically an example of an environment detection using a
  • FIG. 2 schematically shows another example of an environment detection by means of a
  • the vehicle 2 is located on a digital map, in particular by determining a position of the vehicle 2 and determining a corresponding position in the digital map.
  • the digital map features of stationary objects 3 of an environment of the vehicle 2 stored there are identified, which are expected to be recognized by the environment detection sensor 1 if the latter works correctly.
  • the environment of the vehicle 2 is detected with the environment detection sensor 1. It is concluded that the environment detection sensor 1 is degraded when the
  • the environment detection sensor detects 1 features
  • Environment detection sensor 1 detected. However, if the environment detection sensor 1 does not recognize any features or if the features actually recognized by the environment detection sensor 1 do not match the expected features to be recognized in this comparison and there is a strong, in particular too great, deviation, the degradation of the environment detection sensor 1 is inferred.
  • a large deviation, in particular a deviation that is too great, is present in particular if the deviation exceeds a predetermined tolerance range. I.e. If the features actually recognized by the environment detection sensor 1 do not coincide with the features to be recognized as expected, but the deviation between the features actually recognized by the environment detection sensor 1 and the features to be recognized as expected is not too great, in particular lies within the predetermined tolerance range, no degradation occurs of
  • the threshold value for a tolerance measure can be derived, for example, from safety requirements, according to which, for example, the distance measured value must not exceed a predetermined error or the classification rate of a sensor in the sensor network must not fall below a predetermined threshold value.
  • the method enables an automated vehicle 2, for example a shuttle or robot taxi, to determine whether an environment detection sensor system comprising the at least one environment detection sensor 1 or more or the same
  • a performance reduction d. H. a reduction in performance.
  • Infrastructure objects d. H. stationary objects 3, for example building G and / or vegetation, for example in the form of bushes B, as shown in FIGS. 1 and 2, at which point should be recognized. Should one or more of the expected stationary objects 3, in particular their features, be by means of the respective
  • Environment detection sensor 1 cannot be determined, and should this not be justifiable by obscuring the view, in particular by further dynamic objects, is due to a performance degradation, i. H. to assume a degradation of the respective environment detection sensor 1.
  • FIG. 2 shows an example of an atmospheric influence, i. H. an atmospheric disturbance 5 of the environment detection sensor 1.
  • Environment detection sensor 1 or a few environment detection sensors 1 remain limited. That is, A mechanical influence can be inferred in particular if one or more environment detection sensors 1 of the vehicle 2 have a degradation and one or more other environment detection sensors 1 of the vehicle 2, which are designed in the same way as the environment detection sensors 1 which have the degradation, and / or should also be affected by an atmospheric degradation, show no degradation. Such a determination of whether the respective degradation is atmospheric or mechanical can be advantageous, because an atmospheric one
  • Degradation changes with the change in the atmospheric conditions, so that there is no longer any degradation of the environment detection sensor 1 when the atmospheric conditions improve again.
  • a mechanical degradation for example as a result of damage to the environment detection sensor 1 and / or an area of the vehicle 2 in which it is installed, does not improve of its own accord, but instead requires, for example, repair or replacement or replacement
  • this does not take place. H. It is not coded via the digital map which environment detection sensor 1 has to recognize the stationary object 3 and its features or which one in the digital map
  • Environment detection sensor 1 actively calculated, for example by means of one or more ray tracing methods using a three-dimensional model of the digital map.
  • the features of stored stationary objects 3 of the surroundings of the vehicle 2, which are expected to be recognized by the environment detection sensor 1, are thus calculated by calculating an expected detectability, in particular by means of at least one
  • the system ie the vehicle 2 reacts. in particular a system for carrying out the automated ferry operation of vehicle 2, advantageously with adequate behavior.
  • the visibility range, ie the detection range, of the respective environment detection sensor 1 checked is reduced, it advantageously becomes a maximum
  • Vehicle 2 speed reduced Alternatively or additionally, this can be done
  • Vehicle 2 in such a fault i. H. if a degradation of the respective checked environment detection sensor 1 is detected, for example, can also be actively switched off.
  • the vehicle 2 for example, drives automatically to a suitable position, for example on a roadside, in a lane, in an emergency stop or in a parking lot, and is parked there.
  • Procedure, d. H. whether, in what form, at what speed and how far the vehicle 2, in particular automated, continues to travel depends in particular on the extent of the determined degradation of the respective environment detection sensor 1 and on how many and which environment detection sensors 1 of the vehicle 2 have such a degradation .
  • Environment detection sensor 1 can be provided, for example, that a teleoperator, i. H. a person who is not in the vehicle 2 or in the immediate vicinity of the vehicle 2, but has remote access to the vehicle 2, in particular to control and / or regulating devices of the vehicle 2, has a current sensor performance, i. H. Performance, the respective environment detection sensor 1, for which a degradation was determined by the check, evaluated and initiated further steps accordingly, for example reducing the maximum speed of the vehicle 2, changing a route of the vehicle 2 and / or that
  • a teleoperator i. H. a person who is not in the vehicle 2 or in the immediate vicinity of the vehicle 2, but has remote access to the vehicle 2, in particular to control and / or regulating devices of the vehicle 2
  • a current sensor performance i. H. Performance
  • Park vehicle 2 in particular at a suitable parking position, or cause this.
  • the method can thus be used to detect potentially dangerous situations, for example no or too late detection of dynamic objects and stationary ones
  • Objects 3 in the environment of the vehicle 2 can be avoided by undetected performance drops in the environment detection, ie by an undetected reduction in performance of one or more environment detection sensors 1 of the vehicle 2.
  • an error case due to a degradation of one or more environment detection sensors 1 of the vehicle 2 can be recognized and thereupon supportive system reactions are initiated, for example a slower drive up to an emergency stop.
  • FIGS. 1 and 2 each show a viewing area, i. H. one
  • Detection area 4 at least one environment detection sensor 1 of the
  • the environment detection sensor system comprises, for example, one or more video, lidar and / or radar systems.
  • the environment detection sensor 1 to be checked by means of the method is thus, for example, a video, lidar or radar sensor.
  • the digital map stores which stationary objects 3 in the vicinity of the
  • Vehicle 2 with the respective sensors, d. H. with the respective environment detection sensor 1 to be checked can be detected from a respective current position of the vehicle 2.
  • this environment detection sensor 1 detects as features a flank of the stationary object 3 designed as building G and a respective contour of two stationary objects 3 designed as bushes B, whereby their detection is confirmed in accordance with expectations. In the example according to FIG. 1, it is therefore not concluded that the environment detection sensor 1 of the vehicle 2 has been checked by means of the method.
  • the detection area 4 of this environment detection sensor 1 to be checked is also referred to as the field of view.
  • Detection area 4 is impaired by an atmospheric disturbance 5, schematically represented by a cloud, i. H. there is an atmospheric degradation of the environment detection sensor 1.
  • the environment detection sensor 1 detects as a feature the flank of the stationary object 3 designed as building G, but due to a change in reflection due to atmospheric disturbance 5 and / or due to atmospheric disturbance 5, the reflectance conditions changed in the digital map as bushes B recorded stationary objects 3, in particular their contours as their characteristics, are no longer perceived by the environment detection sensor 1 at a predetermined, in particular ideal, distance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors (1) eines Fahrzeugs (2). Erfindungsgemäß wird das Fahrzeug (2) in einer digitalen Karte lokalisiert, in der digitalen Karte werden Merkmale von hinterlegten stationären Objekten (3) einer Umgebung des Fahrzeugs (2) identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, und die Umgebung des Fahrzeugs (2) wird mit dem Umfelderfassungssensor (1) erfasst, wobei auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor (1) erkannt werden oder wenn vom Umfelderfassungssensor (1) tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.

Description

Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
Die Erfindung betrifft ein Verfahren zur Überprüfung mindestens eines
Umfelderfassungssensors eines Fahrzeugs.
Aus dem Stand der Technik ist, wie in der DE 10 2013 206 707 A1 beschrieben, ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bekannt. Das Umfelderfassungssystem umfasst mindestens zwei verschiedene
Umfeldsensortypen. Der Sichtbereich des ersten Umfeldsensortyps überlappt nicht mit dem Sichtbereich des zweiten Umfeldsensortyps. Objekte im Umfeld des Fahrzeugs werden mit dem ersten Umfeldsensortyp erfasst und mit den Daten des ersten
Umfeldsensortyps in statische und dynamische Objekte kategorisiert. Die relative Position der erfassten statischen Objekte zum Fahrzeug wird bestimmt. Diese Position wird mit einer über den zweiten Umfeldsensortyp ermittelten Position verglichen. Bei einer Abweichung über einem Grenzwert wird auf einen Fehler geschlossen. Die relative Position der erfassten statischen Objekte wird nach dem Verlassen des Sichtbereichs des ersten Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert.
In der DE 103 13 002 B4 wird eine Fahrzeugumgebungserfassungseinheit beschrieben. Mittels wenigstens eines Bildsensors werden Umgebungsinformationen erfasst. Die erfassten Umgebungsinformationen werden mittels einer Recheneinheit zu
Bildinformationen verarbeitet und auf einer Videobildanzeige dargestellt. Zusätzlich werden die Bildinformationen in einem Zwischenspeicher abgelegt. Das zuletzt erfasste Bild wird mit den im Zwischenspeicher abgelegten Bildinformationen anhand einer Bildverarbeitungsalgorithmik verglichen. Bei einer unzulässigen Abweichung des zuletzt erfassten Bildes von den abgelegten Bildinformationen wird das angezeigte Videobild verändert dargestellt. Der Fahrzeugumgebungserfassungseinheit werden
Fahrzeug-Betriebsparameter zugeführt, um auf eine unzulässige Abweichung dadurch zu schließen, dass sich eine aufgrund der Betriebsparameter zu erwartende Abweichung der Bildinformationen zwischen den Zeitpunkten der Aufnahme des zuletzt erfassten Bildes und der abgelegten Bildinformationen nicht plausibel mit dem Ergebnis eines Vergleichs dieser Bildinformationen korrelieren lässt.
Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs anzugeben.
Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs mit den Merkmalen des Anspruchs 1.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
In einem Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs, beispielsweise eines Radarsensors, eines Lidarsensors, eines
Bilderfassungssensors, insbesondere Videosensors, oder eines Ultraschallsensors, wird erfindungsgemäß das Fahrzeug in einer digitalen Karte lokalisiert, insbesondere indem eine Position des Fahrzeugs ermittelt wird und eine entsprechende Position in der digitalen Karte ermittelt wird. In der digitalen Karte werden Merkmale von dort hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden, wenn dieser fehlerfrei arbeitet. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen. D. h. wenn der
Umfelderfassungssensor Merkmale erkennt, so werden die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen verglichen. Wenn die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des Umfelderfassungssensors festgestellt. Wenn jedoch der Umfelderfassungssensor keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des
Umfelderfassungssensors geschlossen. Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. D. h. wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des Umfelderfassungssensors erkannt.
In einer vorteilhaften Ausgestaltung des Verfahrens wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn ein erwarteter Abstand zwischen dem Fahrzeug und einem der in der Karte hinterlegten Objekte von einem ermittelten tatsächlichen Abstand um mehr als einen vorgegebenen Abstandsschwellwert abweicht.
In diesem Fall stellt der Abstand zwischen dem Fahrzeug und einem Objekt das zu betrachtende Merkmal des Objekts dar. Der erwartete Abstand eines Objekts wird aus der digitalen Karte als erwartungsgemäß zu erkennendes Merkmal des Objekts ermittelt und der tatsächliche Abstand wird mittels des Umfelderfassungssensors als tatsächlich erkanntes Merkmal ermittelt.
Sollte beispielsweise bekannt sein, dass die Kontur eines bestimmten Objektes, beispielsweise eines Baums, an einem gegebenen Ort einen gewissen Abstands mit einer bekannten Streuung aufweist, z.B. 50 m +/- 0,1 5 m, und sollte der ermittelte Abstand aktuell aber beispielsweise bei 45 m +/- 1 ,2m liegen, oder das Objekt gar nicht
wahrgenommen werden, kann auf eine Degradation des Umfelderfassungssensors geschlossen werden.
In einer weiteren vorteilhaften Ausgestaltung des Verfahrens wird anhand von
Sensordaten des Umfelderfassungssensors, vorteilhafterweise auch unter
Berücksichtigung von Sensordaten weiterer Sensoren, eine Klassifikation von Objekten vorgenommen, die mit dem Umfelderfassungssensor erfasst werden. Durch die
Klassifikation eines Objekts wird ein Klassifikationstyp des Objekts erkannt. In diesem Fall stellt der Klassifikationstyp eines Objekts das zu betrachtende Merkmal dieses Objekts dar. Die erkannten Klassifikationstypen der Objekte werden auf Übereinstimmung mit erwarteten Klassifikationstypen, den erwartungsgemäß zu erkennenden Merkmalen der Objekte, geprüft. Es wird auf eine Degradation des Umfelderfassungssensors
geschlossen, wenn eine ermittelte Klassifikationsrate geringer ist als ein vorgegebener Klassifikationsschwellwert Die Klassifikationsrate gibt dabei an, wie hoch der Anteil der Übereinstimmungen zwischen den ermittelten und erwarteten Klassifikationstypen ist.
Beispielsweise wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die Klassifikation ergibt, dass ein erfasstes Objekt ein Vorfahrtszeichen ist und wenn sich aus der ermittelten Klassifikationsrate ergibt, dass die Wahrscheinlichkeit, dass das Objekt ein Vorfahrtszeichen ist, kleiner als 87% ist.
Das erfindungsgemäße Verfahren ermöglicht somit eine Ermittlung der Degradation des mindestens einen Umfelderfassungssensors des Fahrzeugs. Dieses Verfahren ist besonders vorteilhaft für automatisiert fahrende Fahrzeuge, beispielsweise Shuttle, Robotaxis oder andere Fahrzeuge. Wird eine Degradation des mindestens einen
Umfelderfassungssensors ermittelt, wodurch eine Umfelderfassungssensorik des
Fahrzeugs, umfassend den mindestens einen Umfelderfassungssensor oder
beispielsweise mehrere gleiche oder unterschiedliche Umfelderfassungssensoren, eine entsprechende Reduktion ihrer Leistungsfähigkeit aufweist, kann, beispielsweise in einem Verfahren zur Durchführung eines automatisierten und/oder autonomen Fährbetrieb des Fahrzeugs, eine entsprechende Reaktion, insbesondere zur Vermeidung von gefährlichen Situationen, eingeleitet werden. Beispielsweise kann, insbesondere bei einer Reduktion einer Erfassungsreichweite des mindestens einen Umfelderfassungssensors aufgrund der erkannten Degradation, eine Geschwindigkeit des Fahrzeugs reduziert werden, d. h. die Geschwindigkeit wird insbesondere an die verringerte Erfassungsreichweite angepasst. Dies betrifft beispielsweise eine aktuelle Geschwindigkeit und/oder eine für das Fahrzeug maximal zulässige Geschwindigkeit. Alternativ wird das Fahrzeug bei einer erkannten Degradation des Umfelderfassungssensors abgestellt, beispielsweise auf sichere Weise an einem Fahrbahnrand oder neben der Fahrbahn oder auf einem Abstellplatz oder Parkplatz oder in einer Nothaltebucht oder auf einem anderen verkehrssicheren Platz, an welchem das Fahrzeug insbesondere keine Gefahr für andere Verkehrsteilnehmer darstellt, zum Stillstand gebracht, insbesondere bei einem automatisiert fahrenden Fahrzeug. Ist ein Fahrzeugführer im Fahrzeug anwesend, so kann, alternativ oder zusätzlich, der Fahrzeugführer auf die Degradation des Umfelderfassungssensors hingewiesen werden, so dass er beispielsweise die Fahrzeugführung übernehmen kann. Es ist dann beispielsweise kein autonomer oder automatisierter Fährbetrieb möglich, jedoch noch ein manueller Fährbetrieb durch den Fahrzeugführer. Bei einem automatisiert oder autonom fahrenden Fahrzeug, insbesondere wenn kein Fahrzeugführer im Fahrzeug anwesend ist, kann, alternativ oder zusätzlich, vorgesehen sein, dass ein Teleoperator, d. h. insbesondere eine Person außerhalb des Fahrzeugs mit Fernzugriff auf das
Fahrzeug, insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des
Fahrzeugs, die ermittelte Degradation und daraus resultierende verbleibende
Leistungsfähigkeit des Umfelderfassungssensors bewerten und daraufhin weitere Schritte veranlassen, beispielsweise die oben bereits beschriebenen Schritte, zum Beispiel die Reduzierung der aktuellen und/oder maximal zulässigen Geschwindigkeit des Fahrzeugs und/oder das Abstellen des Fahrzeugs auf die oben beschriebene Weise.
Mittels des erfindungsgemäßen Verfahrens können somit potentiell gefährliche
Situationen vermieden werden, welche durch nicht erkannte Leistungsfähigkeitseinbrüche des mindestens einen Umfelderfassungssensors auftreten könnten, beispielsweise gefährliche Situationen durch keine oder eine zu späte Erfassung von Objekten im Umfeld des Fahrzeugs. Mittels des erfindungsgemäßen Verfahrens wird der Fehlerfall der Degradation des mindestens einen Umfelderfassungssensors erkannt und es kann eine unterstützende Reaktion eingeleitet werden, beispielsweise eine langsamere Fahrt oder ein Nothalt des Fahrzeugs.
Vorteilhafterweise wird nicht auf die Degradation des Umfelderfassungssensors geschlossen, wenn ermittelt wird, dass aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die erwartungsgemäß zu erkennenden Merkmale nicht vom
Umfelderfassungssensor erkannt werden oder aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die vom Umfelderfassungssensor tatsächlich erkannten Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen. Auf diese Weise wird eine fehlerhafte Degradationserkennung aufgrund einer Sichtverdeckung durch dynamische Objekte vermieden.
In einer möglichen Ausführungsform werden die Merkmale von hinterlegten stationären Objekten der Umgebung des Fahrzeugs, von denen erwartet wird, dass sie vom
Umfelderfassungssensor erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert. Alternativ oder zusätzlich werden die Merkmale von hinterlegten stationären Objekten der Umgebung des Fahrzeugs, von denen erwartet wird, dass sie vom
Umfelderfassungssensor erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit, insbesondere mittels mindestens eines Raytracing-Verfahrens anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert. Raytracing, d. h. Strahlverfolgung oder Strahlenverfolgung, ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten von einem bestimmten Punkt im Raum aus.
Weist das Fahrzeug, insbesondere eine Umfelderfassungssensorik des Fahrzeugs, mehrere, beispielsweise gleiche oder unterschiedliche, Umfelderfassungssensoren auf, so kann das Verfahren für einen der Umfelderfassungssensoren, für mehrere der
Umfelderfassungssensoren oder für alle Umfelderfassungssensoren durchgeführt werden, beispielsweise gleichzeitig oder nacheinander. Insbesondere wird das Verfahren für denjenigen Umfelderfassungssensor oder für diejenigen Umfelderfassungssensoren durchgeführt, mittels welchem/welchen Merkmale von in der digitalen Karte hinterlegten stationären Objekten der Umgebung des Fahrzeugs erkannt werden können.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
Dabei zeigen:
Fig. 1 schematisch ein Beispiel einer Umfelderfassung mittels eines
Umfelderfassungssensors eines Fahrzeugs, und
Fig. 2 schematisch ein weiteres Beispiel einer Umfelderfassung mittels eines
Umfelderfassungssensors eines Fahrzeugs.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
Anhand der Figuren 1 und 2, welche beispielhaft eine Umfelderfassung mittels eines Umfelderfassungssensors 1 eines Fahrzeugs 2 zeigen, wird im Folgenden ein Verfahren zur Überprüfung des mindestens einen Umfelderfassungssensors 1 des Fahrzeugs 2 beschrieben. In diesem Verfahren wird das Fahrzeug 2 in einer digitalen Karte lokalisiert, insbesondere indem eine Position des Fahrzeugs 2 ermittelt wird und eine entsprechende Position in der digitalen Karte ermittelt wird. In der digitalen Karte werden Merkmale von dort hinterlegten stationären Objekten 3 einer Umgebung des Fahrzeugs 2 identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, wenn dieser fehlerfrei arbeitet.
Die Umgebung des Fahrzeugs 2 wird mit dem Umfelderfassungssensor 1 erfasst. Es wird auf eine Degradation des Umfelderfassungssensors 1 geschlossen, wenn die
erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor 1 erkannt werden oder wenn vom Umfelderfassungssensor 1 tatsächlich erkannte
Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
D. h. wenn der Umfelderfassungssensor 1 Merkmale erkennt, so werden die
erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen verglichen. Wenn die erwartungsgemäß zu
erkennenden Merkmale mit diesen vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des
Umfelderfassungssensors 1 festgestellt. Wenn jedoch der Umfelderfassungssensor 1 keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors 1 geschlossen.
Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. D. h. wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des
Umfelderfassungssensors 1 erkannt. Der Schwellwert für ein Toleranzmaß kann z.B. über Sicherheitsanforderungen abgeleitet werden, wonach z.B. der Abstandmesswert einen vorgegebenen Fehler nicht überschreiten darf oder die Klassifikationsrate eines Sensors im Sensorverbund einen vorgegebenen Schwellwert nicht unterschreiten darf. Das Verfahren ermöglicht es einem automatisiert fahrenden Fahrzeug 2, beispielsweise einem Shuttle oder Robotaxi, zu ermitteln, ob eine Umfelderfassungssensorik, umfassend den mindestens einen Umfelderfassungssensor 1 oder mehrere gleiche oder
umterschiedliche Umfelderfassungssensoren 1 , eine Performancereduktion, d. h. eine Reduktion einer Leistungsfähigkeit, aufweist. Im Falle einer erkannten
Performancereduktion kann eine erweiterte Systemreaktion des Fahrzeugs 2 zur
Vermeidung von gefährlichen Situationen eingeleitet werden.
Der Kern des Verfahrens besteht darin, dass für im Fahrzeug 2 vorhandene
Sensortechnologien, d. h. für den jeweiligen Umfelderfassungssensor 1 , welcher mittels des Verfahrens überprüft werden soll, zu jedem Zeitpunkt bekannt ist, welche
Infrastrukturobjekte, d. h. stationäre Objekte 3, zum Beispiel Gebäude G und/oder Vegetation, beispielsweise in Form von Büschen B, wie in den Figuren 1 und 2 gezeigt, an welcher Stelle erkannt werden müssten. Sollten eines oder mehrere der erwarteten stationären Objekte 3, insbesondere deren Merkmale, mittels des jeweiligen
Umfelderfassungssensors 1 nicht ermittelt werden können und sollte dies nicht durch eine Sichtverdeckung, insbesondere durch weitere dynamische Objekte, begründet werden können, ist von einer Performancedegradation, d. h. von einer Degradation des jeweiligen Umfelderfassungssensors 1 , auszugehen.
Eine solche Degradation kann beispielsweise durch atmosphärische Einflüsse, zum Beispiel durch Nebel und/oder Regen und/oder Schnee, und/oder durch mechanische Einflüsse erfolgen. Figur 2 zeigt ein Beispiel eines atmosphärischen Einflusses, d. h. einer atmosphärischen Störung 5 des Umfelderfassungssensors 1.
Das Verfahren lässt diesbezüglich Hinweise auf die jeweilige Ursache zu. So zeichnen sich atmosphärische Einflüsse systematisch in allen betroffenen
Umfelderfassungssensoren 1 der für solche atomsphärischen Einflüsse empfindlichen Technologien aus, wohingegen mechanische Einflüsse auf einen
Umfelderfassungssensor 1 oder wenige Umfelderfassungsensoren 1 beschränkt bleiben. D. h. auf einen mechanischen Einfluss kann insbesondere dann geschlossen werden, wenn einer oder mehrere Umfelderfassungsensoren 1 des Fahrzeugs 2 eine Degradation aufweisen und ein oder mehrere andere Umfelderfassungsensoren 1 des Fahrzeugs 2, welche auf gleiche Weise ausgebildet sind wie die Umfelderfassungsensoren 1 , die die Degradation aufweisen, und/oder von einer atmosphärisch bedingten Degradation ebenfalls betroffen sein müssten, keine Degradation aufweisen. Eine solche Ermittlung, ob die jeweils vorliegende Degradation atmosphärisch oder mechanisch bedingt ist, kann vorteilhaft sein, denn eine atmosphärisch bedingte
Degradation verändert sich mit der Veränderung der atmosphärischen Bedingungen, so dass bei wieder verbesserten atmosphärischen Bedingungen keine Degradation des Umfelderfassungssensors 1 mehr vorliegt. Eine mechanische Degradation, beispielsweise aufgrund einer Beschädigung des Umfelderfassungssensors 1 und/oder eines Bereichs des Fahrzeugs 2, in welchem dieser installiert ist, verbessert sich nicht von selbst, sondern bedarf beispielsweise einer Reparatur oder eines Austausche oder einer
Justierung und/oder Kalibrierung des Umfelderfassungssensors 1.
In einer möglichen Ausführungsform des Verfahrens werden die Merkmale von
hinterlegten stationären Objekten 3 der Umgebung des Fahrzeugs 2, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert werden. Die stationären Objekte 3 und deren Merkmale sind somit
sensorspezifisch in der digitalen Karte kodiert, so dass aus der digitalen Karte direkt ausgelesen werden kann, welche stationären Objekte 3 und deren entsprechende Merkmale der jeweilige Umfelderfassungssensor 1 erkennen muss.
In einer weiteren Ausführungsform des Verfahrens erfolgt dies nicht, d. h. es wird nicht über die digitale Karte kodiert, welcher Umfelderfassungssensor 1 das stationäre Objekt 3 und dessen Merkmale zu erkennen hat bzw. welches der in der digitalen Karte
verzeichneten stationären Objekte 3 und dessen Merkmale der jeweilige zu prüfende Umfelderfassungssensor 1 zu erkennen hat, sondern eine zu erwartete Sichtbarkeit eines jeden stationären Objektes 3 und dessen Merkmalen werden zu jedem Zeitpunkt für die jeweilige Sensortechnologie, d. h. für den jeweiligen zu prüfenden
Umfelderfassungssensor 1 , aktiv berechnet, zum Beispiel mittels eines oder mehrerer Raytracing-Verfahren anhand eines dreidimensionalen Modells der digitalen Karte. Bei dieser Ausführungsform des Verfahrens werden somit die Merkmale von hinterlegten stationären Objekten 3 der Umgebung des Fahrzeugs 2, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit, insbesondere mittels mindestens eines
Raytracing-Verfahrens anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert.
Wird eine Performancedegradation, d. h. eine Degradation des jeweiligen überprüften Umfelderfassungssensors 1 , erkannt, reagiert das System, d. h. das Fahrzeug 2, insbesondere ein System zur Durchführung des automatisierten Fährbetriebs des Fahrzeugs 2, vorteilhafterweise mit einem adäquaten Verhalten. So wird zum Beispiel bei einer Reduktion einer Sichtweite, d. h. einer Erfassungsreichweite, des jeweiligen überprüften Umfelderfassungssensors 1 vorteilhafterweise eine maximale
Geschwindigkeit des Fahrzeugs 2 reduziert. Alternativ oder zusätzlich kann das
Fahrzeug 2 in einem solchen Fehlerfall, d. h. bei einer erkannten Degradation des jeweiligen überprüften Umfelderfassungssensors 1 , beispielsweise auch aktiv abgestellt werden. In diesem Fall fährt das Fahrzeug 2 beispielsweise automatisiert zu einer geeigneten Position, beispielsweise an einen Fahrbahnrand, auf eine Standspur, in eine Nothaltebucht oder auf einen Parkplatz, und wird dort abgestellt. Die jeweilige
Vorgehensweise, d. h. ob, in welcher Form, mit welcher Geschwindigkeit und wie weit das Fahrzeug 2, insbesondere automatisiert, noch weiterfährt, hängt insbesondere von einem Ausmaß der ermittelten Degradation des jeweiligen Umfelderfassungssensors 1 ab und davon, wieviele und welche Umfelderfassungssensoren 1 des Fahrzeugs 2 eine solche Degradation aufweisen.
Alternativ oder zusätzlich zu einer solchen insbesondere automatischen Reaktion des Fahrzeugs 2 auf die erkannte Degradation des jeweiligen überprüften
Umfelderfassungssensors 1 kann beispielsweise vorgesehen sein, dass ein Teleoperator, d. h. eine Person, welche sich nicht im Fahrzeug 2 oder in unmittelbarer Nähe zum Fahrzeug 2 befindet, sondern einen Fernzugriff auf das Fahrzeug 2, insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des Fahrzeugs 2, hat, eine aktuelle Sensorperformance, d. h. Leistungsfähigkeit, des jeweiligen Umfelderfassungssensors 1 , für welchen durch die Überprüfung eine Degradation festgestellt wurde, bewertet und entsprechend weitere Schritte veranlasst, beispielsweise die maximale Geschwindigkeit des Fahrzeugs 2 reduziert, eine Fahrtroute des Fahrzeugs 2 ändert und/oder das
Fahrzeug 2, insbesondere an einer geeigneten Abstellposition, abstellt oder dies veranlasst.
Mittels des Verfahrens können somit potentiell gefährliche Situationen, beispielsweise keine oder eine zu späte Erfassung von dynamischen Objekten und stationären
Objekten 3 im Umfeld des Fahrzeugs 2, durch nicht erkannte Performanceeinbrüche bei der Umfelderfassung, d. h. durch eine nicht erkannte Leistungsfähigkeitsreduktion eines oder mehrerer Umfelderfassungssensoren 1 des Fahrzeugs 2, vermieden werden. Mittels des Verfahrens kann ein Fehlerfall aufgrund einer Degradation eines oder mehrerer Umfelderfassungssensoren 1 des Fahrzeugs 2 erkannt werden und es können daraufhin unterstützende Systemreaktionen eingeleitet werden, beispielsweise eine langsamere Fahrt bis hin zu einem Nothalt.
Im Folgenden wird das Verfahren anhand der Figuren 1 und 2 nochmals beispielhaft erläutert. Die Figuren 1 und 2 zeigen jeweils einen Sichtbereich, d. h. einen
Erfassungsbereich 4, mindestens eines Umfelderfassungssensors 1 der
Umfelderfassungssensorik des Fahrzeugs 2. Die Umfelderfassungssensorik umfasst beispielsweise ein oder mehrere Video-, Lidar- und/oder Radarsysteme. Der mittels des Verfahrens jeweils zu überprüfende Umfelderfassungssensor 1 ist somit beispielsweise ein Video-, Lidar- oder Radarsensor.
In der digitalen Karte ist hinterlegt, welche stationären Objekte 3 im Umfeld des
Fahrzeugs 2 mit der jeweiligen Sensorik, d. h. mit dem jeweiligen zu überprüfenden Umfelderfassungssensor 1 , von einer jeweiligen aktuellen Position des Fahrzeugs 2 aus erfasst werden können. Im dargestellten Beispiel ist der auch als field of view oder Sichtbereich bezeichnete Erfassungsbereich 4 des hier beispielsweise als Videosensor oder Lidarsensor ausgebildeten Umfelderfassungssensors 1 dargestellt. Im in Figur 1 dargestellten Fall erfasst dieser Umfelderfassungssensor 1 als Merkmale eine Flanke des als Gebäude G ausgebildeten stationären Objekts 3 und eine jeweilige Kontur zweier als Büsche B ausgebildeter stationärer Objekte 3, wodurch deren Detektion entsprechend der Erwartungen bestätigt wird. Es wird somit im Beispiel gemäß Figur 1 nicht auf eine Degradation des mittels des Verfahrens überprüften Umfelderfassungssensors 1 des Fahrzeugs 2 geschlossen.
Im Beispiel gemäß Figur 2 liegt eine Degradation dieses Umfelderfassungssensors 1 vor. Auch hier ist der auch als field of view oder Sichtbereich bezeichnete Erfassungsbereich 4 dieses zu überprüfenden Umfelderfassungssensors 1 dargestellt. Dieser
Erfassungsbereich 4 ist durch eine atmosphärische Störung 5, schematisch dargestellt durch eine Wolke, beeinträchtigt, d. h. es liegt eine atmosphärisch bedingte Degradation des Umfelderfassungssensors 1 vor.
In diesem Beispiel erfasst der Umfelderfassungssensor 1 zwar als Merkmal die Flanke des als Gebäude G ausgebildeten stationären Objekts 3, jedoch können durch eine aufgrund der atmosphärischen Störung 5 geänderte Reflexion und/oder durch aufgrund der atmosphärischen Störung 5 geänderte Reflektanzbedingungen die in der digitalen Karte als Büsche B verzeichneten stationären Objekte 3, insbesondere deren Konturen als deren Merkmale, vom Umfelderfassungssensor 1 nicht mehr in einer vorgegebenen, insbesondere idealen, Distanz wahrgenommen werden.
Insbesondere durch einen Vergleich mit der erwarteten Leistungsfähigkeit über historische und/oder digitale Karten kann dieser Nachweis geführt werden. D. h. es wird erwartet, dass der Umfelderfassungssensor 1 aus der aktuellen Position des Fahrzeugs 2 die Merkmale der in der digitalen Karte hinterlegten stationären Objekte 3 und somit die stationären Objekte 3 erkennt. Dies ist jedoch bezüglich der als Büsche B ausgebildeten stationären Objekte 3 nicht der Fall, so dass auf die Degradation des
Umfelderfassungssensors 1 geschlossen wird.
Bezugszeichenliste
1 Umfelderfassungssensor
2 Fahrzeug
3 stationäres Objekt
4 Erfassungsbereich
5 atmosphärische Störung
B Busch
G Gebäude

Claims

Patentansprüche
1. Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors (1 ) eines Fahrzeugs (2),
dadurch gekennzeichnet, dass
- das Fahrzeug (2) in einer digitalen Karte lokalisiert wird,
- in der digitalen Karte Merkmale von hinterlegten stationären Objekten (3) einer Umgebung des Fahrzeugs (2) identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1 ) erkannt werden,
- die Umgebung des Fahrzeugs (2) mit dem Umfelderfassungssensor (1 ) erfasst wird,
- wobei auf eine Degradation des Umfelderfassungssensors (1 ) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom
Umfelderfassungssensor (1 ) erkannt werden oder wenn vom
Umfelderfassungssensor (1 ) tatsächlich erkannte Merkmale von den
erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass eine starke Abweichung vorliegt, wenn die
Abweichung einen vorgegebenen Toleranzbereich überschreitet.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass auf eine Degradation des Umfelderfassungssensors (1 ) geschlossen wird, wenn ein erwarteter Abstand zwischen der Fahrzeug (2) und einem der in der Karte hinterlegten Objekte (3) von einem ermittelten tatsächlichen Abstand zwischen dem Fahrzeug (2) und dem Objekt (3) um mehr als einen vorgegebenen Abstandsschwellwert abweicht, wobei der erwartete Abstand aus der Karte als erwartungsgemäß zu erkennendes Merkmal des Objekts (3) ermittelt wird und der tatsächliche Abstand mittels des Umfelderfassungssensors (1 ) ermittelt wird.
4. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass anhand von Sensordaten des
Umfelderfassungssensors (1 ) eine Klassifikation der erfassten Objekte (3) vorgenommen wird, um erkannte Klassifikationstypen der Objekte als tatsächlich erkannte Merkmale der Objekte zu ermitteln, dass die erkannten
Klassifikationstypen auf Übereinstimmung mit erwarteten Klassifikationsytypen, welche als erwartungsgemäß zu erkennende Merkmale aus der Karte entnommen werden, geprüft werden, und dass auf ein Degradation des
Umfelderfassungssensors (1 ) geschlossen wird, wenn eine ermittelte
Klassifikationsrate geringer ist als ein vorgegebener Klassifikaitonsschwellwert,
5. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass nicht auf die Degradation des
Umfelderfassungssensors (1 ) geschlossen wird, wenn ermittelt wird, dass aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor (1 ) erkannt werden oder die vom Umfelderfassungssensor (1 ) tatsächlich erkannten Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
6. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass die Merkmale von hinterlegten stationären
Objekten (3) der Umgebung des Fahrzeugs (2), von denen erwartet wird, dass sie vom Umfelderfassungssensor (1 ) erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert werden.
7. Verfahren nach einem der vorhergehenden Ansprüche,
dadurch gekennzeichnet, dass die Merkmale von hinterlegten stationären
Objekten (3) der Umgebung des Fahrzeugs (2), von denen erwartet wird, dass sie vom Umfelderfassungssensor (1 ) erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert werden.
8. Verfahren nach Anspruch 7,
dadurch gekennzeichnet, dass die Berechnung der zu erwartenden Erkennbarkeit mittels eines Raytracing-Verfahrens erfolgt.
PCT/EP2019/076053 2018-10-30 2019-09-26 Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs WO2020088857A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201980072365.6A CN112955775B (zh) 2018-10-30 2019-09-26 用于检查车辆的至少一个环境检测传感器的方法
US17/290,370 US11787424B2 (en) 2018-10-30 2019-09-26 Method for checking at least one driving environment sensor of a vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102018127059.3 2018-10-30
DE102018127059.3A DE102018127059A1 (de) 2018-10-30 2018-10-30 Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs

Publications (1)

Publication Number Publication Date
WO2020088857A1 true WO2020088857A1 (de) 2020-05-07

Family

ID=68104618

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/076053 WO2020088857A1 (de) 2018-10-30 2019-09-26 Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs

Country Status (4)

Country Link
US (1) US11787424B2 (de)
CN (1) CN112955775B (de)
DE (1) DE102018127059A1 (de)
WO (1) WO2020088857A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019130037B4 (de) * 2019-11-07 2022-09-29 Mercedes-Benz Group AG Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102021101247B4 (de) 2021-01-21 2023-05-04 Audi Aktiengesellschaft Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
US20220245975A1 (en) * 2021-02-01 2022-08-04 Rockwell Collins, Inc. Sensor quality detection
DE102021111325A1 (de) 2021-05-03 2022-11-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
DE102021209671A1 (de) 2021-09-02 2023-03-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen
DE102021004646B3 (de) * 2021-09-14 2023-03-23 Mercedes-Benz Group AG Verfahren zum Betreiben eines Fahrzeugs in einem automatisierten Fahrbetrieb
US20230242147A1 (en) * 2022-01-31 2023-08-03 Motional Ad Llc Methods And Systems For Measuring Sensor Visibility

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10313002B4 (de) 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
DE102014226020A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung
DE102015208228A1 (de) * 2015-05-05 2016-11-10 Bayerische Motoren Werke Aktiengesellschaft Diagnoseverfahren für einen Sichtsensor eines Fahrzeugs und Fahrzeug mit einem Sichtsensor
DE102017000753A1 (de) * 2017-01-27 2017-07-13 Daimler Ag Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
DE112016000274T5 (de) * 2015-10-22 2017-10-12 Uniquesec Ab System zum Generieren virtueller Radarsignaturen
DE102017003741A1 (de) * 2017-04-19 2018-10-25 Daimler Ag Verfahren zur Bestimmung einer Reichweite

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004010197B4 (de) 2004-03-02 2015-04-16 Sick Ag Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
DE102010063133A1 (de) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und System zur Bestimmung einer Eigenbewegung eines Fahrzeugs
US8630806B1 (en) * 2011-10-20 2014-01-14 Google Inc. Image processing for vehicle control
US20130208121A1 (en) * 2012-02-10 2013-08-15 Xerox Corporation Traffic camera diagnostics via test targets
US8930063B2 (en) * 2012-02-22 2015-01-06 GM Global Technology Operations LLC Method for determining object sensor misalignment
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
US9274525B1 (en) * 2012-09-28 2016-03-01 Google Inc. Detecting sensor degradation by actively controlling an autonomous vehicle
US8825371B2 (en) * 2012-12-19 2014-09-02 Toyota Motor Engineering & Manufacturing North America, Inc. Navigation of on-road vehicle based on vertical elements
US10466709B2 (en) * 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
US10078335B2 (en) 2016-06-28 2018-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Ray tracing for hidden obstacle detection
WO2020078899A1 (en) * 2018-10-15 2020-04-23 Starship Technologies Oü Method and system for operating a mobile robot
US11919525B2 (en) * 2019-08-13 2024-03-05 Autonomous Solutions, Inc. Point cloud occlusion mapping for autonomous vehicles
US11120538B2 (en) * 2019-12-27 2021-09-14 Zoox, Inc. Sensor degradation detection and remediation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10313002B4 (de) 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
DE102014226020A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung
DE102015208228A1 (de) * 2015-05-05 2016-11-10 Bayerische Motoren Werke Aktiengesellschaft Diagnoseverfahren für einen Sichtsensor eines Fahrzeugs und Fahrzeug mit einem Sichtsensor
DE112016000274T5 (de) * 2015-10-22 2017-10-12 Uniquesec Ab System zum Generieren virtueller Radarsignaturen
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
DE102017000753A1 (de) * 2017-01-27 2017-07-13 Daimler Ag Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung
DE102017003741A1 (de) * 2017-04-19 2018-10-25 Daimler Ag Verfahren zur Bestimmung einer Reichweite

Also Published As

Publication number Publication date
US20210403012A1 (en) 2021-12-30
CN112955775B (zh) 2023-12-22
US11787424B2 (en) 2023-10-17
DE102018127059A1 (de) 2020-04-30
CN112955775A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
WO2020088857A1 (de) Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs
WO2020200792A1 (de) Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs
WO2021043507A1 (de) Querführung eines fahrzeugs mittels von anderen fahrzeugen erfassten umgebungsdaten
DE112017006397B4 (de) System für ein Fahrzeug
DE102019205083A1 (de) Verfahren zum Prädizieren eines manuellen Einparkvorgangs und Unterstützen eines Fahrers
DE102017214611A1 (de) Verfahren zum Überprüfen eines Reaktionssignals einer Fahrzeugkomponente sowie Überprüfungsvorrichtung und Kraftfahrzeug
DE102018203063A1 (de) Kollisionsrisiko-Vorhersageeinheit
WO2019215017A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zum überwachen und validieren von betriebsdaten in der aktuatorik eines autonomen kraftfahrzeugs
WO2017186385A1 (de) Verfahren und vorrichtung für ein kraftfahrzeug zum vergleich von umgebungskartendaten mit umgebungssensordaten zur ermittlung der passierbarkeit eines strassenobjekts
DE102018006503A1 (de) Digitale Karte
DE102018205011A1 (de) Verfahren und System zum kontrollierten Überführen von Fahrzeugen einer Fahrzeugflotte in einen sicheren Zustand
DE102018221427B4 (de) Verfahren zur Ermittlung einer vorliegenden Dejustage wenigstens eines Sensors innerhalb eines Sensorverbundes
DE102020200650A1 (de) Verfahren und Vorrichtung zum Betreiben einer automatisierten Spurführung eines Kraftfahrzeugs
DE102015209217B3 (de) Verfahren und System zum Bereitstellen einer Trajektorie zur Vermeidung einer Fahrzeugkollision
DE102019206847A1 (de) Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
DE102009024131A1 (de) Verfahren zur Ermittelung einer Fahrspur und Fahrerassistenzsystem für ein Fahrzeug mit Mitteln zur Ermittelung einer Fahrspur
DE102017218932B4 (de) Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
DE102020110671A1 (de) Verfahren zur automatisierten Längsregelung
AT524759B1 (de) Verfahren zur Fahrassistenz und Fahrassistenzsystem
DE102022212227A1 (de) Verfahren zum Ermitteln eines Betriebszustands eines ein erstes Umfeldsensorsystem und ein zweites Umfeldsensorsystem umfassenden Objekterkennungssystems eines Schienenfahrzeugs
EP2694916B1 (de) Verfahren zur bestimmung der position eines sich bewegenden fahrzeugs und manöverassistenzsystem
DE102015007657A1 (de) Verfahren zur automatischen Steuerung eines Fahrzeugs
DE102021114624A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem, verfahren zum betreiben eines fahrerassistenzsystems, fahrerassistenzsystem, fahrzeug und anordnung
DE102015014627A1 (de) System und Verfahren zur Einstellung des Fahrgestellniveaus der Fahrzeuge in einer Fahrzeuggruppe
EP4029757A1 (de) Verfahren zum steuern einer verkehrssituation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19779840

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19779840

Country of ref document: EP

Kind code of ref document: A1