WO2020200792A1 - Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs - Google Patents
Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs Download PDFInfo
- Publication number
- WO2020200792A1 WO2020200792A1 PCT/EP2020/057486 EP2020057486W WO2020200792A1 WO 2020200792 A1 WO2020200792 A1 WO 2020200792A1 EP 2020057486 W EP2020057486 W EP 2020057486W WO 2020200792 A1 WO2020200792 A1 WO 2020200792A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- detection sensor
- features
- surroundings
- surroundings detection
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 139
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000015556 catabolic process Effects 0.000 claims abstract description 31
- 238000006731 degradation reaction Methods 0.000 claims abstract description 31
- 238000002310 reflectometry Methods 0.000 claims description 4
- 239000002245 particle Substances 0.000 abstract 1
- 238000005259 measurement Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011895 specific detection Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0053—Handover processes from vehicle to occupant
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/005—Handover processes
- B60W60/0059—Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
- G01S7/412—Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4049—Relationship among other objects, e.g. converging dynamic objects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
- G01S7/4082—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
- G01S7/4091—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
Definitions
- the invention relates to a method for checking a surroundings detection sensor of a vehicle according to the preamble of claim 1.
- the invention also relates to a method for operating a vehicle.
- a vehicle environment detection unit is known from DE 103 13 002 B4, with information about the surroundings being detected by means of an image sensor. The captured
- Ambient information is processed into image information by means of a computing unit and displayed on a video image display.
- the computing unit is processed into image information by means of a computing unit and displayed on a video image display.
- Image information is stored in a buffer.
- a last captured image is combined with the image information stored in the buffer memory using a
- Image processing algorithms compared.
- the displayed video image is shown changed.
- Vehicle operating parameters are fed to the vehicle environment detection unit in order to conclude that there is an impermissible deviation because a deviation that is to be expected on the basis of the operating parameters occurs
- the environment detection system comprises two different types of environment sensor. A field of vision of a first
- Environment sensor type updated taking into account the movement of the vehicle.
- Surroundings detection sensor of a vehicle wherein the vehicle is localized in a digital map and features of stored stationary objects of an environment of the vehicle are identified in the digital map which are expected to be detected by the surroundings detection sensor.
- the surroundings of the vehicle are recorded with the surroundings detection sensor, with a degradation of the
- Surrounding area detection sensor is closed when the features that are expected to be detected are not detected by the surrounding area detection sensor or when from
- Environment detection sensor actually recognized features differ greatly from the expected features to be recognized.
- the invention is based on the object of providing a method, which is improved over the prior art, for checking a surroundings detection sensor
- the object is according to the invention with a method for checking a
- the vehicle In a method for checking at least one surroundings detection sensor of a vehicle, the vehicle is localized in a digital map and features of stored stationary objects of an surroundings of the vehicle are identified in the digital map which are expected to be recognized by the surroundings detection sensor. Furthermore, the surroundings of the vehicle with the
- Environment detection sensor actually recognized features differ greatly from the expected features to be recognized.
- the digital map with the stored features of the stationary objects is called up from a central storage unit external to the vehicle for a predetermined forecast horizon.
- the storage of the features on the central storage unit external to the vehicle for example a server, in particular a so-called backend server, enables data storage on the vehicle's own storage units to be minimized.
- a size of free storage capacity in the vehicle can be reduced and, on the other hand, it can be ensured in a simple manner that the features used in the vehicle are always up-to-date.
- the method always enables a reliable check of the at least one
- Environment detection sensor based system operated, such as a
- the at least one surroundings detection sensor detects features
- the features that are expected to be detected are compared with these features actually detected by the surroundings detection sensor.
- the features that are expected to be recognized match these features actually recognized by the surroundings detection sensor
- Environment detection sensor detected. If, however, the surroundings detection sensor does not recognize any features or if the features actually detected by the surroundings detection sensor in this comparison do not match the features that are expected to be recognized and there is a strong, in particular excessive, deviation inferred from the degradation of the surroundings detection sensor. A major deviation, in particular an excessively great deviation, is present in particular when the deviation exceeds a predetermined tolerance range. That is, if the from
- landmarks, traffic signs, traffic facilities for example to delimit a roadway, such as a roadway, are used as stationary objects.
- B. delineator posts, and / or other suitable objects are used. Due to their characteristics, such objects are particularly suitable for use in the method.
- the digital map is continuously updated on the central storage unit external to the vehicle.
- the vehicle always has current features for checking the at least one
- the update is carried out on the basis of features of stationary objects recorded by means of a multiplicity of vehicles and transmitted to the storage unit. This results in a large and reliable database, whereby "outliers" can easily be recognized and taken into account. It is thus possible, in a further possible embodiment of the Method based on the large number of transferred features to determine how high a reliability is.
- the digital map is updated when the transmitted features deviate from the features stored in the digital map and a reliability exceeds a predetermined value. A particularly effective update is thus implemented, with unnecessary
- the features are combined with sensor-specific additional data of the corresponding
- At least one surroundings detection sensor of the vehicle is checked in a previously described method for checking a surroundings detection sensor and, if the surroundings detection sensor is degraded, a degree of automation is set of the ferry operation reduced or a driving task handed over to a driver.
- Decalcified surroundings detection sensor for example a camera, a radar sensor, a lidar sensor, etc., or a surroundings detection sensor whose view is restricted due to fog or pollution in the area of an optical path, however, does not meet these performance requirements, resulting in reduced availability of a vehicle function and / or an unsafe system status with a high risk of accidents result.
- the method is used to continuously check the at least one environment detection sensor possible, so that a limited
- the degree of automation of the automated ferry operation can be adapted or the driving task can be completely handed over to the driver.
- a safe ferry operation of the vehicle can always be realized. That is to say, using the method, potentially dangerous situations, for example no or too late detection of dynamic objects and stationary objects, in the vicinity of the vehicle due to unrecognized drops in the performance of the environment detection sensor during environment detection can be avoided.
- the method can be used to detect a fault due to degradation of one or more environment detection sensors of the vehicle, and supporting system reactions can then be initiated, for example slower travel up to an emergency stop.
- the vehicle if the driver fails to take over the driving task, the vehicle is brought to a standstill within a predefined period of time. This significantly increases the safety of the vehicle, the occupants located within it and other road users.
- the vehicle is first guided to the edge of the road or a hard shoulder within a predetermined period and then brought to a standstill.
- Vehicle also further increases the safety of occupants located within it and other road users, since the probability of a collision with other road users is reduced.
- FIG. 1 schematically shows an example of an environment detection by means of a
- Environment detection sensor of a vehicle 2 schematically shows a further example of a surroundings detection by means of a surroundings detection sensor of a vehicle and
- FIG. 3 schematically shows a block diagram of a device for operating a
- Figures 1 and 2 which show an example of a surroundings detection by means of a surroundings detection sensor 1 of a vehicle 2
- Figure 3 which shows a block diagram of a possible embodiment of a device 3 for operating a vehicle 2
- a method for checking the At least one surroundings detection sensor 1 of vehicle 2 and a method for operating vehicle 2 are described.
- the vehicle 2 is designed for an automated ferry operation, in particular a highly automated or autonomous ferry operation.
- the vehicle 2 is localized in a digital map 4, in particular by adding a position POS of the
- Vehicle 2 is determined and a corresponding position in the digital map 4 is determined.
- features M of stationary objects 5 stored there in the surroundings of the vehicle 2 are identified which are expected to be recognized by the surroundings detection sensor 1 if the latter is working properly.
- the digital card 4 is in particular a so-called HD card and is used for
- the digital map 4 is stored on a central storage unit 6 external to the vehicle, in particular a server or backend server. Map data D present in the digital map 4 are made available to the vehicle 2 and possibly other vehicles 7.1 to 7.n in real time. To update the digital map 4, information I from the vehicles 2, 7.1 to 7.n is used, among other things, which these make available to the storage unit 6 via upload. So-called “map learning” is carried out here, with I statements being made by aggregating the information
- - Can be derived from a topology of the environment, for example a number of lanes.
- OEM-specific data Original Equipment Manufacturer
- System states of a driver assistance system of a vehicle 2 can be localized for a specific position in the digital map 4 and stored in the digital map 4. This is also referred to as an “OEM specific overlay” in the digital card 4.
- the surroundings of the vehicle 2 are detected with the surroundings detection sensor 1. It is concluded that the surroundings detection sensor 1 has degraded if
- Environment detection sensor 1 actually recognized features M compared. If the features M to be expected to be recognized with these from
- Environment detection sensor 1 actually recognized features M match or at least no excessive deviation between the features M to be recognized as expected and those actually detected by the environment detection sensor 1
- a major deviation, in particular an excessively great deviation, is present in particular when the deviation exceeds a predetermined tolerance range. That is, if the features M actually recognized by the surroundings detection sensor 1 do not correspond to the features M that are expected to be recognized
- Tolerance measure can be derived, for example, from safety requirements, according to which, for example, a measured distance value must not exceed a specified error or a classification rate of a surroundings detection sensor 1 in a sensor network must not fall below a specified threshold value.
- the method makes it possible for the automatically driving vehicle 2, for example a shuttle or robotaxi, to determine whether a surroundings detection sensor system, comprising the at least one surroundings detection sensor 1 or several identical or
- detection sensor 1 For sensor technologies present in the vehicle 2, ie for the respective surroundings detection sensor 1, which is to be checked by means of the method, that at any point in time it is known which I nf rastru ktu ro bj ekte, ie stationary
- Objects 5 for example building G, traffic signs V, traffic facilities L, for example delineator posts, and / or other objects 5 at which point or position would have to be recognized. Should / n one or more of the expected inpatient
- Environment detection sensor 1 cannot be determined and should this not be justified by a visual obscuration, in particular by further dynamic objects, is a so-called performance degradation, i.e. H. to assume a degradation of the respective surroundings detection sensor 1.
- FIG. 1 shows an example of atmospheric influence, i.e. H. an atmospheric disturbance 8 of the surroundings detection sensor 1.
- Surrounding area detection sensor 1 or a few surrounding area detection sensors 1 remain limited. That is to say, a mechanical influence can be inferred in particular if one or more surroundings detection sensors 1 of vehicle 2 have degradation and one or more other surroundings detection sensors 1 of vehicle 2, which are designed in the same way as the
- Degradation changes with the change in the atmospheric conditions, so that when the atmospheric conditions improve again, there is no longer any degradation of the surroundings detection sensor 1.
- Mechanical degradation for example due to damage to the surroundings detection sensor 1 and / or an area of the vehicle 2 in which it is installed, does not improve by itself, but requires, for example, a repair or an exchange or an adjustment and / or calibration of the surroundings detection sensor 1.
- the vehicle 2 it is necessary for the vehicle 2 to know which stationary objects 5 with which features M are present in the environment and would have to be recognized by the at least one environment detection sensor 1.
- the features M of stored stationary objects 5 of the surroundings of the vehicle 2, which are expected to be recognized by the surroundings detection sensor 1, in particular jointly sensor-specific detection information are stored in the digital map 4.
- the digital card 4 is stored with the
- the vehicle 2 is designed such that the features M can be identified in the digital map 4 and recognized therefrom. Due to the storage of the features M with the sensor-specific detection information, that is
- the stationary objects 5 and their features M are therefore encoded sensor-specifically in the digital map 4, so that it is possible to read directly from the digital map 4 which stationary objects 5 and which associated corresponding features M are the respective surroundings detection sensor 1 must recognize in the vicinity of the vehicle 2.
- the digital map 4 is continuously updated on the central storage unit 6 external to the vehicle, the update being recorded on the basis of a plurality of vehicles 2, 7.1 to 7.n and transmitted to the storage unit 6
- Environment detection sensor 1 recognized features M of stationary objects 5 in the environment on the storage unit 6.
- Lidar sensor for example, a reflectivity of the stationary objects 5 in one predetermined distance to the environment detection sensor 1, when training the
- the storage unit 6 is connected to the storage unit 6 together with the position POS of the corresponding
- Vehicle 2 7.1 to 7.n transmitted that the reflectivity of the delineator post located there is "XX Lumen" at a distance of 100 m, or if the
- Object 5 is "YY cm 2 ", or if the surroundings detection sensor 1 is designed as a camera, the object 5 has a certain texture.
- sensor-specific additional data on the object 5, such as a position specification of the object 5, are transmitted to the memory unit 6, consolidated in this if necessary and stored in the "OEM specific overlay" associated with the object 5.
- the digital map 4 is only updated if the transmitted features M differ from the features M stored in the digital map 4 and a reliability exceeds a predetermined value.
- the system reacts, i. H. the vehicle 2, in particular a system for
- a maximum speed of the vehicle 2 is advantageously reduced.
- the vehicle 2 can in such an error case, i. H. in the event of a detected degradation of the respective checked surroundings detection sensor 1, for example, can also be actively switched off.
- the vehicle 2 drives, for example automatically, to a suitable position, for example at the edge of the road, in a hard shoulder, in an emergency stopping bay or in a parking lot, and is parked there.
- the respective procedure, d. H. Whether, in what form, at what speed and how far the vehicle 2, in particular automated, continues to drive depends in particular on the extent of the determined degradation of the respective surroundings detection sensor 1 and on how many and which surroundings detection sensors 1 of the vehicle 2 such a degradation exhibit.
- Surrounding detection sensor 1 can for example be provided that a teleoperator, d. H. a person who is not in the vehicle 2 or in the immediate vicinity of the vehicle 2, but has remote access to the vehicle 2, in particular to control and / or regulating devices of the vehicle 2, a current performance of the respective surroundings detection sensor 1 for which through the check, a degradation has been determined, evaluated and accordingly initiated further steps, for example reducing the maximum speed of vehicle 2, changing a route of vehicle 2 and / or vehicle 2,
- a driving task is handed over to a driver so that he can continue driving the vehicle 2. If the driver does not take over the driving task, for example due to a restriction of the same, the vehicle 2 is brought to a standstill within a predetermined period of time. In one possible embodiment it is provided that before the vehicle 2 stops, it is first guided to the edge of the road or a hard shoulder and then brought to a standstill.
Abstract
Die Erfindung betrifft ein Verfahren zur Überprüfung zumindest eines Umfelderfassungssensors (1) eines Fahrzeugs (2), wobei das Fahrzeug (2) in einer digitalen Karte (4) lokalisiert wird, in der digitalen Karte (4) Merkmale (M) von hinterlegten stationären Objekten (5) einer Umgebung des Fahrzeugs (2) identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, die Umgebung des Fahrzeugs (2) mit dem Umfelderfassungssensor (1) erfasst wird und auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale (M) nicht vom Umfelderfassungssensor (1) erkannt werden oder wenn vom Umfelderfassungssensor (1) tatsächlich erkannte Merkmale (M) von den erwartungsgemäß zu erkennenden Merkmalen (M) stark abweichen. Erfindungsgemäß wird die digitale Karte (4) mit den hinterlegten Merkmalen (M) der stationären Objekte (5) für einen vorgegebenen Vorausschauhorizont von einer fahrzeugexternen zentralen Speichereinheit (6) abgerufen. Die Erfindung betrifft weiterhin ein Verfahren zum Betrieb eines Fahrzeugs (2), welches zu einem automatisierten Fahrbetrieb, insbesondere einem hochautomatisierten oder autonomen Fahrbetrieb ausgebildet ist.
Description
Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
Die Erfindung betrifft ein Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1.
Die Erfindung betrifft weiterhin ein Verfahren zum Betrieb eines Fahrzeugs.
Aus der DE 103 13 002 B4 ist eine Fahrzeugumgebungserfassungseinheit bekannt, wobei mittels eines Bildsensors Umgebungsinformationen erfasst werden. Die erfassten
Umgebungsinformationen werden mittels einer Recheneinheit zu Bildinformationen verarbeitet und auf einer Videobildanzeige dargestellt. Zusätzlich werden die
Bildinformationen in einem Zwischenspeicher abgelegt. Ein zuletzt erfasstes Bild wird mit den im Zwischenspeicher abgelegten Bildinformationen anhand einer
Bildverarbeitungsalgorithmik verglichen. Bei einer unzulässigen Abweichung des zuletzt erfassten Bildes von den abgelegten Bildinformationen wird das angezeigte Videobild verändert dargestellt. Der Fahrzeugumgebungserfassungseinheit werden Fahrzeug- Betriebsparameter zugeführt, um auf eine unzulässige Abweichung dadurch zu schließen, dass sich eine aufgrund der Betriebsparameter zu erwartende Abweichung der
Bildinformationen zwischen den Zeitpunkten der Aufnahme des zuletzt erfassten Bilds und der abgelegten Bildinformationen nicht plausibel mit dem Ergebnis eines Vergleichs dieser Bildinformationen korrelieren lässt.
Weiterhin ist aus der DE 10 2013 206 707 A1 ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bekannt. Das Umfelderfassungssystem umfasst zwei verschiedene Umfeldsensortypen. Ein Sichtbereich eines ersten
Umfeldsensortyps überlappt nicht mit einem Sichtbereich eines zweiten
Umfeldsensortyps. Objekte im Umfeld des Fahrzeugs werden mit dem ersten
Umfeldsensortyp erfasst und mit den Daten des ersten Umfeldsensortyps in statische und dynamische Objekte kategorisiert. Eine relative Position der erfassten statischen Objekte zum Fahrzeug wird bestimmt. Diese Position wird mit einer über den zweiten
Umfeldsensortyp ermittelten Position verglichen. Bei einer Abweichung über einem Grenzwert wird auf einen Fehler geschlossen. Die relative Position der erfassten statischen Objekte wird nach dem Verlassen des Sichtbereichs des ersten
Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert.
Die DE 10 2018 127 059.3 beschreibt ein Verfahren zur Überprüfung eines
Umfelderfassungssensors eines Fahrzeugs, wobei das Fahrzeug in einer digitalen Karte lokalisiert wird und in der digitalen Karte Merkmale von hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst, wobei auf eine Degradation des
Umfelderfassungssensors geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom
Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Überprüfung eines Umfelderfassungssensors eines
Fahrzeugs und ein neuartiges Verfahren zum Betrieb eines Fahrzeugs anzugeben.
Die Aufgabe wird erfindungsgemäß mit einem Verfahren zur Überprüfung eines
Umfelderfassungssensors eines Fahrzeugs gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist. Weiterhin wird die Aufgabe erfindungsgemäß mit einem Verfahren zum Betrieb eines Fahrzeugs gelöst, welches die im Anspruch 8 angegebenen Merkmale aufweist.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
In einem Verfahren zur Überprüfung zumindest eines Umfelderfassungssensors eines Fahrzeugs wird das Fahrzeug in einer digitalen Karte lokalisiert und es werden in der digitalen Karte Merkmale von hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden. Weiterhin wird die Umgebung des Fahrzeugs mit dem
Umfelderfassungssensor erfasst und es wird auf eine Degradation des
Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden
Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom
Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
Erfindungsgemäß wird die digitale Karte mit den hinterlegten Merkmalen der stationären Objekte für einen vorgegebenen Vorausschauhorizont von einer fahrzeugexternen zentralen Speichereinheit abgerufen.
Die Hinterlegung der Merkmale auf der fahrzeugexternen zentralen Speichreinheit, beispielsweise einem Server, insbesondere einem so genannten Backend-Server, ermöglicht, dass eine Datenbevorratung auf fahrzeugeigenen Speichereinheiten minimiert werden kann. Hierdurch kann einerseits eine Größe freier Speicherkapazität im Fahrzeug verringert werden und andererseits in einfacher Weise sichergestellt werden, dass die im Fahrzeug verwendeten Merkmale stets aktuell sind. Hieraus resultierend ermöglicht das Verfahren stets eine zuverlässige Überprüfung des zumindest einen
Umfelderfassungssensors, wobei aufgrund einer Verfügbarkeit und Vorausschau von Messergebnissen einer zu erwartenden Messung mittels des Umfelderfassungssensors im Fahrzeug frühzeitig erkannt werden kann, ob sich der Umfelderfassungssensors in einem ordnungsgemäßen Zustand befindet und ein auf einer Erfassung des
Umfelderfassungssensors basierender System betrieb, wie beispielsweise ein
automatisiertes Fahren eines Fahrzeugs, möglich und sicher durchführbar oder eingeschränkt ist.
In einer möglichen Ausgestaltung des Verfahrens ist vorgesehen, dass dann, wenn der zumindest eine Umfelderfassungssensor Merkmale erkennt, die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen verglichen werden. Wenn die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen
übereinstimmen oder zumindest keine zu starke Abweichung zwischen den
erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des
Umfelderfassungssensors festgestellt. Wenn jedoch der Umfelderfassungssensor keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird
auf die Degradation des Umfelderfassungssensors geschlossen. Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. Das heißt, wenn die vom
Umfelderfassungssensor tatsächlich erkannten Merkmale zwar nicht mit den
erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des
Umfelderfassungssensors erkannt.
In einer weiteren möglichen Ausgestaltung des Verfahrens werden als stationäre Objekte Landmarken, Verkehrsschilder, Verkehrseinrichtungen, beispielsweise zur Abgrenzung einer Fahrbahn, wie z. B. Leitpfosten, und/oder andere geeignete Objekte verwendet. Derartige Objekte eignen sich aufgrund ihrer Merkmale besonders zur Verwendung in dem Verfahren.
In einer weiteren möglichen Ausgestaltung des Verfahrens werden als Merkmale der stationären Objekte in Abhängigkeit einer Art des Umfelderfassungssensors eine
Reflektivität der stationären Objekte in einer vorgegebenen Entfernung zum
Umfelderfassungssensor, ein Rückstrahlquerschnitt der stationären Objekte und/oder eine T extur der stationären Objekte ausgewertet. Derartige Merkmale erlauben eine besonders exakte Überwachung und Überprüfung des zumindest einen Umfelderfassungssensors und sind besonders einfach und zuverlässig vergleichbar.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die digitale Karte auf der fahrzeugexternen zentralen Speichereinheit fortlaufend aktualisiert. Somit stehen dem Fahrzeug stets aktuelle Merkmale zur Überprüfung des zumindest einen
U mfelderfassungssensors zur Verfügung.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Aktualisierung anhand von mittels einer Vielzahl von Fahrzeugen erfassten und an die Speichereinheit übertragenen Merkmalen von stationären Objekten durchgeführt. Hieraus resultiert eine große und verlässliche Datenbasis, wobei "Ausreißer" einfach erkannt und berücksichtigt werden können. Somit ist es möglich, in einer weiteren möglichen Ausgestaltung des
Verfahrens anhand der Vielzahl der übertragenen Merkmale zu ermitteln, wie hoch eine Zuverlässigkeit dieser ist.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die digitale Karte dann aktualisiert, wenn die übertragenen Merkmale von den in der digitalen Karte hinterlegten Merkmalen abweichen und eine Zuverlässigkeit einen vorgegebenen Wert überschreitet. Somit wird eine besonders effektive Aktualisierung realisiert, wobei unnötige
Aktualisierungen mit unzutreffenden Merkmalen vermieden werden.
In einer weiteren möglichen Ausgestaltung des Verfahrens werden die Merkmale gemeinsam mit sensorspezifischen Zusatzdaten des entsprechenden
Umfelderfassungssensors an die zentrale Speichereinheit übermittelt und gemeinsam mit den zugehörigen Merkmalen auf der zentralen Speichereinheit hinterlegt. Somit ist in besonders vorteilhafter Weise eine sensorspezifische Anwendung der Merkmale zur Überprüfung des betreffenden Umfelderfassungssensors möglich, welche eine sehr genaue Überprüfung des Umfelderfassungssensors ermöglicht.
In dem erfindungsgemäßen Verfahren zum Betrieb eines Fahrzeugs, welches zu einem automatisierten Fährbetrieb, insbesondere einem hochautomatisierten oder autonomen Fährbetrieb ausgebildet ist, wird zumindest ein Umfelderfassungssensor des Fahrzeugs in einem zuvor beschriebenen Verfahren zur Überprüfung eines Umfelderfassungssensors überprüft und bei Vorliegen einer Degradation des Umfelderfassungssensors wird ein Automatisierungsgrad des Fährbetriebs reduziert oder eine Fahraufgabe an einen Fahrer übergeben.
Für eine Verfügbarkeit und Sicherheit beim automatisierten Fahren muss eine bestimmte Leistungsfähigkeit des zumindest einen Umfelderfassungssensors, insbesondere hinsichtlich einer Sichtweite, Genauigkeit und Fehlerrate, sichergestellt werden, um einen zuverlässigen automatisierten Fährbetrieb des Fahrzeugs sicherzustellen. Ein
dekalierter Umfelderfassungssensor, beispielsweise eine Kamera, ein Radarsensor, ein Lidarsensor, usw., oder ein beispielsweise aufgrund von Nebel oder Verschmutzung im Bereich eines optischen Pfades in seiner Sicht eingeschränkter Umfelderfassungssensor erfüllt diese Anforderungen an die Leistungsfähigkeit jedoch nicht, woraus eine reduzierte Verfügbarkeit einer Fahrzeugfunktion und/oder ein unsicherer Systemzustand mit einer großen Unfallgefahr resultieren. Mittels des Verfahrens ist eine stetige Überprüfung des
zumindest einen Umfelderfassungssensors möglich, so dass eine begrenzte
Leistungsfähigkeit desselben zuverlässig erkannt wird und in Abhängigkeit der
Leitungsfähigkeit der Automatisierungsgrad des automatisierten Fährbetriebs angepasst werden kann oder die Fahraufgabe vollständig an den Fahrer übergeben werden kann. Somit kann stets ein sicherer Fährbetrieb des Fahrzeugs realisiert werden. Das heißt, mittels des Verfahrens können somit potenziell gefährliche Situationen, beispielsweise keine oder eine zu späte Erfassung von dynamischen Objekten und stationären Objekten, im Umfeld des Fahrzeugs durch nicht erkannte Einbrüche einer Leistungsfähigkeit des Umfelderfassungssensors bei der Umfelderfassung vermieden werden. Das heißt, mittels des Verfahrens kann ein Fehlerfall aufgrund einer Degradation eines oder mehrerer Umfelderfassungssensoren des Fahrzeugs erkannt werden und es können daraufhin unterstützende Systemreaktionen eingeleitet werden, beispielsweise eine langsamere Fahrt bis hin zu einem Nothalt.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird das Fahrzeug bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zum Stillstand gebracht. Dies erhöht die Sicherheit des Fahrzeugs, innerhalb desselben befindlicher Insassen und anderer Verkehrsteilnehmer signifikant.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird das Fahrzeug bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zunächst zu einem Fahrbahnrand oder einem Seitenstreifen geführt und anschließend zum Stillstand gebracht. Hierdurch wird neben der Sicherheit des
Fahrzeugs auch die Sicherheit innerhalb desselben befindlicher Insassen und anderer Verkehrsteilnehmer weiter erhöht, da eine Kollisionswahrscheinlichkeit mit anderen Verkehrsteilnehmern reduziert wird.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
Dabei zeigt:
Fig. 1 schematisch ein Beispiel einer Umfelderfassung mittels eines
Umfelderfassungssensors eines Fahrzeugs,
Fig. 2 schematisch ein weiteres Beispiel einer Umfelderfassung mittels eines Umfelderfassungssensors eines Fahrzeugs und
Fig. 3 schematisch ein Blockschaltbild einer Vorrichtung zum Betrieb eines
Fahrzeugs.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
Anhand der Figuren 1 und 2, welche beispielhaft eine Umfelderfassung mittels eines Umfelderfassungssensors 1 eines Fahrzeugs 2 zeigen, und anhand der Figur 3, welche ein Blockschaltbild eines möglichen Ausführungsbeispiels einer Vorrichtung 3 zum Betrieb eines Fahrzeugs 2 zeigt, werden im Folgenden ein Verfahren zur Überprüfung des mindestens einen Umfelderfassungssensors 1 des Fahrzeugs 2 und ein Verfahren zum Betrieb des Fahrzeugs 2 beschrieben. Das Fahrzeug 2 ist dabei zu einem automatisierten Fährbetrieb, insbesondere einem hochautomatisierten oder autonomen Fährbetrieb, ausgebildet.
In dem Verfahren zur Überprüfung des Umfelderfassungssensors 1 wird das Fahrzeug 2 in einer digitalen Karte 4 lokalisiert, insbesondere indem eine Position POS des
Fahrzeugs 2 ermittelt wird und eine entsprechende Position in der digitalen Karte 4 ermittelt wird. In der digitalen Karte 4 werden Merkmale M von dort hinterlegten stationären Objekten 5 einer Umgebung des Fahrzeugs 2 identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, wenn dieser fehlerfrei arbeitet.
Die digitale Karte 4 ist insbesondere eine so genannte HD- Karte und wird zum
automatisierten Fährbetrieb des Fahrzeugs 2 verwendet. Sie repräsentiert eine
Umgebung des Fahrzeugs 2 mit einer vorgebbaren und zumindest nahezu beliebigen Sichtweite und beinhaltet nötige weiterführende Informationen, die zum automatisierten Fahren erforderlich sind. Die digitale Karte 4 ist auf einer fahrzeugexternen zentralen Speichereinheit 6, insbesondere einem Server oder Backend-Server, hinterlegt. In der digitalen Karte 4 vorhandene Kartendaten D werden dem Fahrzeug 2 und gegebenenfalls weiteren Fahrzeugen 7.1 bis 7.n in Echtzeit zur Verfügung gestellt.
Zur Aktualisierung der digitalen Karte 4 werden unter anderem Informationen I der Fahrzeuge 2, 7.1 bis 7.n herangezogen, welche diese per Upload der Speichereinheit 6 zur Verfügung stellen. Hierbei wird ein so genanntes "Map Learning" durchgeführt, wobei durch Aggregation der Informationen I Aussagen
- zu einer geänderten Verkehrsführung,
- zu einem korrekten Fahrverhalten, beispielsweise einem Fahren in einer Fahrspur,
- zu Solltrajektorien, beispielsweise wird mit Rechtsversatz gefahren und/oder eine Rettungsgasse gebildet, und
- zu einer Topologie der Umgebung, beispielsweise einer Anzahl von Fahrspuren, abgeleitet werden.
Neben einem Upload von so genannten HD-Karten-Attributen mit einer absoluten Position für das "Map Learning" können auch so genannte OEM-spezifische Daten (OEM = engl. Original Equipment Manufacturer; deutsch: Erstausrüster), wie beispielsweise
Systemzustände eines Fahrerassistenzsystems eines Fahrzeug 2 für eine bestimmte Position in der digitalen Karte 4 lokalisiert und in der digitalen Karte 4 abgespeichert werden. Dies wird auch als "OEM specific overlay" in der digitalen Karte 4 bezeichnet.
Die Umgebung des Fahrzeugs 2 wird mit dem Umfelderfassungssensor 1 erfasst. Es wird auf eine Degradation des Umfelderfassungssensors 1 geschlossen, wenn
erwartungsgemäß zu erkennende Merkmale M nicht vom Umfelderfassungssensor 1 erkannt werden oder wenn vom Umfelderfassungssensor 1 tatsächlich erkannte
Merkmale M von den erwartungsgemäß zu erkennenden Merkmalen M stark abweichen.
Das heißt, wenn der Umfelderfassungssensor 1 Merkmale M erkennt, so werden die erwartungsgemäß zu erkennenden Merkmale M mit diesen vom
Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen M verglichen. Wenn die erwartungsgemäß zu erkennenden Merkmale M mit diesen vom
Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen M übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen M und den vom Umfelderfassungssensor 1 tatsächlich erkannten
Merkmalen M vorliegt, wird keine Degradation des Umfelderfassungssensors 1 festgestellt. Wenn jedoch der Umfelderfassungssensor 1 keine Merkmale M erkennt oder wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale M in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen M nicht übereinstimmen
und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors 1 geschlossen.
Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. Das heißt, wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale M zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen M übereinstimmen, die
Abweichung zwischen den vom Umfelderfassungssensor 1 tatsächlich erkannten
Merkmalen M und den erwartungsgemäß zu erkennenden Merkmalen M jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des Umfelderfassungssensors 1 erkannt. Der Schwellwert für ein
Toleranzmaß kann beispielsweise über Sicherheitsanforderungen abgeleitet werden, wonach beispielsweise ein Abstandmesswert einen vorgegebenen Fehler nicht überschreiten darf oder eine Klassifikationsrate eines Umfelderfassungssensors 1 in einem Sensorverbund einen vorgegebenen Schwellwert nicht unterschreiten darf.
Das Verfahren ermöglicht es, dem automatisiert fahrenden Fahrzeug 2, beispielsweise einem Shuttle oder Robotaxi, zu ermitteln, ob eine Umfelderfassungssensorik, umfassend den mindestens einen Umfelderfassungssensor 1 oder mehrere gleiche oder
unterschiedliche Umfelderfassungssensoren 1 , eine Reduktion einer Leistungsfähigkeit aufweist. Im Falle einer erkannten Reduktion der Leistungsfähigkeit kann eine erweiterte Systemreaktion des Fahrzeugs 2 zur Vermeidung von gefährlichen Situationen eingeleitet werden.
Zur Realisierung des Verfahrens zur Überprüfung des Umfelderfassungssensors 1 wird ein ordnungsgemäßer Zustand des Umfelderfassungssensors 1 , insbesondere
hinsichtlich einer Kalibrierung, Sichtweite, Blockage, usw., im Fahrzeug 2 bzw. im
Umfelderfassungssensor 1 selbst überwacht. Ohne Referenzmessungen der befahrenen Umgebung ist dies aber jedoch schwieriger und langwieriger, da meist statistische
Prozess durchgeführt werden müssen. Aus diesem Grund wird das oben genannte "OEM specific overlay" in der digitalen Karte 4 zum Ablegen von zu erwartenden
Referenzmessungen und entsprechender sensorspezifischer Messeigenschaften genutzt.
Hierbei wird für im Fahrzeug 2 vorhandene Sensortechnologien, d. h. für den jeweiligen Umfelderfassungssensor 1 , welcher mittels des Verfahrens überprüft werden soll, erreicht,
dass zu jedem Zeitpunkt bekannt ist, welche I nf rastru ktu ro bj ekte , d. h. stationäre
Objekte 5, zum Beispiel Gebäude G, Verkehrszeichen V, Verkehrseinrichtungen L, beispielsweise Leitpfosten, und/oder andere Objekte 5 an welcher Stelle bzw. Position erkannt werden müssten. Sollte/n eines oder mehrere der erwarteten stationären
Objekte 5, insbesondere deren Merkmale M, mittels des jeweiligen
Umfelderfassungssensors 1 nicht ermittelt werden können und sollte dies nicht durch eine Sichtverdeckung, insbesondere durch weitere dynamische Objekte, begründet werden können, ist von einer so genannten Performancedegradation, d. h. von einer Degradation des jeweiligen Umfelderfassungssensors 1 , auszugehen.
Eine solche Degradation kann beispielsweise durch atmosphärische Einflüsse, zum Beispiel durch Nebel und/oder Regen und/oder Schnee, und/oder durch mechanische Einflüsse erfolgen. Figur 2 zeigt ein Beispiel eines atmosphärischen Einflusses, d. h. einer atmosphärischen Störung 8 des Umfelderfassungssensors 1.
Das Verfahren lässt diesbezüglich Hinweise auf die jeweilige Ursache zu. So zeichnen sich atmosphärische Einflüsse systematisch in allen betroffenen
Umfelderfassungssensoren 1 der für solche atomsphärischen Einflüsse empfindlichen Technologien aus, wohingegen mechanische Einflüsse auf einen
Umfelderfassungssensor 1 oder wenige Umfelderfassungsensoren 1 beschränkt bleiben. Das heißt, auf einen mechanischen Einfluss kann insbesondere dann geschlossen werden, wenn einer oder mehrere Umfelderfassungsensoren 1 des Fahrzeugs 2 eine Degradation aufweisen und ein oder mehrere andere Umfelderfassungsensoren 1 des Fahrzeugs 2, welche auf gleiche Weise ausgebildet sind wie die
Umfelderfassungsensoren 1 , die die Degradation aufweisen, und/oder von einer atmosphärisch bedingten Degradation ebenfalls betroffen sein müssten, keine
Degradation aufweisen.
Eine solche Ermittlung, ob die jeweils vorliegende Degradation atmosphärisch oder mechanisch bedingt ist, kann vorteilhaft sein, denn eine atmosphärisch bedingte
Degradation verändert sich mit der Veränderung der atmosphärischen Bedingungen, so dass bei wieder verbesserten atmosphärischen Bedingungen keine Degradation des Umfelderfassungssensors 1 mehr vorliegt. Eine mechanische Degradation, beispielsweise aufgrund einer Beschädigung des Umfelderfassungssensors 1 und/oder eines Bereichs des Fahrzeugs 2, in welchem dieser installiert ist, verbessert sich nicht von selbst,
sondern bedarf beispielsweise einer Reparatur oder eines Austauschs oder einer Justierung und/oder Kalibrierung des Umfelderfassungssensors 1.
Hierzu ist es jedoch erforderlich, dass dem Fahrzeug 2 bekannt ist, welche stationären Objekte 5 mit welchen Merkmalen M in der Umgebung vorhanden sind und von dem zumindest einen Umfelderfassungssensor 1 erkannt werden müssten.
Hierzu werden die Merkmale M von hinterlegten stationären Objekten 5 der Umgebung des Fahrzeugs 2, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, insbesondere gemeinsam sensorspezifischen Erfassungsinformationen in der digitalen Karte 4 hinterlegt. Die digitale Karte 4 wird mit den hinterlegten
Merkmalen M der stationären Objekte 5 für einen vorgegebenen Vorausschauhorizont vom Fahrzeug 2 von der fahrzeugexternen zentralen Speichereinheit 6 abgerufen.
Das Fahrzeug 2 ist dabei derart ausgebildet, dass die Merkmale M in der digitalen Karte 4 identifiziert und aus dieser erkannt werden können. Aufgrund der Hinterlegung der Merkmale M mit den sensorspezifischen Erfassungsinformationen, das heißt
sensorspezifischen Zusatzdaten des entsprechenden Umfelderfassungssensors 1 , sind die stationären Objekte 5 und deren Merkmale M somit sensorspezifisch in der digitalen Karte 4 kodiert, so dass aus der digitalen Karte 4 direkt ausgelesen werden kann, welche stationären Objekte 5 und welche zugehörigen entsprechenden Merkmale M der jeweilige Umfelderfassungssensor 1 in der Umgebung des Fahrzeugs 2 erkennen muss.
Weiterhin wird die digitale Karte 4 auf der fahrzeugexternen zentralen Speichereinheit 6 fortlaufend aktualisiert, wobei die Aktualisierung anhand von mittels einer Vielzahl von Fahrzeugen 2, 7.1 bis 7.n erfassten und an die Speichereinheit 6 übertragenen
Merkmalen M von stationären Objekten 5 durchgeführt wird. Beispielsweise übermittelt ein mit einem sicher kalibrierten Umfelderfassungssensor 1 ohne erkannte
Sichtweitenbeschränkung ausgerüstetes Fahrzeug 2 seine von seinem
Umfelderfassungssensor 1 erkannten Merkmale M von stationären Objekten 5 in der Umgebung an die Speichereinheit 6.
Dabei werden als Merkmale M der stationären Objekte 5 in Abhängigkeit der Art des Umfelderfassungssensors 1 bei Ausbildung des Umfelderfassungssensors 1 als
Lidarsensor beispielsweise eine Reflektivität der stationären Objekte 5 in einer
vorgegebenen Entfernung zum Umfelderfassungssensor 1 , bei Ausbildung des
Umfelderfassungssensors 1 als Radarsensor beispielsweise ein Rückstrahlquerschnitt der stationären Objekte 5 und bei Ausbildung des Umfelderfassungssensors 1 als Kamera beispielsweise eine Textur der stationären Objekte 5 in der digitalen Karte 4 hinterlegt. Beispielsweise wird bei Ausbildung des Umfelderfassungssensors 1 als Lidarsensor an die Speichereinheit 6 gemeinsam mit der Position POS des entsprechenden
Fahrzeugs 2, 7.1 bis 7.n übermittelt, dass in 100 m Entfernung die Reflektivität des dort befindlichen Leitpfostens "XX Lumen" beträgt, oder bei Ausbildung des
Umfelderfassungssensors 1 als Radarsensor, dass ein Rückstrahlquerschnitt des
Objekts 5 "YY cm2" beträgt, oder bei Ausbildung des Umfelderfassungssensors 1 als Kamera das Objekt 5 eine bestimmte Textur aufweist.
Weiterhin werden sensorspezifische Zusatzdaten zu dem Objekt 5, wie beispielsweise eine Positionsangabe des Objekts 5, an die Speichereinheit 6 übermittelt, in dieser gegebenenfalls konsolidiert und zugehörig zum Objekt 5 im "OEM specific overlay" abgelegt.
Anhand der Vielzahl der übertragenen Merkmale M wird weiterhin ermittelt, wie hoch eine Zuverlässigkeit dieser ist. Eine Aktualisierung der digitalen Karte 4 erfolgt nur dann, wenn die übertragenen Merkmale M von den in der digitalen Karte 4 hinterlegten Merkmalen M abweichen und eine Zuverlässigkeit einen vorgegebenen Wert überschreitet.
Für jedes der Fahrzeuge 2, 7.1 bis 7.n, im vorliegenden Fall für das Fahrzeug 2, ist es nun möglich, die Kartendaten D der digitalen Karte 4 gemeinsam mit den Merkmalen M der stationären Objekte 5 für den vorgegebenen Vorausschauhorizont von der
fahrzeugexternen zentralen Speichereinheit 6 abzurufen und den oben beschriebenen Vergleich der erfassten Merkmale M mit den hinterlegten Merkmalen M durchzuführen, um eine Degradation des Umfelderfassungssensors 1 zu ermitteln.
Wird eine solche Degradation des jeweiligen überprüften Umfelderfassungssensors 1 erkannt, reagiert das System, d. h. das Fahrzeug 2, insbesondere ein System zur
Durchführung des automatisierten Fährbetriebs des Fahrzeugs 2, vorteilhafterweise mit einem adäquaten Verhalten, wobei ein Automatisierungsgrad des Fährbetriebs reduziert wird.
So wird zum Beispiel bei einer Reduktion einer Sichtweite, d. h. einer
Erfassungsreichweite, des jeweiligen überprüften Umfelderfassungssensors 1
vorteilhafterweise eine maximale Geschwindigkeit des Fahrzeugs 2 reduziert. Alternativ oder zusätzlich kann das Fahrzeug 2 in einem solchen Fehlerfall, d. h. bei einer erkannten Degradation des jeweiligen überprüften Umfelderfassungssensors 1 beispielsweise auch aktiv abgestellt werden. In diesem Fall fährt das Fahrzeug 2 beispielsweise automatisiert zu einer geeigneten Position, beispielsweise an einen Fahrbahnrand, auf eine Standspur, in eine Nothaltebucht oder auf einen Parkplatz, und wird dort abgestellt. Die jeweilige Vorgehensweise, d. h. ob, in welcher Form, mit welcher Geschwindigkeit und wie weit das Fahrzeug 2, insbesondere automatisiert, noch weiterfährt, hängt insbesondere von einem Ausmaß der ermittelten Degradation des jeweiligen Umfelderfassungssensors 1 ab und davon, wie viele und welche Umfelderfassungssensoren 1 des Fahrzeugs 2 eine solche Degradation aufweisen.
Alternativ oder zusätzlich zu einer solchen insbesondere automatischen Reaktion des Fahrzeugs 2 auf die erkannte Degradation des jeweiligen überprüften
U mfelderfassungssensors 1 kann beispielsweise vorgesehen sein, dass ein Teleoperator, d. h. eine Person, welche sich nicht im Fahrzeug 2 oder in unmittelbarer Nähe zum Fahrzeug 2 befindet, sondern einen Fernzugriff auf das Fahrzeug 2, insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des Fahrzeugs 2, hat, eine aktuelle Leistungsfähigkeit des jeweiligen Umfelderfassungssensors 1 für welchen durch die Überprüfung eine Degradation festgestellt wurde, bewertet und entsprechend weitere Schritte veranlasst, beispielsweise die maximale Geschwindigkeit des Fahrzeugs 2 reduziert, eine Fahrtroute des Fahrzeugs 2 ändert und/oder das Fahrzeug 2,
insbesondere an einer geeigneten Abstellposition, abstellt oder dies veranlasst.
Auch ist es möglich, dass bei erfasster Degradation zumindest eines
Umfelderfassungssensors 1 eine Fahraufgabe an einen Fahrer übergeben wird, damit dieser das Fahrzeug 2 weiterführt. Bei fehlender Übernahme der Fahraufgabe durch den Fahrer, beispielsweise aufgrund einer Einschränkung desselben, wird das Fahrzeug 2 innerhalb eines vorgegebenen Zeitraums zum Stillstand gebracht wird. In einer möglichen Ausgestaltung ist vorgesehen, dass vor einem Stopp des Fahrzeugs 2 dieses zunächst zu einem Fahrbahnrand oder einem Seitenstreifen geführt und anschließend zum Stillstand gebracht wird.
Claims
1. Verfahren zur Überprüfung zumindest eines Umfelderfassungssensors (1) eines Fahrzeugs (2), wobei
- das Fahrzeug (2) in einer digitalen Karte (4) lokalisiert wird,
- in der digitalen Karte (4) Merkmale (M) von hinterlegten stationären Objekten (5) einer Umgebung des Fahrzeugs (2) identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden,
- die Umgebung des Fahrzeugs (2) mit dem Umfelderfassungssensor (1) erfasst wird und
- auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale (M) nicht vom
Umfelderfassungssensor (1) erkannt werden oder wenn vom
U mfelderfassungssensor (1) tatsächlich erkannte Merkmale (M) von den
erwartungsgemäß zu erkennenden Merkmalen (M) stark abweichen,
dadurch gekennzeichnet, dass
die digitale Karte (4) mit den hinterlegten Merkmalen (M) der stationären Objekte (5) für einen vorgegebenen Vorausschauhorizont von einer fahrzeugexternen zentralen Speichereinheit (6) abgerufen wird.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
als Merkmale (M) der stationären Objekte (5) in Abhängigkeit einer Art des
Umfelderfassungssensors (1)
- eine Reflektivität der stationären Objekte (5) in einer vorgegebenen Entfernung zum Umfelderfassungssensor (1),
- ein Rückstrahlquerschnitt der stationären Objekte (5) und/oder
- eine Textur der stationären Objekte (5)
ausgewertet werden.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
die digitale Karte (4) auf der fahrzeugexternen zentralen Speichereinheit (6) fortlaufend aktualisiert wird.
4. Verfahren nach Anspruch 3,
dadurch gekennzeichnet, dass
die Aktualisierung anhand von mittels einer Vielzahl von Fahrzeugen (2, 7.1 bis 7.n) erfassten und an die Speichereinheit (6) übertragenen Merkmalen (M) von stationären Objekten (5) durchgeführt wird.
5. Verfahren nach Anspruch 4,
dadurch gekennzeichnet, dass
anhand der Vielzahl der übertragenen Merkmale (M) ermittelt wird, wie hoch eine Zuverlässigkeit dieser ist.
6. Verfahren nach Anspruch 5,
dadurch gekennzeichnet, dass
die digitale Karte (4) dann aktualisiert wird, wenn die übertragenen Merkmale (M) von den in der digitalen Karte (4) hinterlegten Merkmalen (M) abweichen und eine Zuverlässigkeit einen vorgegebenen Wert überschreitet.
7. Verfahren nach einem der Ansprüche 3 bis 6,
dadurch gekennzeichnet, dass
die Merkmale (M) gemeinsam mit sensorspezifischen Zusatzdaten des
entsprechenden Umfelderfassungssensors (1) an die zentrale Speichereinheit (6) übermittelt und gemeinsam mit den zugehörigen Merkmalen (M) auf der zentralen Speichereinheit (6) hinterlegt werden.
8. Verfahren zum Betrieb eines Fahrzeugs (2), welches zu einem automatisierten Fährbetrieb, insbesondere einem hochautomatisierten oder autonomen Fährbetrieb ausgebildet ist, wobei zumindest ein Umfelderfassungssensor (1) des Fahrzeugs (2) in einem Verfahren zur Überprüfung eines Umfelderfassungssensors (1) nach einem der vorhergehenden Ansprüche überprüft wird und bei Vorliegen einer
Degradation des Umfelderfassungssensors (1) ein Automatisierungsgrad des Fährbetriebs reduziert oder eine Fahraufgabe an einen Fahrer übergeben wird.
9. Verfahren nach Anspruch 8,
dadurch gekennzeichnet, dass
das Fahrzeug (2) bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zum Stillstand gebracht wird.
10. Verfahren nach Anspruch 9
dadurch gekennzeichnet, dass
das Fahrzeug (2) bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zunächst zu einem Fahrbahnrand oder einem Seitenstreifen geführt und anschließend zum Stillstand gebracht wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/600,655 US20220177005A1 (en) | 2019-04-04 | 2020-03-18 | Method for checking a surroundings detection sensor of a vehicle and method for operating a vehicle |
CN202080025095.6A CN113631951A (zh) | 2019-04-04 | 2020-03-18 | 用于检查车辆环境检测传感器的方法和车辆的操作方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102019002487.7A DE102019002487A1 (de) | 2019-04-04 | 2019-04-04 | Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs |
DE102019002487.7 | 2019-04-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2020200792A1 true WO2020200792A1 (de) | 2020-10-08 |
Family
ID=69953987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2020/057486 WO2020200792A1 (de) | 2019-04-04 | 2020-03-18 | Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220177005A1 (de) |
CN (1) | CN113631951A (de) |
DE (1) | DE102019002487A1 (de) |
WO (1) | WO2020200792A1 (de) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102021101247B4 (de) | 2021-01-21 | 2023-05-04 | Audi Aktiengesellschaft | Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger |
BE1028777B1 (nl) | 2021-03-25 | 2022-06-01 | Ivex | Systeem en methode voor het detecteren van inconsistenties in de outputs van perceptiesystemen van autonome voertuigen |
DE102021107793A1 (de) | 2021-03-29 | 2022-09-29 | Ford Global Technologies, Llc | Verfahren zum Betreiben einer Fahrerassistenzfunktion |
DE102021111325A1 (de) | 2021-05-03 | 2022-11-03 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug |
DE102021004414A1 (de) | 2021-08-31 | 2023-03-02 | Mercedes-Benz Group AG | Verfahren zur Detektion einer optischen Blockade einer Kamera eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs |
DE102021128116A1 (de) | 2021-10-28 | 2023-05-04 | Cariad Se | System und Verfahren zum Plausibilisieren einer Fahrzeugumgebungshypothese für ein Kraftfahrzeug |
EP4191275A1 (de) * | 2021-12-03 | 2023-06-07 | Nxp B.V. | V2x für sensorgegenproben und -diagnose |
DE102022000823B3 (de) | 2022-03-09 | 2023-08-10 | Mercedes-Benz Group AG | Verfahren zur Kalibrierung zumindest eines Sensors einer Umgebungssensorik einer Vielzahl von Fahrzeugen |
DE102022001120A1 (de) | 2022-03-31 | 2023-10-05 | Mercedes-Benz Group AG | Kalibrierung und Justierung einer Kamera eines Fahrzeugs |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10313002B4 (de) | 2003-03-24 | 2006-03-23 | Daimlerchrysler Ag | Fahrzeugumgebungserfassungseinheit |
EP1909066A1 (de) * | 2006-10-05 | 2008-04-09 | Research In Motion Limited | Verbessertes Verfahren zur Datenabfrage für standortabhängige Dienste in einer drahtlosen Vorrichtung |
DE102013206707A1 (de) | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs |
DE102014226020A1 (de) * | 2014-12-16 | 2016-06-16 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung |
DE102017000753A1 (de) * | 2017-01-27 | 2017-07-13 | Daimler Ag | Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung |
DE102017003741A1 (de) * | 2017-04-19 | 2018-10-25 | Daimler Ag | Verfahren zur Bestimmung einer Reichweite |
DE102018119235A1 (de) * | 2017-08-10 | 2019-02-14 | GM Global Technology Operations LLC | System und verfahren zum bereitstellen einer karte für autonome fahrzeuge über ein cloud-basiertes system |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102012000724A1 (de) * | 2011-06-29 | 2013-01-03 | Volkswagen Ag | Verfahren und Vorrichtung zum teilautomatisierten Fahren eines Kraftfahrzeugs |
DE102012212740A1 (de) * | 2012-07-19 | 2014-05-22 | Continental Automotive Gmbh | System und Verfahren zum Aktualisieren einer digitalen Karte eines Fahrerassistenzsystems |
DE102012023498A1 (de) * | 2012-12-03 | 2014-06-05 | Continental Automotive Gmbh | Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung |
DE102015206605A1 (de) * | 2015-04-14 | 2016-10-20 | Continental Teves Ag & Co. Ohg | Kalibrierung und Überwachung von Umfeldsensoren mit Hilfe hochgenauer Karten |
DE102015010542A1 (de) * | 2015-08-12 | 2016-02-11 | Daimler Ag | Verfahren zur Erzeugung einer digitalen Umgebungskarte |
CN105857091A (zh) * | 2016-04-21 | 2016-08-17 | 陈昌志 | 新能源电动汽车 |
DE102016209203A1 (de) * | 2016-05-27 | 2017-11-30 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum automatischen Anhalten eines Kraftfahrzeugs, das zumindest zeitweise automatisch auf einer Fahrroute geführt wird |
US10209081B2 (en) * | 2016-08-09 | 2019-02-19 | Nauto, Inc. | System and method for precision localization and mapping |
DE102017214531A1 (de) * | 2017-08-21 | 2019-02-21 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zum Betreiben eines Kraftfahrzeugs in einem automatisierten Fahrbetrieb sowie Kraftfahrzeug |
DE102018006503A1 (de) * | 2018-08-16 | 2019-01-24 | Daimler Ag | Digitale Karte |
-
2019
- 2019-04-04 DE DE102019002487.7A patent/DE102019002487A1/de active Pending
-
2020
- 2020-03-18 WO PCT/EP2020/057486 patent/WO2020200792A1/de active Application Filing
- 2020-03-18 US US17/600,655 patent/US20220177005A1/en active Pending
- 2020-03-18 CN CN202080025095.6A patent/CN113631951A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10313002B4 (de) | 2003-03-24 | 2006-03-23 | Daimlerchrysler Ag | Fahrzeugumgebungserfassungseinheit |
EP1909066A1 (de) * | 2006-10-05 | 2008-04-09 | Research In Motion Limited | Verbessertes Verfahren zur Datenabfrage für standortabhängige Dienste in einer drahtlosen Vorrichtung |
DE102013206707A1 (de) | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs |
DE102014226020A1 (de) * | 2014-12-16 | 2016-06-16 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung |
DE102017000753A1 (de) * | 2017-01-27 | 2017-07-13 | Daimler Ag | Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung |
DE102017003741A1 (de) * | 2017-04-19 | 2018-10-25 | Daimler Ag | Verfahren zur Bestimmung einer Reichweite |
DE102018119235A1 (de) * | 2017-08-10 | 2019-02-14 | GM Global Technology Operations LLC | System und verfahren zum bereitstellen einer karte für autonome fahrzeuge über ein cloud-basiertes system |
Also Published As
Publication number | Publication date |
---|---|
US20220177005A1 (en) | 2022-06-09 |
DE102019002487A1 (de) | 2020-10-08 |
CN113631951A (zh) | 2021-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020200792A1 (de) | Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs | |
WO2021043507A1 (de) | Querführung eines fahrzeugs mittels von anderen fahrzeugen erfassten umgebungsdaten | |
WO2020088857A1 (de) | Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs | |
DE102019002790B4 (de) | Verfahren zur Prädiktion einer Verkehrssituation für ein Fahrzeug | |
EP3526546B1 (de) | Verfahren und system zur lokalisierung eines fahrzeugs | |
WO2016150590A1 (de) | Verfahren und vorrichtung zum überwachen einer von einem fahrzeug abzufahrenden soll-trajektorie auf kollisionsfreiheit | |
EP3526095A1 (de) | Kategorisierung von fahrzeugen in der umgebung eines kraftfahrzeugs | |
EP3663719A1 (de) | Verfahren zum bereitstellen von kartendaten in einem kraftfahrzeug, kraftfahrzeug und zentrale datenverarbeitungseinrichtung | |
EP3695192A1 (de) | Verfahren zur kartierung eines streckenabschnitts | |
EP4176378A1 (de) | Verfahren zur umgebungserfassung mit wenigstens zwei unabhängigen bildgebenden umgebungserfassungssensoren, vorrichtung zur durchführung des verfahrens, fahrzeug sowie entsprechend ausgelegtes computerprogramm | |
EP3827277B1 (de) | Verfahren, system und elektronische recheneinrichtung zum überprüfen von sensoreinrichtungen von fahrzeugen, insbesondere von kraftfahrzeugen | |
DE102017010832A1 (de) | Verfahren zur Bewertung einer erkannten Geschwindigkeitsbegrenzung | |
DE102014210752A1 (de) | Verfahren und Vorrichtung zum Überwachen einer Solltrajektorie eines Fahrzeugs | |
WO2015149799A1 (de) | Stereokamerasystem | |
EP4007891B1 (de) | Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in einer umgebung | |
DE102019218078B4 (de) | Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs | |
WO2022122250A1 (de) | Infrastrukturgestützte trajektorienermittlung für autonome fahrzeuge | |
DE102017218932B4 (de) | Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels | |
EP3655934B1 (de) | Konzept zum überwachen eines parkraums | |
WO2020104355A1 (de) | Verfahren und vorrichtung zum speichern von daten für ein fahrzeug | |
DE102021114626A1 (de) | Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem, verfahren zum betreiben eines fahrerassistenzsystems, fahrerassistenzsystem, fahrzeug und anordnung | |
WO2023030752A1 (de) | Verfahren zur detektion einer optischen blockade einer kamera eines fahrzeugs und verfahren zum betrieb eines fahrzeugs | |
DE102022212687A1 (de) | Autonome Fahrsteuerungsvorrichtung und Verfahren für diese | |
DE102021209315A1 (de) | Verfahren zum Betreiben eines Infrastruktursystems zur Fahrunterstützung von zumindest teilautomatisiert geführten Kraftfahrzeugen | |
DE102020209817A1 (de) | Zumindest teilweise autonom steuerbares Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zur Validierung von Informationen über eine Beschränkung eines Verkehrsbereichs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20713543 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 20713543 Country of ref document: EP Kind code of ref document: A1 |