WO2020200792A1 - Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs - Google Patents

Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs Download PDF

Info

Publication number
WO2020200792A1
WO2020200792A1 PCT/EP2020/057486 EP2020057486W WO2020200792A1 WO 2020200792 A1 WO2020200792 A1 WO 2020200792A1 EP 2020057486 W EP2020057486 W EP 2020057486W WO 2020200792 A1 WO2020200792 A1 WO 2020200792A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
detection sensor
features
surroundings
surroundings detection
Prior art date
Application number
PCT/EP2020/057486
Other languages
English (en)
French (fr)
Inventor
Thomas Gottbehüt
Rihab Laarousi
Original Assignee
Daimler Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Ag filed Critical Daimler Ag
Priority to US17/600,655 priority Critical patent/US20220177005A1/en
Priority to CN202080025095.6A priority patent/CN113631951A/zh
Publication of WO2020200792A1 publication Critical patent/WO2020200792A1/de

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0059Estimation of the risk associated with autonomous or manual driving, e.g. situation too complex, sensor failure or driver incapacity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4049Relationship among other objects, e.g. converging dynamic objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation

Definitions

  • the invention relates to a method for checking a surroundings detection sensor of a vehicle according to the preamble of claim 1.
  • the invention also relates to a method for operating a vehicle.
  • a vehicle environment detection unit is known from DE 103 13 002 B4, with information about the surroundings being detected by means of an image sensor. The captured
  • Ambient information is processed into image information by means of a computing unit and displayed on a video image display.
  • the computing unit is processed into image information by means of a computing unit and displayed on a video image display.
  • Image information is stored in a buffer.
  • a last captured image is combined with the image information stored in the buffer memory using a
  • Image processing algorithms compared.
  • the displayed video image is shown changed.
  • Vehicle operating parameters are fed to the vehicle environment detection unit in order to conclude that there is an impermissible deviation because a deviation that is to be expected on the basis of the operating parameters occurs
  • the environment detection system comprises two different types of environment sensor. A field of vision of a first
  • Environment sensor type updated taking into account the movement of the vehicle.
  • Surroundings detection sensor of a vehicle wherein the vehicle is localized in a digital map and features of stored stationary objects of an environment of the vehicle are identified in the digital map which are expected to be detected by the surroundings detection sensor.
  • the surroundings of the vehicle are recorded with the surroundings detection sensor, with a degradation of the
  • Surrounding area detection sensor is closed when the features that are expected to be detected are not detected by the surrounding area detection sensor or when from
  • Environment detection sensor actually recognized features differ greatly from the expected features to be recognized.
  • the invention is based on the object of providing a method, which is improved over the prior art, for checking a surroundings detection sensor
  • the object is according to the invention with a method for checking a
  • the vehicle In a method for checking at least one surroundings detection sensor of a vehicle, the vehicle is localized in a digital map and features of stored stationary objects of an surroundings of the vehicle are identified in the digital map which are expected to be recognized by the surroundings detection sensor. Furthermore, the surroundings of the vehicle with the
  • Environment detection sensor actually recognized features differ greatly from the expected features to be recognized.
  • the digital map with the stored features of the stationary objects is called up from a central storage unit external to the vehicle for a predetermined forecast horizon.
  • the storage of the features on the central storage unit external to the vehicle for example a server, in particular a so-called backend server, enables data storage on the vehicle's own storage units to be minimized.
  • a size of free storage capacity in the vehicle can be reduced and, on the other hand, it can be ensured in a simple manner that the features used in the vehicle are always up-to-date.
  • the method always enables a reliable check of the at least one
  • Environment detection sensor based system operated, such as a
  • the at least one surroundings detection sensor detects features
  • the features that are expected to be detected are compared with these features actually detected by the surroundings detection sensor.
  • the features that are expected to be recognized match these features actually recognized by the surroundings detection sensor
  • Environment detection sensor detected. If, however, the surroundings detection sensor does not recognize any features or if the features actually detected by the surroundings detection sensor in this comparison do not match the features that are expected to be recognized and there is a strong, in particular excessive, deviation inferred from the degradation of the surroundings detection sensor. A major deviation, in particular an excessively great deviation, is present in particular when the deviation exceeds a predetermined tolerance range. That is, if the from
  • landmarks, traffic signs, traffic facilities for example to delimit a roadway, such as a roadway, are used as stationary objects.
  • B. delineator posts, and / or other suitable objects are used. Due to their characteristics, such objects are particularly suitable for use in the method.
  • the digital map is continuously updated on the central storage unit external to the vehicle.
  • the vehicle always has current features for checking the at least one
  • the update is carried out on the basis of features of stationary objects recorded by means of a multiplicity of vehicles and transmitted to the storage unit. This results in a large and reliable database, whereby "outliers" can easily be recognized and taken into account. It is thus possible, in a further possible embodiment of the Method based on the large number of transferred features to determine how high a reliability is.
  • the digital map is updated when the transmitted features deviate from the features stored in the digital map and a reliability exceeds a predetermined value. A particularly effective update is thus implemented, with unnecessary
  • the features are combined with sensor-specific additional data of the corresponding
  • At least one surroundings detection sensor of the vehicle is checked in a previously described method for checking a surroundings detection sensor and, if the surroundings detection sensor is degraded, a degree of automation is set of the ferry operation reduced or a driving task handed over to a driver.
  • Decalcified surroundings detection sensor for example a camera, a radar sensor, a lidar sensor, etc., or a surroundings detection sensor whose view is restricted due to fog or pollution in the area of an optical path, however, does not meet these performance requirements, resulting in reduced availability of a vehicle function and / or an unsafe system status with a high risk of accidents result.
  • the method is used to continuously check the at least one environment detection sensor possible, so that a limited
  • the degree of automation of the automated ferry operation can be adapted or the driving task can be completely handed over to the driver.
  • a safe ferry operation of the vehicle can always be realized. That is to say, using the method, potentially dangerous situations, for example no or too late detection of dynamic objects and stationary objects, in the vicinity of the vehicle due to unrecognized drops in the performance of the environment detection sensor during environment detection can be avoided.
  • the method can be used to detect a fault due to degradation of one or more environment detection sensors of the vehicle, and supporting system reactions can then be initiated, for example slower travel up to an emergency stop.
  • the vehicle if the driver fails to take over the driving task, the vehicle is brought to a standstill within a predefined period of time. This significantly increases the safety of the vehicle, the occupants located within it and other road users.
  • the vehicle is first guided to the edge of the road or a hard shoulder within a predetermined period and then brought to a standstill.
  • Vehicle also further increases the safety of occupants located within it and other road users, since the probability of a collision with other road users is reduced.
  • FIG. 1 schematically shows an example of an environment detection by means of a
  • Environment detection sensor of a vehicle 2 schematically shows a further example of a surroundings detection by means of a surroundings detection sensor of a vehicle and
  • FIG. 3 schematically shows a block diagram of a device for operating a
  • Figures 1 and 2 which show an example of a surroundings detection by means of a surroundings detection sensor 1 of a vehicle 2
  • Figure 3 which shows a block diagram of a possible embodiment of a device 3 for operating a vehicle 2
  • a method for checking the At least one surroundings detection sensor 1 of vehicle 2 and a method for operating vehicle 2 are described.
  • the vehicle 2 is designed for an automated ferry operation, in particular a highly automated or autonomous ferry operation.
  • the vehicle 2 is localized in a digital map 4, in particular by adding a position POS of the
  • Vehicle 2 is determined and a corresponding position in the digital map 4 is determined.
  • features M of stationary objects 5 stored there in the surroundings of the vehicle 2 are identified which are expected to be recognized by the surroundings detection sensor 1 if the latter is working properly.
  • the digital card 4 is in particular a so-called HD card and is used for
  • the digital map 4 is stored on a central storage unit 6 external to the vehicle, in particular a server or backend server. Map data D present in the digital map 4 are made available to the vehicle 2 and possibly other vehicles 7.1 to 7.n in real time. To update the digital map 4, information I from the vehicles 2, 7.1 to 7.n is used, among other things, which these make available to the storage unit 6 via upload. So-called “map learning” is carried out here, with I statements being made by aggregating the information
  • - Can be derived from a topology of the environment, for example a number of lanes.
  • OEM-specific data Original Equipment Manufacturer
  • System states of a driver assistance system of a vehicle 2 can be localized for a specific position in the digital map 4 and stored in the digital map 4. This is also referred to as an “OEM specific overlay” in the digital card 4.
  • the surroundings of the vehicle 2 are detected with the surroundings detection sensor 1. It is concluded that the surroundings detection sensor 1 has degraded if
  • Environment detection sensor 1 actually recognized features M compared. If the features M to be expected to be recognized with these from
  • Environment detection sensor 1 actually recognized features M match or at least no excessive deviation between the features M to be recognized as expected and those actually detected by the environment detection sensor 1
  • a major deviation, in particular an excessively great deviation, is present in particular when the deviation exceeds a predetermined tolerance range. That is, if the features M actually recognized by the surroundings detection sensor 1 do not correspond to the features M that are expected to be recognized
  • Tolerance measure can be derived, for example, from safety requirements, according to which, for example, a measured distance value must not exceed a specified error or a classification rate of a surroundings detection sensor 1 in a sensor network must not fall below a specified threshold value.
  • the method makes it possible for the automatically driving vehicle 2, for example a shuttle or robotaxi, to determine whether a surroundings detection sensor system, comprising the at least one surroundings detection sensor 1 or several identical or
  • detection sensor 1 For sensor technologies present in the vehicle 2, ie for the respective surroundings detection sensor 1, which is to be checked by means of the method, that at any point in time it is known which I nf rastru ktu ro bj ekte, ie stationary
  • Objects 5 for example building G, traffic signs V, traffic facilities L, for example delineator posts, and / or other objects 5 at which point or position would have to be recognized. Should / n one or more of the expected inpatient
  • Environment detection sensor 1 cannot be determined and should this not be justified by a visual obscuration, in particular by further dynamic objects, is a so-called performance degradation, i.e. H. to assume a degradation of the respective surroundings detection sensor 1.
  • FIG. 1 shows an example of atmospheric influence, i.e. H. an atmospheric disturbance 8 of the surroundings detection sensor 1.
  • Surrounding area detection sensor 1 or a few surrounding area detection sensors 1 remain limited. That is to say, a mechanical influence can be inferred in particular if one or more surroundings detection sensors 1 of vehicle 2 have degradation and one or more other surroundings detection sensors 1 of vehicle 2, which are designed in the same way as the
  • Degradation changes with the change in the atmospheric conditions, so that when the atmospheric conditions improve again, there is no longer any degradation of the surroundings detection sensor 1.
  • Mechanical degradation for example due to damage to the surroundings detection sensor 1 and / or an area of the vehicle 2 in which it is installed, does not improve by itself, but requires, for example, a repair or an exchange or an adjustment and / or calibration of the surroundings detection sensor 1.
  • the vehicle 2 it is necessary for the vehicle 2 to know which stationary objects 5 with which features M are present in the environment and would have to be recognized by the at least one environment detection sensor 1.
  • the features M of stored stationary objects 5 of the surroundings of the vehicle 2, which are expected to be recognized by the surroundings detection sensor 1, in particular jointly sensor-specific detection information are stored in the digital map 4.
  • the digital card 4 is stored with the
  • the vehicle 2 is designed such that the features M can be identified in the digital map 4 and recognized therefrom. Due to the storage of the features M with the sensor-specific detection information, that is
  • the stationary objects 5 and their features M are therefore encoded sensor-specifically in the digital map 4, so that it is possible to read directly from the digital map 4 which stationary objects 5 and which associated corresponding features M are the respective surroundings detection sensor 1 must recognize in the vicinity of the vehicle 2.
  • the digital map 4 is continuously updated on the central storage unit 6 external to the vehicle, the update being recorded on the basis of a plurality of vehicles 2, 7.1 to 7.n and transmitted to the storage unit 6
  • Environment detection sensor 1 recognized features M of stationary objects 5 in the environment on the storage unit 6.
  • Lidar sensor for example, a reflectivity of the stationary objects 5 in one predetermined distance to the environment detection sensor 1, when training the
  • the storage unit 6 is connected to the storage unit 6 together with the position POS of the corresponding
  • Vehicle 2 7.1 to 7.n transmitted that the reflectivity of the delineator post located there is "XX Lumen" at a distance of 100 m, or if the
  • Object 5 is "YY cm 2 ", or if the surroundings detection sensor 1 is designed as a camera, the object 5 has a certain texture.
  • sensor-specific additional data on the object 5, such as a position specification of the object 5, are transmitted to the memory unit 6, consolidated in this if necessary and stored in the "OEM specific overlay" associated with the object 5.
  • the digital map 4 is only updated if the transmitted features M differ from the features M stored in the digital map 4 and a reliability exceeds a predetermined value.
  • the system reacts, i. H. the vehicle 2, in particular a system for
  • a maximum speed of the vehicle 2 is advantageously reduced.
  • the vehicle 2 can in such an error case, i. H. in the event of a detected degradation of the respective checked surroundings detection sensor 1, for example, can also be actively switched off.
  • the vehicle 2 drives, for example automatically, to a suitable position, for example at the edge of the road, in a hard shoulder, in an emergency stopping bay or in a parking lot, and is parked there.
  • the respective procedure, d. H. Whether, in what form, at what speed and how far the vehicle 2, in particular automated, continues to drive depends in particular on the extent of the determined degradation of the respective surroundings detection sensor 1 and on how many and which surroundings detection sensors 1 of the vehicle 2 such a degradation exhibit.
  • Surrounding detection sensor 1 can for example be provided that a teleoperator, d. H. a person who is not in the vehicle 2 or in the immediate vicinity of the vehicle 2, but has remote access to the vehicle 2, in particular to control and / or regulating devices of the vehicle 2, a current performance of the respective surroundings detection sensor 1 for which through the check, a degradation has been determined, evaluated and accordingly initiated further steps, for example reducing the maximum speed of vehicle 2, changing a route of vehicle 2 and / or vehicle 2,
  • a driving task is handed over to a driver so that he can continue driving the vehicle 2. If the driver does not take over the driving task, for example due to a restriction of the same, the vehicle 2 is brought to a standstill within a predetermined period of time. In one possible embodiment it is provided that before the vehicle 2 stops, it is first guided to the edge of the road or a hard shoulder and then brought to a standstill.

Abstract

Die Erfindung betrifft ein Verfahren zur Überprüfung zumindest eines Umfelderfassungssensors (1) eines Fahrzeugs (2), wobei das Fahrzeug (2) in einer digitalen Karte (4) lokalisiert wird, in der digitalen Karte (4) Merkmale (M) von hinterlegten stationären Objekten (5) einer Umgebung des Fahrzeugs (2) identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, die Umgebung des Fahrzeugs (2) mit dem Umfelderfassungssensor (1) erfasst wird und auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale (M) nicht vom Umfelderfassungssensor (1) erkannt werden oder wenn vom Umfelderfassungssensor (1) tatsächlich erkannte Merkmale (M) von den erwartungsgemäß zu erkennenden Merkmalen (M) stark abweichen. Erfindungsgemäß wird die digitale Karte (4) mit den hinterlegten Merkmalen (M) der stationären Objekte (5) für einen vorgegebenen Vorausschauhorizont von einer fahrzeugexternen zentralen Speichereinheit (6) abgerufen. Die Erfindung betrifft weiterhin ein Verfahren zum Betrieb eines Fahrzeugs (2), welches zu einem automatisierten Fahrbetrieb, insbesondere einem hochautomatisierten oder autonomen Fahrbetrieb ausgebildet ist.

Description

Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
Die Erfindung betrifft ein Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs gemäß dem Oberbegriff des Anspruchs 1.
Die Erfindung betrifft weiterhin ein Verfahren zum Betrieb eines Fahrzeugs.
Aus der DE 103 13 002 B4 ist eine Fahrzeugumgebungserfassungseinheit bekannt, wobei mittels eines Bildsensors Umgebungsinformationen erfasst werden. Die erfassten
Umgebungsinformationen werden mittels einer Recheneinheit zu Bildinformationen verarbeitet und auf einer Videobildanzeige dargestellt. Zusätzlich werden die
Bildinformationen in einem Zwischenspeicher abgelegt. Ein zuletzt erfasstes Bild wird mit den im Zwischenspeicher abgelegten Bildinformationen anhand einer
Bildverarbeitungsalgorithmik verglichen. Bei einer unzulässigen Abweichung des zuletzt erfassten Bildes von den abgelegten Bildinformationen wird das angezeigte Videobild verändert dargestellt. Der Fahrzeugumgebungserfassungseinheit werden Fahrzeug- Betriebsparameter zugeführt, um auf eine unzulässige Abweichung dadurch zu schließen, dass sich eine aufgrund der Betriebsparameter zu erwartende Abweichung der
Bildinformationen zwischen den Zeitpunkten der Aufnahme des zuletzt erfassten Bilds und der abgelegten Bildinformationen nicht plausibel mit dem Ergebnis eines Vergleichs dieser Bildinformationen korrelieren lässt.
Weiterhin ist aus der DE 10 2013 206 707 A1 ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bekannt. Das Umfelderfassungssystem umfasst zwei verschiedene Umfeldsensortypen. Ein Sichtbereich eines ersten
Umfeldsensortyps überlappt nicht mit einem Sichtbereich eines zweiten
Umfeldsensortyps. Objekte im Umfeld des Fahrzeugs werden mit dem ersten
Umfeldsensortyp erfasst und mit den Daten des ersten Umfeldsensortyps in statische und dynamische Objekte kategorisiert. Eine relative Position der erfassten statischen Objekte zum Fahrzeug wird bestimmt. Diese Position wird mit einer über den zweiten Umfeldsensortyp ermittelten Position verglichen. Bei einer Abweichung über einem Grenzwert wird auf einen Fehler geschlossen. Die relative Position der erfassten statischen Objekte wird nach dem Verlassen des Sichtbereichs des ersten
Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert.
Die DE 10 2018 127 059.3 beschreibt ein Verfahren zur Überprüfung eines
Umfelderfassungssensors eines Fahrzeugs, wobei das Fahrzeug in einer digitalen Karte lokalisiert wird und in der digitalen Karte Merkmale von hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst, wobei auf eine Degradation des
Umfelderfassungssensors geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom
Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Überprüfung eines Umfelderfassungssensors eines
Fahrzeugs und ein neuartiges Verfahren zum Betrieb eines Fahrzeugs anzugeben.
Die Aufgabe wird erfindungsgemäß mit einem Verfahren zur Überprüfung eines
Umfelderfassungssensors eines Fahrzeugs gelöst, welches die im Anspruch 1 angegebenen Merkmale aufweist. Weiterhin wird die Aufgabe erfindungsgemäß mit einem Verfahren zum Betrieb eines Fahrzeugs gelöst, welches die im Anspruch 8 angegebenen Merkmale aufweist.
Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
In einem Verfahren zur Überprüfung zumindest eines Umfelderfassungssensors eines Fahrzeugs wird das Fahrzeug in einer digitalen Karte lokalisiert und es werden in der digitalen Karte Merkmale von hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden. Weiterhin wird die Umgebung des Fahrzeugs mit dem
Umfelderfassungssensor erfasst und es wird auf eine Degradation des
Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom
Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
Erfindungsgemäß wird die digitale Karte mit den hinterlegten Merkmalen der stationären Objekte für einen vorgegebenen Vorausschauhorizont von einer fahrzeugexternen zentralen Speichereinheit abgerufen.
Die Hinterlegung der Merkmale auf der fahrzeugexternen zentralen Speichreinheit, beispielsweise einem Server, insbesondere einem so genannten Backend-Server, ermöglicht, dass eine Datenbevorratung auf fahrzeugeigenen Speichereinheiten minimiert werden kann. Hierdurch kann einerseits eine Größe freier Speicherkapazität im Fahrzeug verringert werden und andererseits in einfacher Weise sichergestellt werden, dass die im Fahrzeug verwendeten Merkmale stets aktuell sind. Hieraus resultierend ermöglicht das Verfahren stets eine zuverlässige Überprüfung des zumindest einen
Umfelderfassungssensors, wobei aufgrund einer Verfügbarkeit und Vorausschau von Messergebnissen einer zu erwartenden Messung mittels des Umfelderfassungssensors im Fahrzeug frühzeitig erkannt werden kann, ob sich der Umfelderfassungssensors in einem ordnungsgemäßen Zustand befindet und ein auf einer Erfassung des
Umfelderfassungssensors basierender System betrieb, wie beispielsweise ein
automatisiertes Fahren eines Fahrzeugs, möglich und sicher durchführbar oder eingeschränkt ist.
In einer möglichen Ausgestaltung des Verfahrens ist vorgesehen, dass dann, wenn der zumindest eine Umfelderfassungssensor Merkmale erkennt, die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen verglichen werden. Wenn die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen
übereinstimmen oder zumindest keine zu starke Abweichung zwischen den
erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des
Umfelderfassungssensors festgestellt. Wenn jedoch der Umfelderfassungssensor keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors geschlossen. Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. Das heißt, wenn die vom
Umfelderfassungssensor tatsächlich erkannten Merkmale zwar nicht mit den
erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des
Umfelderfassungssensors erkannt.
In einer weiteren möglichen Ausgestaltung des Verfahrens werden als stationäre Objekte Landmarken, Verkehrsschilder, Verkehrseinrichtungen, beispielsweise zur Abgrenzung einer Fahrbahn, wie z. B. Leitpfosten, und/oder andere geeignete Objekte verwendet. Derartige Objekte eignen sich aufgrund ihrer Merkmale besonders zur Verwendung in dem Verfahren.
In einer weiteren möglichen Ausgestaltung des Verfahrens werden als Merkmale der stationären Objekte in Abhängigkeit einer Art des Umfelderfassungssensors eine
Reflektivität der stationären Objekte in einer vorgegebenen Entfernung zum
Umfelderfassungssensor, ein Rückstrahlquerschnitt der stationären Objekte und/oder eine T extur der stationären Objekte ausgewertet. Derartige Merkmale erlauben eine besonders exakte Überwachung und Überprüfung des zumindest einen Umfelderfassungssensors und sind besonders einfach und zuverlässig vergleichbar.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die digitale Karte auf der fahrzeugexternen zentralen Speichereinheit fortlaufend aktualisiert. Somit stehen dem Fahrzeug stets aktuelle Merkmale zur Überprüfung des zumindest einen
U mfelderfassungssensors zur Verfügung.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die Aktualisierung anhand von mittels einer Vielzahl von Fahrzeugen erfassten und an die Speichereinheit übertragenen Merkmalen von stationären Objekten durchgeführt. Hieraus resultiert eine große und verlässliche Datenbasis, wobei "Ausreißer" einfach erkannt und berücksichtigt werden können. Somit ist es möglich, in einer weiteren möglichen Ausgestaltung des Verfahrens anhand der Vielzahl der übertragenen Merkmale zu ermitteln, wie hoch eine Zuverlässigkeit dieser ist.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird die digitale Karte dann aktualisiert, wenn die übertragenen Merkmale von den in der digitalen Karte hinterlegten Merkmalen abweichen und eine Zuverlässigkeit einen vorgegebenen Wert überschreitet. Somit wird eine besonders effektive Aktualisierung realisiert, wobei unnötige
Aktualisierungen mit unzutreffenden Merkmalen vermieden werden.
In einer weiteren möglichen Ausgestaltung des Verfahrens werden die Merkmale gemeinsam mit sensorspezifischen Zusatzdaten des entsprechenden
Umfelderfassungssensors an die zentrale Speichereinheit übermittelt und gemeinsam mit den zugehörigen Merkmalen auf der zentralen Speichereinheit hinterlegt. Somit ist in besonders vorteilhafter Weise eine sensorspezifische Anwendung der Merkmale zur Überprüfung des betreffenden Umfelderfassungssensors möglich, welche eine sehr genaue Überprüfung des Umfelderfassungssensors ermöglicht.
In dem erfindungsgemäßen Verfahren zum Betrieb eines Fahrzeugs, welches zu einem automatisierten Fährbetrieb, insbesondere einem hochautomatisierten oder autonomen Fährbetrieb ausgebildet ist, wird zumindest ein Umfelderfassungssensor des Fahrzeugs in einem zuvor beschriebenen Verfahren zur Überprüfung eines Umfelderfassungssensors überprüft und bei Vorliegen einer Degradation des Umfelderfassungssensors wird ein Automatisierungsgrad des Fährbetriebs reduziert oder eine Fahraufgabe an einen Fahrer übergeben.
Für eine Verfügbarkeit und Sicherheit beim automatisierten Fahren muss eine bestimmte Leistungsfähigkeit des zumindest einen Umfelderfassungssensors, insbesondere hinsichtlich einer Sichtweite, Genauigkeit und Fehlerrate, sichergestellt werden, um einen zuverlässigen automatisierten Fährbetrieb des Fahrzeugs sicherzustellen. Ein
dekalierter Umfelderfassungssensor, beispielsweise eine Kamera, ein Radarsensor, ein Lidarsensor, usw., oder ein beispielsweise aufgrund von Nebel oder Verschmutzung im Bereich eines optischen Pfades in seiner Sicht eingeschränkter Umfelderfassungssensor erfüllt diese Anforderungen an die Leistungsfähigkeit jedoch nicht, woraus eine reduzierte Verfügbarkeit einer Fahrzeugfunktion und/oder ein unsicherer Systemzustand mit einer großen Unfallgefahr resultieren. Mittels des Verfahrens ist eine stetige Überprüfung des zumindest einen Umfelderfassungssensors möglich, so dass eine begrenzte
Leistungsfähigkeit desselben zuverlässig erkannt wird und in Abhängigkeit der
Leitungsfähigkeit der Automatisierungsgrad des automatisierten Fährbetriebs angepasst werden kann oder die Fahraufgabe vollständig an den Fahrer übergeben werden kann. Somit kann stets ein sicherer Fährbetrieb des Fahrzeugs realisiert werden. Das heißt, mittels des Verfahrens können somit potenziell gefährliche Situationen, beispielsweise keine oder eine zu späte Erfassung von dynamischen Objekten und stationären Objekten, im Umfeld des Fahrzeugs durch nicht erkannte Einbrüche einer Leistungsfähigkeit des Umfelderfassungssensors bei der Umfelderfassung vermieden werden. Das heißt, mittels des Verfahrens kann ein Fehlerfall aufgrund einer Degradation eines oder mehrerer Umfelderfassungssensoren des Fahrzeugs erkannt werden und es können daraufhin unterstützende Systemreaktionen eingeleitet werden, beispielsweise eine langsamere Fahrt bis hin zu einem Nothalt.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird das Fahrzeug bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zum Stillstand gebracht. Dies erhöht die Sicherheit des Fahrzeugs, innerhalb desselben befindlicher Insassen und anderer Verkehrsteilnehmer signifikant.
In einer weiteren möglichen Ausgestaltung des Verfahrens wird das Fahrzeug bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zunächst zu einem Fahrbahnrand oder einem Seitenstreifen geführt und anschließend zum Stillstand gebracht. Hierdurch wird neben der Sicherheit des
Fahrzeugs auch die Sicherheit innerhalb desselben befindlicher Insassen und anderer Verkehrsteilnehmer weiter erhöht, da eine Kollisionswahrscheinlichkeit mit anderen Verkehrsteilnehmern reduziert wird.
Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
Dabei zeigt:
Fig. 1 schematisch ein Beispiel einer Umfelderfassung mittels eines
Umfelderfassungssensors eines Fahrzeugs, Fig. 2 schematisch ein weiteres Beispiel einer Umfelderfassung mittels eines Umfelderfassungssensors eines Fahrzeugs und
Fig. 3 schematisch ein Blockschaltbild einer Vorrichtung zum Betrieb eines
Fahrzeugs.
Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
Anhand der Figuren 1 und 2, welche beispielhaft eine Umfelderfassung mittels eines Umfelderfassungssensors 1 eines Fahrzeugs 2 zeigen, und anhand der Figur 3, welche ein Blockschaltbild eines möglichen Ausführungsbeispiels einer Vorrichtung 3 zum Betrieb eines Fahrzeugs 2 zeigt, werden im Folgenden ein Verfahren zur Überprüfung des mindestens einen Umfelderfassungssensors 1 des Fahrzeugs 2 und ein Verfahren zum Betrieb des Fahrzeugs 2 beschrieben. Das Fahrzeug 2 ist dabei zu einem automatisierten Fährbetrieb, insbesondere einem hochautomatisierten oder autonomen Fährbetrieb, ausgebildet.
In dem Verfahren zur Überprüfung des Umfelderfassungssensors 1 wird das Fahrzeug 2 in einer digitalen Karte 4 lokalisiert, insbesondere indem eine Position POS des
Fahrzeugs 2 ermittelt wird und eine entsprechende Position in der digitalen Karte 4 ermittelt wird. In der digitalen Karte 4 werden Merkmale M von dort hinterlegten stationären Objekten 5 einer Umgebung des Fahrzeugs 2 identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, wenn dieser fehlerfrei arbeitet.
Die digitale Karte 4 ist insbesondere eine so genannte HD- Karte und wird zum
automatisierten Fährbetrieb des Fahrzeugs 2 verwendet. Sie repräsentiert eine
Umgebung des Fahrzeugs 2 mit einer vorgebbaren und zumindest nahezu beliebigen Sichtweite und beinhaltet nötige weiterführende Informationen, die zum automatisierten Fahren erforderlich sind. Die digitale Karte 4 ist auf einer fahrzeugexternen zentralen Speichereinheit 6, insbesondere einem Server oder Backend-Server, hinterlegt. In der digitalen Karte 4 vorhandene Kartendaten D werden dem Fahrzeug 2 und gegebenenfalls weiteren Fahrzeugen 7.1 bis 7.n in Echtzeit zur Verfügung gestellt. Zur Aktualisierung der digitalen Karte 4 werden unter anderem Informationen I der Fahrzeuge 2, 7.1 bis 7.n herangezogen, welche diese per Upload der Speichereinheit 6 zur Verfügung stellen. Hierbei wird ein so genanntes "Map Learning" durchgeführt, wobei durch Aggregation der Informationen I Aussagen
- zu einer geänderten Verkehrsführung,
- zu einem korrekten Fahrverhalten, beispielsweise einem Fahren in einer Fahrspur,
- zu Solltrajektorien, beispielsweise wird mit Rechtsversatz gefahren und/oder eine Rettungsgasse gebildet, und
- zu einer Topologie der Umgebung, beispielsweise einer Anzahl von Fahrspuren, abgeleitet werden.
Neben einem Upload von so genannten HD-Karten-Attributen mit einer absoluten Position für das "Map Learning" können auch so genannte OEM-spezifische Daten (OEM = engl. Original Equipment Manufacturer; deutsch: Erstausrüster), wie beispielsweise
Systemzustände eines Fahrerassistenzsystems eines Fahrzeug 2 für eine bestimmte Position in der digitalen Karte 4 lokalisiert und in der digitalen Karte 4 abgespeichert werden. Dies wird auch als "OEM specific overlay" in der digitalen Karte 4 bezeichnet.
Die Umgebung des Fahrzeugs 2 wird mit dem Umfelderfassungssensor 1 erfasst. Es wird auf eine Degradation des Umfelderfassungssensors 1 geschlossen, wenn
erwartungsgemäß zu erkennende Merkmale M nicht vom Umfelderfassungssensor 1 erkannt werden oder wenn vom Umfelderfassungssensor 1 tatsächlich erkannte
Merkmale M von den erwartungsgemäß zu erkennenden Merkmalen M stark abweichen.
Das heißt, wenn der Umfelderfassungssensor 1 Merkmale M erkennt, so werden die erwartungsgemäß zu erkennenden Merkmale M mit diesen vom
Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen M verglichen. Wenn die erwartungsgemäß zu erkennenden Merkmale M mit diesen vom
Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen M übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen M und den vom Umfelderfassungssensor 1 tatsächlich erkannten
Merkmalen M vorliegt, wird keine Degradation des Umfelderfassungssensors 1 festgestellt. Wenn jedoch der Umfelderfassungssensor 1 keine Merkmale M erkennt oder wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale M in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen M nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors 1 geschlossen.
Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. Das heißt, wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale M zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen M übereinstimmen, die
Abweichung zwischen den vom Umfelderfassungssensor 1 tatsächlich erkannten
Merkmalen M und den erwartungsgemäß zu erkennenden Merkmalen M jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des Umfelderfassungssensors 1 erkannt. Der Schwellwert für ein
Toleranzmaß kann beispielsweise über Sicherheitsanforderungen abgeleitet werden, wonach beispielsweise ein Abstandmesswert einen vorgegebenen Fehler nicht überschreiten darf oder eine Klassifikationsrate eines Umfelderfassungssensors 1 in einem Sensorverbund einen vorgegebenen Schwellwert nicht unterschreiten darf.
Das Verfahren ermöglicht es, dem automatisiert fahrenden Fahrzeug 2, beispielsweise einem Shuttle oder Robotaxi, zu ermitteln, ob eine Umfelderfassungssensorik, umfassend den mindestens einen Umfelderfassungssensor 1 oder mehrere gleiche oder
unterschiedliche Umfelderfassungssensoren 1 , eine Reduktion einer Leistungsfähigkeit aufweist. Im Falle einer erkannten Reduktion der Leistungsfähigkeit kann eine erweiterte Systemreaktion des Fahrzeugs 2 zur Vermeidung von gefährlichen Situationen eingeleitet werden.
Zur Realisierung des Verfahrens zur Überprüfung des Umfelderfassungssensors 1 wird ein ordnungsgemäßer Zustand des Umfelderfassungssensors 1 , insbesondere
hinsichtlich einer Kalibrierung, Sichtweite, Blockage, usw., im Fahrzeug 2 bzw. im
Umfelderfassungssensor 1 selbst überwacht. Ohne Referenzmessungen der befahrenen Umgebung ist dies aber jedoch schwieriger und langwieriger, da meist statistische
Prozess durchgeführt werden müssen. Aus diesem Grund wird das oben genannte "OEM specific overlay" in der digitalen Karte 4 zum Ablegen von zu erwartenden
Referenzmessungen und entsprechender sensorspezifischer Messeigenschaften genutzt.
Hierbei wird für im Fahrzeug 2 vorhandene Sensortechnologien, d. h. für den jeweiligen Umfelderfassungssensor 1 , welcher mittels des Verfahrens überprüft werden soll, erreicht, dass zu jedem Zeitpunkt bekannt ist, welche I nf rastru ktu ro bj ekte , d. h. stationäre
Objekte 5, zum Beispiel Gebäude G, Verkehrszeichen V, Verkehrseinrichtungen L, beispielsweise Leitpfosten, und/oder andere Objekte 5 an welcher Stelle bzw. Position erkannt werden müssten. Sollte/n eines oder mehrere der erwarteten stationären
Objekte 5, insbesondere deren Merkmale M, mittels des jeweiligen
Umfelderfassungssensors 1 nicht ermittelt werden können und sollte dies nicht durch eine Sichtverdeckung, insbesondere durch weitere dynamische Objekte, begründet werden können, ist von einer so genannten Performancedegradation, d. h. von einer Degradation des jeweiligen Umfelderfassungssensors 1 , auszugehen.
Eine solche Degradation kann beispielsweise durch atmosphärische Einflüsse, zum Beispiel durch Nebel und/oder Regen und/oder Schnee, und/oder durch mechanische Einflüsse erfolgen. Figur 2 zeigt ein Beispiel eines atmosphärischen Einflusses, d. h. einer atmosphärischen Störung 8 des Umfelderfassungssensors 1.
Das Verfahren lässt diesbezüglich Hinweise auf die jeweilige Ursache zu. So zeichnen sich atmosphärische Einflüsse systematisch in allen betroffenen
Umfelderfassungssensoren 1 der für solche atomsphärischen Einflüsse empfindlichen Technologien aus, wohingegen mechanische Einflüsse auf einen
Umfelderfassungssensor 1 oder wenige Umfelderfassungsensoren 1 beschränkt bleiben. Das heißt, auf einen mechanischen Einfluss kann insbesondere dann geschlossen werden, wenn einer oder mehrere Umfelderfassungsensoren 1 des Fahrzeugs 2 eine Degradation aufweisen und ein oder mehrere andere Umfelderfassungsensoren 1 des Fahrzeugs 2, welche auf gleiche Weise ausgebildet sind wie die
Umfelderfassungsensoren 1 , die die Degradation aufweisen, und/oder von einer atmosphärisch bedingten Degradation ebenfalls betroffen sein müssten, keine
Degradation aufweisen.
Eine solche Ermittlung, ob die jeweils vorliegende Degradation atmosphärisch oder mechanisch bedingt ist, kann vorteilhaft sein, denn eine atmosphärisch bedingte
Degradation verändert sich mit der Veränderung der atmosphärischen Bedingungen, so dass bei wieder verbesserten atmosphärischen Bedingungen keine Degradation des Umfelderfassungssensors 1 mehr vorliegt. Eine mechanische Degradation, beispielsweise aufgrund einer Beschädigung des Umfelderfassungssensors 1 und/oder eines Bereichs des Fahrzeugs 2, in welchem dieser installiert ist, verbessert sich nicht von selbst, sondern bedarf beispielsweise einer Reparatur oder eines Austauschs oder einer Justierung und/oder Kalibrierung des Umfelderfassungssensors 1.
Hierzu ist es jedoch erforderlich, dass dem Fahrzeug 2 bekannt ist, welche stationären Objekte 5 mit welchen Merkmalen M in der Umgebung vorhanden sind und von dem zumindest einen Umfelderfassungssensor 1 erkannt werden müssten.
Hierzu werden die Merkmale M von hinterlegten stationären Objekten 5 der Umgebung des Fahrzeugs 2, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, insbesondere gemeinsam sensorspezifischen Erfassungsinformationen in der digitalen Karte 4 hinterlegt. Die digitale Karte 4 wird mit den hinterlegten
Merkmalen M der stationären Objekte 5 für einen vorgegebenen Vorausschauhorizont vom Fahrzeug 2 von der fahrzeugexternen zentralen Speichereinheit 6 abgerufen.
Das Fahrzeug 2 ist dabei derart ausgebildet, dass die Merkmale M in der digitalen Karte 4 identifiziert und aus dieser erkannt werden können. Aufgrund der Hinterlegung der Merkmale M mit den sensorspezifischen Erfassungsinformationen, das heißt
sensorspezifischen Zusatzdaten des entsprechenden Umfelderfassungssensors 1 , sind die stationären Objekte 5 und deren Merkmale M somit sensorspezifisch in der digitalen Karte 4 kodiert, so dass aus der digitalen Karte 4 direkt ausgelesen werden kann, welche stationären Objekte 5 und welche zugehörigen entsprechenden Merkmale M der jeweilige Umfelderfassungssensor 1 in der Umgebung des Fahrzeugs 2 erkennen muss.
Weiterhin wird die digitale Karte 4 auf der fahrzeugexternen zentralen Speichereinheit 6 fortlaufend aktualisiert, wobei die Aktualisierung anhand von mittels einer Vielzahl von Fahrzeugen 2, 7.1 bis 7.n erfassten und an die Speichereinheit 6 übertragenen
Merkmalen M von stationären Objekten 5 durchgeführt wird. Beispielsweise übermittelt ein mit einem sicher kalibrierten Umfelderfassungssensor 1 ohne erkannte
Sichtweitenbeschränkung ausgerüstetes Fahrzeug 2 seine von seinem
Umfelderfassungssensor 1 erkannten Merkmale M von stationären Objekten 5 in der Umgebung an die Speichereinheit 6.
Dabei werden als Merkmale M der stationären Objekte 5 in Abhängigkeit der Art des Umfelderfassungssensors 1 bei Ausbildung des Umfelderfassungssensors 1 als
Lidarsensor beispielsweise eine Reflektivität der stationären Objekte 5 in einer vorgegebenen Entfernung zum Umfelderfassungssensor 1 , bei Ausbildung des
Umfelderfassungssensors 1 als Radarsensor beispielsweise ein Rückstrahlquerschnitt der stationären Objekte 5 und bei Ausbildung des Umfelderfassungssensors 1 als Kamera beispielsweise eine Textur der stationären Objekte 5 in der digitalen Karte 4 hinterlegt. Beispielsweise wird bei Ausbildung des Umfelderfassungssensors 1 als Lidarsensor an die Speichereinheit 6 gemeinsam mit der Position POS des entsprechenden
Fahrzeugs 2, 7.1 bis 7.n übermittelt, dass in 100 m Entfernung die Reflektivität des dort befindlichen Leitpfostens "XX Lumen" beträgt, oder bei Ausbildung des
Umfelderfassungssensors 1 als Radarsensor, dass ein Rückstrahlquerschnitt des
Objekts 5 "YY cm2" beträgt, oder bei Ausbildung des Umfelderfassungssensors 1 als Kamera das Objekt 5 eine bestimmte Textur aufweist.
Weiterhin werden sensorspezifische Zusatzdaten zu dem Objekt 5, wie beispielsweise eine Positionsangabe des Objekts 5, an die Speichereinheit 6 übermittelt, in dieser gegebenenfalls konsolidiert und zugehörig zum Objekt 5 im "OEM specific overlay" abgelegt.
Anhand der Vielzahl der übertragenen Merkmale M wird weiterhin ermittelt, wie hoch eine Zuverlässigkeit dieser ist. Eine Aktualisierung der digitalen Karte 4 erfolgt nur dann, wenn die übertragenen Merkmale M von den in der digitalen Karte 4 hinterlegten Merkmalen M abweichen und eine Zuverlässigkeit einen vorgegebenen Wert überschreitet.
Für jedes der Fahrzeuge 2, 7.1 bis 7.n, im vorliegenden Fall für das Fahrzeug 2, ist es nun möglich, die Kartendaten D der digitalen Karte 4 gemeinsam mit den Merkmalen M der stationären Objekte 5 für den vorgegebenen Vorausschauhorizont von der
fahrzeugexternen zentralen Speichereinheit 6 abzurufen und den oben beschriebenen Vergleich der erfassten Merkmale M mit den hinterlegten Merkmalen M durchzuführen, um eine Degradation des Umfelderfassungssensors 1 zu ermitteln.
Wird eine solche Degradation des jeweiligen überprüften Umfelderfassungssensors 1 erkannt, reagiert das System, d. h. das Fahrzeug 2, insbesondere ein System zur
Durchführung des automatisierten Fährbetriebs des Fahrzeugs 2, vorteilhafterweise mit einem adäquaten Verhalten, wobei ein Automatisierungsgrad des Fährbetriebs reduziert wird. So wird zum Beispiel bei einer Reduktion einer Sichtweite, d. h. einer
Erfassungsreichweite, des jeweiligen überprüften Umfelderfassungssensors 1
vorteilhafterweise eine maximale Geschwindigkeit des Fahrzeugs 2 reduziert. Alternativ oder zusätzlich kann das Fahrzeug 2 in einem solchen Fehlerfall, d. h. bei einer erkannten Degradation des jeweiligen überprüften Umfelderfassungssensors 1 beispielsweise auch aktiv abgestellt werden. In diesem Fall fährt das Fahrzeug 2 beispielsweise automatisiert zu einer geeigneten Position, beispielsweise an einen Fahrbahnrand, auf eine Standspur, in eine Nothaltebucht oder auf einen Parkplatz, und wird dort abgestellt. Die jeweilige Vorgehensweise, d. h. ob, in welcher Form, mit welcher Geschwindigkeit und wie weit das Fahrzeug 2, insbesondere automatisiert, noch weiterfährt, hängt insbesondere von einem Ausmaß der ermittelten Degradation des jeweiligen Umfelderfassungssensors 1 ab und davon, wie viele und welche Umfelderfassungssensoren 1 des Fahrzeugs 2 eine solche Degradation aufweisen.
Alternativ oder zusätzlich zu einer solchen insbesondere automatischen Reaktion des Fahrzeugs 2 auf die erkannte Degradation des jeweiligen überprüften
U mfelderfassungssensors 1 kann beispielsweise vorgesehen sein, dass ein Teleoperator, d. h. eine Person, welche sich nicht im Fahrzeug 2 oder in unmittelbarer Nähe zum Fahrzeug 2 befindet, sondern einen Fernzugriff auf das Fahrzeug 2, insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des Fahrzeugs 2, hat, eine aktuelle Leistungsfähigkeit des jeweiligen Umfelderfassungssensors 1 für welchen durch die Überprüfung eine Degradation festgestellt wurde, bewertet und entsprechend weitere Schritte veranlasst, beispielsweise die maximale Geschwindigkeit des Fahrzeugs 2 reduziert, eine Fahrtroute des Fahrzeugs 2 ändert und/oder das Fahrzeug 2,
insbesondere an einer geeigneten Abstellposition, abstellt oder dies veranlasst.
Auch ist es möglich, dass bei erfasster Degradation zumindest eines
Umfelderfassungssensors 1 eine Fahraufgabe an einen Fahrer übergeben wird, damit dieser das Fahrzeug 2 weiterführt. Bei fehlender Übernahme der Fahraufgabe durch den Fahrer, beispielsweise aufgrund einer Einschränkung desselben, wird das Fahrzeug 2 innerhalb eines vorgegebenen Zeitraums zum Stillstand gebracht wird. In einer möglichen Ausgestaltung ist vorgesehen, dass vor einem Stopp des Fahrzeugs 2 dieses zunächst zu einem Fahrbahnrand oder einem Seitenstreifen geführt und anschließend zum Stillstand gebracht wird.

Claims

Patentansprüche
1. Verfahren zur Überprüfung zumindest eines Umfelderfassungssensors (1) eines Fahrzeugs (2), wobei
- das Fahrzeug (2) in einer digitalen Karte (4) lokalisiert wird,
- in der digitalen Karte (4) Merkmale (M) von hinterlegten stationären Objekten (5) einer Umgebung des Fahrzeugs (2) identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden,
- die Umgebung des Fahrzeugs (2) mit dem Umfelderfassungssensor (1) erfasst wird und
- auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale (M) nicht vom
Umfelderfassungssensor (1) erkannt werden oder wenn vom
U mfelderfassungssensor (1) tatsächlich erkannte Merkmale (M) von den
erwartungsgemäß zu erkennenden Merkmalen (M) stark abweichen,
dadurch gekennzeichnet, dass
die digitale Karte (4) mit den hinterlegten Merkmalen (M) der stationären Objekte (5) für einen vorgegebenen Vorausschauhorizont von einer fahrzeugexternen zentralen Speichereinheit (6) abgerufen wird.
2. Verfahren nach Anspruch 1 ,
dadurch gekennzeichnet, dass
als Merkmale (M) der stationären Objekte (5) in Abhängigkeit einer Art des
Umfelderfassungssensors (1)
- eine Reflektivität der stationären Objekte (5) in einer vorgegebenen Entfernung zum Umfelderfassungssensor (1),
- ein Rückstrahlquerschnitt der stationären Objekte (5) und/oder
- eine Textur der stationären Objekte (5)
ausgewertet werden.
3. Verfahren nach Anspruch 1 oder 2,
dadurch gekennzeichnet, dass
die digitale Karte (4) auf der fahrzeugexternen zentralen Speichereinheit (6) fortlaufend aktualisiert wird.
4. Verfahren nach Anspruch 3,
dadurch gekennzeichnet, dass
die Aktualisierung anhand von mittels einer Vielzahl von Fahrzeugen (2, 7.1 bis 7.n) erfassten und an die Speichereinheit (6) übertragenen Merkmalen (M) von stationären Objekten (5) durchgeführt wird.
5. Verfahren nach Anspruch 4,
dadurch gekennzeichnet, dass
anhand der Vielzahl der übertragenen Merkmale (M) ermittelt wird, wie hoch eine Zuverlässigkeit dieser ist.
6. Verfahren nach Anspruch 5,
dadurch gekennzeichnet, dass
die digitale Karte (4) dann aktualisiert wird, wenn die übertragenen Merkmale (M) von den in der digitalen Karte (4) hinterlegten Merkmalen (M) abweichen und eine Zuverlässigkeit einen vorgegebenen Wert überschreitet.
7. Verfahren nach einem der Ansprüche 3 bis 6,
dadurch gekennzeichnet, dass
die Merkmale (M) gemeinsam mit sensorspezifischen Zusatzdaten des
entsprechenden Umfelderfassungssensors (1) an die zentrale Speichereinheit (6) übermittelt und gemeinsam mit den zugehörigen Merkmalen (M) auf der zentralen Speichereinheit (6) hinterlegt werden.
8. Verfahren zum Betrieb eines Fahrzeugs (2), welches zu einem automatisierten Fährbetrieb, insbesondere einem hochautomatisierten oder autonomen Fährbetrieb ausgebildet ist, wobei zumindest ein Umfelderfassungssensor (1) des Fahrzeugs (2) in einem Verfahren zur Überprüfung eines Umfelderfassungssensors (1) nach einem der vorhergehenden Ansprüche überprüft wird und bei Vorliegen einer Degradation des Umfelderfassungssensors (1) ein Automatisierungsgrad des Fährbetriebs reduziert oder eine Fahraufgabe an einen Fahrer übergeben wird.
9. Verfahren nach Anspruch 8,
dadurch gekennzeichnet, dass
das Fahrzeug (2) bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zum Stillstand gebracht wird.
10. Verfahren nach Anspruch 9
dadurch gekennzeichnet, dass
das Fahrzeug (2) bei fehlender Übernahme der Fahraufgabe durch den Fahrer innerhalb eines vorgegebenen Zeitraums zunächst zu einem Fahrbahnrand oder einem Seitenstreifen geführt und anschließend zum Stillstand gebracht wird.
PCT/EP2020/057486 2019-04-04 2020-03-18 Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs WO2020200792A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/600,655 US20220177005A1 (en) 2019-04-04 2020-03-18 Method for checking a surroundings detection sensor of a vehicle and method for operating a vehicle
CN202080025095.6A CN113631951A (zh) 2019-04-04 2020-03-18 用于检查车辆环境检测传感器的方法和车辆的操作方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102019002487.7A DE102019002487A1 (de) 2019-04-04 2019-04-04 Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
DE102019002487.7 2019-04-04

Publications (1)

Publication Number Publication Date
WO2020200792A1 true WO2020200792A1 (de) 2020-10-08

Family

ID=69953987

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2020/057486 WO2020200792A1 (de) 2019-04-04 2020-03-18 Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs

Country Status (4)

Country Link
US (1) US20220177005A1 (de)
CN (1) CN113631951A (de)
DE (1) DE102019002487A1 (de)
WO (1) WO2020200792A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021101247B4 (de) 2021-01-21 2023-05-04 Audi Aktiengesellschaft Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
BE1028777B1 (nl) 2021-03-25 2022-06-01 Ivex Systeem en methode voor het detecteren van inconsistenties in de outputs van perceptiesystemen van autonome voertuigen
DE102021107793A1 (de) 2021-03-29 2022-09-29 Ford Global Technologies, Llc Verfahren zum Betreiben einer Fahrerassistenzfunktion
DE102021111325A1 (de) 2021-05-03 2022-11-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
DE102021004414A1 (de) 2021-08-31 2023-03-02 Mercedes-Benz Group AG Verfahren zur Detektion einer optischen Blockade einer Kamera eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
DE102021128116A1 (de) 2021-10-28 2023-05-04 Cariad Se System und Verfahren zum Plausibilisieren einer Fahrzeugumgebungshypothese für ein Kraftfahrzeug
EP4191275A1 (de) * 2021-12-03 2023-06-07 Nxp B.V. V2x für sensorgegenproben und -diagnose
DE102022000823B3 (de) 2022-03-09 2023-08-10 Mercedes-Benz Group AG Verfahren zur Kalibrierung zumindest eines Sensors einer Umgebungssensorik einer Vielzahl von Fahrzeugen
DE102022001120A1 (de) 2022-03-31 2023-10-05 Mercedes-Benz Group AG Kalibrierung und Justierung einer Kamera eines Fahrzeugs

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10313002B4 (de) 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
EP1909066A1 (de) * 2006-10-05 2008-04-09 Research In Motion Limited Verbessertes Verfahren zur Datenabfrage für standortabhängige Dienste in einer drahtlosen Vorrichtung
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
DE102014226020A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung
DE102017000753A1 (de) * 2017-01-27 2017-07-13 Daimler Ag Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung
DE102017003741A1 (de) * 2017-04-19 2018-10-25 Daimler Ag Verfahren zur Bestimmung einer Reichweite
DE102018119235A1 (de) * 2017-08-10 2019-02-14 GM Global Technology Operations LLC System und verfahren zum bereitstellen einer karte für autonome fahrzeuge über ein cloud-basiertes system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012000724A1 (de) * 2011-06-29 2013-01-03 Volkswagen Ag Verfahren und Vorrichtung zum teilautomatisierten Fahren eines Kraftfahrzeugs
DE102012212740A1 (de) * 2012-07-19 2014-05-22 Continental Automotive Gmbh System und Verfahren zum Aktualisieren einer digitalen Karte eines Fahrerassistenzsystems
DE102012023498A1 (de) * 2012-12-03 2014-06-05 Continental Automotive Gmbh Verfahren und System zur selbsttätigen und/oder assistierenden Fahrzeugführung
DE102015206605A1 (de) * 2015-04-14 2016-10-20 Continental Teves Ag & Co. Ohg Kalibrierung und Überwachung von Umfeldsensoren mit Hilfe hochgenauer Karten
DE102015010542A1 (de) * 2015-08-12 2016-02-11 Daimler Ag Verfahren zur Erzeugung einer digitalen Umgebungskarte
CN105857091A (zh) * 2016-04-21 2016-08-17 陈昌志 新能源电动汽车
DE102016209203A1 (de) * 2016-05-27 2017-11-30 Robert Bosch Gmbh Verfahren und Vorrichtung zum automatischen Anhalten eines Kraftfahrzeugs, das zumindest zeitweise automatisch auf einer Fahrroute geführt wird
US10209081B2 (en) * 2016-08-09 2019-02-19 Nauto, Inc. System and method for precision localization and mapping
DE102017214531A1 (de) * 2017-08-21 2019-02-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zum Betreiben eines Kraftfahrzeugs in einem automatisierten Fahrbetrieb sowie Kraftfahrzeug
DE102018006503A1 (de) * 2018-08-16 2019-01-24 Daimler Ag Digitale Karte

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10313002B4 (de) 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
EP1909066A1 (de) * 2006-10-05 2008-04-09 Research In Motion Limited Verbessertes Verfahren zur Datenabfrage für standortabhängige Dienste in einer drahtlosen Vorrichtung
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
DE102014226020A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung
DE102017000753A1 (de) * 2017-01-27 2017-07-13 Daimler Ag Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung
DE102017003741A1 (de) * 2017-04-19 2018-10-25 Daimler Ag Verfahren zur Bestimmung einer Reichweite
DE102018119235A1 (de) * 2017-08-10 2019-02-14 GM Global Technology Operations LLC System und verfahren zum bereitstellen einer karte für autonome fahrzeuge über ein cloud-basiertes system

Also Published As

Publication number Publication date
US20220177005A1 (en) 2022-06-09
DE102019002487A1 (de) 2020-10-08
CN113631951A (zh) 2021-11-09

Similar Documents

Publication Publication Date Title
WO2020200792A1 (de) Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs
WO2021043507A1 (de) Querführung eines fahrzeugs mittels von anderen fahrzeugen erfassten umgebungsdaten
WO2020088857A1 (de) Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs
DE102019002790B4 (de) Verfahren zur Prädiktion einer Verkehrssituation für ein Fahrzeug
EP3526546B1 (de) Verfahren und system zur lokalisierung eines fahrzeugs
WO2016150590A1 (de) Verfahren und vorrichtung zum überwachen einer von einem fahrzeug abzufahrenden soll-trajektorie auf kollisionsfreiheit
EP3526095A1 (de) Kategorisierung von fahrzeugen in der umgebung eines kraftfahrzeugs
EP3663719A1 (de) Verfahren zum bereitstellen von kartendaten in einem kraftfahrzeug, kraftfahrzeug und zentrale datenverarbeitungseinrichtung
EP3695192A1 (de) Verfahren zur kartierung eines streckenabschnitts
EP4176378A1 (de) Verfahren zur umgebungserfassung mit wenigstens zwei unabhängigen bildgebenden umgebungserfassungssensoren, vorrichtung zur durchführung des verfahrens, fahrzeug sowie entsprechend ausgelegtes computerprogramm
EP3827277B1 (de) Verfahren, system und elektronische recheneinrichtung zum überprüfen von sensoreinrichtungen von fahrzeugen, insbesondere von kraftfahrzeugen
DE102017010832A1 (de) Verfahren zur Bewertung einer erkannten Geschwindigkeitsbegrenzung
DE102014210752A1 (de) Verfahren und Vorrichtung zum Überwachen einer Solltrajektorie eines Fahrzeugs
WO2015149799A1 (de) Stereokamerasystem
EP4007891B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in einer umgebung
DE102019218078B4 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
WO2022122250A1 (de) Infrastrukturgestützte trajektorienermittlung für autonome fahrzeuge
DE102017218932B4 (de) Verfahren zur Bewertung einer Trajektorie eines Fortbewegungsmittels
EP3655934B1 (de) Konzept zum überwachen eines parkraums
WO2020104355A1 (de) Verfahren und vorrichtung zum speichern von daten für ein fahrzeug
DE102021114626A1 (de) Verfahren zum betreiben eines parkassistenzsystems, computerprogrammprodukt, parkassistenzsystem, verfahren zum betreiben eines fahrerassistenzsystems, fahrerassistenzsystem, fahrzeug und anordnung
WO2023030752A1 (de) Verfahren zur detektion einer optischen blockade einer kamera eines fahrzeugs und verfahren zum betrieb eines fahrzeugs
DE102022212687A1 (de) Autonome Fahrsteuerungsvorrichtung und Verfahren für diese
DE102021209315A1 (de) Verfahren zum Betreiben eines Infrastruktursystems zur Fahrunterstützung von zumindest teilautomatisiert geführten Kraftfahrzeugen
DE102020209817A1 (de) Zumindest teilweise autonom steuerbares Fahrzeug, Verfahren, Computerprogramm und Vorrichtung zur Validierung von Informationen über eine Beschränkung eines Verkehrsbereichs

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20713543

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20713543

Country of ref document: EP

Kind code of ref document: A1