DE102018127059A1 - Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs - Google Patents
Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs Download PDFInfo
- Publication number
- DE102018127059A1 DE102018127059A1 DE102018127059.3A DE102018127059A DE102018127059A1 DE 102018127059 A1 DE102018127059 A1 DE 102018127059A1 DE 102018127059 A DE102018127059 A DE 102018127059A DE 102018127059 A1 DE102018127059 A1 DE 102018127059A1
- Authority
- DE
- Germany
- Prior art keywords
- environment detection
- detection sensor
- recognized
- vehicle
- expected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 159
- 238000000034 method Methods 0.000 title claims abstract description 43
- 230000015556 catabolic process Effects 0.000 claims abstract description 49
- 238000006731 degradation reaction Methods 0.000 claims abstract description 49
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 238000011895 specific detection Methods 0.000 description 2
- 230000003319 supportive effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
- G01S7/412—Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0015—Planning or execution of driving tasks specially adapted for safety
- B60W60/0018—Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
- B60W60/00186—Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions related to the vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4004—Means for monitoring or calibrating of parts of a radar system
- G01S7/4039—Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/143—Alarm means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/20—Static objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4048—Field of view, e.g. obstructed view or direction of gaze
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/80—Spatial relation or speed relative to objects
- B60W2554/802—Longitudinal distance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/40—High definition maps
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2720/00—Output or target parameters relating to overall vehicle dynamics
- B60W2720/10—Longitudinal speed
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/497—Means for monitoring or calibrating
- G01S2007/4975—Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9323—Alternative operation using light waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
- G01S7/4052—Means for monitoring or calibrating by simulation of echoes
- G01S7/4082—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
- G01S7/4091—Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
- Die Erfindung betrifft ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs.
- Aus dem Stand der Technik ist, wie in der
DE 10 2013 206 707 A1 beschrieben, ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bekannt. Das Umfelderfassungssystem umfasst mindestens zwei verschiedene Umfeldsensortypen. Der Sichtbereich des ersten Umfeldsensortyps überlappt nicht mit dem Sichtbereich des zweiten Umfeldsensortyps. Objekte im Umfeld des Fahrzeugs werden mit dem ersten Umfeldsensortyp erfasst und mit den Daten des ersten Umfeldsensortyps in statische und dynamische Objekte kategorisiert. Die relative Position der erfassten statischen Objekte zum Fahrzeug wird bestimmt. Diese Position wird mit einer über den zweiten Umfeldsensortyp ermittelten Position verglichen. Bei einer Abweichung über einem Grenzwert wird auf einen Fehler geschlossen. Die relative Position der erfassten statischen Objekte wird nach dem Verlassen des Sichtbereichs des ersten Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert. - In der
DE 103 13 002 B4 wird eine Fahrzeugumgebungserfassungseinheit beschrieben. Mittels wenigstens eines Bildsensors werden Umgebungsinformationen erfasst. Die erfassten Umgebungsinformationen werden mittels einer Recheneinheit zu Bildinformationen verarbeitet und auf einer Videobildanzeige dargestellt. Zusätzlich werden die Bildinformationen in einem Zwischenspeicher abgelegt. Das zuletzt erfasste Bild wird mit den im Zwischenspeicher abgelegten Bildinformationen anhand einer Bildverarbeitungsalgorithmik verglichen. Bei einer unzulässigen Abweichung des zuletzt erfassten Bildes von den abgelegten Bildinformationen wird das angezeigte Videobild verändert dargestellt. Der Fahrzeugumgebungserfassungseinheit werden Fahrzeug-Betriebsparameter zugeführt, um auf eine unzulässige Abweichung dadurch zu schließen, dass sich eine aufgrund der Betriebsparameter zu erwartende Abweichung der Bildinformationen zwischen den Zeitpunkten der Aufnahme des zuletzt erfassten Bildes und der abgelegten Bildinformationen nicht plausibel mit dem Ergebnis eines Vergleichs dieser Bildinformationen korrelieren lässt. - Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs anzugeben.
- Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs mit den Merkmalen des Anspruchs 1.
- Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
- In einem Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs, beispielsweise eines Radarsensors, eines Lidarsensors, eines Bilderfassungssensors, insbesondere Videosensors, oder eines Ultraschallsensors, wird erfindungsgemäß das Fahrzeug in einer digitalen Karte lokalisiert, insbesondere indem eine Position des Fahrzeugs ermittelt wird und eine entsprechende Position in der digitalen Karte ermittelt wird. In der digitalen Karte werden Merkmale von dort hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden, wenn dieser fehlerfrei arbeitet. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen. D. h. wenn der Umfelderfassungssensor Merkmale erkennt, so werden die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen verglichen. Wenn die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des Umfelderfassungssensors festgestellt. Wenn jedoch der Umfelderfassungssensor keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors geschlossen. Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. D. h. wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des Umfelderfassungssensors erkannt.
- In einer vorteilhaften Ausgestaltung des Verfahrens wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn ein erwarteter Abstand zwischen dem Fahrzeug und einem der in der Karte hinterlegten Objekte von einem ermittelten tatsächlichen Abstand um mehr als einen vorgegebenen Abstandsschwellwert abweicht. In diesem Fall stellt der Abstand zwischen dem Fahrzeug und einem Objekt das zu betrachtende Merkmal des Objekts dar. Der erwartete Abstand eines Objekts wird aus der digitalen Karte als erwartungsgemäß zu erkennendes Merkmal des Objekts ermittelt und der tatsächliche Abstand wird mittels des Umfelderfassungssensors als tatsächlich erkanntes Merkmal ermittelt.
- Sollte beispielsweise bekannt sein, dass die Kontur eines bestimmten Objektes, beispielsweise eines Baums, an einem gegebenen Ort einen gewissen Abstands mit einer bekannten Streuung aufweist, z.B. 50 m +/- 0,1 5 m, und sollte der ermittelte Abstand aktuell aber beispielsweise bei 45 m +/- 1,2m liegen, oder das Objekt gar nicht wahrgenommen werden, kann auf eine Degradation des Umfelderfassungssensors geschlossen werden.
- In einer weiteren vorteilhaften Ausgestaltung des Verfahrens wird anhand von Sensordaten des Umfelderfassungssensors, vorteilhafterweise auch unter Berücksichtigung von Sensordaten weiterer Sensoren, eine Klassifikation von Objekten vorgenommen, die mit dem Umfelderfassungssensor erfasst werden. Durch die Klassifikation eines Objekts wird ein Klassifikationstyp des Objekts erkannt. In diesem Fall stellt der Klassifikationstyp eines Objekts das zu betrachtende Merkmal dieses Objekts dar. Die erkannten Klassifikationstypen der Objekte werden auf Übereinstimmung mit erwarteten Klassifikationstypen, den erwartungsgemäß zu erkennenden Merkmalen der Objekte, geprüft. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn eine ermittelte Klassifikationsrate geringer ist als ein vorgegebener Klassifikationsschwellwert Die Klassifikationsrate gibt dabei an, wie hoch der Anteil der Übereinstimmungen zwischen den ermittelten und erwarteten Klassifikationstypen ist.
- Beispielsweise wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die Klassifikation ergibt, dass ein erfasstes Objekt ein Vorfahrtszeichen ist und wenn sich aus der ermittelten Klassifikationsrate ergibt, dass die Wahrscheinlichkeit, dass das Objekt ein Vorfahrtszeichen ist, kleiner als 87% ist.
- Das erfindungsgemäße Verfahren ermöglicht somit eine Ermittlung der Degradation des mindestens einen Umfelderfassungssensors des Fahrzeugs. Dieses Verfahren ist besonders vorteilhaft für automatisiert fahrende Fahrzeuge, beispielsweise Shuttle, Robotaxis oder andere Fahrzeuge. Wird eine Degradation des mindestens einen Umfelderfassungssensors ermittelt, wodurch eine Umfelderfassungssensorik des Fahrzeugs, umfassend den mindestens einen Umfelderfassungssensor oder beispielsweise mehrere gleiche oder unterschiedliche Umfelderfassungssensoren, eine entsprechende Reduktion ihrer Leistungsfähigkeit aufweist, kann, beispielsweise in einem Verfahren zur Durchführung eines automatisierten und/oder autonomen Fahrbetrieb des Fahrzeugs, eine entsprechende Reaktion, insbesondere zur Vermeidung von gefährlichen Situationen, eingeleitet werden. Beispielsweise kann, insbesondere bei einer Reduktion einer Erfassungsreichweite des mindestens einen Umfelderfassungssensors aufgrund der erkannten Degradation, eine Geschwindigkeit des Fahrzeugs reduziert werden, d. h. die Geschwindigkeit wird insbesondere an die verringerte Erfassungsreichweite angepasst. Dies betrifft beispielsweise eine aktuelle Geschwindigkeit und/oder eine für das Fahrzeug maximal zulässige Geschwindigkeit. Alternativ wird das Fahrzeug bei einer erkannten Degradation des Umfelderfassungssensors abgestellt, beispielsweise auf sichere Weise an einem Fahrbahnrand oder neben der Fahrbahn oder auf einem Abstellplatz oder Parkplatz oder in einer Nothaltebucht oder auf einem anderen verkehrssicheren Platz, an welchem das Fahrzeug insbesondere keine Gefahr für andere Verkehrsteilnehmer darstellt, zum Stillstand gebracht, insbesondere bei einem automatisiert fahrenden Fahrzeug. Ist ein Fahrzeugführer im Fahrzeug anwesend, so kann, alternativ oder zusätzlich, der Fahrzeugführer auf die Degradation des Umfelderfassungssensors hingewiesen werden, so dass er beispielsweise die Fahrzeugführung übernehmen kann.
- Es ist dann beispielsweise kein autonomer oder automatisierter Fahrbetrieb möglich, jedoch noch ein manueller Fahrbetrieb durch den Fahrzeugführer. Bei einem automatisiert oder autonom fahrenden Fahrzeug, insbesondere wenn kein Fahrzeugführer im Fahrzeug anwesend ist, kann, alternativ oder zusätzlich, vorgesehen sein, dass ein Teleoperator, d. h. insbesondere eine Person außerhalb des Fahrzeugs mit Fernzugriff auf das Fahrzeug, insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des Fahrzeugs, die ermittelte Degradation und daraus resultierende verbleibende Leistungsfähigkeit des Umfelderfassungssensors bewerten und daraufhin weitere Schritte veranlassen, beispielsweise die oben bereits beschriebenen Schritte, zum Beispiel die Reduzierung der aktuellen und/oder maximal zulässigen Geschwindigkeit des Fahrzeugs und/oder das Abstellen des Fahrzeugs auf die oben beschriebene Weise.
- Mittels des erfindungsgemäßen Verfahrens können somit potentiell gefährliche Situationen vermieden werden, welche durch nicht erkannte Leistungsfähigkeitseinbrüche des mindestens einen Umfelderfassungssensors auftreten könnten, beispielsweise gefährliche Situationen durch keine oder eine zu späte Erfassung von Objekten im Umfeld des Fahrzeugs. Mittels des erfindungsgemäßen Verfahrens wird der Fehlerfall der Degradation des mindestens einen Umfelderfassungssensors erkannt und es kann eine unterstützende Reaktion eingeleitet werden, beispielsweise eine langsamere Fahrt oder ein Nothalt des Fahrzeugs.
- Vorteilhafterweise wird nicht auf die Degradation des Umfelderfassungssensors geschlossen, wenn ermittelt wird, dass aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die vom Umfelderfassungssensor tatsächlich erkannten Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen. Auf diese Weise wird eine fehlerhafte Degradationserkennung aufgrund einer Sichtverdeckung durch dynamische Objekte vermieden.
- In einer möglichen Ausführungsform werden die Merkmale von hinterlegten stationären Objekten der Umgebung des Fahrzeugs, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert. Alternativ oder zusätzlich werden die Merkmale von hinterlegten stationären Objekten der Umgebung des Fahrzeugs, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit, insbesondere mittels mindestens eines Raytracing-Verfahrens anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert. Raytracing, d. h. Strahlverfolgung oder Strahlenverfolgung, ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten von einem bestimmten Punkt im Raum aus.
- Weist das Fahrzeug, insbesondere eine Umfelderfassungssensorik des Fahrzeugs, mehrere, beispielsweise gleiche oder unterschiedliche, Umfelderfassungssensoren auf, so kann das Verfahren für einen der Umfelderfassungssensoren, für mehrere der Umfelderfassungssensoren oder für alle Umfelderfassungssensoren durchgeführt werden, beispielsweise gleichzeitig oder nacheinander. Insbesondere wird das Verfahren für denjenigen Umfelderfassungssensor oder für diejenigen Umfelderfassungssensoren durchgeführt, mittels welchem/welchen Merkmale von in der digitalen Karte hinterlegten stationären Objekten der Umgebung des Fahrzeugs erkannt werden können.
- Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
- Dabei zeigen:
-
1 schematisch ein Beispiel einer Umfelderfassung mittels eines Umfelderfassungssensors eines Fahrzeugs, und -
2 schematisch ein weiteres Beispiel einer Umfelderfassung mittels eines Umfelderfassungssensors eines Fahrzeugs. - Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
- Anhand der
1 und2 , welche beispielhaft eine Umfelderfassung mittels eines Umfelderfassungssensors1 eines Fahrzeugs2 zeigen, wird im Folgenden ein Verfahren zur Überprüfung des mindestens einen Umfelderfassungssensors1 des Fahrzeugs2 beschrieben. In diesem Verfahren wird das Fahrzeug2 in einer digitalen Karte lokalisiert, insbesondere indem eine Position des Fahrzeugs2 ermittelt wird und eine entsprechende Position in der digitalen Karte ermittelt wird. In der digitalen Karte werden Merkmale von dort hinterlegten stationären Objekten3 einer Umgebung des Fahrzeugs2 identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor1 erkannt werden, wenn dieser fehlerfrei arbeitet. - Die Umgebung des Fahrzeugs
2 wird mit dem Umfelderfassungssensor1 erfasst. Es wird auf eine Degradation des Umfelderfassungssensors1 geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor1 erkannt werden oder wenn vom Umfelderfassungssensor1 tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen. - D. h. wenn der Umfelderfassungssensor
1 Merkmale erkennt, so werden die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor1 tatsächlich erkannten Merkmalen verglichen. Wenn die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor1 tatsächlich erkannten Merkmalen übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor1 tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des Umfelderfassungssensors1 festgestellt. Wenn jedoch der Umfelderfassungssensor1 keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor1 tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors1 geschlossen. - Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. D. h. wenn die vom Umfelderfassungssensor
1 tatsächlich erkannten Merkmale zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor1 tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des Umfelderfassungssensors1 erkannt. Der Schwellwert für ein Toleranzmaß kann z.B. über Sicherheitsanforderungen abgeleitet werden, wonach z.B. der Abstandmesswert einen vorgegebenen Fehler nicht überschreiten darf oder die Klassifikationsrate eines Sensors im Sensorverbund einen vorgegebenen Schwellwert nicht unterschreiten darf. - Das Verfahren ermöglicht es einem automatisiert fahrenden Fahrzeug
2 , beispielsweise einem Shuttle oder Robotaxi, zu ermitteln, ob eine Umfelderfassungssensorik, umfassend den mindestens einen Umfelderfassungssensor1 oder mehrere gleiche oder umterschiedliche Umfelderfassungssensoren1 , eine Performancereduktion, d. h. eine Reduktion einer Leistungsfähigkeit, aufweist, Im Falle einer erkannten Performancereduktion kann eine erweiterte Systemreaktion des Fahrzeugs2 zur Vermeidung von gefährlichen Situationen eingeleitet werden. - Der Kern des Verfahrens besteht darin, dass für im Fahrzeug
2 vorhandene Sensortechnologien, d. h. für den jeweiligen Umfelderfassungssensor1 , welcher mittels des Verfahrens überprüft werden soll, zu jedem Zeitpunkt bekannt ist, welche Infrastrukturobjekte, d. h. stationäre Objekte3 , zum Beispiel GebäudeG und/oder Vegetation, beispielsweise in Form von BüschenB , wie in den1 und2 gezeigt, an welcher Stelle erkannt werden müssten. Sollten eines oder mehrere der erwarteten stationären Objekte3 , insbesondere deren Merkmale, mittels des jeweiligen Umfelderfassungssensors1 nicht ermittelt werden können und sollte dies nicht durch eine Sichtverdeckung, insbesondere durch weitere dynamische Objekte, begründet werden können, ist von einer Performancedegradation, d. h. von einer Degradation des jeweiligen Umfelderfassungssensors1 , auszugehen. - Eine solche Degradation kann beispielsweise durch atmosphärische Einflüsse, zum Beispiel durch Nebel und/oder Regen und/oder Schnee, und/oder durch mechanische Einflüsse erfolgen.
2 zeigt ein Beispiel eines atmosphärischen Einflusses, d. h. einer atmosphärischen Störung5 des Umfelderfassungssensors1 . - Das Verfahren lässt diesbezüglich Hinweise auf die jeweilige Ursache zu. So zeichnen sich atmosphärische Einflüsse systematisch in allen betroffenen Umfelderfassungssensoren
1 der für solche atomsphärischen Einflüsse empfindlichen Technologien aus, wohingegen mechanische Einflüsse auf einen Umfelderfassungssensor1 oder wenige Umfelderfassungsensoren1 beschränkt bleiben. D. h. auf einen mechanischen Einfluss kann insbesondere dann geschlossen werden, wenn einer oder mehrere Umfelderfassungsensoren1 des Fahrzeugs2 eine Degradation aufweisen und ein oder mehrere andere Umfelderfassungsensoren1 des Fahrzeugs2 , welche auf gleiche Weise ausgebildet sind wie die Umfelderfassungsensoren1 , die die Degradation aufweisen, und/oder von einer atmosphärisch bedingten Degradation ebenfalls betroffen sein müssten, keine Degradation aufweisen. - Eine solche Ermittlung, ob die jeweils vorliegende Degradation atmosphärisch oder mechanisch bedingt ist, kann vorteilhaft sein, denn eine atmosphärisch bedingte Degradation verändert sich mit der Veränderung der atmosphärischen Bedingungen, so dass bei wieder verbesserten atmosphärischen Bedingungen keine Degradation des Umfelderfassungssensors
1 mehr vorliegt. Eine mechanische Degradation, beispielsweise aufgrund einer Beschädigung des Umfelderfassungssensors1 und/oder eines Bereichs des Fahrzeugs2 , in welchem dieser installiert ist, verbessert sich nicht von selbst, sondern bedarf beispielsweise einer Reparatur oder eines Austauschs oder einer Justierung und/oder Kalibrierung des Umfelderfassungssensors1 . - In einer möglichen Ausführungsform des Verfahrens werden die Merkmale von hinterlegten stationären Objekten
3 der Umgebung des Fahrzeugs2 , von denen erwartet wird, dass sie vom Umfelderfassungssensor1 erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert werden. Die stationären Objekte3 und deren Merkmale sind somit sensorspezifisch in der digitalen Karte kodiert, so dass aus der digitalen Karte direkt ausgelesen werden kann, welche stationären Objekte3 und deren entsprechende Merkmale der jeweilige Umfelderfassungssensor1 erkennen muss. - In einer weiteren Ausführungsform des Verfahrens erfolgt dies nicht, d. h. es wird nicht über die digitale Karte kodiert, welcher Umfelderfassungssensor
1 das stationäre Objekt3 und dessen Merkmale zu erkennen hat bzw. welches der in der digitalen Karte verzeichneten stationären Objekte3 und dessen Merkmale der jeweilige zu prüfende Umfelderfassungssensor1 zu erkennen hat, sondern eine zu erwartete Sichtbarkeit eines jeden stationären Objektes3 und dessen Merkmalen werden zu jedem Zeitpunkt für die jeweilige Sensortechnologie, d. h. für den jeweiligen zu prüfenden Umfelderfassungssensor1 , aktiv berechnet, zum Beispiel mittels eines oder mehrerer Raytracing-Verfahren anhand eines dreidimensionalen Modells der digitalen Karte. Bei dieser Ausführungsform des Verfahrens werden somit die Merkmale von hinterlegten stationären Objekten3 der Umgebung des Fahrzeugs2 , von denen erwartet wird, dass sie vom Umfelderfassungssensor1 erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit, insbesondere mittels mindestens eines Raytracing-Verfahrens anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert. - Wird eine Performancedegradation, d. h. eine Degradation des jeweiligen überprüften Umfelderfassungssensors
1 , erkannt, reagiert das System, d. h. das Fahrzeug2 , insbesondere ein System zur Durchführung des automatisierten Fahrbetriebs des Fahrzeugs2 , vorteilhafterweise mit einem adäquaten Verhalten. So wird zum Beispiel bei einer Reduktion einer Sichtweite, d. h. einer Erfassungsreichweite, des jeweiligen überprüften Umfelderfassungssensors1 vorteilhafterweise eine maximale Geschwindigkeit des Fahrzeugs2 reduziert. Alternativ oder zusätzlich kann das Fahrzeug2 in einem solchen Fehlerfall, d. h. bei einer erkannten Degradation des jeweiligen überprüften Umfelderfassungssensors1 , beispielsweise auch aktiv abgestellt werden. In diesem Fall fährt das Fahrzeug2 beispielsweise automatisiert zu einer geeigneten Position, beispielsweise an einen Fahrbahnrand, auf eine Standspur, in eine Nothaltebucht oder auf einen Parkplatz, und wird dort abgestellt. Die jeweilige Vorgehensweise, d. h. ob, in welcher Form, mit welcher Geschwindigkeit und wie weit das Fahrzeug2 , insbesondere automatisiert, noch weiterfährt, hängt insbesondere von einem Ausmaß der ermittelten Degradation des jeweiligen Umfelderfassungssensors1 ab und davon, wieviele und welche Umfelderfassungssensoren1 des Fahrzeugs2 eine solche Degradation aufweisen. - Alternativ oder zusätzlich zu einer solchen insbesondere automatischen Reaktion des Fahrzeugs
2 auf die erkannte Degradation des jeweiligen überprüften Umfelderfassungssensors1 kann beispielsweise vorgesehen sein, dass ein Teleoperator, d. h. eine Person, welche sich nicht im Fahrzeug2 oder in unmittelbarer Nähe zum Fahrzeug2 befindet, sondern einen Fernzugriff auf das Fahrzeug2 , insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des Fahrzeugs2 , hat, eine aktuelle Sensorperformance, d. h. Leistungsfähigkeit, des jeweiligen Umfelderfassungssensors1 , für welchen durch die Überprüfung eine Degradation festgestellt wurde, bewertet und entsprechend weitere Schritte veranlasst, beispielsweise die maximale Geschwindigkeit des Fahrzeugs2 reduziert, eine Fahrtroute des Fahrzeugs2 ändert und/oder das Fahrzeug2 , insbesondere an einer geeigneten Abstellposition, abstellt oder dies veranlasst. - Mittels des Verfahrens können somit potentiell gefährliche Situationen, beispielsweise keine oder eine zu späte Erfassung von dynamischen Objekten und stationären Objekten
3 im Umfeld des Fahrzeugs2 , durch nicht erkannte Performanceeinbrüche bei der Umfelderfassung, d. h. durch eine nicht erkannte Leistungsfähigkeitsreduktion eines oder mehrerer Umfelderfassungssensoren1 des Fahrzeugs2 , vermieden werden. Mittels des Verfahrens kann ein Fehlerfall aufgrund einer Degradation eines oder mehrerer Umfelderfassungssensoren1 des Fahrzeugs2 erkannt werden und es können daraufhin unterstützende Systemreaktionen eingeleitet werden, beispielsweise eine langsamere Fahrt bis hin zu einem Nothalt. - Im Folgenden wird das Verfahren anhand der
1 und2 nochmals beispielhaft erläutert. Die1 und2 zeigen jeweils einen Sichtbereich, d. h. einen Erfassungsbereich4 , mindestens eines Umfelderfassungssensors1 der Umfelderfassungssensorik des Fahrzeugs2 . Die Umfelderfassungssensorik umfasst beispielsweise ein oder mehrere Video-, Lidar- und/oder Radarsysteme. Der mittels des Verfahrens jeweils zu überprüfende Umfelderfassungssensor1 ist somit beispielsweise ein Video-, Lidar- oder Radarsensor. - In der digitalen Karte ist hinterlegt, welche stationären Objekte
3 im Umfeld des Fahrzeugs2 mit der jeweiligen Sensorik, d. h. mit dem jeweiligen zu überprüfenden Umfelderfassungssensor1 , von einer jeweiligen aktuellen Position des Fahrzeugs2 aus erfasst werden können. Im dargestellten Beispiel ist der auch als field of view oder Sichtbereich bezeichnete Erfassungsbereich4 des hier beispielsweise als Videosensor oder Lidarsensor ausgebildeten Umfelderfassungssensors1 dargestellt. Im in1 dargestellten Fall erfasst dieser Umfelderfassungssensor1 als Merkmale eine Flanke des als GebäudeG ausgebildeten stationären Objekts3 und eine jeweilige Kontur zweier als BüscheB ausgebildeter stationärer Objekte3 , wodurch deren Detektion entsprechend der Erwartungen bestätigt wird. Es wird somit im Beispiel gemäß1 nicht auf eine Degradation des mittels des Verfahrens überprüften Umfelderfassungssensors1 des Fahrzeugs2 geschlossen. - Im Beispiel gemäß
2 liegt eine Degradation dieses Umfelderfassungssensors1 vor. Auch hier ist der auch als field of view oder Sichtbereich bezeichnete Erfassungsbereich4 dieses zu überprüfenden Umfelderfassungssensors1 dargestellt. Dieser Erfassungsbereich4 ist durch eine atmosphärische Störung5 , schematisch dargestellt durch eine Wolke, beeinträchtigt, d. h. es liegt eine atmosphärisch bedingte Degradation des Umfelderfassungssensors1 vor. - In diesem Beispiel erfasst der Umfelderfassungssensor
1 zwar als Merkmal die Flanke des als GebäudeG ausgebildeten stationären Objekts3 , jedoch können durch eine aufgrund der atmosphärischen Störung5 geänderte Reflexion und/oder durch aufgrund der atmosphärischen Störung5 geänderte Reflektanzbedingungen die in der digitalen Karte als BüscheB verzeichneten stationären Objekte3 , insbesondere deren Konturen als deren Merkmale, vom Umfelderfassungssensor1 nicht mehr in einer vorgegebenen, insbesondere idealen, Distanz wahrgenommen werden. - Insbesondere durch einen Vergleich mit der erwarteten Leistungsfähigkeit über historische und/oder digitale Karten kann dieser Nachweis geführt werden. D. h. es wird erwartet, dass der Umfelderfassungssensor
1 aus der aktuellen Position des Fahrzeugs2 die Merkmale der in der digitalen Karte hinterlegten stationären Objekte3 und somit die stationären Objekte3 erkennt. Dies ist jedoch bezüglich der als BüscheB ausgebildeten stationären Objekte3 nicht der Fall, so dass auf die Degradation des Umfelderfassungssensors1 geschlossen wird. - Bezugszeichenliste
-
- 1
- Umfelderfassungssensor
- 2
- Fahrzeug
- 3
- stationäres Objekt
- 4
- Erfassungsbereich
- 5
- atmosphärische Störung
- B
- Busch
- G
- Gebäude
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- DE 102013206707 A1 [0002]
- DE 10313002 B4 [0003]
Claims (8)
- Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors (1) eines Fahrzeugs (2), dadurch gekennzeichnet, dass - das Fahrzeug (2) in einer digitalen Karte lokalisiert wird, - in der digitalen Karte Merkmale von hinterlegten stationären Objekten (3) einer Umgebung des Fahrzeugs (2) identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, - die Umgebung des Fahrzeugs (2) mit dem Umfelderfassungssensor (1) erfasst wird, - wobei auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor (1) erkannt werden oder wenn vom Umfelderfassungssensor (1) tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
- Verfahren nach
Anspruch 1 , dadurch gekennzeichnet, dass eine starke Abweichung vorliegt, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. - Verfahren nach
Anspruch 1 oder2 , dadurch gekennzeichnet, dass auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn ein erwarteter Abstand zwischen der Fahrzeug (2) und einem der in der Karte hinterlegten Objekte (3) von einem ermittelten tatsächlichen Abstand zwischen dem Fahrzeug (2) und dem Objekt (3) um mehr als einen vorgegebenen Abstandsschwellwert abweicht, wobei der erwartete Abstand aus der Karte als erwartungsgemäß zu erkennendes Merkmal des Objekts (3) ermittelt wird und der tatsächliche Abstand mittels des Umfelderfassungssensors (1) ermittelt wird. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand von Sensordaten des Umfelderfassungssensors (1) eine Klassifikation der erfassten Objekte (3) vorgenommen wird, um erkannte Klassifikationstypen der Objekte als tatsächlich erkannte Merkmale der Objekte zu ermitteln, dass die erkannten Klassifikationstypen auf Übereinstimmung mit erwarteten Klassifikationsytypen, welche als erwartungsgemäß zu erkennende Merkmale aus der Karte entnommen werden, geprüft werden, und dass auf ein Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn eine ermittelte Klassifikationsrate geringer ist als ein vorgegebener Klassifikaitonsschwellwert,
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nicht auf die Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn ermittelt wird, dass aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor (1) erkannt werden oder die vom Umfelderfassungssensor (1) tatsächlich erkannten Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Merkmale von hinterlegten stationären Objekten (3) der Umgebung des Fahrzeugs (2), von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert werden.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Merkmale von hinterlegten stationären Objekten (3) der Umgebung des Fahrzeugs (2), von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert werden.
- Verfahren nach
Anspruch 7 , dadurch gekennzeichnet, dass die Berechnung der zu erwartenden Erkennbarkeit mittels eines Raytracing-Verfahrens erfolgt.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018127059.3A DE102018127059A1 (de) | 2018-10-30 | 2018-10-30 | Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs |
CN201980072365.6A CN112955775B (zh) | 2018-10-30 | 2019-09-26 | 用于检查车辆的至少一个环境检测传感器的方法 |
US17/290,370 US11787424B2 (en) | 2018-10-30 | 2019-09-26 | Method for checking at least one driving environment sensor of a vehicle |
PCT/EP2019/076053 WO2020088857A1 (de) | 2018-10-30 | 2019-09-26 | Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102018127059.3A DE102018127059A1 (de) | 2018-10-30 | 2018-10-30 | Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102018127059A1 true DE102018127059A1 (de) | 2020-04-30 |
Family
ID=68104618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102018127059.3A Granted DE102018127059A1 (de) | 2018-10-30 | 2018-10-30 | Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs |
Country Status (4)
Country | Link |
---|---|
US (1) | US11787424B2 (de) |
CN (1) | CN112955775B (de) |
DE (1) | DE102018127059A1 (de) |
WO (1) | WO2020088857A1 (de) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019130037A1 (de) * | 2019-11-07 | 2021-05-12 | Daimler Ag | Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs |
DE102021101247A1 (de) | 2021-01-21 | 2022-07-21 | Audi Aktiengesellschaft | Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger |
EP4047585A1 (de) * | 2021-02-01 | 2022-08-24 | Rockwell Collins, Inc. | Sensorqualitätserfassung |
DE102021111325A1 (de) | 2021-05-03 | 2022-11-03 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug |
DE102021209671A1 (de) | 2021-09-02 | 2023-03-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen |
WO2023041226A1 (de) * | 2021-09-14 | 2023-03-23 | Mercedes-Benz Group AG | Verfahren zum betreiben eines fahrzeugs in einem automatisierten fahrbetrieb |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023150465A1 (en) * | 2022-01-31 | 2023-08-10 | Motional Ad Llc | Methods and systems for measuring sensor visibility |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10313002B4 (de) | 2003-03-24 | 2006-03-23 | Daimlerchrysler Ag | Fahrzeugumgebungserfassungseinheit |
DE102013113096A1 (de) * | 2012-12-19 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Navigation eines Straßenfahrzeugs basierend auf vertikalen Elementen |
DE102013206707A1 (de) | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004010197B4 (de) | 2004-03-02 | 2015-04-16 | Sick Ag | Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte |
DE102010063133A1 (de) * | 2010-12-15 | 2012-06-21 | Robert Bosch Gmbh | Verfahren und System zur Bestimmung einer Eigenbewegung eines Fahrzeugs |
US8630806B1 (en) * | 2011-10-20 | 2014-01-14 | Google Inc. | Image processing for vehicle control |
US20130208121A1 (en) * | 2012-02-10 | 2013-08-15 | Xerox Corporation | Traffic camera diagnostics via test targets |
US8930063B2 (en) * | 2012-02-22 | 2015-01-06 | GM Global Technology Operations LLC | Method for determining object sensor misalignment |
US9221396B1 (en) | 2012-09-27 | 2015-12-29 | Google Inc. | Cross-validating sensors of an autonomous vehicle |
US9274525B1 (en) | 2012-09-28 | 2016-03-01 | Google Inc. | Detecting sensor degradation by actively controlling an autonomous vehicle |
US10466709B2 (en) * | 2013-11-08 | 2019-11-05 | Hitachi, Ltd. | Autonomous driving vehicle and autonomous driving system |
DE102014226020A1 (de) * | 2014-12-16 | 2016-06-16 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung |
DE102015208228A1 (de) * | 2015-05-05 | 2016-11-10 | Bayerische Motoren Werke Aktiengesellschaft | Diagnoseverfahren für einen Sichtsensor eines Fahrzeugs und Fahrzeug mit einem Sichtsensor |
SE1551370A1 (sv) | 2015-10-22 | 2017-02-07 | Uniquesec Ab | Testing method with virtual radar signatures for an automotive safety radar system |
DE102016201250A1 (de) * | 2016-01-28 | 2017-08-03 | Conti Temic Microelectronic Gmbh | Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug |
US10078335B2 (en) * | 2016-06-28 | 2018-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Ray tracing for hidden obstacle detection |
DE102017000753A1 (de) | 2017-01-27 | 2017-07-13 | Daimler Ag | Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung |
DE102017003741A1 (de) * | 2017-04-19 | 2018-10-25 | Daimler Ag | Verfahren zur Bestimmung einer Reichweite |
EP3867720A1 (de) * | 2018-10-15 | 2021-08-25 | Starship Technologies OÜ | Verfahren und system zum betrieb eines mobilen roboters |
US11919525B2 (en) * | 2019-08-13 | 2024-03-05 | Autonomous Solutions, Inc. | Point cloud occlusion mapping for autonomous vehicles |
US11120538B2 (en) * | 2019-12-27 | 2021-09-14 | Zoox, Inc. | Sensor degradation detection and remediation |
-
2018
- 2018-10-30 DE DE102018127059.3A patent/DE102018127059A1/de active Granted
-
2019
- 2019-09-26 WO PCT/EP2019/076053 patent/WO2020088857A1/de active Application Filing
- 2019-09-26 CN CN201980072365.6A patent/CN112955775B/zh active Active
- 2019-09-26 US US17/290,370 patent/US11787424B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10313002B4 (de) | 2003-03-24 | 2006-03-23 | Daimlerchrysler Ag | Fahrzeugumgebungserfassungseinheit |
DE102013113096A1 (de) * | 2012-12-19 | 2014-06-26 | Toyota Motor Engineering & Manufacturing North America, Inc. | Navigation eines Straßenfahrzeugs basierend auf vertikalen Elementen |
DE102013206707A1 (de) | 2013-04-15 | 2014-10-16 | Robert Bosch Gmbh | Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019130037A1 (de) * | 2019-11-07 | 2021-05-12 | Daimler Ag | Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs |
DE102019130037B4 (de) | 2019-11-07 | 2022-09-29 | Mercedes-Benz Group AG | Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs |
DE102021101247A1 (de) | 2021-01-21 | 2022-07-21 | Audi Aktiengesellschaft | Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger |
DE102021101247B4 (de) | 2021-01-21 | 2023-05-04 | Audi Aktiengesellschaft | Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger |
EP4047585A1 (de) * | 2021-02-01 | 2022-08-24 | Rockwell Collins, Inc. | Sensorqualitätserfassung |
DE102021111325A1 (de) | 2021-05-03 | 2022-11-03 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug |
DE102021209671A1 (de) | 2021-09-02 | 2023-03-02 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen |
US11876955B2 (en) | 2021-09-02 | 2024-01-16 | Robert Bosch Gmbh | Method for qualification of a camera system and/or its image/camera signals |
WO2023041226A1 (de) * | 2021-09-14 | 2023-03-23 | Mercedes-Benz Group AG | Verfahren zum betreiben eines fahrzeugs in einem automatisierten fahrbetrieb |
Also Published As
Publication number | Publication date |
---|---|
CN112955775B (zh) | 2023-12-22 |
US11787424B2 (en) | 2023-10-17 |
CN112955775A (zh) | 2021-06-11 |
WO2020088857A1 (de) | 2020-05-07 |
US20210403012A1 (en) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102018127059A1 (de) | Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs | |
DE102019002487A1 (de) | Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs | |
DE102017214611B4 (de) | Verfahren zum Überprüfen eines Reaktionssignals einer Fahrzeugkomponente sowie Überprüfungsvorrichtung und Kraftfahrzeug | |
DE102019205083A1 (de) | Verfahren zum Prädizieren eines manuellen Einparkvorgangs und Unterstützen eines Fahrers | |
DE102014106506A1 (de) | Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug | |
DE102016207463A1 (de) | Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs | |
DE102020117340A1 (de) | Verfahren zur Umgebungserfassung mit wenigstens zwei unabhängigen bildgebenden Umgebungserfassungssensoren, Vorrichtung zur Durchführung des Verfahrens, Fahrzeug sowie entsprechend ausgelegtes Computerprogramm | |
DE102018006503A1 (de) | Digitale Karte | |
DE102016012345A1 (de) | Verfahren zum Erkennen von Objekten | |
DE102014210752A1 (de) | Verfahren und Vorrichtung zum Überwachen einer Solltrajektorie eines Fahrzeugs | |
DE102018205011A1 (de) | Verfahren und System zum kontrollierten Überführen von Fahrzeugen einer Fahrzeugflotte in einen sicheren Zustand | |
DE102018213378B4 (de) | Fahrassistenzsystem für ein Fahrzeug, Fahrzeug mit demselben und Fahrassistenzverfahren für ein Fahrzeug | |
DE102018221427A1 (de) | Verfahren zur Ermittlung einer vorliegenden Dejustage wenigstens eines Sensors innerhalb eines Sensorverbundes | |
DE102019206847A1 (de) | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs | |
DE102019208507A1 (de) | Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen | |
DE102019000403A1 (de) | Verfahren zumindest zur Ausgabe einer Warnung vor einer Gefahrenstelle | |
DE102018119834A1 (de) | Verfahren zum Betrieb eines autonom fahrenden Fahrzeuges | |
DE112020006634T5 (de) | Notfallevakuierungsvorrichtung, Server-Vorrichtung, und Notfallevakuierungsverfahren | |
DE102019211459A1 (de) | Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren | |
AT524759B1 (de) | Verfahren zur Fahrassistenz und Fahrassistenzsystem | |
DE102022212227A1 (de) | Verfahren zum Ermitteln eines Betriebszustands eines ein erstes Umfeldsensorsystem und ein zweites Umfeldsensorsystem umfassenden Objekterkennungssystems eines Schienenfahrzeugs | |
DE102021200252A1 (de) | Verfahren zum Steuern einer Verkehrssituation | |
DE102015014627A1 (de) | System und Verfahren zur Einstellung des Fahrgestellniveaus der Fahrzeuge in einer Fahrzeuggruppe | |
DE102022124341A1 (de) | Verfahren zur Fehlerverwaltung für ein Fahrzeug, insbesondere Nutzfahrzeug, Computerprogramm und/oder computerlesbares Medium, Steuergerät für ein Fahrzeug, insbesondere Nutzfahrzeug, und Fahrzeug, insbesondere Nutzfahrzeug | |
DE102021003856A1 (de) | Verfahren zum Betrieb eines automatisiert fahrenden Fahrzeuges |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R081 | Change of applicant/patentee |
Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE Owner name: ROBERT BOSCH GMBH, DE Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE Owner name: DAIMLER AG, DE Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE |
|
R082 | Change of representative |
Representative=s name: PATENTANWAELTE LIEDTKE & PARTNER, DE |
|
R081 | Change of applicant/patentee |
Owner name: ROBERT BOSCH GMBH, DE Free format text: FORMER OWNERS: DAIMLER AG, STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE Owner name: MERCEDES-BENZ GROUP AG, DE Free format text: FORMER OWNERS: DAIMLER AG, STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE |
|
R018 | Grant decision by examination section/examining division |