DE102018127059A1 - Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs - Google Patents

Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs Download PDF

Info

Publication number
DE102018127059A1
DE102018127059A1 DE102018127059.3A DE102018127059A DE102018127059A1 DE 102018127059 A1 DE102018127059 A1 DE 102018127059A1 DE 102018127059 A DE102018127059 A DE 102018127059A DE 102018127059 A1 DE102018127059 A1 DE 102018127059A1
Authority
DE
Germany
Prior art keywords
environment detection
detection sensor
recognized
vehicle
expected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018127059.3A
Other languages
English (en)
Inventor
Holger Mielenz
Christoph Gustav Keller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Mercedes Benz Group AG
Original Assignee
Robert Bosch GmbH
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH, Daimler AG filed Critical Robert Bosch GmbH
Priority to DE102018127059.3A priority Critical patent/DE102018127059A1/de
Priority to CN201980072365.6A priority patent/CN112955775B/zh
Priority to US17/290,370 priority patent/US11787424B2/en
Priority to PCT/EP2019/076053 priority patent/WO2020088857A1/de
Publication of DE102018127059A1 publication Critical patent/DE102018127059A1/de
Granted legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0018Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions
    • B60W60/00186Planning or execution of driving tasks specially adapted for safety by employing degraded modes, e.g. reducing speed, in response to suboptimal conditions related to the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4052Means for monitoring or calibrating by simulation of echoes
    • G01S7/4082Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder
    • G01S7/4091Means for monitoring or calibrating by simulation of echoes using externally generated reference signals, e.g. via remote reflector or transponder during normal radar operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors (1) eines Fahrzeugs (2).Erfindungsgemäß wird das Fahrzeug (2) in einer digitalen Karte lokalisiert, in der digitalen Karte werden Merkmale von hinterlegten stationären Objekten (3) einer Umgebung des Fahrzeugs (2) identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, und die Umgebung des Fahrzeugs (2) wird mit dem Umfelderfassungssensor (1) erfasst, wobei auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor (1) erkannt werden oder wenn vom Umfelderfassungssensor (1) tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.

Description

  • Die Erfindung betrifft ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs.
  • Aus dem Stand der Technik ist, wie in der DE 10 2013 206 707 A1 beschrieben, ein Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs bekannt. Das Umfelderfassungssystem umfasst mindestens zwei verschiedene Umfeldsensortypen. Der Sichtbereich des ersten Umfeldsensortyps überlappt nicht mit dem Sichtbereich des zweiten Umfeldsensortyps. Objekte im Umfeld des Fahrzeugs werden mit dem ersten Umfeldsensortyp erfasst und mit den Daten des ersten Umfeldsensortyps in statische und dynamische Objekte kategorisiert. Die relative Position der erfassten statischen Objekte zum Fahrzeug wird bestimmt. Diese Position wird mit einer über den zweiten Umfeldsensortyp ermittelten Position verglichen. Bei einer Abweichung über einem Grenzwert wird auf einen Fehler geschlossen. Die relative Position der erfassten statischen Objekte wird nach dem Verlassen des Sichtbereichs des ersten Umfeldsensortyps unter Berücksichtigung der Bewegung des Fahrzeugs aktualisiert.
  • In der DE 103 13 002 B4 wird eine Fahrzeugumgebungserfassungseinheit beschrieben. Mittels wenigstens eines Bildsensors werden Umgebungsinformationen erfasst. Die erfassten Umgebungsinformationen werden mittels einer Recheneinheit zu Bildinformationen verarbeitet und auf einer Videobildanzeige dargestellt. Zusätzlich werden die Bildinformationen in einem Zwischenspeicher abgelegt. Das zuletzt erfasste Bild wird mit den im Zwischenspeicher abgelegten Bildinformationen anhand einer Bildverarbeitungsalgorithmik verglichen. Bei einer unzulässigen Abweichung des zuletzt erfassten Bildes von den abgelegten Bildinformationen wird das angezeigte Videobild verändert dargestellt. Der Fahrzeugumgebungserfassungseinheit werden Fahrzeug-Betriebsparameter zugeführt, um auf eine unzulässige Abweichung dadurch zu schließen, dass sich eine aufgrund der Betriebsparameter zu erwartende Abweichung der Bildinformationen zwischen den Zeitpunkten der Aufnahme des zuletzt erfassten Bildes und der abgelegten Bildinformationen nicht plausibel mit dem Ergebnis eines Vergleichs dieser Bildinformationen korrelieren lässt.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs mit den Merkmalen des Anspruchs 1.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs, beispielsweise eines Radarsensors, eines Lidarsensors, eines Bilderfassungssensors, insbesondere Videosensors, oder eines Ultraschallsensors, wird erfindungsgemäß das Fahrzeug in einer digitalen Karte lokalisiert, insbesondere indem eine Position des Fahrzeugs ermittelt wird und eine entsprechende Position in der digitalen Karte ermittelt wird. In der digitalen Karte werden Merkmale von dort hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden, wenn dieser fehlerfrei arbeitet. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen. D. h. wenn der Umfelderfassungssensor Merkmale erkennt, so werden die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen verglichen. Wenn die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor tatsächlich erkannten Merkmalen übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des Umfelderfassungssensors festgestellt. Wenn jedoch der Umfelderfassungssensor keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors geschlossen. Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. D. h. wenn die vom Umfelderfassungssensor tatsächlich erkannten Merkmale zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des Umfelderfassungssensors erkannt.
  • In einer vorteilhaften Ausgestaltung des Verfahrens wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn ein erwarteter Abstand zwischen dem Fahrzeug und einem der in der Karte hinterlegten Objekte von einem ermittelten tatsächlichen Abstand um mehr als einen vorgegebenen Abstandsschwellwert abweicht. In diesem Fall stellt der Abstand zwischen dem Fahrzeug und einem Objekt das zu betrachtende Merkmal des Objekts dar. Der erwartete Abstand eines Objekts wird aus der digitalen Karte als erwartungsgemäß zu erkennendes Merkmal des Objekts ermittelt und der tatsächliche Abstand wird mittels des Umfelderfassungssensors als tatsächlich erkanntes Merkmal ermittelt.
  • Sollte beispielsweise bekannt sein, dass die Kontur eines bestimmten Objektes, beispielsweise eines Baums, an einem gegebenen Ort einen gewissen Abstands mit einer bekannten Streuung aufweist, z.B. 50 m +/- 0,1 5 m, und sollte der ermittelte Abstand aktuell aber beispielsweise bei 45 m +/- 1,2m liegen, oder das Objekt gar nicht wahrgenommen werden, kann auf eine Degradation des Umfelderfassungssensors geschlossen werden.
  • In einer weiteren vorteilhaften Ausgestaltung des Verfahrens wird anhand von Sensordaten des Umfelderfassungssensors, vorteilhafterweise auch unter Berücksichtigung von Sensordaten weiterer Sensoren, eine Klassifikation von Objekten vorgenommen, die mit dem Umfelderfassungssensor erfasst werden. Durch die Klassifikation eines Objekts wird ein Klassifikationstyp des Objekts erkannt. In diesem Fall stellt der Klassifikationstyp eines Objekts das zu betrachtende Merkmal dieses Objekts dar. Die erkannten Klassifikationstypen der Objekte werden auf Übereinstimmung mit erwarteten Klassifikationstypen, den erwartungsgemäß zu erkennenden Merkmalen der Objekte, geprüft. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn eine ermittelte Klassifikationsrate geringer ist als ein vorgegebener Klassifikationsschwellwert Die Klassifikationsrate gibt dabei an, wie hoch der Anteil der Übereinstimmungen zwischen den ermittelten und erwarteten Klassifikationstypen ist.
  • Beispielsweise wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die Klassifikation ergibt, dass ein erfasstes Objekt ein Vorfahrtszeichen ist und wenn sich aus der ermittelten Klassifikationsrate ergibt, dass die Wahrscheinlichkeit, dass das Objekt ein Vorfahrtszeichen ist, kleiner als 87% ist.
  • Das erfindungsgemäße Verfahren ermöglicht somit eine Ermittlung der Degradation des mindestens einen Umfelderfassungssensors des Fahrzeugs. Dieses Verfahren ist besonders vorteilhaft für automatisiert fahrende Fahrzeuge, beispielsweise Shuttle, Robotaxis oder andere Fahrzeuge. Wird eine Degradation des mindestens einen Umfelderfassungssensors ermittelt, wodurch eine Umfelderfassungssensorik des Fahrzeugs, umfassend den mindestens einen Umfelderfassungssensor oder beispielsweise mehrere gleiche oder unterschiedliche Umfelderfassungssensoren, eine entsprechende Reduktion ihrer Leistungsfähigkeit aufweist, kann, beispielsweise in einem Verfahren zur Durchführung eines automatisierten und/oder autonomen Fahrbetrieb des Fahrzeugs, eine entsprechende Reaktion, insbesondere zur Vermeidung von gefährlichen Situationen, eingeleitet werden. Beispielsweise kann, insbesondere bei einer Reduktion einer Erfassungsreichweite des mindestens einen Umfelderfassungssensors aufgrund der erkannten Degradation, eine Geschwindigkeit des Fahrzeugs reduziert werden, d. h. die Geschwindigkeit wird insbesondere an die verringerte Erfassungsreichweite angepasst. Dies betrifft beispielsweise eine aktuelle Geschwindigkeit und/oder eine für das Fahrzeug maximal zulässige Geschwindigkeit. Alternativ wird das Fahrzeug bei einer erkannten Degradation des Umfelderfassungssensors abgestellt, beispielsweise auf sichere Weise an einem Fahrbahnrand oder neben der Fahrbahn oder auf einem Abstellplatz oder Parkplatz oder in einer Nothaltebucht oder auf einem anderen verkehrssicheren Platz, an welchem das Fahrzeug insbesondere keine Gefahr für andere Verkehrsteilnehmer darstellt, zum Stillstand gebracht, insbesondere bei einem automatisiert fahrenden Fahrzeug. Ist ein Fahrzeugführer im Fahrzeug anwesend, so kann, alternativ oder zusätzlich, der Fahrzeugführer auf die Degradation des Umfelderfassungssensors hingewiesen werden, so dass er beispielsweise die Fahrzeugführung übernehmen kann.
  • Es ist dann beispielsweise kein autonomer oder automatisierter Fahrbetrieb möglich, jedoch noch ein manueller Fahrbetrieb durch den Fahrzeugführer. Bei einem automatisiert oder autonom fahrenden Fahrzeug, insbesondere wenn kein Fahrzeugführer im Fahrzeug anwesend ist, kann, alternativ oder zusätzlich, vorgesehen sein, dass ein Teleoperator, d. h. insbesondere eine Person außerhalb des Fahrzeugs mit Fernzugriff auf das Fahrzeug, insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des Fahrzeugs, die ermittelte Degradation und daraus resultierende verbleibende Leistungsfähigkeit des Umfelderfassungssensors bewerten und daraufhin weitere Schritte veranlassen, beispielsweise die oben bereits beschriebenen Schritte, zum Beispiel die Reduzierung der aktuellen und/oder maximal zulässigen Geschwindigkeit des Fahrzeugs und/oder das Abstellen des Fahrzeugs auf die oben beschriebene Weise.
  • Mittels des erfindungsgemäßen Verfahrens können somit potentiell gefährliche Situationen vermieden werden, welche durch nicht erkannte Leistungsfähigkeitseinbrüche des mindestens einen Umfelderfassungssensors auftreten könnten, beispielsweise gefährliche Situationen durch keine oder eine zu späte Erfassung von Objekten im Umfeld des Fahrzeugs. Mittels des erfindungsgemäßen Verfahrens wird der Fehlerfall der Degradation des mindestens einen Umfelderfassungssensors erkannt und es kann eine unterstützende Reaktion eingeleitet werden, beispielsweise eine langsamere Fahrt oder ein Nothalt des Fahrzeugs.
  • Vorteilhafterweise wird nicht auf die Degradation des Umfelderfassungssensors geschlossen, wenn ermittelt wird, dass aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die vom Umfelderfassungssensor tatsächlich erkannten Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen. Auf diese Weise wird eine fehlerhafte Degradationserkennung aufgrund einer Sichtverdeckung durch dynamische Objekte vermieden.
  • In einer möglichen Ausführungsform werden die Merkmale von hinterlegten stationären Objekten der Umgebung des Fahrzeugs, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert. Alternativ oder zusätzlich werden die Merkmale von hinterlegten stationären Objekten der Umgebung des Fahrzeugs, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit, insbesondere mittels mindestens eines Raytracing-Verfahrens anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert. Raytracing, d. h. Strahlverfolgung oder Strahlenverfolgung, ist ein auf der Aussendung von Strahlen basierender Algorithmus zur Verdeckungsberechnung, also zur Ermittlung der Sichtbarkeit von dreidimensionalen Objekten von einem bestimmten Punkt im Raum aus.
  • Weist das Fahrzeug, insbesondere eine Umfelderfassungssensorik des Fahrzeugs, mehrere, beispielsweise gleiche oder unterschiedliche, Umfelderfassungssensoren auf, so kann das Verfahren für einen der Umfelderfassungssensoren, für mehrere der Umfelderfassungssensoren oder für alle Umfelderfassungssensoren durchgeführt werden, beispielsweise gleichzeitig oder nacheinander. Insbesondere wird das Verfahren für denjenigen Umfelderfassungssensor oder für diejenigen Umfelderfassungssensoren durchgeführt, mittels welchem/welchen Merkmale von in der digitalen Karte hinterlegten stationären Objekten der Umgebung des Fahrzeugs erkannt werden können.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand von Zeichnungen näher erläutert.
  • Dabei zeigen:
    • 1 schematisch ein Beispiel einer Umfelderfassung mittels eines Umfelderfassungssensors eines Fahrzeugs, und
    • 2 schematisch ein weiteres Beispiel einer Umfelderfassung mittels eines Umfelderfassungssensors eines Fahrzeugs.
  • Einander entsprechende Teile sind in allen Figuren mit den gleichen Bezugszeichen versehen.
  • Anhand der 1 und 2, welche beispielhaft eine Umfelderfassung mittels eines Umfelderfassungssensors 1 eines Fahrzeugs 2 zeigen, wird im Folgenden ein Verfahren zur Überprüfung des mindestens einen Umfelderfassungssensors 1 des Fahrzeugs 2 beschrieben. In diesem Verfahren wird das Fahrzeug 2 in einer digitalen Karte lokalisiert, insbesondere indem eine Position des Fahrzeugs 2 ermittelt wird und eine entsprechende Position in der digitalen Karte ermittelt wird. In der digitalen Karte werden Merkmale von dort hinterlegten stationären Objekten 3 einer Umgebung des Fahrzeugs 2 identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, wenn dieser fehlerfrei arbeitet.
  • Die Umgebung des Fahrzeugs 2 wird mit dem Umfelderfassungssensor 1 erfasst. Es wird auf eine Degradation des Umfelderfassungssensors 1 geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor 1 erkannt werden oder wenn vom Umfelderfassungssensor 1 tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
  • D. h. wenn der Umfelderfassungssensor 1 Merkmale erkennt, so werden die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen verglichen. Wenn die erwartungsgemäß zu erkennenden Merkmale mit diesen vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen übereinstimmen oder zumindest keine zu starke Abweichung zwischen den erwartungsgemäß zu erkennenden Merkmalen und den vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen vorliegt, wird keine Degradation des Umfelderfassungssensors 1 festgestellt. Wenn jedoch der Umfelderfassungssensor 1 keine Merkmale erkennt oder wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale in diesem Vergleich mit den erwartungsgemäß zu erkennenden Merkmalen nicht übereinstimmen und eine starke, insbesondere zu starke, Abweichung vorliegt, wird auf die Degradation des Umfelderfassungssensors 1 geschlossen.
  • Eine starke Abweichung, insbesondere zu starke Abweichung, liegt insbesondere dann vor, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet. D. h. wenn die vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmale zwar nicht mit den erwartungsgemäß zu erkennenden Merkmalen übereinstimmen, die Abweichung zwischen den vom Umfelderfassungssensor 1 tatsächlich erkannten Merkmalen und den erwartungsgemäß zu erkennenden Merkmalen jedoch nicht zu stark ist, insbesondere innerhalb des vorgegebenen Toleranzbereichs liegt, wird keine Degradation des Umfelderfassungssensors 1 erkannt. Der Schwellwert für ein Toleranzmaß kann z.B. über Sicherheitsanforderungen abgeleitet werden, wonach z.B. der Abstandmesswert einen vorgegebenen Fehler nicht überschreiten darf oder die Klassifikationsrate eines Sensors im Sensorverbund einen vorgegebenen Schwellwert nicht unterschreiten darf.
  • Das Verfahren ermöglicht es einem automatisiert fahrenden Fahrzeug 2, beispielsweise einem Shuttle oder Robotaxi, zu ermitteln, ob eine Umfelderfassungssensorik, umfassend den mindestens einen Umfelderfassungssensor 1 oder mehrere gleiche oder umterschiedliche Umfelderfassungssensoren 1, eine Performancereduktion, d. h. eine Reduktion einer Leistungsfähigkeit, aufweist, Im Falle einer erkannten Performancereduktion kann eine erweiterte Systemreaktion des Fahrzeugs 2 zur Vermeidung von gefährlichen Situationen eingeleitet werden.
  • Der Kern des Verfahrens besteht darin, dass für im Fahrzeug 2 vorhandene Sensortechnologien, d. h. für den jeweiligen Umfelderfassungssensor 1, welcher mittels des Verfahrens überprüft werden soll, zu jedem Zeitpunkt bekannt ist, welche Infrastrukturobjekte, d. h. stationäre Objekte 3, zum Beispiel Gebäude G und/oder Vegetation, beispielsweise in Form von Büschen B, wie in den 1 und 2 gezeigt, an welcher Stelle erkannt werden müssten. Sollten eines oder mehrere der erwarteten stationären Objekte 3, insbesondere deren Merkmale, mittels des jeweiligen Umfelderfassungssensors 1 nicht ermittelt werden können und sollte dies nicht durch eine Sichtverdeckung, insbesondere durch weitere dynamische Objekte, begründet werden können, ist von einer Performancedegradation, d. h. von einer Degradation des jeweiligen Umfelderfassungssensors 1, auszugehen.
  • Eine solche Degradation kann beispielsweise durch atmosphärische Einflüsse, zum Beispiel durch Nebel und/oder Regen und/oder Schnee, und/oder durch mechanische Einflüsse erfolgen. 2 zeigt ein Beispiel eines atmosphärischen Einflusses, d. h. einer atmosphärischen Störung 5 des Umfelderfassungssensors 1.
  • Das Verfahren lässt diesbezüglich Hinweise auf die jeweilige Ursache zu. So zeichnen sich atmosphärische Einflüsse systematisch in allen betroffenen Umfelderfassungssensoren 1 der für solche atomsphärischen Einflüsse empfindlichen Technologien aus, wohingegen mechanische Einflüsse auf einen Umfelderfassungssensor 1 oder wenige Umfelderfassungsensoren 1 beschränkt bleiben. D. h. auf einen mechanischen Einfluss kann insbesondere dann geschlossen werden, wenn einer oder mehrere Umfelderfassungsensoren 1 des Fahrzeugs 2 eine Degradation aufweisen und ein oder mehrere andere Umfelderfassungsensoren 1 des Fahrzeugs 2, welche auf gleiche Weise ausgebildet sind wie die Umfelderfassungsensoren 1, die die Degradation aufweisen, und/oder von einer atmosphärisch bedingten Degradation ebenfalls betroffen sein müssten, keine Degradation aufweisen.
  • Eine solche Ermittlung, ob die jeweils vorliegende Degradation atmosphärisch oder mechanisch bedingt ist, kann vorteilhaft sein, denn eine atmosphärisch bedingte Degradation verändert sich mit der Veränderung der atmosphärischen Bedingungen, so dass bei wieder verbesserten atmosphärischen Bedingungen keine Degradation des Umfelderfassungssensors 1 mehr vorliegt. Eine mechanische Degradation, beispielsweise aufgrund einer Beschädigung des Umfelderfassungssensors 1 und/oder eines Bereichs des Fahrzeugs 2, in welchem dieser installiert ist, verbessert sich nicht von selbst, sondern bedarf beispielsweise einer Reparatur oder eines Austauschs oder einer Justierung und/oder Kalibrierung des Umfelderfassungssensors 1.
  • In einer möglichen Ausführungsform des Verfahrens werden die Merkmale von hinterlegten stationären Objekten 3 der Umgebung des Fahrzeugs 2, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert werden. Die stationären Objekte 3 und deren Merkmale sind somit sensorspezifisch in der digitalen Karte kodiert, so dass aus der digitalen Karte direkt ausgelesen werden kann, welche stationären Objekte 3 und deren entsprechende Merkmale der jeweilige Umfelderfassungssensor 1 erkennen muss.
  • In einer weiteren Ausführungsform des Verfahrens erfolgt dies nicht, d. h. es wird nicht über die digitale Karte kodiert, welcher Umfelderfassungssensor 1 das stationäre Objekt 3 und dessen Merkmale zu erkennen hat bzw. welches der in der digitalen Karte verzeichneten stationären Objekte 3 und dessen Merkmale der jeweilige zu prüfende Umfelderfassungssensor 1 zu erkennen hat, sondern eine zu erwartete Sichtbarkeit eines jeden stationären Objektes 3 und dessen Merkmalen werden zu jedem Zeitpunkt für die jeweilige Sensortechnologie, d. h. für den jeweiligen zu prüfenden Umfelderfassungssensor 1, aktiv berechnet, zum Beispiel mittels eines oder mehrerer Raytracing-Verfahren anhand eines dreidimensionalen Modells der digitalen Karte. Bei dieser Ausführungsform des Verfahrens werden somit die Merkmale von hinterlegten stationären Objekten 3 der Umgebung des Fahrzeugs 2, von denen erwartet wird, dass sie vom Umfelderfassungssensor 1 erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit, insbesondere mittels mindestens eines Raytracing-Verfahrens anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert.
  • Wird eine Performancedegradation, d. h. eine Degradation des jeweiligen überprüften Umfelderfassungssensors 1, erkannt, reagiert das System, d. h. das Fahrzeug 2, insbesondere ein System zur Durchführung des automatisierten Fahrbetriebs des Fahrzeugs 2, vorteilhafterweise mit einem adäquaten Verhalten. So wird zum Beispiel bei einer Reduktion einer Sichtweite, d. h. einer Erfassungsreichweite, des jeweiligen überprüften Umfelderfassungssensors 1 vorteilhafterweise eine maximale Geschwindigkeit des Fahrzeugs 2 reduziert. Alternativ oder zusätzlich kann das Fahrzeug 2 in einem solchen Fehlerfall, d. h. bei einer erkannten Degradation des jeweiligen überprüften Umfelderfassungssensors 1, beispielsweise auch aktiv abgestellt werden. In diesem Fall fährt das Fahrzeug 2 beispielsweise automatisiert zu einer geeigneten Position, beispielsweise an einen Fahrbahnrand, auf eine Standspur, in eine Nothaltebucht oder auf einen Parkplatz, und wird dort abgestellt. Die jeweilige Vorgehensweise, d. h. ob, in welcher Form, mit welcher Geschwindigkeit und wie weit das Fahrzeug 2, insbesondere automatisiert, noch weiterfährt, hängt insbesondere von einem Ausmaß der ermittelten Degradation des jeweiligen Umfelderfassungssensors 1 ab und davon, wieviele und welche Umfelderfassungssensoren 1 des Fahrzeugs 2 eine solche Degradation aufweisen.
  • Alternativ oder zusätzlich zu einer solchen insbesondere automatischen Reaktion des Fahrzeugs 2 auf die erkannte Degradation des jeweiligen überprüften Umfelderfassungssensors 1 kann beispielsweise vorgesehen sein, dass ein Teleoperator, d. h. eine Person, welche sich nicht im Fahrzeug 2 oder in unmittelbarer Nähe zum Fahrzeug 2 befindet, sondern einen Fernzugriff auf das Fahrzeug 2, insbesondere auf Steuerungs- und/oder Regelungseinrichtungen des Fahrzeugs 2, hat, eine aktuelle Sensorperformance, d. h. Leistungsfähigkeit, des jeweiligen Umfelderfassungssensors 1, für welchen durch die Überprüfung eine Degradation festgestellt wurde, bewertet und entsprechend weitere Schritte veranlasst, beispielsweise die maximale Geschwindigkeit des Fahrzeugs 2 reduziert, eine Fahrtroute des Fahrzeugs 2 ändert und/oder das Fahrzeug 2, insbesondere an einer geeigneten Abstellposition, abstellt oder dies veranlasst.
  • Mittels des Verfahrens können somit potentiell gefährliche Situationen, beispielsweise keine oder eine zu späte Erfassung von dynamischen Objekten und stationären Objekten 3 im Umfeld des Fahrzeugs 2, durch nicht erkannte Performanceeinbrüche bei der Umfelderfassung, d. h. durch eine nicht erkannte Leistungsfähigkeitsreduktion eines oder mehrerer Umfelderfassungssensoren 1 des Fahrzeugs 2, vermieden werden. Mittels des Verfahrens kann ein Fehlerfall aufgrund einer Degradation eines oder mehrerer Umfelderfassungssensoren 1 des Fahrzeugs 2 erkannt werden und es können daraufhin unterstützende Systemreaktionen eingeleitet werden, beispielsweise eine langsamere Fahrt bis hin zu einem Nothalt.
  • Im Folgenden wird das Verfahren anhand der 1 und 2 nochmals beispielhaft erläutert. Die 1 und 2 zeigen jeweils einen Sichtbereich, d. h. einen Erfassungsbereich 4, mindestens eines Umfelderfassungssensors 1 der Umfelderfassungssensorik des Fahrzeugs 2. Die Umfelderfassungssensorik umfasst beispielsweise ein oder mehrere Video-, Lidar- und/oder Radarsysteme. Der mittels des Verfahrens jeweils zu überprüfende Umfelderfassungssensor 1 ist somit beispielsweise ein Video-, Lidar- oder Radarsensor.
  • In der digitalen Karte ist hinterlegt, welche stationären Objekte 3 im Umfeld des Fahrzeugs 2 mit der jeweiligen Sensorik, d. h. mit dem jeweiligen zu überprüfenden Umfelderfassungssensor 1, von einer jeweiligen aktuellen Position des Fahrzeugs 2 aus erfasst werden können. Im dargestellten Beispiel ist der auch als field of view oder Sichtbereich bezeichnete Erfassungsbereich 4 des hier beispielsweise als Videosensor oder Lidarsensor ausgebildeten Umfelderfassungssensors 1 dargestellt. Im in 1 dargestellten Fall erfasst dieser Umfelderfassungssensor 1 als Merkmale eine Flanke des als Gebäude G ausgebildeten stationären Objekts 3 und eine jeweilige Kontur zweier als Büsche B ausgebildeter stationärer Objekte 3, wodurch deren Detektion entsprechend der Erwartungen bestätigt wird. Es wird somit im Beispiel gemäß 1 nicht auf eine Degradation des mittels des Verfahrens überprüften Umfelderfassungssensors 1 des Fahrzeugs 2 geschlossen.
  • Im Beispiel gemäß 2 liegt eine Degradation dieses Umfelderfassungssensors 1 vor. Auch hier ist der auch als field of view oder Sichtbereich bezeichnete Erfassungsbereich 4 dieses zu überprüfenden Umfelderfassungssensors 1 dargestellt. Dieser Erfassungsbereich 4 ist durch eine atmosphärische Störung 5, schematisch dargestellt durch eine Wolke, beeinträchtigt, d. h. es liegt eine atmosphärisch bedingte Degradation des Umfelderfassungssensors 1 vor.
  • In diesem Beispiel erfasst der Umfelderfassungssensor 1 zwar als Merkmal die Flanke des als Gebäude G ausgebildeten stationären Objekts 3, jedoch können durch eine aufgrund der atmosphärischen Störung 5 geänderte Reflexion und/oder durch aufgrund der atmosphärischen Störung 5 geänderte Reflektanzbedingungen die in der digitalen Karte als Büsche B verzeichneten stationären Objekte 3, insbesondere deren Konturen als deren Merkmale, vom Umfelderfassungssensor 1 nicht mehr in einer vorgegebenen, insbesondere idealen, Distanz wahrgenommen werden.
  • Insbesondere durch einen Vergleich mit der erwarteten Leistungsfähigkeit über historische und/oder digitale Karten kann dieser Nachweis geführt werden. D. h. es wird erwartet, dass der Umfelderfassungssensor 1 aus der aktuellen Position des Fahrzeugs 2 die Merkmale der in der digitalen Karte hinterlegten stationären Objekte 3 und somit die stationären Objekte 3 erkennt. Dies ist jedoch bezüglich der als Büsche B ausgebildeten stationären Objekte 3 nicht der Fall, so dass auf die Degradation des Umfelderfassungssensors 1 geschlossen wird.
  • Bezugszeichenliste
  • 1
    Umfelderfassungssensor
    2
    Fahrzeug
    3
    stationäres Objekt
    4
    Erfassungsbereich
    5
    atmosphärische Störung
    B
    Busch
    G
    Gebäude
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102013206707 A1 [0002]
    • DE 10313002 B4 [0003]

Claims (8)

  1. Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors (1) eines Fahrzeugs (2), dadurch gekennzeichnet, dass - das Fahrzeug (2) in einer digitalen Karte lokalisiert wird, - in der digitalen Karte Merkmale von hinterlegten stationären Objekten (3) einer Umgebung des Fahrzeugs (2) identifiziert werden, von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, - die Umgebung des Fahrzeugs (2) mit dem Umfelderfassungssensor (1) erfasst wird, - wobei auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor (1) erkannt werden oder wenn vom Umfelderfassungssensor (1) tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine starke Abweichung vorliegt, wenn die Abweichung einen vorgegebenen Toleranzbereich überschreitet.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass auf eine Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn ein erwarteter Abstand zwischen der Fahrzeug (2) und einem der in der Karte hinterlegten Objekte (3) von einem ermittelten tatsächlichen Abstand zwischen dem Fahrzeug (2) und dem Objekt (3) um mehr als einen vorgegebenen Abstandsschwellwert abweicht, wobei der erwartete Abstand aus der Karte als erwartungsgemäß zu erkennendes Merkmal des Objekts (3) ermittelt wird und der tatsächliche Abstand mittels des Umfelderfassungssensors (1) ermittelt wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass anhand von Sensordaten des Umfelderfassungssensors (1) eine Klassifikation der erfassten Objekte (3) vorgenommen wird, um erkannte Klassifikationstypen der Objekte als tatsächlich erkannte Merkmale der Objekte zu ermitteln, dass die erkannten Klassifikationstypen auf Übereinstimmung mit erwarteten Klassifikationsytypen, welche als erwartungsgemäß zu erkennende Merkmale aus der Karte entnommen werden, geprüft werden, und dass auf ein Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn eine ermittelte Klassifikationsrate geringer ist als ein vorgegebener Klassifikaitonsschwellwert,
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass nicht auf die Degradation des Umfelderfassungssensors (1) geschlossen wird, wenn ermittelt wird, dass aufgrund einer Verdeckung durch mindestens ein dynamisches Objekt die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor (1) erkannt werden oder die vom Umfelderfassungssensor (1) tatsächlich erkannten Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Merkmale von hinterlegten stationären Objekten (3) der Umgebung des Fahrzeugs (2), von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, mittels in der digitalen Karte hinterlegten sensorspezifischen Erfassungsinformationen in der digitalen Karte identifiziert werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Merkmale von hinterlegten stationären Objekten (3) der Umgebung des Fahrzeugs (2), von denen erwartet wird, dass sie vom Umfelderfassungssensor (1) erkannt werden, durch eine Berechnung einer zu erwartenden Erkennbarkeit anhand eines dreidimensionalen Modells der digitalen Karte, in der digitalen Karte identifiziert werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass die Berechnung der zu erwartenden Erkennbarkeit mittels eines Raytracing-Verfahrens erfolgt.
DE102018127059.3A 2018-10-30 2018-10-30 Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs Granted DE102018127059A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018127059.3A DE102018127059A1 (de) 2018-10-30 2018-10-30 Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
CN201980072365.6A CN112955775B (zh) 2018-10-30 2019-09-26 用于检查车辆的至少一个环境检测传感器的方法
US17/290,370 US11787424B2 (en) 2018-10-30 2019-09-26 Method for checking at least one driving environment sensor of a vehicle
PCT/EP2019/076053 WO2020088857A1 (de) 2018-10-30 2019-09-26 Verfahren zur überprüfung mindestens eines umfelderfassungssensors eines fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018127059.3A DE102018127059A1 (de) 2018-10-30 2018-10-30 Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102018127059A1 true DE102018127059A1 (de) 2020-04-30

Family

ID=68104618

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018127059.3A Granted DE102018127059A1 (de) 2018-10-30 2018-10-30 Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs

Country Status (4)

Country Link
US (1) US11787424B2 (de)
CN (1) CN112955775B (de)
DE (1) DE102018127059A1 (de)
WO (1) WO2020088857A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019130037A1 (de) * 2019-11-07 2021-05-12 Daimler Ag Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102021101247A1 (de) 2021-01-21 2022-07-21 Audi Aktiengesellschaft Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
EP4047585A1 (de) * 2021-02-01 2022-08-24 Rockwell Collins, Inc. Sensorqualitätserfassung
DE102021111325A1 (de) 2021-05-03 2022-11-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
DE102021209671A1 (de) 2021-09-02 2023-03-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen
WO2023041226A1 (de) * 2021-09-14 2023-03-23 Mercedes-Benz Group AG Verfahren zum betreiben eines fahrzeugs in einem automatisierten fahrbetrieb

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023150465A1 (en) * 2022-01-31 2023-08-10 Motional Ad Llc Methods and systems for measuring sensor visibility

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10313002B4 (de) 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
DE102013113096A1 (de) * 2012-12-19 2014-06-26 Toyota Motor Engineering & Manufacturing North America, Inc. Navigation eines Straßenfahrzeugs basierend auf vertikalen Elementen
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004010197B4 (de) 2004-03-02 2015-04-16 Sick Ag Verfahren zur Funktionskontrolle einer Positionsermittlungs- oder Umgebungserfassungseinrichtung eines Fahrzeugs oder zur Kontrolle einer digitalen Karte
DE102010063133A1 (de) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und System zur Bestimmung einer Eigenbewegung eines Fahrzeugs
US8630806B1 (en) * 2011-10-20 2014-01-14 Google Inc. Image processing for vehicle control
US20130208121A1 (en) * 2012-02-10 2013-08-15 Xerox Corporation Traffic camera diagnostics via test targets
US8930063B2 (en) * 2012-02-22 2015-01-06 GM Global Technology Operations LLC Method for determining object sensor misalignment
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
US9274525B1 (en) 2012-09-28 2016-03-01 Google Inc. Detecting sensor degradation by actively controlling an autonomous vehicle
US10466709B2 (en) * 2013-11-08 2019-11-05 Hitachi, Ltd. Autonomous driving vehicle and autonomous driving system
DE102014226020A1 (de) * 2014-12-16 2016-06-16 Robert Bosch Gmbh Verfahren und Vorrichtung zur Kalibrierung mindestens einer mobilen Sensoreinrichtung
DE102015208228A1 (de) * 2015-05-05 2016-11-10 Bayerische Motoren Werke Aktiengesellschaft Diagnoseverfahren für einen Sichtsensor eines Fahrzeugs und Fahrzeug mit einem Sichtsensor
SE1551370A1 (sv) 2015-10-22 2017-02-07 Uniquesec Ab Testing method with virtual radar signatures for an automotive safety radar system
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
US10078335B2 (en) * 2016-06-28 2018-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Ray tracing for hidden obstacle detection
DE102017000753A1 (de) 2017-01-27 2017-07-13 Daimler Ag Verfahren zur Detektion von Feuchtigkeit in einer Fahrzeugumgebung
DE102017003741A1 (de) * 2017-04-19 2018-10-25 Daimler Ag Verfahren zur Bestimmung einer Reichweite
EP3867720A1 (de) * 2018-10-15 2021-08-25 Starship Technologies OÜ Verfahren und system zum betrieb eines mobilen roboters
US11919525B2 (en) * 2019-08-13 2024-03-05 Autonomous Solutions, Inc. Point cloud occlusion mapping for autonomous vehicles
US11120538B2 (en) * 2019-12-27 2021-09-14 Zoox, Inc. Sensor degradation detection and remediation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10313002B4 (de) 2003-03-24 2006-03-23 Daimlerchrysler Ag Fahrzeugumgebungserfassungseinheit
DE102013113096A1 (de) * 2012-12-19 2014-06-26 Toyota Motor Engineering & Manufacturing North America, Inc. Navigation eines Straßenfahrzeugs basierend auf vertikalen Elementen
DE102013206707A1 (de) 2013-04-15 2014-10-16 Robert Bosch Gmbh Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019130037A1 (de) * 2019-11-07 2021-05-12 Daimler Ag Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102019130037B4 (de) 2019-11-07 2022-09-29 Mercedes-Benz Group AG Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102021101247A1 (de) 2021-01-21 2022-07-21 Audi Aktiengesellschaft Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
DE102021101247B4 (de) 2021-01-21 2023-05-04 Audi Aktiengesellschaft Verfahren zur Ermittlung einer eine potentielle Degradation beschreibende Leistungsfähigkeitsinformation für einen Radarsensor, Kraftfahrzeug, Computerprogramm und elektronisch lesbarer Datenträger
EP4047585A1 (de) * 2021-02-01 2022-08-24 Rockwell Collins, Inc. Sensorqualitätserfassung
DE102021111325A1 (de) 2021-05-03 2022-11-03 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Assistenzeinrichtung zum Unterstützen eines Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
DE102021209671A1 (de) 2021-09-02 2023-03-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen
US11876955B2 (en) 2021-09-02 2024-01-16 Robert Bosch Gmbh Method for qualification of a camera system and/or its image/camera signals
WO2023041226A1 (de) * 2021-09-14 2023-03-23 Mercedes-Benz Group AG Verfahren zum betreiben eines fahrzeugs in einem automatisierten fahrbetrieb

Also Published As

Publication number Publication date
CN112955775B (zh) 2023-12-22
US11787424B2 (en) 2023-10-17
CN112955775A (zh) 2021-06-11
WO2020088857A1 (de) 2020-05-07
US20210403012A1 (en) 2021-12-30

Similar Documents

Publication Publication Date Title
DE102018127059A1 (de) Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102019002487A1 (de) Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
DE102017214611B4 (de) Verfahren zum Überprüfen eines Reaktionssignals einer Fahrzeugkomponente sowie Überprüfungsvorrichtung und Kraftfahrzeug
DE102019205083A1 (de) Verfahren zum Prädizieren eines manuellen Einparkvorgangs und Unterstützen eines Fahrers
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102016207463A1 (de) Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs
DE102020117340A1 (de) Verfahren zur Umgebungserfassung mit wenigstens zwei unabhängigen bildgebenden Umgebungserfassungssensoren, Vorrichtung zur Durchführung des Verfahrens, Fahrzeug sowie entsprechend ausgelegtes Computerprogramm
DE102018006503A1 (de) Digitale Karte
DE102016012345A1 (de) Verfahren zum Erkennen von Objekten
DE102014210752A1 (de) Verfahren und Vorrichtung zum Überwachen einer Solltrajektorie eines Fahrzeugs
DE102018205011A1 (de) Verfahren und System zum kontrollierten Überführen von Fahrzeugen einer Fahrzeugflotte in einen sicheren Zustand
DE102018213378B4 (de) Fahrassistenzsystem für ein Fahrzeug, Fahrzeug mit demselben und Fahrassistenzverfahren für ein Fahrzeug
DE102018221427A1 (de) Verfahren zur Ermittlung einer vorliegenden Dejustage wenigstens eines Sensors innerhalb eines Sensorverbundes
DE102019206847A1 (de) Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
DE102019000403A1 (de) Verfahren zumindest zur Ausgabe einer Warnung vor einer Gefahrenstelle
DE102018119834A1 (de) Verfahren zum Betrieb eines autonom fahrenden Fahrzeuges
DE112020006634T5 (de) Notfallevakuierungsvorrichtung, Server-Vorrichtung, und Notfallevakuierungsverfahren
DE102019211459A1 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
AT524759B1 (de) Verfahren zur Fahrassistenz und Fahrassistenzsystem
DE102022212227A1 (de) Verfahren zum Ermitteln eines Betriebszustands eines ein erstes Umfeldsensorsystem und ein zweites Umfeldsensorsystem umfassenden Objekterkennungssystems eines Schienenfahrzeugs
DE102021200252A1 (de) Verfahren zum Steuern einer Verkehrssituation
DE102015014627A1 (de) System und Verfahren zur Einstellung des Fahrgestellniveaus der Fahrzeuge in einer Fahrzeuggruppe
DE102022124341A1 (de) Verfahren zur Fehlerverwaltung für ein Fahrzeug, insbesondere Nutzfahrzeug, Computerprogramm und/oder computerlesbares Medium, Steuergerät für ein Fahrzeug, insbesondere Nutzfahrzeug, und Fahrzeug, insbesondere Nutzfahrzeug
DE102021003856A1 (de) Verfahren zum Betrieb eines automatisiert fahrenden Fahrzeuges

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

Owner name: DAIMLER AG, DE

Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

R082 Change of representative

Representative=s name: PATENTANWAELTE LIEDTKE & PARTNER, DE

R081 Change of applicant/patentee

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNERS: DAIMLER AG, STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNERS: DAIMLER AG, STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

R018 Grant decision by examination section/examining division