DE102019130037B4 - Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs - Google Patents

Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs Download PDF

Info

Publication number
DE102019130037B4
DE102019130037B4 DE102019130037.1A DE102019130037A DE102019130037B4 DE 102019130037 B4 DE102019130037 B4 DE 102019130037B4 DE 102019130037 A DE102019130037 A DE 102019130037A DE 102019130037 B4 DE102019130037 B4 DE 102019130037B4
Authority
DE
Germany
Prior art keywords
detection sensor
sensor
environment detection
vehicle
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019130037.1A
Other languages
English (en)
Other versions
DE102019130037A1 (de
Inventor
Christoph Gustav Keller
Holger Mielenz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Mercedes Benz Group AG
Original Assignee
Robert Bosch GmbH
Mercedes Benz Group AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH, Mercedes Benz Group AG filed Critical Robert Bosch GmbH
Priority to DE102019130037.1A priority Critical patent/DE102019130037B4/de
Priority to PCT/EP2020/079050 priority patent/WO2021089292A1/de
Priority to CN202080076406.1A priority patent/CN114616155A/zh
Priority to US17/755,673 priority patent/US20220375231A1/en
Publication of DE102019130037A1 publication Critical patent/DE102019130037A1/de
Application granted granted Critical
Publication of DE102019130037B4 publication Critical patent/DE102019130037B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle

Abstract

Verfahren zum Betrieb mindestens eines Umfelderfassungssensors (2) eines Fahrzeugs (1), wobei das Fahrzeug (1) in einer digitalen Karte lokalisiert wird, wobei in der digitalen Karte Objekte (O) georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte (O), die mit dem Umfelderfassungssensor (2) aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor (2) entfernte Objekt (O) identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors (2) basierend auf einer Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) ermittelt wird, und wobei in der digitalen Karte zu den Objekten (O) jeweils zugehörige Objektinformationen gespeichert sind, dadurch gekennzeichnet, dass die Objektinformationen des jeweiligen Objekts (O) mindestens für diesen Umfelderfassungssensor (2) für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors (2) zum Objekt (O) angeben, ab welcher das Objekt (O) für den Umfelderfassungssensor (2) erfassbar ist, wobei die Objektinformationen des am weitesten vom Umfelderfassungssensor (2) entfernten Objekts (O) aus der digitalen Karte abgerufen werden und daraus die Erfassungsbedingungen ermittelt werden, deren zugeordnete Entfernung für den Umfelderfassungssensor (2) am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors (2) korreliert.

Description

  • Die Erfindung betrifft ein Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs.
  • Aus dem Stand der Technik sind Verfahren zum Betrieb von Umfelderfassungssensoren von Fahrzeugen allgemein bekannt.
  • In der DE 10 2018 127 059 A1 wird ein Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs beschrieben. In diesem Verfahren wird das Fahrzeug in einer digitalen Karte lokalisiert und es werden in der digitalen Karte Merkmale von hinterlegten stationären Objekten einer Umgebung des Fahrzeugs identifiziert, von denen erwartet wird, dass sie vom Umfelderfassungssensor erkannt werden. Die Umgebung des Fahrzeugs wird mit dem Umfelderfassungssensor erfasst. Es wird auf eine Degradation des Umfelderfassungssensors geschlossen, wenn die erwartungsgemäß zu erkennenden Merkmale nicht vom Umfelderfassungssensor erkannt werden oder wenn vom Umfelderfassungssensor tatsächlich erkannte Merkmale von den erwartungsgemäß zu erkennenden Merkmalen stark abweichen.
  • Aus der DE 10 2014 212 216 A1 sind ein Verfahren und ein Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfeldes mithilfe eines Fahrzeugsensors bekannt. Der Fahrzeugsensor nimmt Bildinformationen von Objekten des Fahrzeugumfeldes auf. Aufgrund der Bildinformationen werden Objekte im Fahrzeugumfeld erkannt. Anhand zumindest eines am weitesten vom Fahrzeug entfernten und erkannten Objekts wird eine Mindestsensorreichweite des Fahrzeugsensors ermittelt.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein gegenüber dem Stand der Technik verbessertes Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs mit den Merkmalen des Anspruchs 1.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • In einem erfindungsgemäßen Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs, insbesondere eines Straßenfahrzeugs, wird das Fahrzeug in einer digitalen Karte lokalisiert, wobei in der digitalen Karte Objekte, insbesondere stationäre Objekte, georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte, die mit dem Umfelderfassungssensor aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor entfernte Objekt identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors basierend auf einer Entfernung des Umfelderfassungssensors zu diesem Objekt ermittelt wird.
  • Der Umfelderfassungssensor ist beispielsweise ein Lidarsensor, Radarsensor, Ultraschallsensor und/oder ein optischer Sensor. Der optische Sensor ist insbesondere ein Bilderfassungssensor, insbesondere ein Videosensor, zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera. Auch der Lidarsensor kann als ein optischer Sensor angesehen werden.
  • Mittels des erfindungsgemäßen Verfahrens kann, zumindest auf indirekte Weise, die aktuelle Sensorreichweite des Umfelderfassungssensors ermittelt werden. Eine tatsächliche Sensorreichweite kann dabei größer sein, aber nicht kleiner sein als die mittels des erfindungsgemäßen Verfahrens ermittelte aktuelle Sensorreichweite, denn diese aktuelle Sensorreichweite korreliert mit der Entfernung zum am weitesten entfernten Objekt, welches mittels des Umfelderfassungssensors noch erfasst wird, insbesondere entspricht sie dieser Entfernung. Möglicherweise reicht die tatsächliche Sensorreichweite noch darüber hinaus, wenn sich innerhalb der tatsächlichen Sensorreichweite kein weiter entferntes Objekt befindet, welches vom Umfelderfassungssensor erfasst werden könnte.
  • Mittels des Verfahrens kann beispielsweise eine aufgrund atmosphärischer Einflüsse und daraus resultierenden funktionalen Einschränkungen vorliegende verringerte aktuelle Sensorreichweite ermittelt werden, insbesondere auf schnelle Weise und ohne zusätzliche Sensoren und andere Dienste. Zu derartigen atmosphärischen Einflüssen zählen beispielsweise Regen, Nebel, Schnee und/oder daraus resultierende Artefakte auf einer Fahrbahnoberfläche, beispielsweise Nässe, Raureif und/oder Schneeflocken. Dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines diesen Umfelderfassungssensor verwendenden Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird. Das Verfahren eignet sich beispielsweise für automatisiert und/oder autonom fahrende Fahrzeuge, welche zur Durchführung eines Fahrbetriebs einen oder mehrere solche Umfelderfassungssensoren zur Erfassung eines Umfelds des Fahrzeugs verwenden.
  • Beispielsweise wird die Entfernung des Umfelderfassungssensors zu diesem am weitesten vom Umfelderfassungssensor entfernten identifizierten Objekt als aktuelle Sensorreichweite des Umfelderfassungssensors ermittelt. Dies gilt insbesondere für einen sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor herum erstreckenden Erfassungsbereich, so dass eine Grenze dieses Erfassungsbereichs, d. h. die aktuelle Sensorreichtweite des Umfelderfassungssensors, für alle Erfassungsrichtungen innerhalb dieses Erfassungsbereichs gleich groß ist.
  • Insbesondere wenn der Umfelderfassungssensor einen anders ausgeformten Erfassungsbereich aufweist, beispielsweise einen als Elipse oder Elipsoid oder zumindest als Abschnitt davon ausgebildeten Erfassungsbereich, dann wird vorteilhafterweise angenommen, dass dieses am weitesten vom Umfelderfassungssensor entfernte identifizierte Objekt auf der Grenze dieses Erfassungsbereichs liegt, so dass aus der Entfernung zu diesem Objekt, insbesondere in Verbindung mit einer ermittelten Winkellage dieses Objekts zum Umfelderfassungssensor, und aus der bekannten Form des Erfassungsbereichs der aktuelle Erfassungsbereich des Umfelderfassungssensors, insbesondere die Grenze des aktuellen Erfassungsbereichs für alle Winkellagen, d. h. für alle Erfassungsrichtungen, ermittelt werden kann, so dass dadurch die aktuelle Sensorreichweite des Umfelderfassungssensors für alle Erfassungsrichtungen innerhalb des Erfassungsbereichs ermittelt werden kann. Die Sensorreichweite umfasst dabei vorteilhafterweise für jede Winkellage, d. h. für jede Erfassungsrichtung, eine Reichweitenangabe. Die ermittelte aktuelle Sensorreichweite entspricht somit einem aktuellen Abstand der Grenze des aktuellen Erfassungsbereichs des Umfelderfassungssensors zu diesem Umfelderfassungssensor. Diese Variante der Ermittlung der aktuellen Sensorreichweite kann natürlich auch für andere Formen des Erfassungsbereichs verwendet werden, insbesondere auch für den sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor herum erstreckenden Erfassungsbereich.
  • Erfindungsgemäß sind in der digitalen Karte zu den Objekten jeweils zugehörige Objektinformationen gespeichert, wobei die Objektinformationen des jeweiligen Objekts mindestens für diesen Umfelderfassungssensor für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors zum Objekt angeben, ab welcher das Objekt für den Umfelderfassungssensor erfassbar ist, wobei die Objektinformationen des am weitesten vom Umfelderfassungssensor entfernten Objekts, welches mit dem Umfelderfassungssensor aktuell erfasst wird, aus der digitalen Karte abgerufen werden und daraus die Erfassungsbedingungen ermittelt werden, deren zugeordnete Entfernung am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors korreliert, d. h. insbesondere eine geringste Abweichung von der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors aufweist. Dadurch kann nicht nur die aktuelle Sensorreichweite ermittelt werden, sondern es kann des Weiteren auch der Grund für diese aktuelle Sensorreichweite ermittelt werden, insbesondere wenn die aktuelle Sensorreichweite gegenüber einer Sensorreichweite bei optimalen Erfassungsbedingungen eingeschränkt ist. Insbesondere können dadurch die atmosphärischen Einflüsse ermittelt werden, welche die Ursache für die jeweilige, insbesondere eingeschränkte, aktuelle Sensorreichweite sind. Daraus kann beispielsweise eine Wahrscheinlichkeit für eine Änderung einer Reibwertbeschaffenheit der Fahrbahnoberfläche ermittelt werden, beispielsweise aufgrund von Nässe, Schnee und/oder Eis. Daraus resultierend kann dann eine entsprechende Systemreaktion des mindestens einen Fahrzeugsystems oder der mehreren Fahrzeugsysteme erfolgen, beispielsweise eine Reduzierung einer Geschwindigkeit des Fahrzeugs und/oder eine Vergrößerung eines Sicherheitsabstandes zu einem vorausfahrenden weiteren Verkehrsteilnehmer.
  • Vorteilhafterweise geben die Objektinformationen des jeweiligen Objekts für verschiedene Arten von Umfelderfassungssensoren, beispielsweise für Lidarsensoren, Radarsensoren, Ultraschallsensoren und/oder optische Sensoren, insbesondere Bilderfassungssensoren, insbesondere Kameras, beispielsweise Stereokameras und/oder Monokameras, für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors zum Objekt an, ab welcher das Objekt für den Umfelderfassungssensor einer jeweiligen Umfelderfassungssensorart erfassbar ist.
  • Dadurch kann die beschriebene Vorgehensweise für verschiedenartige Umfelderfassungssensoren des Fahrzeugs durchgeführt werden und somit beispielsweise mittels mehreren Umfelderfassungssensoren des Fahrzeugs jeweils die Erfassungsbedingungen ermittelt werden.
  • In einer Ausführungsform des Verfahrens werden die Objektinformationen des jeweiligen Objekts, welche mindestens für diesen Umfelderfassungssensor für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors zum Objekt angeben, ab welcher das Objekt für den Umfelderfassungssensor erfassbar ist, ermittelt, indem das jeweilige Objekt mittels des Umfelderfassungssensors und/oder mittels eines gleichartigen Umfelderfassungssensors erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, insbesondere auf einem fahrzeugexternen Server, fusioniert und ausgewertet werden. Dadurch wird ein Lernen dieser Informationen mittels des Umfelderfassungssensors des Fahrzeugs, insbesondere mittels gleichartiger Umfelderfassungssensoren mehrerer Fahrzeuge, ermöglicht, so dass ein zusätzlicher Aufwand durch ein separates Erstellen dieser Informationen auf andere Weise vermieden wird.
  • In einer Ausführungsform des Verfahrens werden die ermittelten Erfassungsbedingungen mehrerer Umfelderfassungssensoren des Fahrzeugs und/oder anhand mehrerer Objekte ermittelte Erfassungsbedingungen miteinander verglichen. Dadurch kann beispielsweise sichergestellt werden, dass eine ermittelte Reduzierung der Sensorreichweite nicht auf einer Hardwaredegradation eines jeweiligen Umfelderfassungssensors beruht, sondern tatsächlich auf atmosphärischen Einflüssen, insbesondere dann, wenn mittels mehrerer Umfelderfassungssensoren die gleichen Erfassungsbedingungen ermittelt werden.
  • Alternativ zur oben beschriebenen erfindungsgemäßen Lösung und/oder zu einer oder mehreren der oben genannten Ausführungsformen oder zusätzlich dazu kann beispielsweise vorgesehen sein, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor, d. h. beispielsweise mit einem als Lidarsensor oder Bilderfassungssensor ausgebildeten Umfelderfassungssensor, eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors ermittelt wird und anhand, beispielsweise in einer Tabelle, gespeicherter Fahrbahnoberflächenbedingungen und zugeordneter Fahrbahnoberflächenerfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird. Dies kann somit ein Bestandteil des oben beschriebenen Verfahrens zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs sein oder beispielsweise auch alternativ dazu durchgeführt werden, d. h. in einem alternativen Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs. Der optische Sensor, insbesondere Bilderfassungssensor, ist zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera, insbesondere ein Videosensor. Alternativ kann der optische Sensor beispielsweise auch ein Lidarsensor sein, wie oben bereits erwähnt.
  • Bei Wasser auf der Fahrbahnoberfläche, d. h. bei einer Wasserdecke auf der Fahrbahnoberfläche, reduziert sich die Fahrbahnoberflächenerfassungsreichweite im Vergleich zu einer trockenen Fahrbahnoberfläche, da durch die Wasserdecke auf der Fahrbahnoberfläche beispielsweise eine Rückstreuintensität eines Lidarsignals des als Lidarsensor ausgebildeten Umfelderfassungssensors reduziert wird. Auch bei einem als Bilderfassungssensor ausgebildeten Umfelderfassungsensor kann sich bei Wasser auf der Fahrbahnoberfläche, d. h. bei einer Wasserdecke, insbesondere einem Wasserfilm, auf der Fahrbahnoberfläche, insbesondere in Verbindung mit einer Sonneneinstrahlung, die Fahrbahnoberflächenerfassungsreichweite im Vergleich zu einer trockenen Fahrbahnoberfläche reduzieren, da die Wasserdecke auf der Fahrbahnoberfläche, insbesondere in Verbindung mit der Sonneneinstrahlung, zu einer Spiegelung führen kann, welche den Bilderfassungssensor, insbesondere Videosensor, blendet.
  • Es kann somit auf eine jeweils vorliegende Art einer Änderung der Fahrbahnoberflächenbedingung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
  • Dabei zeigt:
    • 1 schematisch ein Fahrzeug mit mindestens einem Umfelderfassungssensor auf einer Fahrbahn.
  • 1 zeigt schematisch eine beispielhafte Situation, insbesondere Verkehrssituation, mit einem Fahrzeug 1, insbesondere einem Straßenfahrzeug, welches mindestens einen Umfelderfassungssensor 2 aufweist, auf einer Fahrbahn F. Der Umfelderfassungssensor 2 ist beispielsweise ein Lidarsensor, Radarsensor, Ultraschallsensor und/oder ein optischer Sensor, insbesondere ein Bilderfassungssensor, zum Beispiel eine Kamera, beispielsweise eine Stereokamera oder Monokamera, insbesondere ein Videosensor. Auch der Lidarsensor kann als ein optischer Sensor angesehen werden. Das Fahrzeug 1 weist vorteilhafterweise eine Mehrzahl verschiedenartiger Umfelderfassungssensoren 2 auf.
  • Mittels des mindestens einen oder des jeweiligen Umfelderfassungssensors 2 des Fahrzeugs 1 wird ein Umfeld des Fahrzeugs 1 erfasst. Dies dient beispielsweise einer Positionsbestimmung des Fahrzeugs 1 anhand von, insbesondere stationären, Objekten O im Umfeld des Fahrzeugs 1 und/oder einem Betrieb mindestens eines Fahrzeugsystems oder mehrerer Fahrzeugsysteme, insbesondere von Fahrzeugsystemen, welche einem Fahrzeugführer bei einer Durchführung eines Fahrbetriebs des Fahrzeugs 1 assistieren und/oder von Fahrzeugsystemen, welche einen automatisierten, insbesondere teil- oder vollautomatisierten, oder autonomen Fahrbetrieb des Fahrzeugs 1 durchführen. Das Fahrzeug 1 ist somit beispielsweise ein automatisiertes oder autonomes Fahrzeug 1.
  • In einem anhand der 1 im Folgenden näher beschriebenen Verfahren zum Betrieb eines solchen Umfelderfassungssensors 2 wird das Fahrzeug 1 in einer digitalen Karte lokalisiert, wobei in der digitalen Karte, insbesondere stationäre, Objekte O georeferenziert gespeichert sind, welche mittels des Umfelderfassungssensors 2 erfassbar sind oder erfassbar sein sollten. Aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte O, die mit dem Umfelderfassungssensor 2 aktuell erfasst werden, wird das am weitesten vom Umfelderfassungssensor 2 entfernte Objekt O identifiziert und eine aktuelle Sensorreichweite des Umfelderfassungssensors 2 wird basierend auf einer Entfernung des Umfelderfassungssensors 2 zu diesem Objekt O ermittelt.
  • Beispielsweise wird die Entfernung des Umfelderfassungssensors 2 zu diesem Objekt O als aktuelle Sensorreichweite des Umfelderfassungssensors 2 ermittelt. Dies gilt insbesondere für einen sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor 2 herum erstreckenden Erfassungsbereich, so dass eine Grenze dieses Erfassungsbereichs, d. h. die aktuelle Sensorreichtweite des Umfelderfassungssensors 2, für alle Erfassungsrichtungen innerhalb dieses Erfassungsbereichs gleich groß ist.
  • Insbesondere wenn der Umfelderfassungssensor einen anders ausgeformten Erfassungsbereich aufweist, beispielsweise einen als Elipse oder Elipsoid oder zumindest als Abschnitt davon ausgebildeten Erfassungsbereich, wie in 1 gezeigt, dann wird vorteilhafterweise angenommen, dass dieses am weitesten vom Umfelderfassungssensor 2 entfernte identifizierte Objekt O auf der Grenze dieses Erfassungsbereichs liegt, so dass aus der Entfernung zu diesem Objekt O, insbesondere in Verbindung mit einer ermittelten Winkellage dieses Objekts O zum Umfelderfassungssensor 2, und aus der bekannten Form des Erfassungsbereichs der aktuelle Erfassungsbereich des Umfelderfassungssensors 2, insbesondere die Grenze des aktuellen Erfassungsbereichs für alle Winkellagen, d. h. für alle Erfassungsrichtungen, ermittelt werden kann, so dass dadurch die aktuelle Sensorreichweite des Umfelderfassungssensors 2 für alle Erfassungsrichtungen innerhalb des Erfassungsbereichs ermittelt werden kann. Die Sensorreichweite umfasst dabei vorteilhafterweise für jede Winkellage, d. h. für jede Erfassungsrichtung, eine Reichweitenangabe. Die ermittelte aktuelle Sensorreichweite entspricht somit einem aktuellen Abstand der Grenze des aktuellen Erfassungsbereichs des Umfelderfassungssensors 2 zu diesem Umfelderfassungssensor 2. Diese Variante der Ermittlung der aktuellen Sensorreichweite kann natürlich auch für andere Formen des Erfassungsbereichs verwendet werden, insbesondere auch für den sich kreisförmig oder kugelförmig oder zumindest kreisabschnittsförmig oder kugelabschnittsförmig um den Umfelderfassungssensor 2 herum erstreckenden Erfassungsbereich.
  • Derartige, insbesondere stationäre, Objekte O sind beispielsweise Leitplanken, Bauwerke und/oder, wie im hier dargestellten Beispiel, Pfosten, insbesondere Leitpfosten.
  • Das Verfahren ermöglicht somit auf einfache und schnelle Weise und insbesondere ohne einen zusätzlichen Vorrichtungsaufwand eine, zumindest indirekte, Ermittlung der aktuell vorliegenden Sensorreichweite des Umfelderfassungssensors 2 und somit zumindest einer Sensortechnologie des, insbesondere automatisiert oder autonom fahrenden, Fahrzeugs 1. Der Umfelderfassungssensor 2, insbesondere die Sensortechnologie des jeweiligen Umfelderfassungssensors 2, kann beispielsweise aufgrund atmosphärischer Einflüsse funktionalen Einschränkungen unterliegen. Dies wird mittels des hier beschriebenen Verfahrens erkannt, wodurch es ermöglicht wird, beispielsweise eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer Fahrzeugsysteme umzusetzen. Beispielsweise kann bei einer ermittelten aktuellen Sensorreichweite, welche gegenüber einer Sensorreichweite bei optimalen Erfassungsbedingungen reduziert ist, eine Geschwindigkeit des Fahrzeugs 1 reduziert werden und/oder ein Abstand zu einem vorausfahrenden anderen Verkehrsteilnehmer erhöht werden. Atmosphärische Einflüsse, welche zu einer Reduzierung der Sensorreichweite führen können, sind beispielsweise Regen, Nebel, Schnee und/oder daraus resultierende Artefakte auf einer Fahrbahnoberfläche, beispielsweise Nässe, Raureif und/oder Schneeflocken.
  • Bisher werden atmosphärische Einflüsse beispielsweise von einem Teleoperationsdienst, insbesondere in Form von Wetternachrichten, mitgeteilt und können dann entsprechend berücksichtigt werden. Solche Wetternachrichten sind jedoch bezüglich einer tatsächlichen Situation in einem jeweiligen lokal stark begrenzten Umfeld des Fahrzeugs 1 mit einer hohen Unsicherheit belastet. Mittels des hier beschriebenen Verfahrens ist diese Vorgehensweise nicht mehr erforderlich, da eine insbesondere durch atmosphärische Einflüsse bedingte eingeschränkte aktuelle Sensorreichweite mittels des Umfelderfassungssensors 2 selbst ermittelt wird.
  • Vorteilhafterweise kann mittels des Verfahrens zudem auf die jeweils vorliegende atmosphärische Ursache für die möglicherweise vorliegende eingeschränkte aktuelle Sensorreichweite geschlossen werden. Daraus resultierend kann dann beispielsweise eine Wahrscheinlichkeit für eine Änderung einer Reibwertbeschaffenheit der Fahrbahnoberfläche ermittelt werden und daraufhin beispielsweise ein Fahrverhalten des Fahrzeugs 1 entsprechend angepasst werden, beispielsweise durch eine Reduzierung der Geschwindigkeit und/oder durch eine Vergrößerung des Abstands zum vorausfahrenden anderen Verkehrsteilnehmer, so dass die Sicherheit erhöht ist.
  • Um dies zu ermöglichen, sind in der digitalen Karte zu den Objekten O vorteilhafterweise jeweils zugehörige Objektinformationen gespeichert, wobei die Objektinformationen des jeweiligen Objekts O für den Umfelderfassungssensor 2 und somit auch für gleichartige Umfelderfassungssensoren 2 für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O angeben, ab welcher das Objekt O für den Umfelderfassungssensor 2 erfassbar ist. Die Objektinformationen des am weitesten vom Umfelderfassungssensor 2 entfernten Objekts O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, werden dann aus der digitalen Karte abgerufen und daraus werden die Erfassungsbedingungen ermittelt, deren zugeordnete Entfernung für den Umfelderfassungssensor 2 am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors 2 korreliert. Es werden somit vorteilhafterweise diejenigen Erfassungsbedingungen ermittelt, deren zugeordnete Entfernung des Umfelderfassungssensors 2 zum Objekt O, d. h. zum am weitesten vom Umfelderfassungssensor 2 entfernten Objekt O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, am nächsten zur ermittelten aktuellen Sensorreichweite ist.
  • Im Beispiel gemäß 1 sind die in der digitalen Karte georeferenziert gespeicherten Objekte O beispielsweise als Pfosten ausgebildet, zum Beispiel als Leitpfosten. Dargestellt ist zudem eine große Sensorreichweite SR1, beispielsweise eine maximale Sensorreichweite bei guten, insbesondere optimalen, atmosphärischen Bedingungen, insbesondere Wetterbedingungen, und eine geringere aktuelle Sensorreichweite SR2 aufgrund atmosphärischer Einflüsse. Daraus wird ersichtlich, dass bei guten, insbesondere optimalen, atmosphärischen Bedingungen, insbesondere Wetterbedingungen, aufgrund der daraus resultierenden großen Sensorreichweite SR1 auch die Objekte O in großer Entfernung zum Fahrzeug 1, d. h. die hier am weitesten vom Fahrzeug 1 entfernt dargestellten Objekte O, mittels des Umfelderfassungssensors 2 erfasst werden können. Bei der geringeren aktuellen Sensorreichweite SR2 können diese Objekte O in großer Entfernung zum Fahrzeug 1, d. h. die hier am weitesten vom Fahrzeug 1 entfernt dargestellten Objekte O, nicht mehr vom Umfelderfassungssensor 2 erfasst werden, sondern nur noch diejenigen Objekte O, welche sich in geringerer Entfernung zum Umfelderfassungssensor 2 befinden und somit innerhalb der geringeren aktuellen Sensorreichweite SR2 liegen. Wie oben beschrieben, sind die Informationen, ab welcher Entfernung zum Fahrzeug 1 ein jeweiliges Objekt O bei jeweiligen Erfassungsbedingungen für den Umfelderfassungssensor 2 erfassbar ist, in der digitalen Karte gespeichert, so dass anhand der ermittelten Sensorreichweite und anhand des jeweils am weitesten vom Umfelderfassungssensor 2 entfernten Objekts O, das mit dem Umfelderfassungssensor 2 aktuell erfasst wird, auf die jeweiligen Erfassungsbedingungen und somit auf die jeweilige atmosphärische Ursache für die geringere aktuelle Sensorreichweite SR2 geschlossen werden kann.
  • Vorteilhafterweise geben die Objektinformationen des jeweiligen Objekts O für verschiedene Arten von Umfelderfassungssensoren 2, beispielsweise für Lidarsensoren, Radarsensoren, Ultraschallsensoren und/oder optische Sensoren, insbesondere Bilderfassungssensoren, zum Beispiel Kameras, beispielsweise Stereokameras und/oder Monokameras, insbesondere Videosensoren, für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O an, ab welcher das Objekt O für den Umfelderfassungssensor 2 einer jeweiligen Umfelderfassungssensorart erfassbar ist. D. h. für jede Art von Umfelderfassungssensoren 2 sind verschiedene Erfassungsbedingungen und zugeordnete Entfernungen zum jeweiligen Objekt O, ab welchen das Objekt O mit der jeweiligen Art von Umfelderfassungssensor 2 bei den jeweiligen Erfassungsbedingungen erfassbar ist, gespeichert. Dadurch kann die beschriebene Vorgehensweise für verschiedenartige Umfelderfassungssensoren 2 des Fahrzeugs 1 durchgeführt werden und somit können beispielsweise mittels mehreren Umfelderfassungssensoren 2 des Fahrzeugs 1 jeweils die Erfassungsbedingungen ermittelt werden.
  • Dadurch wird es beispielsweise ermöglicht, die ermittelten Erfassungsbedingungen der mehreren Umfelderfassungssensoren 2 des Fahrzeugs 1, d. h. die mittels der mehreren Umfelderfassungssensoren 2 jeweils ermittelten Erfassungsbedingungen, miteinander zu vergleichen. Auf diese Weise kann zum Beispiel sichergestellt werden, dass eine ermittelte Reduzierung der Sensorreichweite nicht auf einer Hardwaredegradation eines jeweiligen Umfelderfassungssensors 2 beruht, sondern tatsächlich auf atmosphärischen Einflüssen, insbesondere dann, wenn mittels mehrerer Umfelderfassungssensoren 2 die gleichen Erfassungsbedingungen ermittelt werden. Alternativ oder zusätzlich können auch anhand mehrerer Objekte O mittels des selben Umfelderfassungssensors 2 ermittelte Erfassungsbedingungen miteinander verglichen werden, um auszuschließen, dass die ermittelte reduzierte Sensorreichweite auf einer Hardwaredegradation des Umfelderfassungssensors 2 beruht.
  • Die Erfassungsreichweiten der Objekte O von einer jeden Position oder zumindest von mehreren Positionen aus können beispielsweise gelernt werden, indem diese Objekte O mit zusätzlichen jeweils vorliegenden Erfassungsbedingungen, insbesondere in Form von Wetterinformationen, fusioniert und ausgewertet werden. Dies wird vorteilhafterweise auf einem fahrzeugexternen Server, auch als Backend bezeichnet, durchgeführt. D. h. die Objektinformationen des jeweiligen Objekts O, welche für den oder den jeweiligen Umfelderfassungssensor 2 für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors 2 zum Objekt O angeben, ab welcher das Objekt O für den Umfelderfassungssensor 2 erfassbar ist, werden ermittelt, indem das jeweilige Objekt O mittels des Umfelderfassungssensors 2 und/oder mittels eines gleichartigen Umfelderfassungssensors 2 erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, insbesondere auf dem fahrzeugexternen Server, fusioniert und ausgewertet werden. Dadurch wird das Lernen dieser Informationen mittels des Umfelderfassungssensors 2 des Fahrzeugs 1, insbesondere mittels gleichartiger Umfelderfassungssensoren 2 mehrerer Fahrzeuge 1, ermöglicht, so dass ein zusätzlicher Aufwand durch ein separates Erstellen dieser Informationen auf andere Weise vermieden wird.
  • Alternativ zur oben beschriebenen Vorgehensweise oder vorteilhafterweise zusätzlich dazu kann beispielsweise vorgesehen sein, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor 2, d. h. insbesondere mit einem als Lidarsensor ausgebildeten Umfelderfassungssensor 2 oder mit einem als Bilderfassungssensor, insbesondere als Videosensor, beispielsweise als Kamera, zum Beispiel als Stereokameras oder Monokamera, ausgebildeten Umfelderfassungssensor 2 eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors 2 ermittelt wird und anhand, beispielsweise in einer Tabelle, gespeicherter Fahrbahnoberflächenbedingungen und zugeordneter Fahrbahnoberflächenerfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird. Die aktuelle Fahrbahnoberflächenerfassungsreichweite wird bei einem als Lidarsensor ausgebildeten Umfelderfassungssensor 2 insbesondere über eine jeweilige Laufzeit eines rückgestreuten Signals des Lidarsensors ermittelt.
  • Im dargestellten Beispiel gemäß 1 wird die Fahrbahnoberfläche mittels des als Lidarsensor ausgebildeten Umfelderfassungssensors 2, beispielsweise mittels eines dedizierten Lidarsystem, bei trockener Fahrbahnoberfläche zum Beispiel bis zu einer in 1 dargestellten ersten Linie L1 erfasst. Durch verschlechterte Fahrbahnoberflächenbedingungen, insbesondere durch eine gesteigerte Wasserdecke, reduziert sich eine Rückstreuintensität des Signals des Lidarsensors, weshalb die Fahrbahnoberfläche dann nur noch bis zu einer geringeren Distanz, in 1 dargestellt durch eine zweite Linie L2 in geringerer Entfernung zum Fahrzeug 1, erfassbar ist. Über die Reduktion der Fahrbahnoberflächenreichweite kann über die, beispielsweise in der Tabelle, gespeicherten Fahrbahnoberflächenbedingungen und zugeordneten Fahrbahnoberflächenerfassungsreichweiten auf eine jeweilige Art der Fahrbahnoberflächenänderung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs 1 einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs 1 und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
  • Alternativ zur Ausbildung des Umfelderfassungssensors 2 als Lidarsensor kann der Umfelderfassungssensor 2, wie bereits erwähnt, auch als ein anderer optischer Sensor ausgebildet sein, insbesondere als Bilderfassungssensor, insbesondere als Videosensor, beispielsweise als Kamera, zum Beispiel als Stereokameras oder Monokamera. Dann wird die Fahrbahnoberfläche mittels dieses optischen Sensors bei trockener Fahrbahnoberfläche zum Beispiel bis zu der in 1 dargestellten ersten Linie L1 erfasst. Durch verschlechterte Fahrbahnoberflächenbedingungen, insbesondere durch eine gesteigerte Wasserdecke, insbesondere in Verbindung mit Sonneneinstrahlung und einer daraus resultierenden Spiegelung, welche diesen optischen Sensor blendet, ist die Fahrbahnoberfläche dann nur noch bis zu einer geringeren Distanz, in 1 dargestellt durch die zweite Linie L2 in geringerer Entfernung zum Fahrzeug 1, erfassbar. Auch hier kann über die Reduktion der Fahrbahnoberflächenreichweite über die, beispielsweise in der Tabelle, gespeicherten Fahrbahnoberflächenbedingungen und zugeordneten Fahrbahnoberflächenerfassungsreichweiten auf eine jeweilige Art der Fahrbahnoberflächenänderung geschlossen werden. Auch dadurch wird es beispielsweise ermöglicht, eine entsprechende Systemreaktion mindestens eines Fahrzeugsystems oder mehrerer solcher Fahrzeugsysteme des Fahrzeugs 1 einzuleiten, wodurch eine verbesserte Sicherheit erreicht wird, beispielsweise durch eine Anpassung der Geschwindigkeit des Fahrzeugs 1 und/oder des Abstands zu einem vorausfahrenden anderen Verkehrsteilnehmer an die ermittelte Fahrbahnbedingung.
  • Bezugszeichenliste
  • 1
    Fahrzeug
    2
    Umfelderfassungssensor
    F
    Fahrbahn
    L1
    erste Linie
    L2
    zweite Linie
    O
    Objekt
    SR1
    große Sensorreichweite
    SR2
    geringere aktuelle Sensorreichweite

Claims (5)

  1. Verfahren zum Betrieb mindestens eines Umfelderfassungssensors (2) eines Fahrzeugs (1), wobei das Fahrzeug (1) in einer digitalen Karte lokalisiert wird, wobei in der digitalen Karte Objekte (O) georeferenziert gespeichert sind und wobei aus einer Menge dieser in der digitalen Karte georeferenziert gespeicherten Objekte (O), die mit dem Umfelderfassungssensor (2) aktuell erfasst werden, das am weitesten vom Umfelderfassungssensor (2) entfernte Objekt (O) identifiziert wird und eine aktuelle Sensorreichweite des Umfelderfassungssensors (2) basierend auf einer Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) ermittelt wird, und wobei in der digitalen Karte zu den Objekten (O) jeweils zugehörige Objektinformationen gespeichert sind, dadurch gekennzeichnet, dass die Objektinformationen des jeweiligen Objekts (O) mindestens für diesen Umfelderfassungssensor (2) für verschiedene Erfassungsbedingungen eine jeweilige Entfernung des Umfelderfassungssensors (2) zum Objekt (O) angeben, ab welcher das Objekt (O) für den Umfelderfassungssensor (2) erfassbar ist, wobei die Objektinformationen des am weitesten vom Umfelderfassungssensor (2) entfernten Objekts (O) aus der digitalen Karte abgerufen werden und daraus die Erfassungsbedingungen ermittelt werden, deren zugeordnete Entfernung für den Umfelderfassungssensor (2) am besten mit der ermittelten aktuellen Sensorreichweite des Umfelderfassungssensors (2) korreliert.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Entfernung des Umfelderfassungssensors (2) zu diesem Objekt (O) als aktuelle Sensorreichweite des Umfelderfassungssensors (2) ermittelt wird.
  3. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Objektinformationen des jeweiligen Objekts (O), welche mindestens für diesen Umfelderfassungssensor (2) für verschiedene Erfassungsbedingungen die jeweilige Entfernung des Umfelderfassungssensors (2) zum Objekt (O) angeben, ab welcher das Objekt (O) für den Umfelderfassungssensor (2) erfassbar ist, ermittelt werden, indem das jeweilige Objekt (O) mittels des Umfelderfassungssensors (2) und/oder mittels eines gleichartigen Umfelderfassungssensors (2) erfasst wird und mit den jeweils vorliegenden Erfassungsbedingungen, insbesondere Wetterbedingungen, fusioniert und ausgewertet werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ermittelten Erfassungsbedingungen mehrerer Umfelderfassungssensoren (2) des Fahrzeugs (1) und/oder anhand mehrerer Objekte (O) ermittelte Erfassungsbedingungen miteinander verglichen werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mit einem als optischer Sensor ausgebildeten Umfelderfassungssensor (2), insbesondere mit einem als Lidarsensor oder Bilderfassungssensor, insbesondere Videosensor, ausgebildeten Umfelderfassungssensor (2), eine aktuelle Fahrbahnoberflächenerfassungsreichweite dieses Umfelderfassungssensors (2) ermittelt wird und anhand gespeicherter Fahrbahnoberflächenbedingungen und zugeordneter Fahrbahnoberflächenerfassungsreichweiten eine aktuelle Fahrbahnoberflächenbedingung ermittelt wird.
DE102019130037.1A 2019-11-07 2019-11-07 Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs Active DE102019130037B4 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102019130037.1A DE102019130037B4 (de) 2019-11-07 2019-11-07 Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
PCT/EP2020/079050 WO2021089292A1 (de) 2019-11-07 2020-10-15 Verfahren zum betrieb mindestens eines umfelderfassungssensors eines fahrzeugs
CN202080076406.1A CN114616155A (zh) 2019-11-07 2020-10-15 用于运行车辆的至少一个环境检测传感器的方法
US17/755,673 US20220375231A1 (en) 2019-11-07 2020-10-15 Method for operating at least one environment sensor on a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019130037.1A DE102019130037B4 (de) 2019-11-07 2019-11-07 Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs

Publications (2)

Publication Number Publication Date
DE102019130037A1 DE102019130037A1 (de) 2021-05-12
DE102019130037B4 true DE102019130037B4 (de) 2022-09-29

Family

ID=73020168

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019130037.1A Active DE102019130037B4 (de) 2019-11-07 2019-11-07 Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs

Country Status (4)

Country Link
US (1) US20220375231A1 (de)
CN (1) CN114616155A (de)
DE (1) DE102019130037B4 (de)
WO (1) WO2021089292A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021004646B3 (de) * 2021-09-14 2023-03-23 Mercedes-Benz Group AG Verfahren zum Betreiben eines Fahrzeugs in einem automatisierten Fahrbetrieb

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014212216A1 (de) 2014-06-17 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des
DE102018127059A1 (de) 2018-10-30 2020-04-30 Daimler Ag Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006007788A1 (de) * 2006-02-20 2007-08-30 Siemens Ag Verfahren zur rechnergestützten Überwachung des Betriebs eines einen vorgegebenen Streckenverlauf fahrenden Fahrzeugs, insbesondere eines spurgebundenen Schienenfahrzeugs
DE102013226631A1 (de) * 2013-12-19 2015-06-25 Continental Teves Ag & Co. Ohg Verfahren und Vorrichtung zur Ermittlung von lokalen Wetterverhältnissen und eines lokalen Fahrbahnzustands
DE102016201250A1 (de) * 2016-01-28 2017-08-03 Conti Temic Microelectronic Gmbh Verfahren und Vorrichtung zur Reichweitenbestimmung eines Sensors für ein Kraftfahrzeug
DE102018003784A1 (de) * 2018-05-09 2018-11-29 Daimler Ag Verfahren zur Bestimmung einer Reichweite eines Umgebungssensors für ein Fahrzeug

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014212216A1 (de) 2014-06-17 2015-12-17 Conti Temic Microelectronic Gmbh Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des
DE102018127059A1 (de) 2018-10-30 2020-04-30 Daimler Ag Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs

Also Published As

Publication number Publication date
US20220375231A1 (en) 2022-11-24
DE102019130037A1 (de) 2021-05-12
CN114616155A (zh) 2022-06-10
WO2021089292A1 (de) 2021-05-14

Similar Documents

Publication Publication Date Title
DE102014111127A1 (de) Verfahren zum Erzeugen einer Umgebungskarte sowie Fahrerassistenzsystem
DE102017203838A1 (de) Verfahren und System zur Umfelderfassung
DE102018203807A1 (de) Verfahren und Vorrichtung zur Erkennung und Bewertung von Fahrbahnzuständen und witterungsbedingten Umwelteinflüssen
DE102012214852A1 (de) Verfahren zum Ergänzen einer, einem Objekt zugeordneten Objektinformation und Verfahren zum Selektieren von Objekten in einem Umfeld eines Fahrzeugs
DE102015104934A1 (de) Verfahren zum Bereitstellen von Freirauminformationen in einem Umgebungsbereich eines Kraftfahrzeugs als Sensor-Rohdaten an einer Kommunikationsschnittstelle, Sensoreinrichtung, Verarbeitungseinrichtung und Kraftfahrzeug
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
WO2016177727A1 (de) Diagnoseverfahren für einen sichtsensor eines fahrzeugs und fahrzeug mit einem sichtsensor
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102017210112A1 (de) Verfahren und System zur Durchführung einer Kalibrierung eines Sensors
DE102019008093A1 (de) Verfahren zum Fusionieren von Sensordaten einer Vielzahl von Erfassungseinrichtungen mittels eines spärlichen Belegungsgitters, sowie Fahrerassistenzsystem
DE102014212216A1 (de) Verfahren und Fahrerassistenzsystem zur Erfassung eines Fahrzeugumfel-des
DE102018217746A1 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems eines Kraftfahrzeugs und Kraftfahrzeug
DE102016224576B4 (de) Verhaltensmodell von Verkehrsteilnehmern für ein Fahrerassistenzsystem umfassend Statistiken zu Abweichungen vom Normverhalten
DE102015010535A1 (de) Kamerabasierte Umgebungserfassung für Nutzfahrzeuge
DE102012024959A1 (de) Verfahren zum Betreiben eines Fahrzeugs und Fahrzeug
DE102019130037B4 (de) Verfahren zum Betrieb mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102018220114A1 (de) Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors
DE102019121919A1 (de) Identifizierung von Verschmutzungen auf einer Fahrbahn
DE102019208507A1 (de) Verfahren zur Bestimmung eines Überlappungsgrades eines Objektes mit einem Fahrstreifen
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug
EP3673234A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs
DE102019211459B4 (de) Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
DE102017100669A1 (de) Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung einer Region von Interesse in Abhängigkeit von einem Anhänger, Recheneinrichtung, Kamerasystem sowie Kraftfahrzeug
DE102016109850A1 (de) Verfahren zum Erkennen einer Neigung in einer Fahrbahn eines Kraftfahrzeugs, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102017200545A1 (de) Vorrichtung und Verfahren zum Detektieren einer Baustelle für ein Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNERS: DAIMLER AG, 70327 STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

R082 Change of representative

Representative=s name: PATENTANWAELTE LIEDTKE & PARTNER, DE

R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNERS: DAIMLER AG, STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNERS: DAIMLER AG, STUTTGART, DE; ROBERT BOSCH GMBH, 70469 STUTTGART, DE

R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 102019009332

Country of ref document: DE

R020 Patent grant now final