DE102018220114A1 - Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors - Google Patents

Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors Download PDF

Info

Publication number
DE102018220114A1
DE102018220114A1 DE102018220114.5A DE102018220114A DE102018220114A1 DE 102018220114 A1 DE102018220114 A1 DE 102018220114A1 DE 102018220114 A DE102018220114 A DE 102018220114A DE 102018220114 A1 DE102018220114 A1 DE 102018220114A1
Authority
DE
Germany
Prior art keywords
sensor
vehicle
data
raster
environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018220114.5A
Other languages
English (en)
Inventor
Florian Maile
Daniel Fafula
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102018220114.5A priority Critical patent/DE102018220114A1/de
Publication of DE102018220114A1 publication Critical patent/DE102018220114A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/86Combinations of sonar systems with lidar systems; Combinations of sonar systems with systems not using wave reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4039Means for monitoring or calibrating of parts of a radar system of sensor or antenna obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S2007/4975Means for monitoring or calibrating of sensor obstruction by, e.g. dirt- or ice-coating, e.g. by reflection measurement on front-screen
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • G01S2007/52009Means for monitoring or calibrating of sensor obstruction, e.g. dirt- or ice-coating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9324Alternative operation using ultrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9327Sensor installation details
    • G01S2013/93271Sensor installation details in the front of the vehicles

Abstract

Die vorliegende Erfindung betrifft eine Vorrichtung (14) zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit: einer Eingangsschnittstelle (24) zum Empfangen von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen einem Objekt (20) in einer Umgebung eines Fahrzeugs (10) und dem Fahrzeug sowie von Bilddaten eines Bildsensors (18) mit Informationen zu dem Objekt; einer Rastereinheit (26) zum Erzeugen einer Rasterdarstellung der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten; einer Bildverarbeitungseinheit (28) zum Identifizieren des Objekts basierend auf den Bilddaten; und einer Auswerteeinheit (30) zum Ermitteln eines blockierten Bereichs (33) eines Sichtfelds (22) des Umgebungssensors basierend auf einer Zuordnung des identifizierten Objekts zu der Rasterdarstellung. Die vorliegende Erfindung betrifft weiterhin ein Verfahren und ein System (12) zum Erkennen einer Sensorblockade eines Umgebungssensors (16).

Description

  • Die vorliegende Erfindung betrifft eine Vorrichtung zum Erkennen einer Sensorblockade eines Umgebungssensors sowie ein entsprechendes Verfahren. Die vorliegende Erfindung betrifft weiterhin ein System zum Erkennen einer Sensorblockade eines Umgebungssensors.
  • Moderne Fahrzeuge (Autos, Transporter, Lastwagen, Motorräder etc.). umfassen eine Vielzahl an Systemen, die dem Fahrer Informationen zur Verfügung stellen und einzelne Funktionen des Fahrzeugs teil- oder vollautomatisiert steuern. Über Sensoren werden die Umgebung des Fahrzeugs sowie andere Verkehrsteilnehmer erfasst. Basierend auf den erfassten Daten kann ein Modell der Fahrzeugumgebung erzeugt werden und auf Veränderungen in dieser Fahrzeugumgebung reagiert werden. Durch die fortschreitende Entwicklung im Bereich der autonom und teilautonom fahrenden Fahrzeuge werden der Einfluss und der Wirkungsbereich solcher Fahrerassistenzsysteme (Advanced Driver Assistance Systems, ADAS) immer größer. Durch die Entwicklung immer präziserer Sensoren ist es möglich, die Umgebung und den Verkehr zu erfassen und einzelne Funktionen des Fahrzeugs vollständig oder teilweise ohne Eingriff des Fahrers zu kontrollieren. Fahrerassistenzsysteme können dabei insbesondere zur Erhöhung der Sicherheit im Verkehr sowie zur Verbesserung des Fahrkomforts beitragen.
  • Eine wichtige Voraussetzung ist hierbei die Erfassung und Erkennung der Umgebung des eigenen Fahrzeugs. Mittels Umgebungssensoren, wie beispielsweise Radar-, Lidar-, oder Ultraschallsensoren, werden Sensordaten mit Informationen zu der Umgebung erfasst. Insbesondere werden durch solche abstandsbasierten Sensoren Abstände und Positionen der Objekte in Bezug zum Umgebungssensor erfasst. Basierend auf diesen Daten können Objekte in der Umgebung des Fahrzeugs identifiziert und klassifiziert werden. Ausgehend hiervon kann beispielsweise ein Verhalten eines autonomen oder teilautonomen Fahrzeugs an eine aktuelle Situation angepasst werden.
  • In diesem Zusammenhang besteht eine Herausforderung darin, fehlerhafte Sensordaten zu erkennen und deren Auswirkungen in der weiteren Verarbeitung zu berücksichtigen. Beispielsweise können Sensoren teilweise oder vollständig defekt oder verschmutzt sein. Ebenfalls ist es möglich, dass es aufgrund von Wetterbedingungen (Schnee, Eis, Regen etc.) dazu kommt, dass Sensordaten erfasst werden, die die aktuelle Umgebung falsch oder unvollständig widerspiegeln. Der Sensor kann teilweise oder vollständig blockiert sein. Die Herausforderung liegt hierbei darin zu erkennen, dass aktuelle gemessene Werte nicht die Realität abbilden, obwohl die grundsätzliche Funktion des Sensors gegeben ist. Beispielsweise kann ein teilweise mit Dreck bedeckter (blockierter) Radarsensor zu einer Erkennung eines in der Realität nichtexistierenden Objekts führen. Ein derartiger Fehler kann wiederum zu einer ungewollten und möglicherweise gefährlichen Reaktion einer Steuereinrichtung eines autonomen Fahrzeugs führen, beispielsweise einer unnötigen Vollbremsung.
  • Ausgehend hiervon stellt sich der vorliegenden Erfindung die Aufgabe, einen Ansatz zum Erkennen einer Sensorblockadeeines Umgebungssensors bereitzustellen. Insbesondere soll eine möglichst zuverlässige Erkennung eines blockierten Bereichs eines Sichtfelds eines Umgebungssensors erreicht werden. Hierdurch können die Sicherheit im Straßenverkehr sowie der Fahrkomfort verbessert werden.
  • Zum Lösen dieser Aufgabe betrifft die vorliegende Erfindung in einem ersten Aspekt eine Vorrichtung zum Erkennen einer Sensorblockade eines Umgebungssensors mit:
    • einer Eingangsschnittstelle zum Empfangen von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen einem Objekt in einer Umgebung eines Fahrzeugs und dem Fahrzeug sowie von Bilddaten eines Bildsensors mit Informationen zu dem Objekt;
    • einer Rastereinheit zum Erzeugen einer Rasterdarstellung der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten;
    • einer Bildverarbeitungseinheit zum Identifizieren des Objekts basierend auf den Bilddaten; und
    • einer Auswerteeinheit zum Ermitteln eines blockierten Bereichs eines Sichtfelds des Umgebungssensors basierend auf einer Zuordnung des identifizierten Objekts zu der Rasterdarstellung.
  • In einem weiteren Aspekt betrifft die vorliegende Erfindung ein System zum Erkennen einer Sensorblockade eines Umgebungssensors, mit:
    • einem Umgebungssensor zum Erfassen von Abständen zwischen einem Fahrzeug und einem Objekt in einer Umgebung des Fahrzeugs;
    • einem Bildsensor zum Erfassen eines Bilds des Objekts; und
    • einer Vorrichtung wie zuvor beschrieben.
  • Weitere Aspekte der Erfindung betreffen ein entsprechendes Verfahren und ein Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens, wenn der Programmcode auf einem Computer ausgeführt wird, sowie ein Speichermedium, auf dem ein Computerprogramm gespeichert ist, das, wenn es auf einem Computer ausgeführt wird, eine Ausführung des hierin beschriebenen Verfahrens bewirkt.
  • Bevorzugte Ausgestaltungen der Erfindung werden in den abhängigen Ansprüchen beschrieben. Es versteht sich, dass die vorstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen. Insbesondere können das System, das Verfahren und das Computerprogrammprodukt entsprechend der für die Vorrichtung in den abhängigen Ansprüchen beschriebenen Ausgestaltungen ausgeführt sein.
  • Die erfindungsgemäße Vorrichtung dient dazu, einen blockierten Bereich eines Sichtfelds eines Umgebungssensors zu erkennen. Als Eingangsdaten werden einerseits Umgebungssensordaten des Umgebungssensors verwendet. Andererseits werden Bilddaten eines Bildsensors verwendet.
  • Der Umgebungssensor stellt Informationen zu Abständen zwischen einem Objekt und dem Fahrzeug bzw. dem Sensor zur Verfügung. Basierend auf den empfangenen Abständen des Umgebungssensors wird eine Rasterdarstellung der Umgebung des Fahrzeugs erzeugt. Eine Rasterdarstellung entspricht dabei einem Abbild der Umgebung des Fahrzeugs, bei dem einzelne Detektionen des Umgebungssensors diskreten Rasterzellen zugeordnet werden. Die Rasterdarstellung stellt eine Repräsentation der Fahrzeugumgebung dar. Basierend auf den Bilddaten des Bildsensors wird eine Objekterkennung durchgeführt. Relevant ist hierbei, dass beide Datenquellen Informationen zum selben räumlichen Bereich in der Umgebung des Fahrzeugs liefern. Sowohl der Umgebungssensor als auch der Bildsensor liefern Sensordaten desselben Objekts.
  • In der Auswerteeinheit wird dann eine Zuordnung zwischen Objekten in der Rasterdarstellung und basierend auf den Bilddaten erkannten Objekten vorgenommen. Insbesondere kann überprüft werden, ob ein Objekt in der Rasterdarstellung einem entsprechenden Objekt, das basierend auf den Bilddaten erkannt wurde, zugeordnet werden kann. Sofern eine Zuordnung nicht möglich ist, liegt eine teilweise oder vollständige Sensorblockade (kann auch als Blockierung bezeichnet werden) des Umgebungssensors vor.
  • Ein blockierter Bereich des Umgebungssensors wird identifiziert. Der blockierte Bereich ist dabei derjenige Bereich, aus dem Messwerte des Umgebungssensors stammen, die keinem basierend auf den Bilddaten identifizierten Objekt zugeordnet werden können. Der erfindungsgemäße Ansatz basiert auf einer Fusion von Daten eines abstandsbasierten Umgebungssensors mit Daten eines Bildsensors.
  • Der ermittelte blockierte Bereich kann beispielsweise an ein Fahrerassistenzsystem übermittelt werden, das basierend auf den Umgebungssensordaten eine Fahrerassistenzfunktion ausführt. Durch den ermittelten blockierten Bereich kann die entsprechende Fahrerassistenzfunktion angepasst werden. Es kann beispielsweise sichergestellt werden, dass lediglich dann eine Reaktion infolge von Messungen des Umgebungssensors erfolgt, wenn der entsprechende Umgebungssensor nicht blockiert ist.
  • Im Vergleich zu bisherigen Ansätzen erlaubt der erfindungsgemäße Ansatz eine zuverlässige und präzise Ermittlung eines blockierten Bereichs eines abstandsbasierten Umgebungssensors. Durch die Erkennung des blockierten Bereichs kann eine Anpassung einer Steuerung eines autonomen oder teilautonomen Fahrzeugs erfolgen. Es kann sichergestellt werden, dass eine Reaktion eines autonomen oder teilautonomen Fahrzeugs nicht basierend auf verfälschten Sensordaten eines Umgebungssensors ermittelt wird. Die erfindungsgemäße Ermittlung des blockierten Bereichs führt daher zu einer verbesserten Abbildung der Umgebung. Die Umgebung eines Fahrzeugs kann mit höherer Sicherheit erkannt werden. Hierdurch wird es möglich, dass die Sicherheit beim autonomen oder teilautonomen Fahren verbessert und der Fahrkomfort erhöht werden.
  • In einer bevorzugten Ausgestaltung ist die Rastereinheit zum Erzeugen einer zweidimensionalen Rasterdarstellung ausgebildet. Im Bereich des autonomen oder teilautonomen Fahrens ist es insbesondere relevant, eine Draufsicht auf die Umgebung des Fahrzeugs auswerten zu können. Basierend hierauf kann festgestellt werden, ob eine Fahrt in eine bestimmte Richtung möglich ist oder nicht. Die zweidimensionale Rasterdarstellung entspricht einer vogelperspektivischen Ansicht der Umgebung des Fahrzeugs. Durch die Verwendung einer zweidimensionalen Rasterdarstellung kann eine effiziente Verarbeitung sichergestellt werden. Eine Echtzeit-Datenverarbeitung wird möglich.
  • In einer vorteilhaften Ausgestaltung ist die Rastereinheit zum Erzeugen der Rasterdarstellung basierend auf einer Akkumulation der Umgebungssensordaten über mehrere Messzyklen des Umgebungssensors ausgebildet. Vorzugsweise werden Daten über ein vordefiniertes Zeitfenster gesammelt. Durch die Verwendung von Sensordaten, die über mehrere Messzyklen gesammelt wurden, kann eine erhöhte Zuverlässigkeit erreicht werden. Eine Erkennung von Objekten kann mit größerer Sicherheit erfolgen, wenn pro Objekt mehrere Detektionen bzw. Scanpunkte verfügbar sind. Die Zuverlässigkeit bei der Erzeugung des Abbilds der Umgebung durch die Rasterdarstellung wird verbessert.
  • In einer vorteilhaften Ausgestaltung ist die Rastereinheit zum Erzeugen eines Evidential Grids, eines Occupancy Grids und/oder eines Freespace Grids der Umgebung des Fahrzeugs ausgebildet. Für das Erzeugen der Rasterdarstellung der Umgebung des Fahrzeugs stehen verschiedene Möglichkeiten zur Verfügung. Es ist dabei möglich, dass mehrere verschiedene Rasterdarstellungen erzeugt und einzeln ausgewertet werden. Ebenfalls ist es vorteilhaft, wenn eine kombinierte Auswertung erfolgt. Unterschiedliche Rasterdarstellungen haben in Bezug auf die Datenverarbeitung und Prozessierung verschiedene Eigenschaften bzw. Vor- und Nachteile. Durch die Verwendung einer angepassten Rasterdarstellung kann ein verbessertes Abbild der Umgebung des Fahrzeugs generiert werden.
  • In einer vorteilhaften Ausgestaltung ist die Auswerteeinheit zum Ermitteln des blockierten Bereichs basierend auf einer Erkennung eines Erwartungsbereichs des identifizierten Objekts ausgebildet. Hierbei entspricht der Erwartungsbereich einem Bereich des Sichtfelds, der dem identifizierten Objekt zugeordnet ist, der jedoch ein näheres Objekt umfasst. Es wird sozusagen erwartet, dass ein basierend auf den Bilddaten identifiziertes Objekt eine Entsprechung in der Rasterdarstellung findet. Wenn dies nicht der Fall ist, insbesondere wenn in dem Erwartungsbereich, in dem das Objekt erwartet wird, ein anderes, näheres Objekt angezeigt wird, kann dies bedeuten, dass eine Blockade des Umgebungssensors innerhalb dieses Bereichs vorliegt. Eine zusammenschauende Betrachtung der Umgebungssensordaten und der Bilddaten wird umgesetzt. Es wird sichergestellt, dass fehlerhafte Umgebungssensordaten, die auf einer Blockade des Umgebungssensors basieren, erkannt werden.
  • In einer Ausgestaltung ist die Bildverarbeitungseinheit zum Identifizierten des Objekts basierend auf einer semantischen Segmentierung, einer Auswertung eines optischen Flusses und/oder einer punktbasierten dreidimensionalen Tiefenschätzung ausgebildet. Für die Identifizierung von Objekten können Algorithmen der Bildbearbeitung verwendet werden. Es ist insbesondere vorteilhaft, wenn eine semantische Segmentierung vorgenommen wird, um anhand einer Vielzahl von Objekten innerhalb des Sichtfelds des Bildsensors einzelne Objekte zu erkennen. Durch eine präzise Identifizierung von Objekten kann eine zuverlässige Erkennung eines blockierten Bereichs eines Sichtfelds des Umgebungssensors erfolgen.
  • In einer vorteilhaften Ausgestaltung ist die Eingangsschnittstelle zum Empfangen von Bilddaten einer Stereokamera ausgebildet. Durch die Verwendung einer Stereokamera kann zusätzlich zu einer zweidimensionalen Bildinformation auch eine Tiefeninformation für Objekte im Sichtfeld des Bildsensors bzw. der Stereokamera ermittelt werden. Mittels einer Tiefeninformation kann die Genauigkeit bei der Identifizierung von Objekten verbessert werden. Ausgehend hiervon kann eine verbesserte Erkennung einer Blockade eines Umgebungssensors umgesetzt werden.
  • In einer vorteilhaften Ausgestaltung ist die Eingangsschnittstelle zum Empfangen von Kartendaten mit Informationen zu einem vorbekannten Objekt in der Umgebung des Fahrzeugs von einer Datenbank ausgebildet. Zudem ist die Auswerteeinheit zum Ermitteln des blockierten Bereichs des Sichtfelds basierend auf einer Zuordnung des vorbekannten Objekts zu der Rasterdarstellung ausgebildet. Es ist möglich, zusätzlich zur Fusion von Bilddaten und Umgebungssensordaten, auch weitere Daten bei der Ermittlung des blockierten Bereichs mit einzubeziehen. Insbesondere können Kartendaten verwendet werden. Wenn ausgehend von derartigen Kartendaten bekannt ist, dass sich in einer Umgebung des Fahrzeugs bestimmte vorbekannte Objekte finden, kann mit diesem Wissen beispielsweise die Identifizierung der Objekte basierend auf den Bilddaten verbessert werden. Zudem ist es möglich, direkt eine Zuordnung eines vorbekannten Objekts zur Rasterdarstellung vorzunehmen. Ausgehend hiervon kann die Zuverlässigkeit bei der Erkennung der blockierten Bereiche des Umgebungssensors weiter verbessert werden.
  • In einer Ausgestaltung ist die Eingangsschnittstelle zum Empfangen von Bewegungsdaten eines Bewegungssensors mit Informationen über eine Bewegung des Fahrzeugs in Bezug zu der Umgebung ausgebildet. Weiterhin ist die Rastereinheit zum Kompensieren der Bewegung des Fahrzeugs beim Erzeugen der Rasterdarstellung basierend auf den Bewegungsdaten ausgebildet. Durch die Verwendung von Bewegungsdaten können Umgebungssensordaten über einen längeren Zeitraum aufakkumuliert werden. Es ist möglich, eine Bewegung des Fahrzeugs bzw. eine Bewegung des mit dem Fahrzeug fest verbundenen Umgebungssensors mit einzubeziehen. Wenn sich das Fahrzeug weiterbewegt, müssen die empfangenen Umgebungssensordaten dennoch der korrekten Position innerhalb der Rasterdarstellung zugeordnet werden. Durch die Miteinbeziehung von Bewegungsdaten kann dies erreicht werden. Es wird sozusagen ermöglicht, eine fahrzeugfeste Rasterdarstellung zu verwenden. Hierdurch werden die Auflösung bzw. die Genauigkeit der Rasterdarstellung verbessert. Eine Ermittlung eines blockierten Bereichs eines Sichtfelds des Umgebungssensors kann mit höherer Zuverlässigkeit erfolgen.
  • Das erfindungsgemäße System kann beispielsweise in ein Fahrzeug integriert werden. Hierin wird unter einem Umgebungssensor insoweit insbesondere ein abstandsbasierter Sensor (Rangingsensor), wie zum Beispiel ein Radar-, Lidar- oder Ultraschallsensor verstanden. Als Bildsensor kann das erfindungsgemäße System insbesondere eine Kamera umfassen. Es versteht sich dabei, dass der Umgebungssensor mehrere einzelne Sensoren umfassen kann, sodass eine Datenfusion durchgeführt werden kann.
  • Unter einem Objekt versteht sich hierin ein statisches oder dynamisches Objekt. Beispielsweise stellen Bäume, Häuser, andere Fahrzeuge, Fußgänger, Tiere, Brücken und Straßen Objekte dar. Eine Umgebung eines Fahrzeugs umfasst insbesondere einen von einem am Fahrzeug angebrachten Umgebungssensor aus sichtbaren Bereich im Umfeld des Fahrzeugsensors. Ein Umgebungssensor kann auch mehrere Sensoren umfassen, die beispielsweise eine 360°-Rundumsicht ermöglichen und somit ein vollständiges Umgebungsabbild aufzeichnen können. Üblicherweise wird während eines Messzyklus eines Umgebungssensors eine Vielzahl an Scanpunkten generiert. Unter einem Messzyklus wird ein einmaliges Durchlaufen des sichtbaren Bereichs verstanden. Die in einem Messzyklus erfassten Umgebungssensordaten können als Zielliste (Target List) bezeichnet werden.
  • Unter einer Rasterdarstellung versteht sich eine Darstellung als Grid, bei der insbesondere verschiedene Scanpunkte anhand ihrer Detektionsposition zu Zellen des Grids zugeordnet werden. Grundsätzlich kann die Rasterdarstellung zwei- oder dreidimensional sein. Unter einer zweidimensionalen Rasterdarstellung wird eine zweidimensionale Modellierung einer Umgebung des Fahrzeugs verstanden. Jede Rasterzelle enthält Informationen über die Anzahl von Detektionen innerhalb des von der Rasterzelle repräsentierten Bereichs der Umgebung. Eine Blockade eines Umgebungssensors kann insbesondere durch Dreck oder anderes Material, durch Wasser oder auch durch einen Sensordefekt hervorgerufen werden. Ein blockierter Bereich eines Sichtfelds kann mehrere Teilbereiche umfassen.
  • Die Erfindung wird nachfolgend anhand einiger ausgewählter Ausführungsbeispiele im Zusammenhang mit den beiliegenden Zeichnungen näher beschrieben und erläutert. Es zeigen:
    • 1 eine schematische Darstellung eines erfindungsgemäßen Systems in einer Umgebung in einer Seitenansicht;
    • 2 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zum Erkennen einer Blockade eines Umgebungssensors;
    • 3 eine schematische Darstellung eines blockierten Bereichs eines Sichtfelds des Umgebungssensors mit zwei Teilbereichen;
    • 4 eine schematische Darstellung einer zusätzlichen Berücksichtigung von Kartendaten;
    • 5 eine schematische Darstellung eines Fahrzeugs mit einem erfindungsgemä-ßen System; und
    • 6 eine schematische Darstellung eines erfindungsgemäßen Verfahrens.
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs 10 mit einem erfindungsgemäßen System 12 zum Erkennen einer Sensorblockade eines Umgebungssensors. Das System 12 umfasst eine Vorrichtung 14, einen Umgebungssensor 16 sowie einen Bildsensor 18. Über den Umgebungssensor 16 werden Abstände zwischen dem Fahrzeug 10 und einem Objekt 20 in der Umgebung des Fahrzeugs 10 erfasst. Der Umgebungssensor 16 erfasst dabei zumeist mehrere Objekte innerhalb eines Sichtfelds 22. Über den Bildsensor 18 wird ein Bild des Objekts 20 erfasst. Ausgehend von den Umgebungssensordaten des Umgebungssensors 16 und den Bilddaten des Bildsensors 18 wird ein blockierter Bereich des Sichtfelds 22 des Umgebungssensors 16 ermittelt. Erfindungsgemäß wird also festgestellt, ob ein Teil des Sichtfelds des Umgebungssensors blockiert ist, weil die vom Umgebungssensor 16 gelieferten Umgebungssensordaten und die vom Bildsensor 18 gelieferten Bilddaten Abweichungen voneinander aufweisen. Ein blockierter Bereich des Sichtfelds des Umgebungssensors 16 kann dabei aufgrund einer Verschmutzung des Sensors oder auch wegen eines Defekts des Sensors vorliegen. Ebenfalls ist es möglich, dass es aufgrund von Witterungsbedingungen zu einer Blockade eines Teils des Sichtfelds kommt, beispielsweise durch Regen oder Schnee.
  • Die vorliegende Erfindung basiert darauf, dass abstandsbasierte Umgebungssensoren wie Radar-, Lidar- und Ultraschallsensoren eine immer größere Rolle spielen, insbesondere im Automotivebereich. Basierend auf den von solchen Sensoren bereitgestellten Daten werden verschiedene Funktionen eines autonomen oder teilautonomen Fahrzeugs ausgeführt. Daher ist es von hoher Wichtigkeit, dass den bereitgestellten Sensordaten vertraut werden kann. Aus einer Verschmutzung oder sonstigen Blockierung eines abstandsbasierten Umgebungssensors können fehlerhafte Sensorwerte resultieren. Erfindungsgemäß wird eine solche Verschmutzung oder eine andere Blockade erkannt. Hierzu werden die Daten des abstandsbasierten Umgebungssensors mit den Bilddaten eines Bildsensors (insbesondere einer Kamera) fusioniert. Es wird festgestellt, ob sich Abweichungen ergeben, um darauf basierend auf eine Blockade des Umgebungssensors schließen zu können.
  • In der 2 ist schematisch eine erfindungsgemäße Vorrichtung 14 dargestellt. Die Vorrichtung 14 umfasst eine Eingangsschnittstelle 24, eine Rastereinheit 26, eine Bildverarbeitungseinheit 28 sowie eine Auswerteeinheit 30. Die erfindungsgemäße Vorrichtung 14 kann beispielsweise in ein Fahrzeugsteuergerät integriert sein bzw. als Teil eines Fahrerassistenzsystems ausgebildet sein oder auch als separates Modul implementiert sein. Es ist möglich, dass die erfindungsgemäße Vorrichtung teilweise oder vollständig in Soft- und/oder in Hardware umgesetzt ist. Die verschiedenen Einheiten und Schnittstellen können vorzugsweise als Prozessor, Prozessormodul oder Software für einen Prozessor ausgebildet sein.
  • Über die Eingangsschnittstelle 24 werden Umgebungssensordaten eines Umgebungssensors sowie Bilddaten eines Bildsensors empfangen. Die Eingangsschnittstelle 24 kann beispielsweise als Steckverbindung in Hardware umgesetzt sein. Es ist auch möglich, dass die Eingangsschnittstelle 24 als entsprechende Softwareschnittstelle zum Datenempfang ausgebildet ist. Die empfangenen Umgebungssensordaten umfassen Informationen zu Abständen zwischen einem Objekt in einer Umgebung eines Fahrzeugs und dem Fahrzeug bzw. dem Umgebungssensor. Die empfangenen Bilddaten umfassen Informationen zu dem Objekt. Es versteht sich, dass die Umgebungssensordaten sowie auch die Bildsensordaten weitere Informationen umfassen können.
  • Insbesondere werden als Umgebungssensordaten Detektionen eines Radar-, Lidar- und/oder Ultraschallsensors empfangen. Die Detektionen solcher Sensoren umfassen Informationen über eine räumliche Position eines detektierten Objekts bzw. einer Stelle, an der eine elektromagnetische Welle oder eine Schallwelle reflektiert wurde. Insbesondere werden einzelne Scanpunkte empfangen. Für jeden einzelnen Scanpunkt werden ein Höhenwinkel, ein Azimutwinkel sowie eine Distanz erfasst. In einem Messzyklus eines Umgebungssensors können beispielsweise einige hundert bis mehrere tausend Scanpunkte erfasst bzw. generiert werden. Üblicherweise werden mehrere Messzyklen pro Sekunde durchgeführt. Eine Messfrequenz kann beispielsweise bei 5 bis 50 Hz liegen. Die Bildsensordaten des Bildsensors umfassen vorzugsweise für eine Vielzahl an Pixeln jeweils zugeordnete Farbwerte. Sowohl die Umgebungssensordaten als auch die Bildsensordaten werden üblicherweise in digitaler, vorverarbeiteter Form empfangen. Zumeist werden Informationen von Sensoren empfangen, die ohnehin bereits im Fahrzeug vorhanden sind. Beispielsweise kann die Eingangsschnittstelle 24 an einen Fahrzeugbus eines Fahrzeugs angekoppelt sein.
  • In der Rastereinheit 26 wird basierend auf den empfangenen Umgebungssensordaten eine Rasterdarstellung der Umgebung des Fahrzeugs erzeugt. Üblicherweise wird dabei ein fahrzeugfestes Koordinatensystem verwendet. Die einzelnen Scanpunkte des Umgebungssensors werden Zellen eines diskreten zwei- oder dreidimensionalen Rasters (kann auch als Grid bezeichnet werden) zugeordnet. Insbesondere kann ein Raster mit einer konstanten Kantenlänge der einzelnen Zellen verwendet werden. In jeder Zelle erfolgt als Eintrag eine Anzahl an Scanpunkten, die für diese Zelle bzw. für den Bereich dieser Zelle registriert wurden. Es ist möglich, dass die Daten verschiedener Umgebungssensoren derselben Rasterdarstellung zugeordnet werden.
  • Insbesondere kann in der Rastereinheit 26 eine Evidential Grid Map-Darstellung der Umgebung erzeugt werden. Ein Evidential Grid basiert darauf, dass Detektionen oder auch andere Informationen wie beispielsweise die Belegungswahrscheinlichkeit der verschiedenen Sensortechnologien über die Zeit akkumuliert werden. Alternativ oder zusätzlich kann eine Occupancy Grid Map-Darstellung der Umgebung erzeugt werden. Unter einem Occupancy Grid wird insbesondere ein zweidimensionales, in der Bodenebene liegendes Gitter verstanden, das in jeder Zelle die Wahrscheinlichkeit dafür enthält, dass dieser Bereich des Umfelds durch ein Hindernis belegt ist.
  • In der Bildverarbeitungseinheit 28 wird basierend auf den empfangenen Bildsensordaten eine Objekterkennung durchgeführt. Hierbei können unterschiedliche Algorithmen der Bildverarbeitung angewendet werden. Insbesondere ist es möglich, eine semantische Segmentierung durchzuführen, einen optischen Fluss auszuwerten oder auch eine 3D-Punktanalyse vorzunehmen. Durch derartige Ansätze können innerhalb eines Bildes zusammengehörige Bereiche ermittelt werden. Diese zusammengehörigen Bereiche werden dann als Objekte identifiziert. Die Bildverarbeitungseinheit 28 und die Identifizierung des Objekts kann beispielsweise auf Algorithmen der Computervision basieren, wie Deep Learning, maschinelles Lernen etc.
  • In der Auswerteeinheit 30 werden die Rasterdarstellung und die identifizierten Objekte fusioniert. Insbesondere kann eine Zuordnung vorgenommen werden zwischen den basierend auf den Bilddaten identifizierten Objekten und der basierend auf den Umgebungssensordaten erzeugten Rasterdarstellung. Wenn beispielsweise ein identifiziertes Objekt keine Entsprechung in der Rasterdarstellung findet, kann dies möglicherweise bedeuten, dass im entsprechenden Bereich des Sichtfelds des Umgebungssensors eine Blockade vorliegt. Es versteht sich, dass der ermittelte blockierte Bereich des Sichtfelds des Umgebungssensors dabei auch mehrere Teilbereiche umfassen kann.
  • In anderen Worten wird basierend auf den Bildsensordaten in erster Näherung ermittelt, an welcher Stelle sich ein Objekt befinden soll. Diese Hypothese wird durch die abstandsbasierte Sensorik (Umgebungssensor) bestätigt oder nicht. Wenn beispielsweise basierend auf den Bilddaten eine semantische Segmentierung des aktuellen Umfelds bereitgestellt wird und ein geschätzter Abstand aller oder einiger Pixel vorliegt, kann abgeschätzt werden, ob ein Bereich des Sichtfelds des Umgebungssensors blockiert ist.
  • In der 3 ist schematisch eine erfindungsgemäße Ermittlung eines blockierten Bereichs dargestellt. Die Darstellung entspricht dabei einer Draufsicht aus der Vogelperspektive. Innerhalb eines Sichtfelds 22 des Umgebungssensors 16 findet sich ein Objekt 20. Verschiedene Scanpunkte 32 erlauben eine Detektion des Objekts 20. Neben den Scanpunkten 32 des Umgebungssensors 16 wird das Objekt 20 auch vom Bildsensor 18 erfasst. Hierbei überschneiden sich die Sichtfelder des Umgebungssensors 16 und des Bildsensors 18 üblicherweise vollständig oder größtenteils. In der Auswerteeinheit kann nun festgestellt werden, dass das Objekt 20, wie durch die Bildverarbeitungseinheit identifiziert, größer sein sollte, als durch die Scanpunkte 32 des Umgebungssensors 16 reflektiert. Im dargestellten Fall wird ein möglicherweise blockierter Bereich 33 ermittelt. Der blockierte Bereich 33 liegt im Sichtfeld 22 des Umgebungssensors 16 und umfasst im dargestellten Beispiel zwei Teilbereiche.
  • In der 4 ist schematisch eine optionale Erweiterung des erfindungsgemäßen Systems 12 bzw. der erfindungsgemäßen Vorrichtung 14 dargestellt. Zusätzlich zur Berücksichtigung der Umgebungssensordaten und der Bilddaten können über die Eingangsschnittstelle Kartendaten mit Informationen zu einem vorbekannten Objekt 36 in der Umgebung des Fahrzeugs von einer Datenbank 34 empfangen werden. Bei der Ermittlung des blockierten Bereichs des Sichtfelds kann dann eine Zuordnung des vorbekannten Objekts 36 zu der Rasterdarstellung vorgenommen werden, um so die Genauigkeit bei der Ermittlung des blockierten Bereichs zu verbessern.
  • Im dargestellten Beispiel werden Kartendaten mit Informationen zu einer Tunneleinfahrt als vorbekanntes Objekt 36 empfangen. Die Kartendaten werden über eine Mobilkommunikationsschnittstelle 38 an die Vorrichtung 14 geleitet. Die Datenbank 34 ist im dargestellten Beispiel insoweit als Cloud-Datenbank ausgebildet. Es versteht sich, dass es allerdings ebenfalls möglich ist, dass die Datenbank 34 innerhalb des Fahrzeugs 10 angeordnet ist, sodass keine Mobilkommunikationsschnittstelle 38 benötigt wird. Durch die zusätzliche Berücksichtigung des vorbekannten Objekts 36 kann die Zuverlässigkeit beim Ermitteln des blockierten Bereichs verbessert werden.
  • In der 5 ist schematisch ein Fahrzeug 10 dargestellt, in das ein erfindungsgemäßes System 12 integriert ist. Das erfindungsgemäße System 12 umfasst eine Vorrichtung 14, einen Umgebungssensor 16 sowie einen Bildsensor 18. Vorzugsweise werden hierbei die ohnehin im Fahrzeug 10 bereits vorhandenen Sensoren verwendet. Weiterhin umfasst das Fahrzeug eine Mobilkommunikationseinheit 38.
  • Zudem ist in der Darstellung ein optional vorhandener Bewegungssensor 40 gezeigt, der ebenfalls Daten an die Vorrichtung 14 liefert. Durch die zusätzliche Verwendung von Bewegungsdaten wird erreicht, dass bei der Erzeugung der Rasterdarstellung Sensordaten über mehrere Messzyklen akkumuliert werden können. Eine während des Aufnehmens der Umgebungssensordaten auftretende Bewegung des Fahrzeugs kann kompensiert werden. Hierdurch können Bewegungsdaten über einen längeren Zeitraum in die Rasterdarstellung zusammengefasst werden. Es ergibt sich eine verbesserte Genauigkeit.
  • In der 6 ist schematisch ein erfindungsgemäßes Verfahren dargestellt. Das Verfahren umfasst Schritte des Empfangens S10 von Umgebungssensordaten und Bilddaten, des Erzeugens S12 einer Rasterdarstellung der Umgebung, des Identifizierens S14 des Objekts und des Ermittelns S16 eines blockierten Bereichs. Das Verfahren kann beispielsweise als Software implementiert sein, die auf einem Fahrzeugsteuergerät ausgeführt wird. Ebenfalls ist es möglich, dass das erfindungsgemäße Verfahren als Software für ein Mobilgerät (Smartphone-App) implementiert ist. Das Verfahren kann vollständig oder teilweise cloudbasiert ausgeführt werden.
  • Die Erfindung wurde anhand der Zeichnungen und der Beschreibung umfassend beschrieben und erklärt. Die Beschreibung und Erklärung sind als Beispiel und nicht einschränkend zu verstehen. Die Erfindung ist nicht auf die offenbarten Ausführungsformen beschränkt. Andere Ausführungsformen oder Variationen ergeben sich für den Fachmann bei der Verwendung der vorliegenden Erfindung sowie bei einer genauen Analyse der Zeichnungen, der Offenbarung und der nachfolgenden Patentansprüche.
  • In den Patentansprüchen schließen die Wörter „umfassen“ und „mit“ nicht das Vorhandensein weiterer Elemente oder Schritte aus. Der undefinierte Artikel „ein“ oder „eine“ schließt nicht das Vorhandensein einer Mehrzahl aus. Ein einzelnes Element oder eine einzelne Einheit kann die Funktionen mehrerer der in den Patentansprüchen genannten Einheiten ausführen. Ein Element, eine Einheit, eine Vorrichtung und ein System können teilweise oder vollständig in Hard- und/oder in Software umgesetzt sein. Die bloße Nennung einiger Maßnahmen in mehreren verschiedenen abhängigen Patentansprüchen ist nicht dahingehend zu verstehen, dass eine Kombination dieser Maßnahmen nicht ebenfalls vorteilhaft verwendet werden kann. Ein Computerprogramm kann auf einem nichtflüchtigen Datenträger gespeichert/vertrieben werden, beispielsweise auf einem optischen Speicher oder auf einem Halbleiterlaufwerk (SSD). Ein Computerprogramm kann zusammen mit Hardware und/oder als Teil einer Hardware vertrieben werden, beispielsweise mittels des Internets oder mittels drahtgebundener oder drahtloser Kommunikationssysteme. Bezugszeichen in den Patentansprüchen sind nicht einschränkend zu verstehen.
  • Bezugszeichenliste
  • 10
    Fahrzeug
    12
    System
    14
    Vorrichtung
    16
    Umgebungssensor
    18
    Bildsensor
    20
    Objekt
    22
    Sichtfeld
    24
    Eingangsschnittstelle
    26
    Rastereinheit
    28
    Bildverarbeitungseinheit
    30
    Auswerteeinheit
    32
    Scanpunkt
    33
    blockierter Bereich
    34
    Datenbank
    36
    vorbekanntes Objekt
    38
    Mobilkommunikationseinheit
    40
    Bewegungssensor

Claims (12)

  1. Vorrichtung (14) zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit: einer Eingangsschnittstelle (24) zum Empfangen von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen einem Objekt (20) in einer Umgebung eines Fahrzeugs (10) und dem Fahrzeug sowie von Bilddaten eines Bildsensors (18) mit Informationen zu dem Objekt; einer Rastereinheit (26) zum Erzeugen einer Rasterdarstellung der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten; einer Bildverarbeitungseinheit (28) zum Identifizieren des Objekts basierend auf den Bilddaten; und einer Auswerteeinheit (30) zum Ermitteln eines blockierten Bereichs (33) eines Sichtfelds (22) des Umgebungssensors basierend auf einer Zuordnung des identifizierten Objekts zu der Rasterdarstellung.
  2. Vorrichtung (14) nach Anspruch 1, wobei die Rastereinheit (26) zum Erzeugen einer zweidimensionalen Rasterdarstellung ausgebildet ist.
  3. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Rastereinheit (26) zum Erzeugen der Rasterdarstellung basierend auf einer Akkumulation der Umgebungssensordaten über mehrere Messzyklen des Umgebungssensors (16) ausgebildet ist.
  4. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Rastereinheit (26) zum Erzeugen eines Evidential Grids, eines Occupancy Grids und/oder eines Freespace Grids der Umgebung des Fahrzeugs (10) ausgebildet ist.
  5. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Auswerteeinheit (30) zum Ermitteln des blockierten Bereichs (33) basierend auf einer Erkennung eines Erwartungsbereichs des identifizierten Objekts ausgebildet ist, wobei der Erwartungsbereich einem Bereich des Sichtfelds (22) entspricht, der dem identifizierten Objekt zugeordnet ist, der jedoch ein näheres Objekt umfasst.
  6. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Bildverarbeitungseinheit (28) zum Identifizieren des Objekts (20) basierend auf einer semantischen Segmentierung, einer Auswertung eines optischen Flusses und/oder einer punktbasierten dreidimensionalen Tiefenschätzung ausgebildet ist.
  7. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Eingangsschnittstelle (24) zum Empfangen von Bilddaten einer Stereokamera ausgebildet ist.
  8. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Eingangsschnittstelle (24) zum Empfangen von Kartendaten mit Informationen zu einem vorbekannten Objekt (36) in der Umgebung des Fahrzeugs (10) von einer Datenbank (34) ausgebildet ist; und die Auswerteeinheit (30) zum Ermitteln des blockierten Bereichs (33) des Sichtfelds (22) basierend auf einer Zuordnung des vorbekannten Objekts zu der Rasterdarstellung ausgebildet ist.
  9. Vorrichtung (14) nach einem der vorstehenden Ansprüche, wobei die Eingangsschnittstelle (24) zum Empfangen von Bewegungsdaten eines Bewegungssensors mit Informationen über eine Bewegung des Fahrzeugs (10) in Bezug zu der Umgebung ausgebildet ist; und die Rastereinheit (26) zum Kompensieren der Bewegung des Fahrzeugs beim Erzeugen der Rasterdarstellung basierend auf den Bewegungsdaten ausgebildet ist.
  10. System (12) zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit: einem Umgebungssensor zum Erfassen von Abständen zwischen einem Fahrzeug (10) und einem Objekt (20) in einer Umgebung des Fahrzeugs; einem Bildsensor (18) zum Erfassen eines Bilds des Objekts; und einer Vorrichtung (14) nach einem der Ansprüche 1 bis 9.
  11. Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors (16), mit den Schritten: Empfangen (S10) von Umgebungssensordaten des Umgebungssensors mit Informationen zu Abständen zwischen einem Objekt (20) in einer Umgebung eines Fahrzeugs (10) und dem Fahrzeug sowie von Bilddaten eines Bildsensors (18) mit Informationen zu dem Objekt; Erzeugen (S12) einer Rasterdarstellung der Umgebung des Fahrzeugs basierend auf den Umgebungssensordaten; Identifizieren (S14) des Objekts basierend auf den Bilddaten; und Ermitteln (S16) eines blockierten Bereichs (33) eines Sichtfelds (22) des Umgebungssensors basierend auf einer Zuordnung des identifizierten Objekts zu der Rasterdarstellung.
  12. Computerprogrammprodukt mit Programmcode zum Durchführen der Schritte des Verfahrens nach Anspruch 11, wenn der Programmcode auf einem Computer ausgeführt wird.
DE102018220114.5A 2018-11-23 2018-11-23 Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors Pending DE102018220114A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018220114.5A DE102018220114A1 (de) 2018-11-23 2018-11-23 Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018220114.5A DE102018220114A1 (de) 2018-11-23 2018-11-23 Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors

Publications (1)

Publication Number Publication Date
DE102018220114A1 true DE102018220114A1 (de) 2020-05-28

Family

ID=70545693

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018220114.5A Pending DE102018220114A1 (de) 2018-11-23 2018-11-23 Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors

Country Status (1)

Country Link
DE (1) DE102018220114A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022128206A1 (de) 2020-12-18 2022-06-23 Mercedes-Benz Group AG Verfahren zum betreiben eines lichtassistenzsystems
US20230150525A1 (en) * 2021-11-17 2023-05-18 Ford Global Technologies, Llc Dynamic sensor model to adapt vehicle modifications and transformation
WO2023150465A1 (en) * 2022-01-31 2023-08-10 Motional Ad Llc Methods and systems for measuring sensor visibility

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022128206A1 (de) 2020-12-18 2022-06-23 Mercedes-Benz Group AG Verfahren zum betreiben eines lichtassistenzsystems
DE102020007759A1 (de) 2020-12-18 2022-06-23 Mercedes-Benz Group AG Verfahren zum Betreiben eines Lichtassistenzsystems
US20230150525A1 (en) * 2021-11-17 2023-05-18 Ford Global Technologies, Llc Dynamic sensor model to adapt vehicle modifications and transformation
WO2023150465A1 (en) * 2022-01-31 2023-08-10 Motional Ad Llc Methods and systems for measuring sensor visibility

Similar Documents

Publication Publication Date Title
DE102011117585B4 (de) Systeme und Verfahren zum Verfolgen von Objekten
EP2629243A1 (de) Verfahren zum Erkennen und Verfolgen von Fahrspurmarkierungen
DE102015115012A1 (de) Verfahren zum Erzeugen einer Umgebungskarte einer Umgebung eines Kraftfahrzeugs anhand eines Bilds einer Kamera, Fahrerassistenzsystem sowie Kraftfahrzeug
EP2951804A1 (de) Erstellen eines umfeldmodells für ein fahrzeug
EP3038011A1 (de) Verfahren zum Bestimmen des Abstands eines Objekts von einem Kraftfahrzeug mittels einer monokularen Bilderfassungseinrichtung
DE102018220114A1 (de) Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102018133441A1 (de) Verfahren und System zum Bestimmen von Landmarken in einer Umgebung eines Fahrzeugs
DE102016003261A1 (de) Verfahren zur Selbstlokalisierung eines Fahrzeugs in einer Fahrzeugumgebung
DE102015213558A1 (de) Vorrichtung und Verfahren zur Fusion zweier Hinderniskarten zur Umfelddetektion
DE102017212513A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
WO2015090691A1 (de) Verfahren zum erzeugen eines umgebungsmodells eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102018005969A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsvstems mit zwei Erfassungseinrichtungen
DE102014202503A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Abstands eines Fahrzeugs zu einem verkehrsregelnden Objekt
EP3637311A1 (de) Vorrichtung und verfahren zum ermitteln von höheninformationen eines objekts in einer umgebung eines fahrzeugs
DE102018220113A1 (de) Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors
DE102018202753A1 (de) Verfahren zur Ermittlung einer Entfernung zwischen einem Kraftfahrzeug und einem Objekt
DE102020200876B4 (de) Verfahren zum Verarbeiten von Sensordaten einer Sensorik eines Fahrzeugs
DE102011111856B4 (de) Verfahren und Vorrichtung zur Detektion mindestens einer Fahrspur in einem Fahrzeugumfeld
DE102019218059A1 (de) Erkennung länglicher Objekte
DE102019127322A1 (de) Verfahren zur Erfassung von Objekten in einer Fahrzeugumgebung, Vorrichtung zur Datenverarbeitung, Computerprogrammprodukt und computerlesbarer Datenträger
DE102012008780A1 (de) Verfahren und Einrichtung zur Erfassung wenigstens eines Fahrbahnrandes und Kraftfahrzeug
EP2048618A1 (de) Verfahren zur Objekterfassung
DE102017216802A1 (de) Verfahren und vorrichtung zum erkennen von fahrspuren, fahrerassistenzsystem und fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed