DE102014201158A1 - Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts - Google Patents

Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts Download PDF

Info

Publication number
DE102014201158A1
DE102014201158A1 DE102014201158.2A DE102014201158A DE102014201158A1 DE 102014201158 A1 DE102014201158 A1 DE 102014201158A1 DE 102014201158 A DE102014201158 A DE 102014201158A DE 102014201158 A1 DE102014201158 A1 DE 102014201158A1
Authority
DE
Germany
Prior art keywords
relevant object
information
sensor
relevant
occlusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102014201158.2A
Other languages
English (en)
Inventor
Marc Hegen
Gergely Dian
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102014201158.2A priority Critical patent/DE102014201158A1/de
Publication of DE102014201158A1 publication Critical patent/DE102014201158A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • B60W30/16Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Überprüfen eines von einer Objekterkennung (104) für ein Fahrerassistenzsystem (108) erkannten relevanten Objekts (122), wobei das Verfahren einen Schritt des Einlesens einer Information über das relevante Objekt (122) umfasst, wobei die Information eine von der Objekterkennung (104) bereitgestellte Information repräsentiert. Ferner umfasst das Verfahren einen Schritt des Einlesens eines Verdeckungssignals, das das Vorhandensein einer Verdeckung eines in Bezug zu dem relevanten Objekt (122) stehenden weiteren relevanten Objekts (120) innerhalb eines Sichtbereichs der Objekterkennung (104) anzeigt, und einen Schritt des Plausibilisierens der Information über das relevante Objekt (122) unter Verwendung des Verdeckungssignals.

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren und eine Vorrichtung zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts.
  • Durch eine Objekterkennung können beispielsweise Verkehrszeichen erkannt werden, die sich am Fahrbahnrand einer von einem Fahrzeug befahrenen Straße befinden. Von der Objekterkennung bereitgestellte Informationen können beispielsweise von einem Fahrerassistenzsystem verwendet werden.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund wird mit dem hier vorgestellten Ansatz ein Verfahren zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts, weiterhin eine entsprechende Vorrichtung sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Es wird ein Verfahren zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts vorgestellt, wobei das Verfahren die folgenden Schritte umfasst:
    Einlesen einer Information über das relevante Objekt, wobei die Information eine von der Objekterkennung bereitgestellte Information repräsentiert;
    Einlesen eines Verdeckungssignals, das das Vorhandensein einer Verdeckung zumindest eines in Bezug zu dem relevanten Objekt stehenden weiteren relevanten Objekts innerhalb eines Sichtbereichs der Objekterkennung anzeigt; und
  • Plausibilisieren der Information über das relevante Objekt unter Verwendung des Verdeckungssignals.
  • Die Objekterkennung kann ausgebildet sein, um beispielsweise durch Auswertung von Bildern eines Umfelderfassungssensors eines Fahrzeugs, Objekte im Umfeld des Fahrzeugs zu erkennen. Dazu kann auf geeignete bekannte Verfahren zur Objekterkennung zurückgegriffen werden. Ein relevantes Objekt kann beispielsweise ein Verkehrszeichen sein. Die Information über das relevante Objekt kann beispielsweise Daten über die Art und/oder Position des von der Objekterkennung erkannten relevanten Objekts umfassen. Das weitere relevante Objekt kann ein Objekt darstellen, das in einem öffentlich bekannten Zusammenhang zu dem relevanten Objekt steht. Beispielsweise kann das weitere relevante Objekt in einem Straßenverlauf örtlich vor dem relevanten Objekt angeordnet sein, und beispielsweise als eine Vorbereitung auf das relevante Objekt angesehen werden. Beispielsweise kann ein Abstand zwischen dem relevanten Objekt und dem weiteren relevanten Objekt bekannt sein. Gemäß einer Ausführungsform kann unter Kenntnis des weiteren relevanten Objekts und unter Kenntnis des bekannten Zusammenhang zwischen dem relevanten Objekt und dem weiteren relevanten Objekt auf ein Vorhandensein und/oder eine Art des relevanten Objekts geschlossen werden. Eine Verdeckung kann durch ein Verdeckungsobjekt, beispielsweise in Form eines Fahrzeugs, einer Person, eines Gegenstands oder durch Witterungseinflüsse, beispielsweise starker Regen oder Nebel, hervorgerufen sein. Die Verdeckung kann bewirken, dass das weitere relevante Objekt außerhalb eines Sichtbereichs eines Sensors der Objekterkennung liegt und somit durch die Objekterkennung nicht erkannt werden kann. Im Schritt des Plausibilisierens kann unter Verwendung des Verdeckungssignals geprüft werden, ob die Information über das relevante Objekt plausibel oder unplausibel ist.
  • Ein Fahrerassistenzsystem kann ausgebildet sein, um Signale aus der Distanz verarbeiten zu können, um relevante Informationen herauszufiltern. Diese relevanten Informationen können entweder auf Basis von Ultraschall, Radar oder Video detektiert werden. Beispielsweise kann das Fahrerassistenzsystem eine Verkehrszeichenanzeige umfassen. Die Verkehrszeichenanzeige kann als Eingangsdaten Daten von einer Karte und von einer Kamera erhalten. Entsprechend verschiedener Regeln kann entschieden werden, ob ein Verkehrszeichen dem Fahrer angezeigt wird oder nicht.
  • Vorteilhafterweise können solche Systeme ausgebildet sein, um zum einen darauf zu schauen, welche Objekte sie sehen, und zum anderen zu prüfen, welche Objekte momentan nicht sichtbar sind, z. B. da sie von anderen Objekten verdeckt werden. Diese Information kann z. B. bei einer Funktion wie der Verkehrszeichenanzeige sehr wichtig sein.
  • Beispielsweise kann das Verfahren zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts dazu die folgenden Schritte umfassen:
    Einlesen einer Information über eine mögliche Position des weiteren relevanten Objekts innerhalb eines angenommenen Sichtbereichs eines Sensors der Objekterkennung;
    Analysieren eines tatsächlichen Sichtbereichs des Sensors, um das Vorhandensein der Verdeckung des weiteren relevanten Objekts zu erkennen; und
    Bereitstellen des Verdeckungssignals, das das Vorhandensein der Verdeckung des weiteren relevanten Objekts anzeigt, wenn im Schritt des Analysierens das Vorhandensein der Verdeckung erkannt wird.
  • Die mögliche Position kann beispielsweise eine aus einer Karte entnommene Position oder eine allgemein bekannte Position sein. Der tatsächliche Sichtbereich des Sensors kann beispielsweise durch Auswerten eines von dem Sensor aufgenommenen Bildes analysiert werden. Zum Erkennen einer Verdeckung kann beispielsweise eine Objekterkennung durchgeführt werden oder es können äußere Grenzen des tatsächlichen Sichtbereichs ausgewertet werden. Durch das Verdeckungssignal kann angezeigt werden, dass sich das weitere relevante Objekt zu einem Zeitpunkt einer möglichen Detektion durch den Sensor aufgrund der Verdeckung außerhalb des tatsächlichen Sichtbereichs des Sensors befunden hat und somit von der Objekterkennung nicht erkannt werden konnte.
  • Dazu kann im Schritt des Analysierens ein einen verdeckten Bereich erzeugendes Verdeckungsobjekt innerhalb des tatsächlichen Sichtbereichs bestimmt werden. In einem Schritt des Vergleichens kann die mögliche Position des weiteren relevanten Objekts mit dem verdeckten Bereich verglichen werden, um das Vorhandensein der Verdeckung des weiteren relevanten Objekts zu erkennen. Auf diese Weise kann durch einen einfachen Vergleich festgestellt werden, ob das weitere relevante Objekt von der Objekterkennung erkannt werden konnte, oder nicht.
  • Auch kann im Schritt des Analysierens ein sich auf einer Sichtachse zwischen dem Sensor und der möglichen Position des weiteren relevanten Objekts befindliches Verdeckungsobjekt innerhalb des tatsächlichen Sichtbereichs gesucht werden, um das Vorhandensein der Verdeckung des weiteren relevanten Objekts zu erkennen. Auf diese Weise kann sehr direkt nach einer möglichen Verdeckung gesucht werden.
  • Ferner kann im Schritt des Analysierens eine Information über das Vorhandensein einer sich zwischen einer aktuellen Fahrspur des Fahrzeugs und der möglichen Position befindlichen weiteren Fahrspur ausgewertet werden, um das Vorhandensein der Verdeckung des weiteren relevanten Objekts zu erkennen. Die Information über das Vorhandensein der weiteren Fahrspur kann beispielsweise von der Objekterkennung oder einer Einrichtung zur Positionsbestimmung bereitgestellt werden. Durch die Kenntnis über das Vorhandensein oder Nichtvorhandensein einer weiteren Fahrspur zwischen dem weiteren relevanten Objekt und dem Sensor kann eine Wahrscheinlichkeit dafür bestimmt werden, ob das weitere relevante Objekt durch ein Fremdfahrzeug verdeckt sein könnte oder nicht.
  • Beispielsweise kann das Vorhandensein der Verdeckung ausgeschlossen werden, wenn sich zwischen der aktuellen Fahrspur des Fahrzeugs und der möglichen Position keine weitere Fahrspur befindet. Dies ermöglicht eine sehr einfache Entscheidung bezüglich der Möglichkeit des Erkennens des weiteren relevanten Objekts.
  • Im Schritt des Analysierens kann der tatsächliche Sichtbereich des Sensors unter Verwendung von Daten analysiert werden, die von dem Sensor oder einem weiteren Sensor des Fahrzeugs bereitgestellt werden. Auf diese Weise können Daten eventuell am Fahrzeug verbauter weiterer Sensoren einbezogen werden.
  • Gemäß einer Ausführungsform kann das relevante Objekt ein eine Geschwindigkeitsbegrenzung anzeigendes Verkehrszeichen sein. Das weitere relevante Objekt kann ein die Geschwindigkeitsbegrenzung vorbereitendes Verkehrszeichen sein. Auch kann das relevante Objekt ein Verkehrszeichen in Form eines Gefahrzeichens oder eines Vorschriftzeichens und das weitere relevante Objekt ein weiteres Gefahrenzeichen oder Vorschriftzeichen sein. Beispielsweise kann eine von dem weiteren relevanten Objekt dargestellte Information einen Hinweis auf die von dem relevanten Objekt dargestellte Information sein. Auch kann ein bekannter Zusammenhang zwischen den Informationen bestehen, die durch das relevante Objekt und das weitere relevante Objekt angezeigt werden.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Eine entsprechende Vorrichtung zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts weist die folgenden Merkmale auf:
    eine Einleseeinrichtung zum Einlesen einer Information über das relevante Objekt, wobei die Information eine von der Objekterkennung bereitgestellte Information repräsentiert;
    eine Einleseeinrichtung zum Einlesen eines Verdeckungssignals, das das Vorhandensein einer Verdeckung eines in Bezug zu dem relevanten Objekt stehenden weiteren relevanten Objekts innerhalb eines Sichtbereichs der Objekterkennung anzeigt; und
    eine Plausibilisierungseinrichtung zum Plausibilisieren der Information über das relevante Objekt unter Verwendung des Verdeckungssignals.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programmprodukt auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Der hier vorgestellte Ansatz wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung eines Fahrzeugs gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 2 ein Blockschaltbild einer Vorrichtung zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 3 eine Situation einer Verdeckung eines Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 4 eine Situation einer Verdeckung eines Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung;
  • 5 eine Darstellung möglicher Positionen eines Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung; und
  • 6 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel der vorliegenden Erfindung.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung eines Fahrzeugs 100 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Fahrzeug 100 weist einen Sensor 102 auf, der beispielsweise als ein bildgebender Sensor, ein optischer Sensor, ein Videosensor, ein Ultraschallsensor oder ein Radarsensor ausgeführt sein kann. Beispielsweise kann der Sensor 102 auch ein Lidar- oder Ladar-Sensor sein oder Teil eines Surround-Systems sein, wie z. B. eine Nahbereichskamera, eine sogenannte Near Range Camera. Der Sensor 102 kann Teil einer Umfeldsensorik des Fahrzeugs 100 sein. Der Sensor 102 ist ausgebildet, um ein Umfeld des Fahrzeugs 100 zu erfassen und durch Sensorsignale abzubilden. Das Fahrzeug 100 weist ferner eine Einrichtung 104 zur Objekterkennung auf, die ausgebildet ist, um Daten oder Sensorsignale des Sensors 102 zu empfangen und auszuwerten. Insbesondere ist die Einrichtung 104 ausgebildet, um durch den Sensor 102 erfasste Objekte zu erkennen und Informationen über erkannten Objekte bereitzustellen. Eine Vorrichtung 106 zum Überprüfen eines von der Objekterkennung 104 erkannten Objekts ist ausgebildet, um die von der Einrichtung 104 bereitgestellten Informationen über erkannte Objekte zu überprüfen und als überprüfte Information beispielsweise an ein Fahrerassistenzsystem oder Fahrerassistenzsystem 108 des Fahrzeugs 100 bereitzustellen.
  • Gemäß diesem Ausführungsbeispiel fährt das Fahrzeug 100, beispielsweise ein Kraftfahrzeug wie ein Personenkraftwagen, ein Lastkraftwagen oder ein Motorrad, auf einer mittleren Fahrspur 110 einer Straße. Auf einer in Fahrtrichtung des Fahrzeugs 100 links neben dem Fahrzeug 100 liegenden weiteren Fahrspur 112 fährt ein weiteres Fahrzeug 115 versetzt vor dem Fahrzeug 100. Am linken Fahrbahnrand sind beispielhaft ein erstes Verkehrszeichen 120 und ein zweites Verkehrszeichen 122 gezeigt. Das zweite Verkehrszeichen 122 ist in Fahrtrichtung des Fahrzeugs 100 hinter dem ersten Verkehrszeichen 120 angeordnet.
  • Gemäß diesem Ausführungsbeispiel befinden sich die beiden Verkehrszeichen 120, 122 beide in einem angenommenen Sichtbereich 130 des Sensors 102. Der angenommene Sichtbereich 130 kann einen Sichtbereich beschreiben, der von dem Sensor 102 unter idealen Bedingungen abgedeckt werden kann. Der tatsächliche Sichtbereich des Sensors 102 ist aufgrund von Verdeckungen im Allgemeinen kleiner als der tatsächliche Sichtbereich. Beispielsweise stellt das weitere Fahrzeug 115 eine solche Verdeckung dar, die dazu führt, dass sich das erste Verkehrszeichen 120 aus Sicht des Sensors 102 in einem verdeckten Bereich 132 befindet und somit für den Sensor 102 nicht sichtbar ist.
  • In einem zu dem in 1 gezeigten Zeitpunkt aufgenommenen Bild des Sensors 102 ist für die Objekterkennung 104 somit nur das zweite Verkehrszeichen 122 nicht jedoch das erste Verkehrszeichen 120 zu erkennen. Um die von der Objekterkennung 104 bereitgestellte Information über das zweite Verkehrszeichen 122 überprüfen zu können, kann die Vorrichtung 106 zum Überprüfen eine Information über sich innerhalb des angenommenen Sichtbereichs 130 des Sensors 102 befindliche Verdeckungen, wie die durch das weitere Fahrzeug 115 hervorgerufene Verdeckung empfangen und zum Überprüfen der Information über das zweite Verkehrszeichen 122 verwenden.
  • Dies ist insbesondere vorteilhaft, wenn es sich bei dem zweiten Verkehrszeichen 122 um ein, beispielsweise für das Fahrerassistenzsystem 108, relevantes Objekt handelt, das durch das Vorhandensein des ersten Verkehrszeichens 120, das ein weiteres relevantes Objekt darstellen kann, verifiziert werden kann. Beispielsweise kann das zweite Verkehrszeichen 122 eine Information anzeigen, die zwingend das vorherige Vorhandensein des ersten Verkehrszeichens 120 voraussetzt, das eine vorbereitende Information anzeigt. Beispielsweise kann das erste Verkehrszeichen einen Beginn einer Geschwindigkeitsbegrenzung anzeigen, die durch das zweite Verkehrszeichen weiter verschärft werden kann. Wird das erste Verkehrszeichen 120 aufgrund der Verdeckung durch das weitere Fahrzeug 115 von der Objekterkennung 104 nicht erkannt, so könnte dies dazu führen, dass die von der Objekterkennung 104 bezüglich des zweiten Verkehrszeichens bereitgestellte Information als fehlerhaft bewertet und eventuell verworfen wird, da sie aufgrund des Fehlens des ersten Verkehrszeichens 120 als nicht plausibel erscheint. Ist jedoch bekannt, das das erste Verkehrszeichen 120 aufgrund einer Verdeckung gar nicht erkannt werden konnte, so kann dies Information verwendet werden, um die von der Objekterkennung 104 bezüglich des zweiten Verkehrszeichens 122 bereitgestellte Information trotz Nicht-Erkennens des ersten Verkehrszeichens 120 dennoch als fehlerfrei zu bewerten. Eine solche Überprüfung oder Bewertung kann beispielsweise von der in 1 gezeigten Vorrichtung 106 durchgeführt werden.
  • Die in 1 gezeigten Elemente 102, 104, 106, 108 können dabei in geeigneter Weise, beispielsweise als separate oder als kombinierte Einrichtungen realisiert sein.
  • Während der Fahrt des Fahrzeugs 100 kann von dem Sensor 102 eine Mehrzahl an Bildern aufgenommen werden, in denen die Verkehrszeichen 120, 122 durch die Objekterkennung 104 erkannt werden können. Die Mehrzahl von Bildern können wie einzeln ausgewertet werden oder miteinander kombiniert werden, um die von der Objekterkennung 104 bezüglich des zweiten Verkehrszeichens 122 bereitgestellte Information überprüfen zu können.
  • Die Verkehrszeichen 120, 122 sind nur beispielhaft für relevante Objekte gewählt. Auch können mehr als zwei Verkehrszeichen 120, 122 bzw. mehr als zwei relevante Objekte ausgewertet oder überprüft werden. Beispielsweise können zwei oder mehr weitere relevante Objekte 120, die in einem bekannten Bezug zu dem relevanten Objekt 122 stehen, bei der Prüfung der Erkennung des relevanten Objekts 122 berücksichtigt werden. Beispielsweise kann dazu überprüft werden, ob eine Verdeckung aller oder zumindest eines der Mehrzahl von weiteren relevanten Objekten 120 vorliegt oder vorgelegen hat. Auf diese Weise kann beispielsweise eine dem relevanten Objekt 120 zugeordnete Warnkaskade, die aus der Mehrzahl von weiteren relevanten Objekten 120 aufgebaut ist, bei der Überprüfung der Erkennung des relevanten Objekts 122 angemessen berücksichtigt werden, auch wenn zumindest eines der weiteren relevanten Objekte 120 aufgrund einer Verdeckung nicht erkannt werden kann oder nicht erkannt werden konnte. Somit können die Verkehrszeichen 120, 122 Teil einer Verkehrszeichenkaskade sein. Dabei kann ein öffentlich bekannter Zusammenhang zwischen aufeinanderfolgenden Verkehrszeichen der Verkehrszeichenkaskade bestehen. Der bekannte Zusammenhang kann sich beispielsweise auf die von den Verkehrszeichen 120, 122 angezeigten Informationen und/oder einen Abstand zwischen den Verkehrszeichen 120, 122 beziehen.
  • Im Folgenden werden Ausführungsbeispiele zur Erkennung von Verdeckung relevanter Objekte durch andere Objekte näher beschrieben.
  • Funktionen, beispielsweise von oder für Fahrerassistenzsysteme können ihr Verhalten auch optimieren, wenn sie wissen, was in der Vergangenheit nicht gesehen werden konnte. Dies wird am Beispiel der Verkehrszeichenerkennung näher erläutert.
  • Auf einer Autobahn muss eine Warnkaskade vorhanden sein. Also die Zeichen 120, 100 und 80 müssen zwingen vorher vorhanden gewesen sein, bevor ein Verkehrszeichen mit einer 60 dort stehen darf. Das Verkehrszeichen mit der 60 kann in 1 das Verkehrszeichen 122 sein. Das Verkehrszeichen mit der 80 kann in 1 das Verkehrszeichen 120 sein. Innerhalb der Funktion, beispielsweise eines Fahrerassistenzsystems oder einer Objekterkennung, wird dieses Wissen verwendet, um Fehldetektionen des Sensors 102, hier beispielsweise einer Kamera, zu verwerfen.
  • Erkennt die Kamera, die den in 1 gezeigten Sensor 102 und die gezeigte Einrichtung 104 zur Objekterkennung umfassen kann, auf einmal das Verkehrszeichen 122 mit der Beschränkung auf 60 km/h, ohne vorherige Warnkaskade, also ohne zumindest das Verkehrszeichen 120, so wird die Ausgabe der Erkennung der Beschränkung auf 60 km/h ohne den erfindungsgemäßen Ansatz verhindert, da es sich mit hoher Wahrscheinlichkeit um einen Fehler handelt.
  • Genau an der Stelle hilft der erfindungsgemäße Ansatz. Mithilfe einer zusätzlichen Funktionalität weiß die Funktion, ob es theoretisch überhaupt möglich war Verkehrszeichen, insbesondere das Verkehrszeichen 120, auf den letzten Kilometern vor dem relevanten Verkehrszeichen 122 zu sehen, oder ob diese z. B. durch ein Fahrzeug 115, beispielsweise einen SUV, auf der linken und einen Bus auf der rechten Seite verdeckt wurden.
  • Ist eine solche Verdeckung der Fall, kann das Verhalten der Funktion angepasst werden. Das System erreicht somit eine höhere Performance.
  • Die vorgeschlagene Funktion verwendet gemäß einem Ausführungsbeispiel als Eingangsdaten die verarbeiteten Daten von weiteren Sensoren des Fahrzeugs 100. So können z. B. für eine Verkehrszeichenfunktion Informationen einer Spurerkennung und/oder einer Objekterkennung herangezogen werden.
  • Die Spurerkennung liefert einen Hinweis auf die interessante Region (ROI = Region of Interest) in der ein Schild stehen kann, also beispielsweise auf eine mögliche Position des Verkehrszeichens 120. Befindet sich das Fahrzeug 100 z. B. auf der äußersten linken Spur 112, dann kann kein anderes Objekt 115 mehr eine Sichtbehinderung auf der linken Seite erzeugen. Es kann somit davon ausgegangen werden, dass das Verkehrszeichen 120 für den Sensor 102 sichtbar ist.
  • Die Objekterkennung 104 liefert sehr wichtige Eingangsdaten. Mit deren Hilfe lassen sich Positionen 132 bestimmen, welche von anderen Objekten 115 verdeckt werden. Über ein Verfolgen (Tracking) können blinde Bereiche 132 aufgebaut werden, welche durch andere Objekte 115 überdeckt waren. Diese Information wird anderen Funktionen (wie z. B. der Verkehrszeichenanzeige) bereitgestellt. Durch einen Abgleich mit der interessanten Region (ROI) kann die Funktion entscheiden, ob ein Objekt 120 prinzipiell sichtbar war und den eigenen Regelsatz durch diese Informationen umparametrisieren.
  • 2 zeigt ein Blockschaltbild einer Vorrichtung 106 zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Bei dem relevanten Objekt kann es sich beispielsweise um das in 1 gezeigte zweite Verkehrszeichen handeln, das von der in 1 gezeigten Einrichtung zur Objekterkennung erkannt worden ist.
  • Die Vorrichtung 106 weist eine erste Einleseeinrichtung 241, eine zweite Einleseeinrichtung 243 und eine Plausibilisierungseinrichtung 245 auf. Die erste Einleseeinrichtung 241 ist ausgebildet, um über eine Schnittstelle eine Information über das von der Objekterkennung erkannte relevante Objekt einzulesen. Die zweite Einleseeinrichtung 243 ist ausgebildet, um ein Verdeckungssignal über eine Schnittstelle einzulesen. Das Verdeckungssignal zeigt das Vorhandensein einer Verdeckung an, aufgrund der ein in Bezug zu dem relevanten Objekt stehendes weiteres relevantes Objekt, beispielsweise das in 1 gezeigte erste Verkehrszeichen, von der Objekterkennung nicht erkannt werden kann. Die Plausibilisierungseinrichtung 245 ist ausgebildet, um die Information über das relevante Objekt unter Verwendung des Verdeckungssignals zu plausibilisieren. Beispielsweise kann die Plausibilisierungseinrichtung 245 ausgebildet sein, um die Information über das relevante Objekt als plausibel zu bezeichnen, wenn das weitere relevante Objekt nicht erkannt wurde, also beispielsweise von der ersten Einleseeinrichtung 241 keine Information über das von der Objekterkennung erkannte weitere relevante Objekt empfangen wurde, dafür aber von dem Verdeckungssignal eine Verdeckung des weiteren relevanten Objekts angezeigt wird. Die Plausibilisierungseinrichtung 245 ist gemäß diesem Ausführungsbeispiel ausgebildet, um eine plausibilisierte Information über das von der Objekterkennung erkannte relevante Objekt auszugeben. Die plausibilisierte Information kann beispielsweise von einem Fahrerassistenzsystem weiterverwendet werden. Beispielsweise kann dem Fahrer ein Hinweis auf das erkannte relevante Objekt gegeben werden.
  • Gemäß einem Ausführungsbeispiel weist die Vorrichtung 106 ferner eine weitere Einleseeinrichtung 251, eine Analyseeinrichtung 253 und eine Bereitstellungseinrichtung 255 auf.
  • Die Einleseeinrichtung 251 ist ausgebildet, um über eine Schnittstelle eine Information über eine mögliche Position des weiteren relevanten Objekts einzulesen. Die Information über die mögliche Position kann beispielsweise auf einem Kartenmaterial oder auf einer allgemein bekannten Position basieren. Beispielsweise kann die mögliche Position einen bestimmten Bereich innerhalb eines von dem Sensor erfassten Abbilds des Umfelds des Fahrzeugs definieren. Die Analyseeinrichtung 253 ist ausgebildet, um eines tatsächlichen Sichtbereich des Sensors zu analysieren. Durch das Analysieren des tatsächlichen Sichtbereichs kann eine Verdeckung des relevanten Objekts erkannt werden.
  • Beispielsweise kann dazu zunächst ein verdeckter Bereich innerhalb des Sichtbereichs des Sensors bestimmt und anschließend der verdeckte Bereich mit der möglichen Position des weiteren relevanten Objekts verglichen werden. Wird die mögliche Position von dem verdeckten Bereich umfasst, so liegt eine Verdeckung des weiteren relevanten Objekts vor.
  • Ferner kann eine Sichtachse zwischen dem Sensor und der möglichen Position bestimmt werden und es können beispielsweise von dem Sensor bereitgestellte Bilddaten auf ein auf dieser Sichtachse liegendes und sich von dem weiteren relevanten Objekt unterscheidendes Objekt hin untersucht werden. Liegt auf der Sichtachse ein von dem weiteren relevanten Objekt unterscheidendes Objekt, so liegt eine Verdeckung des weiteren relevanten Objekts vor.
  • Auch kann analysiert werden, ob sich zwischen der möglichen Position und dem Sensor eine weitere Fahrspur befindet, auf der sich weitere Fahrzeuge befinden können, die eine Verdeckung des weiteren relevanten Objekts hervorrufen können. Befindet sich keine weitere Fahrspur zwischen der möglichen Position und dem Sensor, so kann mit einer großen Wahrscheinlichkeit davon ausgegangen werden, dass keine Verdeckung des weiteren relevanten Objekts vorliegt.
  • Dabei kann die Analyseeinrichtung 253 ausgebildet sein, um sowohl Daten des Sensors als auch Daten eines oder mehrerer weiterer Sensoren oder Einrichtungen des Fahrzeugs auszuwerten, um den Sichtbereich des Sensors im Hinblick auf mögliche Verdeckungen zu analysieren.
  • Die Bereitstellungseinrichtung 255 ist ausgebildet, um unter Verwendung eines von der Analyseeinrichtung 253 bereitgestellten Analyseergebnisses, das beispielsweise das Vorhandensein oder Nicht-Vorhandensein einer Verdeckung des weiteren relevanten Objekts anzeigt, ein Verdeckungssignal bereitzustellen.
  • Bereitstellen des Verdeckungssignals, das das Vorhandensein der Verdeckung des weiteren relevanten Objekts anzeigt, wenn im Schritt des Analysierens das Vorhandensein der Verdeckung erkannt wird.
  • 3 zeigt eine Situation einer Verdeckung eines Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Dabei ist ein erstes Verkehrszeichen 120 aufgrund einer Verdeckung durch ein sich auf einer linken Fahrspur 112 befindliches Fahrzeug 115 verdeckt. Konkret ist auf der linken Seite das Verkehrszeichen 120 durch einen SUV verdeckt. Ein zweites Verkehrszeichen 122 ist dagegen sichtbar. Wird das in 3 gezeigte Bild von einer Objekterkennung ausgewertet, so kann das zweite Verkehrszeichen 122 erkannt werden, das erste Verkehrszeichen 120 jedoch nicht. Allerdings kann ein durch das Fahrzeug 115 verdeckter Bereich ermittelt werden und dadurch auf eine Verdeckung des ersten Verkehrszeichens 120 geschlossen werden.
  • 4 zeigt eine Situation einer Verdeckung eines Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Dabei ist ein erstes Verkehrszeichen 120 am rechten Fahrbahnrand aufgrund einer Verdeckung durch ein sich auf einer rechten Fahrspur befindliches Fahrzeug 115 verdeckt. Konkret ist auf der rechten Seite das Verkehrszeichen 120 durch einen LKW verdeckt. Ein zweites Verkehrszeichen 122, am linken Fahrbahnrand ist dagegen sichtbar. Wird das in 4 gezeigte Bild von einer Objekterkennung ausgewertet, so kann das zweite Verkehrszeichen 122 erkannt werden, das erste Verkehrszeichen 120 jedoch nicht. Allerdings kann ein durch das Fahrzeug 115 verdeckter Bereich ermittelt werden und dadurch auf eine Verdeckung des ersten Verkehrszeichens 120 geschlossen werden.
  • 5 zeigt eine Darstellung möglicher Positionen 560 eines Objekts 120 gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Die möglichen Positionen 560 werden hier als Region of Interest bezeichnet. In dem in 5 gezeigten Bild, bei dem es sich um ein von einem Sensor erfasstes und einer Objekterkennung zugeführten Bild handeln kann, lässt sich die Trajektorie der Verkehrszeichen 120 sehen, von denen der Übersichtlichkeit halber pro Seit nur eines mit Bezugszeichen versehen ist. Der Bereich 560 kann eindeutig definieren, was der Algorithmus bzw. die Funktion zur Objekterkennung oder zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts 120 beobachten oder analysieren sollte.
  • 6 zeigt ein Ablaufdiagramm eines Verfahrens zum Überprüfen eines von einer Objekterkennung für ein Fahrerassistenzsystem erkannten relevanten Objekts gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Verfahren kann im Zusammenhang mit den vorangegangenen Vorrichtungen und Einrichtungen ausgeführt werden. In einem Schritt 601 erfolgt ein Einlesen einer Information über das relevante Objekt, beispielsweise über eine Schnittstelle zu einer Objekterkennung. In einem Schritt 603 erfolgt ein Einlesen eines Verdeckungssignals, das das Vorhandensein einer Verdeckung eines in Bezug zu dem relevanten Objekt stehenden weiteren relevanten Objekts innerhalb eines Sichtbereichs der Objekterkennung anzeigt. In einem Schritt 605 erfolgt ein Plausibilisieren der Information über das relevante Objekt unter Verwendung des Verdeckungssignals.
  • Der beschriebene Ansatz bietet sich beispielsweise für den Anwendungsfall des automatisierten Fahrens an.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
  • Ferner können die hier vorgestellten Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (10)

  1. Verfahren zum Überprüfen eines von einer Objekterkennung (104) für ein Fahrerassistenzsystem (108) erkannten relevanten Objekts (122), wobei das Verfahren die folgenden Schritte umfasst: Einlesen (601) einer Information über das relevante Objekt (122), wobei die Information eine von der Objekterkennung (104) bereitgestellte Information repräsentiert; Einlesen (603) eines Verdeckungssignals, das das Vorhandensein einer Verdeckung eines in Bezug zu dem relevanten Objekt (122) stehenden weiteren relevanten Objekts (120) innerhalb eines Sichtbereichs der Objekterkennung (104) anzeigt; und Plausibilisieren (605) der Information über das relevante Objekt (122) unter Verwendung des Verdeckungssignals.
  2. Verfahren gemäß Anspruch 1, das ferner die folgenden Schritte umfasst: Einlesen einer Information über eine mögliche Position (560) des weiteren relevanten Objekts (120) innerhalb eines angenommenen Sichtbereichs (130) eines Sensors (102) der Objekterkennung (104); Analysieren eines tatsächlichen Sichtbereichs des Sensors (102), um das Vorhandensein der Verdeckung des weiteren relevanten Objekts (120) zu erkennen; und Bereitstellen des Verdeckungssignals, das das Vorhandensein der Verdeckung des weiteren relevanten Objekts (120) anzeigt, wenn im Schritt des Analysierens das Vorhandensein der Verdeckung erkannt wird.
  3. Verfahren gemäß Anspruch 2, bei dem im Schritt des Analysierens ein einen verdeckten Bereich (132) erzeugendes Verdeckungsobjekt (115) innerhalb des tatsächlichen Sichtbereichs bestimmt wird, und in einem Schritt des Vergleichens die mögliche Position (560) mit dem verdeckten Bereich (132) verglichen wird, um das Vorhandensein der Verdeckung des weiteren relevanten Objekts (120) zu erkennen.
  4. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Analysierens ein sich auf einer Sichtachse zwischen dem Sensor (102) und der möglichen Position (560) befindliches Verdeckungsobjekt (115) innerhalb des tatsächlichen Sichtbereichs gesucht wird, um das Vorhandensein der Verdeckung des weiteren relevanten Objekts (120) zu erkennen.
  5. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Analysierens eine Information über das Vorhandensein einer sich zwischen einer aktuellen Fahrspur (110) des Fahrzeugs (100) und der möglichen Position (560) befindlichen weiteren Fahrspur (112) ausgewertet wird, um das Vorhandensein der Verdeckung des weiteren relevanten Objekts (120) zu erkennen.
  6. Verfahren gemäß Anspruch 5, bei das Vorhandensein der Verdeckung ausgeschlossen wird, wenn sich zwischen der aktuellen Fahrspur (110) des Fahrzeugs (100) und der möglichen Position (560) keine weitere Fahrspur (112) befindet.
  7. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt des Analysierens der tatsächliche Sichtbereich des Sensors (102) unter Verwendung von Daten analysiert wird, die von dem Sensor (102) oder einem weiteren Sensor des Fahrzeugs (100) bereitgestellt werden.
  8. Verfahren gemäß einem der vorangegangenen Ansprüche, bei dem das relevante Objekt (122) ein eine Geschwindigkeitsbegrenzung anzeigendes Verkehrszeichen und das weitere relevante Objekt (120) ein die Geschwindigkeitsbegrenzung vorbereitendes Verkehrszeichen ist.
  9. Vorrichtung (106) zum Überprüfen eines von einer Objekterkennung (104) für ein Fahrerassistenzsystem (108) erkannten relevanten Objekts (122), wobei die Vorrichtung (106) die folgenden Merkmale aufweist: eine Einleseeinrichtung (241) zum Einlesen einer Information über das relevante Objekt (122), wobei die Information eine von der Objekterkennung (104) bereitgestellte Information repräsentiert; eine Einleseeinrichtung (243) zum Einlesen eines Verdeckungssignals, das das Vorhandensein einer Verdeckung eines in Bezug zu dem relevanten Objekt (122) stehenden weiteren relevanten Objekts (120) innerhalb eines Sichtbereichs der Objekterkennung (104) anzeigt; und eine Plausibilisierungseinrichtung (245) zum Plausibilisieren der Information über das relevante Objekt (120) unter Verwendung des Verdeckungssignals.
  10. Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens nach einem der Ansprüche 1 bis 8, wenn das Programmprodukt auf einer Vorrichtung (104) gemäß Anspruch 9 ausgeführt wird.
DE102014201158.2A 2014-01-23 2014-01-23 Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts Pending DE102014201158A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102014201158.2A DE102014201158A1 (de) 2014-01-23 2014-01-23 Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102014201158.2A DE102014201158A1 (de) 2014-01-23 2014-01-23 Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts

Publications (1)

Publication Number Publication Date
DE102014201158A1 true DE102014201158A1 (de) 2015-07-23

Family

ID=53497871

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102014201158.2A Pending DE102014201158A1 (de) 2014-01-23 2014-01-23 Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts

Country Status (1)

Country Link
DE (1) DE102014201158A1 (de)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017194457A1 (de) * 2016-05-10 2017-11-16 Continental Automotive Gmbh Verfahren zur erfassung von verkehrszeichen
WO2017194255A1 (de) * 2016-05-10 2017-11-16 Volkswagen Aktiengesellschaft Verfahren zur fahrsituationsabhängigen wiedergabe einer kartendarstellung in einem fahrzeug
WO2018141447A1 (de) * 2017-02-02 2018-08-09 Robert Bosch Gmbh Verfahren zur lokalisierung eines höher automatisierten, z.b. hochautomatisierten fahrzeugs (haf) in einer digitalen lokalisierungskarte
DE102017205534A1 (de) * 2017-03-31 2018-10-04 Continental Automotive Gmbh Verfahren und Einrichtung zum Aufzeichnen von Verkehrszeichen
DE102018220113A1 (de) * 2018-11-23 2020-05-28 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors
DE102018130919A1 (de) * 2018-12-05 2020-06-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer gegenwärtigen Geschwindigkeitsbeschränkung auf einer Straße in Abhängigkeit von einer ersten Geschwindigkeitsbeschränkungsinformation und einer zweiten Geschwindigkeitsbeschränkungsinformation, Computerprogrammprodukt, elektronische Steuereinheit und elektronisches Fahrzeugführungssystem
DE102020203082A1 (de) 2020-03-11 2021-09-16 Conti Temic Microelectronic Gmbh Die Erfindung betrifft ein Verfahren zur Blockage-Erkennung von Umfelderfassungssensoren eines Fahrzeugs.
DE102021205633A1 (de) 2021-06-02 2022-12-08 Zf Friedrichshafen Ag Fahrzeugsystem zur Durchführung einer Bremsung
DE102022203261A1 (de) 2022-04-01 2023-10-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Verfügbarkeitsvorhersage einer merkmalbasierten Lokalisierung eines Fahrzeugs und Verfahren zum Steuern eines Fahrzeugs

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10885358B2 (en) 2016-05-10 2021-01-05 Continental Automotive Gmbh Method for detecting traffic signs
WO2017194255A1 (de) * 2016-05-10 2017-11-16 Volkswagen Aktiengesellschaft Verfahren zur fahrsituationsabhängigen wiedergabe einer kartendarstellung in einem fahrzeug
DE102016207991B4 (de) 2016-05-10 2022-09-15 Volkswagen Aktiengesellschaft Verfahren zur fahrsituationsabhängigen Wiedergabe einer Kartendarstellung in einem Fahrzeug
WO2017194457A1 (de) * 2016-05-10 2017-11-16 Continental Automotive Gmbh Verfahren zur erfassung von verkehrszeichen
CN109074758A (zh) * 2016-05-10 2018-12-21 大众汽车有限公司 用于在车辆中取决于行驶情况地播放地图图示的方法
US11280632B2 (en) 2016-05-10 2022-03-22 Volkswagen Aktiengesellschaft Method for reproducing a map display in a transportation vehicle depending on a driving situation
WO2018141447A1 (de) * 2017-02-02 2018-08-09 Robert Bosch Gmbh Verfahren zur lokalisierung eines höher automatisierten, z.b. hochautomatisierten fahrzeugs (haf) in einer digitalen lokalisierungskarte
CN110249205A (zh) * 2017-02-02 2019-09-17 罗伯特·博世有限公司 用于在数字式定位地图中定位自动化程度较高的车辆、例如高度自动化的车辆(haf)的方法
US11120281B2 (en) 2017-02-02 2021-09-14 Robert Bosch Gmbh Method for localizing a more automated, e.g., highly automated vehicle (HAV) in a digital localization map
WO2018177954A1 (de) * 2017-03-31 2018-10-04 Continental Automotive Gmbh Verfahren und einrichtung zum aufzeichnen von verkehrszeichen
DE102017205534A1 (de) * 2017-03-31 2018-10-04 Continental Automotive Gmbh Verfahren und Einrichtung zum Aufzeichnen von Verkehrszeichen
DE102018220113A1 (de) * 2018-11-23 2020-05-28 Zf Friedrichshafen Ag Vorrichtung und Verfahren zum Erkennen einer Sensorblockade eines Umgebungssensors
DE102018130919A1 (de) * 2018-12-05 2020-06-10 Valeo Schalter Und Sensoren Gmbh Verfahren zum Bestimmen einer gegenwärtigen Geschwindigkeitsbeschränkung auf einer Straße in Abhängigkeit von einer ersten Geschwindigkeitsbeschränkungsinformation und einer zweiten Geschwindigkeitsbeschränkungsinformation, Computerprogrammprodukt, elektronische Steuereinheit und elektronisches Fahrzeugführungssystem
DE102020203082A1 (de) 2020-03-11 2021-09-16 Conti Temic Microelectronic Gmbh Die Erfindung betrifft ein Verfahren zur Blockage-Erkennung von Umfelderfassungssensoren eines Fahrzeugs.
DE102021205633A1 (de) 2021-06-02 2022-12-08 Zf Friedrichshafen Ag Fahrzeugsystem zur Durchführung einer Bremsung
WO2022253554A1 (de) 2021-06-02 2022-12-08 Zf Friedrichshafen Ag Fahrzeugsystem zur durchführung einer bremsung
DE102022203261A1 (de) 2022-04-01 2023-10-05 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Verfügbarkeitsvorhersage einer merkmalbasierten Lokalisierung eines Fahrzeugs und Verfahren zum Steuern eines Fahrzeugs

Similar Documents

Publication Publication Date Title
DE102014201158A1 (de) Verfahren und Vorrichtung zum Überprüfen eines von einer Objekterkennung erkannten relevanten Objekts
DE112012001318B4 (de) Redundante Objektdetektion für Fahrerassistenzsysteme
DE102013206707A1 (de) Verfahren zur Überprüfung eines Umfelderfassungssystems eines Fahrzeugs
DE102005054972A1 (de) Verfahren zur Totwinkelüberwachung bei Fahrzeugen
EP2150939B1 (de) Verfahren und vorrichtung zum bestimmen der position eines verkehrszeichens
WO2015048954A1 (de) Verfahren und vorrichtung zur erkennung von verkehrszeichen
DE102011081614A1 (de) Verfahren und Vorrichtung zur Analysierung eines von einem Fahrzeug zu befahrenden Streckenabschnitts
EP1330132A2 (de) Verfahren und Vorrichtunng zur Verdeckungsdetektion bei Bildsensorsystemen
DE102013200409A1 (de) Verfahren und Vorrichtung zum Überwachen eines Umfelds eines Fahrzeugs und Verfahren zum Durchführen einer Notbremsung
DE102015223176A1 (de) Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges
DE102014106506A1 (de) Verfahren zum Durchführen einer Diagnose eines Kamerasystems eines Kraftfahrzeugs, Kamerasystem und Kraftfahrzeug
WO2018202552A1 (de) Verfahren und vorrichtung zum klassifizieren von objekten im umfeld eines kraftfahrzeuges
WO2022128014A1 (de) Korrektur von bildern eines rundumsichtkamerasystems bei regen, lichteinfall und verschmutzung
WO2020020654A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems mit zwei erfassungseinrichtungen
DE102017211887A1 (de) Verfahren und Vorrichtung zum Lokalisieren und automatisierten Betreiben eines Fahrzeugs
DE102017217140B4 (de) Verfahren und Vorrichtung zur Ansteuerung eines Fahrerassistenzsystems unter Verwendung eines Stereokamerasystems mit einer ersten und einer zweiten Kamera
DE102019102672A1 (de) Intersensorisches lernen
DE102016107530B4 (de) Vorschriftsgeschwindigkeitsanzeigevorrichtung eines Fahrzeugs
DE102007021579A1 (de) Verfahren und Vorrichtung zur Klassifikation mindestens eines Verkehrszeichens
WO2022128013A1 (de) Korrektur von bildern einer kamera bei regen, lichteinfall und verschmutzung
DE102011081391A1 (de) Verfahren und Vorrichtung zum Erkennen von Störobjekten in der Umgebungsluft eines Fahrzeugs
DE102016103037A1 (de) Verfahren zum Überprüfen einer Funktionstüchtigkeit eines Kamera-Monitor-Systems, Kamera-Monitor-System sowie Kraftfahrzeug
WO2017012743A1 (de) Verfahren zur plausibilisierung einer ansteuerentscheidung für sicherheitsmittel
DE102018205146A1 (de) Testverfahren für hochauflösende Scheinwerfer mittels KI
DE102017214653B4 (de) Verfahren zum Bereitstellen eines Bildsignals eines Umgebungsbereichs eines Kraftfahrzeugs sowie Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R016 Response to examination communication