DE102022206348A1 - Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern - Google Patents

Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern Download PDF

Info

Publication number
DE102022206348A1
DE102022206348A1 DE102022206348.1A DE102022206348A DE102022206348A1 DE 102022206348 A1 DE102022206348 A1 DE 102022206348A1 DE 102022206348 A DE102022206348 A DE 102022206348A DE 102022206348 A1 DE102022206348 A1 DE 102022206348A1
Authority
DE
Germany
Prior art keywords
vehicle
environment
ego
information
error
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022206348.1A
Other languages
English (en)
Inventor
Matthias Schreier
Matthias Komar
Linda Schubert
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Autonomous Mobility Germany GmbH
Original Assignee
Continental Autonomous Mobility Germany GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Autonomous Mobility Germany GmbH filed Critical Continental Autonomous Mobility Germany GmbH
Priority to DE102022206348.1A priority Critical patent/DE102022206348A1/de
Priority to US18/339,257 priority patent/US20230415756A1/en
Publication of DE102022206348A1 publication Critical patent/DE102022206348A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern eines Fahrzeugs umfassend die folgenden Schritte:- Aufzeichnen (S1) eines Fahrzeugumfelds eines Ego-Fahrzeugs (6) mittels zumindest eines Umfelderfassungssensors (2) des Ego-Fahrzeugs (6);- Erzeugen (S2) einer Umfeldrepräsentation basierend auf der Aufzeichnung des Umfelderfassungssensors (2);- Auswerten (S3) der Umfeldrepräsentation in dem Ego-Fahrzeug (6) mittels einer Auswerteeinheit (3);- Ermitteln (S4) von Umfeldinformationen basierend auf der Auswertung der Umfeldrepräsentation;- Eintragen (S5) der Umfeldinformationen in ein Umfeldmodell;- Ermitteln (S6) zumindest eines weiteren Fahrzeugs (7) in der Umfeldrepräsentation des zumindest einen Umfelderfassungssensors (2) des Ego-Fahrzeugs (6);- Übertragen (S7) von Informationen von dem zumindest einen weiteren Fahrzeug (7) an das Ego-Fahrzeug (6) mittels einer Fahrzeug-zu-Fahrzeug-Kommunikationseinheit (5);- Vergleichen (S8) der übertragenen Informationen mit den Umfeldinformationen des Ego-Fahrzeugs (6);- Ermitteln (S9) eines Sensor- und/oder Lokalisierungsfehlers basierend auf dem Ergebnis des Vergleichs der übertragenen Informationen und der Umfeldinformationen des Ego-Fahrzeugs (6).

Description

  • Die Erfindung betrifft ein Verfahren und ein System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern.
  • Aus dem Stand der Technik ist bereits bekannt, dass Fahrzeuge über verschiedene Assistenzsysteme verfügen können, die auf einer sensorbasierten Umfelderfassung basieren. Für die Umfelderfassung werden verschiedene Sensorsysteme (z.B. Kamera, Radar, Lidar, etc.) eingesetzt.
  • Im Bereich der V2X-Kommunikation werden unter anderem Daten direkt zwischen Fahrzeugen (V2V) in spezifizierten Datencontainern (Cooperative Awareness Message (CAM), Collective Perception Message (CPM), etc.) über eine Funkverbindung ausgetauscht. Die CAM enthält dabei Positions- und Dynamikdaten des Senders, die CPM das (on-board) sensorbasierte Umfeldmodell des Senders.
  • Bestehende V2V- bzw. V21-Ansätze sind beispielsweise aus der Druckschrift WO2012013553A3 bekannt, und dienen vor allem dem Austausch von unabhängig gewonnenen Fahrzeugumfeldinformationen (z.B. detekteirte Fahrzeuge, Fußgänger, Ampelphasen Gefharenstellen, ...) die jedes Fahrzeug bzw. jede Roadside Unit separat generiert (siehe z.B. DE102012219637A1 ) Auch ist der Austausch und die Fusion von Belegungsgitterkarten (Occupancy Grid Maps) oder parametrischer Freiraumkarten zur Übermittlung von befahrbaren Freiräumen bereits Stand der Technik (siehe z.B. „Li, H. et al.: Multivehicle Cooperative Local Mapping: A Methodology based on Occupancy Grid Map Merging, In: IEEE Transachtios on Intelligent Transportaion System, Vol. 15 (5) Okt. 2014“ oder US11,143,515B2 ). Die so ausgetauschten Umfeldinformationen werden entweder von mit geeigneten Empfängern ausgerüsteten Fahrzeugen genutzt, um ihr lokales Umfeldmodell mittels Datenfusionsansätzen zu vervollständigen oder zentral, z.B. in einer Roadside Unit oder im Backend fusioniert und anschließend den relevanten Fahrzeugen zugesandt.
  • Was die Telediagnose von Fahrzeugen angeht bestehen Patente dahingehend, dass vom Fahrzeug detektierte wartungs- und/oder reparaturrelevante Daten mit einer Kommunikationseinrichtung an ein Diagnosesystem weitergeleitet werden, das Wartungs- Reparaturmaßnahmen ermittelt und an das Fahrzeug zurückübermittelt (siehe z.B. DE102012011538A1 ).
  • Problematisch bei dem bekannten Stand der Technik ist, dass Sensoren zur Umfelderfassung dekalibriert, beschädigt, verschmutzt sein oder komplett ausfallen. Dies kann z.B. dazu führen, dass Objekte im Fahrzeugumfeld an einer falschen Position oder auch gar nicht erkannt werden.
    Darüber hinaus kann die Ego-Lokalisierung fehlerhaft oder ungenau sein und damit das Ego-Fahrzeug z.B. an einer falschen Position in einer digitalen Karte angenommen werden.
    Beide Fehlfunktionen führen dazu, dass ein Fahrzeug nicht automatisiert fahren kann oder Assistenzsysteme nicht funktionsfähig sind.
  • Dementsprechend ist es eine Aufgabe der vorliegenden Erfindung ein Verfahren und ein System bereitzustellen, mittels welchen eine Fehlerdetektion verschiedenere Fahrzeugsysteme ermöglicht wird und somit die Zuverlässigkeit der Umfelderfassung und Lokalisierung erhöht wird.
  • Die Aufgabe wird durch die unabhängigen Ansprüche 1 und 6 gelöst. Weitere vorteilhafte Ausgestaltungen sind Gegenstand der Unteransprüche.
  • Erste Überlegungen waren dahingehend, dass für automatisiert fahrende Fahrzeuge die Funktionsfähigkeit der Ego-Lokalisierung und der Umfelderfassung von elementarer Bedeutung ist. Allerdings findet bisher keine kooperative umfeldsensorgestützte Fehlerdetektion über Fahrzeuggrenzen hinweg statt.
  • Entsprechend wird erfindungsgemäß ein Verfahren zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern eines Fahrzeugs vorgeschlagen, umfassend die folgenden Schritte:
    • - Aufzeichnen eines Fahrzeugumfelds des Ego-Fahrzeugs mittels zumindest eines Umfelderfassungssensors eines Ego-Fahrzeugs;
    • - Erzeugen einer Umfeldreprästentation basierend auf der Aufzeichnung des Umfelderfassungssensors;
    • - Auswerten der Umfeldrepräsentation in dem Ego-Fahrzeug mittels einer Auswerteeinheit;
    • - Ermitteln von Umfeldinformationen basierend auf der Auswertung der Umfeldrepräsentation;
    • - Eintragen der Umfeldinformationen in ein Umfeldmodell;
    • - Ermitteln zumindest eines weiteren Fahrzeugs in der Umfeldrepräsentation des zumindest einen Umfelderfassungssensors des Ego-Fahrzeugs;
    • - Übertragen von Informationen von dem zumindest einen weiteren Fahrzeug an das Ego-Fahrzeug mittels einer Fahrzeug-zu-Fahrzeug-Kommunikation;
    • - Vergleichen der übertragenen Informationen mit den Umfeldinformationen des Ego-Fahrzeugs;
    • - Ermitteln eines Sensor- und/oder Lokalisierungsfehlers basierend auf dem Ergebnis des Vergleichs der übertragenen Informationen und der Umfeldinformationen des Ego-Fahrzeugs.
  • Der zumindest eine Umfelderfassungssensor kann beispielsweise eine in Fahrtrichtung ausgerichtete Monokamera oder Stereokamera sein. Denkbar wären auch andere Sensoren wie beispielsweise Radare oder Lidare. Denkbar wäre auch mehrere gleiche und/oder verschiedene Sensoren zur Umfelderfassung zu verwenden. Dies ist insbesondere vorteilhaft, da verschiedene Sensoren unterschiedliche Merkmale unterschiedlich gut erfassen. Entsprechend werden bei mehreren unterschiedlichen Sensoren mehrere Umfeldrepräsentationen erzeugt. Bspw. ist die Umfeldrepräsentation bei einer Kamera ein Kamerabild bzw. eine Folge von Kamerabildern, bei einem Radar kann es bspw. eine Objektliste sein. Aus dieser Umfeldrepräsentation bzw. aus den Umfeldrepräsentationen können nun Umfeldinformationen ermittelt werden. Diese Informationen können bspw. das Vorhandensein dynamischer Objekte, wie bspw. ein weiteres Fahrzeug, oder statische Objekte, wie bspw. Fahrbahnbegrenzungen oder Landmarken sowie eine Position der statischen und dynamischen Objekte umfassen.
  • Diese Informationen werden daraufhin in ein Umfeldmodell eingetragen. Das Umfeldmodell ist beispielsweise als Belegungsgitter ausgestaltet. Dies ist vorteilhaft, da in ein Belegungsgitter die dynamischen und statischen Objekte gezielt eingetragen werden können und auch ggf. die Bewegung der dynamischen Objekte prädiziert und getrackt werden kann. Das Umfeldmodell kann alternativ auch als Freiraumkarte ausgestaltet sein.
  • Aus den Umfeldinformationen kann ein weiteres Fahrzeug beispielsweise aus dem Kamerabild ermittelt werden.
  • Das Ego-Fahrzeug und das zumindest eine weitere Fahrzeug weisen eine Vorrichtung zur Fahrzeug-zu-Fahrzeugkommunikation V2V auf, um Informationen zu senden und zu empfangen. Beide Fahrzeuge weisen weiterhin Mittel zur Lokalisierung auf. Das Ego-Fahrzeug kann sich beispielsweise in dem erstellten Umfeldmodell lokalisieren oder in einer vorhandenen digitalen Karte, welche bspw. durch ein Navigationsgerät bereitgestellt wird.
  • Das weitere Fahrzeug überträgt Informationen an das Ego-Fahrzeug, welche das Ego-Fahrzeug mit den eigenen Umfeldinformationen vergleicht. Durch das Vergleichen der Informationen kann im Ego-Fahrzeug festgestellt werden, ob beispielsweise die Objekte im Erfassungsbereich des zumindest einen Umfelderfassungssensors des Ego-Fahrzeugs richtig detektiert wurden. Beispielsweise können die Lokalisierungsinformationen des weiteren Fahrzeugs mit der Detektion des Ego-Fahrzeugs verglichen werden. Wird eine Abweichung festgestellt, kann es sich entweder um einen Detektionsfehler des Ego-Fahrzeugs, einen Lokalisierungsfehler des Ego-Fahrzeugs oder um einen Lokalisierungsfehler des weiteren Fahrzeugs oder um eine fehlerhafte übertragene Information handeln. Um die direkte Fehlerquelle präziser zu bestimmen können weitere Informationen herangezogen werden. Weiterhin können die Positionen von Objekten, die sowohl das Ego-Fahrzeug als auch das weitere Fahrzeug erfassen verglichen werden, um festzustellen, ob der Fehler in der Ego-Fahrzeugdetektion liegt.
  • Der Begriff Sensorfehler umfasst im Sinne dieser Erfindung einen Fehler des Umfelderfassungssensors bzw. der Sensorik des Ego-Fahrzeugs. Der Begriff Lokalisierungsfehler kann einen Fehler in der Lokalisierung des Ego-Fahrzeugs, in der Lokalisierung des weiteren Fahrzeugs oder einen Fehler der übermittelten Informationen des weiteren Fahrzeugs umfassen. Die übermittelten Informationen können mittels spezieller Nachrichten übermittelt werden, welche fehlerhaft sein können auch wenn die Lokalisierung des weiteren Fahrzeugs korrekt ist.
  • In einer bevorzugten Ausgestaltung werden zum Ermitteln des Fehlers neuronale Netze und/oder probabilistische Modelle und/oder Fuzzy-Logikansätze und/oder probabilistische Logiken verwendet. Die Verwendung des jeweiligen Modells richtet sich nach vorhandenen Daten zum Black-Box Lernen von relevanten Abweichungen zwischen sensorgestützten Umfeldmodellen und per Fahrzeug-zu-Fahrzeugkommunikationseinrichtung, V2V-Kommunikationseinrichtung, übermittelten Informationen verfügbar sind oder inwieweit eine Relevanz darin besteht, dass der vom System ermittelte Fehlerfall vom Menschen nachvollziehbar sein soll. Entsprechend kann die Ermittlung des Fehlers je nach Bewertungsschwerpunkt und Datenausgangslage mit unterschiedlichen Ansätzen realisiert werden.
  • In einer weiteren vorteilhaften Ausgestaltung wird nach dem Ermitteln des Fehlers festgestellt, ob der Fehler im Ego-Fahrzeug oder in dem zumindest einen weiteren Fahrzeug vorliegt. Dies ist vorteilhaft, da beim Feststellen des Fehlers im eigenen Fahrzeug bspw. ein Fahrer auf den Fehler hingewiesen werden kann und entsprechende Fahrerassistenzsysteme je nach Fehler deaktiviert werden können. Liegt der Fehler in dem weiteren Fahrzeug vor, so kann das weitere Fahrzeug über den vorliegenden Fehler informiert werden und entsprechende Maßnahmen wie die Deaktivierung von Fahrerassistenzsystemen oder autonomen Systemen veranlasst werden. Denkbar wäre auch, dass die Information über ein fehlerhaftes System in einem weiteren Fahrzeug an einen Backend-Server gesendet wird, in welchem diese Information gesammelt und bei Überschreiten eines festgelegten Schwellwertes an Meldungen über Fehler in diesem Fahrzeug, das entsprechende Fahrzeug über den vorhandenen Fehler informiert.
  • Weiter ist bevorzugt, dass zur Ermittlung des Fehlers weitere Informationen von zusätzlichen Fahrzeugen übertragen und verwendet werden, welche das Ego-Fahrzeug und/oder das zumindest eine weitere Fahrzeug mittels zumindest eines Umfelderfassungssensors detektieren. Dies ist vorteilhaft, um die Fehlerursache besser eingrenzen zu können. So können beispielsweise die zusätzlichen Fahrzeuge ihre Umfeldmodelle übertragen in denen zumindest das Ego-Fahrzeug oder auch das weitere Fahrzeug eingetragen sind. So können diese Daten beim Vergleich verwendet werden, um den Fehler präziser bestimmen zu können.
  • In einer weiteren bevorzugten Ausführungsform werden die Informationen des zumindest einen weiteren Fahrzeugs und der zusätzlichen Fahrzeuge mittels einer CAM und/oder einer CPM übermittelt. Diese Nachrichten sind vorteilhaft, da die CAM-Nachricht die absoluten Positionsdaten enthält und die CPM-Nachricht bspw. das Umfeldmodell des jeweiligen Fahrzeugs enthält.
  • In einer weiteren besonders bevorzugten Ausführungsform werden beim Ermitteln des Sensor- und/oder Lokalisierungsfehlers Unsicherheiten in der Position des weiteren Fahrzeugs in der CAM-Nachricht und/oder Unsicherheiten in der von dem Ego-Fahrzeug detektierten und in dem Umfeldmodell getrackten Position des weiteren Fahrzeugs berücksichtigt. Diese Unsicherheiten können als geometrische Form um das weitere Fahrzeug bzw. das getrackte Objekt beschrieben werden. Wird nun eine Abweichung zwischen kommunizierter Position und detektierter bzw. getrackter Position festgestellt, kann vorteilhaft überprüft werden, ob sich die Abweichung im Rahmen der Unsicherheit befindet. So kann vorteilhaft verhindert werden, dass ein Fehler ermittelt wird obwohl bspw. die Ego-Sensorik keinen Fehler aufweist, sondern die Abweichung lediglich durch die Messunsicherheiten des Umfelderfassungssensors hervorgerufen wird.
  • In einer bevorzugten Ausgestaltung wird beim Ermitteln des Sensor- und/oder Lokalisierungsfehlers Fahrkontextwissen berücksichtigt. Fahrkontextwissen umfasst in diesem Fall beispielsweise das Wissen über die Anzahl an Fahrspuren oder eine Fahrspurrichtung umfassen. Übermittelt beispielsweise das weitere Fahrzeug eine Position außerhalb der befahrbaren Fahrspuren und detektiert das Ego-Fahrzeug das weitere Fahrzeug auf einer befahrbaren Fahrspur, so kann davon ausgegangen werden, dass entweder ein Fehler in der Lokalisierung oder der CAM-Nachricht vorliegt.
  • Weiter ist erfindungsgemäß ein System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern vorgesehen, umfassend zumindest einen Umfelderfassungssensor, eine Auswerteeinheit, eine V2V-Kommunikationseinheit sowie eine Recheneinheit, wobei die Recheneinheit derart ausgestaltet ist ein Verfahren der eingangs genannten Art auszuführen.
  • Weitere vorteilhafte Ausgestaltungen und Ausführungsformen sind Gegenstand der Zeichnungen.
  • Darin zeigen:
    • 1: ein schematisches Ablaufdiagramm eines Verfahrens gemäß einer Ausgestaltung der Erfindung;
    • 2: eine schematische Darstellung eines Systems gemäß einer Ausgestaltung der Erfindung;
    • 3: eine schematische Darstellung einer Szene gemäß einer Ausführungsform der Erfindung;
    • 4: eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung;
    • 5: eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung;
    • 6: eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung;
    • 7: eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung;
    • 8: eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung.
  • 1 zeigt ein schematisches Ablaufdiagramm eines Verfahrens gemäß einer Ausgestaltung der Erfindung. In Schritt S1 wird ein Fahrzeugumfeld des Ego-Fahrzeugs 6 mittels zumindest eines Umfelderfassungssensors eines Ego-Fahrzeugs 6 aufgezeichnet. In einem Schritt S2 wird eine Umfeldrepräsentation basierend auf der Aufzeichnung des Umfelderfassungssensors 2 erzeugt. In einem weiteren Schritt S3 wird die Umfeldrepräsentation in dem Ego-Fahrzeug 6 mittelseiner Auswerteeinheit 3 ausgewertet. In einem nachfolgenden Schritt S4 werden Umfeldinformationen basierend auf der Auswertung der Umfeldrepräsentation ermittelt. In Schritt S5 werden die Umfeldinformationen in ein Umfeldmodell eingetragen. Nachfolgend wird in Schritt S6 zumindest ein weiteres Fahrzeug 7 in der Umfeldrepräsentation des zumindest einen Umfelderfassungssensors 2 des Ego-Fahrzeugs 6 ermittelt. In einem weiteren Schritt S7 werden Informationen von dem zumindest einen weiteren Fahrzeug 7 an das Ego-Fahrzeug 6 mittels einer V2V-Kommunikation übertragen. Anschließend werden in Schritt S8 die übertragenen Informationen mit den Umfeldinformationen des Ego-Fahrzeugs 6 verglichen. Abschließend wird in Schritt S9 ein Sensor- und/oder Lokalisierungsfehler basierend auf dem Ergebnis des Vergleichs der übertragenen Informationen und der Umfeldinformationen des Ego-Fahrzeugs 6 ermittelt.
  • 2 zeigt eine schematische Darstellung eines Systems gemäß einer Ausgestaltung der Erfindung. Das System 1 weist dabei zumindest einen Umfelderfassungssensor 2, eine Auswerteeinheit 3, eine V2V-Komunikationseinheit 4 sowie eine Recheneinheit 5 auf. Die Recheneinheit 5 ist dabei derart ausgestaltet, dass ein Verfahren zur Ermittlung eines Sensor- und/oder Lokalisierungsfehlers ausgeführt werden kann. Der Umfelderfassungssensor 2 ist mittels einer Datenverbindung D mit der Auswerteeinheit 3 verbunden. Die Auswerteeinheit 3 wertet beispielsweise die durch den Umfelderfassungssensor 2 erzeugte Umfeldrepräsentation aus. In der Recheneinheit 5 können dann Umfeldinformationen ermittelt und in ein Umfeldmodell eingetragen werden. Das V2V-Komunikationsmodul 4 empfängt Informationen von zumindest einem weiteren Fahrzeug 7, 8a, 8b und sendet Informationen an andere Fahrzeuge 7, 8a, 8b. Diese Informationen werden ebenfalls der Recheneinheit 5 über eine Datenverbindung D bereitgestellt. Die Recheneinheit 5 vergleicht die Umfeldinformationen und die empfangenen Informationen und ermittelt einen Sensor- und/oder Lokalisierungsfehler. Die Datenverbindung D kann dabei kabelgebunden oder kabellos ausgestaltet sein.
  • 3 zeigt eine schematische Darstellung einer Szene gemäß einer Ausführungsform der Erfindung. Hierbei befindet sich das Ego-Fahrzeug 6 auf einer ersten Fahrspur F1. Das Ego-Fahrzeug 6 erfasst in dem Erfassungsbereich E des Umfelderfassungssensors 2 (hier nicht gezeigt) ein weiteres Fahrzeug 7 auf einer zweiten Fahrspur F2. Beide Fahrzeuge 6, 7 sind mit einer V2V-Kommunikationseinheit 4 ausgestattet und können entsprechend Informationen senden und empfangen. Das weitere Fahrzeug 7 kann nun beispielsweise seine absoluten Positionsdaten (z.B. in einer CAM-Cooperative Awareness Message) an das Ego-Fahrzeug 6 übermitteln. Im Ego-Fahrzeug 6 findet dann ein Vergleich der erfassten Position und der übermittelten Positionsdaten statt, mit Hilfe der vorhandenen Absolutposition des Ego-Fahrzeugs 6 aus dessen Lokalisierung. Abweichungen lassen in diesem Fall entweder auf eine fehlerhafte Ego-Lokalisierung, eine fehlerhafte Ego-Sensorik (z.B. durch Dekalibrierung) oder eine fehlerhafte CAM-Nachricht, beispielsweise aufgrund einer fehlerhaften Selbst-Lokalisierung des weiteren Fahrzeugs 7 schließen. Aus Gründen der Übersichtlichkeit werden in den nachfolgenden 4-8 in den Fahrzeugen 6, 7, 8a, 8b die V2V-Kommunikationseinheit 4 nicht explizit dargestellt. Jedoch verfügen alle Fahrzeuge in den Figuren über eine V2V-Kommunikationseinheit 4, um Informationen zu empfangen und zu übertragen.
  • Wurde in dieser Ausgestaltung ein Fehler in den kommunizierten Daten des weiteren Fahrzeugs 7 festgestellt und treten im weiteren zeitlichen Verlauf keine weiteren Fahrzeuge 7 auf, bei denen eine Abweichung zwischen kommunizierten und detektierten Daten festgestellt wird, ist dies ein Indiz dafür, dass der Fehler in dem kommunizierenden Fahrzeug 7 gelegen hat. Zum einen könnte die eindeutige ID dieses Fahrzeugs 7 dann an einen Backendserver übertragen werden, der die Informationen zu diesem Fahrzeug sammelt und nach Erreichen eines Schwellwertes das Fahrzeug informiert. Zum anderen könnte das kommunizierende Fahrzeug 7 auch direkt über V2V über den möglichen Fehler informiert werden. In diesem Fahrzeug 7 selbst könnte dann über das wiederholte Eintreffen dieser Information von verschiedenen Fahrzeugen auf einen tatsächlichen Fehler im eigenen Fahrzeug geschlossen werden.
  • 4 zeigt eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung. In dieser Ausgestaltung detektiert das Ego-Fahrzeug 6 in seinem Erfassungsbereich E ein weiteres Fahrzeug 7. Wie in der in 3 dargestellten Szene übermittelt das Fahrzeug 7 seine Positionsdaten an das Ego-Fahrzeug 6, welches die detektierte Position mit der übermittelten Position vergleicht. In dieser Ausgestaltung wurde wiederholt eine Abweichung der Position zwischen Ego-Fahrzeug 6 und dem weiteren Fahrzeug 7 (Fahrzeug 7 steht hierbei exemplarisch für verschiedene Fahrzeuge) festgestellt. Das Fahrzeug 7 bzw. mehrere weitere Fahrzeuge 7 wurden von dem Ego-Fahrzeug 6 in diesem Ausführungsbeispiel detektiert und von diesen Fahrzeugen 7 wurde jeweils eine CAM-Nachricht mit den Positionsdaten übermittelt. In einem solchen Fall kann eine fehlerhafte CAM-Nachricht ausgeschlossen werden, wenn die Abweichung beispielsweise bei der Beobachtung von mehreren anderen Fahrzeugen 7 und deren CAM-Nachrichten immer wieder auftritt und davon ausgegangen werden kann, dass nicht alle anderen Fahrzeuge 7 fehlerhafte CAM-Nachrichten übermitteln, da diese unabhängig voneinander erzeugt werden. Daher kann in einem solchen Fall darauf geschlossen werden, dass es sich um eine Fehlfunktion der Ego-Lokalisierung der der Ego-Sensorik handeln muss.
  • Um zwischen diesen beiden Ursachen weiter unterscheiden zu können, befinden sich in diesem Beispiel hinter dem Ego-Fahrzeug 6 zwei zusätzliche Fahrzeuge 8a und 8b, die über eine on-board Sensorik und über eine V2V-Kommunikaitonseinheit 4 verfügen. Das Ego-Fahrzeug 6 befindet sich im Erfassungsbereich Ea und Eb der zusätzlichen Fahrzeuge 8a, 8b und somit in deren Umfeldmodell. Die Fahrzeuge 8a, 8b kommunizieren nun in diesem Beispiel ihr Umfeldmodell sowie ihre absolute Position an das Ego-Fahrzeug 6. Im Ego-Fahrzeug wird nun die über die empfangenen Umfeldmodelle kommunizierte Position des Ego-Fahrzeugs 6 mit der Ego-Lokalisierung verglichen. Stimmen die Positionen überein, so kann die Fehlerursache auf eine Fehlfunktion der Ego-Sensorik eingegrenzt werden.
  • In der 5 ist eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung gezeigt. Diese Szene entspricht im Wesentlichen der Darstellung in 3. Auch hier befindet sich ein weiteres Fahrzeug 7 in dem Erfassungsbereich E des Ego-Fahrzeugs 6 und das weitere Fahrzeug 7 kommuniziert seine Positionsdaten bspw. mittels einer CAM-Nachricht. Das Ego-Fahrzeug 6 vergleicht die kommunizierte Position mit der von dem Umfelderfassungssensor 2 erfassten Position. In dieser Ausgestaltung werden zudem mitgeschickte Unsicherheiten U2, wie beispielsweise Positionsunsicherheiten, der CAM-Nachricht des weiteren Fahrzeugs 7 sowie die Unsicherheit U1 des vom Ego-Fahrzeug 6 im Online-Umfeldmodell erzeugten Objekttracks 7a des weiteren Fahrzeugs 7 mit in die Bewertung einbezogen. Liegt beispielsweise eine Positionsabweichung zwischen beiden Informationsquellen vor, die aber durch die Unsicherheiten erklärbar sind, so wird richtigerweise nicht auf eine Fehlfunktion im Rahmen des Ausführungsbeispiels aus 3 sowie der anderen Figuren geschlossen. Die Unsicherheiten U1, U2 sind hierbei elliptisch ausgestaltet. Denkbar wären auch andere geometrische Formen.
  • 6 zeigt eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung. Auch hier befindet sich ein weiteres Fahrzeug 7 in dem Erfassungsbereich E des Ego-Fahrzeugs 6 und das weitere Fahrzeug 7 kommuniziert seine Positionsdaten bspw. mittels einer CAM-Nachricht. Das Ego-Fahrzeug 6 vergleicht die kommunizierte Position mit der von dem Umfelderfassungssensor 2 erfassten Position. In dieser Ausgestaltung wird die Fehlerursache durch zusätzliches Kontextwissen, z.B. Fahrstreifenwissen eingegrenzt. Hierbei kann beispielsweise davon ausgegangen werden, dass sich das weitere Fahrzeug 7 auf einer in einer digitalen Karte des Ego-Fahrzeugs enthaltenen Fahrbahn F2 bewegt. Befindet sich das Fahrzeug 7 in der gesandten CAM-Nachricht auf der Fahrbahn F2 der digitalen Karte des Ego-Fahrzeugs, auf der sich das Ego-Fahrzeug lokalisiert hat, so lässt sich auf einen Fehler in der Ego-Sensorik bzw. dem Umfelderfassungssensor 2 schließen.
  • Würde das weitere Fahrzeug 7 dagegen bei der mittels der Ego-Lokalisierung erstellten digitalen Karte sowie dem von dem Ego-Fahrzeug erzeugten Umfeldmodell auf der Fahrbahn F2 fahren, jedoch das Fahrzeug 7 eine CAM-Nachricht übermitteln, in welcher die Position des Fahrzeugs 7 neben den befahrbaren Fahrstreifen F1, F2 angegeben ist, könnte auf einen Fehler in der CAM-Nachricht geschlossen werden. In diesem Fall könnte das weitere Fahrzeug 7 von dem Ego-Fahrzeug 6 gewarnt werden, dass mit hoher Wahrscheinlichkeit ein Fehler in der Lokalisierung des weiteren Fahrzeugs 7 vorliegt.
  • Die 7 zeigt eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung. In dieser Ausgestaltung befinden sich das Ego-Fahrzeug 6 und das weitere Fahrzeug 7 auf der Fahrspur F1. Das Ego-Fahrzeug 6 und das weitere Fahrzeug detektieren beide dasselbe statische Umfeldmodellobjekt O in dem jeweiligen Erfassungsbereich E bzw. E7 der jeweiligen Umfelderfassungssensoren. Das Umfeldmodellobjekt O kann beispielsweise ein Verkehrszeichen, eine Lichtsignalanlage oder eine Bodenpfeilmarkierung oder ähnliches sein. Das weitere Fahrzeug 7 schickt das sein statisches Umfeldmodell, beispielsweise via CPM-Nachricht, sowie seine absolute Position, beispielsweise via CAM-Nachricht, an das Ego-Fahrzeug. Wird eine Abweichung zwischen den statischen Umfeldmodellen des Ego-Fahrzeugs 6 und des weiteren Fahrzeugs 7 ermittelt, so kann entweder eine fehlerhafte Ego-Lokalisierung, eine fehlerhafte Ego-Sensorik, z.B. durch Dekalibrierung, ein fehlerhaftes Umfeldmodell des weiteren Fahrzeugs 7, oder eine fehlerhafte Lokalisierung des weiteren Fahrzeugs 7 vorliegen. Ist nun aber z.B. das statische Umfeldmodellobjekt konsistent am gleichen Ort in dem Umfeldmodell des Ego-Fahrzeugs 6 und des weiteren Fahrzeugs 7, welches rein von den jeweiligen Umfelderfassungssensoren bestimmt wird, so lässt sich der Fehler auf eine Fehllokalisierung des weiteren Fahrzeugs 7 oder einer Fehllokalisierung des Ego-Fahrzeugs 6 eingrenzen. Ist nun weiterhin das statische Umfeldobjekt O in der digitalen Karte, auf der sich das Ego-Fahrzeug lokalisiert, vorhanden und somit dem Ego-Fahrzeug 6 bekannt und an der erwarteten Position des Umfeldmodells des Ego-Fahrzeugs 6, so kann der Fehler weiter auf eine Fehllokalisierung des weiteren Fahrzeugs 7 eingegrenzt werden. Somit kann das weitere Fahrzeug 7 vom Ego-Fahrzeug gewarnt werden, sodass es z.B. seine automatisierte Fahrfunktion degradieren kann.
  • Denkbar wäre in dieser Ausgestaltung, dass die Umfeldmodelle nicht als Umfeldmodelle mit statischen Objekten sondern als Umfeldmodell mit Freiräumen repräsentiert werden, bspw. als Freiraumkarte und nicht als Belegungsgitter. Entsprechend würde die Abweichung durch vergleiche der ermittelten Freiräume durchgeführt werden.
  • 8 zeigt eine schematische Darstellung einer weiteren Szene gemäß einer weiteren Ausführungsform der Erfindung. In dieser Ausgestaltung detektieren das Ego-Fahrzeug 6 und das weitere Fahrzeug 7 dasselbe zusätzliche Fahrzeug 8a mittels der jeweiligen Umfeldsensorik. Das weitere Fahrzeug 7 sendet sein Umfeldmodell, in welchem das zusätzliche Fahrzeug 8a eingetragen ist, an das Ego-Fahrzeug 6. Das zusätzliche Fahrzeug 8a sendet seinen eigenen Zustand, umfassend Absolutpositionsdaten, Geschwindigkeit, Blinkeraktivität, etc., an das Ego-Fahrzeug 6. Stellt das Ego-Fahrzeug 6 nun eine Abweichung des von dem Fahrzeug 8a gesendeten Zustands zu dem sowohl vom Ego-Fahrzeug 6 ermittelten Zustand des zusätzlichen Fahrzeugs 8a als auch dem von dem weiteren Fahrzeug 7 an das Ego-Fahrzeug 6 übermittelten Zustands des Fahrzeugs 8a fest, so kann auf eine Fehlinformation der Nachricht des Fahrzeugs 8a geschlossen werden, da diese von der übereinstimmenden Beobachtung des Ego-Fahrzeugs 6 und des weiteren Fahrzeugs 7 abweicht. In diesem Fall kann Fahrzeug 8a vom Ego-Fahrzeug 6 mittels V2V-Kommunikation gewarnt werden, dass ein Fehler in der Nachricht vorliegt. Diese Warnung kann sehr spezifisch ausfallen. Stellen bspw. sowohl das Ego-Fahrzeug 6 als auch das weitere Fahrzeug 7 mittels ihrer Umfeldsensorik fest, dass das zusätzliche Fahrzeug 8a keinen Blinker aktiv hat und sendet das zusätzliche Fahrzeug 8a in seiner Nachricht, dass der Blinker aktiv ist, so kann das Ego-Fahrzeug 6 die spezifische Nachricht „Blinker defekt“ an das zusätzliche Fahrzeug 8a senden. Denkbar sind auch beispielsweise weitere Fehlermeldungen wie falsche übermittelte Geschwindigkeit, falsche übermittelte Position, etc.
  • Bezugszeichenliste
  • 1
    System
    2
    Umfelderfassungssensor
    3
    Auswerteeinheit
    4
    V2V-Kommunikationseinheit
    5
    Recheneinheit
    6
    Ego-Fahrzeug
    7
    weiteres Fahrzeug
    7a
    getrackte Position weiteres Fahrzeug
    8a, 8b
    zusätzliche Fahrzeuge
    E
    Erfassungsbereich Ego-Fahrzeug
    Ea, Eb
    Erfassungsbereiche zusätzliche Fahrzeuge
    E7
    Erfassungsbereich weiteres Fahrzeug
    F1, F2
    Fahrspuren
    O
    Umfeldobjekt
    U1, U2
    Unsicherheiten
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2012013553 A3 [0004]
    • DE 102012219637 A1 [0004]
    • US 11143515 B2 [0004]
    • DE 102012011538 A1 [0005]

Claims (8)

  1. Verfahren zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern eines Fahrzeugs umfassend die folgenden Schritte: - Aufzeichnen (S1) eines Fahrzeugumfelds eines Ego-Fahrzeugs (6) mittels zumindest eines Umfelderfassungssensors (2) des Ego-Fahrzeugs (6); - Erzeugen (S2) einer Umfeldrepräsentation basierend auf der Aufzeichnung des Umfelderfassungssensors (2); - Auswerten (S3) der Umfeldrepräsentation in dem Ego-Fahrzeug (6) mittels einer Auswerteeinheit (3); - Ermitteln (S4) von Umfeldinformationen basierend auf der Auswertung der Umfeldrepräsentation; - Eintragen (S5) der Umfeldinformationen in ein Umfeldmodell; - Ermitteln (S6) zumindest eines weiteren Fahrzeugs (7) in der Umfeldrepräsentation des zumindest einen Umfelderfassungssensors (2) des Ego-Fahrzeugs (6); - Übertragen (S7) von Informationen von dem zumindest einen weiteren Fahrzeug (7) an das Ego-Fahrzeug (6) mittels einer Fahrzeug-zu-Fahrzeug-Kommunikationseinheit (5); - Vergleichen (S8) der übertragenen Informationen mit den Umfeldinformationen des Ego-Fahrzeugs (6); - Ermitteln (S9) eines Sensor- und/oder Lokalisierungsfehlers basierend auf dem Ergebnis des Vergleichs der übertragenen Informationen und der Umfeldinformationen des Ego-Fahrzeugs (6).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Ermitteln des Fehlers neuronale Netze und/oder probabilistische Modelle und/oder Fuzzy-Logikansätze und/oder probabilistische Logiken verwendet werden.
  3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass nach dem Ermitteln des Fehlers festgestellt wird, ob der Fehler im Ego-Fahrzeug (6) oder in dem zumindest einen weiteren Fahrzeug (7) vorliegt.
  4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zur Ermittlung des Fehlers weitere Informationen von zusätzlichen Fahrzeugen (8a, 8b) übertragen und verwendet werden, welche das Ego-Fahrzeug (6) und/oder das zumindest eine weitere Fahrzeug (7) mittels zumindest eines Umfelderfassungssensors detektieren.
  5. Verfahren nach Anspruch 1 und 4, dadurch gekennzeichnet, dass die Informationen des zumindest einen weiteren Fahrzeugs (7) und der zusätzlichen Fahrzeuge (8a, 8b) mittels einer CAM und/oder einer CPM übermittelt werden.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass beim Ermitteln des Sensor- und/oder Lokalisierungsfehlers Unsicherheiten in der Position des weiteren Fahrzeugs (7) in der CAM-Nachricht und/oder Unsicherheiten in der von dem Ego-Fahrzeug (6) detektierten und in dem Umfeldmodell getrackten Position (7a) des weiteren Fahrzeugs (7) berücksichtigt werden.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass beim Ermitteln des Sensor- und/oder Lokalisierungsfehlers Fahrkontextwissen berücksichtigt wird.
  8. System (1) zur Ermittlung eines Sensor- und/oder Lokalisierungsfehlers umfassend zumindest einen Umfelderfassungssensor (2), eine Auswerteeinheit (3), eine V2V-Kommunikationseinheit (4) sowie eine Recheneinheit (5), wobei die Recheneinheit (5) derart ausgestaltet ist ein Verfahren nach den Ansprüche 1 bis 7 auszuführen.
DE102022206348.1A 2022-06-23 2022-06-23 Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern Pending DE102022206348A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022206348.1A DE102022206348A1 (de) 2022-06-23 2022-06-23 Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern
US18/339,257 US20230415756A1 (en) 2022-06-23 2023-06-22 Method and system for determining sensor errors and/or localization errors

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022206348.1A DE102022206348A1 (de) 2022-06-23 2022-06-23 Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern

Publications (1)

Publication Number Publication Date
DE102022206348A1 true DE102022206348A1 (de) 2023-12-28

Family

ID=89075239

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022206348.1A Pending DE102022206348A1 (de) 2022-06-23 2022-06-23 Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern

Country Status (2)

Country Link
US (1) US20230415756A1 (de)
DE (1) DE102022206348A1 (de)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012013553A3 (de) 2010-07-29 2012-10-18 Continental Teves Ag & Co. Ohg Vorrichtung und verfahren zur c2x-kommunikation
DE102012011538A1 (de) 2012-06-08 2013-01-17 Daimler Ag Verfahren und System zur Telediagnose von Fahrzeugen
DE102012219637A1 (de) 2012-10-26 2014-04-30 Continental Teves Ag & Co. Ohg Verfahren und system zur fusion von umfeldsensordaten mit kommunikationsdaten sowie verwendung des systems
DE102016223830A1 (de) 2016-11-30 2018-05-30 Robert Bosch Gmbh Verfahren zum Betreiben eines automatisierten Fahrzeugs
DE102018203376A1 (de) 2018-03-07 2019-09-12 Continental Teves Ag & Co. Ohg Verfahren zum Detektieren und Berücksichtigen eines irregulären Fahrverhaltens eines Zielfahrzeugs
DE102010018088B4 (de) 2010-04-24 2020-10-29 Audi Ag Verfahren zum Überprüfen einer Kalibrierung sowie Kraftfahrzeug
US11143515B2 (en) 2017-03-15 2021-10-12 Continental Teves Ag & Co. Ohg Method for the generation of a merged free-space map, electronic control device and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010018088B4 (de) 2010-04-24 2020-10-29 Audi Ag Verfahren zum Überprüfen einer Kalibrierung sowie Kraftfahrzeug
WO2012013553A3 (de) 2010-07-29 2012-10-18 Continental Teves Ag & Co. Ohg Vorrichtung und verfahren zur c2x-kommunikation
DE102012011538A1 (de) 2012-06-08 2013-01-17 Daimler Ag Verfahren und System zur Telediagnose von Fahrzeugen
DE102012219637A1 (de) 2012-10-26 2014-04-30 Continental Teves Ag & Co. Ohg Verfahren und system zur fusion von umfeldsensordaten mit kommunikationsdaten sowie verwendung des systems
DE102016223830A1 (de) 2016-11-30 2018-05-30 Robert Bosch Gmbh Verfahren zum Betreiben eines automatisierten Fahrzeugs
US11143515B2 (en) 2017-03-15 2021-10-12 Continental Teves Ag & Co. Ohg Method for the generation of a merged free-space map, electronic control device and storage medium
DE102018203376A1 (de) 2018-03-07 2019-09-12 Continental Teves Ag & Co. Ohg Verfahren zum Detektieren und Berücksichtigen eines irregulären Fahrverhaltens eines Zielfahrzeugs

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
LI, Hao [u.a.]: Multivehicle cooperative local mapping: A methodology based on occupancy grid map merging. In: IEEE Transactions on Intelligent Transportation Systems (T-ITS), Bd. 15, 2014, H. 5, S. 2089-2100. - ISSN 1558-0016 (E); 1524-9050 (P). DOI: 10.1109/TITS.2014.2309639. URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6776469 [abgerufen am 2022-10-27].

Also Published As

Publication number Publication date
US20230415756A1 (en) 2023-12-28

Similar Documents

Publication Publication Date Title
EP3155603B1 (de) Verfahren zur ermittlung von positionsdaten zur nutzung beim betrieb eines fahrzeugsystems eines kraftfahrzeugs und positionsdatenermittlungs- und -verteilungssystem
EP3688742B1 (de) System zur erzeugung und/oder aktualisierung eines digitalen modells einer digitalen karte
EP4128187A1 (de) VERFAHREN UND EINE VORRICHTUNG ZUR IDENTIFIZIERUNG POTENTIELLER GEFAHRENSTELLEN IM STRAßENVERKEHR
DE112020002267T5 (de) Anomalie-Diagnosevorrichtung
DE102016224576B4 (de) Verhaltensmodell von Verkehrsteilnehmern für ein Fahrerassistenzsystem umfassend Statistiken zu Abweichungen vom Normverhalten
EP3827277B1 (de) Verfahren, system und elektronische recheneinrichtung zum überprüfen von sensoreinrichtungen von fahrzeugen, insbesondere von kraftfahrzeugen
DE102016207463A1 (de) Verfahren und Vorrichtung zum Betreiben wenigstens eines Fahrzeugs in Bezug auf wenigstens ein passierbares Objekt in der Umgebung des wenigstens einen Fahrzeugs
DE102017206344A1 (de) Fahrerassistenzsystem für ein Fahrzeug
EP4150511A1 (de) VERFAHREN ZUM STEUERN EINER FLOTTENBASIERTEN ZUSTANDSÜBERWACHUNG EINES STRAßENABSCHNITTS EINES STRAßENNETZES SOWIE ZUGEHÖRIGES SYSTEM UND KRAFTFAHRZEUG UND ZUGEHÖRIGE SERVEREINRICHTUNG
DE102012213485A1 (de) Verfahren und Vorrichtung zum Überprüfen einer in einem Fahrempfehlungsspeicher gespeicherten Fahrempfehlungsinformation für Fahrzeuge sowie Verfahren und Vorrichtung zum Bereitstellen einer Fahrempfehlungsnachricht
DE102021123270B3 (de) Verfahren und Steuerschaltung zum Überprüfen, ob ein aktuell aktiver Fahrmodus innerhalb seiner ODD betrieben wird, sowie System und Backend-Server
DE102019206870A1 (de) Verfahren zum Ermitteln einer durch einen Verkehrsteilnehmer verursachten Gefährdung und zum Einleiten einer Überwachung des Verkehrsteilnehmers und Steuergerät
WO2019211293A1 (de) Verfahren zum betreiben eines fahrerassistenzsystems eines egofahrzeugs mit wenigstens einem umfeldsensor zum erfassen eines umfelds des egofahrzeugs, computer-lesbares medium, system, und fahrzeug
WO2019063630A1 (de) Verfahren und einrichtung
DE102018220844A1 (de) Verfahren zum Steuern eines Fahrerassistenzsystems, Fahrerassistenzsystem, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
EP2254104A2 (de) Verfahren zum automatischen Erkennen einer Situationsänderung
DE102022206348A1 (de) Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern
WO2022096236A1 (de) Verfahren zum ermitteln einer existenzwahrscheinlichkeit eines möglichen elements in einer umgebung eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE112020006634T5 (de) Notfallevakuierungsvorrichtung, Server-Vorrichtung, und Notfallevakuierungsverfahren
EP3969846A1 (de) Verfahren zum validieren einer kartenaktualität
DE102019218078A1 (de) Bestimmung eines Sachverhalts im Umfeld eines Kraftfahrzeugs
DE102021209315A1 (de) Verfahren zum Betreiben eines Infrastruktursystems zur Fahrunterstützung von zumindest teilautomatisiert geführten Kraftfahrzeugen
DE102022203122A1 (de) Verfahren zum Ermitteln einer Bewegungstrajektorie für eine Steuerung einer Bewegung einer Maschine
DE102022210507A1 (de) Alarmsystem zur Warnung vulnerabler Verkehrsteilnehmer in einem vorgegebenen Straßenabschnitt
DE102021209541A1 (de) Verfahren zum Betreiben eines vernetzten Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication