DE102021209671A1 - Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen - Google Patents

Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen Download PDF

Info

Publication number
DE102021209671A1
DE102021209671A1 DE102021209671.9A DE102021209671A DE102021209671A1 DE 102021209671 A1 DE102021209671 A1 DE 102021209671A1 DE 102021209671 A DE102021209671 A DE 102021209671A DE 102021209671 A1 DE102021209671 A1 DE 102021209671A1
Authority
DE
Germany
Prior art keywords
image
camera
signals
signal
infrastructure information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021209671.9A
Other languages
English (en)
Inventor
Holger Mindt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102021209671.9A priority Critical patent/DE102021209671A1/de
Priority to US17/822,842 priority patent/US11876955B2/en
Priority to CN202211072440.9A priority patent/CN115767070A/zh
Publication of DE102021209671A1 publication Critical patent/DE102021209671A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/50Barriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung bezieht sich auf ein Verfahren zur Qualifizierung eines Kamerasystems (24) und/oder von dessen Bild-/Kamerasignalen (28) eines teilautonom oder autonom fahrenden Fahrzeugs (10). Es werden Infrastruktur-Informationen (18) aus einer Fahrzeugumgebung (12) herangezogen. Es erfolgt eine Überwachung des Bild-/Kamerasignals (28) des Kamerasystems (24) durch eine Überwachungsfunktion (40) hinsichtlich zumindest nachfolgender Kriterien:- Bild-/Kamerasignal (28) in wiederkehrenden, bekannten Zeitfenstern,- Reihenfolge der Bild-/Kamerasignale (28),- Verfälschung der Bild-/Kamerasignale (28),- Signaturüberprüfung des Kamerasystems (24).Es wird eine Überprüfung der Bild-/Kamerasignale (28) mittels mit einer Liste (MAP) abgeglichenen, unbeweglichen Landmarkierungen vorgenommen und auf eine Kartierungssignatur (54) überprüft. Sodann werden die Bild-/Kamerasignale (28) und die in der aktualisierten Kartenüberprüfungsfunktion (50) enthaltenen Infrastruktur-Informationen (18) an eine Auswertungsfunktion (60) übermittelt und in einer Signalfusionseinheit (62) zusammengeführt und verglichen. In der Folge wird ein qualifiziertes Bild-/Kamerasignal (28) erhalten. Darüber hinaus bezieht sich die Erfindung auf die Verwendung des Verfahrens zum Leiten oder Unterstützen eines autonom oder teilautonom fahrenden Fahrzeugs (10).

Description

  • Technisches Gebiet
  • Die Erfindung bezieht sich auf ein Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen für ein teilautonom oder autonom fahrendes Fahrzeug unter Heranziehung von Infrastruktur-Informationen einer Fahrzeugumgebung. Darüber hinaus bezieht sich die Erfindung auf die Verwendung des Verfahrens zur Leitung und Unterstützung eines autonom oder teilautonom fahrenden Fahrzeugs durch Infrastruktur-Informationen von außerhalb des Fahrzeugs.
  • Stand der Technik
  • Ein teilautonomes oder autonomes Fahrzeug (AD-Fahrzeug) ist in der Regel mit einer CCU (Connectivity Control Unit) oder einer anderen Funkeinheit ausgestattet. Autonom oder teilautonom fahrende Fahrzeuge können unter Zuhilfenahme von Informationen von außerhalb des Fahrzeugs, beispielsweise generiert durch Sensoren an einer herausfordernden Stelle, unterstützt oder durch diese Informationen sicher geleitet werden. Diese von außerhalb des Fahrzeugs stammenden Informationen sollen insbesondere dazu genutzt werden, um sicherheitskritische Funktionen zu unterstützen oder zu ermöglichen. Beispiele für solche Informationen, die aus der Infrastruktur herrühren, sind beispielsweise kritische Streckenabschnitte, wie Baustellen oder Tunneleinfahrten, andere Verkehrsteilnehmer in Gestalt von Fahrzeugen und Fußgängern, die sich in der Umgebung des autonom fahrenden Fahrzeugs aufhalten, ferner Autobahnauffahrten und Autobahnabfahrten, Ampeln, Hindernisse, Freiraum oder befahrbare Bereiche innerhalb eines Gebiets. Um von außerhalb des Fahrzeugs Informationen in das Fahrzeug zu leiten, wird in der Regel eine Drahtlos-Direktkommunikation verwendet, beispielsweise DSRC/ITS-G5 oder Cellular-V2X, wie zum Beispiel LTE-V, 5G-V2X oder dergleichen.
  • Die Erfassung von Objekten aus Objektlisten mit externen Sensoren werden teilweise mit unterschiedlichen Kamerasystemen realisiert. Meistens haben diese Kamerasysteme keine Sicherheitsanforderungen und sind nach den Standards ASIL-QM oder dem Standard SIL 0 entwickelt. Um Signale derartiger Kamerasysteme ohne Sicherheitsanforderungen für ein hochautomatisiertes Fahrsystem einzusetzen, bedarf es Kamerasignalen oder Signalpfadketten, die Sicherheitsanforderungen gemäß den Standards ASIL A-D oder SIL 1-3 entsprechen. So darf beispielsweise der Fall nicht auftreten, dass durch einen sich zufällig ereignenden Hardwarefehler oder einen Softwarefehler in der Kamera oder im Kamerasystem plötzlich ein oder mehrere Objekte nicht mehr erkannt werden können, eine Komponente oder das System den Fehler nicht entdeckt und daher mit unerkannt fehlerhaften Daten weitergerechnet wird, woraus mit hoher Wahrscheinlichkeit Unfälle teilautonom oder autonom fahrender Fahrzeuge resultieren.
  • Die Signale derartiger Kamerasysteme müssen entweder stets richtig sein oder sofort beziehungsweise sehr schnell als falsch identifiziert werden. Dadurch lassen sich Systemreaktionen rechtzeitig einleiten und Daten als fehlerhaft markieren.
  • DE 10 2019 130 319 A1 bezieht sich auf ein Verfahren zum Betreiben eines in einem autonomen Fahrmodus fahrbaren Fahrzeugs. Informationen aus dem Fahrzeugumfeld werden durch diese erfassende Sensoreinrichtungen ermittelt und eine die Ist-Position des Fahrzeugs beschreibende Positionsinformation mittels einer Positionserfassungseinrichtung erfasst. Es erfolgt bei im autonomen Fahrmodus fahrenden Kraftfahrzeug seitens einer Steuerungs- und Verarbeitungseinrichtung anhand der laufend erfassten Umfeldinformation und der laufend erfassten Positionsinformation eine Qualifizierung der gegebenen oder zukünftig sich einstellenden Umfeldsituation. Das Qualifizierungsergebnis wird mit einem oder mehreren für die Person individuell definierten Vergleichsergebnissen verglichen. Bei Erfassung eines einem Vergleichsergebnis entsprechenden Qualifizierungsergebnis wird ein auf die Umfeldsituation hinweisendes Informationssignal ausgegeben.
  • Darstellung der Erfindung
  • Erfindungsgemäß wird ein Verfahren vorgeschlagen zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen eines teilautonom oder autonom fahrenden Fahrzeugs unter Heranziehung von Infrastruktur-Informationen einer Fahrzeugumgebung mit zumindest nachfolgenden Verfahrensschritten:
    1. a) Überwachung des Bild-/Kamerasignals des Kamerasystems durch eine Überwachungsfunktion hinsichtlich zumindest nachfolgender Kriterien:
      • - Bild-/Kamerasignal in wiederkehrenden, bekannten Zeitfenstern,
      • - Reihenfolge der Bild-/Kamerasignale,
      • - Verfälschung der Bild-/Kamerasignale,
      • - Signaturprüfung des Kamerasystems;
    2. b) Überprüfung der Bild-/Kamerasignale mittels mit einer Liste (MAP) abgeglichenen, unbeweglichen Landmarkierungen;
    3. c) Übermittlung der Bild-/Kamerasignale gemäß Verfahrensschritt a) und der Kartenüberprüfungsfunktion gemäß Verfahrensschritt b) enthaltenen Infrastruktur-Informationen an eine Auswertefunktion und Vergleich dieser Daten in einer Signalfusionseinheit und
    4. d) Erhalt eines qualifizierten Bild-/Kamerasignals nach Durchführung von Verfahrensschritt c).
  • Durch das erfindungsgemäß vorgeschlagene Verfahren können Kamerasysteme hinsichtlich der Sicherheitsanforderungen von ASIL oder SIL so qualifiziert werden, dass diesen Standards Genüge getan wird und diese vollständig erfüllt werden und Bild-/Kamerasignale derartiger Kamerasysteme hochqualifiziert für autonom und teilautonom fahrende Fahrzeuge sind.
  • In vorteilhafter Weise erfolgt beim erfindungsgemäß vorgeschlagenen Verfahren bei gemäß a) festgestellten, wiederkehrenden bekannten Zeitfenstern des Bild-/Kamerasignals bei korrekter Reihenfolge der Bild-/Kamerasignale, bei unverfälschten Bild-/Kamerasignalen und des korrekten Kamerasystems eine Schlussfolgerung dahingehend, dass eine Übertragung eines Bild-/Kamerasignals vom richtigen Kamerasystem in der korrekten Reihenfolge zum korrekten Zeitpunkt und mit unverfälschten Inhalten erfolgt ist.
  • In weiterer vorteilhafter Ausgestaltung des erfindungsgemäß vorgeschlagenen Verfahrens werden gemäß Verfahrensschritt c) in der Auswertefunktion sämtliche Bild-/Kamerasignale und die Infrastruktur-Informationen ausgewertet und im Fehlerfall wird auf ein fehlerhaftes Bild-/Kamerasignal geschlossen. Dadurch kann verhindert werden, dass mit fehlerhaften Daten weitergerechnet wird und somit unfallträchtige Szenarien bei autonom oder teilautonom fahrenden Fahrzeugen vermieden werden können.
  • In einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäß vorgeschlagenen Verfahrens wird gemäß Verfahrensschritt c) der Vergleich der Infrastruktur-Information mit den Bild-/Kamerasignalen auf Sichtbarkeit der Infrastruktur-Informationen im Bild-/Kamerasignal ausgeführt. Dadurch ist eine Verifizierung der Bild-/Kamerasignale mit statischen Infrastruktur-Informationen möglich, die sich als solche nicht verändern und demzufolge Fixpunkte darstellen, die in den Bild-/Kamerasignalen des Kamerasystems wiederkehren sollten.
  • In vorteilhafter Ausgestaltung des erfindungsgemäß vorgeschlagenen Verfahrens wird bei in jedem Bild-/Kamerasignal an übereinstimmenden Stellen sichtbaren Infrastruktur-Informationen auf ein korrektes Bild-/Kamerasignal geschlossen.
  • In vorteilhafter Weise werden beim erfindungsgemäß vorgeschlagenen Verfahren gemäß Verfahrensschritt c) innerhalb der Auswertefunktion die Bild-/Kamerasignale zum Zeitpunkt n und zum Zeitpunkt n-1 miteinander verglichen, so dass verdächtige, kurz vom Bild-/Kamerasignal übermittelte Gegenstände markiert werden können. Insbesondere kann durch eine solche Überwachung (z. B. Geschwindigkeitsvektoren- und Objektortvergleich zum Zeitpunkt n und n-1) ein eingefrorenes Bild der Kamera erkannt werden.
  • In einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäß vorgeschlagenen Verfahrens werden gemäß den Verfahrensschritten a) und c) durch die Auswertungsfunktion die Bild-/Kamerasignale des Kamerasystems auf Auftreten eines Standbilds überwacht. Dies kann auf einfache Weise durch die korrekte Reihenfolge verschiedener Bilder dargestellt werden.
  • In einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäß vorgeschlagenen Verfahrens wird bei der Durchführung des Vergleichs gemäß Verfahrensschritt c) und Detektion einer Verschiebung der Infrastruktur-Informationen um einen identischen Vektor auf eine Dekalibrierung des Kamerasystems geschlossen. Mithin lässt sich das erfindungsgemäß vorgeschlagene Verfahren auch auf das Kamerasystem als solches beziehungsweise auf dessen Einstellungen in Bezug auf eine Kalibrierung einsetzen.
  • Beim erfindungsgemäß vorgeschlagenen Verfahren werden gemäß Verfahrensschritt b) über die Kartenüberprüfungsfunktion statische Informationen erfasst. Dabei kann es sich um Informationen zu Schilderbrücken, Verkehrszeichen, Bauwerken, Tunneln, Eisenbahnübergängen, Brücken, Masten, Fahrbahnmarkierungen u. ä. handeln. Diese Kartendaten werden mit dem aktuell aufgenommenen Kamerabild verglichen.
  • Darüber hinaus bezieht sich die Erfindung auf die Verwendung des Verfahrens zur Leitung und Unterstützung eines autonom oder teilautonom fahrenden Fahrzeugs durch Infrastruktur-Informationen von außerhalb des Fahrzeugs an kritischen Wegestellen.
  • Vorteile der Erfindung
  • Durch die erfindungsgemäß vorgeschlagene Lösung in Gestalt des vorgeschlagenen Verfahrens wird eine Kamera beziehungsweise ein Kamerasystem ohne Sicherheitsanforderung so qualifiziert, dass dessen Bild-/Kamerasignale höchsten Sicherheitsanforderungen genügen. Beim erfindungsgemäß vorgeschlagenen Verfahren erfolgen Überwachungen der Bild-/Kamerasignale derart, dass deren Bilder beziehungsweise der Kamerasignalsequenzen entweder als „richtig“ oder als „fehlerhaft markiert“ ausgegeben werden. Als „richtig“ qualifizierte Bild-/Kamerasignale können weiteren Berechnungen innerhalb des teilautonom oder autonom fahrenden Fahrzeugs zugrunde gelegt werden, während als „fehlerhaft markiert“ ermittelte Bild-/Kamerasignale weiteren Berechnungen gar nicht erst zugrunde gelegt werden, so dass eine möglicherweise sich einstellende Fehlerfortpflanzung rechtzeitig unterbunden wird. So können die Sicherheitsanforderungen an die Übertragung externer Infrastruktur-Informationen, die über ein nicht qualifiziertes Kamerasystem aufgenommen werden, derart qualifiziert werden, dass die Sicherheitsanforderungen nach A-D oder SIL 1-3 zumindest eingehalten werden.
  • Durch das erfindungsgemäß vorgeschlagene Verfahren können CE-Kameras ohne Qualifizierung, die eine Ableitung von Sicherheitsanforderungen nicht zulassen, besonders qualifiziert werden. Bei CE-Produkten handelt es sich um „Consumer-Electronic“-Bauteile, die nicht für den Einsatz im Bereich „Automotive“ qualifiziert sind. Diese kostengünstigen Bauteile können durch die vorliegende Erfindung entsprechend höherrangig qualifiziert werden. Bei autonom oder teilautonom fahrenden Fahrzeugen können Signalketten beziehungsweise Objektlisten, die nur mit ASIL-Daten angesteuert werden, entsprechenden Sicherheitsanforderungen nicht genügen, so dass derartig nicht qualifizierte Signalketten beziehungsweise Objektlisten für einen hochautomatisierten Fahrbetrieb, wie er bei einem teilautonomen oder autonomen Fahrzeug verwirklicht ist, nicht ausreichend sind. Diesem Missstand kann durch das erfindungsgemäß vorgeschlagene Verfahren abgeholfen werden, indem eine Qualifizierung eines CE-Kamerasystems beziehungsweise von dessen Bild-/Kamerasignalen mittels einer Auswertelogik auf ein entsprechendes Sicherheitslevel gehoben werden.
  • Es lassen sich fehlerhafte Bild-/Kamerasignale beziehungsweise Videosignale identifizieren und dementsprechend markieren, so dass diese Weiterberechnungen in Bezug auf die Fahrtroute oder Fahrtgeschwindigkeit oder -richtung oder dergleichen nicht zugrunde gelegt werden. Des Weiteren kann das erfindungsgemäß vorgeschlagene Verfahren in vorteilhafter Weise dazu dienen, eine sich möglicherweise im Laufe des Betriebs eingestellt habende Dekalibrierung des Kamerasystems zu erkennen und eine Neu-Kalibrierung des Kamerasystems zu initiieren. Des Weiteren kann durch die erfindungsgemäß vorgeschlagene Lösung in kostengünstiger Weise ein Einsatz von CE-Kameras beziehungsweise CE-Kamerasystemen zugelassen werden, da die Sicherheitsvorrichtungen beziehungsweise die Qualifizierungen der Bild-/Kamerasignale durch das erfindungsgemäß vorgeschlagene Verfahren geleistet werden und demzufolge nicht in der Kamera beziehungsweise im Kamerasystem vorgehalten werden müssen.
  • Durch das erfindungsgemäß vorgeschlagene Verfahren können Standbilder erkannt werden, ferner können in der Auswertefunktion die Bild-/Kamerasignale zum Zeitpunkt n und zum Zeitpunkt n-1 miteinander verglichen werden, so dass insbesondere plötzlich auftauchende Objekte in der Auswertefunktion bewertet und gegebenenfalls als auffällig gekennzeichnet werden können, bevor sie einer möglichen weiteren Datenverarbeitung unterzogen werden.
  • Figurenliste
  • Ausführungsformen der Erfindung werden anhand der Zeichnungen und der nachfolgenden Beschreibung näher erläutert.
  • Es zeigen:
    • 1 in schematischer Weise die Darstellung eines Kamerasystems ohne Sicherheitsqualifikation des Bild-/Kamerasignals,
    • 2 ein autonom oder teilautonom fahrendes Fahrzeug mit Fahrzeugumgebung und in der Fahrzeugumgebung vorhandener Infrastruktur und
    • 3 in schematischer Weise ein Kamerasystem eines autonom oder teilautonom fahrenden Fahrzeugs, dessen Bild-/Kamerasignal eine Sicherheitsqualifizierung durchläuft.
  • Der Darstellung gemäß 1 ist eine Signalverarbeitung von Bild-/Kamerasignalen 28 eines Kamerasystems 24 ohne Sicherheitsqualifizierung zu entnehmen. Ein auf das Kamerasystem 24 auftreffendes Nutzsignal wird als Bild-/Kamerasignal 28 unter Beachtung des ASIL-QM-Standards 26 verarbeitet und versandt. Im Rahmen einer Signalfusion 30 erfolgt eine Fusion des Bild-/Kamerasignals 28 mit anderen Signalen aus der Umgebung unter Beachtung des ASIL-QM-Standards 32. Daraus werden aus einer Objektliste 34 ASIL-QMbasierte Daten generiert.
  • Ausführungsformen der Erfindung
  • In der nachfolgenden Beschreibung der Ausführungsformen der Erfindung werden gleiche oder ähnliche Elemente mit gleichen Bezugszeichen bezeichnet, wobei auf eine wiederholte Beschreibung dieser Elemente in Einzelfällen verzichtet wird. Die Figuren stellen den Gegenstand der Erfindung nur schematisch dar.
  • 2 zeigt ein teilautonom oder autonom fahrendes Fahrzeug 10, welches sich auf einer Fahrbahn 14 innerhalb einer Fahrzeugumgebung 12 bewegt. Aus 2 geht darüber hinaus hervor, dass das teilautonom oder autonom fahrende Fahrzeug 10 eine Fahrbahn 14 passiert, wobei sich das Fahrzeug 10 in Fahrtrichtung 16 bewegt und beispielsweise den Eingang eines Tunnelabschnitts passiert, durch den sich die Fahrbahn 14, auf der das teilautonom oder autonom fahrende Fahrzeug 10 unterwegs ist, erstreckt.
  • In der Fahrzeugumgebung 12 des teilautonom oder autonom fahrenden Fahrzeugs 10 befinden sich Bestandteile einer Infrastruktur, die Infrastruktur-Informationen 18 darstellen. Diese gelangen als Nutzsignale 22 zu einem im teilautonom oder autonom fahrenden Fahrzeug 10 vorhandenen Kamerasystem 24. Bei diesem handelt es sich um ein Kamerasystem 24, welches erfindungsgemäß Bild-/Kamerasignale 28 generiert, die, wie nachfolgend beschrieben werden wird, im Rahmen einer Sicherheitsqualifizierung weiterverarbeitet werden. Die Kamera beziehungsweise das Kamerasystem 24 an sich ist ein standardmäßiges CE-Kamerasystem oder eine CE-Kamera.
  • Die Infrastruktur-Informationen 18, die von außerhalb, d. h. von der Fahrzeugumgebung 12 zum autonom oder teilautonom fahrenden Fahrzeug 10 gelangen, stellen beispielsweise Schilderbrücken, Verkehrszeichen, Bauwerke, Tunnel, Eisenbahnübergängen, Brücken, Bauwerke, Fahrbahnmarkierungen, Masten oder dergleichen dar. Insbesondere handelt es sich bei den Infrastruktur-Informationen 18 um solche Komponenten der Infrastruktur, d. h. der Fahrzeugumgebung 12, die statisch sind, also Fixpunkte darstellen.
  • Aus der schematischen Widergabe gemäß 3 geht eine Sicherheitsqualifizierung von Bild-/Kamerasignalen 28 eines standardmäßig vorhandenen Kamerasystems 24 mit einer CE-Kamera oder dergleichen hervor. Über das Kamerasystem 24 werden zunächst die in 2 dargestellten Nutzsignale 22 aus der Fahrzeugumgebung 12 empfangen, welche die Infrastrukturinformationen 18 darstellen, die von außerhalb an das autonom oder teilautonom fahrende Fahrzeug 10 gelangen. Im Rahmen des Kamerasystems 24 erfolgt die Verarbeitung der Bild-/Kamerasignale 28 gemäß ASIL QM (B) 66.
  • Wie aus dem in 3 dargestellten Beispielsystem mit einer Sicherheitsqualifizierung für Bild-/Kamerasignale 28 des Weiteren hervorgeht, werden die Bild-/Kamerasignale 28 an eine Auswertungsfunktion 60 übermittelt. Der Auswertungsfunktion 60 ist zumindest eine Überwachungsfunktion 40 einerseits sowie eine Kartenüberprüfungsfunktion 50 andererseits zugeordnet.
  • Im Rahmen der Überwachungsfunktion 40 erfolgt eine Überwachung der Bild-/Kamerasignale 28 dahingehend, dass im Rahmen einer Timing-Überwachung 42 überwacht wird, ob die Bild-/Kamerasignale 28 des Kamerasystems 24 in einem immer wiederkehrenden, bekannten Zeitfenster übertragen werden. Im Rahmen einer Reihenfolgeüberwachung 44 wird im Rahmen der Überwachungsfunktion 40 überwacht, ob die Bild-/Kamerasignale 28 in der richtigen Reihenfolge übertragen werden (Sequence-Überwachung). Des Weiteren wird im Rahmen der Überwachungsfunktion 40 überwacht, ob eine Signalverfälschung 46 vorliegt. Die von dem Kamerasystem 24 übertragenen Bild-/Kamerasignale 28 können verfälscht sein, was im Rahmen eines CRC-Checks (Cyclic Redundancy Check oder zyklische Redundanzprüfung, Verfahren zur Bestimmung eines Prüfwerts für Daten, um Fehler bei der Übertragung oder Speicherung erkennen zu können. Im Idealfall kann das Verfahren sogar die empfangenen Daten selbständig korrigieren, um eine erneute Übertragung zu vermeiden) oder eines ähnlichen Mechanismus herausgefunden werden kann. Daneben wird in der Überwachungsfunktion 40 überprüft, ob die Signaturen des jeweiligen Kamerasystems 24, von dem aus die Bild-/Kamerasignale 28 übertragen werden, korrekt sind oder nicht (Security-Überwachung).
  • Werden alle diese Überwachungsschritte hinsichtlich der Timing-Überwachung 42, der Reihenfolge-Überwachung 44, der Signalverfälschung 46 sowie der Signaturverfälschung 48 erfolgreich absolviert, wird darauf geschlossen, dass das Bild-/Kamerasignal 28 des Kamerasystems 24 vom richtigen Kamerasystem 24 zum richtigen Zeitpunkt in der richtigen Reihenfolge und mit unverfälschtem Inhalt übertragen worden ist. Durch diese Überwachung gemäß der Überwachungsfunktion 40 allein kann die Richtigkeit des vom jeweiligen Kamerasystem 24 aufgenommenen Bilds jedoch nicht vollständig überprüft werden. Hierzu bedarf es des Einsatzes einer Kartenüberprüfungsfunktion 50. Die Kartenüberprüfungsfunktion 50 wird auch als MAP-Information bezeichnet. Die Kartenüberprüfungsfunktion 50 schließt eine Aktualitätsüberwachung 52 sowie eine Kartensignatur 54 ein. Des Weiteren erfolgt im Rahmen der Kartenüberprüfungsfunktion 50 eine stetige Aktualisierung von statischen Objekten. Im Rahmen der Kartenüberprüfungsfunktion 50 sind signifikante statische Landmarks, signifikante Bauwerke und dergleichen in Gestalt von Schilderbrücken, Verkehrszeichen, Häusern, gegebenenfalls sogar Bäumen eingezeichnet, die im Rahmen einer Auswertungsfunktion 60 zum Abgleich mit den Bild-/Kamerasignalen 28 eingesetzt werden. Im Rahmen der Kartenüberprüfungsfunktion 50 werden die aufgenommenen Bilder, d. h. die Bild-/Kamerasignale 28 mittels der Karteninformation verifiziert. So kann erreicht werden, dass eine Kamera 24 ein Bild aufnimmt, das die Umgebung korrekt abbildet. Die Kartenüberprüfungsfunktion 50 als solche ist auf ihre Aktualität zu überprüfen. Der Aktualisierungszeitraum kann beispielsweise in der Größenordnung von Tagen oder Wochen liegen. In der Regel ist eine wöchentliche Aktualisierung durchaus ausreichend, da sich in der Regel statische Objekte hinsichtlich ihres Standorts und ihrer Positionierung nicht ändern. Des Weiteren ist zu überprüfen, inwieweit die Kartierungssignatur 54 aktuell ist.
  • Im Rahmen der Auswertungsfunktion 60 werden die von der Überwachungsfunktion 40 hinsichtlich der oben genannten Kriterien über qualifizierte Bild-/Kamerasignale 28 verarbeitet und beispielsweise durch eine Signalfusionseinheit 62 mit den von der Kartenüberprüfungsfunktion 50 erhaltenen statischen Informationen aus der Fahrzeugumgebung 12, die durch die Infrastruktur-Information 18 repräsentiert sind, verglichen und zusammengeführt. Im Fehlerfall wird das nachfolgende Verarbeitungssystem umgehend informiert, so dass fehlerhafte Bild-/Kamerasignale 28 nicht weiterverarbeitet werden und rechtzeitig als „fehlerhaft markiert“ ausgeschleust werden. Es erfolgt der Vergleich der Infrastruktur-Informationen 18 aus der Kartenüberprüfungsfunktion 50 mit den aufgenommenen Bildern beziehungsweise den Bild-/Kamerasignalen 28 des Kamerasystems 24, insbesondere unter Berücksichtigung der statischen Landmarks. Sind diese markierten Stellen auch in jedem Bild-/Kamerasignal 28 des Kamerasystems 24 an identischen, stets wiederkehrenden, richtigen Stellen vorhanden, kann darauf geschlossen werden, dass das Kamerasystem 24 ein „korrektes“ Bild liefert. Dieser Umstand des erfindungsgemäß vorgeschlagenen Verfahrens kann dahingehend ausgenutzt werden, dass auch eine Kalibrierung des Kamerasystems 24 ständig online überprüft werden kann. Verschieben sich alle statische Landmarks repräsentierenden Infrastruktur-Informationen 18 mit einem identischen oder ähnlichen Vektor, so ist von einer sich einstellenden Dekalibrierung des Kamerasystems 24 auszugehen, so dass dieses zum korrekten Betrieb neu zu kalibrieren ist.
  • Beim erfindungsgemäß vorgeschlagenen Verfahren kann auch der besondere Fall eines Standbilds erkannt werden, was über eine dementsprechende Berücksichtigung der Reihenfolgeüberwachung 44 (Sequence-Überwachung) erfolgt. Bei stets identischen, wiederkehrenden Bildern zum Zeitpunkt n und n-1 ist von einem fehlerhaften Kamerasystem 24 auszugehen. Im Rahmen der Auswertefunktion 60, die dem Kamerasystem 24 nachgeschaltet ist, werden zudem die Bild-/Kamerasignale 28 des Kamerasystems 24 zum Zeitpunkt n und zum Zeitpunkt n-1 miteinander verglichen. Bei diesem Vergleich plötzlich auftauchende Objekte können in der Auswertungsfunktion 60 gegebenenfalls als „auffällig“ markiert werden und eine dementsprechende Berücksichtigung finden.
  • Diese als Software-Applikation gestaltete Sicherheitsqualifizierung von Bild-/Kamerasignalen 28 eines herkömmlichen Kamerasystems 24 erlauben den Einsatz von Standardkameras und die Qualifizierung von deren Bild-/Kamerasignalen 28 derart, dass sie die Sicherheitsanforderungen nach ASIL A-D oder SIL 1-3 erfüllen.
  • Durch Anwendung des erfindungsgemäß vorgeschlagenen Verfahrens in einer VCU eines teilautonom oder autonom fahrenden Fahrzeugs 10 können an besonders herausfordernden Stellen, wie beispielsweise Tunneleinfahrten oder Baustellen Infrastruktur-Informationen 18 von außerhalb des autonom oder teilautonom fahrenden Fahrzeugs 10 in das autonom oder teilautonom fahrende Fahrzeug 10 übertragen werden, da dies in der Regel mit einer CCU oder einer anderen Funkeinheit ausgestattet ist. Diese Informationen von außerhalb des teilautonom oder autonom fahrenden Fahrzeugs 10, aus der Fahrzeugumgebung 12 stammend, können ein dementsprechendes Fahrzeug 10 unterstützen und dieses entsprechend leiten. Durch die Infrastruktur-Informationen 18 aus der Fahrzeugumgebung 12 können sicherheitskritische Funktionen innerhalb des teilautonom oder autonom fahrenden Fahrzeugs 10 unterstützt oder erst ermöglicht werden. In der Regel werden die von außerhalb des autonom oder teilautonom fahrenden Fahrzeugs 10 in das Fahrzeug übertragenen Informationen über Drahtlos-Direktkommunikation übermittelt, beispielsweise entsprechend den Standards DSRC/ITS G5 oder Cellular V2X, LTE-V, 5G-V2X oder ähnliche.
  • Die Erfindung ist nicht auf die hier beschriebenen Ausführungsbeispiele und die darin hervorgehobenen Aspekte beschränkt. Vielmehr ist innerhalb des durch die Ansprüche angegebenen Bereichs eine Vielzahl von Abwandlungen möglich, die im Rahmen fachmännischen Handelns liegen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102019130319 A1 [0005]

Claims (10)

  1. Verfahren zur Qualifizierung eines Kamerasystems (24) und/oder von dessen Bild-/Kamerasignalen (28) eines teilautonom oder autonom fahrenden Fahrzeugs (10) unter Heranziehung von Infrastruktur-Informationen (18) einer Fahrzeugumgebung (12) mit zumindest nachfolgenden Verfahrensschritten: a) Überwachung des Bild-/Kamerasignals (28) des Kamerasystems (24) durch eine Überwachungsfunktion (40) hinsichtlich zumindest nachfolgender Kriterien: - Bild-/Kamerasignal (28) in wiederkehrenden, bekannten Zeitfenstern, - Reihenfolge der Bild-/Kamerasignale (28), - Verfälschung der Bild-/Kamerasignale (28), - Signaturprüfung des Kamerasystems (24), b) Überprüfung der Bild-/Kamerasignale (28) mittels mit einer Liste (MAP) abgeglichenen, unbeweglichen Landmarkierungen; c) Übermittlung der Bild-/Kamerasignale (28) gemäß a) und der in der aktualisierten Kartenüberprüfungsfunktion (50) gemäß b) enthaltenen Infrastruktur-Informationen (18) an eine Auswertungsfunktion (60) und Vergleich derselben in einer Signalfusionseinheit (62) und d) Erhalt eines qualifizierten Bild-/Kamerasignals (72) nach Durchführung von c).
  2. Verfahren gemäß Anspruch 1, dadurch gekennzeichnet, dass bei gemäß a) festgestelltem, wiederkehrendem bekanntem Zeitfenster des Bild-/Kamerasignals (28) in korrekter Reihenfolge der Bild-/Kamerasignale (28), unverfälschten Bild-/Kamerasignalen (28) und richtigem Kamerasystem (24) auf die Übertragung eines Bild-/Kamerasignals (28) vom richtigen Kamerasystem (24) in der richtigen Reihenfolge zum korrekten Zeitpunkt und mit unverfälschtem Inhalt geschlossen wird.
  3. Verfahren gemäß den Ansprüchen 1 und 2, dadurch gekennzeichnet, dass gemäß Verfahrensschritt c) in der Auswertungsfunktion (60) sämtliche Bild-/Kamerasignale (28) und die Infrastruktur-Informationen (18) ausgewertet werden und im Fehlerfall auf ein fehlerhaftes Bild-/Kamerasignal (28) geschlossen wird.
  4. Verfahren gemäß den Ansprüchen 1 bis 3, dadurch gekennzeichnet, dass gemäß Verfahrensschritt c) der Vergleich der Infrastruktur-Informationen (18) gemäß c) mit den Bild-/Kamerasignalen (28) im Hinblick auf Sichtbarkeit der Infrastruktur-Informationen (18) im Bild-/Kamerasignal (28) durchgeführt wird.
  5. Verfahren gemäß den Ansprüchen 1 bis 4, dadurch gekennzeichnet, dass bei jedem Bild-/Kamerasignal (28) mit detektierten übereinstimmenden Stellen sichtbarer Infrastruktur-Informationen (18) auf korrekte Bild-/Kamerasignale (28) geschlossen wird.
  6. Verfahren gemäß den Ansprüchen 1 bis 5, dadurch gekennzeichnet, dass gemäß Verfahrensschritt c) innerhalb der Auswertungsfunktion (60) die Bild-/Kamerasignale (28) zum Zeitpunkt (n) und zum Zeitpunkt (n-1) verglichen werden.
  7. Verfahren gemäß den Ansprüchen 1 bis 6, dadurch gekennzeichnet, dass gemäß den Verfahrensschritten a) und c) die Auswertungsfunktion (60) die Bild-/Kamerasignale (28) auf Auftreten eines Standbilds überwacht.
  8. Verfahren gemäß den Ansprüchen 1 bis 7, dadurch gekennzeichnet, dass bei Durchführung des Vergleichs gemäß Verfahrensschritt c) und Detektion einer Verschiebung der Infrastruktur-Informationen (18) um einen identischen Vektor auf eine Dekalibrierung des Kamerasystems (24) geschlossen wird.
  9. Verfahren gemäß den Ansprüchen 1 bis 8, dadurch gekennzeichnet, dass gemäß b) die Infrastruktur-Informationen (18) Informationen zu - Schilderbrücken, - Verkehrszeichen, - Bauwerken, - Tunneln, - Eisenbahnübergängen, - Brücken, - Fahrbahnmarkierungen, - Leitplanken, - (Sende-) Masten umfassen.
  10. Verwendung des Verfahrens gemäß einem der Ansprüche 1 bis 9 zur Leitung und Unterstützung eines autonom oder teilautonom fahrenden Fahrzeugs (10) durch Infrastruktur-Informationen (18) von außerhalb des Fahrzeugs (10) an kritischen Stellen.
DE102021209671.9A 2021-09-02 2021-09-02 Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen Pending DE102021209671A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102021209671.9A DE102021209671A1 (de) 2021-09-02 2021-09-02 Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen
US17/822,842 US11876955B2 (en) 2021-09-02 2022-08-29 Method for qualification of a camera system and/or its image/camera signals
CN202211072440.9A CN115767070A (zh) 2021-09-02 2022-09-02 用于对摄像机系统和/或摄像机系统的图像信号/摄像机信号进行资格证明的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021209671.9A DE102021209671A1 (de) 2021-09-02 2021-09-02 Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen

Publications (1)

Publication Number Publication Date
DE102021209671A1 true DE102021209671A1 (de) 2023-03-02

Family

ID=85175006

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021209671.9A Pending DE102021209671A1 (de) 2021-09-02 2021-09-02 Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen

Country Status (3)

Country Link
US (1) US11876955B2 (de)
CN (1) CN115767070A (de)
DE (1) DE102021209671A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023144519A (ja) * 2022-03-28 2023-10-11 ラピステクノロジー株式会社 映像信号処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016013502A1 (de) 2016-11-11 2017-05-24 Daimler Ag Verfahren zum Überwachen einer Datenübertragung auf Übertragungsfehler und Datenübertragungssystem
DE102016212196A1 (de) 2016-07-05 2018-01-11 Robert Bosch Gmbh Verfahren zum Auswerten von Sensordaten
DE102018127059A1 (de) 2018-10-30 2020-04-30 Daimler Ag Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102019130319A1 (de) 2019-11-11 2021-05-12 Audi Ag Verfahren zum Betreiben eines in einem autonomen Fahrmodus fahrbaren Kraftfahrzeugs

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9103671B1 (en) * 2007-11-29 2015-08-11 American Vehicular Sciences, LLC Mapping techniques using probe vehicles
US20180215392A1 (en) * 2017-02-02 2018-08-02 Denso Ten Limited Vehicle control device and vehicle control method
US11048105B1 (en) * 2017-09-30 2021-06-29 Matthew Roy Visor-like tablet and tablet holder for automotive vehicle
US10816993B1 (en) * 2019-11-23 2020-10-27 Ha Q Tran Smart vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016212196A1 (de) 2016-07-05 2018-01-11 Robert Bosch Gmbh Verfahren zum Auswerten von Sensordaten
DE102016013502A1 (de) 2016-11-11 2017-05-24 Daimler Ag Verfahren zum Überwachen einer Datenübertragung auf Übertragungsfehler und Datenübertragungssystem
DE102018127059A1 (de) 2018-10-30 2020-04-30 Daimler Ag Verfahren zur Überprüfung mindestens eines Umfelderfassungssensors eines Fahrzeugs
DE102019130319A1 (de) 2019-11-11 2021-05-12 Audi Ag Verfahren zum Betreiben eines in einem autonomen Fahrmodus fahrbaren Kraftfahrzeugs

Also Published As

Publication number Publication date
CN115767070A (zh) 2023-03-07
US20230064268A1 (en) 2023-03-02
US11876955B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
EP2850607B1 (de) Verfahren und system zur erstellung eines aktuellen situationsabbilds
DE102015200587A1 (de) Vorrichtung und Verfahren zum Anfordern eines Notrufes bei einer Fahrzeugstörung unter Verwendung von Reiseinformationen über das Fahrzeug
WO2019063628A1 (de) System zur erzeugung und/oder aktualisierung eines digitalen modells einer digitalen karte
WO2020200792A1 (de) Verfahren zur überprüfung eines umfelderfassungssensors eines fahrzeugs und verfahren zum betrieb eines fahrzeugs
DE102019216989A1 (de) Zwischenfahrzeug-sensorvalidierung unter ver wendung eines sensorfusionsnetzwerks
DE102020123831A1 (de) Konzept zum Unterstützen eines zumindest teilautomatisiert geführten Kraftfahrzeugs
EP3827277B1 (de) Verfahren, system und elektronische recheneinrichtung zum überprüfen von sensoreinrichtungen von fahrzeugen, insbesondere von kraftfahrzeugen
DE102018006503A1 (de) Digitale Karte
DE102021209671A1 (de) Verfahren zur Qualifizierung eines Kamerasystems und/oder von dessen Bild-/Kamerasignalen
DE102019206349A1 (de) Verfahren und Computer-Programm-Produkt zum Erkennen von Signalzeichen zur Verkehrssteuerung spurgebundener Fahrzeuge sowie Signalzeichenerkennungssystem und Spurgebundenes Fahrzeug, insbesondere Schienenfahrzeug
WO2022096236A1 (de) Verfahren zum ermitteln einer existenzwahrscheinlichkeit eines möglichen elements in einer umgebung eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug
DE102018133445A1 (de) Verfahren und Vorrichtung zum Überwachen eines Insassen eines Fahrzeugs sowie System zur Analyse der Wahrnehmung von Objekten
DE102018100593A1 (de) Parkassistenzsystem mit entfernter Konfiguration eines lokalen neuronalen Netzes
EP3968213A1 (de) Verfahren und vorrichtung zum ermitteln eines gleisgebundenen schienenpfades in einer gleisanlage
EP4079007A1 (de) Automatisierte zuverlässigkeitsprüfung einer infrastrukturseitigen überwachungssensorik
DE102019005825A1 (de) Verfahren zum Erzeugen von Trainingsdaten für eine kraftfahrzeugexterne elektronische Recheneinrichtung, sowie Fahrerassistenzsystem
DE102020105527A1 (de) Verfahren und system zum ermitteln von ursachen für eine verkehrsstörung
DE102020118628A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Position eines Fahrzeugs
WO2020233957A1 (de) Verfahren zum validieren einer kartenaktualität
DE102019206348A1 (de) Verfahren und Computer-Programm-Produkt zum Erkennen von Signalzeichen zur Verkehrssteuerung spurgebundener Fahrzeuge sowie Signalzeichenerkennungssystem und Spurgebundenes Fahrzeug, insbesondere Schienenfahrzeug
DE102018219735A1 (de) Verfahren und Vorrichtung zum Speichern von Daten für ein Fahrzeug
DE102022213170B3 (de) Verfahren zum Generieren von Trainingsdaten, elektronische Recheneinrichtung sowie Kraftfahrzeug
DE112021008425T5 (de) Fahrsteuerungssystem
DE102022207187A1 (de) Verfahren und Vorrichtung zum Bereitstellen von Objektdatenwerten und zum Erstellen einer Karte
DE102022206348A1 (de) Verfahren und System zum Ermitteln von Sensor- und/oder Lokalisierungsfehlern

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication