DE102022103324A1 - System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen. - Google Patents

System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen. Download PDF

Info

Publication number
DE102022103324A1
DE102022103324A1 DE102022103324.4A DE102022103324A DE102022103324A1 DE 102022103324 A1 DE102022103324 A1 DE 102022103324A1 DE 102022103324 A DE102022103324 A DE 102022103324A DE 102022103324 A1 DE102022103324 A1 DE 102022103324A1
Authority
DE
Germany
Prior art keywords
previous
states
assumption
max
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022103324.4A
Other languages
English (en)
Inventor
Quentin De Clercq
Hoang Tung Dinh
Mario Henrique Cruz Torres
Danilo Romano
Patrick Abrahao
Victor Vaquero
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ivex
Original Assignee
Ivex
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ivex filed Critical Ivex
Publication of DE102022103324A1 publication Critical patent/DE102022103324A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0027Planning or execution of driving tasks using trajectory prediction for other traffic participants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/021Means for detecting failure or malfunction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/30Road curve radius
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/53Road markings, e.g. lane marker or crosswalk
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4023Type large-size vehicles, e.g. trucks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4042Longitudinal speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4044Direction of movement, e.g. backwards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Es werden ein System und ein Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von autonomen Fahrzeugen beschrieben. Das System empfängt die Beobachtungen von Objekten in der Umgebung von einem oder mehreren Sensoren oder Wahrnehmungssystemen eines automatisierten Fahrzeugs. Zum aktuellen Zeitpunkt schätzt das System die Konsistenz der aktuell beobachteten Elemente des Wahrnehmungssystems anhand der zuvor empfangenen Eingaben. Diese Konsistenz wird durch Berechnung der Grenzen möglicher Zustände der zuvor beobachteten Elemente auf der Grundlage der empfangenen Informationen und von Annahmen bestimmt.

Description

  • HINTERGRUND
  • Automatisierte Fahrzeuge (auch als autonome Fahrzeuge bezeichnet) sind Roboterplattformen mit mehreren Wahrnehmungssensoren zur Erfassung von Rohdaten über die Umgebung. Die Rohmessungen werden von Wahrnehmungssystemen weiterverarbeitet, die ein Modell der Umgebung erstellen, das es der Steuerungs- und Entscheidungseinheit des Fahrzeugs ermöglicht, entsprechend zu handeln und im Verkehr angemessen zu manövrieren.
  • Bestehende Wahrnehmungssysteme für automatisierte Fahrzeuge können Elemente in der Szene und in der Umgebung erkennen und verfolgen. Diese Systeme erkennen die Objekte in der Szene mit einem Objekterkennungsalgorithmus, der auf einzelnen oder mehreren Sensoren wie Kamera, LiDAR oder Radar basiert. Anschließend werden der Objekttyp und der Objektzustand geschätzt. Gleichzeitig wird das neue Objekt geprüft und mit den bereits erkannten Objekten in Verbindung gebracht.
  • Es gibt jedoch kein Qualitätssicherungssystem für die beobachteten Informationen während der Laufzeit. Das Beste, was ein Erkennungs- und Verfolgungssystem tun kann, ist, einen Wert zu liefern, der die Unsicherheit der Erkennungs- und Verfolgungsergebnisse darstellt.
  • Die Bewertung der Qualität der Wahrnehmungssysteme von automatisierten Fahrzeugen zur Laufzeit ist äußerst wünschenswert. Wahrnehmungssysteme sind der Ausgangspunkt für jede weitere Interaktion von automatisierten Fahrzeugen mit der Umwelt. Daher können sich Fehler in den Wahrnehmungssystemen auf Aktionen der automatisierten Fahrzeuge auswirken, die beim Manövrieren katastrophale Folgen haben können, insbesondere in gemeinsam genutzten Räumen mit Menschen.
  • Wahrnehmungssysteme sind unvollkommen und nicht robust. Darüber hinaus basieren die aktuellen Wahrnehmungssysteme für autonomes Fahren auf nicht erklärbaren Architekturen wie tiefen neuronalen Netzen. Die Gewährleistung der Qualität dieser Wahrnehmungssysteme ist nach wie vor eine große Herausforderung. Daher ist es von entscheidender Bedeutung, die Qualität der Wahrnehmungssysteme von automatisierten Fahrzeugen zur Laufzeit zu bewerten. Wenn sich die Qualität dieser Wahrnehmungssysteme verschlechtert, sollte das Fahrzeugsteuergerät sofort informiert werden, damit es unsichere Entscheidungen und Aktionen vermeiden kann.
  • In der realen Welt gibt es zur Laufzeit keine Ground-Truth-Informationen über die umgebenden Objekte und die Umgebung. Unter „Ground-Truth“ versteht man im Allgemeinen die tatsächliche und genaue Position und den Status der Elemente der Szene. Ohne diese Informationen ist es nicht trivial, die Qualität von Wahrnehmungssystemen zur Laufzeit ohne menschliche Aufsicht zu beurteilen.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Die Erfinder haben nun überraschenderweise ein System und ein Verfahren gefunden, um die korrekte Entwicklung der Fahrszene zu analysieren und Inkonsistenzen in den Ausgaben der Wahrnehmungssysteme von automatisierten Fahrzeugen zur Laufzeit zu erkennen, um die Sicherheit von automatisierten Fahrzeugen und ähnlichen Roboterplattformen zu erhöhen.
  • Sicherheitsbedenken bezüglich der wahrgenommenen Informationen werden durch das System und die Methode dieser Erfindung identifiziert. Jedes Mal, wenn ein neues Ergebnis des Wahrnehmungssystems eintrifft, wird es mit früheren Ergebnissen verglichen, um Unstimmigkeiten zu erkennen. Das neue Ergebnis wird außerdem für einen bestimmten Zeitraum, z. B. 2 Sekunden, für zukünftige Vergleiche gespeichert. Der Vergleich erfolgt, indem zunächst die Ergebnisse der Vergangenheit über einen kurzen Zeitraum in die Zukunft fortgeschrieben werden, wobei verschiedene Annahmen über das Verhalten der einzelnen Objekte zugrunde gelegt werden. Durch die Propagierung wird die Grenze aller möglichen zukünftigen Zustände des Objekts berechnet. Anschließend wird der neu geschätzte Zustand des Objekts daraufhin überprüft, ob er innerhalb der berechneten Grenze liegt.
  • Dementsprechend ist der erste Gegenstand der Erfindung ein computerimplementiertes Verfahren zum Erkennen von Inkonsistenzen in den Informationen der Wahrnehmungssensoren (1.1) und der Wahrnehmungssysteme (1.2), im Folgenden gemeinsam als Beobachtungen bezeichnet, eines automatisierten Fahrzeugs (1), das auf einem elektronischen Steuergerät (1.3) abläuft, welches die Schritte umfasst:
    1. a. Empfang und Speicherung der beobachteten Zustände der Szene von Wahrnehmungssystemen (1.2) und Sensoren (1.1),
    2. b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der Art des Objekts, der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Umgebungsbedingungen oder einer Kombination davon,
    3. c. Prüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der berechneten erwarteten Grenzen bleibt,
    4. d. Übermittlung einer Meldung an das elektronische Steuergerät, wenn ein geschätzter Zustand nicht innerhalb eines erwarteten Rahmens liegt (1.3),
    5. e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
  • Ein weiterer Aspekt ist, dass das System zur Erkennung von Inkonsistenzen frei von menschlicher Überwachung und Kontrolle ist.
  • In einem anderen Aspekt sind die beobachteten Zustände der Szene Objekte, Straßenformen oder Umgebungsbedingungen oder Kombinationen davon.
  • In einem anderen Aspekt werden die beobachteten und geschätzten Zustände von Szenen, Objekten, Straßenformen oder Umweltbedingungen oder Kombinationen davon gespeichert und dann verwendet, um die Grenzen der Zustände von Szenen und Objekten in der Zukunft zu berechnen oder um aktuelle beobachtete Zustände mit zukünftigen beobachteten Zuständen abzugleichen.
  • In einem anderen Aspekt werden die beobachteten und geschätzten Zustände für eine feste Zeitspanne gespeichert, wobei die feste Zeitspanne zwischen 0,1 Sekunden und 10 Sekunden, vorzugsweise zwischen 1 Sekunde und 5 Sekunden, noch bevorzugter zwischen 1,5 Sekunden und 3 Sekunden liegt.
  • Ein weiterer Aspekt ist, dass die geschätzten Zustände aktualisiert oder gespeichert werden, wenn neue Informationen über sie empfangen werden.
  • In einem anderen Aspekt werden die Grenzen der möglichen Zustände eines Objekts oder einer Szene zu einem bestimmten Zeitpunkt berechnet.
  • In einem anderen Aspekt werden die Grenzen auf der Grundlage eines oder mehrerer der folgenden Parameter und Merkmale berechnet:
    • ▪den vorherigen Begrenzungsrahmen des Objekts,
    • ▪ die vorherige Geschwindigkeit des Objekts,
    • ▪ die vorherige Beschleunigung des Objekts,
    • ▪ die vorherige Überschrift des Objekts,
    • ▪ die Formen der Straße oder die Fahrbahnmarkierungen,
    • ▪ die Annahme über die maximale Beschleunigung des Objekts,
    • ▪ die Annahme über die Mindestbeschleunigung des Objekts, die negativ sein kann,
    • ▪ die Annahme über die Höchstgeschwindigkeit des Objekts,
    • ▪ die Annahme über die Mindestgeschwindigkeit des Objekts,
    • ▪ die Annahme über die Raumgrenze, die das Objekt erreichen könnte.
  • In einem anderen Aspekt werden die Annahmen für einen oder mehrere der folgenden Objekttypen definiert::
    • - Fußgänger,
    • - Fahrrad,
    • - Motorrad,
    • - Personenkraftwagen,
    • - Lkw,
    • - Einsatzfahrzeuge, oder
  • Oder eine oder mehrere der folgenden Klassifizierungen des Szenentyps, die Folgendes umfassen:
    • - Autobahn,
    • - Städtische Straße
    • - Regionalstraße, oder
  • Oder eine oder mehrere Umweltbedingungen, die Folgendes umfassen:
    • - Regen,
    • - Sonne,
    • - Nebel,
    • - Sturm,
    • - Tag, oder
    • - Nacht.
  • In einem anderen Aspekt sind die Annahmen eine Kombination von Arten und Bedingungen, die Folgendes umfassen:
    • - Landstraße bei Nacht und Regen, oder
    • - Städtische Straße am Tag bei Sonnenschein.
  • Ein weiterer Aspekt ist, dass die berechneten Grenzen einer oder mehrere der folgenden Parameter und Merkmale sind:
    • - die Höchst- und Mindestgeschwindigkeit des Objekts,
    • - der Belegungsraum des Objekts, dargestellt durch das Maximum und Minimum auf jeder Achse eines Koordinatensystems.
    • - die Umgebungsbedingungen und Szenentypen, d. h., sie sollten sich innerhalb des analysierten Zeitfensters nicht drastisch ändern.
  • Ein weiterer Aspekt ist, dass die Koordinatensysteme Folgendes umfassen:
    • - Ein kartesisches 2D-Koordinatensystem,
    • - Ein kartesisches 3D-Koordinatensystem, oder
    • - Ein 2D- oder ein 3D-Frenet-Koordinatensystem.
  • In einem anderen Aspekt wird die Annahme über die neuen Geschwindigkeiten und Positionen der Objekte basierend auf der Beschleunigung der Objekte wie folgt berechnet:
    • - v_max = vorheriges_v + a_max*delta_t
    • - v_min = vorheriges_v + a_min*detla_t
    • - p_max = vorherige_p_max + vorherige_v*delta_t + 0,5*a_max*delta_t^2
    • - p_min = vorherige_p_min + vorherige_v*delta_t + 0,5*a_min*delta_t^2.
  • In einem anderen Aspekt werden die Annahmen über die maximalen und minimalen Geschwindigkeiten der Objekte wie folgt berechnet:
    • - v_max = min(previous_v + a_max*delta_t, v_assumption_max)
    • - v_min = max(previous_v + a_min*delta_t, v_assumption_min)
  • Ein weiterer Aspekt ist die Überprüfung
    • - ob eine geschätzte Bounding Box des Objekts innerhalb der Grenzen bleibt, die die maximale und minimale Position der Bounding Box definieren, und
    • - ob die geschätzte Geschwindigkeit des Objekts innerhalb der Grenzen bleibt, die die maximale und minimale Geschwindigkeit definieren
    • - oder wenn einer dieser
  • In einem anderen Aspekt werden der wahrgenommene Szenentyp und die Umgebungsbedingungen oder Kombinationen von Typen und Bedingungen, wie oben beschrieben, analysiert und über das Zeitintervall abgeglichen.
  • In einem anderen Aspekt wird eine Meldung gesendet, wenn der geschätzte Zustand des Objekts außerhalb der berechneten Grenzen liegt, vorzugsweise über den CAN-Bus. Aktionen, die nach dem Empfang dieses Signals entwickelt werden, wie z. B. das Auslösen eines Notfallmanövers, sind für das System optional und fallen nicht in den Anwendungsbereich der Erfindung.
  • Ein weiterer Gegenstand der Erfindung ist ein Datenverarbeitungssystem zum Erkennen von Inkonsistenzen in den Beobachtungen von Wahrnehmungssystemen (1.2) und Wahrnehmungssensoren (1.1) eines automatisierten Fahrzeugs (1), das auf einer elektronischen Steuereinheit (1.3) abläuft, mit Mitteln zum Ausführen der folgenden Schritte:
    1. a. Empfang und Speicherung der beobachteten Zustände der Szene von Wahrnehmungssystemen (1.2) und Sensoren (1.1),
    2. b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Entwicklung des Szenentyps und/oder der Umgebungsbedingungen oder einer Kombination davon,
    3. c. Prüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der berechneten Grenzen bleibt,
    4. d. Übermittlung einer Meldung an das elektronische Steuergerät (1.3), wenn ein geschätzter Zustand nicht innerhalb einer berechneten Grenze liegt,
    5. e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
  • Ein weiterer Gegenstand der Erfindung ist ein computerlesbares Medium mit gespeicherten Anweisungen, um den Computer zu veranlassen, die Schritte des Inkonsistenzerkennungsverfahrens der vorliegenden Erfindung durchzuführen.
  • Ein weiterer Gegenstand der Erfindung ist ein AD/ADAS-Fahrzeug, das das erfindungsgemäße Datenverarbeitungssystem oder das erfindungsgemäße computerlesbare Medium umfasst.
  • Figurenliste
    • 1 ist ein schematisches Flussdiagramm des Inkonsistenzerkennungssystems der vorliegenden Erfindung in einem autonomen Fahrzeug.
    • 2 ist ein Flussdiagramm des Verfahrens zur Erkennung von Inkonsistenzen in autonomen Fahrzeugen im Sinne der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER ZEICHNUNGEN
  • ist ein schematisches Flussdiagramm des Inkonsistenzerkennungssystems der vorliegenden Erfindung in einem autonomen Fahrzeugsystem (1). Die von Sensoren (1.1) gemessenen Informationen aus der Umgebung werden an die Wahrnehmungssysteme (1.2) des automatisierten Fahrzeugs weitergeleitet. Beispiele für Sensoren sind:
    • ▪ Kameras,
    • ▪ Light Detection And Ranging, auch als LiDAR bezeichnet,
    • ▪ Radar, oder
    • ▪ Global Navigation Satellite System Positionierung, auch GNSS-Positionierung genannt.
  • Die Wahrnehmungssysteme (1.2) des Fahrzeugs interpretieren die Rohdaten der Sensoren (1.2) und extrahieren Beobachtungen der Szene. Zu diesen Beobachtungen gehören eines oder mehrere der vorhandenen Elemente, ihre Position oder die Umgebungsbedingungen.
  • Die Fahrzeugzentralplatine (1.3) ist in der Lage, mehrere Fahrzeugprozesse auszuführen, z. B. die Fahrzeugsteuerung und die Entscheidungseinheiten, die Aufgaben wie die Bahnplanung übernehmen. Die Ausgaben der Fahrzeugzentralplatine (1.3) werden von den Fahrzeugaktuatoren (1.4) ausgeführt.
  • Das Inkonsistenzerkennungssystem (1.5) der vorliegenden Erfindung überwacht Informationen von den Sensoren (1.1) und den Wahrnehmungssystemen (1.2), die im Folgenden gemeinsam als Beobachtungen bezeichnet werden. Das Inkonsistenzerkennungssystem (1.5) informiert die Fahrzeugzentrale (1.3) über die Zuverlässigkeit dieser Beobachtungen.
  • Das System läuft auf einer elektronischen Steuereinheit mit einem oder mehreren Prozessoren und einem Speicher. Der Speicher kann einen oder mehrere Befehle enthalten, die von einem oder mehreren Prozessoren ausgeführt werden können und die Erkennung von Unstimmigkeiten bei den an der elektronischen Steuereinheit empfangenen Eingangsbeobachtungen bewirken.
  • Das System erhält Beobachtungen der Szene und der Objekte in der Umgebung von einem oder mehreren Sensoren (1.1) oder von einem oder mehreren Wahrnehmungssystemen (1.2) im Fahrzeug. Das System kann zusätzliche Informationen über die Straße erhalten, wie z. B. die Form der Straße, die Krümmung, den Verkehrszustand oder die Oberflächenbeschaffenheit oder eine Kombination davon. Das System kann auch zusätzliche Eingaben erhalten, wie z. B. Umgebungsbedingungen, einschließlich Sonnenstand, Wetter oder Feuchtigkeit.
  • In einer anderen Ausführungsform empfängt das System die Beobachtungen zu einem einzigen Zeitpunkt oder während eines Intervalls, das aus aufeinanderfolgenden Zeitpunkten besteht.
  • In einer anderen Ausführungsform erhält das System die zuvor angegebenen Eingaben, Beobachtungen und Zeiten.
  • Im Allgemeinen erzeugt jede Beobachtung, die aus der von den Sensoren (1.1) oder den Wahrnehmungssystemen (1.2) beobachteten realen Szene gewonnen wird, einen oder mehrere Beobachtungszustände im Inkonsistenzsystem, die mit einer Zeit verbunden sind. Jeder Beobachtungszustand wird für einen bestimmten Zeitraum gespeichert. Zum Beispiel kann ein Beobachtungszustand für 2 Sekunden gespeichert werden.
  • In der Folgezeit werden die aktuell beobachteten Zustände der Systemeingänge zu geschätzten Zuständen aktualisiert. Die geschätzten Zustände werden durch Berechnung der Grenzen der möglichen Zustände der Objekte oder der Szene (im Folgenden als Zustandsgrenzen bezeichnet) ermittelt.
  • Die Berechnung der Staatsgrenzen basiert auf einem oder mehreren der folgenden Parameter und Merkmale:
    • ▪ die zuvor eingegangenen Beobachtungen,
    • ▪ die Annahmen über das Verhalten oder den Aspekt des Objekts, und
    • ▪ die erhaltenen Straßeninformationen und Umweltbedingungen.
  • Sobald die aktuellen Beobachtungen eingegangen sind, bewertet das System zur Erkennung von Inkonsistenzen (1.5) deren Konsistenz, wie in dargestellt.
  • In einem ersten Schritt prüft das Inkonsistenz-Detektorsystem (1.5) für jeden neuen beobachteten Zustand, ob es zuvor gespeicherte geschätzte Zustände desselben Objekts oder derselben Szene gibt.
  • Wenn es keine zuvor gespeicherten geschätzten Zustände desselben Objekts oder derselben vollständigen oder teilweisen Szene gibt, führt das System keine Inkonsistenzprüfung durch.
  • Gibt es bereits gespeicherte Zustandsschätzungen desselben Objekts oder derselben vollständigen oder teilweisen Szene, führt das System eine Inkonsistenzprüfung durch. Die Inkonsistenzprüfung besteht darin, zu beurteilen, ob der aktuell beobachtete Zustand innerhalb der geschätzten Zustandsgrenzen liegt oder nicht. Wenn der neue beobachtete Zustand außerhalb der berechneten Grenzen liegt, betrachtet das Inkonsistenzerkennungssystem (1.5) die Ausgabe des Wahrnehmungssystems (1.2) oder der Sensoren (1.1) als inkonsistent.
  • Wird eine Inkonsistenz festgestellt, sendet das Inkonsistenzerkennungssystem eine Meldung an die Steuereinheiten im Fahrzeug, damit diese entsprechend und sicher handeln. Mit dieser Signalisierung können die Steuergeräte geeignete Maßnahmen ergreifen, um die Inkonsistenz abzuschwächen, indem sie andere nachfolgende Systeme informieren, z. B. Systeme, die für die Planung, Entscheidungsfindung und Steuerung des autonomen Fahrzeugs zuständig sind.
  • In einer Ausführungsform fallen die Maßnahmen des Kontrollsystems (1.4), das die Signale des Inkonsistenzsystems für Sensor- oder Wahrnehmungsinkonsistenzen empfängt, nicht in den Anwendungsbereich der vorliegenden Erfindung. Tabelle 1: Englische Ausdrücke, die in den Zeichnungen zu Übersetzungszwecken verwendet werden:
    Autonomous vehicle Autonomes Fahrzeug
    Sensor Sensor
    Perception component Komponente Wahrnehmung
    Inconsistency detector Inkonsistenz-Detektor
    Planning and control components Komponenten für Planung und Kontrolle
    Actuators Stellantriebe
    Receive a new observation Check if there exists previous observations of the same object Eine neue Beobachtung erhalten Prüfen, ob es frühere Beobachtungen desselben Objekts gibt
    Yes Ja
    No Nein
    Exit Ausfahrt
    Calculate boundaries from each previous observation Berechnung der Grenzen aus jeder früheren Beobachtung
    Check whether the new observation stays inside all boundaries Prüfen, ob die neue Beobachtung innerhalb aller Grenzen bleibt
    Notify other systems about the inconsistency Andere Systeme über die Inkonsistenz benachrichtigen

Claims (13)

  1. Computerimplementiertes Verfahren zum Erkennen von Inkonsistenzen in den Beobachtungen von Wahrnehmungssystemen (1.2) und Wahrnehmungssensoren (1.1) eines automatisierten Fahrzeugs (1), das auf einer elektronischen Steuereinheit (1.3) abläuft und die folgenden Schritte umfasst: a. Empfang und Speicherung der beobachteten Zustände der Szene und der Umgebung von Wahrnehmungssystemen (1.2) und Sensoren (1.1), b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Art der Szene oder der Umgebungsbedingungen oder einer Kombination davon, c. Überprüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der in Schritt b ermittelten Grenzen bleibt, d. Übermittlung einer Meldung an das elektronische Steuergerät (1.3), wenn ein geschätzter Zustand nicht innerhalb einer berechneten Grenze liegt, e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
  2. Das Verfahren zur Erkennung von Inkonsistenzen nach Anspruch 1, wobei die beobachteten Zustände der Szene Objekte, Straßenformen oder Umgebungsbedingungen oder Kombinationen davon sind.
  3. Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die beobachteten und geschätzten Zustände von Szenen, Objekten, Straßenformen oder Umgebungsbedingungen oder Kombinationen davon gespeichert und dann verwendet werden, um die Grenzen von Zuständen von Objekten in der Zukunft zu berechnen oder um aktuelle beobachtete Zustände mit zukünftigen beobachteten Zuständen abzugleichen.
  4. Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die beobachteten und geschätzten Zustände für eine feste Zeitspanne gespeichert werden, wobei die feste Zeitspanne zwischen 0,1 Sekunden und 10 Sekunden, vorzugsweise zwischen 1 Sekunde und 5 Sekunden, noch bevorzugter zwischen 1,5 Sekunden und 3 Sekunden liegt.
  5. Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die beobachteten und geschätzten Zustände gespeichert werden, bis neue Informationen über dasselbe Objekt empfangen werden.
  6. Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Grenzen möglicher Zustände eines Objekts oder einer Szene zu einem gegebenen Zeitstempel berechnet werden.
  7. Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Grenzen auf der Grundlage von einem oder mehreren der folgenden Punkte berechnet werden: a. den vorherigen Begrenzungsrahmen des Objekts, b. die vorherige Geschwindigkeit des Objekts, c. die vorherige Beschleunigung des Objekts, d. die vorherige Überschrift des Objekts, e. die Formen der Straße oder die Fahrbahnmarkierungen, f. die Annahme über die maximale Beschleunigung des Objekts, g. die Annahme über die Mindestbeschleunigung des Objekts, die negativ sein kann, h. die Annahme über die Höchstgeschwindigkeit des Objekts, i. die Annahme über die Mindestgeschwindigkeit des Objekts, j. die Annahme über die Raumgrenze, die das Objekt erreichen könnte, k. die Annahme, dass die Umweltbedingungen schwanken.
  8. Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die berechneten Grenzen einer oder mehrere der folgenden Werte sind: a. die Höchst- und Mindestgeschwindigkeit des Objekts, b. der Belegungsraum des Objekts, dargestellt durch das Maximum und Minimum auf jeder Achse eines Koordinatensystems.
  9. Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Koordinatensysteme Folgendes umfassen: a. Ein kartesisches 2D-Koordinatensystem, b. Ein kartesisches 3D-Koordinatensystem, oder c. Ein 2D- oder ein 3D-Frenet-Koordinatensystem.
  10. Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Annahme über die Beschleunigung der Objekte wie folgt berechnet wird: a. v_max = vorheriges_v + a_max*delta_t b. v_min = vorheriges_v + a_min*detla_t c. p_max = vorherige_p_max + vorherige_v*delta_t + 0,5*a_max*delta_t^2 \ d. p_min = vorherige_p_min + vorherige_v*delta_t + 0,5*a_min*delta_t^2.
  11. Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Annahme über die Beschleunigung und Geschwindigkeit der Objekte wie folgt berechnet wird: a. v_max = min(previous_v + a_max*delta_t, v_assumption_max) b. v_min = max(previous_v + a_min*delta_t, v_assumption_min)
  12. Datenverarbeitungssystem zum Erkennen von Inkonsistenzen in den Beobachtungen von Wahrnehmungssystemen (1.2) und Wahrnehmungssensoren (1.1) eines automatisierten Fahrzeugs (1), das auf einer elektronischen Steuereinheit (1.3) läuft, um die folgenden Schritte auszuführen: a. Empfang und Speicherung der beobachteten Zustände der Szene von Wahrnehmungssystemen (1.2) und Sensoren (1.1), b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Art der Szene oder der Umgebungsbedingungen oder einer Kombination davon, c. Prüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der in Schritt b ermittelten Grenzen liegt, d. Übermittlung einer Meldung an das elektronische Steuergerät (1.3), wenn ein geschätzter Zustand nicht innerhalb einer berechneten Grenze liegt, e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
  13. AD/ADAS-Fahrzeug, das das Datenverarbeitungssystem nach Anspruch 12 umfasst oder so konfiguriert ist, dass es das Verfahren nach den Ansprüchen 1 bis 11 durchführt.
DE102022103324.4A 2021-03-25 2022-02-13 System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen. Pending DE102022103324A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
BEBE2021/5227 2021-03-25
BE20215227A BE1028777B1 (nl) 2021-03-25 2021-03-25 Systeem en methode voor het detecteren van inconsistenties in de outputs van perceptiesystemen van autonome voertuigen

Publications (1)

Publication Number Publication Date
DE102022103324A1 true DE102022103324A1 (de) 2022-09-29

Family

ID=75497761

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022103324.4A Pending DE102022103324A1 (de) 2021-03-25 2022-02-13 System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen.

Country Status (3)

Country Link
US (1) US20220306161A1 (de)
BE (1) BE1028777B1 (de)
DE (1) DE102022103324A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11814070B1 (en) * 2021-09-30 2023-11-14 Zoox, Inc. Simulated driving error models

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019002487A1 (de) 2019-04-04 2020-10-08 Daimler Ag Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
DE102019212892A1 (de) 2019-08-28 2021-03-04 Robert Bosch Gmbh Erkennung von Detektorfehlern
DE102019213929A1 (de) 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT514724A2 (de) * 2013-08-20 2015-03-15 Fts Computertechnik Gmbh Verfahren zur Erkennung von Fehlern
JP6500820B2 (ja) * 2016-03-18 2019-04-17 株式会社デンソー 車載装置
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
WO2018229549A2 (en) * 2017-06-16 2018-12-20 Nauto Global Limited System and method for digital environment reconstruction
JP6859907B2 (ja) * 2017-09-08 2021-04-14 トヨタ自動車株式会社 車両制御装置
US11126179B2 (en) * 2019-02-21 2021-09-21 Zoox, Inc. Motion prediction based on appearance
JP7380409B2 (ja) * 2020-04-29 2023-11-15 株式会社デンソー 車両用記録装置、情報記録方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019002487A1 (de) 2019-04-04 2020-10-08 Daimler Ag Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs
DE102019212892A1 (de) 2019-08-28 2021-03-04 Robert Bosch Gmbh Erkennung von Detektorfehlern
DE102019213929A1 (de) 2019-09-12 2021-03-18 Zf Friedrichshafen Ag Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern

Also Published As

Publication number Publication date
US20220306161A1 (en) 2022-09-29
BE1028777B1 (nl) 2022-06-01

Similar Documents

Publication Publication Date Title
DE102013014106B4 (de) Auf V2V-Kommunikation basierende Fahrzeugidentifizierungsvorrichtung und Identifizierungsverfahren für diese
EP3695244B1 (de) Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen
EP3490862B1 (de) Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld
DE102018220024B3 (de) Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren
DE102014114827A1 (de) Wegplanung für Ausweichlenkmanöver bei Vorhandensein eines Zielfahrzeugs und umgebenden Objekten
DE102016212326A1 (de) Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs
DE102019214628A1 (de) Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten
DE102018100487A1 (de) Objektverfolgung durch unüberwachtes lernen
DE102019209462A1 (de) Verfahren zur Bestimmung eines Vertrauens-Wertes eines detektierten Objektes
DE102020118629B4 (de) Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102019114371A1 (de) Online-diagnostik und prognostik für ein wahrnehmungssystem eines fahrzeugs
DE102022108656A1 (de) Neuronales quantilnetz
DE102019113520A1 (de) Fahrzeugsteuerungsverfahren und System, das auf einer Detektion eines Fallens einer Last basiert
DE102018215753A1 (de) Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs
DE102020200169B3 (de) Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung
DE102016220581A1 (de) Verfahren und vorrichtung zur bestimmung eines umfeldmodells
DE112022005415T5 (de) Multimodale datenanalyse zur fehlererkennung
DE112022001403T5 (de) Lichtinterferenzdetektion während der fahrzeugnavigation
DE102022103324A1 (de) System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen.
DE102019206349A1 (de) Verfahren und Computer-Programm-Produkt zum Erkennen von Signalzeichen zur Verkehrssteuerung spurgebundener Fahrzeuge sowie Signalzeichenerkennungssystem und Spurgebundenes Fahrzeug, insbesondere Schienenfahrzeug
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
WO2022069088A1 (de) Kartenplausibilitätsprüfungsverfahren
DE102020213133A1 (de) Verfahren und Vorrichtung zum Bewerten einer Eigenlokalisierung eines physikalischen Systems mittels Sensordaten
DE102020200133A1 (de) Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R163 Identified publications notified
R082 Change of representative

Representative=s name: PRINZ & PARTNER MBB PATENT- UND RECHTSANWAELTE, DE

Representative=s name: PRINZ & PARTNER MBB PATENTANWAELTE RECHTSANWAE, DE