DE102022103324A1 - System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen. - Google Patents
System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen. Download PDFInfo
- Publication number
- DE102022103324A1 DE102022103324A1 DE102022103324.4A DE102022103324A DE102022103324A1 DE 102022103324 A1 DE102022103324 A1 DE 102022103324A1 DE 102022103324 A DE102022103324 A DE 102022103324A DE 102022103324 A1 DE102022103324 A1 DE 102022103324A1
- Authority
- DE
- Germany
- Prior art keywords
- previous
- states
- assumption
- max
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008447 perception Effects 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 15
- 238000001514 detection method Methods 0.000 claims description 18
- 230000007613 environmental effect Effects 0.000 claims description 15
- 230000001133 acceleration Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 4
- 102100034112 Alkyldihydroxyacetonephosphate synthase, peroxisomal Human genes 0.000 claims description 2
- 101000799143 Homo sapiens Alkyldihydroxyacetonephosphate synthase, peroxisomal Proteins 0.000 claims description 2
- 238000000848 angular dependent Auger electron spectroscopy Methods 0.000 claims description 2
- 230000006399 behavior Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000000275 quality assurance Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
- B60W60/0027—Planning or execution of driving tasks using trajectory prediction for other traffic participants
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/021—Means for detecting failure or malfunction
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/02—Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
- B60W50/0205—Diagnosing or detecting failures; Failure detection models
- B60W2050/0215—Sensor drifts or sensor failures
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/30—Road curve radius
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2552/00—Input parameters relating to infrastructure
- B60W2552/53—Road markings, e.g. lane marker or crosswalk
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4023—Type large-size vehicles, e.g. trucks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4042—Longitudinal speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/404—Characteristics
- B60W2554/4044—Direction of movement, e.g. backwards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2555/00—Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
- B60W2555/20—Ambient conditions, e.g. wind or rain
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/20—Data confidence level
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
Abstract
Es werden ein System und ein Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von autonomen Fahrzeugen beschrieben. Das System empfängt die Beobachtungen von Objekten in der Umgebung von einem oder mehreren Sensoren oder Wahrnehmungssystemen eines automatisierten Fahrzeugs. Zum aktuellen Zeitpunkt schätzt das System die Konsistenz der aktuell beobachteten Elemente des Wahrnehmungssystems anhand der zuvor empfangenen Eingaben. Diese Konsistenz wird durch Berechnung der Grenzen möglicher Zustände der zuvor beobachteten Elemente auf der Grundlage der empfangenen Informationen und von Annahmen bestimmt.
Description
- HINTERGRUND
- Automatisierte Fahrzeuge (auch als autonome Fahrzeuge bezeichnet) sind Roboterplattformen mit mehreren Wahrnehmungssensoren zur Erfassung von Rohdaten über die Umgebung. Die Rohmessungen werden von Wahrnehmungssystemen weiterverarbeitet, die ein Modell der Umgebung erstellen, das es der Steuerungs- und Entscheidungseinheit des Fahrzeugs ermöglicht, entsprechend zu handeln und im Verkehr angemessen zu manövrieren.
- Bestehende Wahrnehmungssysteme für automatisierte Fahrzeuge können Elemente in der Szene und in der Umgebung erkennen und verfolgen. Diese Systeme erkennen die Objekte in der Szene mit einem Objekterkennungsalgorithmus, der auf einzelnen oder mehreren Sensoren wie Kamera, LiDAR oder Radar basiert. Anschließend werden der Objekttyp und der Objektzustand geschätzt. Gleichzeitig wird das neue Objekt geprüft und mit den bereits erkannten Objekten in Verbindung gebracht.
- Es gibt jedoch kein Qualitätssicherungssystem für die beobachteten Informationen während der Laufzeit. Das Beste, was ein Erkennungs- und Verfolgungssystem tun kann, ist, einen Wert zu liefern, der die Unsicherheit der Erkennungs- und Verfolgungsergebnisse darstellt.
- Die Bewertung der Qualität der Wahrnehmungssysteme von automatisierten Fahrzeugen zur Laufzeit ist äußerst wünschenswert. Wahrnehmungssysteme sind der Ausgangspunkt für jede weitere Interaktion von automatisierten Fahrzeugen mit der Umwelt. Daher können sich Fehler in den Wahrnehmungssystemen auf Aktionen der automatisierten Fahrzeuge auswirken, die beim Manövrieren katastrophale Folgen haben können, insbesondere in gemeinsam genutzten Räumen mit Menschen.
- Wahrnehmungssysteme sind unvollkommen und nicht robust. Darüber hinaus basieren die aktuellen Wahrnehmungssysteme für autonomes Fahren auf nicht erklärbaren Architekturen wie tiefen neuronalen Netzen. Die Gewährleistung der Qualität dieser Wahrnehmungssysteme ist nach wie vor eine große Herausforderung. Daher ist es von entscheidender Bedeutung, die Qualität der Wahrnehmungssysteme von automatisierten Fahrzeugen zur Laufzeit zu bewerten. Wenn sich die Qualität dieser Wahrnehmungssysteme verschlechtert, sollte das Fahrzeugsteuergerät sofort informiert werden, damit es unsichere Entscheidungen und Aktionen vermeiden kann.
- In der realen Welt gibt es zur Laufzeit keine Ground-Truth-Informationen über die umgebenden Objekte und die Umgebung. Unter „Ground-Truth“ versteht man im Allgemeinen die tatsächliche und genaue Position und den Status der Elemente der Szene. Ohne diese Informationen ist es nicht trivial, die Qualität von Wahrnehmungssystemen zur Laufzeit ohne menschliche Aufsicht zu beurteilen.
- KURZBESCHREIBUNG DER ERFINDUNG
- Die Erfinder haben nun überraschenderweise ein System und ein Verfahren gefunden, um die korrekte Entwicklung der Fahrszene zu analysieren und Inkonsistenzen in den Ausgaben der Wahrnehmungssysteme von automatisierten Fahrzeugen zur Laufzeit zu erkennen, um die Sicherheit von automatisierten Fahrzeugen und ähnlichen Roboterplattformen zu erhöhen.
- Sicherheitsbedenken bezüglich der wahrgenommenen Informationen werden durch das System und die Methode dieser Erfindung identifiziert. Jedes Mal, wenn ein neues Ergebnis des Wahrnehmungssystems eintrifft, wird es mit früheren Ergebnissen verglichen, um Unstimmigkeiten zu erkennen. Das neue Ergebnis wird außerdem für einen bestimmten Zeitraum, z. B. 2 Sekunden, für zukünftige Vergleiche gespeichert. Der Vergleich erfolgt, indem zunächst die Ergebnisse der Vergangenheit über einen kurzen Zeitraum in die Zukunft fortgeschrieben werden, wobei verschiedene Annahmen über das Verhalten der einzelnen Objekte zugrunde gelegt werden. Durch die Propagierung wird die Grenze aller möglichen zukünftigen Zustände des Objekts berechnet. Anschließend wird der neu geschätzte Zustand des Objekts daraufhin überprüft, ob er innerhalb der berechneten Grenze liegt.
- Dementsprechend ist der erste Gegenstand der Erfindung ein computerimplementiertes Verfahren zum Erkennen von Inkonsistenzen in den Informationen der Wahrnehmungssensoren (1.1) und der Wahrnehmungssysteme (1.2), im Folgenden gemeinsam als Beobachtungen bezeichnet, eines automatisierten Fahrzeugs (1), das auf einem elektronischen Steuergerät (1.3) abläuft, welches die Schritte umfasst:
- a. Empfang und Speicherung der beobachteten Zustände der Szene von Wahrnehmungssystemen (1.2) und Sensoren (1.1),
- b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der Art des Objekts, der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Umgebungsbedingungen oder einer Kombination davon,
- c. Prüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der berechneten erwarteten Grenzen bleibt,
- d. Übermittlung einer Meldung an das elektronische Steuergerät, wenn ein geschätzter Zustand nicht innerhalb eines erwarteten Rahmens liegt (1.3),
- e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
- Ein weiterer Aspekt ist, dass das System zur Erkennung von Inkonsistenzen frei von menschlicher Überwachung und Kontrolle ist.
- In einem anderen Aspekt sind die beobachteten Zustände der Szene Objekte, Straßenformen oder Umgebungsbedingungen oder Kombinationen davon.
- In einem anderen Aspekt werden die beobachteten und geschätzten Zustände von Szenen, Objekten, Straßenformen oder Umweltbedingungen oder Kombinationen davon gespeichert und dann verwendet, um die Grenzen der Zustände von Szenen und Objekten in der Zukunft zu berechnen oder um aktuelle beobachtete Zustände mit zukünftigen beobachteten Zuständen abzugleichen.
- In einem anderen Aspekt werden die beobachteten und geschätzten Zustände für eine feste Zeitspanne gespeichert, wobei die feste Zeitspanne zwischen 0,1 Sekunden und 10 Sekunden, vorzugsweise zwischen 1 Sekunde und 5 Sekunden, noch bevorzugter zwischen 1,5 Sekunden und 3 Sekunden liegt.
- Ein weiterer Aspekt ist, dass die geschätzten Zustände aktualisiert oder gespeichert werden, wenn neue Informationen über sie empfangen werden.
- In einem anderen Aspekt werden die Grenzen der möglichen Zustände eines Objekts oder einer Szene zu einem bestimmten Zeitpunkt berechnet.
- In einem anderen Aspekt werden die Grenzen auf der Grundlage eines oder mehrerer der folgenden Parameter und Merkmale berechnet:
- ▪den vorherigen Begrenzungsrahmen des Objekts,
- ▪ die vorherige Geschwindigkeit des Objekts,
- ▪ die vorherige Beschleunigung des Objekts,
- ▪ die vorherige Überschrift des Objekts,
- ▪ die Formen der Straße oder die Fahrbahnmarkierungen,
- ▪ die Annahme über die maximale Beschleunigung des Objekts,
- ▪ die Annahme über die Mindestbeschleunigung des Objekts, die negativ sein kann,
- ▪ die Annahme über die Höchstgeschwindigkeit des Objekts,
- ▪ die Annahme über die Mindestgeschwindigkeit des Objekts,
- ▪ die Annahme über die Raumgrenze, die das Objekt erreichen könnte.
- In einem anderen Aspekt werden die Annahmen für einen oder mehrere der folgenden Objekttypen definiert::
- - Fußgänger,
- - Fahrrad,
- - Motorrad,
- - Personenkraftwagen,
- - Lkw,
- - Einsatzfahrzeuge, oder
- Oder eine oder mehrere der folgenden Klassifizierungen des Szenentyps, die Folgendes umfassen:
- - Autobahn,
- - Städtische Straße
- - Regionalstraße, oder
- Oder eine oder mehrere Umweltbedingungen, die Folgendes umfassen:
- - Regen,
- - Sonne,
- - Nebel,
- - Sturm,
- - Tag, oder
- - Nacht.
- In einem anderen Aspekt sind die Annahmen eine Kombination von Arten und Bedingungen, die Folgendes umfassen:
- - Landstraße bei Nacht und Regen, oder
- - Städtische Straße am Tag bei Sonnenschein.
- Ein weiterer Aspekt ist, dass die berechneten Grenzen einer oder mehrere der folgenden Parameter und Merkmale sind:
- - die Höchst- und Mindestgeschwindigkeit des Objekts,
- - der Belegungsraum des Objekts, dargestellt durch das Maximum und Minimum auf jeder Achse eines Koordinatensystems.
- - die Umgebungsbedingungen und Szenentypen, d. h., sie sollten sich innerhalb des analysierten Zeitfensters nicht drastisch ändern.
- Ein weiterer Aspekt ist, dass die Koordinatensysteme Folgendes umfassen:
- - Ein kartesisches 2D-Koordinatensystem,
- - Ein kartesisches 3D-Koordinatensystem, oder
- - Ein 2D- oder ein 3D-Frenet-Koordinatensystem.
- In einem anderen Aspekt wird die Annahme über die neuen Geschwindigkeiten und Positionen der Objekte basierend auf der Beschleunigung der Objekte wie folgt berechnet:
- - v_max = vorheriges_v + a_max*delta_t
- - v_min = vorheriges_v + a_min*detla_t
- - p_max = vorherige_p_max + vorherige_v*delta_t + 0,5*a_max*delta_t^2
- - p_min = vorherige_p_min + vorherige_v*delta_t + 0,5*a_min*delta_t^2.
- In einem anderen Aspekt werden die Annahmen über die maximalen und minimalen Geschwindigkeiten der Objekte wie folgt berechnet:
- - v_max = min(previous_v + a_max*delta_t, v_assumption_max)
- - v_min = max(previous_v + a_min*delta_t, v_assumption_min)
- Ein weiterer Aspekt ist die Überprüfung
- - ob eine geschätzte Bounding Box des Objekts innerhalb der Grenzen bleibt, die die maximale und minimale Position der Bounding Box definieren, und
- - ob die geschätzte Geschwindigkeit des Objekts innerhalb der Grenzen bleibt, die die maximale und minimale Geschwindigkeit definieren
- - oder wenn einer dieser
- In einem anderen Aspekt werden der wahrgenommene Szenentyp und die Umgebungsbedingungen oder Kombinationen von Typen und Bedingungen, wie oben beschrieben, analysiert und über das Zeitintervall abgeglichen.
- In einem anderen Aspekt wird eine Meldung gesendet, wenn der geschätzte Zustand des Objekts außerhalb der berechneten Grenzen liegt, vorzugsweise über den CAN-Bus. Aktionen, die nach dem Empfang dieses Signals entwickelt werden, wie z. B. das Auslösen eines Notfallmanövers, sind für das System optional und fallen nicht in den Anwendungsbereich der Erfindung.
- Ein weiterer Gegenstand der Erfindung ist ein Datenverarbeitungssystem zum Erkennen von Inkonsistenzen in den Beobachtungen von Wahrnehmungssystemen (1.2) und Wahrnehmungssensoren (1.1) eines automatisierten Fahrzeugs (1), das auf einer elektronischen Steuereinheit (1.3) abläuft, mit Mitteln zum Ausführen der folgenden Schritte:
- a. Empfang und Speicherung der beobachteten Zustände der Szene von Wahrnehmungssystemen (1.2) und Sensoren (1.1),
- b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Entwicklung des Szenentyps und/oder der Umgebungsbedingungen oder einer Kombination davon,
- c. Prüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der berechneten Grenzen bleibt,
- d. Übermittlung einer Meldung an das elektronische Steuergerät (1.3), wenn ein geschätzter Zustand nicht innerhalb einer berechneten Grenze liegt,
- e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
- Ein weiterer Gegenstand der Erfindung ist ein computerlesbares Medium mit gespeicherten Anweisungen, um den Computer zu veranlassen, die Schritte des Inkonsistenzerkennungsverfahrens der vorliegenden Erfindung durchzuführen.
- Ein weiterer Gegenstand der Erfindung ist ein AD/ADAS-Fahrzeug, das das erfindungsgemäße Datenverarbeitungssystem oder das erfindungsgemäße computerlesbare Medium umfasst.
- Figurenliste
-
-
1 ist ein schematisches Flussdiagramm des Inkonsistenzerkennungssystems der vorliegenden Erfindung in einem autonomen Fahrzeug. -
2 ist ein Flussdiagramm des Verfahrens zur Erkennung von Inkonsistenzen in autonomen Fahrzeugen im Sinne der vorliegenden Erfindung. - DETAILLIERTE BESCHREIBUNG DER ZEICHNUNGEN
-
- ▪ Kameras,
- ▪ Light Detection And Ranging, auch als LiDAR bezeichnet,
- ▪ Radar, oder
- ▪ Global Navigation Satellite System Positionierung, auch GNSS-Positionierung genannt.
- Die Wahrnehmungssysteme (1.2) des Fahrzeugs interpretieren die Rohdaten der Sensoren (1.2) und extrahieren Beobachtungen der Szene. Zu diesen Beobachtungen gehören eines oder mehrere der vorhandenen Elemente, ihre Position oder die Umgebungsbedingungen.
- Die Fahrzeugzentralplatine (1.3) ist in der Lage, mehrere Fahrzeugprozesse auszuführen, z. B. die Fahrzeugsteuerung und die Entscheidungseinheiten, die Aufgaben wie die Bahnplanung übernehmen. Die Ausgaben der Fahrzeugzentralplatine (1.3) werden von den Fahrzeugaktuatoren (1.4) ausgeführt.
- Das Inkonsistenzerkennungssystem (1.5) der vorliegenden Erfindung überwacht Informationen von den Sensoren (1.1) und den Wahrnehmungssystemen (1.2), die im Folgenden gemeinsam als Beobachtungen bezeichnet werden. Das Inkonsistenzerkennungssystem (1.5) informiert die Fahrzeugzentrale (1.3) über die Zuverlässigkeit dieser Beobachtungen.
- Das System läuft auf einer elektronischen Steuereinheit mit einem oder mehreren Prozessoren und einem Speicher. Der Speicher kann einen oder mehrere Befehle enthalten, die von einem oder mehreren Prozessoren ausgeführt werden können und die Erkennung von Unstimmigkeiten bei den an der elektronischen Steuereinheit empfangenen Eingangsbeobachtungen bewirken.
- Das System erhält Beobachtungen der Szene und der Objekte in der Umgebung von einem oder mehreren Sensoren (1.1) oder von einem oder mehreren Wahrnehmungssystemen (1.2) im Fahrzeug. Das System kann zusätzliche Informationen über die Straße erhalten, wie z. B. die Form der Straße, die Krümmung, den Verkehrszustand oder die Oberflächenbeschaffenheit oder eine Kombination davon. Das System kann auch zusätzliche Eingaben erhalten, wie z. B. Umgebungsbedingungen, einschließlich Sonnenstand, Wetter oder Feuchtigkeit.
- In einer anderen Ausführungsform empfängt das System die Beobachtungen zu einem einzigen Zeitpunkt oder während eines Intervalls, das aus aufeinanderfolgenden Zeitpunkten besteht.
- In einer anderen Ausführungsform erhält das System die zuvor angegebenen Eingaben, Beobachtungen und Zeiten.
- Im Allgemeinen erzeugt jede Beobachtung, die aus der von den Sensoren (1.1) oder den Wahrnehmungssystemen (1.2) beobachteten realen Szene gewonnen wird, einen oder mehrere Beobachtungszustände im Inkonsistenzsystem, die mit einer Zeit verbunden sind. Jeder Beobachtungszustand wird für einen bestimmten Zeitraum gespeichert. Zum Beispiel kann ein Beobachtungszustand für 2 Sekunden gespeichert werden.
- In der Folgezeit werden die aktuell beobachteten Zustände der Systemeingänge zu geschätzten Zuständen aktualisiert. Die geschätzten Zustände werden durch Berechnung der Grenzen der möglichen Zustände der Objekte oder der Szene (im Folgenden als Zustandsgrenzen bezeichnet) ermittelt.
- Die Berechnung der Staatsgrenzen basiert auf einem oder mehreren der folgenden Parameter und Merkmale:
- ▪ die zuvor eingegangenen Beobachtungen,
- ▪ die Annahmen über das Verhalten oder den Aspekt des Objekts, und
- ▪ die erhaltenen Straßeninformationen und Umweltbedingungen.
- Sobald die aktuellen Beobachtungen eingegangen sind, bewertet das System zur Erkennung von Inkonsistenzen (1.5) deren Konsistenz, wie in
- In einem ersten Schritt prüft das Inkonsistenz-Detektorsystem (1.5) für jeden neuen beobachteten Zustand, ob es zuvor gespeicherte geschätzte Zustände desselben Objekts oder derselben Szene gibt.
- Wenn es keine zuvor gespeicherten geschätzten Zustände desselben Objekts oder derselben vollständigen oder teilweisen Szene gibt, führt das System keine Inkonsistenzprüfung durch.
- Gibt es bereits gespeicherte Zustandsschätzungen desselben Objekts oder derselben vollständigen oder teilweisen Szene, führt das System eine Inkonsistenzprüfung durch. Die Inkonsistenzprüfung besteht darin, zu beurteilen, ob der aktuell beobachtete Zustand innerhalb der geschätzten Zustandsgrenzen liegt oder nicht. Wenn der neue beobachtete Zustand außerhalb der berechneten Grenzen liegt, betrachtet das Inkonsistenzerkennungssystem (1.5) die Ausgabe des Wahrnehmungssystems (1.2) oder der Sensoren (1.1) als inkonsistent.
- Wird eine Inkonsistenz festgestellt, sendet das Inkonsistenzerkennungssystem eine Meldung an die Steuereinheiten im Fahrzeug, damit diese entsprechend und sicher handeln. Mit dieser Signalisierung können die Steuergeräte geeignete Maßnahmen ergreifen, um die Inkonsistenz abzuschwächen, indem sie andere nachfolgende Systeme informieren, z. B. Systeme, die für die Planung, Entscheidungsfindung und Steuerung des autonomen Fahrzeugs zuständig sind.
- In einer Ausführungsform fallen die Maßnahmen des Kontrollsystems (1.4), das die Signale des Inkonsistenzsystems für Sensor- oder Wahrnehmungsinkonsistenzen empfängt, nicht in den Anwendungsbereich der vorliegenden Erfindung. Tabelle 1: Englische Ausdrücke, die in den Zeichnungen zu Übersetzungszwecken verwendet werden:
Autonomous vehicle Autonomes Fahrzeug Sensor Sensor Perception component Komponente Wahrnehmung Inconsistency detector Inkonsistenz-Detektor Planning and control components Komponenten für Planung und Kontrolle Actuators Stellantriebe Receive a new observation Check if there exists previous observations of the same object Eine neue Beobachtung erhalten Prüfen, ob es frühere Beobachtungen desselben Objekts gibt Yes Ja No Nein Exit Ausfahrt Calculate boundaries from each previous observation Berechnung der Grenzen aus jeder früheren Beobachtung Check whether the new observation stays inside all boundaries Prüfen, ob die neue Beobachtung innerhalb aller Grenzen bleibt Notify other systems about the inconsistency Andere Systeme über die Inkonsistenz benachrichtigen
Claims (13)
- Computerimplementiertes Verfahren zum Erkennen von Inkonsistenzen in den Beobachtungen von Wahrnehmungssystemen (1.2) und Wahrnehmungssensoren (1.1) eines automatisierten Fahrzeugs (1), das auf einer elektronischen Steuereinheit (1.3) abläuft und die folgenden Schritte umfasst: a. Empfang und Speicherung der beobachteten Zustände der Szene und der Umgebung von Wahrnehmungssystemen (1.2) und Sensoren (1.1), b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Art der Szene oder der Umgebungsbedingungen oder einer Kombination davon, c. Überprüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der in Schritt b ermittelten Grenzen bleibt, d. Übermittlung einer Meldung an das elektronische Steuergerät (1.3), wenn ein geschätzter Zustand nicht innerhalb einer berechneten Grenze liegt, e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
- Das Verfahren zur Erkennung von Inkonsistenzen nach
Anspruch 1 , wobei die beobachteten Zustände der Szene Objekte, Straßenformen oder Umgebungsbedingungen oder Kombinationen davon sind. - Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die beobachteten und geschätzten Zustände von Szenen, Objekten, Straßenformen oder Umgebungsbedingungen oder Kombinationen davon gespeichert und dann verwendet werden, um die Grenzen von Zuständen von Objekten in der Zukunft zu berechnen oder um aktuelle beobachtete Zustände mit zukünftigen beobachteten Zuständen abzugleichen.
- Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die beobachteten und geschätzten Zustände für eine feste Zeitspanne gespeichert werden, wobei die feste Zeitspanne zwischen 0,1 Sekunden und 10 Sekunden, vorzugsweise zwischen 1 Sekunde und 5 Sekunden, noch bevorzugter zwischen 1,5 Sekunden und 3 Sekunden liegt.
- Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die beobachteten und geschätzten Zustände gespeichert werden, bis neue Informationen über dasselbe Objekt empfangen werden.
- Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Grenzen möglicher Zustände eines Objekts oder einer Szene zu einem gegebenen Zeitstempel berechnet werden.
- Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Grenzen auf der Grundlage von einem oder mehreren der folgenden Punkte berechnet werden: a. den vorherigen Begrenzungsrahmen des Objekts, b. die vorherige Geschwindigkeit des Objekts, c. die vorherige Beschleunigung des Objekts, d. die vorherige Überschrift des Objekts, e. die Formen der Straße oder die Fahrbahnmarkierungen, f. die Annahme über die maximale Beschleunigung des Objekts, g. die Annahme über die Mindestbeschleunigung des Objekts, die negativ sein kann, h. die Annahme über die Höchstgeschwindigkeit des Objekts, i. die Annahme über die Mindestgeschwindigkeit des Objekts, j. die Annahme über die Raumgrenze, die das Objekt erreichen könnte, k. die Annahme, dass die Umweltbedingungen schwanken.
- Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die berechneten Grenzen einer oder mehrere der folgenden Werte sind: a. die Höchst- und Mindestgeschwindigkeit des Objekts, b. der Belegungsraum des Objekts, dargestellt durch das Maximum und Minimum auf jeder Achse eines Koordinatensystems.
- Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Koordinatensysteme Folgendes umfassen: a. Ein kartesisches 2D-Koordinatensystem, b. Ein kartesisches 3D-Koordinatensystem, oder c. Ein 2D- oder ein 3D-Frenet-Koordinatensystem.
- Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Annahme über die Beschleunigung der Objekte wie folgt berechnet wird: a. v_max = vorheriges_v + a_max*delta_t b. v_min = vorheriges_v + a_min*detla_t c. p_max = vorherige_p_max + vorherige_v*delta_t + 0,5*a_max*delta_t^2 \ d. p_min = vorherige_p_min + vorherige_v*delta_t + 0,5*a_min*delta_t^2.
- Das Verfahren zur Erkennung von Inkonsistenzen nach einem der vorhergehenden Ansprüche, wobei die Annahme über die Beschleunigung und Geschwindigkeit der Objekte wie folgt berechnet wird: a. v_max = min(previous_v + a_max*delta_t, v_assumption_max) b. v_min = max(previous_v + a_min*delta_t, v_assumption_min)
- Datenverarbeitungssystem zum Erkennen von Inkonsistenzen in den Beobachtungen von Wahrnehmungssystemen (1.2) und Wahrnehmungssensoren (1.1) eines automatisierten Fahrzeugs (1), das auf einer elektronischen Steuereinheit (1.3) läuft, um die folgenden Schritte auszuführen: a. Empfang und Speicherung der beobachteten Zustände der Szene von Wahrnehmungssystemen (1.2) und Sensoren (1.1), b. Berechnung der Grenzen eines oder mehrerer möglicher Zustände eines zuvor beobachteten Objekts zu einem bestimmten Zeitpunkt auf der Grundlage der vorherigen Zustände des Objekts, der Annahmen über das Verhalten des Objekts oder der Art der Szene oder der Umgebungsbedingungen oder einer Kombination davon, c. Prüfung, ob ein geschätzter Zustand einer Szene oder eines Objekts innerhalb der in Schritt b ermittelten Grenzen liegt, d. Übermittlung einer Meldung an das elektronische Steuergerät (1.3), wenn ein geschätzter Zustand nicht innerhalb einer berechneten Grenze liegt, e. wahlweise Durchführung von Sicherheitsmaßnahmen durch das elektronische Steuergerät auf der Grundlage der Meldung von Schritt d.
- AD/ADAS-Fahrzeug, das das Datenverarbeitungssystem nach
Anspruch 12 umfasst oder so konfiguriert ist, dass es das Verfahren nach denAnsprüchen 1 bis11 durchführt.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
BEBE2021/5227 | 2021-03-25 | ||
BE20215227A BE1028777B1 (nl) | 2021-03-25 | 2021-03-25 | Systeem en methode voor het detecteren van inconsistenties in de outputs van perceptiesystemen van autonome voertuigen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102022103324A1 true DE102022103324A1 (de) | 2022-09-29 |
Family
ID=75497761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102022103324.4A Pending DE102022103324A1 (de) | 2021-03-25 | 2022-02-13 | System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen. |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220306161A1 (de) |
BE (1) | BE1028777B1 (de) |
DE (1) | DE102022103324A1 (de) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11814070B1 (en) * | 2021-09-30 | 2023-11-14 | Zoox, Inc. | Simulated driving error models |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019002487A1 (de) | 2019-04-04 | 2020-10-08 | Daimler Ag | Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs |
DE102019212892A1 (de) | 2019-08-28 | 2021-03-04 | Robert Bosch Gmbh | Erkennung von Detektorfehlern |
DE102019213929A1 (de) | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AT514724A2 (de) * | 2013-08-20 | 2015-03-15 | Fts Computertechnik Gmbh | Verfahren zur Erkennung von Fehlern |
JP6500820B2 (ja) * | 2016-03-18 | 2019-04-17 | 株式会社デンソー | 車載装置 |
US10445928B2 (en) * | 2017-02-11 | 2019-10-15 | Vayavision Ltd. | Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types |
WO2018229549A2 (en) * | 2017-06-16 | 2018-12-20 | Nauto Global Limited | System and method for digital environment reconstruction |
JP6859907B2 (ja) * | 2017-09-08 | 2021-04-14 | トヨタ自動車株式会社 | 車両制御装置 |
US11126179B2 (en) * | 2019-02-21 | 2021-09-21 | Zoox, Inc. | Motion prediction based on appearance |
JP7380409B2 (ja) * | 2020-04-29 | 2023-11-15 | 株式会社デンソー | 車両用記録装置、情報記録方法 |
-
2021
- 2021-03-25 BE BE20215227A patent/BE1028777B1/nl active IP Right Grant
-
2022
- 2022-02-13 DE DE102022103324.4A patent/DE102022103324A1/de active Pending
- 2022-02-23 US US17/678,398 patent/US20220306161A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019002487A1 (de) | 2019-04-04 | 2020-10-08 | Daimler Ag | Verfahren zur Überprüfung eines Umfelderfassungssensors eines Fahrzeugs und Verfahren zum Betrieb eines Fahrzeugs |
DE102019212892A1 (de) | 2019-08-28 | 2021-03-04 | Robert Bosch Gmbh | Erkennung von Detektorfehlern |
DE102019213929A1 (de) | 2019-09-12 | 2021-03-18 | Zf Friedrichshafen Ag | Plausibilitätsprüfung angehaltener vormals dynamischer Objekte mit Hilfe von Belegungsrastern |
Also Published As
Publication number | Publication date |
---|---|
US20220306161A1 (en) | 2022-09-29 |
BE1028777B1 (nl) | 2022-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102013014106B4 (de) | Auf V2V-Kommunikation basierende Fahrzeugidentifizierungsvorrichtung und Identifizierungsverfahren für diese | |
EP3695244B1 (de) | Verfahren und vorrichtung zum erzeugen eines inversen sensormodells und verfahren zum erkennen von hindernissen | |
EP3490862B1 (de) | Verfahren und vorrichtung zum ermitteln eines fahrbahnmodells für ein fahrzeugumfeld | |
DE102018220024B3 (de) | Verfahren zur Fusion von Sensordaten von mehreren Sensoren und Fusionsvorrichtung zum Fusionieren von Sensordaten von mehreren Sensoren | |
DE102014114827A1 (de) | Wegplanung für Ausweichlenkmanöver bei Vorhandensein eines Zielfahrzeugs und umgebenden Objekten | |
DE102016212326A1 (de) | Verfahren zur Verarbeitung von Sensordaten für eine Position und/oder Orientierung eines Fahrzeugs | |
DE102019214628A1 (de) | Validierung von Umfelderfassung mittels Satelitenbildern und SAR-Radardaten | |
DE102018100487A1 (de) | Objektverfolgung durch unüberwachtes lernen | |
DE102019209462A1 (de) | Verfahren zur Bestimmung eines Vertrauens-Wertes eines detektierten Objektes | |
DE102020118629B4 (de) | Computerimplementiertes Verfahren zum Bestimmen der Validität einer geschätzten Position eines Fahrzeugs | |
DE102021128041A1 (de) | Verbesserung eines neuronalen fahrzeugnetzwerks | |
DE102019114371A1 (de) | Online-diagnostik und prognostik für ein wahrnehmungssystem eines fahrzeugs | |
DE102022108656A1 (de) | Neuronales quantilnetz | |
DE102019113520A1 (de) | Fahrzeugsteuerungsverfahren und System, das auf einer Detektion eines Fallens einer Last basiert | |
DE102018215753A1 (de) | Vorrichtung und Verfahren zum Ermitteln einer Trajektorie eines Fahrzeugs | |
DE102020200169B3 (de) | Verfahren zur Zusammenführung mehrerer Datensätze für die Erzeugung eines aktuellen Spurmodells einer Fahrbahn und Vorrichtung zur Datenverarbeitung | |
DE102016220581A1 (de) | Verfahren und vorrichtung zur bestimmung eines umfeldmodells | |
DE112022005415T5 (de) | Multimodale datenanalyse zur fehlererkennung | |
DE112022001403T5 (de) | Lichtinterferenzdetektion während der fahrzeugnavigation | |
DE102022103324A1 (de) | System und Verfahren zur Erkennung von Inkonsistenzen in Wahrnehmungssystemen von automatisierten Fahrzeugen. | |
DE102019206349A1 (de) | Verfahren und Computer-Programm-Produkt zum Erkennen von Signalzeichen zur Verkehrssteuerung spurgebundener Fahrzeuge sowie Signalzeichenerkennungssystem und Spurgebundenes Fahrzeug, insbesondere Schienenfahrzeug | |
DE102019209463A1 (de) | Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse | |
WO2022069088A1 (de) | Kartenplausibilitätsprüfungsverfahren | |
DE102020213133A1 (de) | Verfahren und Vorrichtung zum Bewerten einer Eigenlokalisierung eines physikalischen Systems mittels Sensordaten | |
DE102020200133A1 (de) | Verfahren und Vorrichtung zum Betreiben eines automatisierten Fahrzeugs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R163 | Identified publications notified | ||
R082 | Change of representative |
Representative=s name: PRINZ & PARTNER MBB PATENT- UND RECHTSANWAELTE, DE Representative=s name: PRINZ & PARTNER MBB PATENTANWAELTE RECHTSANWAE, DE |