DE102023101181A1 - Lokalisierungsfunktionssicherheit - Google Patents

Lokalisierungsfunktionssicherheit Download PDF

Info

Publication number
DE102023101181A1
DE102023101181A1 DE102023101181.2A DE102023101181A DE102023101181A1 DE 102023101181 A1 DE102023101181 A1 DE 102023101181A1 DE 102023101181 A DE102023101181 A DE 102023101181A DE 102023101181 A1 DE102023101181 A1 DE 102023101181A1
Authority
DE
Germany
Prior art keywords
point cloud
metric
localization
vehicle
transformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102023101181.2A
Other languages
English (en)
Inventor
Stephen L. Thomas
Chaitanya Shinde
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motional AD LLC
Original Assignee
Motional AD LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motional AD LLC filed Critical Motional AD LLC
Publication of DE102023101181A1 publication Critical patent/DE102023101181A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

Angegeben sind Verfahren für Lokalisierungsfunktionssicherheit, die Systeme, Verfahren und Computerprogrammprodukte umfassen können. In einigen Beispielen beinhaltet ein Verfahren Anwenden einer Transformation auf eine Quellpunktwolke und Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Karte auf einer höheren ASIL-Stufe. Eine erste Metrik wird auf Grundlage einer Lokalisierungsfunktion bestimmt, die auf einer niedrigeren ASIL-Stufe ausgeführt wird. Eine Abweichung zwischen der ersten Metrik und der zweiten Metrik wird bestimmt, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.

Description

  • VERWEIS AUF VERWANDTE ANMELDUNG
  • Diese Anmeldung beansprucht die Priorität der vorläufigen US-Patenanmeldung Nr. 63/303,301 eingereicht am 26. Januar 2022, die durch Bezugnahme in ihrer Gesamtheit hierin aufgenommen wird.
  • HINTERGRUND
  • Lokalisierung bezieht sich auf einen Prozess, bei dem ein autonomes Fahrzeug seinen Standort bestimmt, einschließlich einer Position und Orientierung. Die Lokalisierung erfolgt anhand einer Darstellung der Umgebung, wobei das autonome Fahrzeug diese Darstellung zusammen mit anderen Daten interpretiert, um seine Position und Orientierung in Bezug auf die Darstellung zu bestimmen. Das Fahrzeug navigiert anhand der aus der Lokalisierung ermittelten Position und Orientierung durch die Umgebung.
  • Figurenliste
    • 1 ist eine beispielhafte Umgebung, in der ein Fahrzeug, das eine oder mehrere Komponenten eines autonomen Systems beinhaltet, implementiert werden kann;
    • 2 ist ein Diagramm eines oder mehrerer Systeme eines Fahrzeugs, das ein autonomes System beinhaltet;
    • 3 ist ein Diagramm von Komponenten einer oder mehrerer Vorrichtungen und/oder eines oder mehrerer Systeme aus 1 und 2;
    • 4 ist eine Darstellung bestimmter Komponenten eines autonomen Systems;
    • 5 ist ein Diagramm einer Implementierung eines Prozesses für Lokalisierungsfunktionssicherheit; und
    • 6A ist ein Blockdiagramm eines Systems, das Lokalisierungsfunktionssicherheit zeigt;
    • 6B zeigt eine iterative Punkt-zu-Ebene-Lokalisierung nächstgelegener Punkte; und
    • 7 ist ein Blockdiagramm eines Prozesses, der Lokalisierungsfunktionssicherheit ermöglicht.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In der nachfolgenden Beschreibung werden zu Erläuterungszwecken zahlreiche konkrete Einzelheiten dargelegt, um ein umfassendes Verständnis der vorliegenden Offenbarung zu vermitteln. Es versteht sich jedoch, dass die durch die vorliegende Offenbarung beschriebenen Ausführungsformen auch ohne diese konkreten Einzelheiten umgesetzt werden können. In einigen Fällen werden bekannte Strukturen und Vorrichtungen in Blockdiagrammform dargestellt, um eine unnötige Verschleierung von Aspekten der vorliegenden Offenbarung zu vermeiden.
  • Konkrete Anordnungen oder Ordnungen schematischer Elemente, wie z.B. solche, die Systeme, Vorrichtungen, Module, Befehlsblöcke, Datenelemente und/oder dergleichen darstellen, sind zur leichteren Beschreibung in den Zeichnungen veranschaulicht. Ein Fachmann versteht jedoch, dass die konkrete Ordnung oder Anordnung der schematischen Elemente in den Zeichnungen nicht implizieren soll, dass eine bestimmte Reihenfolge oder Abfolge der Verarbeitung oder eine Trennung von Prozessen erforderlich ist, soweit dies nicht explizit angegeben ist. Ferner soll die Aufnahme eines schematischen Elements in eine Zeichnung nicht bedeuten, dass dieses Element in allen Ausführungsformen erforderlich ist oder dass die durch dieses Element dargestellten Merkmale in einigen Ausführungsformen nicht in andere Elemente aufgenommen oder mit anderen Elementen kombiniert werden können, sofern dies nicht ausdrücklich beschrieben ist.
  • Wenn ferner in den Zeichnungen Verbindungselemente wie beispielsweise durchgezogene oder gestrichelte Linien oder Pfeile verwendet werden, um eine Verbindung, eine Beziehung oder einen Zusammenhang zwischen oder unter zwei oder mehr anderen schematischen Elementen zu veranschaulichen, so ist das Fehlen solcher Verbindungselemente nicht so zu verstehen, dass keine Verbindung, keine Beziehung oder kein Zusammenhang vorliegen kann. Mit anderen Worten, einige Verbindungen, Beziehungen oder Zusammenhänge zwischen Elementen sind in den Zeichnungen nicht veranschaulicht, um nicht von der Offenbarung abzulenken. Zusätzlich kann zur Vereinfachung der Veranschaulichung ein einzelnes Verbindungselement verwendet werden, um mehrere Verbindungen, Beziehungen oder Zuordnungen zwischen Elementen zu repräsentieren. Wenn beispielsweise ein Verbindungselement Kommunikation von Signalen, Daten oder Anweisungen (z.B. „Software-Anweisungen“) darstellt, sollte ein Fachmann verstehen, dass ein solches Element einen oder mehrere Signalwege (z.B. einen Bus) repräsentieren kann, je nachdem, was erforderlich ist, um die Kommunikation zu bewirken.
  • Auch wenn die Ausdrücke „erste/r/s“, „zweite/r/s“, „dritte/r/s“ und/oder dergleichen zur Beschreibung verschiedener Elemente verwendet werden, ist nicht beabsichtigt, dass diese Elemente durch diese Ausdrücke eingeschränkt werden. Die Ausdrücke „erste/r/s“, „zweite/r/s“, „dritte/r/s“ und/oder dergleichen werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Beispielsweise könnte ein erster Kontakt als zweiter Kontakt bezeichnet werden und entsprechend ein zweiter Kontakt als erster Kontakt, ohne vom Umfang der beschriebenen Ausführungsformen abzuweichen. Sowohl beim ersten Kontakt als auch beim zweiten Kontakt handelt es sich um Kontakte, jedoch nicht um denselben Kontakt.
  • Die in der Beschreibung der verschiedenen beschriebenen Ausführungsformen vorliegend verwendete Terminologie ist nur zum Zweck der Beschreibung spezieller Ausführungsformen enthalten und soll nicht beschränkend sein. Die Singularformen „ein/eine“ und „der/die/das“, wie sie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den beiliegenden Ansprüchen verwendet werden, sollen ebenso die Pluralformen einschließen und können synonym mit „eine/r oder mehrere“ oder „mindestens ein/e“ verwendet werden, sofern nicht durch den Kontext eindeutig anders angegeben. Es versteht sich auch, dass der Begriff „und/oder“ wie hier verwendet sich auf alle möglichen Kombinationen eines oder mehrerer der zugehörigen aufgelisteten Punkte bezieht und diese mit einschließt. Ferner ist zu beachten, dass die Ausdrücke „beinhalten/aufweisen“, „beinhaltend/aufweisend“, „umfasst“ und/oder „umfassend“, soweit in dieser Spezifikation verwendet, das Vorliegen genannter Merkmale, Zahlen, Schritte, Operationen, Elemente und/oder Komponenten angibt, jedoch nicht das Vorliegen oder Hinzufügen eines oder mehrerer weiterer Merkmale, Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt.
  • Vorliegend beziehen sich die Ausdrücke „Kommunikation“ und „kommunizieren“ auf den Empfang und/oder die Übertragung und/oder die Weitergabe und/oder die Bereitstellung und/oder dergleichen von Informationen (oder Informationen, die z.B. durch Daten, Signale, Nachrichten, Anweisungen, Befehle und/oder dergleichen dargestellt werden). Wenn eine Einheit (z.B. eine Vorrichtung, ein System, eine Komponente einer Vorrichtung oder eines Systems, Kombinationen davon und/oder dergleichen) mit einer anderen Einheit in Kommunikation steht, bedeutet dies, dass die eine Einheit in der Lage ist, direkt oder indirekt Informationen von der anderen Einheit zu empfangen und/oder Informationen an die andere Einheit zu senden (z.B. zu übertragen). Dies kann sich auf eine direkte oder indirekte Kommunikation beziehen, die drahtgebunden und/oder drahtlos erfolgt. Zusätzlich können zwei Einheiten in Kommunikation miteinander stehen, selbst wenn die übertragenen Informationen zwischen der ersten und zweiten Einheit modifiziert, verarbeitet, weitergeleitet und/oder geroutet werden. So kann beispielsweise eine erste Einheit auch dann mit einer zweiten Einheit in Kommunikation stehen, wenn die erste Einheit passiv Informationen empfängt und nicht aktiv Informationen an die zweite Einheit überträgt. Als weiteres Beispiel kann eine erste Einheit mit einer zweiten Einheit in Kommunikation stehen, wenn mindestens eine Zwischeneinheit (z.B. eine dritte Einheit, die sich zwischen der ersten und der zweiten Einheit befindet) von der ersten Einheit empfangene Informationen verarbeitet und die verarbeiteten Informationen an die zweite Einheit weiterleitet. In einigen Ausführungsformen kann sich eine Nachricht auf ein Netzpaket (z.B. ein Datenpaket und/oder dergleichen) beziehen, das Daten enthält.
  • Die Bezeichnung „falls“ ist je nach Kontext wahlweise auszulegen als „wenn“, „bei/nach“, „in Reaktion auf Bestimmen“, „in Reaktion auf Erkennen“ und/oder dergleichen. Entsprechend ist die Formulierung „falls bestimmt wird“ oder „falls [eine genannte Bedingung oder ein genanntes Ereignis] erfasst wird“ je nach Kontext wahlweise auszulegen als „bei/nach Bestimmen“, „in Reaktion auf Bestimmen“, „bei/nach Erfassen [der genannten Bedingung oder des genannten Ereignisses]“, „in Reaktion auf Erfassen [der genannten Bedingung oder des genannten Ereignisses]“ und/oder dergleichen. Auch die vorliegend verwendeten Ausdrücke „hat/weist auf”, „haben/weisen auf“, „aufweisend“ oder dergleichen sind als offene Ausdrücke zu verstehen. Ferner soll die Formulierung „auf Grundlage von“ bedeuten „zumindest teilweise auf Grundlage von“, sofern nicht explizit etwas anderes angegeben ist.
  • Es wird nun im Einzelnen Bezug auf Ausführungsformen genommen, zu denen Beispiele in den begleitenden Zeichnungen veranschaulicht sind. In der nachfolgenden ausführlichen Beschreibung werden zahlreiche konkrete Einzelheiten dargelegt, um ein vollständiges Verständnis der verschiedenen beschriebenen Ausführungsformen zu gewährleisten. Ein Durchschnittsfachmann auf dem Gebiet wird jedoch verstehen, das die verschiedenen beschriebenen Ausführungsformen auch ohne diese spezifischen Einzelheiten umgesetzt werden können. In anderen Fällen wurden allgemein bekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Einzelnen beschrieben, um nicht unnötig von Aspekten der Ausführungsformen abzulenken.
  • Allgemeiner Überblick
  • Gemäß einigen Aspekten und/oder Ausführungsformen beinhalten und/oder implementieren Systeme, Verfahren und Computerprogrammprodukte Lokalisierungsfunktionssicherheit. Ein Fahrzeug (z.B. ein autonomes Fahrzeug) bestimmt seine Position und Orientierung durch Lokalisierung. Die Lokalisierung beruht auf einer Darstellung der Umgebung, wobei das Fahrzeug die Darstellung der Umgebung und andere Daten interpretiert, um seine Position und Orientierung zu bestimmen. Quellpunktwolkendaten werden iterativ verarbeitet, um eine Transformation zwischen der Punktwolke und einer Karte zu berechnen. Eine Rotationsmatrix und ein Transformationsvektor werden verwendet, um auf Grundlage einer aus der iterativen Lokalisierung berechneten Transformation eine Lage des Fahrzeugs zu berechnen. Die Lokalisierung berechnet zudem eine mit der berechneten Lage assoziierte erste Metrik. Die Transformation wird auf die Quellpunktwolkendaten angewendet, und auf Grundlage der auf die Quellpunktwolkendaten und die Kartenpunktwolke angewendeten Transformation wird eine zweite Metrik berechnet. In einigen Ausführungsformen wird die zweite Metrik unter Verwendung von Hardware und Software berechnet, die unabhängig von der Hardware und Software ist, die zur Berechnung der ersten Metrik verwendet wird. Es wird eine Abweichung zwischen der ersten Metrik und der zweiten Metrik bestimmt. Die Lokalisierung wird validiert, wenn die Abweichung innerhalb eines vorbestimmten Schwellenwerts liegt.
  • Durch die Implementierung vorliegend beschriebener Systeme, Verfahren und Computerprogrammprodukte ermöglichen Methoden für Lokalisierungsfunktionssicherheit eine schnellere Evaluierung von Funktionssicherheitsanforderungen. Zu den Vorteilen dieser Methoden zählt auch das Erfüllen von Funktionssicherheitsanforderungen. Der vorliegend beschriebene Prüfer (checker) ist schlank ausgelegt (z.B. ohne iterative Berechnungen oder große Speicheranforderungen), um die Ausführung unter Verwendung von Prozessoren mit begrenzter Rechenleistung und einer höheren Fahrzeugsicherheitsstufe (automotive safety integrity level, ASIL) (Prozessoren der Stufe ASIL-B oder höher) zu ermöglichen. In einigen Beispielen ist der Prüfer extern zu anderer, komplexerer AV-Funktionalität angeordnet. Auf diese Weise ermöglichen die vorliegenden Methoden eine AV-Funktionalität, die eine höhere Fahrzeugsicherheitsstufe als die zugrunde liegende Hardware erfüllt, indem die Ausgabe der AV-Funktionalität unter Verwendung des Prüfers geprüft wird. Dementsprechend erfüllt die AV-Funktionalität eine höhere Fahrzeugsicherheitsstufe, ohne dass der AV-Software-Stapel umgestaltet werden muss, um mit Hardware auf der höheren Fahrzeugsicherheitsstufe zu arbeiten.
  • In 1 ist eine beispielhafte Umgebung 100 dargestellt, in der sowohl Fahrzeuge mit autonomen Systemen als auch Fahrzeuge ohne solche Systeme betrieben werden. Wie veranschaulicht wird, beinhaltet die Umgebung 100 Fahrzeuge 102a-102n, Objekte 104a-104n, Routen 106a-106n, einen Bereich 108, eine Fahrzeug-zu-Infrastruktur- (V2I-) Vorrichtung 110, ein Netzwerk 112, ein entfernt angeordnetes AV- (autonomes Fahrzeug) System 114, ein Fuhrparkverwaltungssystem 116 und ein V2I-System 118. Die Fahrzeuge 102a-102n, die Fahrzeug-zu-Infrastruktur- (V2I-) Vorrichtung 110, das Netzwerk 112, das AV-System 114, das Fuhrparkverwaltungssystem 116 und das V2I-System 118 sind über drahtgebundene Verbindungen, drahtlose Verbindungen oder eine Kombination von drahtgebundenen oder drahtlosen Verbindungen miteinander verbunden (z.B. stellen diese eine Verbindung zur Kommunikation her und/oder dergleichen). In einigen Ausführungsformen sind die Objekte 104a-104n über drahtgebundene Verbindungen, drahtlose Verbindungen oder eine Kombination von drahtgebundenen oder drahtlosen Verbindungen mit den Fahrzeugen 102a-102n und/oder der Fahrzeug-zu-Infrastruktur- (V2I-) Vorrichtung 110 und/oder dem Netzwerk 112 und/oder dem AV-System 114 und/oder dem Fuhrparkverwaltungssystem 116 und/oder dem V2I-System 118 verbunden.
  • Die Fahrzeuge 102a-102n (einzeln als Fahrzeug 102 und zusammengefasst als Fahrzeuge 102 bezeichnet) beinhalten mindestens eine Vorrichtung, die zum Transportieren von Gütern und/oder Personen ausgelegt ist. In einigen Ausführungsformen sind die Fahrzeuge 102 so ausgelegt, dass sie über das Netzwerk 112 mit der V21-Vorrichtung 110, dem entfernt angeordneten AV-System 114, dem Fuhrparkverwaltungssystem 116 und/oder dem V21-System 118 kommunizieren können. In einigen Ausführungsformen umfassen die Fahrzeuge 102 Autos, Busse, Lastwagen, Züge und/oder dergleichen. In einigen Ausführungsformen sind die Fahrzeuge 102 gleich oder ähnlich wie die vorliegend beschriebenen Fahrzeuge 200 (siehe 2). In einigen Ausführungsformen ist ein Fahrzeug 200 eines Satzes von Fahrzeugen 200 einem autonomen Fuhrparkverwalter zugeordnet. In einigen Ausführungsformen fahren die Fahrzeuge 102 entlang jeweiliger Routen 106a-106n (einzeln als Route 106 und gemeinsam als Routen 106 bezeichnet), wie vorliegend beschrieben. In einigen Ausführungsformen beinhalten ein oder mehrere Fahrzeuge 102 ein autonomes System (z.B. ein autonomes System, das das gleiche oder ähnlich ist wie das autonome System 202).
  • Zu den Objekten 104a-104n (einzeln als Objekt 104 und gemeinsam als Objekte 104 bezeichnet) zählen beispielsweise mindestens ein Fahrzeug, mindestens ein Fußgänger, mindestens ein Radfahrer, mindestens ein Gebilde (z.B. ein Gebäude, ein Schild, ein Hydrant usw.) und/oder dergleichen. Jedes Objekt 104 ist stationär (z.B. für eine bestimmte Zeit an einem festen Ort) oder mobil (z.B. mit einem Geschwindigkeitsvektor und mindestens einer Trajektorie). In einigen Ausführungsformen sind die Objekte 104 mit entsprechenden Standorten in dem Bereich 108 assoziiert.
  • Die Routen 106a-106n (einzeln als Route 106 und gemeinsam als Routen 106 bezeichnet) sind jeweils mit einer Abfolge von Aktionen (auch als Trajektorie bezeichnet) assoziiert (z.B. geben sie diese vor), die Zustände miteinander verbinden, entlang derer ein AV navigieren kann. Jede Route 106 beginnt mit einem Anfangszustand (z.B. einem Zustand, der einem ersten raumzeitlichen Standort, einem Geschwindigkeitsvektor und/oder dergleichen entspricht) und einem Endzielzustand (z.B. einem Zustand, der einem zweiten raumzeitlichen Standort entspricht, der sich vom ersten raumzeitlichen Standort unterscheidet) oder einer Zielregion (z.B. einem Teilraum akzeptabler Zustände (z.B. Endzustände)). In einigen Ausführungsformen beinhaltet der erste Zustand einen Standort, an dem ein Individuum oder Individuen durch das AV abzuholen ist/sind, und der zweite Zustand oder die zweite Region beinhaltet einen Standort oder Standorte, an dem/denen das Individuum oder die Individuen, das/die durch das AV abgeholt wurde/n, abzusetzen ist/sind. In einigen Ausführungsformen beinhalten die Routen 106 eine Vielzahl von akzeptablen Zustandsabfolgen (z.B. eine Vielzahl von raumzeitlichen Standortabfolgen), wobei die Vielzahl von Zustandsabfolgen mit einer Vielzahl von Trajektorien assoziiert ist (z.B. diese definiert). In einem Beispiel beinhalten die Routen 106 nur übergeordnete Aktionen oder ungenaue Zustandsorte, wie z.B. eine Reihe verbundener Straßen, die Abbiegerichtungen an Straßenkreuzungen vorgeben. Zusätzlich oder alternativ können die Routen 106 präzisere Aktionen oder Zustände beinhalten, wie beispielsweise bestimmte Zielfahrspuren oder genaue Standorte innerhalb der Fahrspurbereiche und eine Zielgeschwindigkeit an diesen Positionen. In einem Beispiel beinhalten die Routen 106 eine Vielzahl präziser Zustandsabfolgen entlang der mindestens einen Abfolge übergeordneter Aktionen mit einem begrenzten Vorausschauhorizont, um Zwischenziele zu erreichen, wobei die Kombination aufeinanderfolgender Iterationen von Zustandsabfolgen mit begrenztem Horizont kumulativ einer Vielzahl von Trajektorien entspricht, die zusammen die übergeordnete Route bilden, um im endgültigen Zielzustand oder der Zielregion anzukommen.
  • Der Bereich 108 beinhaltet einen physischen Bereich (z.B. eine geografische Region), in dem die Fahrzeuge 102 navigieren können. In einem Beispiel beinhaltet der Bereich 108 mindestens einen Staat (z.B. ein Land, eine Provinz, einen einzelnen Staat einer Vielzahl von Staaten, die zu einem Land gehören, usw.), mindestens einen Teil eines Staates, mindestens eine Stadt, mindestens einen Teil einer Stadt usw. In einigen Ausführungsformen beinhaltet der Bereich 108 mindestens eine benannte Durchgangsstraße (im Folgenden als „Straße“ bezeichnet), wie z.B. eine Autobahn, eine Fernstraße, eine Allee, eine Stadtstraße usw. Zusätzlich oder alternativ beinhaltet der Bereich 108 in einigen Beispielen mindestens eine unbenannte Straße, wie z.B. eine Einfahrt, einen Abschnitt eines Parkplatzes, einen Abschnitt eines freien und/oder unbebauten Grundstücks, einen Feldweg usw. In einigen Ausführungsformen beinhaltet eine Straße mindestens eine Fahrspur (z.B. einen Teil der Straße, der von Fahrzeugen 102 befahren werden kann). In einem Beispiel beinhaltet eine Straße mindestens eine Fahrspur, die mit mindestens einer Fahrspurmarkierung assoziiert ist (z.B. auf Grundlage dieser Markierung identifiziert wird).
  • Die Fahrzeug-zu-Infrastruktur- (V2I-) Vorrichtung 110 (manchmal auch als Fahrzeug-zu-Infrastruktur- (V2X-) Vorrichtung bezeichnet) beinhaltet mindestens eine Vorrichtung, die so ausgelegt ist, dass sie mit Fahrzeugen 102 und/oder dem V21-Infrastruktursystem 118 in Kommunikation steht. In einigen Ausführungsformen ist die V21-Vorrichtung 110 so ausgelegt, dass sie über das Netzwerk 112 mit den Fahrzeugen 102, dem entfernt angeordneten AV-System 114, dem Fuhrparkverwaltungssystem 116 und/oder dem V21-System 118 in Kommunikation steht. In einigen Ausführungsformen beinhaltet die V21-Vorrichtung 110 eine Hochfrequenzkennungs- (Radio Frequency Identification, RFID-) Vorrichtung, Verkehrsschilder, Kameras (z.B. zweidimensionale (2D-) und/oder dreidimensionale (3D-) Kameras), Fahrspurmarkierungen, Straßenlaternen, Parkuhren usw. In einigen Ausführungsformen ist die V21-Vorrichtung 110 dazu ausgelegt, direkt mit den Fahrzeugen 102 zu kommunizieren. Zusätzlich oder alternativ ist die V21-Vorrichtung 110 in einigen Ausführungsformen dazu ausgelegt, über das V21-System 118 mit den Fahrzeugen 102, dem entfernt angeordneten AV-System 114 und/oder dem Fuhrparkverwaltungssystem 116 zu kommunizieren. In einigen Ausführungsformen ist die V21-Vorrichtung 110 so ausgelegt, dass sie über das Netzwerk 112 mit dem V2I-System 118 kommuniziert.
  • Das Netzwerk 112 beinhaltet ein oder mehrere drahtgebundene und/oder drahtlose Netzwerke. In einem Beispiel beinhaltet das Netzwerk 112 ein Mobilfunknetz (z.B. ein LTE- (Long Term Evolution) Netz, ein 3G- (dritte Generation) Netz, ein 4G- (vierte Generation) Netz, ein 5G- (fünfte Generation) Netz, ein CDMA-(code division multiple access, Codemultiplex-Vielfachzugriff-) Netz usw.), ein öffentliches Mobilfunknetz (PLMN, public land mobile network), ein lokales Netzwerk (local area network, LAN), ein Weitverkehrsnetz (wide area network, WAN), ein Stadtnetz (metropolitan area network, MAN), ein Telefonnetz (z.B. das öffentliche Telefonnetz (PSTN, public switched telephone network), ein privates Netzwerk, ein Ad-hoc-Netz, ein Intranet, das Internet, ein glasfaserbasiertes Netzwerk, ein Cloud-Computing-Netzwerk usw., eine Kombination einiger oder aller dieser Netzwerke und/oder dergleichen.
  • Das entfernt angeordnete AV-System 114 beinhaltet mindestens eine Vorrichtung, die so ausgelegt ist, dass sie über das Netzwerk 112 mit den Fahrzeugen 102, der V21-Einrichtung 110, dem Netzwerk 112, dem entfernt angeordneten AV-System 114, dem Fuhrparkverwaltungssystem 116 und/oder dem V21-System 118 in Kommunikation steht. In einem Beispiel beinhaltet das entfernt angeordnete AV-System 114 einen Server, eine Gruppe von Servern und/oder andere ähnliche Vorrichtungen. In einigen Ausführungsformen ist das entfernt angeordnete AV-System 114 zusammen mit dem Fuhrparkverwaltungssystem 116 angeordnet. In einigen Ausführungsformen ist das entfernt angeordnete AV-System 114 an der Installation einiger oder aller Komponenten eines Fahrzeugs beteiligt, einschließlich eines autonomen Systems, eines AV-Computers, von einem AV-Computer implementierter Software und/oder dergleichen. In einigen Ausführungsformen wartet (z.B. aktualisiert und/oder ersetzt) das entfernt angeordnete AV-System 114 solche Komponenten und/oder Software während der Lebensdauer des Fahrzeugs.
  • Das Fuhrparkverwaltungssystem 116 beinhaltet mindestens eine Vorrichtung, die so ausgelegt ist, dass sie sich in Kommunikation mit den Fahrzeugen 102, der V21-Vorrichtung 110, dem entfernt angeordneten AV-System 114 und/oder dem V21-Infrastruktursystem 118 befindet. In einem Beispiel beinhaltet das Fuhrparkverwaltungssystem 116 einen Server, eine Gruppe von Servern und/oder andere ähnliche Vorrichtungen. In einigen Ausführungsformen ist das Fuhrparkverwaltungssystem 116 mit einem Fahrgemeinschaftsunternehmen assoziiert (z.B. einer Organisation, die den Betrieb mehrerer Fahrzeuge steuert (z.B. Fahrzeuge, die autonome Systeme beinhalten, und/oder Fahrzeuge, die keine autonomen Systeme beinhalten), und/oder dergleichen).
  • In einigen Ausführungsformen beinhaltet das V21-System 118 mindestens eine Vorrichtung, die so ausgelegt ist, dass sie sich über das Netzwerk 112 mit den Fahrzeugen 102, der V21-Vorrichtung 110, dem entfernt angeordneten AV-System 114 und/oder dem Fuhrparkverwaltungssystem 116 in Kommunikation befindet. In einigen Beispielen ist das V21-System 118 dazu ausgelegt, über eine andere Verbindung als das Netzwerk 112 mit der V21-Vorrichtung 110 in Kommunikation zu stehen. In einigen Ausführungsformen beinhaltet das V21-System 118 einen Server, eine Gruppe von Servern und/oder andere gleichartige Vorrichtungen. In einigen Ausführungsformen ist das V21-System 118 mit einer Stadtverwaltung oder einer privaten Institution (z.B. einer privaten Institution, die die V21-Vorrichtung 110 verwaltet und/oder dergleichen) assoziiert.
  • Die Anzahl und Anordnung der in 1 dargestellten Elemente ist lediglich beispielhaft. Es können zusätzliche Elemente, weniger Elemente, andere Elemente und/oder anders angeordnete Elemente als die in 1 dargestellten vorhanden sein. Zusätzlich oder alternativ kann mindestens ein Element der Umgebung 100 eine oder mehrere Funktionen durchführen, die als durch mindestens ein anderes Element von 1 durchgeführt beschrieben werden. Zusätzlich oder alternativ kann mindestens ein Satz von Elementen der Umgebung 100 eine oder mehrere Funktionen durchführen, die als durch mindestens einen anderen Satz von Elementen der Umgebung 100 durchgeführt beschrieben werden.
  • Gemäß 2 beinhaltet das Fahrzeug 200 ein autonomes System 202, ein Antriebsstrangsteuersystem 204, ein Lenkungssteuersystem 206 und ein Bremssystem 208. In einigen Ausführungsformen ist das Fahrzeug 200 gleich oder ähnlich wie das Fahrzeug 102 (siehe 1). In einigen Ausführungsformen hat das Fahrzeug 102 autonome Fähigkeiten (z.B. implementiert es mindestens eine Funktion, ein Merkmal, eine Vorrichtung und/oder dergleichen, die es ermöglichen, dass das Fahrzeug 200 teilweise oder vollständig ohne menschliches Eingreifen betrieben werden kann, darunter, ohne Einschränkung, vollständig autonome Fahrzeuge (z.B. Fahrzeuge, die auf menschliches Eingreifen verzichten), hochautonome Fahrzeuge (z.B. Fahrzeuge, die in bestimmten Situationen auf menschliches Eingreifen verzichten) und/oder dergleichen). Eine ausführliche Beschreibung von vollständig autonomen Fahrzeugen und hochgradig autonomen Fahrzeugen findet sich in der Norm J3016 der SAE International: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems (Taxonomie und Definitionen für Begriffe im Zusammenhang mit automatisierten Straßen-Kraftfahrzeug-Fahrsystemen), die hier in ihrer Gesamtheit durch Bezugnahme aufgenommen ist. In einigen Ausführungsformen ist das Fahrzeug 200 mit einem autonomen Fuhrparkverwalter und/oder einem Fahrgemeinschaftsunternehmen assoziiert.
  • Das autonome System 202 beinhaltet eine Sensorsuite, die eine oder mehrere Vorrichtungen wie etwa Kameras 202a, LiDAR-Sensoren 202b, Radarsensoren 202c und Mikrofone 202d beinhaltet. In einigen Ausführungsformen kann das autonome System 202 mehr oder weniger Vorrichtungen und/oder andere Vorrichtungen beinhalten (z.B. Ultraschallsensoren, Trägheitssensoren, GPS-Empfänger (siehe unten), Odometriesensoren, die Daten im Zusammenhang mit einer Anzeige einer zurückgelegten Strecke des Fahrzeugs 200 erzeugen, und/oder dergleichen). In einigen Ausführungsformen verwendet das autonome System 202 die eine oder die mehreren Vorrichtungen, die im autonomen System 202 enthalten sind, um Daten im Zusammenhang mit der Umgebung 100 wie vorliegend beschrieben zu erzeugen. Die durch die eine oder die mehreren Vorrichtungen des autonomen Systems 202 erzeugten Daten können durch ein oder mehrere vorliegend beschriebene Systeme verwendet werden, um die Umgebung (z.B. die Umgebung 100) zu beobachten, in der sich das Fahrzeug 200 befindet. In einigen Ausführungsformen beinhaltet das autonome System 202 eine Kommunikationsvorrichtung 202e, einen AV-Computer 202f und ein Drive-by-Wire-(DBW-) System 202h.
  • Die Kameras 202a beinhalten mindestens eine Vorrichtung, die so ausgelegt ist, dass sie über einen Bus (z.B. einen Bus, der dem Bus 302 in 3 gleicht oder ähnelt) mit der Kommunikationsvorrichtung 202e, dem AV-Computer 202f und/oder der Sicherheitssteuereinheit 202g in Kommunikation steht. Die Kameras 202a beinhalten mindestens eine Kamera (z.B. eine Digitalkamera mit einem Lichtsensor wie beispielsweise einer ladungsgekoppelten Vorrichtung (chargecoupled device, CCD), eine Wärmebildkamera, eine Infrarot- (IR-) Kamera, eine Ereigniskamera und/oder dergleichen), um Bilder mit physischen Objekten (z.B. Autos, Busse, Bordsteine, Menschen und/oder dergleichen) aufzunehmen. In einigen Ausführungsformen erzeugt die Kamera 202a Kameradaten als Ausgabe. In einigen Beispielen erzeugt die Kamera 202a Kameradaten, die Bilddaten beinhalten, die mit einem Bild assoziiert sind. In diesem Beispiel können die Bilddaten mindestens einen dem Bild entsprechenden Parameter (z.B. Bildeigenschaften wie Belichtung, Helligkeit usw., einen Bildzeitstempel und/oder dergleichen) angeben. In einem solchen Beispiel kann das Bild in einem bestimmten Format vorliegen (z.B. RAW, JPEG, PNG und/oder dergleichen). In einigen Ausführungsformen beinhaltet die Kamera 202a eine Vielzahl unabhängiger Kameras, die an einem Fahrzeug konfiguriert (z.B. positioniert) sind, um Bilder für Stereopsis (räumliches Sehen) aufzunehmen. In einigen Beispielen beinhaltet die Kamera 202a eine Vielzahl von Kameras, die Bilddaten erzeugen und die Bilddaten an den AV-Computer 202f und/oder ein Fuhrparkverwaltungssystem (z.B. ein Fuhrparkverwaltungssystem, das dem Fuhrparkverwaltungssystem 116 aus 1 gleicht oder ähnlich ist) übertragen. In einem solchen Beispiel bestimmt der AV-Computer 202f eine Tiefe eines oder mehrerer Objekte in einem Sichtfeld von mindestens zwei Kameras der Vielzahl von Kameras auf Grundlage der Bilddaten von den mindestens zwei Kameras. In einigen Ausführungsformen sind die Kameras 202a so ausgelegt, dass sie Bilder von Objekten innerhalb einer Entfernung von den Kameras 202a aufnehmen (z.B. bis zu 100 Meter, bis zu einem Kilometer und/oder dergleichen). Dementsprechend beinhalten die Kameras 202a Merkmale wie Sensoren und Objektive, die für die Wahrnehmung von Objekten optimiert sind, die sich in einer oder mehreren Entfernungen zu den Kameras 202a befinden.
  • In einer Ausführungsform beinhaltet die Kamera 202a mindestens eine Kamera, die dazu ausgelegt ist, ein oder mehrere Bilder aufzunehmen, die mit einer oder mehreren Ampeln, einem oder mehreren Straßenschildern und/oder anderen physischen Objekten assoziiert sind, die visuelle Navigationsinformationen bereitstellen. In einigen Ausführungsformen erzeugt die Kamera 202a Ampeldaten im Zusammenhang mit einem oder mehreren Bildern. In einigen Beispielen erzeugt die Kamera 202a TLD-Daten im Zusammenhang mit einem oder mehreren Bildern, die ein Format (z.B. RAW, JPEG, PNG und/oder dergleichen) enthalten. In einigen Ausführungsformen unterscheidet sich die Kamera 202a, die TLD-Daten erzeugt, in dem Sinne von anderen hierin beschriebenen Systemen, die Kameras beinhalten, dass die Kamera 202a eine oder mehrere Kameras mit einem weiten Sichtfeld beinhalten kann (z. B. einem Weitwinkelobjektiv, einem Fischaugenobjektiv, einem Objektiv mit einem Sichtwinkel von ungefähr 120 Grad oder mehr und/oder dergleichen), um Bilder über so viele physische Objekte wie möglich zu erzeugen.
  • Die LiDAR- (laser detection and ranging, Lichtabstandsmessung) Sensoren 202b beinhalten mindestens eine Vorrichtung , die so ausgelegt ist, dass sie über einen Bus (z.B. einen Bus, der dem Bus 302 in 3 gleicht oder ähnelt) mit der Kommunikationsvorrichtung 202e, dem AV-Computer 202f und/oder der Sicherheitssteuereinheit 202g in Kommunikation steht. Die LiDAR-Sensoren 202b beinhalten ein System, das so ausgelegt ist, dass es Licht von einem Lichtsender (z.B. einem Lasersender) überträgt. Das von den LiDAR-Sensoren 202b emittierte Licht umfasst Licht (z.B. Infrarotlicht und/oder dergleichen), das außerhalb des sichtbaren Spektrums liegt. In einigen Ausführungsformen trifft von den LiDAR-Sensoren 202b emittiertes Licht während des Betriebs auf ein physisches Objekt (z.B. ein Fahrzeug) und wird zu den LiDAR-Sensoren 202b zurückreflektiert. In einigen Ausführungsformen dringt das durch die LiDAR-Sensoren 202b emittierte Licht nicht in die physischen Objekte ein, auf die das Licht trifft. Die LiDAR-Sensoren 202b beinhalten zudem mindestens einen Lichtdetektor, der das Licht erkennt, das vom Lichtemitter emittiert wurde, nachdem das Licht auf ein physisches Objekt traf. In einigen Ausführungsformen erzeugt mindestens ein Datenverarbeitungssystem, das mit den LiDAR-Sensoren 202b assoziiert ist, ein Bild (z.B. eine Punktwolke, eine kombinierte Punktwolke und/oder dergleichen), das die in einem Sichtfeld der LiDAR-Sensoren 202b enthaltenen Objekte darstellt. In einigen Beispielen erzeugt das mindestens eine mit dem LiDAR-Sensor 202b assoziierte Datenverarbeitungssystem ein Bild, das die Grenzen eines physischen Objekts, die Oberflächen (z.B. die Topologie der Oberflächen) des physischen Objekts und/oder dergleichen darstellt. In einem solchen Beispiel wird das Bild verwendet, um die Grenzen physischer Objekte im Sichtfeld der LiDAR-Sensoren 202b zu bestimmen.
  • Die Radar- (radio detection and ranging, Funkabstandsmessung) Sensoren 202c beinhalten mindestens eine Vorrichtung, die so ausgelegt ist, dass sie über einen Bus (z.B. einen Bus, der dem Bus 302 in 3 gleicht oder ähnelt) mit der Kommunikationsvorrichtung 202e, dem AV-Computer 202f und/oder der Sicherheitssteuereinheit 202g in Kommunikation steht. Die Radarsensoren 202c beinhalten ein System, das so ausgelegt ist, dass es Funkwellen (entweder gepulst oder kontinuierlich) überträgt. Die durch die Radarsensoren 202c übertragenen Funkwellen beinhalten Funkwellen, die innerhalb eines vorbestimmten Spektrums liegen. In einigen Ausführungsformen treffen während des Betriebs Funkwellen, die durch die Radarsensoren 202c übertragen werden, auf ein physisches Objekt und werden zu den Radarsensoren 202c zurückreflektiert. In einigen Ausführungsformen werden die von den Radarsensoren 202c gesendeten Funkwellen von einigen Objekten nicht reflektiert. In einigen Ausführungsformen erzeugt mindestens ein mit den Radarsensoren 202c assoziiertes Datenverarbeitungssystem Signale, die die in einem Sichtfeld der Radarsensoren 202c enthaltenen Objekte darstellen. Beispielsweise erzeugt das mindestens eine mit dem Radarsensor 202c assoziierte Datenverarbeitungssystem ein Bild, das die Grenzen eines physischen Objekts, die Oberflächen (z.B. die Topologie der Oberflächen) des physischen Objekts und/oder dergleichen darstellt. In einigen Beispielen wird das Bild verwendet, um die Grenzen von physischen Objekten im Sichtfeld der Radarsensoren 202c zu bestimmen.
  • Die Mikrofone 202d beinhalten mindestens eine Vorrichtung, die so ausgelegt ist, dass sie über einen Bus (z.B. einen Bus, der dem Bus 302 in 3 gleicht oder ähnelt) mit der Kommunikationsvorrichtung 202e, dem AV-Computer 202f und/oder der Sicherheitssteuereinheit 202g in Kommunikation steht. Die Mikrofone 202d beinhalten ein oder mehrere Mikrofone (z.B. Array-Mikrofone, externe Mikrofone und/oder dergleichen), die Audiosignale erfassen und Daten erzeugen, die mit den Audiosignalen assoziiert sind (z.B. diese repräsentieren). In einigen Beispielen beinhalten die Mikrofone 202d Wandlervorrichtungen und/oder ähnliche Vorrichtungen. In einigen Ausführungsformen können ein oder mehrere vorliegend beschriebene Systeme die von den Mikrofonen 202d erzeugten Daten empfangen und eine Position eines Objekts relativ zum Fahrzeug 200 (z.B. eine Entfernung und/oder dergleichen) auf Grundlage der mit den Daten assoziierten Audiosignale bestimmen.
  • Die Kommunikationsvorrichtung 202e beinhaltet mindestens eine Vorrichtung, die so ausgelegt ist, dass sie mit den Kameras 202a, den LiDAR-Sensoren 202b, den Radarsensoren 202c, den Mikrofonen 202d, dem AV-Computer 202f, der Sicherheitssteuereinheit 202g und/oder dem DBW-System 202h in Kommunikation steht. Beispielsweise kann die Kommunikationsvorrichtung 202e eine Vorrichtung beinhalten, die der Kommunikationsschnittstelle 314 aus 3 gleicht oder ähnlich ist. In einigen Ausführungsformen beinhaltet die Kommunikationsvorrichtung 202e eine Fahrzeug-zu-Fahrzeug- (V2V-) Kommunikationsvorrichtung (z.B. eine Vorrichtung, die eine drahtlose Kommunikation von Daten zwischen Fahrzeugen ermöglicht).
  • Der AV-Computer 202f beinhaltet mindestens eine Vorrichtung, die so ausgelegt ist, dass sie mit den Kameras 202a, den LiDAR-Sensoren 202b, den Radarsensoren 202c, den Mikrofonen 202d, der Kommunikationsvorrichtung 202e, der Sicherheitssteuereinheit 202g und/oder dem DBW-System 202h in Kommunikation steht. In einigen Beispielen beinhaltet der AV-Computer 202f eine Vorrichtung wie etwa eine Client-Vorrichtung, eine mobile Vorrichtung (z.B. ein Mobiltelefon, ein Tablet und/oder dergleichen), einen Server (z.B. eine Rechenvorrichtung, die eine oder mehrere Zentralverarbeitungseinheiten, Grafikverarbeitungseinheiten und/oder dergleichen beinhaltet) und/oder dergleichen. In einigen Ausführungsformen gleicht oder ähnelt der AV-Computer 202f dem vorliegend beschriebenen AV-Computer 400. Zusätzlich oder alternativ ist in einigen Ausführungsformen der AV-Computer 202f so ausgelegt, dass er mit einem AV-System (z.B. einem AV-System, das dem entfernt angeordneten AV-System 114 aus 1 gleicht oder ähnelt), einem Fuhrparkverwaltungssystem (z.B. einem Fuhrparkverwaltungssystem, das dem Fuhrparkverwaltungssystem 116 aus 1 gleicht oder ähnelt), einer V21-Vorrichtung (z.B. einer V21-Vorrichtung, die der V2I-Vorrichtung 110 aus 1 gleicht oder ähnelt), und/oder einem V2I-System (z.B. einem V21-System, das dem V21-System 118 aus 1 gleicht oder ähnelt) in Kommunikation steht.
  • Die Sicherheitssteuereinheit 202g beinhaltet mindestens eine Vorrichtung, die so ausgelegt ist, dass sie mit den Kameras 202a, den LiDAR-Sensoren 202b, den Radarsensoren 202c, den Mikrofonen 202d, der Kommunikationsvorrichtung 202e, dem AV-Computer 202f und/oder dem DBW-System 202h in Kommunikation steht. In einigen Beispielen beinhaltet die Sicherheitssteuereinheit 202g eine oder mehrere Steuereinheiten (elektrische Steuereinheiten, elektromechanische Steuereinheiten und/oder dergleichen), die so ausgelegt sind, dass sie Steuersignale erzeugen und/oder übertragen, um eine oder mehrere Vorrichtungen des Fahrzeugs 200 (z.B. das Antriebsstrangsteuersystem 204, das Lenkungssteuersystem 206, das Bremssystem 208 und/oder dergleichen) zu betreiben. In einigen Ausführungsformen ist die Sicherheitssteuereinheit 202g dazu ausgelegt, Steuersignale zu erzeugen, die gegenüber Steuersignalen Vorrang haben (z.B. überschreiben), die durch den AV-Computer 202f erzeugt und/oder übertragen werden.
  • Das DBW-System 202h beinhaltet mindestens eine Vorrichtung, die so ausgelegt ist, dass sie mit der Kommunikationsvorrichtung 202e und/oder dem AV-Computer 202f in Kommunikation steht. In einigen Beispielen beinhaltet das DBW-System 202h eine oder mehrere Steuereinheiten (z.B. elektrische Steuereinheiten, elektromechanische Steuereinheiten und/oder dergleichen), die so ausgelegt sind, dass sie Steuersignale erzeugen und/oder übertragen, um eine oder mehrere Vorrichtungen des Fahrzeugs 200 (z.B. das Antriebsstrangsteuersystem 204, das Lenkungssteuersystem 206, das Bremssystem 208 und/oder dergleichen) zu betreiben. Zusätzlich oder alternativ sind die eine oder die mehreren Steuereinheiten des DBW-Systems 202h so ausgelegt, dass sie Steuersignale erzeugen und/oder übertragen, um mindestens eine andere Vorrichtung (z.B. einen Blinker, Scheinwerfer, Türschlösser, Scheibenwischer und/oder dergleichen) des Fahrzeugs 200 zu betreiben.
  • Das Antriebsstrangsteuersystem 204 beinhaltet mindestens eine Vorrichtung, die dazu ausgelegt ist, sich in Kommunikation mit dem DBW-System 202h zu befinden. In einigen Beispielen beinhaltet das Antriebsstrangsteuersystem 204 mindestens eine Steuereinheit, einen Aktuator und/oder dergleichen. In einigen Ausführungsformen empfängt das Antriebsstrangsteuersystem 204 Steuersignale vom DBW-System 202h und das Antriebsstrangsteuersystem 204 bewirkt, dass das Fahrzeug 200 anfängt, sich vorwärtszubewegen, aufhört, sich vorwärtszubewegen, anfängt, sich rückwärtszubewegen, aufhört, sich rückwärtszubewegen, in eine Richtung beschleunigt, in eine Richtung abbremst, nach links abbiegt, nach rechts abbiegt und/oder dergleichen. In einem Beispiel bewirkt das Antriebsstrangsteuersystem 204, dass die einem Motor des Fahrzeugs bereitgestellte Energie (z.B. Kraftstoff, Elektrizität und/oder dergleichen) zunimmt, gleich bleibt oder abnimmt, wodurch bewirkt wird, dass sich mindestens ein Rad des Fahrzeugs 200 dreht oder nicht dreht.
  • Das Lenkungssteuersystem 206 beinhaltet mindestens eine Vorrichtung, die dazu ausgelegt ist, ein oder mehrere Räder des Fahrzeugs 200 zu drehen. In einigen Beispielen beinhaltet das Lenkungssteuersystem 206 mindestens eine Steuereinheit, einen Aktuator und/oder dergleichen. In einigen Ausführungsformen veranlasst das Lenkungssteuersystem 206 die beiden vorderen Räder und/oder die beiden hinteren Räder des Fahrzeugs 200, sich nach links oder rechts zu drehen, um zu bewirken, dass das Fahrzeug 200 nach links oder rechts abbiegt.
  • Das Bremssystem 208 beinhaltet mindestens eine Vorrichtung, die dazu ausgelegt ist, eine oder mehrere Bremsen zu betätigen, um zu bewirken, dass das Fahrzeug 200 die Geschwindigkeit reduziert und/oder stationär bleibt. In einigen Beispielen beinhaltet das Bremssystem 208 mindestens eine Steuereinheit und/oder einen Aktuator, die/der so ausgelegt ist, dass er einen oder mehrere Bremssättel, die mit einem oder mehreren Rädern des Fahrzeugs 200 assoziiert sind, veranlasst, sich an einem entsprechenden Rotor des Fahrzeugs 200 zu schließen. Zusätzlich oder alternativ beinhaltet das Bremssystem 208 in einigen Beispielen ein automatisches Notbrems- (automatic emergency braking, AEB-) System, ein regeneratives Bremssystem und/oder dergleichen.
  • In einigen Ausführungsformen beinhaltet das Fahrzeug 200 mindestens einen (nicht explizit dargestellten) Plattformsensor, der Eigenschaften eines Zustands oder einer Bedingung des Fahrzeugs 200 misst oder ableitet. In einigen Beispielen beinhaltet das Fahrzeug 200 Plattformsensoren wie einen GPS- (Global Positioning System) Empfänger, eine Trägheitsmesseinheit (inertial measurement unit, IMU), einen Raddrehzahlsensor, einen Radbremsdrucksensor, einen Raddrehmomentsensor, einen Motordrehmomentsensor, einen Lenkwinkelsensor und/oder dergleichen.
  • In 3 ist ein schematisches Diagramm einer Vorrichtung 300 veranschaulicht. Wie dargestellt wird, beinhaltet die Vorrichtung 300 einen Prozessor 304, einen Speicher 306, eine Speicherkomponente 308, eine Eingabeschnittstelle 310, eine Ausgabeschnittstelle 312, eine Kommunikationsschnittstelle 314 und einen Bus 302. In einigen Ausführungsformen entspricht die Vorrichtung 300 mindestens einer Vorrichtung der Fahrzeuge 102 (z.B. mindestens einer Vorrichtung eines Systems der Fahrzeuge 102) und/oder einer oder mehreren Vorrichtungen des Netzwerks 112 (z.B. einer oder mehreren Vorrichtungen eines Systems des Netzwerks 112). In einigen Ausführungsformen beinhalten eine oder mehrere Vorrichtungen der Fahrzeuge 102 (z.B. eine oder mehrere Vorrichtungen eines Systems der Fahrzeuge 102) und/oder eine oder mehrere Vorrichtungen des Netzwerks 112 (z.B. eine oder mehrere Vorrichtungen eines Systems des Netzwerks 112) mindestens eine Vorrichtung 300 und/oder mindestens eine Komponente der Vorrichtung 300. Wie in 3 gezeigt, beinhaltet die Vorrichtung 300 den Bus 302, den Prozessor 304, den Speicher 306, die Speicherkomponente 308, die Eingabeschnittstelle 310, die Ausgabeschnittstelle 312 und die Kommunikationsschnittstelle 314.
  • Der Bus 302 beinhaltet eine Komponente, die eine Kommunikation zwischen den Komponenten der Vorrichtung 300 ermöglicht. In einigen Ausführungsformen ist der Prozessor 304 in Hardware, Software oder einer Kombination aus Hardware und Software implementiert. In einigen Beispielen beinhaltet der Prozessor 304 einen Prozessor (z.B. eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), eine beschleunigte Verarbeitungseinheit (APU) und/oder dergleichen), ein Mikrofon, einen digitalen Signalprozessor (DSP) und/oder eine beliebige Verarbeitungskomponente (z.B. ein frei programmierbares Gate-Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC) und/oder dergleichen), die programmiert werden kann, um mindestens eine Funktion auszuführen. Der Speicher 306 beinhaltet Direktzugriffsspeicher (RAM), Nur-LeseSpeicher (ROM) und/oder eine andere Art von dynamischer und/oder statischer Speichervorrichtung (z.B. Flash-Speicher, magnetischer Speicher, optischer Speicher und/oder dergleichen), die Daten und/oder Anweisungen zur Verwendung durch den Prozessor 304 speichert.
  • Die Speicherkomponente 308 speichert Daten und/oder Software bezüglich des Betriebs und der Verwendung der Vorrichtung 300. In einigen Beispielen beinhaltet die Speicherkomponente 308 eine Festplatte (z.B. eine Magnetplatte, eine optische Platte, eine magneto-optische Platte, eine Solid-State-Platte und/oder dergleichen), eine Compact Disc (CD), eine Digital Versatile Disc (DVD), eine Diskette, eine Kassette, ein Magnetband, eine CD-ROM, RAM, PROM, EPROM, FLASH-EPROM, NV-RAM und/oder eine andere Art von computerlesbarem Medium zusammen mit einem entsprechenden Laufwerk.
  • Die Eingabeschnittstelle 310 beinhaltet eine Komponente, die es der Vorrichtung 300 ermöglicht, Informationen zu empfangen, z.B. über Benutzereingaben (z.B. eine Touchscreen-Anzeige, eine Tastatur, ein Tastenfeld, eine Maus, eine Taste, einen Schalter, ein Mikrofon, eine Kamera und/oder dergleichen). Zusätzlich oder alternativ beinhaltet die Eingabeschnittstelle 310 in einigen Ausführungsformen einen Sensor, der Informationen erfasst (z.B. einen GPS-(Global Positioning System) Empfänger, einen Beschleunigungsmesser, ein Gyroskop, einen Aktuator und/oder dergleichen). Die Ausgabeschnittstelle 312 beinhaltet eine Komponente, die Ausgabeinformationen von der Vorrichtung 300 bereitstellt (z.B. eine Anzeige, einen Lautsprecher, eine oder mehrere Leuchtdioden (LEDs) und/oder dergleichen).
  • In einigen Ausführungsformen beinhaltet die Kommunikationsschnittstelle 314 eine Sendeempfänger-ähnliche Komponente (z.B. einen Sendeempfänger, einen separaten Empfänger und Sender und/oder dergleichen), die es der Vorrichtung 300 ermöglicht, mit anderen Vorrichtungen über eine drahtgebundene Verbindung, eine drahtlose Verbindung oder eine Kombination aus drahtgebundenen und drahtlosen Verbindungen zu kommunizieren. In einigen Beispielen ermöglicht die Kommunikationsschnittstelle 314 der Vorrichtung 300, Informationen von einer anderen Vorrichtung zu empfangen und/oder einer anderen Vorrichtung Informationen bereitzustellen. In einigen Beispielen beinhaltet die Kommunikationsschnittstelle 314 eine Ethernet-Schnittstelle, eine optische Schnittstelle, eine Koaxialschnittstelle, eine Infrarotschnittstelle, eine Hochfrequenz-(radio frequency, RF-) Schnittstelle, eine USB- (Universal Serial Bus) Schnittstelle, eine Wi-Fi®-Schnittstelle, eine Zellularnetzwerkschnittstelle und/oder dergleichen.
  • In einigen Ausführungsformen führt die Vorrichtung 300 einen oder mehrere der vorliegend beschriebenen Prozesse durch. Die Vorrichtung 300 führt diese Prozesse basierend darauf durch, dass der Prozessor 304 Softwareanweisungen ausführt, die durch ein computerlesbares Medium gespeichert werden, wie etwa den Speicher 305 und/oder die Speicherkomponente 308. Ein computerlesbares Medium (z.B. ein nichtflüchtiges computerlesbares Medium) ist vorliegend als nichtflüchtige Speichervorrichtung definiert. Eine nichtflüchtige Speichervorrichtung beinhaltet Speicherplatz, der sich innerhalb einer einzelnen physischen Speicherungsvorrichtung befindet, oder Speicherplatz, der über mehrere physische Speicherungsvorrichtungen verteilt ist.
  • In einigen Ausführungsformen werden Softwareanweisungen von einem anderen computerlesbaren Medium oder von einer anderen Vorrichtung über die Kommunikationsschnittstelle 314 in den Speicher 306 und/oder die Speicherkomponente 308 eingelesen. Bei ihrer Ausführung bewirken die im Speicher 306 und/oder in der Speicherkomponente 308 gespeicherten Softwareanweisungen, dass der Prozessor 304 einen oder mehrere vorliegend beschriebene Prozesse durchführt. Zusätzlich oder alternativ werden festverdrahtete Schaltungsanordnungen anstelle von oder in Kombination mit Softwareanweisungen verwendet, um einen oder mehrere vorliegend beschriebene Prozesse durchzuführen. Somit sind vorliegend beschriebene Ausführungsformen nicht auf eine bestimmte Kombination von Hardware-Schaltungsanordnung und Software beschränkt, sofern nicht ausdrücklich anders angegeben.
  • Der Speicher 306 und/oder die Speicherkomponente 308 beinhalten einen Datenspeicher oder mindestens eine Datenstruktur (z.B. eine Datenbank und/oder dergleichen). Die Vorrichtung 300 ist in der Lage, Informationen aus dem Datenspeicher oder der mindestens einen Datenstruktur im Speicher 306 oder der Speicherkomponente 308 zu empfangen, darin zu speichern, Informationen an diese zu übermitteln oder in diesen gespeicherte Informationen zu suchen. In einigen Beispielen beinhalten die Informationen Netzwerkdaten, Eingabedaten, Ausgabedaten oder eine beliebige Kombination aus diesen.
  • In einigen Ausführungsformen ist die Vorrichtung 300 so ausgelegt, dass sie Softwareanweisungen ausführt, die entweder im Speicher 306 und/oder im Speicher einer anderen Vorrichtung (z.B. einer anderen Vorrichtung, die der Vorrichtung 300 gleicht oder ähnelt) gespeichert sind. Vorliegend bezieht sich die Bezeichnung „Modul“ auf mindestens eine im Speicher 306 und/oder im Speicher einer anderen Vorrichtung gespeicherte Anweisung, die bei Ausführung durch den Prozessor 304 und/oder durch einen Prozessor einer anderen Vorrichtung (z.B. einer anderen Vorrichtung, die der Vorrichtung 300 gleicht oder ähnelt) die Vorrichtung 300 (z.B. mindestens eine Komponente der Vorrichtung 300) veranlasst, einen oder mehrere vorliegend beschriebene Prozesse durchzuführen. In einigen Ausführungsformen ist ein Modul in Software, Firmware, Hardware und/oder dergleichen implementiert.
  • Die Anzahl und Anordnung der in 3 dargestellten Komponenten ist lediglich beispielhaft. In einigen Ausführungsformen kann die Vorrichtung 300 zusätzliche Komponenten, weniger Komponenten, andere Komponenten oder anders angeordnete Komponenten als die in 3 veranschaulichten beinhalten. Zusätzlich oder alternativ kann ein Satz von Komponenten (z.B. eine oder mehrere Komponenten) der Vorrichtung 300 eine oder mehrere Funktionen durchführen, die als durch eine andere Komponente oder einen anderen Satz von Komponenten der Vorrichtung 300 durchgeführt beschrieben werden.
  • 4 veranschaulicht ein beispielhaftes Blockschaubild eines AV-(autonomes Fahrzeug) Computers 400 (manchmal auch als „AV-Stapel“ (AV stack) bezeichnet). Wie veranschaulicht ist, beinhaltet der AV-Computer 400 ein Wahrnehmungssystem 402 (manchmal als Wahrnehmungsmodul bezeichnet), ein Planungssystem 404 (manchmal als Planungsmodul bezeichnet), ein Lokalisierungssystem 406 (manchmal als Lokalisierungsmodul bezeichnet), ein Steuersystem 408 (manchmal als Steuermodul bezeichnet) und eine Datenbank 410. In einigen Ausführungsformen sind das Wahrnehmungssystem 402, das Planungssystem 404, das Lokalisierungssystem 406, das Steuersystem 408 und die Datenbank 410 in einem autonomen Navigationssystem eines Fahrzeugs (z.B. dem AV-Computer 202f des Fahrzeugs 200) enthalten und/oder implementiert. Zusätzlich oder alternativ sind in einigen Ausführungsformen das Wahrnehmungssystem 402, das Planungssystem 404, das Lokalisierungssystem 406, das Steuersystem 408 und die Datenbank 410 in einem oder mehreren unabhängigen Systemen (z.B. einem oder mehreren Systemen, die gleich oder ähnlich sind wie der AV-Computer 400 und/oder dergleichen) enthalten. In einigen Beispielen sind das Wahrnehmungssystem 402, das Planungssystem 404, das Lokalisierungssystem 406, das Steuersystem 408 und die Datenbank 410 in einem oder mehreren eigenständigen Systemen enthalten, die sich in einem Fahrzeug und/oder in mindestens einem entfernt angeordneten System wie vorliegend beschrieben befinden. In einigen Ausführungsformen sind beliebige und/oder alle Systeme, die im AV-Computer 400 enthalten sind, in Software (z.B. in Softwareanweisungen, die im Speicher gespeichert sind), Computerhardware (z.B. durch Mikroprozessoren, Mikrocontroller, anwendungsspezifische integrierte Schaltungen [ASICs], frei programmierbare Gate-Arrays (FPGAs) und/oder dergleichen) oder Kombinationen aus Computersoftware und Computerhardware implementiert. Es versteht sich zudem, dass in einigen Ausführungsformen der AV-Computer 400 so ausgelegt ist, dass er mit einem entfernt angeordneten System kommuniziert (z.B. einem AV-System, das dem entfernt angeordneten AV-System 114 gleicht oder ähnelt, einem Fuhrparkverwaltungssystem 116, das dem Fuhrparkverwaltungssystem 116 gleicht oder ähnelt, einem V2I-System, das dem V2I-System 118 gleicht oder ähnelt, und/oder dergleichen).
  • In einigen Ausführungsformen empfängt das Wahrnehmungssystem 402 Daten im Zusammenhang mit mindestens einem physischen Objekt (z.B. Daten, die vom Wahrnehmungssystem 402 zur Erkennung des mindestens einen physischen Objekts verwendet werden) in einer Umgebung und klassifiziert das mindestens eine physische Objekt. In einigen Beispielen empfängt das Wahrnehmungssystem 402 Bilddaten, die von mindestens einer Kamera (z.B. den Kameras 202a) aufgenommen wurden, wobei das Bild mit einem oder mehreren physischen Objekten in einem Sichtfeld der mindestens einen Kamera assoziiert ist (z.B. diese darstellt). In einem solchen Beispiel klassifiziert das Wahrnehmungssystem 402 mindestens ein physisches Objekt basierend auf einer oder mehreren Gruppierungen physischer Objekte (z.B. Fahrräder, Fahrzeuge, Verkehrsschilder, Fußgänger und/oder dergleichen). In einigen Ausführungsformen überträgt das Wahrnehmungssystem 402 Daten, die mit der Klassifizierung der physischen Objekte assoziiert sind, an das Planungssystem 404 auf Grundlage des Klassifizierens der physischen Objekte durch das Wahrnehmungssystem 402.
  • In einigen Ausführungsformen empfängt das Planungssystem 404 Daten, die mit einem Zielort assoziiert sind, und erzeugt Daten, die mit mindestens einer Route (z.B. den Routen 106) assoziiert sind, entlang derer ein Fahrzeug (z.B. die Fahrzeuge 102) zu einem Zielort fahren kann. In einigen Ausführungsformen empfängt das Planungssystem 404 periodisch oder kontinuierlich Daten vom Wahrnehmungssystem 402 (z.B. Daten, die mit der vorstehend beschriebenen Klassifizierung physischer Objekte zusammenhängen), und das Planungssystem 404 aktualisiert die mindestens eine Trajektorie oder erzeugt mindestens eine andere Trajektorie auf Grundlage der vom Wahrnehmungssystem 402 erzeugten Daten. In einigen Ausführungsformen empfängt das Planungssystem 404 Daten im Zusammenhang mit einer aktualisierten Position eines Fahrzeugs (z.B. der Fahrzeuge 102) vom Lokalisierungssystem 406, und das Planungssystem 404 aktualisiert die mindestens eine Trajektorie oder erzeugt mindestens eine andere Trajektorie auf Grundlage der vom Lokalisierungssystem 406 erzeugten Daten.
  • In einigen Ausführungsformen empfängt das Lokalisierungssystem 406 Daten, die mit einem Standort eines Fahrzeugs (z.B. der Fahrzeuge 102) in einem Bereich assoziiert sind (z.B. diesen darstellen). In einigen Beispielen empfängt das Lokalisierungssystem 406 LiDAR-Daten im Zusammenhang mit mindestens einer Punktwolke, die von mindestens einem LiDAR-Sensor (z.B. den LiDAR-Sensoren 202b) erzeugt wurden. In bestimmten Beispielen empfängt das Lokalisierungssystem 406 Daten im Zusammenhang mit mindestens einer Punktwolke von mehreren LiDAR-Sensoren, und das Lokalisierungssystem 406 erzeugt eine kombinierte Punktwolke auf Grundlage jeder der Punktwolken. In diesen Beispielen vergleicht das Lokalisierungsmodul 406 die mindestens eine Punktwolke oder die kombinierte Punktwolke mit einer in der Datenbank 410 gespeicherten zweidimensionalen (2D-) und/oder einer dreidimensionalen (3D-) Karte des Bereichs. Das Lokalisierungssystem 406 bestimmt dann die Position des Fahrzeugs in dem Bereich basierend darauf, dass das Lokalisierungssystem 406 die mindestens eine Punktwolke oder die kombinierte Punktwolke mit der Kartenpunktwolke vergleicht. In einigen Ausführungsformen beinhaltet die Karte eine kombinierte Punktwolke des Bereichs, die vor der Navigation des Fahrzeugs erstellt wurde. In einigen Ausführungsformen beinhalten Karten, ohne jedoch hierauf eingeschränkt zu sein, hochpräzise Karten der geometrischen Eigenschaften der Fahrbahn, Karten, die Verbindungseigenschaften des Straßennetzes beschreiben, Karten, die physische Eigenschaften der Fahrbahn beschreiben (z.B. Verkehrsgeschwindigkeit, Verkehrsaufkommen, Anzahl der Fahrspuren für den Auto- und Radverkehr, Fahrspurbreite, Fahrspurrichtungen oder Fahrspurmarkierungstypen und -orte oder Kombinationen davon), sowie Karten, die die räumliche Lage von Straßenmerkmalen wie Fußgängerüberwegen, Verkehrsschildern oder anderen Verkehrssignalen verschiedener Arten beschreiben. In einigen Ausführungsformen wird die Kartenpunktwolke in Echtzeit auf Grundlage der vom Wahrnehmungssystem empfangenen Daten erzeugt.
  • In einem anderen Beispiel empfängt das Lokalisierungssystem 406 Daten eines globalen Satellitennavigationssystems (GNSS), die durch einen Empfänger eines globalen Positionsbestimmungssystems (GPS) erzeugt werden. In einigen Beispielen empfängt das Lokalisierungssystem 406 GNSS-Daten im Zusammenhang mit dem Standort des Fahrzeugs in dem Bereich, und das Lokalisierungssystem 406 bestimmt einen Breitengrad und Längengrad des Fahrzeugs in dem Bereich. In einem solchen Beispiel bestimmt das Lokalisierungssystem 406 die Position des Fahrzeugs in dem Bereich basierend auf dem Breitengrad und dem Längengrad des Fahrzeugs. In einigen Ausführungsformen erzeugt das Lokalisierungssystem 406 Daten im Zusammenhang mit der Position des Fahrzeugs. In einigen Beispielen erzeugt das Lokalisierungssystem 406 Daten im Zusammenhang mit der Position des Fahrzeugs auf Grundlage des Bestimmens der Position des Fahrzeugs durch das Lokalisierungssystem 406. In einem solchen Beispiel beinhalten die Daten, die mit der Position des Fahrzeugs assoziiert sind, Daten, die mit einer oder mehreren semantischen Eigenschaften entsprechend der Position des Fahrzeugs assoziiert sind.
  • In einigen Ausführungsformen empfängt das Steuersystem 408 Daten im Zusammenhang mit mindestens einer Trajektorie vom Planungssystem 404, und das Steuersystem 408 steuert den Betrieb des Fahrzeugs. In einigen Beispielen empfängt das Steuersystem 408 Daten im Zusammenhang mit mindestens einer Trajektorie vom Planungssystem 404, und das Steuersystem 408 steuert den Betrieb des Fahrzeugs, indem es Steuersignale erzeugt und überträgt, um ein Antriebsstrangsteuersystem (z.B. das DBW-System 202h, das Antriebsstrangsteuersystem 204 und/oder dergleichen), ein Lenkungssteuersystem (z.B. das Lenkungssteuersystem 206) und/oder ein Bremssystem (z.B. das Bremssystem 208) in Betrieb zu setzen. In einem Beispiel, in dem eine Trajektorie eine Linkskurve beinhaltet, überträgt das Steuersystem 408 ein Steuersignal, um das Lenkungssteuersystem 206 zu veranlassen, einen Lenkwinkel des Fahrzeugs 200 einzustellen, wodurch bewirkt wird, dass das Fahrzeug 200 nach links abbiegt. Zusätzlich oder alternativ erzeugt und überträgt das Steuersystem 408 Steuersignale, um andere Vorrichtungen (z.B. Scheinwerfer, Blinker, Türschlösser, Scheibenwischer und/oder dergleichen) des Fahrzeugs 200 zu veranlassen, ihren Zustand zu ändern.
  • In einigen Ausführungsformen implementieren das Wahrnehmungssystem 402, das Planungssystem 404, das Lokalisierungssystem 406 und/oder das Steuersystem 408 mindestens ein maschinelles Lernmodell (z.B. mindestens ein mehrschichtiges Perzeptron (multilayer perceptron, MLP), mindestens ein neuronales Faltungsnetz (convolutional neural network, CNN), mindestens ein rekurrentes neuronales Netz (RNN), mindestens einen Autoencoder, mindestens einen Transformator und/oder dergleichen). In einigen Beispielen implementieren das Wahrnehmungssystem 402, das Planungssystem 404, das Lokalisierungssystem 406 und/oder das Steuersystem 408 mindestens ein maschinelles Lernmodell allein oder in Kombination mit einem oder mehreren der vorstehend genannten Systeme. In einigen Beispielen implementieren das Wahrnehmungssystem 402, das Planungssystem 404, das Lokalisierungssystem 406 und/oder das Steuersystem 408 mindestens ein maschinelles Lernmodell als Teil einer Pipeline (z.B. einer Pipeline zum Identifizieren eines oder mehrerer Objekte in einer Umgebung und/oder dergleichen).
  • In der Datenbank 410 werden Daten gespeichert, die an das Wahrnehmungssystem 402, das Planungssystem 404, das Lokalisierungssystem 406 und/oder das Steuersystem 408 übertragen, von diesen empfangen und/oder aktualisiert werden. In einigen Beispielen beinhaltet die Datenbank 410 eine Speicherkomponente (z.B. eine Speicherkomponente, die der Speicherkomponente 308 aus 3 gleicht oder ähnelt), die Daten und/oder Software im Zusammenhang mit dem Betrieb speichert und mindestens ein System des AV-Computers 400 verwendet. In einigen Ausführungsformen speichert die Datenbank 410 Daten, die mit 2D- und/oder 3D-Karten mindestens eines Bereichs assoziiert sind. In einigen Beispielen speichert die Datenbank 410 Daten im Zusammenhang mit 2D- und/oder 3D-Karten eines Teils einer Stadt, mehrerer Teile mehrerer Städte, mehrerer Städte, eines Bezirks, eines Bundesstaates, eines Staates (z.B. eines Landes) und/oder dergleichen. In einem solchen Beispiel kann ein Fahrzeug (z.B. ein Fahrzeug, das den Fahrzeugen 102 und/oder dem Fahrzeug 200 gleicht oder ähnelt) entlang einer oder mehrerer befahrbarer Regionen (z.B. einspurige Straßen, mehrspurige Straßen, Autobahnen, Nebenstraßen, Geländepfade und/oder dergleichen) fahren und mindestens einen LiDAR-Sensor (z.B. einen LiDAR-Sensor, der den LiDAR-Sensoren 202b gleicht oder ähnelt) veranlassen, Daten im Zusammenhang mit einem Bild zu erzeugen, das die in einem Sichtfeld des mindestens einen LiDAR-Sensors enthaltenen Objekte darstellt.
  • In einigen Ausführungsformen kann die Datenbank 410 auf einer Vielzahl von Vorrichtungen implementiert werden. In einigen Beispielen ist die Datenbank 410 in einem Fahrzeug (z.B. einem Fahrzeug, das den Fahrzeugen 102 und/oder dem Fahrzeug 200 gleicht oder ähnelt), einem AV-System (z.B. einem AV-System, das dem entfernt angeordneten AV-System 114 gleicht oder ähnelt), einem Fuhrparkverwaltungssystem (z.B. einem Fuhrparkverwaltungssystem, das dem Fuhrparkverwaltungssystem 116 aus 1 gleicht oder ähnelt), einem V21-System (z.B. einem V21-System, das dem V21-System 118 aus 1 gleicht oder ähnelt) und/oder dergleichen enthalten.
  • 5 zeigt Diagramme einer Implementierung 500 eines Prozesses für Lokalisierungsfunktionssicherheit. In einigen Ausführungsformen beinhaltet die Implementierung 500 ein Lokalisierungssystem 504a, ein Steuersystem 504b und einen Prüfer (checker) 504c. Bei dem Lokalisierungssystem 504A und dem Steuersystem 504b kann es sich beispielsweise um das Lokalisierungssystem 406 bzw. das Steuersystem 408 handeln. In einigen Ausführungsformen bestimmt das Lokalisierungssystem 504a einen Standort des AV. Der Standort wird zumindest teilweise verwendet, um ein Steuersignal 518 an einem Steuersystem 504b zu erzeugen. Das Steuersystem 504b überträgt das Steuersignal 520 an das DBW-System 506. Das DBW-System ermöglicht Bewegung des Fahrzeugs 502 gemäß dem übertragenen Steuersignal 520. In einigen Ausführungsformen wird der Prüfer 504c von einem oder mehreren Systemen implementiert, die von dem AV-Computer des Fahrzeugs 502 getrennt sind. Zusätzlich oder alternativ kann der Prüfer 504c von einem oder mehreren Systemen implementiert werden, die im AV-Computer des Fahrzeugs 502 enthalten sind. In einigen Ausführungsformen ist der AV-Computer des Fahrzeugs 502 gleich oder ähnlich wie der in 4 dargestellte AV-Computer 400. In einigen Beispielen wird der Prüfer 504c in einem entfernt angeordneten AV-System implementiert, wie beispielsweise dem in 1 dargestellten entfernt angeordneten AV-System 114.
  • Im Allgemeinen verwendet ein AV eine Lokalisierungsfunktion (z.B. das Lokalisierungssystem 406, das Lokalisierungssystem 504a), um die Position und Orientierung des AV zu bestimmen. In einigen Ausführungsformen handelt es sich bei der Lokalisierung um eine sicherheitskritische Funktion. Für ein AV der Stufe 4 oder höher stellt die Lokalisierung beispielsweise eine sicherheitskritische Funktion dar. Die AV-Stufe („Level“) steht für den mit dem AV assoziierten Automatisierungsgrad und wird in der Norm J3016 von SAE International beschrieben: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems (Taxonomie und Definitionen für Begriffe im Zusammenhang mit automatisierten Straßen-Kraftfahrzeug-Fahrsystemen). Die Stufen definieren eine oder mehrere Fahrautomatisierungsfunktionen, die in einem bestimmten Fall des Straßenbetriebs eines Fahrzeugs aktiviert sind. Auch wenn ein bestimmtes Fahrzeug mit einem Fahrautomatisierungssystem ausgestattet sein kann, das in der Lage ist, mehrere Fahrautomatisierungsfunktionen unterschiedlicher Stufen bereitzustellen, wird die Stufe der Fahrautomatisierung in einem jeweiligen Fall durch die Funktionen bestimmt, die aktuell in einem jeweiligen Fahrzeug aktiv (z.B. aktiviert) sind.
  • Eine sicherheitskritische Funktion ist eine Funktion, deren Ausfall oder fehlerhafter Betrieb unmittelbar zu einem Totalausfall des AV oder einem gefährlichen Verhalten des AV führen kann. Eine sicherheitskritische Funktion beinhaltet beispielsweise ein System, dessen Ausfall oder Fehlfunktion die Sicherheit beeinträchtigen kann. Validierung bezieht sich auf das Prüfen oder Nachweisen der Richtigkeit eines Ergebnisses. Bei einer Validierung wird zum Beispiel eine Ausgabe eines AV-Systems evaluiert, um zu bestimmen, ob die Ausgabe nahe an einer angesichts der Eingabe erwarteten Ausgabe des AV-Systems liegt. In einigen Ausführungsformen wird bei einer Validierung eine Bestimmung ausgegeben, dass ein AV-System Betriebsanforderungen gemäß einem oder mehreren vordefinierten Standards erfüllt. Ein Erfüllen von Betriebsanforderungen, die durch vordefinierte Standards festgelegt sind, kann einen direkten Nachweis für die Erfüllung gesetzlicher oder anderer vorbestimmter Anforderungen liefern.
  • Sicherheitskritische Funktionen werden validiert, um zu bestimmen, ob die der sicherheitskritischen Funktion zugrunde liegende Hardware und Software entsprechend dem vorgesehenen Zweck der Funktion arbeiten. In einigen Beispielen wird die Lokalisierung als sicherheitskritische Funktion validiert. In einigen Ausführungsformen wird eine Lokalisierungsfunktion gemäß einer Fahrzeugsicherheitsstufe (Automotive Safety Integrity Level, ASIL) bewertet. ASIL ist ein Risikoklassifizierungsschema, das durch die Norm ISO (International Organization for Standardization, Internationale Organisation für Normung) 26262 - „Functional Safety for Road Vehicles“ (Funktionssicherheit für Straßenfahrzeuge) - definiert ist. Dabei handelt es sich um eine Anpassung der Sicherheitsintegritätsstufe (Safety Integrity Level, SIL), die in der Norm IEC (International Electrotechnical Commission, Internationale Elektrotechnische Kommission) 61508 für die Kraftfahrzeugindustrie verwendet wird. Damit ein AV-Computersystem und ein autonomes Fahrzeug als hinreichend sicher für den Betrieb auf den Straßen der allgemeinen Bevölkerung angesehen werden kann oder damit Komponenten oder Teilsysteme des autonomen Fahrzeugs als sicher genug für den Einsatz in solchen autonomen Fahrzeugen angesehen werden können, müssen die Systeme und Komponenten unter anderem bestimmte Sicherheitsstandards und -vorschriften (z.B. gemäß ASIL-Standards) erfüllen.
  • Der ASIL-Wert wird durch Durchführen einer Risikoanalyse einer potenziellen Gefährdung ermittelt, bei der der Schweregrad, die Exposition und die Steuerbarkeit des Fahrzeugbetriebsszenarios untersucht werden. Das Sicherheitsziel für diese Gefährdung enthält wiederum die ASIL-Stufen. Es gibt vier ASIL-Stufen (zusammenfassend als ASILs bezeichnet), die in der Norm festgelegt sind: ASIL A, ASIL B, ASIL C, ASIL D. Die höchste Integritätsstufe ist ASIL D, die die höchsten Integritätsanforderungen stellt und eine der strengsten Bewertungen für Sicherheitsintegrität darstellt. Die niedrigste Stufe ist ASIL A, die einen niedrigsten Grad an Integritätsanforderungen und eine niedrigste Bewertung für Sicherheitsintegrität angibt. In einigen Beispielen wird der ASIL-Wert von einer Qualitätssicherungs- (Quality Managed, QM-) Stufe begleitet. Im Allgemeinen bedeutet eine QM-Stufe, dass keine zusätzlichen Maßnahmen zur Risikominderung erforderlich sind, die über das in der Branche akzeptierte Qualitätssystem hinausgehen.
  • Die vorliegenden Methoden ermöglichen eine Validierung einer sicherheitskritischen Lokalisierung auf einer geforderten Sicherheitsintegritätsstufe, z.B. einer ASIL-Stufe. In einigen Ausführungsformen wird Hardware oder Software, die mit einer niedrigeren ASIL-Stufe bewertet ist, zur Validierung von Hardware oder Software mit einer höheren ASIL-Stufe verwendet. Die Validierung der Funktionssicherheit, z.B. ASIL D, der Lokalisierungshardware und -software wird durch Prozesse einer niedrigeren ASIL-Stufe ermöglicht. Im Allgemeinen gilt ASIL-D für Betriebssituationen mit hoher Exposition (z.B. mehr als 10 % einer typischen Betriebszeit), in denen eine Fehlfunktion zu einem schweren Schaden mit sehr geringer Steuerbarkeit führen kann (z.B. weniger als 90 % der durchschnittlichen Fahrer oder anderen Verkehrsteilnehmer können einen Schaden vermeiden). Die Lokalisierungsfunktion wird vollständig durch einen oder mehrere Prüfer validiert, die auf einer niedrigeren ASIL-Stufe arbeiten. Die vorliegenden Methoden verifizieren die Integrität der Lokalisierungsausgabe mit einem vereinfachten sicherheitskritischen Prozess (z.B. einem Prüfer), während die komplexe Lokalisierungsfunktion nicht-sicherheitskritisch bleiben kann. Nicht-sicherheitskritisch bedeutet, dass die komplexe nicht-sicherheitskritische Funktion nicht der Norm ISO 26262 entsprechen muss und keine strenge Sicherheitsvalidierung erfordert.
  • 6A ist ein Blockdiagramm eines Systems 600A, das Lokalisierungsfunktionssicherheit gemäß den vorliegenden Methoden zeigt. In einigen Ausführungsformen wird das System 600A von einem oder mehreren Systemen implementiert, die von einem AV-Computer getrennt sind. Zusätzlich oder alternativ kann das System 600A durch ein oder mehrere Systeme implementiert werden, die in dem in 4 veranschaulichten AV-Computer 400 enthalten sind. Zusätzlich oder alternativ kann das System 600A in einem entfernt angeordneten AV-System implementiert werden, wie beispielsweise dem in 1 dargestellten entfernt angeordneten AV-System 114.
  • In einigen Ausführungsformen wird eine Lokalisierungsfunktion validiert. Insbesondere sind eine Lokalisierungsfunktion 612 und eine Lokalisierungsfunktion 622 veranschaulicht. Die Lokalisierungsfunktion 612, die Lokalisierungsfunktion 622 oder beliebige Kombinationen aus diesen sind Komponenten eines Lokalisierungssystems 406, wie in 4 beschrieben. Eine Lokalisierungsfunktion empfängt Daten, wie z.B. Punktwolkendaten, die mit einer Umgebung assoziiert sind (z.B. diese repräsentieren), in der sich das Fahrzeug (z.B. die Fahrzeuge 102) befindet. Im Beispiel von 6 sind eine LiDAR-basierte Lokalisierungsfunktionssicherheit 610 und eine radarbasierte Lokalisierungsfunktionssicherheit 620 dargestellt.
  • Bei der LiDAR-basierten Lokalisierungsfunktionssicherheit 610 wird eine LiDAR-Punktwolke 614 in die LiDAR-Lokalisierung 612 eingegeben. In einigen Beispielen werden die Punktwolkendaten von einem LiDAR-Sensor 202b (2) erhalten. Die LiDAR-Lokalisierung 612 empfängt als Eingabe zudem eine LiDAR-Karten-A-priori-Verteilung (prior) 616. Im Allgemeinen handelt es sich bei der LiDAR-Karten-A-priori-Verteilung 616 um eine 2D- und/oder 3D-Karte der Umgebung, in der sich das AV befindet. In einigen Beispielen handelt es sich bei der Umgebung um eine physische oder eine virtuelle Umgebung. Die LiDAR-Karten-A-priori-Verteilung 616 wird in einer Datenbank gespeichert, beispielsweise in der Datenbank 410 (4). In einigen Beispielen bestimmt die LiDAR-Lokalisierung 612 die Position des Fahrzeugs in der Umgebung auf Grundlage eines Vergleichs zwischen einer Punktwolke (z.B. der LiDAR-Punktwolke 614) und einer Karte (z.B. der LiDAR-Karten-A-priori-Verteilung 616). In einigen Ausführungsformen enthält die LiDAR-Karten-A-priori-Verteilung 616 eine kombinierte Punktwolke der Umgebung, wobei die kombinierte Punktwolke eine Kombination aus mehreren mit der Umgebung assoziierten Punktwolken ist. In einigen Ausführungsformen beinhalten Karten, ohne jedoch hierauf eingeschränkt zu sein, hochpräzise Karten der geometrischen Eigenschaften der Fahrbahn, Karten, die Verbindungseigenschaften des Straßennetzes beschreiben, Karten, die physische Eigenschaften der Fahrbahn beschreiben (z.B. Verkehrsgeschwindigkeit, Verkehrsaufkommen, Anzahl der Fahrspuren für den Auto- und Radverkehr, Fahrspurbreite, Fahrspurrichtungen oder Fahrspurmarkierungstypen und -orte oder Kombinationen davon), sowie Karten, die die räumliche Lage von Straßenmerkmalen wie Fußgängerüberwegen, Verkehrsschildern oder anderen Verkehrssignalen verschiedener Arten beschreiben. In einigen Ausführungsformen wird die Kartenpunktwolke in Echtzeit auf Grundlage der vom Wahrnehmungssystem empfangenen Daten erzeugt.
  • In einigen Ausführungsformen gibt die Lokalisierungsfunktion 612 eine LiDAR-Lage 618 aus. Im Beispiel von 6A arbeitet die Lokalisierungsfunktion 612 nach dem Verfahren der iterativen Lokalisierung nächstgelegener Punkte (iterative closest point, ICP) auf ASIL-B-Stufe. Ein ICP-Prozess verwendet LiDAR-Sensordaten (z.B. die LiDAR-Punktwolke 614) und eine Karte (z.B. die LiDAR-Karten-A-priori-Verteilung 616), um die Lage zu berechnen, die den quadratischen Fehler zwischen Punktwolken minimiert. Die ICP-Lokalisierung minimiert eine Differenz zwischen zwei Punktwolken. Der ICP-Prozess wird verwendet, um eine 2D- oder 3D-Umgebung zu rekonstruieren, in der das AV lokalisiert werden soll, um eine optimale Wegplanung zu erreichen. In einigen Ausführungsformen wird eine Transformation berechnet, die zwei Punktwolken miteinander ausrichtet. Bei jeder Iteration wird eine Entsprechung zwischen den Quell- und Zielpunktwolken aktualisiert, und die Transformation, die sie am besten ausrichtet, wird iterativ bestimmt, bis Konvergenz erreicht ist. In einigen Ausführungsformen wählt ein ICP-Prozess iterativ nächstgelegene entsprechende LiDAR-Punkte aus der LiDAR-Punktwolke 614 und der LiDAR-Karten-A-priori-Verteilung 616 aus und minimiert einen Abstand zwischen den ausgewählten Punkten bis zu einem vorbestimmten Schwellenwert einer Fehlermetrik.
  • 6B zeigt eine iterative Punkt-zu-Ebene-Lokalisierung nächstgelegener Punkte 600B. In einigen Beispielen verwendet der LiDAR-ICP-Prozess Punkt-zu-Ebene in Verbindung mit LiDAR-Punktwolkenmessungen (z.B. der LiDAR-Punktwolke 614) und einer zuvor erstellten LiDAR-Punktwolkenkarte (z.B. der LiDAR-Karten-A-priori-Verteilung), um eine Lage des Fahrzeugs mit sechs Freiheitsgraden zu berechnen. Die LiDAR-Punktwolkenkarte wird in Kacheln eines vordefinierten Bereichs unterteilt, wobei die Punktwolke in einem k-d-Baum organisiert wird, wobei die Rohpunktwolkeninformationen und die assoziierten vorberechneten Oberflächennormalen in jedem Knoten des k-d-Baums enthalten sind. Die Rohpunktwolkeninformationen enthalten einen Standort (z.B. eine x,y,z-Position) und eine Intensität für aus der Umgebung abgetastete Punkte. Um die Lage des Fahrzeugs zu bestimmen, berechnet der ICP-Prozess die Transformation, die erforderlich ist, um die Rohpunktwolkeninformationen mit der Prior-Punktwolkenkarte (genauer gesagt, der Kartenkachel, die der geschätzten Lage am nächsten liegt) in einem globalen Koordinatensystem auszurichten.
  • Zu diesem Zweck löst der Punkt-zu-Ebene-ICP-Prozess die folgende Optimierungsfunktion kleinster Quadrate: M O p t = a r g m i n m t ( ( M s i d i ) n i ) 2
    Figure DE102023101181A1_0001
    wobei si = (six,siy, siz, 1)T ein Quellpunkt ist; di = (dix, diy, diz, 1)T der entsprechende Zielpunkt ist; ni = (nix, niy, niz, 1)T der Einheitsnormalvektor 665 bei di ist und M und Mopt 4x4-3D-Starrkörpertransformationsmatrizen sind. Im Beispiel von 6B sind die Rohpunktwolkeninformationen als Quellfläche 675 und die Kartenpunktwolken-A-priori-Verteilung als Zielfläche 660 dargestellt. Der Prozess führt mehrere Iterationen durch, um die Summe des quadratischen Abstands zwischen jedem Quellpunkt 670 und der Tangentialebene 655 an seinem entsprechenden Zielpunkt 650 zu minimieren, auch bekannt als Punkt-zu-Ebene-Fehlermetrik. In einigen Beispielen ist bei Anwendung im Kontext der ICP-Lokalisierung die Quellpunktwolke oder -oberfläche 675 eine kombinierte LiDAR-Messpunktwolke, die aus erfassten LiDAR-Daten erzeugt wird, und die Zielpunktwolke/-oberfläche 660 wäre die aus dem k-d-Baum abgefragte Prior-LiDAR-Kartenkachel mit vorberechneten Oberflächennormalen.
  • Gemäß 6A und 6B bestimmt der Prüfer (z.B. der Prüfer 630 in 6A) einen oder mehrere Schwellenwerte, um den Fehler zwischen der Abtastungsabgleichs- (scan matching) Quadratfehlersummenmetrik der ICP-Lokalisierung (z.B. der Lokalisierung 612 in 6A) und einer Quadratfehlersummenmetrik des Prüfers zu prüfen. Bei Überschreitung des Schwellenwerts wird vom Prüfer ein Flag gesetzt. In einigen Ausführungsformen wird das Flag zur weiteren Verarbeitung an ein AV-Überwachungssystem übertragen. In einigen Beispielen wird ein AV-Überwachungssystem durch das autonome System 202 (2) aktiviert. Das AV-Überwachungssystem beobachtet den Status des AV und kann Warnungen oder Meldungen in Verbindung mit dem AV-Status ausgeben. In einigen Ausführungsformen kann das Flag die folgenden möglichen Zustände anzeigen: (1) Prüfung bestanden (Fehler innerhalb des Schwellenwerts); (2) Prüfung nicht bestanden (aufgrund eines Fehlers, der den Schwellenwert überschreitet); und (3) Prüfung nicht bestanden (eine der erwarteten Eingaben nicht innerhalb einer Schwellenwertzeit empfangen).
  • Im Beispiel von 6A ist das Suchen und Schätzen, um einen Satz von Ergebnissen zu erhalten (wie von der Lokalisierungsfunktion 612 und der Lokalisierungsfunktion 622 durchgeführt), komplizierter und rechenintensiver im Vergleich zu einer Evaluierung der Ergebnisse (z.B. Prüfen). Der Ausdruck „Prüfen“ bezieht sich vorliegend auf ein Verifizieren der Genauigkeit der Lokalisierungsausgabe durch Vergleichen mit einem anderen Wert. Die Genauigkeit der Lokalisierungsausgabe bezieht sich darauf, dass die Lokalisierungsinformationen frei von Fehlern, Irrtümern und korrekt sind. Bei der Validierung wird bestimmt, ob die Ausgabe authentisch, echt oder zuverlässig ist.
  • Ein LiDAR-Prüfer 630 verifiziert die Genauigkeit der Lokalisierungsausgabe der Lokalisierungsfunktion 612, indem er sie mit einer vom LiDAR-Prüfer 630 berechneten zweiten Fehlermetrik vergleicht. In einigen Ausführungsformen ermöglicht der LiDAR-Prüfer 630 einen Doer-Checker-Prozess, der dafür konzipiert ist, funktionale Sicherheitsanforderungen nach ISO 26262 zu erfüllen, indem er eine Software-/Hardware-Fehlerprüfung über die Abtastung eines Satzes von Ausgaben des „Doer“-Prozesses (z.B. der Lokalisierung 612, 622) durchführt und evaluiert, dass der Prüfer 630 wichtige Metriken/Komponenten des „Doer“ reproduzieren kann. Der LiDAR-Prüfer 630 erhält die gleichen Eingaben wie die Lokalisierungsfunktion 612. Insbesondere empfängt die Lokalisierungsfunktion 612 als Eingabe die LiDAR-Punktwolke 614 und die LiDAR-Karten-A-priori-Verteilung 616. Die Lokalisierungsfunktion 612 empfängt als Eingabe zudem von der Lokalisierungsfunktion 612 ausgegebene Transformations- oder Lage-Quadratsummen. Der LiDAR-Prüfer 630 gibt eine Bestanden/Nicht Bestanden-Evaluierung 635 Lokalisierungsfunktionsausgabe aus.
  • Im Beispiel von 6A berechnet die Lokalisierungsfunktion 612 eine erste Fehlermetrik, die einem Abstand zwischen ausgewählten Punkten bis zu einem vorbestimmten Schwellenwert entspricht. Die von der Lokalisierungsfunktion 612 berechnete erste Fehlermetrik wird vom LiDAR-Prüfer 630 erhalten, um die Genauigkeit der von der Lokalisierungsfunktion 612 ausgegebenen Lokalisierung zu prüfen, indem diese mit einer zweiten Fehlermetrik verglichen wird. In einigen Ausführungsformen handelt es sich bei der ersten Fehlermetrik und der zweiten Fehlermetrik um eine Transformations- oder Lage-Quadratsumme. In einigen Ausführungsformen handelt es sich bei der ersten Metrik um eine Kovarianz der Transformation, die auf die iterativ verarbeitete Punktwolke und Karte angewendet wird, und bei der zweiten Metrik um eine Kovarianz der Transformation, die auf die Quellpunktwolke und die Kartenpunktwolke angewendet wird. Vorliegend handelt es sich bei der Quellpunktwolke um die Punktwolke, die als Eingabe für die Lokalisierungsfunktion und den Prüfer bereitgestellt wird. In einigen Ausführungsformen bestimmt der Prüfer, ob die von der Lokalisierungsfunktion 612 berechnete erste Fehlermetrik mit der vom LiDAR-Prüfer 630 berechneten zweiten Fehlermetrik übereinstimmt. Die Ergebnisse sollten genau übereinstimmen und unter einem vordefinierten Genauigkeitsschwellenwert liegen.
  • In einem Beispiel bezieht sich der vordefinierte Genauigkeitsschwellenwert auf eine akzeptable Genauigkeit der Lokalisierung. Eine akzeptable Genauigkeit wird beispielsweise durch einen vorbestimmten Abstand in Quer- oder Längsrichtung bestimmt (z.B. +/- x cm in Querrichtung und +/- y cm in Längsrichtung). Dies hängt von den Eigenschaften des Fahrzeugs, der Straßen usw. ab. Zudem wird eine akzeptable Genauigkeit auf Grundlage von Eigenschaften des LiDARs und der Punktwolke (z.B. Anzahl der Punkte, Auflösung usw.) bestimmt. In Kenntnis des vorbestimmten Abstands und der Eigenschaften von LiDAR und Punktwolke wird für den ICP-Algorithmus ein akzeptabler Übereinstimmungsschwellenwert (d.h. eine Maximal-Quadratfehlersummenmetrik) ausgewählt. In einigen Ausführungsformen wird mit Einhaltung der maximalen Quadratfehlersumme auch der vordefinierte Genauigkeitsschwellenwert erfüllt.
  • In einigen Ausführungsformen gibt die ICP-Lokalisierung (z.B. die Lokalisierung 612) eine Lage aus, die durch den LiDAR-Prüfer 630 validiert wird, um eine ASIL-B(D)-Qualität zu erreichen. Der LiDAR-Prüfer 630 führt einen Abtastungsabgleichsprüfer (scan matching checker) auf Hardware der Qualität ASIL B(D) aus. Der LiDAR-Prüfer 630 nimmt als Eingabe eine LiDAR-Karten-A-priori-Verteilung 616, eine LiDAR-Punktwolke 614 sowie eine von der Lokalisierung 612 ausgegebene Lage. Die residuale Quadratfehlersumme, die Kovarianz oder beliebige Kombinationen davon werden vom LiDAR-Prüfer mit einem modifizierten ICP-Algorithmus berechnet und dann mit der Ausgabe eines ursprünglichen ICP-Algorithmus verglichen, der auf Hardware mit einer QM(D)-Qualität ausgeführt wird.
  • In einigen Beispielen wird die LiDAR-basierte Lokalisierungsfunktionssicherheit gemäß den folgenden Gleichungen ausgeführt: r I C P , f i n a l = i = 1 N s ( ( M O p t , f i n a l s i d i ) n i ) 2
    Figure DE102023101181A1_0002
    r C h e c k e r = i = 1 N s ( ( M O p t , f i n a l s i d i ) n i ) 2
    Figure DE102023101181A1_0003
    F I C P = | r I C P , f i n a l r C h e c k e r | < γ
    Figure DE102023101181A1_0004
  • Wobei rICP,final die definierte Punkt-zu-Ebene-Fehlermetrik ist, die durch die ICP-Lokalisierung 612 bereitgestellt wird; rChecker die definierte Punkt-zu-Ort-Fehlermetrik ist, die durch das Prüfmodul reproduziert wird; FICP ein boolesches Flag ist, das durch die Erkennung eines Fehlers gesetzt wird, der den vordefinierten Schwellenwert überschreitet und einen Fehler anzeigt (z.B. einen Funktionssicherheitsfehler gemäß einer vordefinierten Norm); und γ ein Schwellenwert ist, der proportional zu NC normalisiert ist. Zudem ist NC die Anzahl an Entsprechungen und C = {ci} ist der Satz von Entsprechungen, wobei ci =< cs, ci >; NS ist die Anzahl an Punkten in der Quellpunktwolke und S = {si} ist der Satz von Quellpunkten, wobei si = (six, siy, siz, 1)T; ND ist die Anzahl an Punkten in der Zielpunktwolke und D = (di} ist der Satz von Quellpunkten, wobei di = (dix, diy, diz, 1)T; Mopt ist die letzte Iteration/örtlich optimale Lösung für die S-zu-D-Punktwolkentransformation, dargestellt als 4X4-3D-Starrkörpertransformationsmatrix.
  • In einigen Ausführungsformen reproduziert der Prüfer 630 eine Punkt-zu-Ebene-Fehlermetrik (innerhalb eines vordefinierten Schwellenwerts), die aus der während der ICP-Lokalisierung durchgeführten Abtastung auf einer ASIL-B-zertifizierten Rechenplattform unter Verwendung von Ausgaben der Lokalisierungsfunktion 612 sowie der LiDAR-Punktwolke 614 und Prior-LiDAR-Kartenkachelpunktwolken 616 erzeugt wurde. Zu diesem Zweck verwendet der Prüfer 630 die Lagetransformationsausgabe der letzten Iteration aus dem Punkt-zu-Ebene-ICP-Lokalisierungsprozess der Lokalisierungsfunktion 612 sowie den Punkt-zu-Ebene-Restfehler der Iteration und die letzten Entsprechungen. Anschließend wird die Schlüsselfehlermetrik reproduziert, indem die endgültig berechnete Transformation auf die Quellpunktwolke (die LiDAR-Messung) über M angewendet und die Summe des quadratischen Abstands zwischen Mopt * S jedem Quellpunkt und der Tangentialebene an seinem entsprechenden Zielpunkt (aus der Prior-LiDAR-Kartenkachel, die mithilfe des von der ICP-Aufgabe ausgegebenen Index abgefragt wird) über Gleichung (2) neu berechnet wird. Dies wird mit der Punkt-zu-Ebene-Fehlermetrik verglichen, die von der Lokalisierungsfunktion 612 in Gleichung (1) generiert wird, und ein Fehler-Flag würde an einen AV-Überwachungsprozess übermittelt, wenn der Fehler zwischen den beiden Metriken einen in Gleichung (3) erhaltenen vorbestimmten Schwellenwert überschreitet.
  • In einigen Fällen wird der Prüfer 630, wie in Bezug auf ein LiDAR beschrieben, auf eine sekundäre Lokalisierungsfunktion repliziert. Bei der radarbasierten Lokalisierungsfunktionssicherheit 620 wird somit eine Radarpunktwolke 624 in die Radarlokalisierung 622 eingegeben. In einigen Beispielen werden die Punktwolkendaten von einem Radarsensor 202c (2) erhalten. Die Radarlokalisierung 622 empfängt als Eingabe zudem eine Radarkarten-A-priori-Verteilung (prior) 626. Im Allgemeinen handelt es sich bei der Radarkarten-A-priori-Verteilung 626 um eine 2D- und/oder 3D-Karte der Umgebung, in der sich das AV befindet. In einigen Beispielen handelt es sich bei der Umgebung um eine physische oder eine virtuelle Umgebung. Die Radarkarten-A-priori-Verteilung 626 wird in einer Datenbank gespeichert, beispielsweise in der Datenbank 410 (4). In einigen Beispielen bestimmt die Radarlokalisierung 622 die Position des Fahrzeugs in dem Bereich auf Grundlage eines Vergleichs zwischen einer Punktwolke (z.B. der Radarpunktwolke 624) und einer Karte (z.B. der Radarkarten-A-priori-Verteilung 626). In einigen Ausführungsformen enthält die Radarkarten-A-priori-Verteilung 626 eine kombinierte Punktwolke der Umgebung.
  • In einigen Ausführungsformen gibt die Lokalisierungsfunktion 622 eine Radar-Lage 628 aus. Im Beispiel von 6 arbeitet die Lokalisierungsfunktion 622 gemäß einer Monte-Carlo-Lokalisierung auf ASIL-B-Stufe. Eine Monte-Carlo-Lokalisierung verwendet eine Radarpunktwolke 624 und eine Radarkarten-A-priori-Verteilung 626, um die Lage unter Verwendung einer Bayes'schen Aktualisierung iterativ zu aktualisieren, wobei die Bayes'sche Aktualisierung eine statistische Inferenz unter Verwendung des Bayes'schen Theorems ist, um eine wahrscheinliche Position und Orientierung des Fahrzeugs zu aktualisieren, wenn mehr Nachweise oder Informationen verfügbar werden. Die Monte-Carlo-Lokalisierung schätzt eine Position und eine Orientierung des AV, während dieses navigiert und die Umgebung erfasst. Ein Partikelfilter stellt die Verteilung wahrscheinlicher Zustände dar, wobei jedes Partikel einen möglichen Zustand repräsentiert, z.B. eine Hypothese über den AV-Standort. Die Monte-Carlo-Lokalisierung wird mit einer gleichmäßigen Zufallsverteilung der Partikel über den Konfigurationsraum initialisiert, d.h. das AV hat keine Informationen darüber, wo es sich befindet, und geht davon aus, dass es sich mit gleicher Wahrscheinlichkeit an irgendeinem Punkt im Raum befindet. Immer wenn sich das AV bewegt, verschiebt es die Partikel, um seinen neuen Zustand nach der Bewegung vorherzusagen. Wann immer das AV ein Objekt beobachtet, werden die Partikel auf Grundlage einer rekursiven Bayes'schen Schätzung neu abgetastet, z.B. danach, wie gut die tatsächlich erfassten Daten mit dem vorhergesagten Zustand korrelieren. Die Partikel konvergieren schließlich in Richtung der tatsächlichen Position des AV. In einigen Beispielen wird die Monte-Carlo-Lokalisierung verbessert, indem die Partikel auf Grundlage einer Fehlerschätzung unter Verwendung der Kullback-Leibler-Divergenz adaptiv abgetastet werden. In einigen Ausführungsformen wird die Monte-Carlo-Lokalisierung ohne die Berechnung einer Fehlermetrik bestimmt.
  • In einigen Ausführungsformen handelt es sich bei der radarbasierten Lokalisierungsfunktionssicherheit 620 um eine sekundäre Lokalisierungspipeline. Ähnlich wie bei der LiDAR-basierten Lokalisierungsfunktionssicherheit 610 verifiziert ein Radar-Prüfer 640 die Genauigkeit der von der Lokalisierungsfunktion 622 ausgegebenen Lokalisierung, indem er sie mit einer vom Radar-Prüfer 640 berechneten zweiten Fehlermetrik vergleicht. Der Radar-Prüfer 640 erhält die gleichen Eingaben wie die Lokalisierungsfunktion 622. Insbesondere empfängt die Lokalisierungsfunktion 622 als Eingabe die Radarpunktwolke 624 und die Radarkarten-A-priori-Verteilung 626. In einigen Ausführungsformen handelt es sich bei der Radarpunktwolke 624 um eine Quellpunktwolke. Der Radar-Prüfer 640 empfängt als Eingabe zudem eine geschätzte Lage, die von der Lokalisierungsfunktion 622 ausgegeben wird. In einigen Beispielen empfängt der Radar-Prüfer 640 als Eingabe eine zweite Fehlermetrik, z.B. die Quadratsumme. Der Radar-Prüfer 640 gibt eine Bestanden/Nicht Bestanden-Evaluierung 645 der Lokalisierungsfunktionsausgabe aus.
  • Im Beispiel von 6A berechnet die Lokalisierungsfunktion 622 eine Verteilung wahrscheinlicher Zustände des AV, während dieses durch die durch Partikel dargestellte Umgebung navigiert. Die von der Lokalisierungsfunktion 622 berechnete geschätzte Lage wird vom Radar-Prüfer 640 erhalten, um die Genauigkeit der von der Lokalisierungsfunktion 622 ausgegebenen Lokalisierung zu prüfen, indem eine erste Fehlermetrik bestimmt und mit einer zweiten Fehlermetrik verglichen wird. In einigen Ausführungsformen handelt es sich bei der ersten Fehlermetrik und der zweiten Fehlermetrik um eine Transformations- oder Lage-Quadratsumme. In einigen Ausführungsformen handelt es sich bei der ersten Metrik um eine Kovarianz der Transformation, die auf die iterativ verarbeitete Punktwolke und Karte angewendet wird, und bei der zweiten Metrik um eine Kovarianz der Transformation, die auf die Quellpunktwolke und die Kartenpunktwolke angewendet wird. In einigen Ausführungsformen berechnet der Radar-Prüfer 640 eine erste Fehlermetrik als Quadratsumme auf Grundlage einer geschätzten Lage, die von der Lokalisierungsfunktion 622 ausgegeben wird. Der Radar-Prüfer 640 berechnet eine zweite Fehlermetrik als Quadratsumme auf Grundlage der Radarpunktwolke 624 und der Radarkarten-A-priori-Verteilung 626 als Eingabe. In einer Ausführungsform bestimmt die Lokalisierungsfunktion 622 eine erste Fehlermetrik auf Grundlage einer Verwendung der Kullback-Leibler-Divergenz, und der Prüfer bestimmt, ob die von der Lokalisierungsfunktion 622 berechnete erste Fehlermetrik mit einer vom Radar-Prüfer 640 berechneten zweiten Fehlermetrik übereinstimmt. In einer Ausführungsform bestimmt der Radar-Prüfer 640, ob die von der Lokalisierungsfunktion 622 aus der geschätzten Lage berechnete erste Fehlermetrik mit der vom Radar-Prüfer 640 berechneten zweiten Fehlermetrik übereinstimmt. Die Ergebnisse werden mit einem vordefinierten Genauigkeitsschwellenwert verglichen.
  • In einigen Ausführungsformen gibt der Prüfer 640 eine sekundäre (Karten-) Lage aus, die von einem sekundären (Karten-) Prüfer validiert wird, um die ASIL-B(D)-Qualität sicherzustellen. Die Validierung durch den sekundären (Karten-) Prüfer erfolgt durch Ausführen einer vereinfachten Version des sekundären (Karten-) Lokalisierungsprozesses auf dem sekundären (Karten-)Prüfer (z.B. dem Prüfer 640), der mit ASIL-B(D)-Qualität arbeitet. Der sekundäre (Karten-) Prüfer nimmt als Eingabe die sekundäre Karte, eine sekundäre Sensormessung sowie die sekundäre (Karten-) Lage aus dem ursprünglichen ICP-Lokalisierungsalgorithmus. Die residuale Quadratfehlersumme (und/oder die Kovarianz) wird vom LiDAR-Prüfer 630 mit seinem modifizierten ICP-Algorithmus berechnet und dann mit dem ursprünglichen sekundären (Karten-) Lokalisierungsalgorithmus verglichen (der auf einem QM(D)-Kern läuft). In einigen Ausführungsformen sieht der Lage-Ausgabefluss wie folgt aus: Doer>Lage>Prüfer>Lage>Verbraucher. Dadurch wird sichergestellt, dass keine schlechte Lage an die Verbraucher weitergegeben wird, wobei die Verbraucher Benutzer, Software oder Hardware darstellen, die Lagen von einer Lokalisierungsfunktion erhalten.
  • In einigen Ausführungsformen erfüllen die Lokalisierungsfunktion 612 und die Lokalisierungsfunktion 622 ASIL-B-Sicherheitsstandards für ein autonomes Fahrzeug der Stufe 4 oder höher. Insbesondere erfüllen die Lokalisierungsfunktion 612 und die Lokalisierungsfunktion 622 Funktionssicherheitsanforderungen (z.B. erfüllen sie ASIL-B-Sicherheitsstandards), während sie auf QM-Rechenhardware ausgeführt werden. Die Funktionssicherheit wird über eine oder mehrere Prüffunktionen ermöglicht, die auf einer höheren ASIL-Ebene arbeiten. In einigen Ausführungsformen ermöglichen der LiDAR-Prüfer 630 und der Radar-Prüfer 640 eine unabhängige Evaluierung jeweiliger Lokalisierungsfunktionen eines AV-Computers. Traditionell werden Lokalisierungsfunktionen für Funktionssicherheit entwickelt, indem die Funktion sorgfältig analysiert und Diagnosen, Redundanzen usw. hinzugefügt werden. Dies kann jedoch aus verschiedenen Gründen schwierig sein, beispielsweise wegen hoher Rechenanforderungen, komplexer Algorithmen und der Abhängigkeit von nicht zertifizierten Bibliotheken. Die vorliegenden Methoden ermöglichen eine von der Kern-Lokalisierungsfunktion unabhängige Prüfung.
  • Durch den unabhängigen LiDAR-Prüfer 630 und Radar-Prüfer 640 können mit der AV-Hardware und -Software assoziierte Sicherheitsstufen zerlegt werden, um Teilsysteme mit unterschiedlichen ASIL-Stufen zu ermöglichen. In einigen Beispielen wird für die komplexeren Lokalisierungsalgorithmen und Bibliotheken von Drittanbietern eine niedrigere ASIL-Stufe verwendet. Die komplexen Lokalisierungsalgorithmen und Bibliotheken von Drittanbietern werden auf nichtsicherheitskritischer Hardware und Software ausgeführt. In einigen Beispielen handelt es sich bei der unteren ASIL-Stufe um eine QM-Stufe. Der rechnerisch weniger komplexe Prüfer (im Vergleich zu komplexen Lokalisierungsalgorithmen) wird auf einer höheren ASIL-Stufe (z.B. ASIL A-D) ausgeführt. ISO 26262 ermöglicht eine Zerlegung von ASIL-Anforderungen in redundante Teilsysteme, sofern jedes Teilsystem die Anforderung erfüllen kann und die Teilsysteme ausreichend unabhängig sind. In einigen Beispielen wird eine zweischichtige Zerlegung implementiert, bei der die Lokalisierungsfunktion der Stufe ASIL D in eine unabhängige Lidar-Lokalisierungsfunktion auf ASIL B(D) und eine Radar-Lokalisierungsfunktion auf B(D) zerlegt wird. Zum Beispiel wird jede dieser Funktionen weiter in eine Doer-Funktion auf QM(D) und eine Prüfer-Funktion auf B(D) zerlegt. In anderen Beispielen wird eine einzige Lokalisierungsfunktion implementiert und eine einschichtige Zerlegung angewendet. Zum Beispiel könnte eine einzelne ASIL-D-Lidar-Lokalisierungsfunktion in einen QM(D)-Doer und einen D(D)-Prüfer zerlegt werden. Die Aufteilung der ASIL-Stufen im AV-Computer ermöglicht eine schnellere Erfüllung und Validierung von ASIL-Stufen und gewährleistet gleichzeitig die Einhaltung von Sicherheitsstandards, die durch die vorgeschriebenen ASIL-Einstufungen vorgegeben sind. Die vorliegenden Methoden verringern die Rechenlast auf sicherheitskritischen Computern (z.B. Hardware und Software) und erhöhen so die Effizienz des Systems. Darüber hinaus können die vorliegenden Methoden für jeden beliebigen Punktwolken- (z.B. LiDAR, Radar) Abgleichsalgorithmus implementiert werden, einschließlich ICP- und Monte-Carlo-Lokalisierung. In einigen Ausführungsformen wird die Ausgabe des Prüfers (z.B. des Prüfers 630 und des Prüfers 640) an ein AV-Überwachungssystem weitergeleitet, um eine robuste Fehlererkennung in Echtzeit zu ermöglichen.
  • In einigen Ausführungsformen werden die beiden Lokalisierungsfunktionen (z.B. die Lokalisierung 612 und die Lokalisierung 622) gleichzeitig ausgeführt. In einigen Ausführungsformen sind zwei verschiedene Lokalisierungsfunktionen für die Prüflösung nicht erforderlich. In einigen Ausführungsformen ist eine redundante Lokalisierung (z.B. mehrere Lokalisierungsfunktionen) möglich, da diese eine Zerlegung des Sicherheitsziels von D = B(D) + B(D) ermöglicht. Infolgedessen ist jede Lokalisierungsfunktion ASIL B(D). Darüber hinaus bietet die redundante Lokalisierung Robustheit gegenüber verschiedenen Umgebungsbedingungen, unter denen LiDAR oder Radar unter Umständen schlecht funktionieren. In einigen Ausführungsformen basieren die vorliegenden Methoden auf LiDAR- oder Radar-Lokalisierung unabhängig voneinander. Die unabhängige Lokalisierungsfunktion (LiDAR- oder Radar-Doer) bleibt auf einer QM-Stufe, und der Prüfer befindet sich auf der Stufe ASIL D. Es gäbe auch keine Notwendigkeit für Arbitrierung, da es nur einen Prüfer gäbe.
  • In einigen Beispielen werden die LiDAR-Punktwolke 614 und die Radarpunktwolke 624 vor der Eingabe in eine Lokalisierungsfunktion 612 bzw. 622 gegengeprüft. Zum Beispiel wird eine LiDAR-Punktwolke von einem ersten LiDAR-Sensor erhalten. Informationen von anderen LiDAR-Sensoren des Fahrzeugs werden verwendet, um die Genauigkeit der LiDAR-Punktwolke des ersten LiDAR-Sensors gegenzuprüfen. So werden beispielsweise von einem ersten LiDAR mit einem Sichtfeld von 360 Grad erfasste Daten mit von mindestens einem LiDAR mit kurzer Reichweite erfassten Daten gegengeprüft. Zur Vereinfachung der Beschreibung werden zwei LiDARs beschrieben, es können jedoch beliebig viele LiDARs verwendet werden. In einigen Ausführungsformen überlappen sich Standorte, die mit vom ersten LiDAR mit einem Sichtfeld von 360 Grad erfassten Daten assoziiert sind, mit Standorten, die mit von mindestens einem LiDAR mit geringer Reichweite erfassten Daten assoziiert sind. Die sich überlappenden Daten der LiDAR-Sensoren werden zur Gegenprüfung der für die Lokalisierung verwendeten 360-Grad-Punktwolke verwendet. Infolgedessen handelt es sich in einigen Ausführungsformen bei der LiDAR-Punktwolke 614 um eine gegengeprüfte 360-Grad-LiDAR-Punktwolke 614. Bei der Gegenprüfung handelt es sich beispielsweise um eine Plausibilitäts- oder Konsistenzprüfung von Daten, die von redundanten Systemen, Sensoren oder Vorrichtungen erfasst wurden. Die Gegenprüfung schafft Vertrauen in die LiDAR-Punktwolke 614, die in die Lokalisierung 612 eingegeben wird. Gleichermaßen wird in einigen Beispielen eine Radarpunktwolke von einem ersten Radar erhalten. Informationen von anderen Radars des Fahrzeugs werden verwendet, um die Genauigkeit der Radarpunktwolke des ersten Radarsensors gegenzuprüfen, und die Gegenprüfung schafft Vertrauen in die Radarpunktwolke 624, die in die Lokalisierung 622 eingegeben wird.
  • Das Blockdiagramm aus 6A soll nicht andeuten, dass das System 600A alle in 6A dargestellten Komponenten beinhalten muss. Vielmehr kann das System 600A weniger oder zusätzliche, in 6A nicht dargestellte Komponenten enthalten (z.B. zusätzliche Lokalisierungsfunktionen, Prüfer, Eingaben, Ausgaben usw.). Das System 600A kann eine beliebige Anzahl zusätzlicher, nicht dargestellter Komponenten beinhalten, je nach den Einzelheiten der spezifischen Implementierung. Darüber hinaus kann jede der Funktionen der Benutzerschnittstellen teilweise oder vollständig in Hardware und/oder in einem Prozessor implementiert werden. Die Funktionalität kann beispielsweise mit einer anwendungsspezifischen integrierten Schaltung, in einer in einem Prozessor implementierten Logik, in einer Logik, die in einer spezialisierten Grafikverarbeitungseinheit implementiert ist, oder in einer beliebigen anderen Einrichtung implementiert werden.
  • 7 ist ein Blockdiagramm eines Prozesses 700, der Lokalisierungsfunktionssicherheit ermöglicht. Der Prozess 700 kann unter Verwendung des AV-Computers 400 aus 4 in einer Umgebung 100 aus 1 durchgeführt werden. In einigen Beispielen wird ein Prüfer (z.B. der LiDAR-Prüfer 630 und der Radar-Prüfer 640) unter Verwendung von Komponenten des Fahrzeugs 200 aus 2 oder der Vorrichtung 300 aus 3 implementiert. In einigen Ausführungsformen wird der Prozess 700 von einem oder mehreren Systemen implementiert, die von einem AV-Computer getrennt sind. Zusätzlich oder alternativ kann der Prozessor 700 in einem entfernt angeordneten AV-System implementiert werden, wie beispielsweise dem in 1 dargestellten entfernt angeordneten AV-System 114.
  • In einigen Ausführungsformen ist eine Vorrichtung (z.B. LiDAR 202b, Radar 202c aus 2) so ausgelegt, dass sie Daten erfasst, die mit von Objekten (z.B. anderen Fahrzeugen, Fußgängern, Straßenlaternen usw.) in einer Umgebung reflektiertem Licht assoziiert sind. In einigen Ausführungsformen handelt es sich bei den erfassten Rohdaten um elektromagnetische Strahlung im Ultraviolett-, Infrarot- oder Laserspektrum oder um eine beliebige andere Art von elektromagnetischer Strahlung. Auf der Grundlage des reflektierten Lichts wird eine Quellpunktwolke erzeugt. Die Quellpunktwolke wird entsprechend der Fahrzeuglokalisierung iterativ verarbeitet. Wie vorliegend beschrieben, zählen zu Lokalisierungsfunktionen, ohne jedoch hierauf eingeschränkt zu sein, iterative Lokalisierung nächstgelegener Punkte, Monte-Carlo-Lokalisierung und dergleichen. Mithilfe von Lokalisierungsfunktionen wird eine Transformation zwischen der iterativ verarbeiteten Punktwolke und einer mit einer ersten Lage assoziierten Karte berechnet. Die Lokalisierungsfunktionen werden über Hard- und Software auf einer QM(D)-ASIL-Stufe ausgeführt.
  • In Block 702 wird eine Lokalisierungstransformation erzeugt. In einigen Ausführungsformen wird eine erste Metrik, die mit Fahrzeuglokalisierung auf Grundlage der Transformation assoziiert ist, von der Lokalisierungsfunktion berechnet und von der entsprechenden Prüffunktion für den Vergleich verwendet. In einigen Ausführungsformen wird eine erste Metrik, die mit Fahrzeuglokalisierung auf Grundlage der Transformation assoziiert ist, von der Prüffunktion auf Grundlage der Ausgabe der Lokalisierungsfunktion berechnet. Die berechnete erste Metrik wird von der entsprechenden Prüffunktion zum Vergleich herangezogen.
  • Im Beispiel von 7 wird in Block 704 die Transformation durch einen Prüfalgorithmus oder -prozess auf die Quellpunktwolke angewendet. Der Prüfprozess wird über Hard- und Software auf einer höheren ASIL-Stufe, wie ASIL-B(D), ausgeführt. In einigen Ausführungsformen wird der Prüfprozess auf einer höheren ASIL-Stufe ausgeführt als die entsprechende Lokalisierungsfunktion. Vorliegend handelt es sich bei der entsprechenden Lokalisierungsfunktion um die vom Prüfer geprüfte Lokalisierungsfunktion.
  • In Block 706 wird auf Grundlage der Anwendung (z.B. des Anwendens) der Transformation auf die Quellpunktwolke und die Kartenpunktwolke in Block 704 eine zweite Metrik berechnet. In einigen Ausführungsformen handelt es sich bei der ersten Metrik und der zweiten Metrik um eine Quadratfehlersumme. In einigen Ausführungsformen handelt es sich bei der ersten Metrik um eine Kovarianz der Transformation, die auf die iterativ verarbeitete Punktwolke und Karte angewendet wird, und bei der zweiten Metrik um eine Kovarianz der Transformation, die auf die Quellpunktwolke und die Kartenpunktwolke angewendet wird. In einigen Ausführungsformen wird eine Transformation auf die Quellpunktwolke angewendet, um eine zweite Lage zu erzeugen, und die zweite Lage wird vor dem Berechnen der zweiten Metrik validiert. In einigen Beispielen wird die zweite Lage durch Ausführen einer vereinfachten Version der Lokalisierungsfunktion auf dem Prüfer auf ASIL B(D)-Hardware und einer sekundären Karte erzeugt. In diesem Beispiel besteht die Eingabe für den Prüfer in einer sekundären Karte, einer sekundären Punktwolke sowie der sekundären Lage aus der ursprünglichen ICP. In einigen Ausführungsformen handelt es sich bei der anfänglichen Berechnung der Transformation und der ersten Metrik um eine iterative halbzufällige Suche. Die zweite Metrik beinhaltet keine Suche.
  • In Block 708 wird eine Abweichung zwischen der ersten Metrik und der zweiten Metrik bestimmt. In einigen Ausführungsformen wird die Fahrzeuglokalisierung validiert, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist. In einigen Ausführungsformen wird die Abweichung zwischen der ersten und der zweiten Metrik überwacht, und eine Abweichung, die den vorbestimmten Schwellenwert überschreitet, deutet auf eine Fehlfunktion hin. In einigen Ausführungsformen ist eine Fehlfunktion ein Hardwareausfall (z.B. System, Sensoren oder Vorrichtungen), ein Fehler oder ein Softwareausfall (z.B. ein systematischer Softwareausfall). In einigen Ausführungsformen werden in Reaktion auf die Fehlfunktion Maßnahmen ergriffen. Zum Beispiel hält das Fahrzeug die Navigation sicher an, beispielsweise indem es zu einem Standort navigiert und eine weitere Navigation verhindert. Das Fahrzeug kann Warnungen oder Benachrichtigungen an andere Fahrzeuge ausgeben. Darüber hinaus beinhalten die Aktionen die Verwendung einer Fahrzeugassistenz, wie beispielsweise eines entfernt angeordneten AV-Systems 114, eines Fuhrparkverwaltungssystems 116 oder eines V21-Infrastruktursystems 118 aus 1, um Navigation des Fahrzeugs zu ermöglichen, wenn eine Fehlfunktion auftritt. Die Fahrzeugassistenz bietet zum Beispiel Abhilfemaßnahmen zur Beseitigung der Fehlfunktion. Dies kann zum Beispiel Zurücksetzen von Sensoren beinhalten. Die Fahrzeugassistenz kann dem Fahrzeug zudem Daten zur Nutzung für weitere Navigation bereitstellen.
  • In einigen Ausführungsformen wird vor dem iterativen Verarbeiten der Punktwolkendaten zur Bestimmung der Lokalisierungstransformation eine Plausibilität der Fahrzeuglokalisierung bestimmt. Die Plausibilität bezieht sich auf eine Reihe von Plausibilitätsprüfungen, bei denen ein Bereich, eine Rate und eine Zeitdauer im Hinblick auf vorbestimmte Schwellenwerte evaluiert werden. In einigen Beispielen stellt der Prüfer Schwellenwerte bereit, um eine Plausibilitätsprüfung des Bereichs jeder Lokalisierungsausgabe für jeden Lokalisierungszyklus durchzuführen. Die folgenden Schwellenwerte können unabhängig voneinander oder in Kombination evaluiert werden, um die Plausibilität der Fahrzeuglokalisierung zu bestimmen. Ein erster Schwellenwert sieht beispielsweise vor, dass ein translatorischer Abstand zwischen Lagen einen Abstand nicht überschreiten darf, der von einem ersten vorbestimmten Wert abhängt, wie z.B. einer Geschwindigkeit mit einem Kalibrierungspuffer gemäß einem Prüfer-Abtastzeitpunkt, oder [y, + ] * h . Darüber hinaus sieht ein zweiter Schwellenwert vor, dass der Rotationsabstand zwischen den Lagen einen Abstand nicht überschreiten darf, der von einem zweiten vorbestimmten Wert abhängt, wie z.B. der Winkelgeschwindigkeit mit einem Kalibrierungspuffer gemäß einem Prüfer-Abtastzeitpunkt, oder [ y, h + ] * h . In einigen Beispielen stellt der Prüfer einen Schwellenwert bereit, um eine Plausibilitätsprüfung der Änderungsrate für jede Lokalisierungsausgabe für jeden Lokalisierungszyklus durchzuführen. Ein dritter Schwellenwert sieht beispielsweise vor, dass eine Änderung einer Translationsgeschwindigkeit eine Geschwindigkeit nicht überschreiten darf, die von einem dritten vorbestimmten Wert abhängt, wie z.B. einer Beschleunigung mit einem Kalibrierungspuffer gemäß einem Prüfer-Abtastzeitpunkt, oder [l, + ] * h = hh. Zudem sieht ein vierter Schwellenwert vor, dass die Translationsgeschwindigkeit eine Geschwindigkeit nicht überschreiten darf, die von einem vierten vorbestimmten Wert abhängt, wie z.B. einer Geschwindigkeit mit einem Kalibrierungspuffer, oder [, + ].
  • In einigen Beispielen prüft der Prüfer die Zeitdauer des erkannten Fehlers des Systems für jeden Aufgabenzyklus. Wenn die erkannte Fehlerzeitdauer weniger als eine vorbestimmte Anzahl von Millisekunden (oder eine vorbestimmte Anzahl von Lokalisierungszyklen) beträgt, zeigt ein Lokalisierungsprüfer-Flag an, dass die Lokalisierung erfolgreich oder in Ordnung ist. In einigen Beispielen prüft der Prüfer für jeden Aufgabenzyklus die Zeitdauer des erkannten Fehler-Flags jeder Aufgabe. Wenn die erkannte Fehlerzeitdauer weniger als eine vorbestimmte Anzahl von Millisekunden (oder eine vorbestimmte Anzahl von Lokalisierungszyklen) beträgt, zeigt das Lokalisierungsprüfer-Flag an, dass die Lokalisierung erfolgreich oder in Ordnung ist.
  • In einigen Beispielen prüft der Prüfer die Zeitdauer, die seit dem Empfang jeder der Flag-Nachrichteneingaben vergangen ist. Überschreitet die Zeitdauer seit dem Empfang der jeweiligen Flag-Nachrichteneingabe eine vorgegebene Anzahl von Lokalisierungszyklen, zeigt das Lokalisierungsprüfer-Flag jeweils an, dass die Lokalisierung fehlgeschlagen oder fehlerhaft ist. In einigen Beispielen prüft der Prüfer auf Konvergenz der Gyroskop/Beschleunigungsmesser-Abweichung (bias). Wenn die Gyroskop/Beschleunigungsmesser-Abweichtung nicht innerhalb einer vorbestimmten Anzahl von Lokalisierungszyklen konvergiert, zeigt das Lokalisierungsprüfer-Flag an, dass die Lokalisierung fehlschlägt oder fehlerhaft ist.
  • In einigen Beispielen führt der Prüfer eine robuste statistische Fehlererkennung für eine geglättete Lageausgabe der Lokalisierungsfunktion über eine Analyse der Abtast-Standardfehler des Schätzers in Bezug auf die eingestellten Warngrenzen und Schutzgrenzen durch. Wenn der Lokalisierungsfehler die eingestellten Warngrenzen überschreitet, wird das Lokalisierungsprüfer-Flag auf „beeinträchtigt“ gesetzt. Zum Beispiel kann es eine Spanne von Genauigkeiten für die Lokalisierung geben:
    •  <- - - Typische Perf +/-2cm 90% der Zeit- - ->
    •  < - - - Ziel-Perf +/-2,5 cm 95% der Zeit - - - - ->
    •  < - - - - Warn-Perf +/-4cm 99,9% der Zeit - - - - - - - ->
    • <- - - Unsichere Perf +/-1 0cm 99,999% der Zeit- - - - >
  • Die Zahlenangaben im vorstehenden Beispiel sind beispielhaft und nicht als einschränkend zu betrachten. In einigen Beispielen zeigt eine Warnung an, dass die Lage/der Abgleich außerhalb der Ziel-Performanz liegt, aber noch nicht gefährlich ist. Dies könnte protokolliert oder zur Benachrichtigung einer Betriebszentrale verwendet werden usw. Die Grenze „Unsichere Perf“ wird verwendet, um den Prüferausgang auf „nicht ok“ zu setzen und Sicherheitsmaßnahmen einzuleiten (z.B. einen sicheren Halt).
  • KLAUSELN
  • Gemäß einigen nicht-einschränkenden Ausführungsformen oder Beispielen wird ein System bereitgestellt, umfassend: mindestens einen Prozessor und mindestens ein nichtflüchtiges Speichermedium, das Anweisungen speichert, die bei Ausführung durch den mindestens einen Prozessor den mindestens einen Prozessor veranlassen, eine Quellpunktwolke zu erzeugen, wobei Quellpunktwolkendaten iterativ gemäß einer Fahrzeuglokalisierung verarbeitet werden. Die Anweisungen veranlassen den mindestens einen Prozessor, eine Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte zu berechnen. Die Anweisungen veranlassen den mindestens einen Prozessor, auf Grundlage der Transformation eine mit Fahrzeuglokalisierung assoziierte erste Metrik zu berechnen. Die Anweisungen veranlassen den mindestens einen Prozessor, die Transformation auf die Quellpunktwolke anzuwenden und eine zweite Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke zu berechnen. Zudem veranlassen die Anweisungen den mindestens einen Prozessor, eine Abweichung zwischen der ersten Metrik und der zweiten Metrik zu bestimmen, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
  • Gemäß einigen nicht-einschränkenden Ausführungsformen oder Beispielen wird ein Verfahren bereitgestellt, umfassend mit mindestens einem Prozessor erfolgendes Erzeugen einer Quellpunktwolke, wobei Quellpunktwolkendaten iterativ gemäß einer Fahrzeuglokalisierung verarbeitet werden. Das Verfahren beinhaltet mit dem mindestens einen Prozessor erfolgendes Berechnen einer Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte. Das Verfahren beinhaltet mit dem mindestens einen Prozessor erfolgendes Berechnen einer mit Fahrzeuglokalisierung assoziierten ersten Metrik auf Grundlage der Transformation. Das Verfahren beinhaltet zudem mit dem mindestens einen Prozessor erfolgendes Anwenden der Transformation auf die Quellpunktwolke und mit dem mindestens einen Prozessor erfolgendes Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke. Zudem beinhaltet das Verfahren mit dem mindestens einen Prozessor erfolgendes Bestimmen einer Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
  • Gemäß einigen nicht-einschränkenden Ausführungsformen oder Beispielen wird mindestens ein nichtflüchtiges computerlesbares Medium bereitgestellt, das eine oder mehrere Anweisungen umfasst, die bei Ausführung durch mindestens einen Prozessor den mindestens einen Prozessor veranlassen, eine Quellpunktwolke zu erzeugen, wobei Quellpunktwolkendaten iterativ gemäß einer Fahrzeuglokalisierung verarbeitet werden. Die Anweisungen veranlassen den mindestens einen Prozessor, eine Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte zu berechnen. Die Anweisungen veranlassen den mindestens einen Prozessor, auf Grundlage der Transformation eine mit Fahrzeuglokalisierung assoziierte erste Metrik zu berechnen. Die Anweisungen veranlassen den mindestens einen Prozessor zudem, die Transformation auf die Quellpunktwolke anzuwenden und eine zweite Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke zu berechnen. Zudem veranlassen die Anweisungen den mindestens einen Prozessor, eine Abweichung zwischen der ersten Metrik und der zweiten Metrik zu bestimmen, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
  • Weitere nicht einschränkende Aspekte oder Ausführungsformen sind in den nachstehenden nummerierten Klauseln aufgeführt:
    • Klausel 1: System, umfassend: mindestens einen Prozessor, und mindestens ein nichtflüchtiges Speichermedium, das Anweisungen speichert, die bei Ausführung durch den mindestens einen Prozessor den mindestens einen Prozessor zu Folgendem veranlassen: Erzeugen einer Quellpunktwolke, wobei Quellpunktwolkendaten gemäß einer Fahrzeuglokalisierung iterativ verarbeitet werden; Berechnen einer Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte; Berechnen einer mit Fahrzeuglokalisierung assoziierten ersten Metrik auf Grundlage der Transformation; Anwenden der Transformation auf die Quellpunktwolke; Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke; und Bestimmen einer Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
    • Klausel 2: System nach Klausel 1, wobei die Fahrzeuglokalisierung über einen AV-Computer mit einer qualitätsgesicherten (quality managed, QM-) Fahrzeugsicherheitsstufe ASIL- (automotive safety integrity level) D ausgeführt wird.
    • Klausel 3: System nach einer der Klauseln 1 oder 2, wobei es sich bei der ersten Metrik und der zweiten Metrik um Quadratfehlersummen handelt.
    • Klausel 4: System nach einer der Klauseln 1 bis 3, wobei es sich bei der ersten Metrik um eine Kovarianz der Transformation, die auf die iterativ verarbeitete Punktwolke und Karte angewendet wird, und bei der zweiten Metrik um eine Kovarianz der Transformation handelt, die auf die Quellpunktwolke und die Kartenpunktwolke angewendet wird.
    • Klausel 5: System nach einer der Klauseln 1 bis 4, wobei die Anweisungen ferner Überwachen der Abweichung zwischen der ersten Metrik und der zweiten Metrik umfassen, wobei eine Abweichung, die den vorbestimmten Schwellenwert überschreitet, auf eine Fehlfunktion hinweist.
    • Klausel 6: System nach einer der Klauseln 1 bis 5, wobei die Anweisungen ferner vor dem iterativen Verarbeiten der Punktwolkendaten Bestimmen einer Plausibilität der Fahrzeuglokalisierung umfassen.
    • Klausel 7: System nach einer der Klauseln 1 bis 6, wobei die Anweisungen ferner Anwenden der Transformation auf die Quellpunktwolke umfassen, um eine zweite Lage zu erzeugen, wobei die zweite Lage vor dem Berechnen der zweiten Metrik validiert wird.
    • Klausel 8: System nach einer der Klauseln 1 bis 7, wobei es sich bei der Fahrzeuglokalisierung um iterative Lokalisierung nächstgelegener Punkte handelt.
    • Klausel 9: System nach einer der Klauseln 1 bis 7, wobei es sich bei der Fahrzeuglokalisierung um Monte-Carlo-Lokalisierung handelt.
    • Klausel 10: Verfahren, umfassend: mit mindestens einem Prozessor erfolgendes Erzeugen einer Quellpunktwolke, wobei Quellpunktwolkendaten gemäß einer Fahrzeuglokalisierung iterativ verarbeitet werden; mit dem mindestens einen Prozessor erfolgendes Berechnen einer Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte; mit dem mindestens einen Prozessor erfolgendes Berechnen einer mit Fahrzeuglokalisierung assoziierten ersten Metrik auf Grundlage der Transformation; mit dem mindestens einen Prozessor erfolgendes Anwenden der Transformation auf die Quellpunktwolke; mit dem mindestens einen Prozessor erfolgendes Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke; und mit dem mindestens einen Prozessor erfolgendes Bestimmen einer Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
    • Klausel 11: Verfahren nach Klausel 10, wobei die Fahrzeuglokalisierung über einen AV-Computer mit einer qualitätsgesicherten (quality managed, QM-) Fahrzeugsicherheitsstufe ASIL- (automotive safety integrity level) D ausgeführt wird.
    • Klausel 12: Verfahren nach einer der Klauseln 10 oder 11, wobei es sich bei der ersten Metrik und der zweiten Metrik um Quadratfehlersummen handelt.
    • Klausel 13: Verfahren nach einer der Klauseln 10 bis 12, wobei es sich bei der ersten Metrik um eine Kovarianz der Transformation, die auf die iterativ verarbeitete Punktwolke und Karte angewendet wird, und bei der zweiten Metrik um eine Kovarianz der Transformation handelt, die auf die Quellpunktwolke und die Kartenpunktwolke angewendet wird.
    • Klausel 14: Verfahren nach einer der Klauseln 10 bis 13, umfassend Überwachen der Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei eine Abweichung, die den vorbestimmten Schwellenwert überschreitet, auf eine Fehlfunktion hinweist.
    • Klausel 15: Verfahren nach einer der Klauseln 10 bis 14, umfassend Bestimmen einer Plausibilität einer Verfahrenslokalisierung vor dem iterativen Verarbeiten der Punktwolkendaten.
    • Klausel 16: Verfahren nach einer der Klauseln 10 bis 15, umfassend Anwenden der Transformation auf die Quellpunktwolke, um eine zweite Lage zu erzeugen, wobei die zweite Lage vor dem Berechnen der zweiten Metrik validiert wird.
    • Klausel 17: Verfahren nach einer der Klauseln 10 bis 16, wobei es sich bei der Fahrzeuglokalisierung um iterative Lokalisierung nächstgelegener Punkte handelt.
    • Klausel 18: Verfahren nach einer der Klauseln 10 bis 16, wobei es sich bei der Fahrzeuglokalisierung um Monte-Carlo-Lokalisierung handelt.
    • Klausel 19: Mindestens ein nichtflüchtiges Speichermedium, das Anweisungen speichert, die bei Ausführung durch mindestens einen Prozessor den mindestens einen Prozessor zu Folgendem veranlassen: Erzeugen einer Quellpunktwolke, wobei Quellpunktwolkendaten gemäß einer Fahrzeuglokalisierung iterativ verarbeitet werden; Berechnen einer Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte; Berechnen einer mit Fahrzeuglokalisierung assoziierten ersten Metrik auf Grundlage der Transformation; Anwenden der Transformation auf die Quellpunktwolke; Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke; und Bestimmen einer Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
    • Klausel 20: Mindestens ein nichtflüchtiges Speichermedium nach Klausel 19, wobei die Fahrzeuglokalisierung über einen AV-Computer mit einer qualitätsgesicherten (quality managed, QM-) Fahrzeugsicherheitsstufe ASIL-(automotive safety integrity level) D ausgeführt wird.
  • In der vorstehenden Beschreibung wurden Aspekte und Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf zahlreiche konkrete Einzelheiten beschrieben, die von Implementierung zu Implementierung variieren können. Entsprechend sind die Beschreibung und die Zeichnungen als veranschaulichend und nicht einschränkend anzusehen. Der einzige und ausschließliche Indikator für den Schutzbereich der Erfindung und das, was durch die Anmelder als Schutzbereich der Erfindung beabsichtigt ist, ist der wörtliche und äquivalente Schutzbereich der Menge der Ansprüche, die aus dieser Anmeldung in der spezifischen Form hervorgehen, in der diese Ansprüche ausgestellt sind, einschließlich etwaiger späterer Korrekturen. Alle hier ausdrücklich dargelegten Definitionen für Begriffe, die in diesen Ansprüchen enthalten sind, regeln die Bedeutung der in den Ansprüchen verwendeten Begriffe. Darüber hinaus kann bei Verwendung des Begriffs „ferner umfassend“ in der vorhergehenden Beschreibung oder in den folgenden Ansprüchen das auf diese Formulierung Folgende ein zusätzlicher Schritt oder eine zusätzliche Einrichtung oder ein Unterschritt bzw. eine Untereinrichtung eines bereits erwähnten Schritts oder einer bereits erwähnten Einrichtung sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 63/303301 [0001]

Claims (20)

  1. System, umfassend: mindestens einen Prozessor, und mindestens ein nichtflüchtiges Speichermedium, das Anweisungen speichert, die bei Ausführung durch den mindestens einen Prozessor den mindestens einen Prozessor zu Folgendem veranlassen: Erzeugen einer Quellpunktwolke, wobei Quellpunktwolkendaten gemäß einer Fahrzeuglokalisierung iterativ verarbeitet werden; Berechnen einer Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte; Berechnen einer mit Fahrzeuglokalisierung assoziierten ersten Metrik auf Grundlage der Transformation; Anwenden der Transformation auf die Quellpunktwolke; Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke; und Bestimmen einer Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
  2. System nach Anspruch 1, wobei die Fahrzeuglokalisierung über einen AV-Computer mit einer qualitätsgesicherten (quality managed, QM-) Fahrzeugsicherheitsstufe ASIL- (automotive safety integrity level) D ausgeführt wird.
  3. System nach einem der Ansprüche 1 oder 2, wobei es sich bei der ersten Metrik und der zweiten Metrik um Quadratfehlersummen handelt.
  4. System nach einem der Ansprüche 1 bis 3, wobei es sich bei der ersten Metrik um eine Kovarianz der Transformation, die auf die iterativ verarbeitete Punktwolke und Karte angewendet wird, und bei der zweiten Metrik um eine Kovarianz der Transformation handelt, die auf die Quellpunktwolke und die Kartenpunktwolke angewendet wird.
  5. System nach einem der Ansprüche 1 bis 4, wobei die Anweisungen ferner Überwachen der Abweichung zwischen der ersten Metrik und der zweiten Metrik umfassen, wobei eine Abweichung, die den vorbestimmten Schwellenwert überschreitet, auf eine Fehlfunktion hinweist.
  6. System nach einem der Ansprüche 1 bis 5, wobei die Anweisungen ferner vor dem iterativen Verarbeiten der Punktwolkendaten Bestimmen einer Plausibilität der Fahrzeuglokalisierung umfassen.
  7. System nach einem der Ansprüche 1 bis 6, wobei die Anweisungen ferner Anwenden der Transformation auf die Quellpunktwolke umfassen, um eine zweite Lage zu erzeugen, wobei die zweite Lage vor dem Berechnen der zweiten Metrik validiert wird.
  8. System nach einem der Ansprüche 1 bis 7, wobei es sich bei der Fahrzeuglokalisierung um iterative Lokalisierung nächstgelegener Punkte handelt.
  9. System nach einem der Ansprüche 1 bis 7, wobei es sich bei der Fahrzeuglokalisierung um Monte-Carlo-Lokalisierung handelt.
  10. Verfahren, umfassend: mit mindestens einem Prozessor erfolgendes Erzeugen einer Quellpunktwolke, wobei Quellpunktwolkendaten gemäß einer Fahrzeuglokalisierung iterativ verarbeitet werden; mit dem mindestens einen Prozessor erfolgendes Berechnen einer Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte; mit dem mindestens einen Prozessor erfolgendes Berechnen einer mit Fahrzeuglokalisierung assoziierten ersten Metrik auf Grundlage der Transformation; mit dem mindestens einen Prozessor erfolgendes Anwenden der Transformation auf die Quellpunktwolke; mit dem mindestens einen Prozessor erfolgendes Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke; und mit dem mindestens einen Prozessor erfolgendes Bestimmen einer Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
  11. Verfahren nach Anspruch 10, wobei die Fahrzeuglokalisierung über einen AV-Computer mit einer qualitätsgesicherten (quality managed, QM-) Fahrzeugsicherheitsstufe ASIL- (automotive safety integrity level) D ausgeführt wird.
  12. Verfahren nach einem der Ansprüche 10 oder 11, wobei es sich bei der ersten Metrik und der zweiten Metrik um Quadratfehlersummen handelt.
  13. Verfahren nach einem der Ansprüche 10 bis 12, wobei es sich bei der ersten Metrik um eine Kovarianz der Transformation, die auf die iterativ verarbeitete Punktwolke und Karte angewendet wird, und bei der zweiten Metrik um eine Kovarianz der Transformation handelt, die auf die Quellpunktwolke und die Kartenpunktwolke angewendet wird.
  14. Verfahren nach einem der Ansprüche 10 bis 13, umfassend Überwachen der Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei eine Abweichung, die den vorbestimmten Schwellenwert überschreitet, auf eine Fehlfunktion hinweist.
  15. Verfahren nach einem der Ansprüche 10 bis 14, umfassend Bestimmen einer Plausibilität einer Verfahrenslokalisierung vor dem iterativen Verarbeiten der Punktwolkendaten.
  16. Verfahren nach einem der Ansprüche 10 bis 15, umfassend Anwenden der Transformation auf die Quellpunktwolke, um eine zweite Lage zu erzeugen, wobei die zweite Lage vor dem Berechnen der zweiten Metrik validiert wird.
  17. Verfahren nach einem der Ansprüche 10 bis 16, wobei es sich bei der Fahrzeuglokalisierung um iterative Lokalisierung nächstgelegener Punkte handelt.
  18. Verfahren nach einem der Ansprüche 10 bis 16, wobei es sich bei der Fahrzeuglokalisierung um Monte-Carlo-Lokalisierung handelt.
  19. Mindestens ein nichtflüchtiges Speichermedium, das Anweisungen speichert, die bei Ausführung durch mindestens einen Prozessor den mindestens einen Prozessor veranlassen zum: Erzeugen einer Quellpunktwolke, wobei Quellpunktwolkendaten gemäß einer Fahrzeuglokalisierung iterativ verarbeitet werden; Berechnen einer Transformation zwischen der iterativ verarbeiteten Quellpunktwolke und einer mit einer ersten Lage assoziierten Karte; Berechnen einer mit Fahrzeuglokalisierung assoziierten ersten Metrik auf Grundlage der Transformation; Anwenden der Transformation auf die Quellpunktwolke; Berechnen einer zweiten Metrik auf Grundlage der Anwendung der Transformation auf die Quellpunktwolke und eine Kartenpunktwolke; und Bestimmen einer Abweichung zwischen der ersten Metrik und der zweiten Metrik, wobei die Fahrzeuglokalisierung validiert wird, wenn die Abweichung kleiner als ein vorbestimmter Schwellenwert ist.
  20. Mindestens ein nichtflüchtiges Speichermedium nach Anspruch 19, wobei die Fahrzeuglokalisierung über einen AV-Computer mit einer qualitätsgesicherten (quality managed, QM-) Fahrzeugsicherheitsstufe ASIL-(automotive safety integrity level) D ausgeführt wird.
DE102023101181.2A 2022-01-26 2023-01-18 Lokalisierungsfunktionssicherheit Pending DE102023101181A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202263303301P 2022-01-26 2022-01-26
US63/303,301 2022-01-26

Publications (1)

Publication Number Publication Date
DE102023101181A1 true DE102023101181A1 (de) 2023-07-27

Family

ID=85284130

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102023101181.2A Pending DE102023101181A1 (de) 2022-01-26 2023-01-18 Lokalisierungsfunktionssicherheit

Country Status (5)

Country Link
US (1) US20230236022A1 (de)
KR (1) KR20230115253A (de)
CN (1) CN116499473A (de)
DE (1) DE102023101181A1 (de)
GB (1) GB2616710A (de)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11175132B2 (en) * 2017-08-11 2021-11-16 Zoox, Inc. Sensor perturbation
CN109270545B (zh) * 2018-10-23 2020-08-11 百度在线网络技术(北京)有限公司 一种定位真值校验方法、装置、设备及存储介质
CN112105893B (zh) * 2019-01-30 2023-08-22 百度时代网络技术(北京)有限公司 用于自动驾驶车辆的实时地图生成系统
US11814083B2 (en) * 2020-03-31 2023-11-14 Uatc, Llc Asynchronous processing for autonomous vehicle computing systems

Also Published As

Publication number Publication date
GB202300646D0 (en) 2023-03-01
KR20230115253A (ko) 2023-08-02
GB2616710A (en) 2023-09-20
US20230236022A1 (en) 2023-07-27
CN116499473A (zh) 2023-07-28

Similar Documents

Publication Publication Date Title
DE102016119130A1 (de) Probabilistische Folgerung unter Verwendung gewichteter Integrale und Summen durch Hashing zur Objektverfolgung
DE102021132853A1 (de) Auf deep learning basierende kamerakalibrierung
DE102022100041A1 (de) Betriebseinhüllendenerkennung mit situationsbeurteilung unter verwendung von metriken
DE102022102189A1 (de) Multimodales Segmentierungsnetz für ein verbessertes semantisches Labelingbei einer Kartenerzeugung
DE102022100218A1 (de) Umgebungsbeschränkungs- und Sensoranomaliesystem und -verfahren
DE102021133533A1 (de) Immobilitätsdetektion innerhalb eines situativen kontexts
DE102021132082A1 (de) Ende-zu-ende-system-training unter verwendung vereinigter bilder
DE102021123721A1 (de) Fahrzeugbetrieb unter verwendung eines verhaltensregelmodells
DE102021131489A1 (de) Semantische annotation von sensordaten unter verwendung unzuverlässiger kartenannotationseingaben
Mishra et al. ADAS technology: a review on challenges, legal risk mitigation and solutions
DE102022119204A1 (de) Systeme und Verfahren zur effizienten Schätzung einer Fahrzeugausdehnung
DE102022131625A1 (de) Bordsteinbasierte merkmalsextraktion für lokalisierung und fahrspurerkennung mittels radar
DE102023111485A1 (de) Nachverfolgungssegmentbereinigung nachverfolgter objekte
DE102022106461A1 (de) Systeme und verfahren zur kameraausrichtung
DE102021132096A1 (de) Fahrzeugortsbestimmung unter verwendung kombinierter eingaben redundanter ortsbestimmungs-pipelines
DE102022105579A1 (de) Graphenerkundung zur regelbuchtrajektorieerzeugung
DE102021132199A1 (de) Bestimmen von Objektmobilitätsparametern unter Verwendung einer Objektsequenz
DE102021131480A1 (de) Sensorangriffssimulationssystem
DE102023108247A1 (de) Tracker-Positionsaktualisierungen zur Erzeugung von Fahrzeugtrajektoren
DE102022122456A1 (de) Auf maschinellem lernen basierte klassifizierung einer punktwolkenausrichtung
DE102021133740A1 (de) Erlernen der identifikation sicherheitskritischer szenarien für ein autonomes fahrzeug
DE102022133254A1 (de) Antennenüberwachung und -auswahl
DE102022100059A1 (de) Detektion der operativen hüllkurve mit situativer beurteilung
DE102023101181A1 (de) Lokalisierungsfunktionssicherheit
DE102021134413A1 (de) Systeme und verfahren zur messung der optischen vignettierung