DE102021101206A1 - Auflösung von entfernungsratenmehrdeutigkeit in sensorrückmeldungen - Google Patents

Auflösung von entfernungsratenmehrdeutigkeit in sensorrückmeldungen Download PDF

Info

Publication number
DE102021101206A1
DE102021101206A1 DE102021101206.6A DE102021101206A DE102021101206A1 DE 102021101206 A1 DE102021101206 A1 DE 102021101206A1 DE 102021101206 A DE102021101206 A DE 102021101206A DE 102021101206 A1 DE102021101206 A1 DE 102021101206A1
Authority
DE
Germany
Prior art keywords
range rate
rate
rate window
received signal
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021101206.6A
Other languages
English (en)
Inventor
Guchan Ozbilgin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motional AD LLC
Original Assignee
Motional AD LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motional AD LLC filed Critical Motional AD LLC
Publication of DE102021101206A1 publication Critical patent/DE102021101206A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/10Systems for measuring distance only using transmission of interrupted, pulse modulated waves
    • G01S13/103Systems for measuring distance only using transmission of interrupted, pulse modulated waves particularities of the measurement of the distance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/10Systems for measuring distance only using transmission of interrupted, pulse modulated waves
    • G01S13/22Systems for measuring distance only using transmission of interrupted, pulse modulated waves using irregular pulse repetition frequency
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/10Systems for measuring distance only using transmission of interrupted, pulse modulated waves
    • G01S13/22Systems for measuring distance only using transmission of interrupted, pulse modulated waves using irregular pulse repetition frequency
    • G01S13/225Systems for measuring distance only using transmission of interrupted, pulse modulated waves using irregular pulse repetition frequency with cyclic repetition of a non-uniform pulse sequence, e.g. staggered PRF
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/581Velocity or trajectory determination systems; Sense-of-movement determination systems using transmission of interrupted pulse modulated waves and based upon the Doppler effect resulting from movement of targets
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/588Velocity or trajectory determination systems; Sense-of-movement determination systems deriving the velocity value from the range measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9316Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles combined with communication equipment with other vehicles or with base stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2013/9323Alternative operation using light waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

Ein Verfahren umfasst Übertragen eines ersten übertragenen Signals, das einer ersten Entfernungsraten-Fenstergröße entspricht; Empfangen eines ersten empfangenen Signals; Bestimmen einer ersten erfassten Entfernungsrate eines Objekts auf Grundlage des ersten empfangenen Signals; Übertragen eines zweiten übertragenen Signals, das einer zweiten Entfernungsraten-Fenstergröße entspricht; Empfangen eines zweiten empfangenen Signals; Bestimmen einer zweiten erfassten Entfernungsrate des Objekts auf Grundlage des zweiten empfangenen Signals; Berechnen eines ersten Entfernungsraten-Fensterindex auf Grundlage einer ersten Entfernungsraten-Fensterindexdifferenz; gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex vordefinierte Kriterien erfüllt, erfolgendes Berechnen einer geschätzten Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz; und gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien nicht erfüllt, Verzichten auf das Berechnen einer geschätzten Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der US-Provisional-Patentanmeldung Nr. 62/965,409 , eingereicht am 24. Januar 2020, mit dem Titel „RESOLVING RANGE RATE AMBIGUITY IN SENSOR RETURNS“, deren Inhalt durch Bezugnahme vollumfänglich hierin aufgenommen wird.
  • GEBIET DER ERFINDUNG
  • Diese Beschreibung betrifft das Erfassen von Objekten mit Sensoren (z.B. RADAR) und insbesondere das Auflösen von Entfernungsratenmehrdeutigkeit in empfangenen Signalen (z.B. zur Verwendung bei der Navigation eines autonomen Fahrzeugs).
  • HINTERGRUND
  • Autonome Fahrzeuge können eingesetzt werden, um Personen und/oder Fracht (z.B. Pakete, Objekte oder andere Gegenstände) von einem Ort zu einem anderen zu transportieren. Beispielsweise kann ein autonomes Fahrzeug zum Standort einer Person navigieren, darauf warten, dass die Person in das autonome Fahrzeug einsteigt, und zu einem bestimmten Ziel navigieren (z.B. einem von der Person ausgewählten Ort). Um in der Umgebung zu navigieren, sind diese autonomen Fahrzeuge mit verschiedenen Arten von Sensoren ausgestattet, um Objekte in der Umgebung zu erfassen.
  • KURZDARSTELLUNG
  • Der in dieser Spezifikation beschriebene Gegenstand ist auf ein Computersystem und Methoden zum Erfassen von Objekten in einer Umgebung um ein autonomes Fahrzeug gerichtet. Im Allgemeinen ist das Computersystem so ausgelegt, dass es Eingaben von einem oder mehreren Sensoren des Fahrzeugs empfängt, ein oder mehrere Objekte in der Umgebung um das Fahrzeug auf Grundlage der empfangenen Eingaben erfasst und das Fahrzeug auf Grundlage der Erfassung der Objekte betreibt.
  • Beispielsweise wird für ein Paar von Sensorerfassungen, die jeweils einen potenziell mehrdeutigen Entfernungsratenwert haben, auf Grundlage erfasster Entfernungsraten der Erfassungen und mit den Erfassungen verbundener Entfernungsraten-Fenstergrößen ein Fensterindex für eine Entfernungsraten-Fensterindexdifferenz berechnet. Falls der berechnete Fensterindex vordefinierte Kriterien erfüllt (z.B. der Fensterindex nahe an einem ganzzahligen Wert von -1,0 oder 1 liegt), wird eine Entfernungsrate auf Grundlage der Entfernungsraten-Fensterindexdifferenz berechnet.
  • In einigen Ausführungsformen umfasst ein Verfahren Folgendes: unter Verwendung eines oder mehrerer Sender erfolgendes Übertragen eines ersten übertragenen Signals in eine Umgebung, wobei das erste übertragene Signal einer ersten Entfernungsraten-Fenstergröße entspricht; unter Verwendung eines oder mehrerer Empfänger erfolgendes Empfangen eines ersten empfangenen Signals, das zumindest einen Teil des ersten übertragenen Signals aufweist, der von einem Objekt in der Umgebung reflektiert wurde; unter Verwendung einer Verarbeitungsschaltung erfolgendes Bestimmen einer ersten erfassten Entfernungsrate des Objekts auf Grundlage des ersten empfangenen Signals; nach dem Übertragen des ersten übertragenen Signals unter Verwendung des einen oder der mehreren Sender erfolgendes Übertragen eines zweiten übertragenen Signals in die Umgebung, wobei das zweite übertragene Signal einer zweiten Entfernungsraten-Fenstergröße entspricht; unter Verwendung des einen oder der mehreren Empfänger erfolgendes Empfangen eines zweiten empfangenen Signals, das zumindest einen Teil des zweiten übertragenen Signals aufweist, der von dem Objekt in der Umgebung reflektiert wurde; unter Verwendung der Verarbeitungsschaltung erfolgendes Bestimmen einer zweiten erfassten Entfernungsrate des Objekts auf Grundlage des zweiten empfangenen Signals; unter Verwendung der Verarbeitungsschaltung erfolgendes Berechnen eines ersten Entfernungsraten-Fensterindex auf Grundlage einer ersten Entfernungsraten-Fensterindexdifferenz, der ersten erfassten Entfernungsrate, der zweiten erfassten Entfernungsrate, der ersten Entfernungsraten-Fenstergröße und der zweiten Entfernungsraten-Fenstergröße; gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex vordefinierte Kriterien erfüllt, unter Verwendung der Verarbeitungsschaltung erfolgendes Berechnen einer geschätzten Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz; und gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien nicht erfüllt, Verzichten auf das Berechnen einer geschätzten Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz.
  • Diese und andere Aspekte, Merkmale und Implementierungen können als Verfahren, Vorrichtungen, Systeme, Komponenten, Programmprodukte, Mittel oder Schritte zum Durchführen einer Funktion sowie auf andere Weise ausgedrückt werden.
  • Diese und andere Aspekte, Merkmale und Implementierungen werden aus den nachfolgenden Beschreibungen einschließlich der Ansprüche ersichtlich.
  • Figurenliste
    • 1 zeigt ein Beispiel eines autonomen Fahrzeugs mit autonomer Fähigkeit.
    • 2 veranschaulicht eine beispielhafte „Cloud“-Datenverarbeitungsumgebung.
    • 3 veranschaulicht ein Computersystem.
    • 4 zeigt eine beispielhafte Architektur für ein autonomes Fahrzeug.
    • 5 zeigt ein Beispiel für Eingänge und Ausgänge, die von einem Wahrnehmungsmodul verwendet werden können.
    • 6 zeigt ein Beispiel eines LiDAR-Systems.
    • 7 zeigt das LiDAR-System im Betrieb.
    • 8 zeigt weitere Einzelheiten des Betriebs des LiDAR-Systems.
    • 9 zeigt ein Blockdiagramm der Beziehungen zwischen Eingängen und Ausgängen eines Planungsmoduls.
    • 10 zeigt einen für Wegplanung verwendeten gerichteten Graphen.
    • 11 zeigt ein Blockdiagramm der Eingänge und Ausgänge eines Steuermoduls.
    • 12 zeigt ein Blockdiagramm der Eingänge, Ausgänge und Komponenten einer Steuereinheit.
    • 13A bis 13B zeigen ein Beispiel für ein Sensorsignal.
    • 14A zeigt ein Beispiel für eine Umgebung, die ein physisches Objekt aufweist, das von einem Sensor erfasst werden kann.
    • 14B zeigt Entfernungsratenfenster, die einem ersten Signal eines Sensors entsprechen.
    • 14C zeigt Entfernungsratenfenster, die einem zweiten Signal des Sensors entsprechen.
    • 15 ist ein Flussdiagramm eines Beispielprozesses zum Erfassen von Objekten in der Umgebung und Betreiben eines Fahrzeugs auf Grundlage der Erfassung der Objekte.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In der nachfolgenden Beschreibung werden zu Erläuterungszwecken zahlreiche konkrete Einzelheiten dargelegt, um ein umfassendes Verständnis der vorliegenden Erfindung zu vermitteln. Es versteht sich jedoch, dass die vorliegende Erfindung auch ohne diese konkreten Einzelheiten umgesetzt werden kann. In anderen Fällen werden allgemein bekannte Strukturen und Einrichtungen in Blockdiagrammform gezeigt, um die vorliegende Erfindung klarer darzustellen.
  • In den Zeichnungen sind konkrete Anordnungen oder Ordnungen schematischer Elemente, beispielsweise solcher, die Einrichtungen, Module, Anweisungsblöcke und Datenelemente repräsentieren, aus Gründen einer vereinfachten Beschreibung gezeigt. Ein Fachmann sollte jedoch verstehen, dass die konkrete Ordnung oder Anordnung der schematischen Elemente in den Zeichnungen nicht implizieren soll, dass eine bestimmte Reihenfolge oder Abfolge der Verarbeitung oder eine Trennung von Prozessen erforderlich ist. Ferner soll die Aufnahme eines schematischen Elements in eine Zeichnung nicht bedeuten, dass dieses Element in allen Ausführungsformen erforderlich ist oder dass die durch dieses Element dargestellten Merkmale in einigen Ausführungsformen nicht in andere Elemente aufgenommen oder mit anderen Elementen kombiniert werden können.
  • Wenn ferner in den Zeichnungen Verbindungselemente wie beispielsweise durchgezogene oder gestrichelte Linien oder Pfeile verwendet werden, um eine Verbindung, eine Beziehung oder einen Zusammenhang zwischen oder unter zwei oder mehr anderen schematischen Elementen zu veranschaulichen, so ist das Fehlen solcher Verbindungselemente nicht so zu verstehen, dass keine Verbindung, keine Beziehung oder kein Zusammenhang vorliegen kann. Mit anderen Worten, einige Verbindungen, Beziehungen oder Zusammenhänge zwischen Elementen sind in den Zeichnungen nicht gezeigt, um nicht von der Offenbarung abzulenken. Zudem wird aus Gründen einer vereinfachten Darstellung ein einziges Verbindungselement verwendet, um mehrere Verbindungen, Beziehungen oder Zusammenhänge zwischen Elementen zu repräsentieren. Wenn beispielsweise ein Verbindungselement eine Kommunikation von Signalen, Daten oder Anweisungen repräsentiert, sollte ein Fachmann verstehen, dass ein solches Element einen oder mehrere Signalwege (z.B. einen Bus) repräsentiert, je nachdem, was erforderlich ist, um die Kommunikation zu bewirken.
  • Es wird nun im Einzelnen Bezug auf Ausführungsformen genommen, zu denen Beispiele in den begleitenden Zeichnungen veranschaulicht sind. In der nachfolgenden ausführlichen Beschreibung werden zahlreiche konkrete Einzelheiten dargelegt, um ein vollständiges Verständnis der verschiedenen beschriebenen Ausführungsformen zu gewährleisten. Ein Fachmann versteht jedoch, dass die verschiedenen beschriebenen Ausführungsformen auch ohne diese konkreten Einzelheiten umgesetzt werden können. In anderen Fällen wurden allgemein bekannte Verfahren, Prozeduren, Komponenten, Schaltungen und Netzwerke nicht im Einzelnen beschrieben, um nicht unnötig von Aspekten der Ausführungsformen abzulenken.
  • Nachstehend werden verschiedene Merkmale beschrieben, die jeweils unabhängig voneinander oder mit jedweder Kombination weiterer Merkmale verwendet werden können. Ein einzelnes Merkmal löst jedoch möglicherweise noch keines der vorstehend erörterten Probleme oder löst möglicherweise nur eines der vorstehend erörterten Probleme. Einige der vorstehend erörterten Probleme werden möglicherweise von keinem der vorliegend beschriebenen Merkmale vollständig gelöst. Auch wenn Überschriften angegeben sind, können Informationen, die sich auf eine bestimmte Überschrift beziehen, aber nicht in dem Abschnitt mit dieser Überschrift zu finden sind, auch an anderer Stelle in dieser Beschreibung zu finden sein. Ausführungsformen werden vorliegend gemäß der nachstehenden Gliederung beschrieben:
    1. 1. Allgemeine Übersicht
    2. 2. Übersicht über die Hardware
    3. 3. Architektur des autonomen Fahrzeugs
    4. 4. Eingänge des autonomen Fahrzeugs
    5. 5. Planung des autonomen Fahrzeugs
    6. 6. Steuerung des autonomen Fahrzeugs
    7. 7. Datenverarbeitungssystem für Objekterfassung mittels Säulen
    8. 8. Beispielhafte Punktwolken und Säulen
    9. 9. Beispielprozess zum Erfassen von Objekten und Betreiben des Fahrzeugs auf Grundlage der Erfassung der Objekte
  • Allgemeine Übersicht
  • Autonome Fahrzeuge, die in komplexen Umgebungen (z.B. in einer städtischen Umgebung) fahren, stellen eine große technologische Herausforderung dar. Damit autonome Fahrzeuge in diesen Umgebungen navigieren können, erfassen die Fahrzeuge verschiedene Arten von Objekten wie Fahrzeuge, Fußgänger und Fahrräder in Echtzeit mithilfe von Sensoren wie LIDAR oder RADAR. Ein Ansatz zum Durchführen von Objekterfassung umfasst Bestimmen der Entfernungsrate eines erfassten Objekts. Einige Sensoren wie z.B. Impulsradar weisen jedoch bei den Entfernungsraten, die sie erfassen können, eine potenzielle Mehrdeutigkeit auf. Beispielsweise kann ein Sensor in der Lage sein, Entfernungsraten zwischen vmin und vmax zu erfassen. Ein Objekt mit einer tatsächlichen Entfernungsrate vmax + x wird vom Sensor als Objekt mit einer Entfernungsrate von vmin + x erfasst (unter der Annahme, dass x kleiner ist als die Differenz zwischen vmax und vmin), da der Sensor nur ein begrenztes Entfernungsratenfenster erfassen kann. In diesem Fall spricht man davon, dass die Entfernungsrate vmax + x in das Fenster (Vmin, vmax) „gefaltet“ wird. Vorliegend werden Methoden zum Auflösen der Mehrdeutigkeit einer erfassten Entfernungsrate beschrieben, die sich aus einem Objekt ergibt, das eine Entfernungsrate außerhalb des Entfernungsratenfensters des Sensors aufweist. Der Prozess des Auflösens der Entfernungsratenmehrdeutigkeit wird vorliegend als „Entfaltung“ bezeichnet.
  • Aktuelle Methoden zum Auflösen mehrdeutiger Entfernungsraten sind rechnerisch ineffizient. Die offenbarten Ausführungsformen umfassen Systeme und Methoden zum effizienten und schnellen Auflösen von Entfernungsratenmehrdeutigkeiten (z.B. Entfaltung von RADAR-Rückmeldungen) von erfassten Objekten auf Grundlage von Sensoreingaben. Beispielsweise wird für ein Paar von Sensorerfassungen, die jeweils eine potenziell mehrdeutige Entfernungsrate haben, auf Grundlage erfasster Entfernungsraten der Erfassungen und mit den Erfassungen verbundener Entfernungsraten-Fenstergrößen ein Fensterindex für eine Entfernungsraten-Fensterindexdifferenz berechnet. Falls der Fensterindex vordefinierte Kriterien erfüllt (z.B. der Fensterindex nahe an einem ganzzahligen Wert von -1,0 oder 1 liegt), wird eine Entfernungsrate auf Grundlage des Fensterindex berechnet. Ein Vorteil dieser Methode besteht darin, dass sie effizient und außerhalb eines Zielverfolgers durchgeführt werden kann.
  • Übersicht über die Hardware
  • 1 zeigt ein Beispiel eines autonomen Fahrzeugs 100 mit autonomer Fähigkeit.
  • Die Bezeichnung „autonome Fähigkeit“ bezieht sich vorliegend auf eine Funktion, ein Merkmal oder eine Einrichtung, die es ermöglicht, ein Fahrzeug teilweise oder vollständig ohne menschliche Echtzeit-Intervention zu betreiben, darunter, ohne hierauf eingeschränkt zu sein, vollständig autonome Fahrzeuge, hochgradig autonome Fahrzeuge und bedingt autonome Fahrzeuge.
  • Ein autonomes Fahrzeug (autonomous vehicle, AV) ist vorliegend ein Fahrzeug, das autonome Fähigkeit besitzt.
  • Ein „Fahrzeug“ umfasst vorliegend Transportmittel für Güter oder Personen. Beispielsweise Autos, Busse, Züge, Flugzeuge, Drohnen, Lastwagen, Boote, Schiffe, Tauchfahrzeuge, Luftschiffe usw. Ein fahrerloses Auto ist ein Beispiel für ein Fahrzeug.
  • „Trajektorie“ bezieht sich vorliegend auf einen Weg oder eine Route zum Navigieren eines AV von einem ersten räumlich-zeitlichen Ort zu einem zweiten räumlich-zeitlichen Ort. In einer Ausführungsform wird der erste räumlich-zeitliche Ort als Anfangs- oder Startort und der zweite räumlich-zeitliche Ort als Bestimmungsort, Endort, Ziel, Zielposition oder Zielort bezeichnet. In einigen Beispielen besteht eine Trajektorie aus einem oder mehreren Teilstücken (z.B. Straßenabschnitten) und besteht jedes Teilstück aus einem oder mehreren Blöcken (z.B. Abschnitten einer Fahrspur oder Kreuzung). In einer Ausführungsform entsprechen die räumlich-zeitlichen Orte realen Orten. Beispielsweise handelt es sich bei den räumlich-zeitlichen Orten um Abhol- oder Absetzpunkte zum Abholen oder Absetzen von Personen oder Gütern.
  • „Sensor(en)“ umfassen vorliegend eine oder mehrere Hardwarekomponenten, die Informationen über die Umgebung des Sensors erfassen. Einige der Hardwarekomponenten können Sensorkomponenten (z.B. Bildsensoren, biometrische Sensoren), Sende- und/oder Empfangskomponenten (z.B. Laser- oder Hochfrequenzwellensender und -empfänger), elektronische Komponenten wie beispielsweise Analog-Digital-Wandler, eine Datenspeichereinrichtung (wie beispielsweise einen RAM und/oder einen nichtflüchtigen Speicher), Software- oder Firmwarekomponenten und Datenverarbeitungskomponenten wie beispielsweise eine ASIC (anwendungsspezifische integrierte Schaltung), einen Mikroprozessor und/oder einen Mikrocontroller umfassen.
  • Bei einer „Szenenbeschreibung“ handelt es sich vorliegend um eine Datenstruktur (z.B. Liste) oder einen Datenstrom, die ein oder mehrere klassifizierte oder gekennzeichnete Objekte umfassen, die durch einen oder mehrere Sensoren am AV-Fahrzeug erfasst oder durch eine außerhalb des AV befindliche Quelle bereitgestellt werden.
  • Eine „Straße“, ist vorliegend ein physischer Bereich, der von einem Fahrzeug befahren werden kann und einer benannten Durchgangsstraße (z.B. Stadtstraße, Autobahn usw.) oder einer unbenannten Durchgangsstraße (z.B. eine Einfahrt in einem Haus oder Bürogebäude, ein Abschnitt eines Parkplatzes, ein Abschnitt eines leeren Grundstücks, ein Feldweg in einem ländlichen Gebiet usw.) entsprechen kann. Da einige Fahrzeuge (z.B. Allrad-Pickup-Fahrzeuge, Sport Utility Vehicles usw.) in der Lage sind, eine Vielzahl von physischen Bereichen zu befahren, die nicht speziell für Fahrzeuge geeignet sind, kann eine „Straße“ ein physischer Bereich sein, der von keiner Gemeinde oder anderen Regierungs- oder Verwaltungsbehörde formal als Durchgangsstraße definiert ist.
  • Eine „Fahrspur“ ist vorliegend ein Abschnitt einer Straße, der von einem Fahrzeug befahren werden kann, und kann größtenteils oder vollständig dem Raum zwischen Fahrspurmarkierungen entsprechen oder kann nur einem Teil (z.B. weniger als 50 %) des Raums zwischen Fahrspurmarkierungen entsprechen. Beispielsweise könnte eine Straße mit weit auseinander liegenden Fahrspurmarkierungen zwei oder mehr Fahrzeuge zwischen den Markierungen aufnehmen, so dass ein Fahrzeug das andere überholen kann, ohne die Fahrspurmarkierungen zu überqueren, und könnte daher so interpretiert werden, dass die Fahrspur schmaler ist als der Raum zwischen den Fahrspurmarkierungen, oder dass zwischen den Fahrspurmarkierungen zwei Fahrspuren liegen. Eine Fahrspur könnte auch ohne vorhandene Fahrspurmarkierungen interpretiert werden. Beispielsweise kann eine Fahrspur auf Grundlage physischer Merkmale einer Umgebung definiert werden, z.B. Felsen und Bäume entlang einer Durchgangsstraße in einem ländlichen Gebiet.
  • „Ein(e) oder mehrere“ umfasst eine von einem Element ausgeführte Funktion, eine von mehr als einem Element ausgeführte Funktion, z.B. verteilt, mehrere Funktionen, die von einem Element ausgeführt werden, mehrere Funktionen, die von mehreren Elementen ausgeführt werden, oder eine beliebige Kombination aus diesen.
  • Zudem versteht es sich, dass zwar in einigen Fällen die Bezeichnungen erste(r/s), zweite(r/s) usw. verwendet werden, um verschiedene Elemente zu beschreiben, diese Elemente jedoch durch diese Bezeichnungen nicht eingeschränkt werden sollen. Diese Bezeichnungen werden lediglich verwendet, um ein Element von einem anderen zu unterscheiden. Beispielsweise könnte ein erster Kontakt als zweiter Kontakt bezeichnet werden und entsprechend ein zweiter Kontakt als erster Kontakt, ohne vom Umfang der verschiedenen beschriebenen Ausführungsformen abzuweichen. Sowohl beim ersten Kontakt als auch beim zweiten Kontakt handelt es sich um Kontakte, jedoch nicht um denselben Kontakt, soweit nicht anders angegeben.
  • Die vorliegend verwendete Terminologie der verschiedenen vorliegend beschriebenen Ausführungsformen dient lediglich dem Zweck der Beschreibung bestimmter Ausführungsformen und soll nicht einschränkend sein. Die Singularformen „ein/eine“ und „der/die/das“ wie in der Beschreibung der verschiedenen beschriebenen Ausführungsformen und den Ansprüchen verwendet sollen ebenso die Pluralformen einschließen, sofern nicht durch den Kontext offensichtlich anders angegeben. Zudem versteht es sich, dass sich die Angabe „und/oder“ wie vorliegend verwendet auf sämtliche mögliche Kombinationen aus einem oder mehreren der zugehörigen aufgeführten Elemente bezieht und diese umfasst. Ferner ist zu beachten, dass die Ausdrücke „umfasst“ und/oder „umfassend,“ soweit in dieser Spezifikation verwendet, das Vorliegen genannter Merkmale, Zahlen, Schritte, Operationen, Elemente und/oder Komponenten angibt, jedoch nicht das Vorliegen oder Hinzufügen eines oder mehrerer weiterer Merkmale, Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließt.
  • Die Bezeichnung „falls“ ist je nach Kontext wahlweise auszulegen als „wenn“, „bei/nach“ oder „in Reaktion auf Bestimmen“ oder „in Reaktion auf Erfassen“. Entsprechend ist die Formulierung „falls bestimmt wird“ oder „falls [eine genannte Bedingung oder ein genanntes Ereignis] erfasst wird“ je nach Kontext wahlweise auszulegen als „bei/nach Bestimmen“ oder „in Reaktion auf Bestimmen“ oder „bei/nach Erfassen [der genannten Bedingung oder des genannten Ereignisses]“ oder „in Reaktion auf Erfassen [der genannten Bedingung oder des genannten Ereignisses]“.
  • Ein AV-System bezeichnet vorliegend das AV zusammen mit der Gruppierung aus Hardware, Software, gespeicherten Daten und in Echtzeit generierten Daten, die den Betrieb des AV unterstützen. In einer Ausführungsform ist das AV-System in das AV integriert. In einer Ausführungsform ist das AV-System auf mehrere Orte verteilt. Beispielsweise wird ein Teil der Software des AV-Systems in einer Cloud-Computing-Umgebung ähnlich der nachstehend in Bezug auf 2 beschriebenen Cloud-Computing-Umgebung 200 implementiert.
  • Im Allgemeinen beschreibt dieses Dokument Technologien, die auf alle Fahrzeuge anwendbar sind, die über eine oder mehrere autonome Fähigkeiten verfügen, darunter vollständig autonome Fahrzeuge, hochautonome Fahrzeuge und bedingt autonome Fahrzeuge, wie beispielsweise so genannte Level-5-, Level-4- bzw. Level-3-Fahrzeuge (für weitere Einzelheiten zur Klassifizierung von Autonomiestufen in Fahrzeugen vgl. Norm J3016 von SAE International: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems (Taxonomie und Definitionen für Begriffe im Zusammenhang mit automatisierten On-Road-Kraftfahrzeug-Fahrsystemen), die durch Bezugnahme vollumfänglich hierin aufgenommen wird). Die in diesem Dokument beschriebenen Technologien sind auch auf teilautonome Fahrzeuge und fahrerunterstützte Fahrzeuge anwendbar, wie z.B. sogenannte Level-2- und Level-1-Fahrzeuge (vgl. Norm J3016 von SAE International: Taxonomy and Definitions for Terms Related to On-Road Motor Vehicle Automated Driving Systems). In einer Ausführungsform können eines oder mehrere der Level-1-, 2-, 3-, 4- und 5-Fahrzeugsysteme bestimmte Fahrzeugoperationen unter bestimmten Betriebsbedingungen auf Grundlage der Verarbeitung von Sensoreingaben automatisieren (z.B. Lenkung, Bremsen und Verwenden von Karten). Die in diesem Dokument beschriebenen Technologien können Fahrzeugen aller Stufen zugute kommen, von vollständig autonomen Fahrzeugen bis hin zu von Menschen betriebenen Fahrzeugen.
  • Unter Bezugnahme auf 1 betreibt ein AV-System 120 das AV 100 entlang einer Trajektorie 198 durch eine Umgebung 190 bis zu einem Zielort 199 (manchmal auch als Endpunkt bezeichnet) unter Umgehung von Objekten (z.B. natürliche Hindernisse 191, Fahrzeuge 193, Fußgänger 192, Radfahrer und andere Hindernisse) und unter Einhaltung von Verkehrsregeln (z.B. Betriebsregeln oder Fahrpräferenzen).
  • In einer Ausführungsform umfasst das AV-System 120 Einrichtungen 101, die so instrumentiert sind, dass sie Betriebsbefehle von den Computerprozessoren 146 empfangen und auf diese reagieren. In einer Ausführungsform ähneln die Datenverarbeitungsprozessoren 146 dem nachstehend in Bezug auf 3 beschriebenen Prozessor 304. Zu Beispielen für die Einrichtungen 101 zählen eine Lenksteuerung 102, Bremsen 103, Schaltung, Gaspedal oder andere Beschleunigungssteuerungsmechanismen, Scheibenwischer, Seitentürenschlösser, Fenstersteuerungen und Blinker.
  • In einer Ausführungsform umfasst das AV-System 120 Sensoren 121 zum Messen oder Ableiten von Zustandseigenschaften des AV 100, beispielsweise der Position des AV, Linear- und Winkelgeschwindigkeit und Beschleunigung sowie Fahrtrichtung (z.B. eine Ausrichtung des vorderen Endes des AV 100). Zu Beispielen für Sensoren 121 zählen GPS, Trägheitsmesseinheiten (IMU, inertial measurement unit), die sowohl lineare Fahrzeugbeschleunigungen als auch Winkelgeschwindigkeiten messen, Raddrehzahlsensoren zur Messung oder Schätzung von Radschlupfverhältnissen, Radbremsdruck- oder Bremsmomentsensoren, Motordrehmoment- oder Raddrehmomentsensoren sowie Lenkwinkel- und Winkelgeschwindigkeitssensoren.
  • In einer Ausführungsform umfassen die Sensoren 121 zudem Sensoren zum Erfassen oder Messen von Eigenschaften der Umgebung des AV. Zum Beispiel Monokular- oder Stereo-Videokameras 122 im sichtbaren Licht-, Infrarot- oder Wärmespektrum (oder beidem), LiDAR 123, RADAR, Ultraschallsensoren, Flugzeit- (ToF, Time of Flight) Tiefensensoren, Drehzahlsensoren, Temperatursensoren, Feuchtigkeitssensoren und Niederschlagssensoren.
  • In einer Ausführungsform umfasst das AV-System 120 eine Datenspeichereinheit 142 und einen Speicher 144 zum Speichern von Maschinenanweisungen im Zusammenhang mit den Computerprozessoren 146 oder mit durch die Sensoren 121 gesammelten Daten. In einer Ausführungsform ähnelt die Datenspeichereinheit 142 dem ROM 308 oder der Speichereinheit 310, die nachstehend in Bezug auf 3 beschrieben sind. In einer Ausführungsform ähnelt der Speicher 144 dem nachstehend beschriebenen Hauptspeicher 306. In einer Ausführungsform speichern die Datenspeichereinheit 142 und der Speicher 144 historische, Echtzeit- und/oder Vorhersageinformationen über die Umgebung 190. In einer Ausführungsform zählen zu den gespeicherten Informationen Karten, Fahrverhalten, Aktualisierungen zum Verkehrsaufkommen oder Wetterbedingungen. In einer Ausführungsform werden die Umgebung 190 betreffende Daten von einer entfernt gelegenen Datenbank 134 über einen Kommunikationskanal an das AV 100 übertragen.
  • In einer Ausführungsform umfasst das AV-System 120 Kommunikationseinrichtungen 140 zum Kommunizieren gemessener oder abgeleiteter Eigenschaften der Zustände und Bedingungen anderer Fahrzeuge, beispielsweise Positionen, Linear- und Winkelgeschwindigkeiten, Linear- und Winkelbeschleunigungen sowie Linear- und Winkelausrichtungen, an das AV 100. Zu diesen Einrichtungen zählen Fahrzeug-zu-Fahrzeug-(V2V, vehicle to vehicle) und Fahrzeug-zu-Infrastruktur- (V2I, vehicle to infrastructure) Kommunikationseinrichtungen und Einrichtungen für drahtlose Kommunikation über Punkt-zu-Punkt- oder Ad-hoc-Netzwerke oder beides. In einer Ausführungsform kommunizieren die Kommunikationseinrichtungen 140 über das elektromagnetische Spektrum (darunter Funk- und optische Kommunikation) oder andere Medien (z.B. Luft und akustische Medien). Eine Kombination aus Fahrzeug-zu-Fahrzeug- (V2V-) und Fahrzeug-zu-Infrastruktur- (V2I-) Kommunikation (und in einigen Ausführungsformen einer oder mehreren weiteren Arten von Kommunikation) wird manchmal als Fahrzeug-zu-Alles- (V2X-) Kommunikation bezeichnet. V2X-Kommunikation entspricht üblicherweise einem oder mehreren Kommunikationsstandards zur Kommunikation mit, zwischen und unter autonomen Fahrzeugen.
  • In einer Ausführungsform umfassen die Kommunikationseinrichtungen 140 Kommunikationsschnittstellen. Beispiele hierfür sind drahtgebundene, drahtlose, WiMAX-, WiFi-, Bluetooth-, Satelliten-, Mobilfunk-, optische, Nahfeld-, Infrarot- oder Funkschnittstellen. Die Kommunikationsschnittstellen übertragen Daten von einer entfernt gelegenen Datenbank 134 an das AV-System 120. In einer Ausführungsform ist die entfernt gelegene Datenbank 134 in eine Cloud-Computing-Umgebung 200 eingebettet, wie in 2 beschrieben. Die Kommunikationsschnittstellen 140 übertragen von den Sensoren 121 gesammelte Daten oder andere den Betrieb des AV 100 betreffende Daten an die entfernt gelegene Datenbank 134. In einer Ausführungsform übertragen die Kommunikationsschnittstellen 140 Informationen, die Teleoperationen betreffen, an das AV 100. In einigen Ausführungsformen kommuniziert das AV 100 mit weiteren entfernten (z.B. „Cloud“-) Servern 136.
  • In einer Ausführungsform speichert und überträgt die entfernt gelegene Datenbank 134 zudem digitale Daten (z.B. speichert Daten wie Verkehrswege- und Straßenstandorte). Solche Daten werden im Speicher 144 im AV 100 gespeichert oder von der entfernt gelegenen Datenbank 134 über einen Kommunikationskanal an das AV 100 übertragen.
  • In einer Ausführungsform speichert und überträgt die entfernt gelegene Datenbank 134 historische Informationen über Fahreigenschaften (z.B. Geschwindigkeits- und Beschleunigungsprofile) von Fahrzeugen, die zuvor zu ähnlichen Tageszeiten die Trajektorie 198 befahren haben. In einer Implementierung können solche Daten im Speicher 144 im AV 100 gespeichert oder von der entfernt gelegenen Datenbank 134 über einen Kommunikationskanal an das AV 100 übertragen werden.
  • Im AV 100 befindliche Datenverarbeitungseinrichtungen 146 generieren algorithmisch Steueraktionen auf Grundlage von Echtzeit-Sensordaten und früheren Informationen und ermöglichen so dem AV-System 120, seine autonomen Fahrfähigkeiten auszuüben.
  • In einer Ausführungsform umfasst das AV-System 120 Computerperipheriegeräte 132, die mit Datenverarbeitungseinrichtungen 146 gekoppelt sind, um Informationen und Warnungen an einen Nutzer (z.B. einen Insassen oder einen entfernten Nutzer) des AV 100 zu liefern und Eingaben von diesem zu empfangen. In einer Ausführungsform ähneln die Peripheriegeräte 132 der Anzeige 312, der Eingabeeinrichtung 314 und der Cursor-Steuereinheit 316, die nachstehend in Bezug auf 3 behandelt werden. Die Kopplung ist drahtlos oder drahtgebunden. In eine einzige Einrichtung können beliebige zwei oder mehr der Schnittstelleneinrichtungen integriert sein.
  • 2 veranschaulicht eine beispielhafte „Cloud“-Datenverarbeitungsumgebung. Cloud-Computing ist ein Dienstbereitstellungsmodell zum Ermöglichen eines problemlosen bedarfsgesteuerten Netzwerkzugriffs auf einen gemeinsam genutzten Pool von konfigurierbaren Datenverarbeitungsressourcen (z.B. Netzwerken, Netzwerkbandbreite, Server, Verarbeitung, Hauptspeicher, Speicher, Anwendungen, virtuellen Maschinen und Diensten). In typischen Cloud-Computing-Systemen sind die zum Liefern der durch die Cloud bereitgestellten Dienste verwendeten Maschinen in einem oder mehreren großen Cloud-Datenzentren untergebracht. Gemäß 2 umfasst die Cloud-Computing-Umgebung 200 Cloud-Datenzentren 204a, 204b und 204c, die durch die Cloud 202 untereinander verbunden sind. Die Datenzentren 204a, 204b und 204c stellen mit der Cloud 202 verbundenen Computersystemen 206a, 206b, 206c, 206d, 206e und 206f Cloud-Computing-Dienste bereit.
  • Die Cloud-Computing-Umgebung 200 umfasst ein oder mehrere Cloud-Datenzentren. Grundsätzlich bezeichnet ein Cloud-Datenzentrum, beispielsweise das in 2 gezeigte Cloud-Datenzentrum 204a, die physische Anordnung aus Servern, die eine Cloud, beispielsweise die in 2 gezeigte Cloud 202, oder einen bestimmten Abschnitt einer Cloud bilden. Beispielsweise sind Server in dem Cloud-Datenzentrum physisch in Räumen, Gruppen, Reihen und Racks angeordnet. Ein Cloud-Datenzentrum verfügt über eine oder mehrere Zonen, die einen oder mehrere Serverräume umfassen. Jeder Raum verfügt über eine oder mehrere Reihen von Servern, und jede Reihe umfasst ein oder mehrere Racks. Jedes Rack umfasst einen oder mehrere einzelne Serverknoten. In einigen Implementierungen werden Server basierend auf den physischen Infrastrukturanforderungen der Rechenzentreneinrichtung, die Strom-, Energie-, Wärme - und/oder andere Anforderungen umfassen, in Zonen, Räumen, Racks und/oder Reihen in Gruppen angeordnet. In einer Ausführungsform ähneln die Serverknoten dem in 3 beschriebenen Computersystem. Das Datenzentrum 204a verfügt über viele Datenverarbeitungssysteme, die auf viele Racks verteilt sind.
  • Die Cloud 202 umfasst die Cloud-Datenzentren 204a, 204b und 204c sowie die Netzwerk- und Netzwerkbetriebsressourcen (beispielsweise Netzwerkbetriebsausrüstung, Knoten, Router, Switches und Netzwerkkabel), die die Cloud-Datenzentren 204a, 204b und 204c untereinander verbinden und dabei helfen, den Zugriff der Computersysteme 206a bis f auf Cloud-Computing-Dienste zu ermöglichen. In einer Ausführungsform repräsentiert das Netzwerk eine beliebige Kombination aus einem oder mehreren lokalen Netzwerken, Weitverkehrsnetzen oder Verbundnetzwerken, die mittels drahtgebundener oder drahtloser Verbindungen gekoppelt sind, die mittels terrestrischer oder Satellitenverbindungen realisiert sind. Daten, die über das Netzwerk ausgetauscht werden, werden unter Verwendung einer beliebigen Anzahl von Protokollen der Netzwerkschicht übertragen, wie z.B. Internet Protocol (IP), Multiprotocol Label Switching (MPLS), Asynchronous Transfer Mode (ATM), Frame Relay, etc. Darüber hinaus werden in Ausführungsformen, in denen das Netzwerk eine Kombination aus mehreren Teilnetzen darstellt, in jedem der zugrunde liegenden Teilnetze unterschiedliche Netzwerkschichtprotokolle verwendet. In einigen Ausführungsformen repräsentiert das Netzwerk ein oder mehrere untereinander verbundene Verbundnetze, beispielsweise das öffentliche Internet.
  • Die Datenverarbeitungssysteme 206a-f oder Cloud-Computing-Dienst-Konsumenten sind mit der Cloud 202 durch Netzwerkverbindungen und Netzwerkadapter verbunden. In einer Ausführungsform sind die Datenverarbeitungssysteme 206a-f als verschiedene Datenverarbeitungseinrichtungen implementiert, beispielsweise Server, Desktops, Laptops, Tablet, Smartphones, Internet-der-Dinge- (IoT-, Internet of Things) Einrichtungen, autonome Fahrzeuge (darunter Autos, Drohnen, Shuttles, Züge, Busse usw.) und Unterhaltungselektronik. In einer Ausführungsform sind die Datenverarbeitungssysteme 206a-f in oder als Teil anderer Systeme implementiert.
  • 3 veranschaulicht ein Computersystem 300. In einer Implementierung handelt es sich bei dem Computersystem 300 um eine Spezial-Datenverarbeitungseinrichtung. Die Spezial-Datenverarbeitungseinrichtung ist für die Durchführung der Methoden fest verdrahtet oder umfasst digitale elektronische Einrichtungen wie eine oder mehrere anwendungsspezifische integrierte Schaltungen (ASICs) oder feldprogrammierbare Gate-Arrays (FPGAs), die dauerhaft für die Durchführung der Methoden programmiert sind, oder kann einen oder mehrere Universal-Hardwareprozessoren umfassen, die für die Durchführung der Methoden gemäß Programmbefehlen in Firmware, Speicher, anderen Speichern oder einer Kombination programmiert sind. Solche Spezial-Datenverarbeitungseinrichtungen können auch kundenspezifisch festverdrahtete Logik, ASICs oder FPGAs mit kundenspezifischer Programmierung kombinieren, um die Methoden umzusetzen. In verschiedenen Ausführungsformen handelt es sich bei den Spezial-Datenverarbeitungseinrichtungen um Desktop-Computersysteme, tragbare Computersysteme, Handgeräte, Netzwerkeinrichtungen oder eine beliebige andere Einrichtung, die festverdrahtete und/oder Programmlogik enthält, um die Methoden umzusetzen.
  • In einer Ausführungsform umfasst das Computersystem 300 einen Bus 302 oder einen anderen Kommunikationsmechanismus zum Kommunizieren von Informationen und einen mit einem Bus 302 gekoppelten Hardwareprozessor 304 zum Verarbeiten von Informationen. Bei dem Hardwareprozessor 304 handelt es sich beispielsweise um einen Universal-Mikroprozessor. Das Computersystem 300 umfasst zudem einen Hauptspeicher 306, beispielsweise einen Direktzugriffsspeicher (RAM) oder eine andere dynamische Speichereinrichtung, der mit dem Bus 302 gekoppelt ist, um Informationen und Anweisungen zur Ausführung durch den Prozessor 304 zu speichern. In einer Implementierung wird der Hauptspeicher 306 zum Speichern temporärer Variablen und anderer Zwischeninformationen während der Ausführung von durch den Prozessor 304 auszuführenden Anweisungen verwendet. Solche Anweisungen, wenn sie in durch den Prozessor 304 abrufbaren nicht transienten Speichermedien gespeichert sind, machen das Computersystem 300 zu einer Spezialmaschine, die darauf spezialisiert ist, die in den Anweisungen vorgegebenen Operationen durchzuführen.
  • In einer Ausführungsform umfasst das Computersystem 300 ferner einen mit dem Bus 302 gekoppelten Nur-Lese-Speicher (ROM) 308 oder eine andere statische Speichereinrichtung zum Speichern statischer Informationen und Anweisungen für den Prozessor 304. Eine Speichereinrichtung 310, beispielsweise eine Magnetplatte, eine optische Platte, ein Solid-State-Speicher oder ein dreidimensionaler Kreuzpunktspeicher, ist vorhanden und mit dem Bus 302 zum Speichern von Informationen und Anweisungen gekoppelt.
  • In einer Ausführungsform ist das Computersystem 300 über den Bus 302 an eine Anzeige 312 gekoppelt, beispielsweise eine Kathodenstrahlröhre (CRT), eine Flüssigkristallanzeige (LCD), eine Plasmaanzeige, eine Leuchtdioden- (LED) Anzeige oder eine organische Leuchtdiodenanzeige (OLED), um Informationen für einen Computernutzer anzuzeigen. Eine Eingabeeinrichtung 314, die alphanumerische und andere Tasten umfasst, ist mit dem Bus 302 gekoppelt, um Informationen und Befehlsauswahlen an den Prozessor 304 zu kommunizieren. Eine andere Art von Nutzereingabeneinrichtung ist eine Cursor-Steuereinheit 316, beispielsweise eine Maus, ein Trackball, eine Anzeige mit Berührungsfunktion, oder Cursor-Richtungstasten zum Kommunizieren von Richtungsinformationen und Befehlsauswahlen an den Prozessor 304 und zum Steuern von Cursor-Bewegungen auf der Anzeige 312. Diese Eingabeeinrichtung verfügt typischerweise über zwei Freiheitsgrade in zwei Achsen, einer ersten Achse (z.B. x-Achse) und einer zweiten Achse (z.B. y-Achse), mit denen die Einrichtung Positionen in einer Ebene festlegen kann.
  • Gemäß einer Ausführungsform werden die vorliegenden Methoden durch ein Computersystem 300 in Reaktion darauf durchgeführt, dass der Prozessor 304 eine oder mehrere Abfolgen aus einer oder mehreren im Hauptspeicher 306 enthaltenen Anweisungen ausführt. Solche Anweisungen werden von einem anderen Speichermedium, beispielsweise der Speichereinrichtung 310, in den Hauptspeicher 306 gelesen. Die Ausführung der im Hauptspeicher 306 enthaltenen Abfolgen von Anweisungen bewirkt, dass der Prozessor 304 die vorliegend beschriebenen Prozessschritte durchführt. In alternativen Ausführungsformen wird anstelle von oder in Kombination mit Softwareanweisungen festverdrahtete Schalttechnik verwendet.
  • Die Bezeichnung „Speichermedien“ bezeichnet vorliegend alle nicht transienten Medien, die Daten und/oder Anweisungen speichern, die eine Maschine veranlassen, auf eine bestimmte Weise zu arbeiten. Zu solchen Speichermedien zählen nichtflüchtige Medien und/oder flüchtige Medien. Zu nichtflüchtigen Medien zählen beispielsweise optische Platten, Magnetplatten, Solid-State-Speicher oder dreidimensionaler Kreuzpunktspeicher, beispielsweise die Speichereinrichtung 310. Zu flüchtigen Medien zählt dynamischer Speicher, beispielsweise der Hauptspeicher 306. Zu gängigen Formen von Speichermedien zählen beispielsweise eine Diskette, eine flexible Platte, eine Festplatte, ein Solid-State-Speicher, ein Magnetband oder jedes andere magnetische Datenspeichermedium, eine CD-ROM, jedes andere optische Datenspeichermedium, jedes physikalische Medium mit Lochmustern, ein RAM, ein PROM und EPROM, ein FLASH-EPROM, NV-RAM oder jeder andere Speicherchip oder jede andere Speicherkassette.
  • Speichermedien unterscheiden sich von Übertragungsmedien, können jedoch mit diesen zusammen verwendet werden. Übertragungsmedien sind an der Übertragung von Informationen zwischen Speichermedien beteiligt. Beispielsweise umfassen Übertragungsmedien Koaxialkabel, Kupferdraht und Glasfaser, darunter auch die Drähte, die im Bus 302 umfasst sind. Die Übertragungsmedien können auch die Form von Schall- oder Lichtwellen haben, wie sie z.B. bei der Funkwellen- und Infrarot-Datenkommunikation entstehen.
  • In einer Ausführungsform sind verschiedene Formen von Medien am Transport einer oder mehrerer Abfolgen aus einer oder mehreren Anweisungen an den Prozessor 304 zur Ausführung beteiligt. Beispielsweise sind die Anweisungen zunächst auf einem Magnetplattenlaufwerk oder Solid-State-Speicher eines entfernten Computers enthalten. Der entfernte Computer lädt die Anweisungen in seinen dynamischen Speicher und sendet die Anweisungen über eine Telefonleitung mittels eines Modems. Ein am Ort des Computersystems 300 befindliches Modem empfängt die Daten über die Telefonleitung und verwendet einen Infrarotsender, um die Daten in ein Infrarotsignal umzuwandeln. Ein Infrarotdetektor empfängt die in dem Infrarotsignal enthaltenen Daten, und geeignete Schalttechnik legt die Daten auf den Bus 302. Der Bus 302 transportiert die Daten zum Hauptspeicher 306, aus dem der Prozessor 304 die Anweisungen abruft, um diese auszuführen. Die durch den Hauptspeicher 306 empfangenen Anweisungen können wahlweise entweder vor oder nach der Ausführung durch den Prozessor 304 in der Speichereinrichtung 310 gespeichert werden.
  • Das Computersystem 300 umfasst zudem eine mit dem Bus 302 gekoppelte Kommunikationsschnittstelle 318. Die Kommunikationsschnittstelle 318 stellt eine Zwei-Wege-Datenkommunikationskopplung mit einer Netzwerkverbindung 320 bereit, die mit einem lokalen Netzwerk 322 verbunden ist. Bei der Kommunikationsschnittstelle 318 handelt es sich beispielsweise um eine ISDN-Karte (Integrated Service Digital Network), ein Kabelmodem, ein Satellitenmodem oder ein Modem zur Bereitstellung einer Datenkommunikationsverbindung mit einer entsprechenden Art von Telefonleitung. Als weiteres Beispiel handelt es sich bei der Kommunikationsschnittstelle 318 um eine LAN-Karte (Local Area Network) zum Bereitstellen einer Datenkommunikationsverbindung mit einem kompatiblen LAN. In einigen Implementierungen werden zudem drahtlose Verbindungen umgesetzt. In jeder dieser Implementierungen sendet und empfängt die Kommunikationsschnittstelle 318 elektrische, elektromagnetische oder optische Signale, die digitale Datenströme enthalten, die verschiedene Arten von Informationen repräsentieren.
  • Die Netzwerkverbindung 320 stellt üblicherweise Datenkommunikation durch ein oder mehrere Netzwerke an andere Dateneinrichtungen bereit. Beispielsweise bietet die Netzwerkverbindung 320 eine Verbindung über das lokale Netzwerk 322 zu einem Host-Computer 324 oder zu einem Cloud-Datenzentrum oder zu Geräten, die von einem Internet-Dienstanbieter (ISP, Internet Service Provider) 326 betrieben werden. Der ISP 326 stellt seinerseits Datenkommunikationsdienste durch das weltweite Paketdaten-Kommunikationsnetzwerk bereit, das heute gemeinhin als das „Internet“ 328 bezeichnet wird. Sowohl das lokale Netzwerk 322 als auch das Internet 328 nutzen elektrische, elektromagnetische oder optische Signale, die digitale Datenströme enthalten. Bei den Signalen durch die verschiedenen Netzwerke und den Signalen über die Netzwerkverbindung 320 und durch die Kommunikationsschnittstelle 318, welche die digitalen Daten an das und von dem Computersystem 300 enthalten, handelt es sich um beispielhafte Formen von Übertragungsmedien. In einer Ausführungsform enthält das Netzwerk 320 die Cloud 202 oder einen Teil der Cloud 202 wie vorstehend beschrieben.
  • Das Computersystem 300 sendet Nachrichten und empfängt Daten, darunter Programmcode, durch das oder die Netzwerke, die Netzwerkverbindung 320 und die Kommunikationsschnittstelle 318. In einer Ausführungsform empfängt das Computersystem 300 Code zur Verarbeitung. Der empfangene Code wird bei Empfang durch den Prozessor 304 ausgeführt und/oder in der Speichereinrichtung 310 oder einem anderen nichtflüchtigen Speicher zur späteren Ausführung gespeichert.
  • Architektur des autonomen Fahrzeugs
  • 4 zeigt eine beispielhafte Architektur 400 für ein autonomes Fahrzeug (z.B. das in 1 gezeigte AV 100). Die Architektur 400 umfasst ein Wahrnehmungsmodul 402 (manchmal bezeichnet als Wahrnehmungsschaltung), ein Planungsmodul 404 (manchmal bezeichnet als Planungsschaltung), ein Steuermodul 406 (manchmal bezeichnet als Steuerschaltung), ein Lokalisierungsmodul 408 (manchmal bezeichnet als Lokalisierungsschaltung) und ein Datenbankmodul 410 (manchmal bezeichnet als Datenbankschaltung). Jedes Modul spielt eine Rolle im Betrieb des AV 100. Zusammen können die Module 402, 404, 406, 408 und 410 Teil des in 1 gezeigten AV-Systems 120 sein. In einigen Ausführungsformen handelt es sich bei jedem der Module 402, 404, 406, 408 und 410 um eine Kombination aus Computersoftware (z.B. auf einem computerlesbaren Medium gespeichertem ausführbarem Code) und Computerhardware (z.B. einem oder mehreren Mikroprozessoren, Mikrocontrollern, anwendungsspezifischen integrierten Schaltungen [ASICs], Hardware-Speichereinrichtungen, anderen Arten integrierter Schaltungen, anderen Arten von Computerhardware oder einer Kombination beliebiger oder aller dieser Dinge).
  • Im Betrieb empfängt das Planungsmodul 404 Daten, die einen Zielort 412 repräsentieren, und bestimmt Daten, die eine Trajektorie 414 (manchmal als Route bezeichnet) repräsentieren, die von dem AV 100 befahren werden kann, um den Zielort 412 zu erreichen (z.B. dort anzukommen). Damit das Planungsmodul 404 die die Trajektorie 414 repräsentierenden Daten bestimmen kann, empfängt das Planungsmodul 404 Daten vom Wahrnehmungsmodul 402, dem Lokalisierungsmodul 408 und dem Datenbankmodul 410.
  • Das Wahrnehmungsmodul 402 identifiziert in der Nähe befindliche physische Objekte mittels eines oder mehrerer Sensoren 121, wie z.B. auch in 1 gezeigt. Die Objekte werden klassifiziert (z.B. in Typen wie beispielsweise Fußgänger, Fahrrad, Automobil, Verkehrszeichen usw. gruppiert), und eine die klassifizierten Objekte 416 umfassende Szenenbeschreibung wird dem Planungsmodul 404 bereitgestellt.
  • Das Planungsmodul 404 empfängt zudem die Position 418 des AV repräsentierende Daten vom Lokalisierungsmodul 408. Das Lokalisierungsmodul 408 bestimmt die AV-Position, indem es Daten von den Sensoren 121 und Daten aus dem Datenbankmodul 410 (z.B. geografische Daten) verwendet, um eine Position zu berechnen. Beispielsweise verwendet das Lokalisierungsmodul 408 Daten von einem GNSS- (Global Navigation Satellite System) Sensor und geografische Daten, um einen Längen- und einen Breitengrad des AV zu berechnen. In einer Ausführungsform umfassen die vom Lokalisierungsmodul 408 verwendeten Daten hochpräzise Karten der geometrischen Eigenschaften der Fahrbahn, Karten, die die Verbindungseigenschaften des Straßennetzes beschreiben, Karten, die die physikalischen Eigenschaften der Fahrbahn beschreiben (z. B. Verkehrsgeschwindigkeit, Verkehrsaufkommen, Anzahl der Fahrspuren für den Auto- und Radverkehr, Fahrspurbreite, Fahrspurrichtungen oder Fahrspurmarkierungstypen und -orte oder Kombinationen davon), sowie Karten, die die räumliche Lage von Straßenmerkmalen wie Fußgängerüberwegen, Verkehrsschildern oder anderen Verkehrssignalen verschiedener Arten beschreiben.
  • Das Steuermodul 406 empfängt die die Trajektorie 414 repräsentierenden Daten und die die AV-Position 418 repräsentierenden Daten und betreibt die Steuerfunktionen 420a-c (z.B. Lenkung, Drosselung, Bremsen, Zündung) des AV so, dass das AV 100 die Trajektorie 414 bis zum Zielort 412 abfährt. Wenn z.B. die Trajektorie 414 eine Linkskurve umfasst, steuert das Steuermodul 406 die Steuerfunktionen 420a-c so, dass der Lenkwinkel der Lenkfunktion das AV 100 zum Linksabbiegen veranlasst und die Drosselung und Bremsung das AV 100 veranlasst, anzuhalten und auf vorbeifahrende Fußgänger oder Fahrzeuge zu warten, bevor die Kurve genommen wird.
  • Eingaben an das autonome Fahrzeug
  • 5 zeigt ein Beispiel für Eingänge 502a-d (z.B. die in 1 gezeigten Sensoren) und Ausgänge 504a-d (z.B. Sensordaten), die vom Wahrnehmungsmodul 402 verwendet werden (4). Bei einem Eingang 502a handelt es sich um ein LiDAR- (Light Detection and Ranging) System (z.B. das in 1 gezeigte LiDAR 123). LiDAR ist eine Technologie, die Licht (z.B. Lichtblitze wie beispielsweise Infrarotlicht) verwendet, um Daten über physische Objekte in ihrer Sichtlinie zu erhalten. Ein LiDAR-System produziert LiDAR-Daten als Ausgang 504a. LiDAR-Daten sind beispielsweise Sammlungen von 3D- oder 2D-Punkten (auch als Punktwolken bekannt), die zur Konstruktion einer Darstellung der Umgebung 190 verwendet werden.
  • Bei einem weiteren Eingang 502b handelt es sich um ein RADAR-System. RADAR ist eine Technologie, die Radiowellen verwendet, um Daten über in der Nähe befindliche physische Objekte zu erhalten. RADAR kann Daten über Objekte gewinnen, die sich nicht in der Sichtlinie eines LiDAR-Systems befinden. Ein RADAR-System 502b produziert RADAR-Daten als Ausgang 504b. RADAR-Daten sind beispielsweise ein oder mehrere elektromagnetische Hochfrequenzsignale, die verwendet weden, um eine Darstellung der Umgebung 190 zu konstruieren.
  • Bei einem weiteren Eingang 502c handelt es sich um ein Kamerasystem. Ein Kamerasystem verwendet eine oder mehrere Kameras (z.B. Digitalkameras, die einen Lichtsensor wie beispielsweise eine ladungsgekoppelte Einrichtung [CCD, charge-coupled device] verwenden), um Informationen über in der Nähe befindliche physische Objekte zu erhalten. Ein Kamerasystem produziert Kameradaten als Ausgang 504c. Kameradaten haben häufig die Form von Bilddaten (z.B. Daten in einem Bilddatenformat wie beispielsweise RAW, JPEG, PNG usw.). In einigen Beispielen verfügt das Kamerasystem über mehrere unabhängige Kameras, z.B. für Stereopsis (räumliches Sehen), welche dem Kamerasystem Tiefenwahrnehmung ermöglicht. Auch wenn die durch das Kamerasystem wahrgenommenen Objekte hier als „nahe“ beschrieben werden, ist dies für das AV relativ. Im Betrieb kann das Kamerasystem so ausgelegt sein, dass es Objekte „sieht“, die weit weg sind und z.B. bis zu einem Kilometer oder mehr vor dem AV liegen. Entsprechend kann das Kamerasystem über Merkmale wie beispielsweise Sensoren und Linsen verfügen, die für die Wahrnehmung weit entfernter Objekte optimiert sind.
  • Bei einem weiteren Eingang 502d handelt es sich um ein System für Verkehrsampelerkennung (TLD, traffic light detection). Ein TLD-System verwendet eine oder mehrere Kameras, um Informationen über Verkehrsampeln, Straßenschilder und andere physische Objekte zu erhalten, die optische Navigationsinformationen liefern. Ein TLD-System produziert TLD-Daten als Ausgang 504d. TLD-Daten haben häufig die Form von Bilddaten (z.B. Daten in einem Bilddatenformat wie beispielsweise RAW, JPEG, PNG usw.). Ein TLD-System unterscheidet sich von einem System mit einer Kamera dadurch, dass bei einem TLD-System eine Kamera mit weitem Sichtfeld (z.B. mit einem Weitwinkelobjektiv oder einem Fischaugenobjektiv) verwendet wird, um Informationen über möglichst viele physische Objekte zu erhalten, die optische Navigationsinformationen liefern, so dass das AV 100 Zugriff auf alle relevanten Navigationsinformationen hat, die von diesen Objekten geliefert werden. Beispielsweise kann der Sichtwinkel des TLD-Systems etwa 120 Grad oder mehr betragen.
  • In einigen Ausführungsformen werden die Ausgänge 504a-d mit Hilfe einer Sensorfusionstechnik kombiniert. Somit werden entweder die einzelnen Ausgänge 504a-d anderen Systemen des AV 100 zur Verfügung gestellt (z.B. einem Planungsmodul 404 wie in 4 gezeigt), oder der kombinierte Ausgang kann den anderen Systemen zur Verfügung gestellt werden, entweder in Form eines einzigen kombinierten Ausgangs oder mehrerer kombinierter Ausgänge desselben Typs (z.B. mittels derselben Kombinationstechnik oder durch Kombination derselben Ausgänge oder beides) oder unterschiedlicher Typen (z.B. mittels jeweils unterschiedlicher Kombinationstechniken oder durch Kombination jeweils unterschiedlicher Ausgänge oder beides). In einigen Ausführungsformen wird eine Frühfusionstechnik verwendet. Eine Frühfusionstechnik ist gekennzeichnet durch das Kombinieren von Ausgängen, bevor ein oder mehrere Datenverarbeitungsschritte auf den kombinierten Ausgang angewendet werden. In einigen Ausführungsformen wird eine Spätfusionstechnik verwendet. Eine Spätfusionstechnik ist gekennzeichnet durch das Kombinieren von Ausgängen, nachdem ein oder mehrere Datenverarbeitungsschritte auf den kombinierten Ausgang angewendet wurden.
  • 6 zeigt ein Beispiel eines LiDAR-Systems 602 (z.B. den in 5 gezeigten Eingang 502a). Das LiDAR-System 602 emittiert Licht 604a-c aus einem Lichtstrahler 606 (z.B. einem Lasersender). Von einem LiDAR-System emittiertes Licht liegt üblicherweise nicht im sichtbaren Spektrum, beispielsweise wird häufig Infrarotlicht verwendet. Ein Teil des emittierten Lichts 604b trifft auf ein physisches Objekt 608 (z.B. ein Fahrzeug) und reflektiert zurück zum LiDAR-System 602. (Von einem LiDAR-System emittiertes Licht durchdringt üblicherweise keine physischen Objekte, z.B. physische Objekte in fester Form). Das LiDAR-System 602 verfügt zudem über einen oder mehrere Lichtdetektoren 610, die das reflektierte Licht erfassen. In einer Ausführungsform erzeugen ein oder mehrere dem LiDAR-System zugehörige Datenverarbeitungssysteme ein Bild 612, welches das Sichtfeld 614 des LiDAR-Systems darstellt. Das Bild 612 umfasst Informationen, die die Begrenzungen 616 eines physischen Objekts 608 darstellen. Auf diese Weise wird das Bild 612 verwendet, um die Begrenzungen 616 eines oder mehrerer physischer Objekte in der Nähe eines AV zu bestimmen.
  • 7 zeigt das LiDAR-System 602 im Betrieb. In dem in dieser Figur gezeigten Szenario empfängt das AV 100 sowohl den Kamerasystemausgang 504c in Form eines Bilds 702 als auch den LiDAR-Systemausgang 504a in Form von LiDAR-Datenpunkten 704. Im Betrieb vergleichen die Datenverarbeitungssysteme des AV 100 das Bild 702 mit den Datenpunkten 704. Insbesondere wird ein im Bild 702 identifiziertes physisches Objekt 706 auch unter den Datenpunkten 704 identifiziert. Auf diese Weise nimmt das AV 100 die Begrenzungen des physischen Objekts auf Grundlage der Kontur und Dichte der Datenpunkte 704 wahr.
  • 8 zeigt weitere Einzelheiten des Betriebs des LiDAR-Systems 602. Wie vorstehend beschrieben, erfasst das AV 100 die Begrenzung eines physischen Objekts auf Grundlage von Eigenschaften der durch das LiDAR-System 602 erfassten Datenpunkte. Wie in 8 gezeigt, reflektiert ein flaches Objekt wie beispielsweise der Boden 802 von einem LiDAR-System 602 emittiertes Licht 804a-d in konsistenter Weise. Anders ausgedrückt, da das LiDAR-System 602 Licht unter Verwendung konsistenter Abstände emittiert, reflektiert der Boden 802 Licht mit den gleichen konsistenten Abständen zurück zum LiDAR-System 602. Während sich das AV 100 über den Boden 802 bewegt, erfasst das LiDAR-System 602 weiter Licht, das vom nächsten gültigen Bodenpunkt 806 reflektiert wird, sofern nichts die Straße behindert. Wenn jedoch ein Objekt 808 die Straße behindert, wird das vom LiDAR-System 602 emittierte Licht 804e-f von den Punkten 810a-b in einer Weise reflektiert, die nicht mit der erwarteten konsistenten Weise übereinstimmt. Aus diesen Informationen kann das AV 100 bestimmen, dass das Objekt 808 vorhanden ist.
  • Wegplanung
  • 9 zeigt ein Blockdiagramm 900 der Beziehungen zwischen Eingängen und Ausgängen eines Planungsmoduls 404 (z.B. wie in 4 gezeigt). Grundsätzlich handelt es sich beim Ausgang eines Planungsmoduls 404 um eine Route 902 von einem Startpunkt 904 (z.B. einem Ausgangspunkt oder Anfangspunkt) bis zu einem Endpunkt 906 (z.B. Zielort oder Endort). Die Route 902 wird üblicherweise durch ein oder mehrere Teilstücke definiert. Ein Teilstück ist beispielsweise eine Strecke, die über zumindest einen Abschnitt einer Straße, Fahrbahn, Autobahn, Durchfahrt oder eines anderen für den Autoverkehr geeigneten physischen Bereichs zurückgelegt werden muss. In einigen Beispielen, z.B. wenn das AV 100 ein geländegängiges Fahrzeug wie ein allradgetriebener (4WD-) oder allradgetriebener (AWD-) PKW, SUV, Pick-up oder dergleichen ist, umfasst die Route 902 „Gelände“-Abschnitte wie unbefestigte Wege oder offene Felder.
  • Zusätzlich zur Route 902 gibt ein Planungsmodul zudem Routenplanungsdaten 908 auf Fahrspurebene aus. Die Routenplanungsdaten 908 auf Fahrspurebene werden verwendet, um Teilstücke der Route 902 auf Grundlage von Bedingungen des Teilstücks zu einer bestimmten Zeit zu durchlaufen. Falls beispielsweise die Route 902 eine mehrspurige Autobahn umfasst, umfassen die Routenplanungsdaten 908 auf Fahrspurebene Trajektorieplanungsdaten 910, die das AV 100 verwenden kann, um unter den mehreren Fahrspuren eine Fahrspur auszuwählen, z.B. danach, ob sich eine Ausfahrt nähert, ob eine oder mehrere der Spuren von anderen Fahrzeugen befahren werden, oder anderen Faktoren, die sich im Verlauf weniger Minuten oder weniger ändern. Ebenso umfassen in einigen Implementierungen die Routenplanungsdaten 908 auf Fahrspurebene Geschwindigkeitseinschränkungen 912, die für ein Teilstück der Route 902 spezifisch sind. Falls beispielsweise das Teilstück Fußgänger oder unerwarteten Verkehr aufweist, können die Geschwindigkeitseinschränkungen 912 das AV 100 auf eine Reisegeschwindigkeit einschränken, die langsamer ist als eine erwartete Geschwindigkeit, z.B. eine auf Geschwindigkeitsbegrenzungsdaten für das Teilstück basierende Geschwindigkeit.
  • In einer Ausführungsform umfassen die Eingänge in das Planungsmodul 404 Datenbankdaten 914 (z.B. von dem in 4 gezeigten Datenbankmodul 410), aktuelle Standortdaten 916 (z.B. die in 4 gezeigte AV-Position 418), Zielortdaten 918 (z.B. für den in 4 gezeigten Zielort 412) und Objektdaten 920 (z.B. die durch das Wahrnehmungsmodul 402 wahrgenommenen klassifizierten Objekte 416 wie in 4 gezeigt). In einigen Ausführungsformen umfassen die Datenbankdaten 914 bei der Planung verwendete Regeln. Die Regeln sind mittels einer formalen Sprache festgelegt, z.B. mittels Boolescher Logik. In jeder Situation, in der sich das AV 100 befindet, sind zumindest einige der Regeln auf die Situation anwendbar. Eine Regel ist auf eine gegebene Situation anwendbar, falls die Regel Bedingungen aufweist, die auf Grundlage für das AV 100 verfügbarer Informationen, z.B. Informationen über die Umgebung, erfüllt sind. Regeln können Priorität haben. Beispielsweise kann eine Regel, die besagt „falls es sich bei der Straße um eine Autobahn handelt, auf die ganz linke Fahrspur wechseln“, eine niedrigere Priorität besitzen als „falls die Ausfahrt noch weniger als eine Meile entfernt ist, auf die ganz rechte Fahrspur wechseln“.
  • 10 zeigt einen gerichteten Graphen 1000, der für Wegplanung verwendet wird, z.B. vom Planungsmodul 404 (4). Grundsätzlich wird ein gerichteter Graph 1000 wie der in 10 gezeigte verwendet, um einen Weg zwischen einem Startpunkt 1002 und einem Endpunkt 1004 zu bestimmen. In der Praxis kann die Entfernung zwischen dem Startpunkt 1002 und dem Endpunkt 1004 relativ groß (z.B. in zwei verschiedenen Ballungsgebieten) oder relativ klein sein (z.B. zwei Kreuzungen, die an einen Stadtblock angrenzen oder zwei Fahrspuren einer mehrspurigen Straße).
  • In einer Ausführungsform weist ein gerichteter Graph 1000 Knoten 1006a-d auf, die verschiedene Standorte zwischen dem Startpunkt 1002 und dem Endpunkt 1004 repräsentieren, die ein AV 100 einnehmen könnte. In einigen Beispielen, z.B. wenn der Startpunkt 1002 und der Endpunkt 1004 verschiedene Ballungsgebiete repräsentieren, repräsentieren die Knoten 1006a-d Teilstücke von Straßen. In einigen Beispielen, z.B. wenn der Startpunkt 1002 und der Endpunkt 1004 verschiedene Standorte auf der gleichen Straße repräsentieren, repräsentieren die Knoten 1006a-d verschiedene Positionen auf dieser Straße. Auf diese Weise umfasst der gerichtete Graph 1000 Informationen unterschiedlicher Granularität. In einer Ausführungsform ist ein gerichteter Graph mit hoher Granularität gleichzeitig ein Teilgraph eines anderen gerichteten Graphen mit größerem Maßstab. Zum Beispiel hat ein gerichteter Graph, bei dem der Startpunkt 1002 und der Endpunkt 1004 weit entfernt sind (z.B. viele Meilen voneinander entfernt), die meisten seiner Informationen in einer niedrigen Granularität und basiert auf gespeicherten Daten, enthält aber auch einige Informationen mit hoher Granularität für den Teil des Graphen, der physische Orte im Sichtfeld des AV 100 darstellt.
  • Die Knoten 1006a-d unterscheiden sich von Objekten 1008a-b, die sich nicht mit einem Knoten überlappen können. In einer Ausführungsform repräsentieren bei niedriger Granularität die Objekte 1008a-b Regionen, die nicht mit einem Auto befahrbar sind, z.B. Bereiche, die keine Straßen oder Verkehrswege aufweisen. Bei hoher Granularität repräsentieren die Objekte 1008a-b physische Objekte im Sichtfeld des AV 100, z.B. andere Autos, Fußgänger oder andere Objekte, mit denen sich das AV 100 nicht den gleichen physischen Raum teilen kann. In einer Ausführungsform sind einige oder alle der Objekte 1008a-b statische Objekte (z.B. ein Objekt, das seine Position nicht ändert, wie eine Straßenlaterne oder ein Strommast) oder dynamische Objekte (z.B. ein Objekt, das seine Position ändern kann, wie ein Fußgänger oder ein anderes Auto).
  • Die Knoten 1006a-d sind durch Kanten 1010a-c verbunden. Wenn zwei Knoten 1006a-b durch eine Kante 1010a verbunden sind, ist es möglich, dass ein AV 100 zwischen dem einen Knoten 1006a und dem anderen Knoten 1006b hin- und herfahren kann, z.B. ohne zu einem Zwischenknoten fahren zu müssen, bevor er am anderen Knoten 1006b ankommt. (Wenn gesagt wird, dass sich ein AV 100 zwischen Knoten bewegt, ist damit gemeint, dass sich das AV 100 zwischen den beiden physischen Positionen bewegt, die durch die jeweiligen Knoten repräsentiert werden.) Die Kanten 1010a-c sind häufig insofern bidirektional, als sich ein AV 100 von einem ersten Knoten zu einem zweiten Knoten oder von dem zweiten Knoten zum ersten Knoten bewegt. In einer Ausführungsform sind die Kanten 1010a-c insofern unidirektional, als sich ein AV 100 von einem ersten Knoten zu einem zweiten Knoten, jedoch nicht von dem zweiten Knoten zum ersten Knoten bewegen kann. Kanten 1010a-c sind unidirektional, wenn sie beispielsweise Einbahnstraßen, einzelne Fahrspuren einer Straße, Fahrbahn oder Autobahn oder andere Merkmale repräsentieren, die aufgrund gesetzlicher oder physischer Einschränkungen nur in einer Richtung befahren werden können.
  • In einer Ausführungsform verwendet das Planungsmodul 404 den gerichteten Graphen 1000, um einen aus Knoten und Kanten gebildeten Weg 1012 zwischen dem Startpunkt 1002 und Endpunkt 1004 zu identifizieren.
  • Eine Kante 1010a-c weist zugehörige Kosten 1014a-b auf. Bei den Kosten 1014a-b handelt es sich um einen Wert, der die Ressourcen repräsentiert, die aufgewendet werden, wenn das AV 100 diese Kante wählt. Eine typische Ressource ist Zeit. Wenn beispielsweise eine Kante 1010a eine physische Entfernung repräsentiert, die das Zweifache einer anderen Kante 1010b beträgt, dann können die zugehörigen Kosten 1014a der ersten Kante 1010a das Zweifache der zugehörigen Kotsen 1014b der zweiten Kante 1010b betragen. Zu anderen Faktoren, die die Zeit beeinflussen, zählen der erwartete Verkehr, die Anzahl an Kreuzungen, Geschwindigkeitsbegrenzung usw. Eine weitere typische Ressource ist Kraftstoffökonomie. Zwei Kanten 1010a-b können die gleiche physische Entfernung repräsentieren, jedoch kann eine Kante 1010a mehr Kraftstoff erfordern als eine andere Kante 1010b, z.B. aufgrund von Straßenbedingungen, erwarteter Wetterlage usw.
  • Wenn das Planungsmodul 404 einen Weg 1012 zwischen dem Startpunkt 1002 und dem Endpunkt 1004 identifiziert, wählt das Planungsmodul 404 üblicherweise einen kostenoptimierten Weg, z.B. den Weg mit den geringsten Gesamtkosten, wenn die einzelnen Kosten der Kanten zusammenaddiert werden.
  • Steuerung des autonomen Fahrzeugs
  • 11 zeigt ein Blockdiagramm 1100 der Eingänge und Ausgänge eines Steuermoduls 406 (z.B. wie in 4 gezeigt). Ein Steuermodul arbeitet in Übereinstimmung mit einer Steuereinheit 1102, die beispielsweise einen oder mehrere Prozessoren (z.B. einen oder mehrere Computerprozessoren wie Mikroprozessoren oder Mikrocontroller oder beides) ähnlich dem Prozessor 304, Kurzzeit- und/oder Langzeit-Datenspeicherung (z.B. Direktzugriffsspeicher oder Flashspeicher oder beides) ähnlich dem Hauptspeicher 306, ROM 308 und eine Speichereinrichtung 210 und im Speicher gespeicherte Anweisungen umfasst, die Arbeitsschritte der Steuereinheit 1102 ausführen, wenn die Anweisungen ausgeführt werden (z.B. durch den einen oder die mehreren Prozessoren).
  • In einer Ausführungsform empfängt die Steuereinheit 1102 Daten, die einen gewünschten Ausgang 1104 repräsentieren. Der gewünschte Ausgang 1104 umfasst üblicherweise eine Geschwindigkeit, z.B. eine Fortbewegungsgeschwindigkeit und eine Fahrtrichtung. Der gewünschte Ausgang 1104 kann beispielsweise auf von einem Planungsmodul 404 (z.B. wie in 4 gezeigt) empfangenen Daten basieren. Gemäß dem gewünschten Ausgang 1104 produziert die Steuereinheit 1102 Daten, die als Drosseleingang 1106 und Lenkeingang 1108 verwendbar sind. Der Drosseleingang 1106 stellt das Ausmaß dar, in dem die Drossel (z.B. Beschleunigungsregelung) eines AV 100 zu betätigen ist, z.B. durch Betätigen des Lenkpedals oder durch Betätigen einer anderen Drosselsteuerung, um den gewünschten Ausgang 1104 zu erhalten. In einigen Beispielen umfasst der Drosseleingang 1106 zudem Daten, die zum Betätigen der Bremse (z.B. Bremsregelung) des AV 100 verwendbar sind. Der Lenkeingang 1108 repräsentiert einen Lenkwinkel, z.B. den Winkel, in dem die Lenksteuerung (z.B. Lenkrad, Lenkwinkelstellglied oder eine andere Funktion zur Steuerung des Lenkwinkels) des AV positioniert werden sollte, um den gewünschten Ausgang 1104 zu erhalten.
  • In einer Ausführungsform empfängt die Steuereinheit 1102 Rückmeldungen, die beim Anpassen der an die Drossel und die Lenkung bereitgestellten Eingänge verwendet wird. Wenn das AV 100 z.B. auf eine Störung 1110 stößt, wie z.B. einen Hügel, wird die gemessene Geschwindigkeit 1112 des AV 100 unter die gewünschte Ausgangsgeschwindigkeit abgesenkt. In einer Ausführungsform wird jeder gemessene Ausgang 1114 der Steuereinheit 1102 bereitgestellt, damit die nötigen Anpassungen vorgenommen werden, z.B. auf Grundlage der Differenz 1113 zwischen der gemessenen Geschwindigkeit und dem gewünschten Ausgang. Der gemessene Ausgang 1114 umfasst gemessene Position 1116, gemessene Geschwindigkeit 1118 (umfassend Fortbewegungsgeschwindigkeit und Fahrtrichtung), gemessene Beschleunigung 1120 und andere durch die Sensoren des AV 100 messbare Ausgänge.
  • In einer Ausführungsform werden Informationen über die Störung 1110 vorab erfasst, z.B. durch einen Sensor wie eine Kamera oder einen LiDAR-Sensor, und einem prädiktiven Rückmeldungsmodul 1122 bereitgestellt. Das prädiktive Rückmeldungsmodul 1122 stellt der Steuereinheit 1102 dann Informationen bereit, die die Steuereinheit 1102 verwenden kann, um entsprechende Anpassungen vorzunehmen. Falls beispielsweise die Sensoren des AV 100 einen Hügel erfassen („sehen“), kann diese Information von der Steuereinheit 1102 verwendet werden, um den Einsatz der Drossel zum geeigneten Zeitpunkt vorzubereiten, um ein deutliches Abbremsen zu vermeiden.
  • 12 zeigt ein Blockdiagramm 1200 der Eingänge, Ausgänge und Komponenten der Steuereinheit 1102. Die Steuereinheit 1102 verfügt über eine Geschwindigkeitsprofileinheit 1202, die den Betrieb einer Drossel-/Bremssteuereinheit 1204 beeinflusst. Beispielsweise instruiert die Geschwindigkeitsprofileinheit 1202 die Drossel-/Bremssteuereinheit 1204 abhängig von z.B. Rückmeldungen, die durch die Steuereinheit 1102 empfangen und durch die Geschwindigkeitsprofileinheit 1202 verarbeitet werden, Beschleunigung oder Abbremsen mittels der Drossel/Bremse 1206 durchzuführen.
  • Die Steuereinheit 1102 verfügt zudem über eine seitliche Spurführungssteuereinheit 1208, die den Betrieb einer Lenksteuereinheit 1210 beeinflusst. Beispielsweise instruiert die seitliche Spurführungssteuereinheit 1208 die Lenksteuereinheit 1210 abhängig von z.B. Rückmeldungen, die durch die Steuereinheit 1102 empfangen und durch die seitliche Spurführungssteuereinheit 1208 verarbeitet werden, die Position des Lenkwinkelstellglieds 1212 anzupassen.
  • Die Steuereinheit 1102 empfängt verschiedene Eingänge, die verwendet werden, um zu bestimmen, wie die Drossel/Bremse 1206 und das Lenkwinkelstellglied 1212 gesteuert werden sollen. Ein Planungsmodul 404 stellt Informationen bereit, die beispielsweise von der Steuereinheit 1102 verwendet werden, um eine Fahrtrichtung zu wählen, wenn das AV 100 den Betrieb aufnimmt, und um zu bestimmen, welches Straßenteilstück zu befahren ist, wenn das AV 100 eine Kreuzung erreicht. Ein Lokalisierungsmodul 408 stellt der Steuereinheit 1102 Informationen bereit, die den aktuellen Standort des AV 100 beschreiben, damit beispielsweise die Steuereinheit 1102 bestimmen kann, ob sich das AV 100 auf Grundlage der Art und Weise, in der die Drossel/Bremse 1206 und das Lenkwinkelstellglied 1212 gesteuert werden, an einem erwarteten Standort befindet. In einer Ausführungsform empfängt die Steuereinheit 1102 Informationen aus anderen Eingängen 1214, z.B. Informationen, die von Datenbanken, Computernetzwerken usw. empfangen werden.
  • Computersystem für Objekterfassung
  • 13A veranschaulicht ein beispielhaftes Sensorsignal 1300 (z.B. ein RADAR-Signal). Insbesondere veranschaulicht 13A die Amplitude (vertikale Achse) des Sensorsignals 1300 im Zeitverlauf (horizontale Achse). Das Signal 1300 umfasst die übertragenen Impulse 1302A, 1302B und 1302C. In einigen Ausführungsformen umfasst das Signal 1300 einen, zwei oder mehr als drei übertragene Impulse. In einigen Ausführungsformen wird das Signal 1300 als Scan bezeichnet. Die übertragenen Impulse 1302A, 1302B und 1302C haben jeweils eine Zeitdauer (Impulsbreite) von τ. In einigen Ausführungsformen sind die Dauern der übertragenen Impulse im Signal 1300 nicht alle gleich. Das Signal 1300 hat eine Impulswiederholperiode (Impulswiederholzeit) von PRT, definiert durch die Zeit vom Beginn eines übertragenen Impulses bis zum Beginn des nächsten übertragenen Impulses. Der Kehrwert der Impulswiederholperiode ist die Impulswiederholfrequenz.
  • Das Signal 1300 umfasst die empfangenen Signale 1304A, 1304B und 1304C, die den Signalen entsprechen, die unmittelbar nach der Übertragung der übertragenen Impulse 1302A, 1302B bzw. 1302C empfangen werden. Beispielsweise ist das empfangene Signal 1304A das Signal, das als Ergebnis des übertragenen Signals 1302A empfangen wird, das von Objekten in der Umgebung um den Sensor in Richtung des Empfängers reflektiert wird. In 13A werden Signale für eine Zeit trx nach der Übertragung der übertragenen Impulse 1302A, 1302B und 1302C empfangen. Die Spitzen 1306A, 1306B und 1306C stellen den Teil der übertragenen Impulse 1302A, 1302B bzw. 1302C dar, der von einem relativ stark reflektierenden Objekt reflektiert wurde. Die Teile der empfangenen Signale 1304A, 1304B und 1304C vor und nach den Spitzen 1306A, 1306B und 1306C können aufgrund von Rauschen ungleich Null sein, beispielsweise Rauschen im Empfänger, In-Band-Signalen aus der Umgebung, die nicht das Ergebnis einer Reflexion der übertragenen Impulse sind, oder Reflexion der übertragenen Impulse von atmosphärischen Elementen in der Umgebung.
  • Die Entfernung des Objekts, die zu den Spitzen 1306A, 1306B und 1306C führt, wird auf Grundlage der Zeit t zwischen der Spitze und dem entsprechenden übertragenen Impuls bestimmt, d.h. der Zeit, die das übertragene Signal benötigt, um zum Objekt und wieder zurück zum Empfänger zu gelangen. Die Entfernung des Objekts ist R = t * c/2.
  • 13B veranschaulicht eine vergrößerte Darstellung des übertragenen Impulses 1302A. Insbesondere ist in 13B das Übertragungssignal oder Trägersignal im übertragenen Impuls 1302A dargestellt. Die Übertragungsfrequenz oder Trägerfrequenz beträgt 1/λ, wobei λ die Wellenlänge des Übertragungssignals ist. In einigen Ausführungsformen haben alle übertragenen Impulse im Signal 1300 die gleiche Übertragungsfrequenz. In einigen Ausführungsformen umfasst das Signal 1300 übertragene Impulse mit unterschiedlichen Übertragungsfrequenzen.
  • Einige Sensoren nutzen den Doppler-Effekt, bei dem die Frequenz eines Signals, das von einem sich bewegenden Objekt reflektiert wird, anders (oder verschoben) ist als die Frequenz des Signals, das auf ein sich bewegendes Objekt trifft. Die Doppler-Frequenz wird durch | f D | = 2 v r λ = 2 v r f t x c 0
    Figure DE102021101206A1_0001
    dargestellt, wobei fD die Doppler-Frequenz, vr die Radialgeschwindigkeit des Objekts, c0 die Lichtgeschwindigkeit und ftx die Übertragungsfrequenz ist. Die Doppler-Frequenz des Objekts wird gemessen, indem die Phase des empfangenen Signals erfasst wird. Bei einem gepulsten Signal wie dem Signal 1300 wird die Phase des empfangenen Signals mit der Pulswiederholfrequenz gemessen (oder abgetastet). Gemäß dem Nyquist-Abtasttheorem kann eine Abtastrate von fs alle Informationen aus einem Signal mit Frequenzen innerhalb des Frequenzfensters zwischen -fs/2 und fs/2 erfassen. Das Fenster hat eine Gesamtbreite von fs. Frequenzen, die außerhalb des Fensters liegen, erzeugen ein Alias mit einer Frequenz innerhalb des Fensters. Man spricht dabei davon, dass Frequenzen außerhalb des Fensters in das Fenster zurückgespiegelt („aliased“) oder gefaltet werden.
  • Bei Systemen, in denen ein erfasstes Signal Frequenzen außerhalb des Fensters haben kann, ist die erfasste Frequenz mehrdeutig. Das heißt, eine erfasste Frequenz erscheint innerhalb des Fensters, kann aber tatsächlich durch eine Frequenz außerhalb des Fensters verursacht sein, die in das Fenster gefaltet wurde.
  • Die der Doppler-Frequenz entsprechende Radialgeschwindigkeit (synonym auch als Entfernungsrate bezeichnet) ist v D = f D c 0 2 f t x .
    Figure DE102021101206A1_0002
    Da die Abtastfrequenz für das Signal 1300 die PRF 2ftx ist, wird die wahre Radialgeschwindigkeit vr durch die Doppler-Abdeckung vun (auch als Entfernungsraten-Fenstergröße bezeichnet) gefaltet, wobei v u n = P R F c 0 2 f t x .
    Figure DE102021101206A1_0003
    Die erfasste Radialgeschwindigkeit ist also v d e t = v r ± N v u n .
    Figure DE102021101206A1_0004
  • Im Allgemeinen beginnt das Doppler-Abdeckungsfenster (auch als Entfernungsratenfenster bezeichnet) wD bei einer anfänglichen Radialgeschwindigkeit v0 und erstreckt sich für die Doppler-Abdeckung vun, so dass wD = (v0,v0+ vun). Die Doppler-Abdeckung vun wird vorliegend als Entfernungsraten-Fenstergröße bezeichnet. In einigen Ausführungsformen gilt v 0 = v u n 2
    Figure DE102021101206A1_0005
    (z.B. ist das Entfernungsratenfenster auf eine Entfernungsrate von 0 m/s zentriert).
  • 14A veranschaulicht eine Ausführungsform, bei der das RADAR-System 502b am AV 100 montiert ist. Das physische Objekt 608 nähert sich dem AV 100 mit der Geschwindigkeit vr (die ein negativer Wert ist, da sich das physische Objekt 608 dem AV 100 nähert, wodurch sich die Entfernung zwischen dem physischen Objekt 608 und dem AV 100 im Zeitverlauf verringert). vr stellt die relative Entfernungsrate zwischen dem AV 100 und dem physischen Objekt 608 dar.
  • 14B veranschaulicht Entfernungsratenfenster w D i ,1
    Figure DE102021101206A1_0006
    für einen ersten Scan durch das RADAR-System 502b. Auf Grundlage der Eigenschaften (z.B. PRF und Trägerfrequenz) des ersten Scans liefert der erste Scan eine Doppler-Abdeckung vun1. Grundsätzlich sind die Entfernungsratenfenster durch die folgende Beziehung definiert: w D i , j = ( v 0 + i v u n j ,   v 0 + ( i + 1 ) v u n j ) ,
    Figure DE102021101206A1_0007
    wobei i der Fensterindex und j der Scan-Index ist.
  • Die tatsächliche Entfernungsrate vr des physischen Objekts 608 wird durch den mit durchgezogener Linie dargestellten Pfeil angezeigt. Wie erkennbar ist, liegt die tatsächliche Entfernungsrate vr außerhalb des Haupt-Doppler-Fensters w D 0,1 .
    Figure DE102021101206A1_0008
    In der in 14B veranschaulichten Ausführungsform fällt die tatsächliche Entfernungsrate vr in das Doppler-Fenster w D 1,1 .
    Figure DE102021101206A1_0009
    Wenn also das physische Objekt 608 vom RADAR-System 502b erfasst wird, wird die tatsächliche Entfernungsrate vr des physischen Objekts 608 in das Haupt-Doppler-Fenster w D 0,1
    Figure DE102021101206A1_0010
    gefaltet, so dass das physische Objekt 608 als mit der Entfernungsrate v d e t 1 = v r + v u n 1
    Figure DE102021101206A1_0011
    erfasst wird. Grundsätzlich hat ein Objekt mit einer Geschwindigkeit vr eine erfasste Entfernungsrate vdet=vr-n▪vun, wobei n der Index des Doppler-Fensters ist, in das die tatsächliche Entfernungsrate vr fällt.
  • 14C veranschaulicht Entfernungsratenfenster w D i ,2
    Figure DE102021101206A1_0012
    für einen zweiten Scan durch das RADAR-System 502b. Auf Grundlage der Eigenschaften (z.B. PRF und Trägerfrequenz) des zweiten Scans liefert der zweite Scan eine Doppler-Abdeckung vun2. In der in 14C veranschaulichten Ausführungsform ist die Doppler-Abdeckung des zweiten Scans größer als die Doppler-Abdeckung des ersten Scans, was durch die Breite der Doppler-Fenster w D i ,2
    Figure DE102021101206A1_0013
    angezeigt wird.
  • Die tatsächliche Entfernungsrate vr des physischen Objekts 608 wird durch den mit durchgezogener Linie dargestellten Pfeil angezeigt. Wie erkennbar ist, liegt die tatsächliche Entfernungsrate vr außerhalb des Haupt-Doppler-Fensters w D 0,2 .
    Figure DE102021101206A1_0014
    In der in 14C veranschaulichten Ausführungsform fällt die tatsächliche Entfernungsrate vr in das Doppler-Fenster w D 1,2 .
    Figure DE102021101206A1_0015
    Wenn also das physische Objekt 608 vom RADAR-System 502b erfasst wird, wird die tatsächliche Entfernungsrate vr des physischen Objekts 608 in das Haupt-Doppler-Fenster w D 0,2
    Figure DE102021101206A1_0016
    gefaltet, so dass das physische Objekt als mit der Entfernungsrate v d e t 2 = v r + v u n 2
    Figure DE102021101206A1_0017
    erfasst wird. Da sich die Doppler-Abdeckung des zweiten Scans von der Doppler-Abdeckung des ersten Scans unterscheidet, unterscheidet sich die erfasste Entfernungsrate des zweiten Scans von der erfassten Entfernungsrate des ersten Scans, auch wenn die tatsächliche Entfernungsrate des physischen Objekts 608 für beide Scans gleich ist. Diese Differenz stellt ein potenzielles Problem dar. Wenn beispielsweise die Differenz in der erfassten Entfernungsrate nicht korrekt berücksichtigt wird, kann die Erfassung des physischen Objekts 608 im zweiten Scan als Erfassung eines anderen Objekts identifiziert oder nicht korrekt mit der Erfassung des physischen Objekts 608 im ersten Scan verknüpft werden (z.B. für Verfolgungszwecke).
  • Die nachfolgenden Methoden können verwendet werden, um die erfasste Entfernungsrate eines Objekts zu entfalten, um die tatsächliche Entfernungsrate des erfassten Objekts zu bestimmen.
  • Die wahre Entfernungsrate kann als v r = v d e t k + N k v u n k
    Figure DE102021101206A1_0018
    ausgedrückt werden, wobei vr die tatsächliche Radialgeschwindigkeit ist, v d e t k
    Figure DE102021101206A1_0019
    die erfasste Geschwindigkeit zu einem durch Index k dargestellten Zeitpunkt ist (der Index k kann auch einem Scan entsprechen), Nk der Index des Fensters ist, in das die tatsächliche Entfernungsrate zu dem durch Index k dargestellten Zeitpunkt fällt, und vunk die Doppler-Abdeckung zu dem durch Index k dargestellten Zeitpunkt ist.
  • Die tatsächliche Entfernungsrate des erfassten Objekts kann geschätzt werden, indem eine akzeptable Lösung für die folgende Gleichung gefunden wird: v r = v d e t 1 + N 1 v u n 1 = v d e t 2 + N 2 v u n 2 ,
    Figure DE102021101206A1_0020
    wobei v d e t 1
    Figure DE102021101206A1_0021
    und v d e t 2
    Figure DE102021101206A1_0022
    die erfassten Entfernungsraten des ersten bzw. zweiten Scans sind, N1 und N2 die Indizes der Fenster sind, in die die tatsächliche Entfernungsrate für den ersten bzw. zweiten Scan fällt, und vun1, und vun2 die Doppler-Abdeckungen für den ersten bzw. zweiten Scan sind.
  • Das Auflösen von Gleichung (1) nach N1 liefert: N 1 = ( v d e t 1 v d e t 2 v u n 2 N d i f f ) / ( v u n 2 v u n 1 ) ,
    Figure DE102021101206A1_0023
    wobei Ndiff = N2 - N1.
  • Gleichung (2) wird für einen Wert von Ndiff gelöst, um N1_calc zu erhalten (z.B. einen berechneten Wert von N1 auf Grundlage des ausgewählten Werts von Ndiff)- Bei zwei aufeinanderfolgenden Scans ist es wahrscheinlich, dass die tatsächliche Entfernungsrate in Fenster fällt, die für beide Scans den gleichen Index haben (z.B. N1 = -1 und N2 = -1), oder in Fenster, die unmittelbar benachbarte Indizes haben (z.B. N1 = 0 and N2 = -1); im ersten Fall Ndiff = 0 und im zweiten Fall Ndiff = -1.
  • Der berechnete Wert von N1 wird nach einem vorgegebenen Kriterium ausgewertet. In einigen Ausführungsformen beinhaltet das Kriterium eine Bedingung, die erfüllt ist, wenn der Absolutwert des berechneten Wertes von N1 kleiner als ein (oder kleiner oder gleich einem) Schwellenwert ist (z.B. 2, 3 oder 4). Zum Beispiel könnte ein Wert von N1 mit einem Absolutwert über dem Schwellenwert einer Entfernungsrate entsprechen, die für einen bestimmten Kontext wahrscheinlich nicht korrekt ist. Im AV-Kontext kann der Schwellenwert z.B. so eingestellt werden, dass er einer erwarteten Höchstgeschwindigkeit anderer Fahrzeuge oder Objekte entspricht, denen das AV mit großer Wahrscheinlichkeit begegnen wird. Ein Wert von N1 oberhalb des Schwellenwerts könnte einer Entfernungsrate entsprechen, die unter den gegebenen Umständen unrealistisch ist (z.B. eine Entfernungsrate, die die maximale wahrscheinliche Relativgeschwindigkeit zwischen zwei Fahrzeugen überschreitet).
  • In einigen Ausführungsformen umfasst das Kriterium eine Bedingung, die erfüllt ist, wenn der berechnete Wert von N1 innerhalb eines Schwellenwertes eines ganzzahligen Wertes liegt. Wie vorstehend beschrieben, stellt N1 einen Index des Fensters dar, in das die tatsächliche Entfernungsrate fällt. In einigen Ausführungsformen sind die Indizes der Fenster ganzzahlige Werte, so dass ein berechneter Wert von N1 , der nicht relativ nahe an einem ganzzahligen Wert liegt, keinen Sinn ergibt und anzeigt, dass die Ndiff, die zur Berechnung des Wertes von N1 verwendet wird, falsch ist (und zu einer falschen Schätzung der tatsächlichen Entfernungsrate führen würde, wenn sie letztendlich wie nachstehend beschrieben verwendet wird). In einigen Ausführungsformen ist das Kriterium erfüllt, wenn die beiden vorstehend beschriebenen Bedingungen erfüllt sind.
  • Wenn der berechnete Wert von N1 nicht dem vorgegebenen Kriterium entspricht, dann wird Gleichung (2) für einen anderen Wert von Ndiff gelöst, um einen anderen berechneten Wert von N1 zu erhalten. In einigen Ausführungsformen wird Gleichung (2) für verschiedene Werte von Ndiff gelöst, bis ein berechneter Wert von N1 erhalten wird, der das vorgegebene Kriterium erfüllt. In einigen Ausführungsformen wird Gleichung (2) für verschiedene Werte von Ndiff gelöst, bis ein berechneter Wert von N1 erhalten wird, der das vorgegebene Kriterium erfüllt, oder bis ein definierter Satz von Werten für Ndiff (z.B. 0, -1, 1) verwendet wurde, je nachdem, was zuerst eintritt.
  • Wenn der berechnete Wert von N1 das vorgegebene Kriterium erfüllt, werden der berechnete Wert von N1 und der zur Berechnung von N1 verwendete Wert von Ndiff zur Berechnung von N2_calc verwendet (z.B. ein berechneter Wert von N2). Der berechnete Wert von N2 wird dann zur Bestimmung (z.B. Schätzung) der tatsächlichen Entfernungsrate gemäß der Gleichung v r _ e s t = v d e t 2 + N 2 _ c a l c v u n 2
    Figure DE102021101206A1_0024
    verwendet.
  • In einigen Ausführungsformen kann die Entfernungsrate direkt aus dem berechneten Wert von N1 abgeschätzt werden (ohne N2_calc zu berechnen) gemäß der Gleichung v r _ e s t = v d e t 1 + N 1 _ c a l c v u n 1 .
    Figure DE102021101206A1_0025
  • Eine beispielhafte Ausführungsform der vorstehend beschriebenen Methode kann in Pseudocode wie folgt dargestellt werden:
  • F u ¨ r   N d i f f = [ 0, 1,1 ]   f u ¨ h r e   a u s
    Figure DE102021101206A1_0026
  • N 1 = ( v d e t 1 v d e t 2 v u n 2 N d i f f ) / ( v u n 2 v u n 1 )
    Figure DE102021101206A1_0027
  • Falls ( | N 1 | < S c h w e l l e n w e r t 1 )  UND ( | N 1 ( a m   n a ¨ c h s t e n   b e i   N 1   l i e g e n d e   G a n z z a h l ) | < S c h w e l l e n w e r t 2 )
    Figure DE102021101206A1_0028
  • N 2 = N 1 + N d i f f
    Figure DE102021101206A1_0029
  • v r _ e s t = v d e t 2 + N 2 v u n 2
    Figure DE102021101206A1_0030
  • Abbruch
  • Man betrachte beispielsweise eine Ausführungsform mit v0= -23m/s, vun1 = 35 m/s, vun2 = 30 m/s, so dass alle Erfassungen für den ersten Scan in das Fenster (-23 m/s, 12 m/s) und alle Erfassungen für den zweiten Scan in das Fenster (-23 m/s, 7 m/s) gefaltet werden.
  • In 14A, wenn das AV 100 still steht und sich das physische Objekt 608 mit einer Geschwindigkeit von 32 m/s auf das AV 100 zubewegt, dann hat das physische Objekt 608 eine tatsächliche Entfernungsrate vr =-32 m/s, die sowohl für den ersten als auch für den zweiten Scan außerhalb des Hauptfensters liegt. In diesem Beispiel beträgt die vom ersten Scan erfasste Entfernungsrate vdet1 =-32 m/s + 35 m/s =3 m/s, und die vom zweiten Scan erfasste Entfernungsrate beträgt v d e t 2 = 32  m/s + 30  m/s = 2  m/s .
    Figure DE102021101206A1_0031
    Wie erkennbar ist, unterscheidet sich die erfasste Entfernungsrate des ersten Scans von der erfassten Entfernungsrate des zweiten Scans, und beide erfassten Entfernungsraten spiegeln nicht die tatsächliche Entfernungsrate des physischen Objekts 608 wider. Wenn Ndiff gleich Null gesetzt und die Gleichung (2) gelöst wird, wird für N1_calc ein Wert von -1 erhalten. Da -1 eine ganze Zahl ist und einen Absolutwert hat, der relativ klein ist (z.B. liegt er unter einem Schwellenwert von 3, was auf Grundlage der erfassten Entfernungsrate und der Doppler-Abdeckung des ersten Scans einer Näherungsentfernungsrate von 102 m/s und einer Trennungsentfernungsrate von 108 m/s entspricht), wird N1 _calc verwendet, um die tatsächliche Entfernungsrate zu schätzen. Mit N1 = 1 und Ndiff = 0 wird N2_calc = -1 erhalten. Die Verwendung von N2_calc = -1 liefert v r = 2 m s + ( 1 ) 30 m s = 32 m s ,
    Figure DE102021101206A1_0032
    was in diesem Beispiel die tatsächliche Entfernungsrate des physischen Objekts 608 ist.
  • Ein weiteres Beispiel: Wenn das AV 100 still steht und sich das physische Objekt 608 mit einer Geschwindigkeit von 9 m/s vom AV 100 wegbewegt, dann hat das physische Objekt 608 eine tatsächliche Entfernungsrate vr = 9 m/s, die beim ersten Scan innerhalb des Hauptfensters und beim zweiten Scan außerhalb des Hauptfensters liegt. In diesem Beispiel beträgt die vom ersten Scan erfasste Entfernungsrate v d e t 1 = 9   m / s ,
    Figure DE102021101206A1_0033
    und die vom zweiten Scan erfasste Entfernungsrate beträgt v d e t 2 = 9 m s 30 m s = 21 m s .
    Figure DE102021101206A1_0034
    Wie erkennbar ist, unterscheidet sich die erfasste Entfernungsrate des ersten Scans von der erfassten Entfernungsrate des zweiten Scans, und nur die erfasste Entfernungsrate des ersten Scans spiegelt die tatsächliche Entfernungsrate des physischen Objekts 608 wider. Wenn Ndiff gleich Null gesetzt und die Gleichung (2) gelöst wird, wird für N1_calcein Wert von -6 erhalten. Obwohl -6 eine ganze Zahl ist, hat sie einen Absolutwert, der relativ groß ist (z.B. größer als ein vordefinierter Schwellenwert). Da der für einen Ndiff-Wert von 0 berechnete N1-Wert nicht den vorgegebenen Kriterien entspricht, wird ein anderer Wert von N1 für einen anderen Wert von Ndiff berechnet. Wenn Ndiff gleich 1 gesetzt wird, ergibt sich ein berechneter N1-Wert von 0, der eine ganze Zahl ist und klein ist. Mit N1 = 0 und Ndiff = 1 wird N2_calc = 1 erhalten. Die Verwendung von  N 2 _ c a l c = 1  liefert  v r = 21 m s + ( 1 ) 30 m s = 9 m s ,
    Figure DE102021101206A1_0035
    was in diesem Beispiel die tatsächliche Entfernungsrate des physischen Objekts 608 ist.
  • In einigen Ausführungsformen können Lösungen für die obige Gleichung (1) auf andere Weise gefunden werden. Im Allgemeinen versucht die Methode, eine Kombination von Werten für N1 und N2 zu finden, die die Einschränkung von Gleichung (1) erfüllt und die vorgegebenen Kriterien entspricht (z.B. N1 und N2 sind die gleiche ganze Zahl oder benachbarte ganze Zahlen). Sobald eine Kombination von N1 und N2 gefunden wurde, die die Einschränkung der Gleichung (1) erfüllt und die die vorgegebenen Kriterien erfüllt, werden der/die N1- und/oder N2-Wert(e) der Kombination verwendet, um die tatsächliche Entfernungsrate des erfassten Objekts zu schätzen (z.B. Entfaltung der erfassten Entfernungsrate gemäß Gleichung (2) unter Verwendung der erfassten Entfernungsrate, der entsprechenden Doppler-Abdeckung und des/der N1- und/oder N2-Wert(e) aus der ausgewählten Kombination).
  • Beispielprozess zum Erfassen von Objekten und Betreiben des Fahrzeugs auf Grundlage der Erfassung der Objekte
  • 15 ist ein Flussdiagramm eines Beispielprozesses 1500 (auch als Verfahren bezeichnet) zum Erfassen von Objekten in der Umgebung und Betreiben des Fahrzeugs auf Grundlage der Erfassung von Objekten. Der Einfachheit halber wird der Prozess 1500 so beschrieben, dass er von einem System aus einem oder mehreren Computern durchgeführt wird, die sich an einem oder mehreren Standorten befinden. Beispielsweise kann das AV-System 120 aus 1 oder das Computersystem 300 aus 3, die gemäß dieser Spezifikation entsprechend programmiert sind, den Prozess 1500 durchführen. Der Prozess 1500 kann verwendet werden, um die vorstehend unter Bezugnahme auf 13A-13B und 14A-14C beschriebenen Techniken zu implementieren.
  • Bei Block 1502 wird ein erstes übertragenes Signal (z.B. Signal 1300; übertragene Impulse 1302A-1302C; ein erster RADAR-Scan; eine Vielzahl elektromagnetischer Impulse mit einer ersten Impulswiederholfrequenz (PRF)) in eine Umgebung übertragen. Das erste übertragene Signal entspricht einer ersten Entfernungsraten-Fenstergröße (z.B. vun1; Doppler-Abdeckung des ersten Scans; die erste Entfernungsraten-Fenstergröße entspricht der ersten PRF). In einigen Ausführungsformen wird das erste übertragene Signal mit einem oder mehreren Sendern übertragen (z.B. Sensoren 121, ein RADAR-Sender, eine LiDAR-Lichtquelle, Ultraschallsensoren, Laufzeit- (TOF-, Time-of-Flight-) Tiefensensoren).
  • In einigen Ausführungsformen basiert eine Entfernungsraten-Fenstergröße (z.B. vun) auf der PRF und der Übertragungsfrequenz des übertragenen Signals ( z .B v u n = P R F c 0 2 f t x ) .
    Figure DE102021101206A1_0036
    In einigen Ausführungsformen umfasst das erste übertragene Signal eine erste Vielzahl von Impulsen mit einer ersten Übertragungsfrequenz und einer ersten Impulswiederholfrequenz, wobei die erste Entfernungsraten-Fenstergröße der ersten Übertragungsfrequenz und der ersten Impulswiederholfrequenz entspricht.
  • Bei Block 1504 wird ein erstes empfangenes Signal (z.B. die empfangenen Signale 1304A-1304C) empfangen. Das erste empfangene Signal umfasst zumindest einen Teil des ersten übertragenen Signals, der von einem Objekt in der Umgebung reflektiert wurde (z.B. 1306A-1306C). In einigen Ausführungsformen wird das erste empfangene Signal mit einem oder mehreren Empfängern (z.B. Sensoren 121, einem RADAR-Empfänger oder einem LiDAR-Empfänger) empfangen.
  • Bei Block 1506 wird eine erste erfasste Entfernungsrate ( z .B v d e t 1 )
    Figure DE102021101206A1_0037
    des Objekts auf Grundlage des ersten empfangenen Signals bestimmt. In einigen Ausführungsformen wird die erste erfasste Entfernungsrate des Objekts unter Verwendung einer Verarbeitungsschaltung (z.B. Computerprozessoren 146 oder Prozessor 304) bestimmt.
  • Bei Block 1508 wird nach dem Übertragen des ersten übertragenen Signals ein zweites übertragenes Signal (z.B. Signal 1300; übertragene Impulse 1302A-1302C; ein zweiter RADAR-Scan; eine Vielzahl elektromagnetischer Impulse mit einer zweiten PRF) in die Umgebung übertragen. Das zweite übertragene Signal entspricht einer zweiten Entfernungsraten-Fenstergröße (z.B. vun2; die zweite Entfernungsraten-Fenstergröße entspricht der zweiten PRF). In einigen Ausführungsformen wird das zweite übertragene Signal unter Verwendung des einen oder der mehreren Sender übertragen. In einigen Ausführungsformen umfasst das zweite übertragene Signal eine zweite Vielzahl von Impulsen mit einer zweiten Übertragungsfrequenz und einer von der ersten Impulswiederholfrequenz verschiedenen zweiten Impulswiederholfrequenz, wobei die zweite Entfernungsraten-Fenstergröße der zweiten Übertragungsfrequenz und der zweiten Impulswiederholfrequenz entspricht.
  • In einigen Ausführungsformen ist die Entfernungsraten-Fenstergröße (z.B. die Doppler-Abdeckung) für die beiden übertragenen Signale unterschiedlich. Beispielsweise unterscheidet sich die erste Entfernungsraten-Fenstergröße von der zweiten Entfernungsraten-Fenstergröße. Die unterschiedlichen Entfernungsraten-Fenstergrößen können aufgrund der Faltung unterschiedliche erfasste Entfernungsraten erzeugen (wenn z.B. die tatsächliche Objektentfernungsrate größer ist als die erste Entfernungsraten-Fenstergröße und die zweite Entfernungsraten-Fenstergröße und die erste und zweite Entfernungsraten-Fenstergröße unterschiedlich sind, wird die tatsächliche Objektentfernungsrate für das erste empfangene Signal mit einer anderen Entfernungsrate in das Fenster der erfassbaren Entfernungen gefaltet als für das zweite empfangene Signal).
  • In einigen Ausführungsformen hat das erste übertragene Signal eine erste Impulswiederholfrequenz und das zweite übertragene Signal eine zweite Impulswiederholfrequenz, die sich von der ersten Impulswiederholfrequenz unterscheidet. In einigen Ausführungsformen ist die Übertragungsfrequenz für das erste übertragene Signal die gleiche wie für das zweite übertragene Signal (z.B. bleibt die Übertragungsfrequenz zwischen Scans gleich). Ein Ändern der PRF kann die Entfernungsraten-Fenstergröße ändern. In einigen Ausführungsformen basiert die erste Entfernungsraten-Fenstergröße auf der ersten Impulswiederholfrequenz, und die zweite Entfernungsraten-Fenstergröße basiert auf der zweiten Impulswiederholfrequenz und unterscheidet sich von der ersten Entfernungsraten-Fenstergröße.
  • Bei Block 1510 wird ein zweites empfangenes Signal (z.B. die empfangenen Signale 1304A-1304C) empfangen. Das zweite empfangene Signal umfasst zumindest einen Teil des zweiten übertragenen Signals, der von dem Objekt in der Umgebung reflektiert wurde (z.B. 1306A-1306C). In einigen Ausführungsformen wird das zweite empfangene Signal unter Verwendung des einen oder der mehreren Empfänger empfangen.
  • Die Sensorscans (z.B. das erste und das zweite übertragene und empfangene Signal) können vom selben Sensor oder von verschiedenen Sensoren stammen.
  • In einigen Ausführungsformen erfolgt das Übertragen des ersten übertragenen Signals mit einem ersten Sender des einen oder der mehreren Sender und das Übertragen des zweiten übertragenen Signals mit einem zweiten Sender des einen oder der mehreren Sender, der sich von dem ersten Sender unterscheidet. In einigen Ausführungsformen erfolgen das Übertragen des ersten übertragenen Signals und das Übertragen des zweiten übertragenen Signals mit demselben Sender des einen oder der mehreren Empfänger. In einigen Ausführungsformen erfolgt das Empfangen des ersten empfangenen Signals mit einem ersten Empfänger des einen oder der mehreren Empfänger und das Empfangen des zweiten empfangenen Signals mit einem zweiten Empfänger des einen oder der mehreren Empfänger, der sich von dem ersten Empfänger unterscheidet. In einigen Ausführungsformen erfolgen das Empfangen des ersten empfangenen Signals und das Empfangen des zweiten empfangenen Signals mit demselben Empfänger des einen oder der mehreren Empfänger.
  • Bei Block 1512 wird eine zweite erfasste Entfernungsrate des Objekts auf Grundlage des zweiten empfangenen Signals bestimmt ( z .B v d e t 2 ) .
    Figure DE102021101206A1_0038
    In einigen Ausführungsformen wird die zweite erfasste Entfernungsrate des Objekts unter Verwendung der Verarbeitungsschaltung bestimmt.
  • Bei Block 1514 wird ein erster Entfernungsraten-Fensterindex (z.B. N1) zumindest teilweise auf Grundlage einer ersten Entfernungsraten-Fensterindexdifferenz (z.B. Ndiff, einer (hypothetischen) Differenz zwischen dem Index des Entfernungsratenfensters, in dem die tatsächliche Entfernungsrate im zweiten Signal vorhanden ist, und dem Index des Entfernungsratenfensters, in dem die tatsächliche Entfernungsrate im ersten Signal vorhanden ist) berechnet. In einigen Ausführungsformen handelt es sich bei der ersten Entfernungsraten-Fensterindexdifferenz um eine ganze Zahl (z.B. -1, 0, 1). In einigen Ausführungsformen wird der erste Entfernungsraten-Fensterindex zumindest teilweise auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz und der ersten erfassten Entfernungsrate ( z .B v d e t 1 ) ,
    Figure DE102021101206A1_0039
    der zweiten erfassten Entfernungsrate ( z .B v d e t 2 ) ,
    Figure DE102021101206A1_0040
    der ersten Entfernungsraten-Fenstergröße (z.B. vun1) und/oder der zweiten Entfernungsraten-Fenstergröße (z.B. vun2) oder einer Kombination aus diesen berechnet. In einigen Ausführungsformen wird der erste Entfernungsraten-Fensterindex unter Verwendung der Verarbeitungsschaltung berechnet.
  • In einigen Ausführungsformen wird der erste Entfernungsraten-Fensterindex gemäß der Gleichung berechnet: N 1 = ( v d e t 1 v d e t 2 v u n 2 N d i f f ) / ( v u n 2 v u n 1 ) ,
    Figure DE102021101206A1_0041
    wobei N1 der erste Entfernungsraten-Fensterindex ist, v d e t 1
    Figure DE102021101206A1_0042
    die erste erfasste Entfernungsrate ist, v d e t 2
    Figure DE102021101206A1_0043
    die zweite erfasste Entfernungsrate ist, vun1 die erste Entfernungsraten-Fenstergröße ist, vun2 die zweite Entfernungsraten-Fenstergröße ist und Ndiff die erste Entfernungsraten-Fensterindexdifferenz ist.
  • Die Berechnung des ersten Entfernungsraten-Fensterindex kann davon abhängig gemacht werden, dass das erste und das zweite empfangene Signal vorgegebene Kriterien erfüllen (z.B. Gating-Kriterien). In einigen Ausführungsformen erfolgt das Berechnen des ersten Entfernungsraten-Fensterindex gemäß einer Bestimmung, dass Gating-Kriterien erfüllt sind, wobei die Gating-Kriterien auf dem ersten empfangenen Signal und dem zweiten empfangenen Signal basieren. Gating-Kriterien können auf Sensorkoordinaten (Entfernung und Winkel) oder globalen Koordinaten (euklidische Position) des erfassten Objekts basieren. Beispielsweise muss die erfasste Entfernung und/oder der erfasste Winkel des Objekts im ersten und im zweiten empfangenen Signal innerhalb einer Schwellenentfernung und/oder eines Schwellenwinkels voneinander liegen. In einigen Ausführungsformen werden die vorliegend beschriebenen Schritte zur Entfaltung der Entfernungsrate an allen zugehörigen Erfassungspaaren durchgeführt (z.B. Erfassungen aus dem ersten und dem zweiten empfangenen Signal, die die Gating-Kriterien erfüllen). In einigen Ausführungsformen wird die Entfaltung nur an dem Erfassungspaar durchgeführt, das die geringsten Kosten verursacht (z.B. das Erfassungspaar mit der engsten räumlichen Beziehung).
  • Da die erfasste Entfernungsrate gefaltet (und damit falsch) sein kann und zu verpassten Zuordnungen führen kann (z.B. Erfassungen, die zugeordnet werden sollten, aber eine Differenz in der erfassten Entfernungsrate aufweisen), kann die erfasste Entfernungsrate bei der Bewertung der Gating-Kriterien ignoriert werden. In einigen Ausführungsformen basieren die Gating-Kriterien nicht auf der ersten erfassten Entfernungsrate oder der zweiten erfassten Entfernungsrate.
  • Bei Block 1516 wird bestimmt, ob der erste Entfernungsraten-Fensterindex vordefinierte Kriterien erfüllt (z.B. ob der Index innerhalb eines vordefinierten Bereichs eines ganzzahligen Werts wie -1,0 oder 1 liegt).
  • Bei Block 1518 wird gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien erfüllt, zumindest teilweise auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz eine geschätzte Entfernungsrate berechnet. In einigen Ausführungsformen wird die geschätzte Entfernungsrate unter Verwendung der Verarbeitungsschaltung berechnet.
  • In einigen Ausführungsformen wird die geschätzte Entfernungsrate gemäß der Gleichung berechnet: v r _ e s t = v d e t 2 + N 2 v u n 2 ,
    Figure DE102021101206A1_0044
    wobei N2 = N1 + Ndiff, vr_est die geschätzte Entfernungsrate ist, v d e t 2
    Figure DE102021101206A1_0045
    die zweite erfasste Entfernungsrate ist, N1 der erste Entfernungsraten-Fensterindex ist, Ndiff die erste Entfernungsraten-Fensterindexdifferenz ist und vun2 die zweite Entfernungsraten-Fenstergröße ist. In einigen Ausführungsformen gehen die Methoden (z.B. Algorithmus(/men) davon aus, dass sich die Entfernungsrate des erfassten Objekts vom ersten empfangenen Signal bis zum zweiten empfangenen Signal nicht signifikant ändert (z.B. konstant oder nahezu konstant ist) (z.B. hat das Objekt von Scan zu Scan keine signifikante Entfernungsbeschleunigung oder Änderung der Entfernungsrate).
  • Gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien nicht erfüllt, wird auf die Berechnung einer geschätzten Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz verzichtet (z.B. berechnet das System keine geschätzte Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz und kehrt zu Block 1514 zurück, um einen neuen Entfernungsraten-Fensterindex auf Grundlage einer anderen Entfernungsraten-Fensterindexdifferenz zu berechnen).
  • In einigen Ausführungsformen wird gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien nicht erfüllt, ein zweiter Entfernungsraten-Fensterindex für eine andere Entfernungsraten-Fensterindexdifferenz berechnet, um zu versuchen, einen Entfernungsraten-Fensterindex zu finden, der die vordefinierten Kriterien erfüllt. Beispielsweise wird gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien nicht erfüllt, ein zweiter Entfernungsraten-Fensterindex auf Grundlage einer zweiten Entfernungsraten-Fensterindexdifferenz (z.B. eine andere Entfernungsraten-Fensterindexdifferenz; ein anderer Wert von Ndiff) berechnet. In einigen Ausführungsformen wird der zweite Entfernungsraten-Fensterindex auf Grundlage der zweiten Entfernungsraten-Fensterindexdifferenz und der ersten erfassten Entfernungsrate, der zweiten erfassten Entfernungsrate, der ersten Entfernungsraten-Fenstergröße und/oder der zweiten Entfernungsraten-Fenstergröße oder einer Kombination aus diesen berechnet. In einigen Ausführungsformen wird der zweite Entfernungsraten-Fensterindex unter Verwendung der Verarbeitungsschaltung berechnet. Gemäß einer Bestimmung, dass der zweite Entfernungssraten-Fensterindex die vordefinierten Kriterien erfüllt (z.B. der zweite Entfernungsraten-Fensterindex innerhalb eines vordefinierten Bereichs eines ganzzahligen Werts wie -1,0 oder 1 liegt), wird eine geschätzte Entfernungsrate auf Grundlage der zweiten Entfernungsraten-Fensterindexdifferenz berechnet. In einigen Ausführungsformen werden der zweite Entfernungsraten-Fensterindex und/oder die geschätzte Entfernungsrate unter Verwendung der Verarbeitungsschaltung berechnet.
  • Einer oder mehrere der in den Blöcken 1514, 1516 und 1518 beschriebenen Arbeitsschritte (z.B. Entfaltung der Entfernungsrate; Berechnen des Entfernungsraten-Fensterindex und der geschätzten Entfernungsrate) können außerhalb eines herkömmlichen Verfolgungsalgorithmus (z.B. eines Kalman-Filters) oder eines Verfolgungsmoduls durchgeführt werden, wobei die Erfassung(en) und die entfaltete(n) Entfernungsrate(n) (z.B. die geschätzte(n) Entfernungsrate(n)) dann einem Verfolger zur Verfügung gestellt werden. In einigen Ausführungsformen wird die geschätzte Entfernungsrate an eine Verfolgungsschaltung übertragen. In einigen Ausführungsformen wird die geschätzte Entfernungsrate unter Verwendung der Verarbeitungsschaltung an die Verfolgungsschaltung übertragen.
  • Erfassungen können einander zugeordnet werden, wenn ihre entfalteten Entfernungsraten übereinstimmen. In einigen Ausführungsformen werden gemäß einer Bestimmung, dass die geschätzte Entfernungsrate (z.B. der Erfassung des ersten empfangenen Signals und/oder des zweiten empfangenen Signals) und eine geschätzte Entfernungsrate eines dritten empfangenen Signals übereinstimmende Kriterien erfüllen, eine Erfassung des zweiten empfangenen Signals einer Erfassung des dritten empfangenen Signals zugeordnet.
  • Es kann eine Entfernungsprüfung durchgeführt werden, um zu bestimmen, ob die Erfassungen einander zuzuordnen sind. Eine Entfernungsprüfung kann Vorhersagen einer aktuellen Entfernung auf Grundlage früherer Entfernungs- und Entfernungsratenwerte umfassen. Der vorhergesagte Bereich kann z.B. nach der folgenden Gleichung bestimmt werden: E n t f e r n u n g V o r h e r g e s a g t 2 = v r _ e s t 1 Z y k l u s z e i t + E n t f e r n u n g 1 ,
    Figure DE102021101206A1_0046
    wobei Entfernung1 die geschätzte (z.B. erfasste oder gefilterte) Entfernung des Objekts aus dem ersten empfangenen Signal (z.B. dem ersten Scan) ist, Zykluszeit die Zeit zwischen dem ersten empfangenen Signal und dem zweiten empfangenen Signal (z.B. die Zeit zwischen den Scans) ist und v r _ e s t 1
    Figure DE102021101206A1_0047
    die geschätzte Entfernungsrate aus dem ersten Signal ist.
  • Wenn die vorhergesagte Entfernung nicht mit der aktuell erfassten Entfernung übereinstimmt, werden die Erfassungen nicht zugeordnet. Beispielsweise werden die Erfassungen nicht zugeordnet, wenn die folgende Beziehung gilt: |EentfernungVorhergesagt2-Entfernung2| > ΔEntfernungSchwellenwert,wobei Entfernung2 die geschätzte (z.B. erfasste ) Entfernung des Objekts auf Grundlage des zweiten empfangenen Signals ist und ΔEntfernungSchwellenwert die maximal zulässige Differenz zwischen der vorhergesagten Entfernung und der erfassten Entfernung ist.
  • In einigen Ausführungsformen ist die geschätzte Entfernungsrate eine zweite geschätzte Entfernungsrate, und eine vorhergesagte Entfernung wird auf Grundlage einer ersten erfassten Entfernung und einer ersten geschätzten Entfernungsrate bestimmt, die auf dem ersten empfangenen Signal (und z.B. nicht auf dem zweiten empfangenen Signal) basieren. Eine zweite erfasste Entfernung wird auf Grundlage des zweiten empfangenen Signals bestimmt; und gemäß einer Bestimmung, dass eine Differenz zwischen der vorhergesagten Entfernung und der zweiten erfassten Entfernung einen Entfernungsschwellenwert überschreitet, wird das Zuordnen des zweiten empfangenen Signals zu dem ersten empfangenen Signal nicht durchgeführt.
  • Erfassungen, bei denen die erfasste Entfernungsrate entfaltet wurde, können markiert werden. In einigen Ausführungsformen wird gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien erfüllt und die erste Entfernungsraten-Fensterindexdifferenz nicht Null ist, die geschätzte Entfernungsrate als auf einer von Null verschiedenen Entfernungsraten-Fensterindexdifferenz basierend angezeigt.
  • Ein autonomes Fahrzeug kann anhand der in Block 1518 berechneten geschätzten Entfernungsrate gesteuert werden. In einigen Ausführungsformen wird das autonome Fahrzeug unter Verwendung einer Steuerschaltung gesteuert.
  • In der vorstehenden Beschreibung wurden Ausführungsformen der Erfindung unter Bezugnahme auf zahlreiche konkrete Einzelheiten beschrieben, die von Implementierung zu Implementierung variieren können. Entsprechend sind die Beschreibung und die Zeichnungen als veranschaulichend und nicht einschränkend anzusehen. Der einzige und ausschließliche Indikator für den Umfang der Erfindung und das, was die Anmelder als Umfang der Erfindung beabsichtigen, ist der wörtliche und äquivalente Umfang des Satzes von Ansprüchen, die aus dieser Anmeldung hervorgehen, in der spezifischen Form, in der diese Ansprüche ausgegeben werden, einschließlich jeder späteren Korrektur. Alle hierin ausdrücklich festgelegten Definitionen von Bezeichnungen, die in solchen Ansprüchen enthalten sind, gelten für die Bedeutung der in den Ansprüchen verwendeten Bezeichnungen. Wenn in der vorstehenden Beschreibung oder in den folgenden Ansprüchen die Bezeichnung „ferner umfassend“ verwendet wird, kann das, was auf diesen Satz folgt, ein zusätzlicher Schritt oder eine zusätzliche Entität oder ein Unterschritt/eine Untereinheit eines zuvor erwähnten Schritts oder einer Entität sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62965409 [0001]

Claims (21)

  1. Verfahren, umfassend: unter Verwendung eines oder mehrerer Sender erfolgendes Übertragen eines ersten übertragenen Signals in eine Umgebung, wobei das erste übertragene Signal einer ersten Entfernungsraten-Fenstergröße entspricht, unter Verwendung eines oder mehrerer Empfänger erfolgendes Empfangen eines ersten empfangenen Signals, das zumindest einen Teil des ersten übertragenen Signals aufweist, der von einem Objekt in der Umgebung reflektiert wurde, unter Verwendung einer Verarbeitungsschaltung erfolgendes Bestimmen einer ersten erfassten Entfernungsrate des Objekts auf Grundlage des ersten empfangenen Signals, nach dem Übertragen des ersten übertragenen Signals unter Verwendung des einen oder der mehreren Sender erfolgendes Übertragen eines zweiten übertragenen Signals in die Umgebung, wobei das zweite übertragene Signal einer zweiten Entfernungsraten-Fenstergröße entspricht, unter Verwendung des einen oder der mehreren Empfänger erfolgendes Empfangen eines zweiten empfangenen Signals, das zumindest einen Teil des zweiten übertragenen Signals aufweist, der von dem Objekt in der Umgebung reflektiert wurde, unter Verwendung der Verarbeitungsschaltung erfolgendes Bestimmen einer zweiten erfassten Entfernungsrate des Objekts auf Grundlage des zweiten empfangenen Signals, unter Verwendung der Verarbeitungsschaltung erfolgendes Berechnen eines ersten Entfernungsraten-Fensterindex auf Grundlage einer ersten Entfernungsraten-Fensterindexdifferenz, der ersten erfassten Entfernungsrate, der zweiten erfassten Entfernungsrate, der ersten Entfernungsraten-Fenstergröße und der zweiten Entfernungsraten-Fenstergröße, gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex vordefinierte Kriterien erfüllt, unter Verwendung der Verarbeitungsschaltung erfolgendes Berechnen einer geschätzten Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz und gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien nicht erfüllt, Verzichten auf das Berechnen einer geschätzten Entfernungsrate auf Grundlage der ersten Entfernungsraten-Fensterindexdifferenz.
  2. Verfahren nach Anspruch 1, wobei die erste Entfernungsraten-Fensterindexdifferenz eine ganze Zahl ist.
  3. Verfahren nach einem der Ansprüche 1 bis 2, wobei: das erste übertragene Signal eine erste Vielzahl von Impulsen mit einer ersten Übertragungsfrequenz und einer ersten Impulswiederholfrequenz umfasst, wobei die erste Entfernungsraten-Fenstergröße der ersten Übertragungsfrequenz und der ersten Impulswiederholfrequenz entspricht, und das zweite übertragene Signal eine zweite Vielzahl von Impulsen mit einer zweiten Übertragungsfrequenz und einer von der ersten Impulswiederholfrequenz verschiedenen zweiten Impulswiederholfrequenz umfasst, wobei die zweite Entfernungsraten-Fenstergröße der zweiten Übertragungsfrequenz und der zweiten Impulswiederholfrequenz entspricht.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei der erste Bereichsratenfensterindex gemäß der Gleichung N 1 = ( v d e t 1 v d e t 2 v u n 2 N d i f f ) / ( v u n 2 v u n 1 )
    Figure DE102021101206A1_0048
    berechnet wird, wobei N1 der erste Entfernungsraten-Fensterindex ist, v d e t 1
    Figure DE102021101206A1_0049
    die erste erfasste Entfernungsrate ist, v d e t 2
    Figure DE102021101206A1_0050
    die zweite erfasste Entfernungsrate ist, vun1 die erste Entfernungsraten-Fenstergröße ist, vun2 die zweite Entfernungsraten-Fenstergröße ist und Ndiff die erste Entfernungsraten-Fensterindexdifferenz ist.
  5. Verfahren nach einem der Ansprüche 1 bis 4, wobei die geschätzte Entfernungsrate gemäß der Gleichung v r _ e s t = v d e t 2 + N 2 v u n 2
    Figure DE102021101206A1_0051
    vun2 berechnet wird, wobei vr_est die geschätzte Entfernungsrate ist, v d e t 2
    Figure DE102021101206A1_0052
    die zweite erfasste Entfernungsrate ist, N2 = N1 + Ndiff, N1 der erste Entfernungsraten-Fensterindex ist, Ndiff die erste Entfernungsraten-Fensterindexdifferenz ist und vun2 die zweite Entfernungsraten-Fenstergröße ist.
  6. Verfahren nach einem der Ansprüche 1 bis 5, ferner umfassend: gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien nicht erfüllt, unter Verwendung der Verarbeitungsschaltung erfolgendes Berechnen eines zweiten Entfernungsraten-Fensterindex auf Grundlage einer zweiten Entfernungsraten-Fensterindexdifferenz und gemäß einer Bestimmung, dass der zweite Entfernungsraten-Fensterindex die vordefinierten Kriterien erfüllt, unter Verwendung der Verarbeitungsschaltung erfolgendes Berechnen einer geschätzten Entfernungsrate auf Grundlage der zweiten Entfernungsraten-Fensterindexdifferenz.
  7. Verfahren nach einem der Ansprüche 1 bis 6, wobei sich die erste Entfernungsraten-Fenstergröße von der zweiten Entfernungsraten-Fenstergröße unterscheidet.
  8. Verfahren nach einem der Ansprüche 1 bis 7, wobei das erste übertragene Signal eine erste Impulswiederholfrequenz und das zweite übertragene Signal eine zweite Impulswiederholfrequenz aufweist, die sich von der ersten Impulswiederholfrequenz unterscheidet.
  9. Verfahren nach Anspruch 8, wobei die erste Entfernungsraten-Fenstergröße auf der ersten Impulswiederholfrequenz basiert und wobei die zweite Entfernungsraten-Fenstergröße auf der zweiten Impulswiederholfrequenz basiert und sich von der ersten Entfernungsraten-Fenstergröße unterscheidet.
  10. Verfahren nach einem der Ansprüche 1 bis 9, ferner umfassend: unter Verwendung der Verarbeitungsschaltung erfolgendes Übertragen der geschätzten Entfernungsrate an eine Verfolgungsschaltung.
  11. Verfahren nach einem der Ansprüche 1 bis 10, wobei das Berechnen des ersten Entfernungsraten-Fensterindex gemäß einer Bestimmung erfolgt, dass Gating-Kriterien erfüllt sind, wobei die Gating-Kriterien auf dem ersten empfangenen Signal und dem zweiten empfangenen Signal basieren.
  12. Verfahren nach Anspruch 11, wobei die Gating-Kriterien nicht auf der ersten erfassten Entfernungsrate oder der zweiten erfassten Entfernungsrate basieren.
  13. Verfahren nach einem der Ansprüche 1 bis 12, ferner umfassend: gemäß einer Bestimmung, dass die geschätzte Entfernungsrate und eine geschätzte Entfernungsrate eines dritten empfangenen Signals übereinstimmende Kriterien erfüllen, erfolgendes Zuordnen einer Erfassung des zweiten empfangenen Signals zu einer Erfassung des dritten empfangenen Signals.
  14. Verfahren nach einem der Ansprüche 1 bis 13, wobei die geschätzte Entfernungsrate eine zweite geschätzte Entfernungsrate ist, wobei das Verfahren ferner Folgendes umfasst: Bestimmen einer vorhergesagten Entfernung auf Grundlage einer ersten erfassten Entfernung und einer ersten geschätzten Entfernungsrate, die auf dem ersten empfangenen Signal basieren, Bestimmen einer zweiten erfassten Entfernung auf Grundlage des zweiten empfangenen Signals und gemäß einer Bestimmung, dass eine Differenz zwischen der vorhergesagten Entfernung und der zweiten erfassten Entfernung einen Entfernungsschwellenwert überschreitet, Verzichten auf das Zuordnen des zweiten empfangenen Signals zu dem ersten empfangenen Signal.
  15. Verfahren nach einem der Ansprüche 1 bis 14, ferner umfassend: gemäß einer Bestimmung, dass der erste Entfernungsraten-Fensterindex die vordefinierten Kriterien erfüllt und die erste Entfernungsraten-Fensterindexdifferenz nicht Null ist, erfolgendes Anzeigen, dass die geschätzte Entfernungsrate auf einer von Null verschiedenen Entfernungsraten-Fensterindexdifferenz basiert.
  16. Verfahren nach einem der Ansprüche 1 bis 15, wobei das Empfangen des ersten empfangenen Signals mit einem ersten Empfänger des einen oder der mehreren Empfänger erfolgt und das Empfangen des zweiten empfangenen Signals mit einem zweiten Empfänger des einen oder der mehreren Empfänger erfolgt, der sich von dem ersten Empfänger unterscheidet.
  17. Verfahren nach einem der Ansprüche 1 bis 15, wobei das Empfangen des ersten empfangenen Signals und das Empfangen des zweiten empfangenen Signals mit demselben Empfänger des einen oder der mehreren Empfänger erfolgen.
  18. Verfahren nach einem der Ansprüche 1 bis 17, ferner umfassend: unter Verwendung einer Steuerschaltung erfolgendes Steuern eines autonomen Fahrzeugs unter Verwendung der geschätzten Entfernungsrate.
  19. System, umfassend: einen oder mehrere Computerprozessoren und ein oder mehrere Speichermedien, die Anweisungen speichern, die bei Ausführung durch den einen oder die mehreren Computerprozessoren die Durchführung des Verfahrens nach einem der Ansprüche 1 bis 18 bewirken.
  20. Ein oder mehrere Speichermedien, die Anweisungen speichern, die bei Ausführung durch eine oder mehrere Datenverarbeitungseinrichtungen die Durchführung des Verfahrens nach einem der Ansprüche 1 bis 18 bewirken.
  21. Einrichtung, die Mittel zum Durchführen des Verfahrens nach einem der Ansprüche 1 bis 18 umfasst.
DE102021101206.6A 2020-01-24 2021-01-21 Auflösung von entfernungsratenmehrdeutigkeit in sensorrückmeldungen Pending DE102021101206A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202062965409P 2020-01-24 2020-01-24
US62/965,409 2020-01-24

Publications (1)

Publication Number Publication Date
DE102021101206A1 true DE102021101206A1 (de) 2021-07-29

Family

ID=74859000

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021101206.6A Pending DE102021101206A1 (de) 2020-01-24 2021-01-21 Auflösung von entfernungsratenmehrdeutigkeit in sensorrückmeldungen

Country Status (5)

Country Link
US (1) US11814044B2 (de)
KR (1) KR20210095803A (de)
CN (1) CN113176584A (de)
DE (1) DE102021101206A1 (de)
GB (1) GB2596376B (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11822005B2 (en) * 2021-02-26 2023-11-21 Nxp B.V. Radar communications with offset chirp interval time
US11815585B2 (en) 2021-02-27 2023-11-14 Nxp Usa, Inc. Method and system for time division multiplexing MIMO radar doppler compensation using spurious angle spectrum hypothesis tests
US20220334240A1 (en) * 2021-04-19 2022-10-20 Nxp B.V. Radar communications with disparate pulse repetition intervals
EP4224208A1 (de) * 2022-02-03 2023-08-09 Volvo Truck Corporation Optimierung von anhängermessungen

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2919931A1 (fr) * 2007-08-08 2009-02-13 Thales Sa Procede et dispositif pour determiner la reponse impulsionnelle de canaux de propagation impliquant des emetteurs, des reflecteurs et des capteurs fixes ou mobiles
US8280560B2 (en) 2008-07-24 2012-10-02 GM Global Technology Operations LLC Adaptive vehicle control system with driving style recognition based on headway distance
US8344942B2 (en) 2010-04-29 2013-01-01 Raytheon Company System and method for resolving ambiguity in radar, lidar, and acoustic systems
US8854254B2 (en) * 2011-01-20 2014-10-07 Sandia Corporation Ultra-wideband short-pulse radar with range accuracy for short range detection
US8654005B2 (en) * 2011-10-14 2014-02-18 Raytheon Company Methods for resolving radar ambiguities using multiple hypothesis tracking
US9835723B2 (en) 2014-10-30 2017-12-05 Nxp B.V. Radar ambiguity resolving detector
US10365359B2 (en) * 2016-05-06 2019-07-30 Raytheon Company Ambiguous radar range resolution using range lookup table
DE102017207317B4 (de) 2017-05-02 2022-03-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren
US11789138B2 (en) * 2019-06-27 2023-10-17 Intel Corporation Methods and apparatus to implement compact time-frequency division multiplexing for MIMO radar
US11448744B2 (en) * 2019-12-31 2022-09-20 Woven Planet North America, Inc. Sequential doppler focusing

Also Published As

Publication number Publication date
US20210229662A1 (en) 2021-07-29
KR20210095803A (ko) 2021-08-03
GB202100844D0 (en) 2021-03-10
GB2596376B (en) 2023-11-22
CN113176584A (zh) 2021-07-27
GB2596376A (en) 2021-12-29
US11814044B2 (en) 2023-11-14

Similar Documents

Publication Publication Date Title
DE102020129854A1 (de) Sequenzielle fusion zur 3d-objektdetektion
DE112020000487T5 (de) Automatisches wählen von datenproben zur annotation
DE102020111938A1 (de) Systeme und verfahren zum planen und aktualisieren einer fahrzeugtrajektorie
DE102020131323A1 (de) Kamera-zu-lidar-kalibration und -validierung
DE102020133982A1 (de) Automatisierte objektannotation unter verwendung fusionierter kamera-/lidar-datenpunkte
DE102021101758A1 (de) Ampeldetektionssystem für ein fahrzeug
DE102021100584A1 (de) Erfassung und klassifizierung von sirenensignalen und lokalisierung von sirenensignalquellen
DE102020111682A1 (de) Systeme und verfahren zum implementieren einer autonomen fahrzeugreaktion auf ein sensorversagen
DE102020133744A1 (de) Vordergrundextraktion unter verwendung von flächenanpassung
DE112019006548T5 (de) Lenkwinkelkalibrierung
DE112020000110T5 (de) Nutzung von in fahrzeugen erfassten fahrgastaufmerksamkeitsdaten fürlokalisierungs- und standortbezogene dienste
DE112019004832T5 (de) Betrieb eines Fahrzeugs unter Verwendung von Bewegungsplanung mit maschinellem Lernen
DE112019006119T5 (de) Erstellung von bewegungsgraphen und routenplanung auf fahrspurebene
DE112020000653T5 (de) Zusammenführen von daten aus mehreren lidar-vorrichtungen
DE102021101206A1 (de) Auflösung von entfernungsratenmehrdeutigkeit in sensorrückmeldungen
DE112019006128T5 (de) Systeme und verfahren zum validieren von sensorkalibrierung
DE102021108068A1 (de) Schätzung von bodenebenen unter verwendung eines semantischen lidar-netzes
DE102020135000A1 (de) Systeme und verfahren zur verkehrsampelerfassung
DE112019004633T5 (de) Systeme und verfahren zum verbessern des fahrzeugbetriebs unter verwendung beweglicher sensoren
DE112019006282T5 (de) Betrieb eines Fahrzeugs unter Verwendung mehrerer Bewegungsbeschränkungen
DE102020126217A1 (de) Navigieren von Mehrwege-Stopp-Kreuzungen mit einem autonomen Fahrzeug
DE102020121532A1 (de) Sensorgehäuse
DE112020002695T5 (de) Autonomer fahrzeugbetrieb mittels linearer temporaler logik
DE102020120873A1 (de) Lokalisierung basierend auf vordefinierten merkmalen der umgebung
DE102021124913A1 (de) Metrik-backpropagation für die beurteilung der leistung von untersystemen