DE112020004763T5 - Techniken zum Detektieren von Überlagerungsstörungen in bildgebenden LiDAR-Sensoren - Google Patents

Techniken zum Detektieren von Überlagerungsstörungen in bildgebenden LiDAR-Sensoren Download PDF

Info

Publication number
DE112020004763T5
DE112020004763T5 DE112020004763.6T DE112020004763T DE112020004763T5 DE 112020004763 T5 DE112020004763 T5 DE 112020004763T5 DE 112020004763 T DE112020004763 T DE 112020004763T DE 112020004763 T5 DE112020004763 T5 DE 112020004763T5
Authority
DE
Germany
Prior art keywords
point
light pulses
points
spatial
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112020004763.6T
Other languages
English (en)
Inventor
John Day Allen
Dongyi Liao
Mark A. McCord
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cepton Technologies Inc
Original Assignee
Cepton Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cepton Technologies Inc filed Critical Cepton Technologies Inc
Publication of DE112020004763T5 publication Critical patent/DE112020004763T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein LiDAR-System umfasst eine oder mehrere Lichtquellen, die dazu konfiguriert sind, einen Satz von Lichtpulsen in einer zeitlichen Folge mit zufälligen zeitlichen Abständen zwischen angrenzenden Lichtpulsen zu emittieren, einen oder mehrere Detektoren, die dazu konfiguriert sind, einen Satz von zurückgekehrten Lichtpulsen zu empfangen, und einen Prozessor, der dazu konfiguriert ist: eine Laufzeit für jeden zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen zu bestimmen; und eine Punktwolke basierend auf den Laufzeiten des Satzes von zurückgekehrten Lichtpulsen zu erhalten. Jeder Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls. Der Prozessor ist ferner dazu konfiguriert, für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke: räumliche und zeitliche Beziehungen zwischen dem jeweiligen Punkt und einem Satz von benachbarten Punkten in dem Satz von Punkten zu analysieren; und einen Qualitätsfaktor für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen auszuwerten.

Description

  • Querverweise zu verwandten Anmeldungen
  • Diese Anmeldung beansprucht den Nutzen der vorläufigen U.S.-Patentanmeldung Nr. 62/909,633 , die am 2. Oktober 2019 eingereicht wurde, und der nicht-vorläufigen U.S.-Patentanmeldung Nr. 17/032,526 , die am 25. September 2020 eingereicht wurde, deren Inhalt durch Verweis in seiner Gesamtheit einbezogen wird.
  • Hintergrund der Erfindung
  • In autonomen Fahrzeugen, Drohnen, der Robotik, Sicherheitsanwendungen und ähnlichem können dreidimensionale Sensoren angewendet werden. LiDAR-Sensoren sind eine Art von dreidimensionalen Sensoren, die hohe Winkelauflösungen erreichen können, die für solche Anwendungen angemessen sind. Ein LiDAR-Sensor kann eine oder mehrere Laserquellen zur Emission von Laserpulsen und einen oder mehrere Detektoren zum Detektieren von reflektierten Laserpulsen umfassen. Der LiDAR-Sensor misst die Zeit, die von jedem Laserpuls benötigt wird, um von dem LiDAR-Sensor zu einem Objekt innerhalb des Bildfelds des Sensors zu wandern, dann von dem Objekt abzuprallen und zu dem LiDAR-Sensor zurückzukehren. Basierend auf der Laufzeit des Laserpulses bestimmt der LiDAR-Sensor, wie weit entfernt sich das Objekt von dem LiDAR-Sensor befindet.
  • In Fällen, in denen zwei oder mehr LiDAR-Sensoren in gegenseitiger Nähe betrieben werden, ist es möglich, dass der Betrieb eines LiDAR-Sensors durch den Betrieb eines anderen LiDAR-Sensors beeinträchtigt werden kann. Angenommen ein LiDAR-Sensor emittiert beispielsweise einen ersten Laserpuls eine kurze Zeit (z. B. ein paar Nanosekunden) bevor ein zweiter LiDAR-Sensor einen zweiten Laserpuls emittiert. Der erste Laserpuls kann an einem Objekt abprallen und durch den zweiten LiDAR-Sensor detektiert werden. Der zweite LiDAR-Sensor kann eine Laufzeit für den detektierten Laserpuls bestimmen, die kürzer ist als der tatsächliche Wert für den zweiten Laserpuls. Demnach kann der zweite LiDAR-Sensor fehlerhaft das Objekt als näher angeben, als es tatsächlich ist. Dementsprechend besteht ein Bedarf für LiDAR-Systeme und Verfahren, die durch Überlagerungsstörungen verursachte fehlerhafte Datenpunkte detektieren können.
  • Überblick über die Erfindung
  • Gemäß manchen Ausführungsformen umfasst ein LiDAR-System eine oder mehrere Lichtquellen, die dazu konfiguriert sind, einen Satz von Lichtpulsen zu emittieren, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein. Der Satz von Lichtpulsen wird in einer zeitlichen Folge mit zufälligen zeitlichen Abständen zwischen angrenzenden Lichtpulsen emittiert. Das LiDAR-System umfasst ferner einen oder mehrere Detektoren, die dazu konfiguriert sind, einen Satz von zurückgekehrten Lichtpulsen zu empfangen. Wenigstens eine Teilmenge des Satzes von zurückgekehrten Lichtpulsen entspricht dem Satz von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden. Das LiDAR-System umfasst ferner einen Prozessor, der mit dem einen oder den mehreren Lichtquellen und dem einen oder den mehreren Detektoren verbunden ist. Der Prozessor ist dazu konfiguriert: eine Laufzeit für jeden zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen zu bestimmen; und eine Punktwolke basierend auf den Laufzeiten des Satzes von zurückgekehrten Lichtpulsen zu erhalten. Die Punktwolke umfasst einen Satz von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen. Der Prozessor ist ferner dazu konfiguriert, für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke: räumliche und zeitliche Beziehungen zwischen dem jeweiligen Punkt und einem Satz von benachbarten Punkten in dem Satz von Punkten zu analysieren; und einen Qualitätsfaktor für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen zu auszuwerten.
  • Gemäß manchen Ausführungsformen umfasst ein Verfahren zum Betreiben eines LiDAR-Systems ein Emittieren eines Satzes von Lichtpulsen in einer zeitlichen Folge mit zufälligen zeitlichen Abständen zwischen angrenzenden Lichtpulsen, unter Verwendung einer oder mehrerer Lichtquellen. Der Satz von Lichtpulsen ist hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet. Das Verfahren umfasst ferner ein Detektieren eines Satzes von zurückgekehrten Lichtpulsen, unter Verwendung eines oder mehrerer Detektoren. Wenigstens eine Teilmenge des Satzes von zurückgekehrten Lichtpulsen entspricht dem Satz von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden. Das Verfahren umfasst ferner ein Bestimmen einer Laufzeit für jeden zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen; und ein Erhalten einer Punktwolke basierend auf Laufzeiten des Satzes von zurückgekehrten Lichtpulsen. Die Punktwolke umfasst einen Satz von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen. Das Verfahren umfasst ferner für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke: ein Analysieren räumlicher und zeitlicher Beziehungen zwischen dem jeweiligen Punkt und einem Satz von benachbarten Punkten in dem Satz von Punkten; und ein Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  • Gemäß manchen Ausführungsformen umfasst ein LiDAR-System eine Vielzahl von Lichtquellen, die als ein Array angeordnet sind und dazu konfiguriert sind, eine Vielzahl von Sätzen von Lichtpulsen zu emittieren, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein. Jeder jeweilige Satz von Lichtpulsen umfasst eine Vielzahl von Lichtpulsen in einer zeitlichen Folge. Jeder jeweilige Lichtpuls wird durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert. Die Vielzahl von Sätzen von Lichtpulsen ist durch zufällige Zeitverzögerungen zeitlich voneinander getrennt. Das LiDAR-System umfasst ferner eine Vielzahl von Detektoren, die als ein Array angeordnet sind. Jeder jeweilige Detektor entspricht einer jeweiligen Lichtquelle. Die Vielzahl von Detektoren ist dazu konfiguriert, eine Vielzahl von zurückgekehrten Lichtpulsen zu detektieren. Wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen entspricht der Vielzahl von Sätzen von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden. Das LiDAR-System umfasst ferner einen Prozessor, der mit der Vielzahl von Lichtquellen und der Vielzahl von Detektoren verbunden ist. Der Prozessor ist dazu konfiguriert: eine Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls zu bestimmen; und eine Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen zu bestimmen. Die Punktwolke umfasst eine Vielzahl von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder jeweilige Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls. Der Prozessor ist ferner dazu konfiguriert, für jeden jeweiligen Punkt in der Punktwolke: räumliche und zeitliche Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke zu analysieren; und einen Qualitätsfaktor für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen auszuwerten.
  • Gemäß manchen Ausführungsformen umfasst ein Verfahren zum Betreiben eines LiDAR-Systems ein Emittieren einer Vielzahl von Sätzen von Lichtpulsen, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, unter Verwendung einer Vielzahl von Lichtquellen, die als ein Array angeordnet sind. Jeder jeweilige Satz von Lichtpulsen umfasst eine Vielzahl von Lichtpulsen in einer zeitlichen Folge. Jeder jeweilige Lichtpuls wird durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert. Die Vielzahl von Sätzen von Lichtpulsen ist durch zufällige Zeitverzögerungen zeitlich voneinander getrennt. Das Verfahren umfasst ferner ein Detektieren einer Vielzahl von zurückgekehrten Lichtpulsen unter Verwendung einer Vielzahl von Detektoren, die als ein Array angeordnet sind. Jeder jeweilige Detektor entspricht einer jeweiligen Lichtquelle. Wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen entspricht der Vielzahl von Sätzen von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden. Das Verfahren umfasst ferner ein Bestimmen einer Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls der Vielzahl von zurückgekehrten Lichtpulsen; und ein Erhalten einer Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen. Die Punktwolke umfasst eine Vielzahl von Punkten, die eine oder mehrere Oberflächen eines oder mehrerer Objekte repräsentieren. Jeder jeweilige Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls. Das Verfahren umfasst ferner für jeden jeweiligen Punkt in der Punktwolke: ein Analysieren räumlicher und zeitlicher Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke; und ein Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  • Gemäß manchen Ausführungsformen umfasst ein LiDAR-System eine Vielzahl von Lichtquellen, die als ein Array angeordnet sind und dazu konfiguriert sind, eine Vielzahl von Sätzen von Lichtpulsen zu emittieren, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein. Jeder jeweilige Satz von Lichtpulsen umfasst eine Vielzahl von Lichtpulsen in einer zeitlichen Folge. Jeder jeweilige Lichtpuls wird durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert. Die Vielzahl von Lichtpulsen wird durch die Vielzahl von Lichtquellen in einer zufälligen Reihenfolge emittiert. Das LiDAR-System umfasst ferner eine Vielzahl von Detektoren, die als ein Array angeordnet sind. Jeder jeweilige Detektor entspricht einer jeweiligen Lichtquelle. Die Vielzahl von Detektoren ist dazu konfiguriert, eine Vielzahl von zurückgekehrten Lichtpulsen zu detektieren. Wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen entspricht der Vielzahl von Sätzen von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden. Das LiDAR-System umfasst ferner einen Prozessor, der mit der Vielzahl von Lichtquellen und der Vielzahl von Detektoren verbunden ist. Der Prozessor ist dazu konfiguriert: eine Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls der Vielzahl von zurückgekehrten Lichtpulsen zu bestimmen; und eine Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen zu erhalten. Die Punktwolke umfasst eine Vielzahl von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder jeweilige Punkt entspricht einem jeweiligen Lichtpuls. Der Prozessor ist ferner dazu konfiguriert, für jeden jeweiligen Punkt in der Punktwolke: räumliche und zeitliche Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke zu analysieren; und einen Qualitätsfaktor für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen auszuwerten.
  • Gemäß manchen Ausführungsformen umfasst ein Verfahren zum Betreiben eines LiDAR-Systems ein Emittieren einer Vielzahl von Sätzen von Lichtpulsen, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, unter Verwendung einer Vielzahl von Lichtquellen, die als ein Array angeordnet sind. Jeder jeweilige Satz von Lichtpulsen umfasst eine Vielzahl von Lichtpulsen in einer zeitlichen Folge. Jeder jeweilige Lichtpuls wird durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert. Die Vielzahl von Lichtpulsen wird durch die Vielzahl von Lichtquellen in einer zufälligen Reihenfolge emittiert. Das Verfahren umfasst ferner ein Detektieren einer Vielzahl von zurückgekehrten Lichtpulsen unter Verwendung einer Vielzahl von Detektoren, die als ein Array angeordnet sind. Jeder jeweilige Detektor entspricht einer jeweiligen Lichtquelle. Wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulse entspricht der Vielzahl von Sätzen von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden. Das Verfahren umfasst ferner ein Bestimmen einer Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls der Vielzahl von zurückgekehrten Lichtpulsen; und ein Erhalten einer Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen. Die Punktwolke umfasst eine Vielzahl von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder jeweilige Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls. Das Verfahren umfasst ferner für jeden jeweiligen Punkt in der Punktwolke: ein Analysieren räumlicher und zeitlicher Beziehungen zwischen dem jeweiligen Punkt und benachbarter Punkte in der Punktwolke; und ein Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  • Figurenliste
    • 1 zeigt ein beispielhaftes LiDAR-System zur dreidimensionalen Bildgebung.
    • 2 zeigt ein beispielhaftes Zeitdiagramm einer Reihe von emittierten Lichtpulsen und einer Reihe von zurückgekehrten Lichtpulsen.
    • 3A und 3B zeigen zwei vereinfachte Fälle, in denen zwei LiDAR-Sensoren einander beeinflussen können.
    • 4 zeigt ein beispielhaftes Zeitdiagramm einer Reihe von emittierten Lichtpulsen und einer Reihe von zurückgekehrten Lichtpulsen, wobei mögliche beeinflussende Lichtpulse enthalten sind.
    • 5 zeigt ein beispielhaftes Zeitdiagramm einer Reihe von emittierten Lichtpulsen und einer Reihe von zurückgekehrten Lichtpulsen, sowie mögliche beeinflussende Lichtpulse, während ein zeitliches Zittern gemäß manchen Ausführungsformen angewendet wird.
    • 6A zeigt eine beispielhafte Punktwolke, die durch einen LiDAR-Sensor ohne auf die Laser-Feuerfolge angewendetes zeitliches Zittern aufgenommen ist.
    • 6B zeigt eine beispielhafte Punktwolke, die durch einen LiDAR-Sensor für dieselbe wie in 6A gezeigte Szene aufgenommen ist, jedoch während ein zeitliches Zittern auf die Laser-Feuerfolge gemäß manchen Ausführungsformen angewendet wird.
    • 7 zeigt einen dreidimensionalen Koordinatenraum für Punkte in einer Punktwolke, die durch einen LiDAR-Sensor aufgenommen ist.
    • 8 zeigt schematisch einen LiDAR-Sensor, der ein Array von Lichtquellen und ein Array von Detektoren aufweist.
    • 9 zeigt ein beispielhaftes Bildfeld eines LiDAR-Sensors, das ein Array von Unterbildfeldern durch ein Array von Lichtquellen aufweist.
    • 10 zeigt eine beispielhafte Feuerfolge eines Arrays von Lichtquellen gemäß manchen Ausführungsformen.
    • 11 zeigt eine beispielhafte Feuerfolge eines Arrays von Lichtquellen gemäß manchen Ausführungsformen.
    • 12 zeigt ein vereinfachtes Flussdiagramm, das ein Verfahren zum Betreiben eines LiDAR-Systems gemäß manchen Ausführungsformen zeigt.
    • 13 zeigt ein vereinfachtes Flussdiagramm, das ein Verfahren zum Betreiben eines LiDAR-Systems gemäß manchen Ausführungsformen zeigt.
    • 14 zeigt ein vereinfachtes Flussdiagramm, das ein Verfahren zum Betreiben eines LiDAR-Systems gemäß manchen Ausführungsformen zeigt.
  • Detaillierte Beschreibung von spezifischen Ausführungsformen
  • Ausführungsformen der vorliegenden Erfindung stellen LiDAR-Systeme und Verfahren zum Detektieren von fehlerhaften Datenpunkten bereit, die durch Überlagerungsstörungen zwischen LiDAR-Sensoren verursacht sein können. Ausführungsformen der vorliegenden Erfindung stellen Techniken lediglich beispielhafter Art bereit, die zufällige Feuerfolgen für Lichtquellen in einem LiDAR-System einsetzen und einen Qualitätsfaktor für irgendeinen gegebenen Punkt in einer von dem LiDAR-System erzeugten Punktwolke durch Analysieren der räumlichen und zeitlichen Beziehungen zwischen dem gegebenen Punkt und seinen benachbarten Punkten in der Punktwolke auswerten. Eine Wahrnehmungssoftware kann bestimmen, ob bestimmte Punkte ignoriert werden sollen, wenigstens teilweise basierend auf deren Qualitätsfaktorwerten. In manchen Ausführungsformen kann die Wahrnehmungssoftware andere Faktoren (wie z. B. Kameradaten und Radardaten) zusätzlich zu den Qualitätsfaktorwerten berücksichtigen.
  • 1 zeigt einen beispielhaften LiDAR-Sensor 100 zur dreidimensionalen Bildgebung gemäß manchen Ausführungsformen. Der LiDAR-Sensor 100 umfasst eine Emissionslinse 130 und eine Empfangslinse 140. Der LiDAR-Sensor 100 umfasst eine Lichtquelle 110a, die im Wesentlichen in einer hinteren Brennebene der Emissionslinse 130 angeordnet ist. Die Lichtquelle 110a ist in der Lage, einen Lichtpuls 120 von einem jeweiligen Emissionsort in der hinteren Brennebene der Emissionslinse 130 zu emittieren. Die Emissionslinse 130 ist dazu konfiguriert, den Lichtpuls 120 zu kollimieren und hin zu einem Objekt 150 zu richten, das vor dem LiDAR-Sensor 100 liegt. Für einen gegebenen Emissionsort der Lichtquelle 110a wird der kollimierte Lichtpuls 120' in einem entsprechenden Winkel hin zu dem Objekt 150 gerichtet.
  • Ein Teil 122 des kollimierten Lichtpulses 120' wird von dem Objekt 150 hin zu der Empfangslinse 140 reflektiert. Die Empfangslinse 140 ist dazu konfiguriert, den von dem Objekt 150 reflektierten Teil 122' des Lichtpulses auf einen entsprechenden Detektionsort in der Brennebene der Empfangslinse 140 zu fokussieren. Der LiDAR-Sensor 100 umfasst ferner einen Detektor 160a, der im Wesentlichen in der Brennebene der Empfangslinse 140 angeordnet ist. Der Detektor 160a ist dazu konfiguriert, den von dem Objekt reflektierten Teil 122' des Lichtpulses 120 an dem entsprechenden Detektionsort zu empfangen. Der entsprechende Detektionsort des Detektors 160a ist zum jeweiligen Emissionsort der Lichtquelle 110a optisch konjugiert.
  • Der Lichtpuls 120 kann von kurzer Dauer sein, beispielsweise 10 ns Pulsweite. Der LiDAR-Sensor 100 umfasst ferner einen Prozessor 190, der mit der Lichtquelle 110a und dem Detektor 160a verbunden ist. Der Prozessor 190 ist dazu konfiguriert, eine Laufzeit (TOF) des Lichtpulses 120 von Emission bis Detektion zu bestimmen. Da sich der Lichtpuls 120 mit Lichtgeschwindigkeit bewegt, kann eine Distanz zwischen dem LiDAR-Sensor 100 und dem Objekt 150 basierend auf der bestimmten Laufzeit bestimmt werden.
  • Eine Art des Scannens des Laserstrahls 120' über ein FOV ist es, die Lichtquelle 110a lateral relativ zu der Emissionslinse 130 in der hinteren Brennebene der Emissionslinse 130 zu bewegen. Beispielsweise kann die Lichtquelle 110a über eine Vielzahl von Emissionsorten in der hinteren Brennebene der Emissionslinse 130 gerastert werden, wie in 1 gezeigt. Die Lichtquelle 110a kann eine Vielzahl von Lichtpulsen an der Vielzahl von Emissionsorten emittieren. Jeder an einem jeweiligen Emissionsort emittierte Lichtpuls wird durch die Emissionslinse 130 kollimiert und in einem jeweiligen Winkel hin zu dem Objekt 150 gerichtet, und trifft an einem entsprechenden Punkt an der Oberfläche des Objekts 150 auf. Demnach wird ein entsprechender Objektbereich an dem Objekt 150 gescannt, da die Lichtquelle 110a innerhalb eines bestimmten Bereichs in der hinteren Brennebene der Emissionslinse 130 gerastert wird. Der Detektor 160a kann gerastert werden, um an einer Vielzahl von entsprechenden Detektionsorten in der Brennebene der Empfangslinse 140 positioniert zu werden, wie in 1 gezeigt. Das Scannen des Detektors 160a wird typischerweise mit dem Scannen der Lichtquelle 110a synchron durchgeführt, sodass der Detektor 160a und die Lichtquelle 110a zu jedem Zeitpunkt zueinander optisch konjugiert sind.
  • Durch Bestimmen der Laufzeit für jeden an einem jeweiligen Emissionsort emittierten Lichtpuls kann die Distanz von dem LiDAR-Sensor 100 zu jedem entsprechenden Punkt auf der Oberfläche des Objekts 150 bestimmt werden. In manchen Ausführungsformen ist der Prozessor 190 mit einem Positionsgeber verbunden, der die Position der Lichtquelle 110a an jedem Emissionsort detektiert. Der Winkel des kollimierten Lichtpulses 120' kann basierend auf dem Emissionsort bestimmt werden. Die X-Y-Koordinate des entsprechenden Punkts an der Oberfläche des Objekts 150 kann basierend auf dem Winkel und der Distanz des LiDAR-Sensors 100 bestimmt werden. Demnach kann ein dreidimensionales Bild des Objekts 150 basierend auf den gemessenen Distanzen von dem LiDAR-Sensor 100 zu verschiedenen Punkten an der Oberfläche des Objekts 150 konstruiert werden. In manchen Ausführungsformen kann das dreidimensionale Bild als eine Punktwolke repräsentiert werden, genauer gesagt als ein Satz X-, Y- und Z-Koordinaten von Punkten an der Oberfläche des Objekts 150.
  • In manchen Ausführungsformen wird die Intensität des zurückgekehrten Lichtpulses 122' gemessen und dazu verwendet, die Leistung von nachfolgenden Lichtpulsen von demselben Emissionsort anzupassen, um eine Sättigung des Detektors zu verhindern, die Augensicherheit zu erhöhen, oder den gesamten Stromverbrauch zu verringern. Die Leistung des Lichtpulses kann durch eine Anpassung der Dauer des Lichtpulses, der dem Laser zugeführten Spannung oder des dem Laser zugeführten Stroms, oder der in einem Kondensator gespeicherten Ladung, die dazu verwendet wird, den Laser zu betreiben, angepasst werden. Im letzteren Fall kann die in dem Kondensator gespeicherte Ladung durch eine Anpassung der Ladezeit, der Ladespannung, oder des Ladestroms des Kondensators angepasst werden. In manchen Ausführungsformen kann auch die Reflektivität, wie sie durch die Intensität des detektierten Pulses bestimmt wird, dazu verwendet werden, eine andere Dimension dem Bild hinzuzufügen. Beispielsweise kann das Bild X-, Y- und Z-Koordinaten enthalten, sowie Reflektivität (oder Helligkeit).
  • Das Winkelbildfeld (AFOV) des LiDAR-Sensors 100 kann basierend auf dem Scanbereich der Lichtquelle 110a und der Brennweite der Emissionslinse 130 als A F O V = 2 tan 1 ( h 2 ƒ )
    Figure DE112020004763T5_0001
    geschätzt werden, wobei h der Scanbereich der Lichtquelle 110a entlang einer bestimmten Richtung ist und f die Brennweite der Emissionslinse 130 ist. Für einen gegebenen Scanbereich h würden kürzere Brennweiten breitere AFOVs erzeugen.
  • Für eine gegebene Brennweite f würden größere Scanbereiche breitere AFOVs erzeugen. In manchen Ausführungsformen kann der LiDAR-Sensor 100 mehrere Lichtquellen umfassen, die als ein Array in der hinteren Brennebene der Emissionslinse 130 angeordnet sind, sodass ein größeres gesamtes AFOV erreicht werden kann, während der Scanbereich jeder einzelnen Lichtquelle relativ klein gehalten wird. Entsprechend kann der LiDAR-Sensor 100 mehrere Detektoren umfassen, die als ein Array in der Brennebene der Empfangslinse 140 angeordnet sind, wobei jeder Detektor zu einer jeweiligen Lichtquelle konjugiert ist. Beispielsweise kann der LiDAR-Sensor 100 eine zweite Lichtquelle 110b und einen zweiten Detektor 160b umfassen, wie in 1 gezeigt. In anderen Ausführungsformen kann der LiDAR-Sensor 100 vier Lichtquellen und vier Detektoren, oder acht Lichtquellen und acht Detektoren umfassen. In einer Ausführungsform kann der LiDAR-Sensor 100 acht als ein 4x2 Array angeordnete Lichtquellen und acht als ein 4x2 Array angeordnete Detektoren umfassen, sodass der LiDAR-Sensor 100 ein breiteres AFOV in der horizontalen Richtung aufweisen kann, als sein AFOV in der vertikalen Richtung. Gemäß verschiedenen Ausführungsformen kann das gesamte AFOV des LiDAR-Sensors 100 von etwa 5° bis etwa 15°, oder von etwa 15° bis etwa 45°, oder von etwa 45° bis etwa 120° reichen, abhängig von der Brennweite der Emissionslinse, dem Scanbereich jeder Lichtquelle und der Anzahl von Lichtquellen.
  • Die Lichtquelle 110a kann dazu konfiguriert sein, Lichtpulse in den ultravioletten, sichtbaren, oder nah-infraroten Wellenlängenbereichen zu emittieren. Die Energie jedes Lichtpulses kann in der Größenordnung von Mikrojoule sein, was für Wiederholraten im KHz-Bereich üblicherweise als augen-sicher gilt. Für Lichtquellen, die mit Wellenlängen betrieben werden, die größer sind als etwa 1500 nm, könnten die Energielevel höher sein, da das Auge bei diesen Wellenlängen nicht fokussiert. Der Detektor 160a kann eine Silikon-Avalanche-Fotodiode, einen Fotomultiplier, eine PIN-Diode, oder andere Halbleitersensoren umfassen.
  • Ein LiDAR kann seine Lichtquellen mit bestimmten Wiederholraten feuern. 2 zeigt im unteren Teil ein beispielhaftes Zeitdiagramm einer Reihe von durch einen LiDAR-Sensor emittierten Lichtpulsen 210. Die Lichtpulse 210 können durch eine Verzögerungszeit t zwischen angrenzenden Pulsen im Wesentlichen gleichmäßig voneinander beabstandet sein. Die Inverse der Verzögerungszeit t ist die Wiederholrate des Feuerns der Lichtquelle. Die Verzögerungszeit t kann von ein paar hundert Nanosekunden bis zu ein paar zehn Mikrosekunden reichen. Für jeden Lichtpuls 210 kann, falls dieser von einem Objekt innerhalb des Bildfelds des LiDAR-Sensors reflektiert wird, ein zurückgekehrter Lichtpuls 220 durch einen Detektor detektiert werden. Der obere Teil von 2 zeigt das Zeitdiagramm des zurückgekehrten Lichtpulses, der von dem LiDAR-Sensor detektiert werden kann. Die Zeit Δt, die von der Emission bis zur Detektion eines Lichtpulses 220 vergangen ist, kann dazu verwendet werden, eine Distanz D des Objekts von dem LiDAR-Sensor zu schätzen. Die Zeit Δt kann als „Laufzeit“ bezeichnet werden. Die Distanz D kann basierend auf der Laufzeit Δt unter Verwendung der folgenden Formel geschätzt werden: D = c × Δ t 2 ,
    Figure DE112020004763T5_0002
    wobei c die Lichtgeschwindigkeit ist.
  • Der Detektor kann ein gültiges Detektionszeitfenster 230 aufweisen, nachdem jeder Lichtpuls 210 emittiert wurde. Während des Detektionszeitfensters 230 wird der Detektor aktiviert. Der Detektor kann in dem Zeitfenster 240 deaktiviert werden, das dem Detektionszeitfenster 230 folgt, bis der nächste Lichtpuls 210 emittiert wird. Zurückgekehrte Lichtpulse, die außerhalb des Detektionszeitfensters 230 ankommen, werden nicht erfasst, da sie nicht einer gültigen Betriebsdistanz des LiDAR-Sensors entsprechen würden.
  • In bestimmten Situationen, in denen es zwei oder mehr in gegenseitiger Nähe betriebene LiDAR-Sensoren gibt, können Störungen zwischen LiDAR-Sensoren vorkommen. 3A und 3B zeigen zwei vereinfachte Fälle, in denen sich zwei LiDAR-Sensoren 310 und 320 gegenseitig beeinflussen können. 3A zeigt ein Beispiel einer direkten Störung zwischen zwei LiDAR-Sensoren. Ein erster LiDAR-Sensor 310 kann einen Lichtpuls 330 emittieren, der zufällig hin zu einem zweiten LiDAR-Sensor 320 gerichtet ist. Der zweite LiDAR-Sensor 320 kann den Lichtpuls 330 detektieren, der von dem ersten LiDAR-Sensor 310 emittiert wurde, und kann es fehlerhaft als einen von ihm selbst emittierten zurückgekehrten Lichtpuls ansehen. Die Detektion des störenden Lichtpulses 330 durch den zweiten LiDAR-Sensor 320 kann zu einem falschen Punkt in einer dreidimensionalen Punktwolke führen, die von dem zweiten LiDAR-Sensor 320 erzeugt wird. Diese Situation kommt beispielsweise auf, wenn sich zwei Autos, an denen die zwei LiDAR-Sensoren befestigt sind, gegenseitig von entgegengesetzten Richtungen annähern.
  • 3B zeigt ein Beispiel einer indirekten Störung. Angenommen ein erster LiDAR-Sensor 310 und ein zweiter LiDAR-Sensor 320 scannen dieselbe Szene zur selben Zeit. Ein von dem ersten LiDAR-Sensor 310 emittierter erster Lichtpuls 340 kann von einem Objekt 390 (z. B. einer Person) abprallen und zu dem ersten LiDAR-Sensor 310 zurückkehren. Der erste LiDAR-Sensor 310 kann die Distanz des Objekts 390 von dem ersten LiDAR-Sensor 310 durch messen der Laufzeit des ersten Lichtpulses 340 schätzen. Während dieser Zeit kann der zweite LiDAR-Sensor 320 einen zweiten Lichtpuls 350 emittieren, der auch von dem Objekt 390 abprallen kann. Es ist möglich, dass der reflektierte zweite Lichtpuls 350 von dem ersten LiDAR-Sensor 310 detektiert werden kann. Die Detektion des störenden Lichtpulses 350 von dem ersten LiDAR-Sensor 310 kann zu einem falschen Punkt in einer dreidimensionalen Punktwolke führen, die von dem ersten LiDAR-Sensor 310 erzeugt wird. Diese Situation kann beispielsweise aufkommen, wenn zwei Autos, an denen die zwei LiDAR-Sensoren 310 und 320 befestigt sind, Seite an Seite in angrenzenden Spuren in derselben Richtung fahren.
  • 4 zeigt im unteren Teil ein Zeitdiagramm einer Reihe von Lichtpulsen 210, die von dem ersten LiDAR-Sensor 310 emittiert werden können, ähnlich zu dem in 2 gezeigten Zeitdiagramm. In dem oberen Teil von 4 können, zusätzlich zu den vom ersten LiDAR-Sensor 310 selbst emittierten zurückgekehrten Lichtpulsen 220, auch störende Lichtpulse 410 (gepunktete Linien) von dem zweiten LiDAR-Sensor 320 durch den ersten LiDAR-Sensor 310 detektiert werden.
  • Unter der Annahme, dass der zweite LiDAR-Sensor 320 seine Lichtquelle mit derselben Wiederholrate feuert wie der erste LiDAR-Sensor 310, können die durch den ersten LiDAR-Sensor 310 detektierten störenden Lichtpulse 410 nahezu zeitlich synchron mit den tatsächlich zurückgekehrten Lichtpulsen 220 sein, wie in 4 gezeigt. Beispielsweise kann jeder störende Lichtpuls 410 kurz vor einem jeweiligen zurückgekehrten Lichtpuls 220 detektiert werden. Demnach kann ein falscher Punkt in einer von dem ersten LiDAR-Sensor 310 erzeugten dreidimensionalen Punktwolke als näher an dem ersten LiDAR-Sensor 310 erscheinen, als es das Objekt 390 tatsächlich ist. Solche falsche Punkte können dazu neigen, räumlich nahe aneinander als Gruppen in der Punktwolke zu erscheinen, um ein Geistobjekt zu bilden. Das Geistobjekt kann stationär erscheinen, wenn der störende Lichtpuls 410 mit derselben Laufzeit Δt2 in aufeinanderfolgenden Detektionsfenstern 230 detektiert wird.
  • Angenommen, der zweite LiDAR-Sensor 320 feuert beispielsweise seine Lichtquelle 10 Nanosekunden bevor der erste LiDAR-Sensor 310 seine Lichtquelle feuert. Die störenden Lichtpulse 410 würden 10 Nanosekunden vor dem Detektieren der zurückgekehrten Lichtpulse 220 detektiert werden (z. B.Δt - Δt2 = 10 ns). Demnach kann das Geistbild etwa 150 cm näher an dem ersten LiDAR-Sensor 310 erscheinen, als es das tatsächliche Objekt 390 ist (Licht wandert etwa 30 cm pro Nanosekunde).
  • Wenn die Feuerrate des zweiten LiDAR-Sensors ähnlich, aber nicht genau gleich der des ersten LiDAR-Sensors ist, kann das Geistobjekt als sich hin zu oder weg von dem ersten LiDAR-Sensor bewegend erscheinen. Die Geschwindigkeit, mit der sich das Geistobjekt bewegt, ist eine Funktion der differentiellen Feuerrate zwischen den zwei LiDAR-Sensoren. Je weiter die zwei Feuerraten auseinanderliegen, desto schneller kann die Bewegung des Geistobjekts erscheinen.
  • Angenommen, der zweite LiDAR-Sensor 320 feuert beispielsweise seine Lichtquelle mit einer Rate, die um 1 Nanosekunde pro Sekunde schneller ist, als die des ersten LiDAR-Sensors 310. Nach einer Sekunde kann die Verzögerung zwischen dem Feuern des ersten LiDAR-Sensors 310 und dem Feuern des zweiten LiDAR-Sensors 320 auf 9 Nanosekunden reduziert werden (z.B. Δt - Δt1 = 9 ns). Demnach kann das Geistobjekt als nur 135 cm von dem ersten LiDAR-Sensor 310 entfernt erscheinen. Während dieser Vorgang weitergeht, kann das Geistobjekt als sich mit einer Rate von 15 cm pro Sekunde hin zu dem ersten LiDAR-Sensor 310 bewegend erscheinen. Auf der anderen Seite kann das Geistobjekt als sich von dem ersten LiDAR-Sensor 310 wegbewegend erscheinen, wenn der zweite LiDAR-Sensor 320 seine Lichtquelle mit einer Rate feuert, die kleiner ist als die des ersten LiDAR-Sensors 310.
  • Gemäß manchen Ausführungsformen kann jedem LiDAR-Sensor eine einzigartige Feuerrate zugewiesen werden. Genug einzigartige Feuerraten können vorhanden sein, sodass es unwahrscheinlich ist, dass irgendwelche zwei LiDAR-Sensoren dieselbe Feuerrate aufweisen würden. Beispielsweise kann jedem LiDAR-Sensor eine Feuerrate aus einer Tabelle zugewiesen werden, die {0,9990, 0,9991, 0,9992... 1,010} umfasst, wenn die nominelle Feuerrate 1,000 MHz ist.
  • Nehmen wir jetzt den Fall, in dem Sensor 1 mit 1,000 MHz feuert und Sensor 2 mit 1,001 MHz feuert. Jede Sekunde wird Sensor 1 1 ms weiter hinter Sensor 2 zurückfallen. Dies kann verursachen, dass sich das Geistobjekt mit 150 km/s zu bewegen scheint. Tatsächlich wird das Geistobjekt in eine Reihe isolierter Punkte aufgelöst. Die isolierten Geistpunkte können dann einem Qualitätsfaktor zugeordnet werden, um zu helfen, sie von tatsächlichen Punkten zu unterscheiden, was später im Detail beschrieben ist.
  • Gemäß manchen Ausführungsformen kann ein LiDAR-System ein zeitliches Zittern auf die Feuerfolge seiner Lichtquelle(n) anwenden, um dazu in der Lage zu sein, falsche Punkte in einer Punktwolke zu detektieren, die aus einer Störung resultieren. Für jeden Lichtpuls in einer andernfalls gleichmäßig beabstandeten Reihe von Lichtpulsen kann eine zufällige Zeitverschiebung angewendet werden, sodass die zeitlichen Abstände zwischen angrenzenden Lichtpulsen zufällig sind. Der Begriff „zufällig“ kann hierin einen Zufall, Pseudozufall, oder irgendein unregelmäßiges Muster betreffen.
  • 5 zeigt ein beispielhaftes Zeitdiagramm eines Feuerns einer Lichtquelle eines LiDAR-Sensors gemäß manchen Ausführungsformen. In dem unteren Teil von 5 repräsentieren die gestrichelten Linien die nominellen zeitlichen Positionen einer gleichmäßig beabstandeten Reihe von Lichtpulsen 510; und die einfarbigen Linien repräsentieren eine zeitlich zitternde Reihe, die bezüglich einer entsprechenden nominellen zeitlichen Position durch eine Menge δt verschoben ist. Die Größe der zeitlichen Verschiebung δt, sowie ihre Richtung (Vorzeichen Plus oder Minus) sind zufällig. Gemäß manchen Ausführungsformen kann δt von etwa -200 Nanosekunden bis zu +200 Nanosekunden reichen. Demnach sind auch die zeitlichen Abstände zwischen den angrenzenden Lichtpulsen zufällig. Beispielsweise kann der zeitliche Abstand t1 zwischen dem Lichtpuls 520a und dem Lichtpuls 520b von dem zeitlichen Abstand t2 zwischen dem Lichtpuls 520b und dem Lichtpuls 520c verschieden sein, usw.
  • In dem oberen Teil von 5 repräsentieren die einfarbigen Linien die tatsächlich zurückgekehrten Lichtpulse 530, die durch den LiDAR-Sensor selbst emittiert wurden; die gepunkteten Linien repräsentieren die störenden Lichtpulse 540 eines anderen LiDAR-Sensors. Angenommen die störenden Lichtpulse 540 kommen an dem Detektor in regelmäßigen Zeitintervallen an. Als Folge der zufälligen Verschiebung der durch den LiDAR-Sensor selbst emittierten Lichtpulse 520 können die scheinbaren Laufzeiten für die Reihe von störenden Lichtpulsen in einer zufälligen Art voneinander abweichen. Beispielsweise kann die Laufzeit Δt1 für den störenden Lichtpuls 540a von der Laufzeit Δt2 für den nächsten störenden Lichtpuls 540b verschieden sein, usw.
  • Demnach können durch Anwenden eines zufälligen zeitlichen Zitterns bei der Lichtquellenfeuerfolge die falschen Punkte eines Geistobjekts in einer Punktwolke in räumlich gestreute und isolierte Punkte aufgelöst werden. Die räumliche Ausdehnung der „Streuung“ kann von der Spanne des zeitlichen Zitterns abhängen. Beispielsweise können die falschen Punkte des Geistobjekts bis zu 30 Meter entweder näher oder weiter weg von wo das Geistobjekt ohne zeitliches Zittern erscheinen würde gestreut sein, wenn das zeitliche Zittern δt von -200 Nanosekunden bis +200 Nanosekunden reicht.
  • 6A zeigt eine beispielhafte Punktwolke, die durch einen LiDAR-Sensor 610 ohne auf die Laserfeuerfolge angewendetes zeitliches Zittern aufgenommen wurde. Die Punktwolke kann Punkte 620 umfassen, die reale Objekte (z. B. eine Person), sowie falsche Punkte 630, die durch eine Störung von einem in der Nähe befindlichen anderen LiDAR-Sensor (nicht gezeigt) verursacht sind. Wie gezeigt können die falschen Punkte 630 nahe beieinander liegen und als ein Geistobjekt erscheinen.
  • 6B zeigt eine beispielhafte Punktwolke, die durch einen LiDAR-Sensor 640 für dieselbe wie in 6A gezeigte Szene zeigt, aber während zeitliches Zittern auf die Lichtquellenfeuerfolge gemäß manchen Ausführungsformen angewendet wird. Die Punktwolke kann auch Punkte 650 umfassen, die ein reales Objekt repräsentieren, sowie falsche Punkte 660. Verglichen mit 6A sind die falschen Punkte 660 in isolierte Punkte gestreut, die einen größeren räumlichen Bereich abdecken. Da die falschen Punkte 660 gestreut und isoliert sind, kann es einfacher sein, diese Punkte als falsche Punkte aufgrund einer Störung zu identifizieren.
  • Gemäß manchen Ausführungsformen können die räumlichen und zeitlichen Beziehungen der Punkte in einer durch einen LiDAR-Sensor während der Anwendung von zeitlichem Zittern aufgenommenen Punktwolke analysiert werden. Die Wahrscheinlichkeit, dass ein gegebener Punkt ein durch eine Störung verursachter falscher Punkt ist, kann basierend auf solchen Analysen ausgewertet werden. Wie in 7 gezeigt kann jeder Punkt in der Punktwolke durch eine dreidimensionale Koordinate gekennzeichnet werden. Die drei Dimensionen können den Winkel A von dem Punkt zum LiDAR-Sensor, die Entfernung D von dem Punkt zum LiDAR-Sensor und die Zeit T, wann der Punkt aufgenommen wurde, umfassen. Der Winkel A ist eine Vektorsumme eines horizontalen Winkels und eines vertikalen Winkels.
  • Gemäß manchen Ausführungsformen kann ein Qualitätsfaktor für jeden Punkt in der Punktwolke unter Verwendung einer nicht-linearen gewichteten Kombination von Winkeln, Entfernungen und Zeiten zwischen dem Punkt und seinen benachbarten Punkten ausgewertet werden. Für einen jeweiligen Punkt in einer Punktwolke mit einem Index i kann ein Teilqualitätsfaktor QFi,j bezüglich eines benachbarten Punkts j ausgewertet werden durch: Q F i , j = 1 ( a ( Δ A ) n 1 + b ( Δ D ) n 2 + c ( Δ T ) n 3 + d ) n 4 ,
    Figure DE112020004763T5_0003
    wobei ΔA die Winkeltrennung zwischen Punkt i und Punkt j ist, ΔD die Entfernungstrennung zwischen Punkt i und Punkt j, ΔT die zeitliche Trennung zwischen Punkt i und Punkt j (z. B. die Zeit, die zwischen der Detektion der zwei Punkte vergangen ist, oder die Differenz in Bildzahlen zwischen der Detektion der zwei Punkte), a, b und c sind Gewichte, d ist eine Konstante und n1, n2, n3 und n4 sind positive Potenzkonstanten.
  • In manchen Ausführungsformen, n1 = n2= n3 = 2 und n 4 = 1 2 .
    Figure DE112020004763T5_0004
    Demnach kann der Teilqualitätsfaktor QFi,j ausgewertet werden durch: Q F i , j = 1 ( a ( Δ A ) 2 + b ( Δ D ) 2 + c ( Δ T ) 2 + d ) 1 2
    Figure DE112020004763T5_0005
  • Der in Gleichung (2) ausgedrückte Teilqualitätsfaktor QFi,j kann als die dreidimensionale Trennung zwischen Punkt i und Punkt j angesehen werden, wie in 7 gezeigt. Im Allgemeinen ist der Wert des Teilqualitätsfaktors QFi,j umgekehrt proportional zu einer räumlichen und zeitlichen Trennung zwischen Punkt i und Punkt j. D. h. je größer die räumliche und zeitliche Trennung, desto kleiner der Wert von QFi,j..
  • Der gesamte Qualitätsfaktor QFi für Punkt i kann ausgewertet werden durch: Q F i = j Q F i , j
    Figure DE112020004763T5_0006
    wobei die Summierung über alle anderen benachbarten Punkte von Punkt i ist, die einen Wert des Teilqualitätsfaktors QFi,j ergeben, der über einem Schwellwert ist (genauer gesagt, benachbarte Punkte, die zu weit von Punkt i getrennt sind, können für die Auswertung des Qualitätsfaktors QFi vernachlässigt werden). Der Wert des Qualitätsfaktors QFi kann eine Angabe zur Wahrscheinlichkeit darüber geben, ob Punkt i ein falscher Punkt aufgrund einer Störung ist. Beispielsweise können ein reales Objekt repräsentierende Punkte dazu neigen, nahe bezüglich zueinander zu liegen, sowohl räumlich, als auch zeitlich. Dementsprechend können reale Punkte einen höheren Qualitätsfaktorwert aufweisen. Auf der anderen Seite können falsche Punkte aufgrund einer Störung als Folge eines zeitlichen Zitterns des Feuerns der Lichtquelle bezüglich einander gestreut und isoliert sein, wie oben beschrieben. Dementsprechend können falsche Punkte niedrigere Qualitätsfaktorwerte aufweisen.
  • Gemäß manchen Ausführungsformen können die Qualitätsfaktorwerte von einer Wahrnehmungssoftware verwendet werden, um zu bestimmen, wie viel Gewicht irgendeinem gegebenen Punkt in der von dem LiDAR-Sensor aufgenommenen Punktwolke gegeben werden soll. Beispielsweise kann eine Wahrnehmungssoftware Punkte ignorieren, die Qualitätsfaktorwerte unter einem bestimmten Schwellwert aufweisen, wenn der LiDAR-Sensor zur Detektion von Hindernissen in autonomen Fahrzeugen verwendet wird. In manchen Ausführungsformen kann der Schwellwert vorbestimmt, oder dynamisch angepasst sein.
  • Gemäß manchen Ausführungsformen kann die Wahrnehmungssoftware die LiDAR-Sensordaten (z. B. Punktwolkendaten mit zugeordneten Qualitätsfaktorwerten) mit anderen Sensordaten zur Detektion von Hindernissen kombinieren. Die anderen Sensordaten können beispielsweise Kameradaten und Radardaten umfassen. Beispielsweise kann ein Punkt von dem LiDAR-Sensor einen relativ niedrigen Qualitätsfaktorwert aufweisen, dennoch ist dieser mit schwachen Signalen von einem Radar oder einer Kamera konsistent. Die Wahrnehmungssoftware kann Daten von allen Sensoren berücksichtigen und kann bestimmen, dass der fragliche Punkt ein Hindernis repräsentiert, obwohl Daten von jedem einzelnen Sensor nicht ausreichend sein können, um eine solche Bestimmung zu machen.
  • Gemäß manchen Ausführungsformen kann der Qualitätsfaktor auch andere Faktoren berücksichtigen, wie z. B. Rauschpegel und Rauschsignaturen des Detektors, zusätzlich zu den räumlichen und zeitlichen Beziehungen mit benachbarten Punkten. Beispielsweise können Sonnenlicht, Regen, Nebel und Schnee Rauschen zum detektierten Signal hinzufügen, was zu falschen Punkten in der Punktwolke führen kann. Gemäß manchen Ausführungsformen kann ein LiDAR-System einen Rauschwert entnehmen und ihn zu dem in Gleichungen (1) und (3) ausgedrückten Qualitätsfaktor addieren. Falls mehr als ein zurückgekehrter Lichtpuls innerhalb des Detektionszeitfensters detektiert wurde, kann auch dies eine Präsenz von störenden Pulsen angeben und kann dazu verwendet werden, den Wert des Qualitätsfaktors anzupassen.
  • Gemäß manchen Ausführungsformen kann die Wahrnehmungssoftware ihre Behandlung von „verdächtigen“ Punkten basierend auf Umgebungsbedingungen anpassen. Beispielsweise können auch Nebel, Regen und Schnee auch zu falschen Punkten führen, die einen relativ niedrigen Qualitätsfaktor aufweisen. Die Wahrnehmungssoftware kann in der Lage sein, basierend auf dem Wesen der Punkte oder einer Eingabe anderer Quellen (z. B. Scheibenwischerbetrieb) zu bestimmen, dass diese Punkte eher wetterbedingt als von anderen LiDAR-Sensoren störungsbedingt sind. Demnach kann die Wahrnehmungssoftware ihre Antwort entsprechend anpassen.
  • Bei manchen Ausführungsformen kann die Anzahl von Punkten mit niedrigen Qualitätsfaktorwerten zusammengenommen die Präsenz eines störenden LiDAR-Sensors in der Nähe angeben, sowie die generelle Richtung des störenden LiDAR-Sensors. Beispielsweise kann es möglich sein, den störenden LiDAR-Sensor dem detektierten Fahrzeug zuzuordnen, wenn ein anderes Fahrzeug in dieser Richtung detektiert wird.
  • Ein LiDAR-Sensor kann mehrere Lichtquellen umfassen, von denen jede ein Teilbildfeld abdeckt. Der LiDAR-Sensor kann mehrere Lichtquellen sequenziell feuern. Gemäß manchen Ausführungsformen kann eine zufällige Zeitverzögerung zwischen angrenzenden Feuerdurchgängen angewendet werden. Zusätzlich oder alternativ kann die Reihenfolge des Feuerns der mehreren Lichtquellen zufällig von einem Durchgang zum nächsten Durchgang verändert werden.
  • 8 zeigt schematisch einen LiDAR-Sensor 800, der ein Array von Lichtquellen 806 (z. B. ein 4x2 Array von Lichtquellen) und ein Array von Detektoren 808 umfassen kann (z. B. ein 4x2 Array von Detektoren). Das Array von Lichtquellen 806 und das Array von Detektoren 808 können an derselben festen Plattform 830 befestigt sein. Die Positionen der Lichtquellen 806 und die Positionen der Detektoren 808 sind so angeordnet, dass jede Lichtquelle 806 mit einem entsprechenden Detektor 808 räumlich konjugiert ist. Die Plattform 830 kann mit einer ersten Platte 810 durch eine erste Biegeverbindung verbunden sein, die zwei Biegeelemente 820a und 820b umfasst. Die Biegeelemente 820a und 820b können nach links und rechts unter Verwendung eines einzelnen Aktuators ausgelenkt werden, wie z. B. eine Schwingspule 850 und ein Dauermagnet 860 wie in 8 gezeigt, oder durch einen piezoelektrischen Aktuator, oder Ähnlichem. In einer Ausführungsform kann die erste Basisplatte 810 mit einer zweiten Basisplatte 812 durch eine zweite Biegeverbindung verbunden sein, die zwei Biegeelemente 870a und 870b umfasst. Die Biegeelemente 870a und 870b können nach vorne und hinten unter Verwendung eines einzelnen Aktuators ausgelenkt werden, wie z. B. eine Schwingspule 852 und ein Dauermagnet 862 wie in 8 gezeigt, oder durch einen piezoelektrischen Aktuator, oder Ähnlichem.
  • Demnach können die Lichtquellen 806 und die Detektoren 160a-160d in zwei Dimensionen in den Brennebenen der Emissionslinse 802 bzw. der Empfangslinse 804 durch Rechts-Links-Bewegungen der Biegeelemente 820a und 820b und durch vorwärts-rückwärts Bewegungen der Biegeelemente 870a und 870b gescannt werden. Da die Lichtquellen 806 und die Detektoren 808 an derselben festen Plattform 830 befestigt sind, wird die konjugierte räumliche Beziehung zwischen jedem Laser-Detektor-Paar erhalten, während sie gescannt werden, vorausgesetzt, dass die Linsenwirkungen der Emissionslinse 804 und der Empfangslinse 802 im Wesentlichen identisch sind. Es sollte verstanden werden, dass, obwohl acht Lichtquellen 806 und acht Detektoren 808 als ein Beispiel in 8 gezeigt sind, mehr oder weniger Lichtquellen und mehr oder weniger Detektoren an einer einzelnen Plattform 830 befestigt sein können.
  • Bei manchen Ausführungsformen kann ein erster Positionsgeber 840 angrenzend an die Plattform 830 zum Detektieren von Koordinaten der Lichtquellen 806 in der Links-Rechts-Richtung (genauer gesagt der X-Koordinaten) angeordnet sein und ein zweiter Positionsgeber 842 kann angrenzend an die erste Basisplatte 810 zum Detektieren von Koordinaten der Lichtquellen 806 in der Vorwärts-Rückwärts-Richtung (genauer gesagt der Y-Koordinaten) angeordnet sein. Der erste Positionsgeber 840 und der zweite Positionsgeber 842 können die X-Y-Koordinaten der Lichtquellen 806 an einen Prozessor eingeben, der zur Erzeugung eines dreidimensionalen Bilds einer Szene verwendet wird.
  • 9 zeigt ein beispielhaftes Bildfeld 900 eines LiDAR-Sensors 902 gemäß manchen Ausführungsformen. Der LiDAR-Sensor 902 kann acht Lichtquellen umfassen, die als ein 4x2 Array angeordnet sind (z. B. wie in dem in 8 gezeigten LiDAR-Sensor). Jede Lichtquelle kann gescannt werden, um ein jeweiliges Teilbildfeld 910 abzudecken. Das Teilbildfeld 910 der acht Lichtquellen (benannt mit den Ziffern 1-8) kann zusammengefügt werden, um das gesamte Bildfeld 900 des LiDAR-Sensors 902 zu bilden.
  • Gemäß manchen Ausführungsformen können acht Lichtquellen sequenziell gefeuert werden. 10 zeigt eine beispielhafte Feuerfolge. Beispielsweise wird in jedem Durchgang Laser #1 gefeuert; dann wird Laser #2 nach einer Verzögerungszeit t1 gefeuert; dann wird Laser #3 nach einer Verzögerungszeit t2 gefeuert; und so weiter und so fort, bis Laser #8 gefeuert wird. Nachdem der erste Durchgang abgeschlossen ist, kann der zweite Durchgang nach einer Verzögerungszeit tg1 starten; ähnlich kann, nachdem der zweite Durchgang abgeschlossen ist, der dritte Durchgang nach einer Verzögerungszeit tg2 starten; und so weiter und so fort. Gemäß manchen Ausführungsformen können die Verzögerungszeiten tg1, tg2, ... zwischen aufeinanderfolgenden Durchgängen zufällig sein. Die Verzögerungszeiten t1, t2, ... t7 zwischen aufeinanderfolgendem Feuern innerhalb eines Durchgangs kann dieselbe sein, oder kann zufällig sein. In beiden Fällen können falsche Punkte aufgrund einer Störung gestreut werden, um deren Detektion mittels niedriger Qualitätsfaktorwerte zu ermöglichen, wie oben beschrieben.
  • 11 zeigt eine Feuerfolge gemäß anderen Ausführungsformen. Hier kann die Reihenfolge des Feuerns von einem Durchgang zum nächsten Durchgang zufällig sein, statt die Laser #1 bis #8 in einer sequenziellen Reihenfolge in jedem Durchgang zu feuern. Beispielsweise kann die Reihenfolge des Feuerns in dem ersten Durchgang wie in 11 gezeigt #3, #2, #1, #7, #6, #8, #4, #5 sein; wohingegen die Reihenfolge des Feuerns in dem zweiten Durchgang #1, #8, #6, #4, #5, #3, #2, #7 sein kann; und so weiter und so fort. Auch in dieser Weise können falsche Punkte aufgrund einer Störung gestreut werden, um deren Detektion als falsche Punkte zu ermöglichen. In manchen Ausführungsformen sind die Verzögerungszeiten t1, t2, ... t7 zwischen aufeinanderfolgendem Feuern innerhalb eines Durchgangs dieselben, und die Verzögerungszeiten tg1, tg2, ... zwischen aufeinanderfolgenden Durchgängen sind dieselben. In manch anderen Ausführungsformen können die Verzögerungszeiten t1, t2, ... t7 und/oder die Verzögerungszeiten tg1, tg2, ... auch zufällig sein.
  • 12 zeigt ein vereinfachtes Flussdiagramm, das ein Verfahren 1200 zum Betreiben eines LiDAR-Systems gemäß einen Ausführungsform zeigt.
  • Das Verfahren 1200 umfasst, bei 1202, ein Emittieren eines Satzes von Lichtpulsen in einer zeitlichen Folge mit zufälligen zeitlichen Abständen zwischen angrenzenden Lichtpulsen, unter Verwendung einer oder mehrerer Lichtquellen. Der Satz von Lichtpulsen ist hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet.
  • Das Verfahren 1200 umfasst ferner, bei 1204, ein Detektieren eines Satzes von zurückgekehrten Lichtpulsen, unter Verwendung eines oder mehrerer Detektoren. Wenigstens eine Teilmenge des Satzes von zurückgekehrten Lichtpulsen entspricht dem Satz von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden.
  • Das Verfahren 1200 umfasst ferner, bei 1206, ein Bestimmen einer Laufzeit für jeden zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen; und bei 1208, ein Erhalten einer Punktwolke basierend auf den Laufzeiten des Satzes von zurückgekehrten Lichtpulsen. Die Punktwolke umfasst einen Satz von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen.
  • Das Verfahren 1200 umfasst ferner, bei 1210, für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke: ein Analysieren von räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und einem Satz von benachbarten Punkten in dem Satz von Punkten; und ein Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  • Es sollte verstanden werden, dass die in 12 gezeigten spezifischen Schritte ein besonderes Verfahren zum Betreiben eines LiDAR-Systems gemäß manchen Ausführungsformen bereitstellt. Auch andere Folgen von Schritten können gemäß alternativen Ausführungsformen durchgeführt werden. Beispielsweise können alternative Ausführungsformen der vorliegenden Erfindung die oben skizzierten Schritte in einer anderen Reihenfolge durchführen. Darüber hinaus können die einzelnen in 12 gezeigten Schritte mehrere Teilschritte umfassen, die in verschiedenen Folgen durchgeführt werden können, wie es für den einzelnen Schritt angemessen ist. Des Weiteren können zusätzliche Schritte hinzugefügt werden und manche Schritte abhängig von den jeweiligen Anwendungen entfernt werden. Der Fachmann würde viele Abänderungen, Modifizierungen und Alternativen erkennen.
  • 13 zeigt ein vereinfachtes Flussdiagramm eines Verfahrens 1300 zum Betreiben eines LiDAR-Systems gemäß einer Ausführungsform.
  • Das Verfahren 1300 umfasst, bei 1302, ein Emittieren einer Vielzahl von Sätzen von Lichtpulsen, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, unter Verwendung einer Vielzahl von Lichtquellen, die als ein Array angeordnet sind. Jeder jeweilige Satz von Lichtpulsen umfasst eine Vielzahl von Lichtpulsen in einer zeitlichen Folge. Jeder jeweilige Lichtpuls wird durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert. Die Vielzahl von Sätzen von Lichtpulsen ist durch zufällige Zeitverzögerungen zeitlich voneinander getrennt.
  • Das Verfahren 1300 umfasst ferner, bei 1304, ein Detektieren einer Vielzahl von zurückgekehrten Lichtpulsen, unter Verwendung einer Vielzahl von Detektoren, die als ein Array angeordnet sind. Jeder jeweilige Detektor entspricht einer jeweiligen Lichtquelle. Wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen entspricht der Vielzahl von Sätzen von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden.
  • Das Verfahren 1300 umfasst ferner, bei 1306, ein Bestimmen einer Laufzeit für jeden jeweiligen Lichtpuls der Vielzahl von Lichtpulsen; und bei 1308, ein Erhalten einer Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen. Die Punktwolke umfasst eine Vielzahl von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder jeweilige Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls.
  • Das Verfahren 1300 umfasst ferner, bei 1310, für jeden jeweiligen Punkt in der Punktwolke: ein Analysieren räumlicher und zeitlicher Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punkwolke; und ein Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  • Es sollte verstanden werden, dass die in 13 gezeigten spezifischen Schritte ein bestimmtes Verfahren zum Betreiben eines LiDAR-Systems gemäß manchen Ausführungsformen bereitstellt. Es können auch andere Folgen der Schritte gemäß alternativen Ausführungsformen durchgeführt werden. Beispielsweise können alternative Ausführungsformen der vorliegenden Erfindung die oben skizzierten Schritte in einer anderen Reihenfolge durchführen. Darüber hinaus können einzelne in 13 gezeigte Schritte mehrere Teilschritte umfassen, die in verschiedenen Folgen durchgeführt werden, wie es für den einzelnen Schritt angemessen ist. Des Weiteren können zusätzliche Schritte hinzugefügt werden und manche Schritte abhängig von der jeweiligen Anwendung entfernt werden. Der Fachmann würde viele Abänderungen, Modifizierungen und Alternativen erkennen.
  • 14 zeigt ein vereinfachtes Flussdiagramm, das ein Verfahren 1400 zum Betreiben eines LiDAR-Systems gemäß einer Ausführungsform zeigt.
  • Das Verfahren 1400 umfasst, bei 1402, ein Emittieren einer Vielzahl von Sätzen von Lichtpulsen, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, unter Verwendung einer Vielzahl von Lichtquellen, die als ein Array angeordnet sind. Jeder jeweilige Satz von Lichtpulsen umfasst eine Vielzahl von Lichtpulsen in einer zeitlichen Folge. Jeder jeweilige Lichtpuls wird durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert. Die Vielzahl von Lichtpulsen wird durch die Vielzahl von Lichtquellen in einer zufälligen Reihenfolge emittiert.
  • Das Verfahren 1400 umfasst ferner, bei 1404, ein Detektieren einer Vielzahl von zurückgekehrten Lichtpulsen, unter Verwendung einer Vielzahl von Detektoren, die als ein Array angeordnet sind. Jeder jeweilige Detektor entspricht einer jeweiligen Lichtquelle. Wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen entspricht der Vielzahl von Sätzen von Lichtpulsen, die von einem oder mehreren Objekten in der Szene reflektiert wurden.
  • Das Verfahren 1400 umfasst ferner, bei 1406, ein Bestimmen einer Laufzeit für jeden zurückgekehrten Lichtpuls der Vielzahl von Lichtpulsen; und bei 1408, ein Erhalten einer Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen. Die Punktwolke umfasst eine Vielzahl von Punkten, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren. Jeder jeweilige Punkt entspricht einem jeweiligen zurückgekehrten Lichtpuls.
  • Das Verfahren 1400 umfasst ferner, bei 1410, für jeden jeweiligen Punkt in der Punktwolke: ein Analysieren räumlicher und zeitlicher Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke; und ein Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  • Es sollte verstanden werden, dass die in 14 gezeigten Schritte ein bestimmtes Verfahren zum Betreiben eines LiDAR-Systems gemäß manchen Ausführungsformen bereitstellt. Es können auch andere Folgen von Schritten gemäß alternativen Ausführungsformen durchgeführt werden. Beispielsweise können alternative Ausführungsformen der vorliegenden Erfindung die oben skizzierten Schritte in einer anderen Reihenfolge durchführen. Darüber hinaus können die einzelnen in 14 gezeigten Schritte mehrere Teilschritte umfassen, die in verschiedenen Folgen durchgeführt werden können, wie es für den einzelnen Schritt angemessen ist. Des Weiteren können zusätzliche Schritte hinzugefügt werden und manche Schritte abhängig von der jeweiligen Anwendung entfernt werden. Der Fachmann würde viele Abänderungen, Modifizierungen und Alternativen erkennen.
  • Es ist selbstverständlich, dass die hierin beschriebenen Beispiele und Ausführungsformen lediglich zu anschaulichen Zwecken dienen und dass dem Fachmann verschiedene Modifizierungen oder Änderungen im Hinblick darauf vorgeschlagen sind und im Sinn und Zweck dieser Anwendung und dem Umfang der anhängenden Ansprüche umfasst sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/909633 [0001]
    • US 17/032526 [0001]

Claims (46)

  1. LiDAR-System, umfassend: eine oder mehrere Lichtquellen, die dazu konfiguriert sind, einen Satz von Lichtpulsen zu emittieren, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, wobei der Satz von Lichtpulsen in einer zeitlichen Folge mit zufälligen zeitlichen Abständen zwischen angrenzenden Lichtpulsen emittiert wird; einen oder mehrere Detektoren, die dazu konfiguriert sind, einen Satz von zurückgekehrten Lichtpulsen zu empfangen, wobei wenigstens eine Teilmenge des Satzes der zurückgekehrten Lichtpulse dem Satz von Lichtpulsen entspricht, die von einem oder mehreren Objekten in der Szene reflektiert wurden; einen Prozessor, der mit der einen oder den mehreren Lichtquellen und dem einen oder den mehreren Detektoren verbunden ist, wobei der Prozessor dazu konfiguriert ist: eine Laufzeit für jeden zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen zu bestimmen; eine Punktwolke basierend auf den Laufzeiten des Satzes von zurückgekehrten Lichtpulsen zu erhalten, wobei die Punktwolke einen Satz von Punkten aufweist, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren, wobei jeder Punkt einem jeweiligen zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen entspricht; und für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke: räumliche und zeitliche Beziehungen zwischen dem jeweiligen Punkt und einem Satz von benachbarten Punkten in dem Satz von Punkten zu analysieren; und einen Qualitätsfaktor für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen auszuwerten.
  2. LiDAR-System nach Anspruch 1, wobei das Analysieren der räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und dem Satz von benachbarten Punkten umfasst: Auswerten eines Teilqualitätsfaktors, der umgekehrt proportional zu einer räumlichen und zeitlichen Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt ist, für jeden jeweiligen benachbarten Punkt des Satzes von benachbarten Punkten.
  3. LiDAR-System nach Anspruch 2, wobei das Auswerten des Qualitätsfaktors für den jeweiligen Punkt umfasst: Auswerten einer Summe von Teilqualitätsfaktorwerten des Satzes von benachbarten Punkten.
  4. LiDAR-System nach Anspruch 2, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine Winkeltrennung, eine Entfernungstrennung und eine zeitliche Trennung betrifft.
  5. LiDAR-System nach Anspruch 4, wobei die Winkeltrennung eine Vektorsumme einer horizontalen Winkeltrennung und einer vertikalen Winkeltrennung umfasst.
  6. LiDAR-System nach Anspruch 4, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine gewichtete Kombination einer Potenzfunktion der Winkeltrennung, einer Potenzfunktion der Entfernungstrennung und einer Potenzfunktion der zeitlichen Trennung umfasst.
  7. LiDAR-System nach Anspruch 1, ferner umfassend: ein Wahrnehmungsmodul, das mit dem Prozessor verbunden ist und dazu konfiguriert ist: für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke zu bestimmen, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, basierend auf einem Wert des Qualitätsfaktors des jeweiligen Punkts.
  8. LiDAR-System nach Anspruch 7, wobei das Bestimmen, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, umfasst: Vergleichen des Werts des Qualitätsfaktors des jeweiligen Punkts mit einem Schwellwert; und Bestimmen, dass der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, nach Bestimmen, dass der Wert des Qualitätsfaktors des jeweiligen Punkts geringer als der Schwellwert ist.
  9. LiDAR-System nach Anspruch 7, wobei das Bestimmen, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, ferner auf Wetterbedingungen basiert, wenn die Punktwolke durch das LIDAR-System aufgenommen wird.
  10. LiDAR-System nach Anspruch 7, wobei das Bestimmen, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, ferner auf Kameradaten oder Radardaten basiert.
  11. Verfahren zum Betreiben eines LiDAR-Systems, wobei das Verfahren umfasst: Emittieren eines Satzes von Lichtpulsen in einer zeitlichen Folge mit zufälligen zeitlichen Abständen zwischen angrenzenden Lichtpulsen, unter Verwendung einer oder mehrerer Lichtquellen, wobei der Satz von Lichtpulsen hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet ist; Detektieren eines Satzes von zurückgekehrten Lichtpulsen unter Verwendung eines oder mehrerer Detektoren, wobei wenigstens eine Teilmenge des Satzes von zurückgekehrten Lichtpulsen dem Satz von Lichtpulsen entspricht, die von einem oder mehreren Objekten in der Szene reflektiert wurden; Bestimmen einer Laufzeit für jeden zurückgekehrten Lichtpuls des Satzes von Lichtpulsen; Erhalten einer Punktwolke basierend auf den Laufzeiten des Satzes von zurückgekehrten Lichtpulsen, wobei die Punktwolke einen Satz von Punkten aufweist, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren, wobei jeder der Punkte einem jeweiligen zurückgekehrten Lichtpuls des Satzes von zurückgekehrten Lichtpulsen entspricht; und für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke: Analysieren von räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und einem Satz von benachbarten Punkten in dem Satz von Punkten; und Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  12. Verfahren nach Anspruch 11, wobei das Analysieren der räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und dem Satz von benachbarten Punkten umfasst: Auswerten eines Teilqualitätsfaktors, der umgekehrt proportional zu einer räumlichen und zeitlichen Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt ist, für jeden jeweiligen benachbarten Punkt des Satzes von benachbarten Punkten.
  13. Verfahren nach Anspruch 12, wobei die räumliche und zeitliche Trennung des Qualitätsfaktors für den jeweiligen Punkt umfasst: Auswerten einer Summe von Teilqualitätsfaktorwerten des Satzes von benachbarten Punkten.
  14. Verfahren nach Anspruch 12, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine Winkeltrennung, eine Entfernungstrennung und eine zeitliche Trennung betrifft.
  15. Verfahren nach Anspruch 14, wobei die Winkeltrennung eine Vektorsumme einer horizontalen Winkeltrennung und einer vertikalen Winkeltrennung umfasst.
  16. Verfahren nach Anspruch 14, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine gewichtete Kombination einer Potenzfunktion der Winkeltrennung, einer Potenzfunktion der Entfernungstrennung und einer Potenzfunktion der zeitlichen Trennung umfasst.
  17. Verfahren nach Anspruch 11, ferner umfassend: Bestimmen für jeden jeweiligen Punkt des Satzes von Punkten in der Punktwolke, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, basierend auf einem Wert des Qualitätsfaktors des jeweiligen Punkts.
  18. Verfahren nach Anspruch 17, wobei das Bestimmen, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, umfasst: Vergleichen des Werts des Qualitätsfaktors des jeweiligen Punkts mit einem Schwellwert; und Bestimmen, dass der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, nach Bestimmen, dass der Wert des Qualitätsfaktors des jeweiligen Punkts geringer als der Schwellwert ist.
  19. Verfahren nach Anspruch 17, wobei das Bestimmen, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, ferner auf Wetterbedingungen basiert, wenn die Punktwolke durch das LiDAR-System aufgenommen wird.
  20. Verfahren nach Anspruch 17, wobei das Bestimmen, ob der jeweilige Punkt ein falscher Punkt aufgrund einer Störung ist, ferner auf Kameradaten oder Radardaten basiert.
  21. LiDAR-System, umfassend: eine Vielzahl von Lichtquellen, die als ein Array angeordnet sind und die dazu konfiguriert sind, eine Vielzahl von Sätzen von Lichtpulsen zu emittieren, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, wobei: jeder jeweilige Satz von Lichtpulsen eine Vielzahl von Lichtpulsen in einer zeitlichen Folge umfasst, wobei jeder jeweilige Lichtpuls durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert wird; und die Vielzahl von Sätzen von Lichtpulsen durch zufällige Zeitverzögerungen zeitlich voneinander getrennt sind; eine Vielzahl von Detektoren, die als ein Array angeordnet sind, wobei jeder jeweilige Detektor einer jeweiligen Lichtquelle entspricht, wobei die Vielzahl von Detektoren dazu konfiguriert ist, eine Vielzahl von zurückgekehrten Lichtpulsen zu detektieren, wobei wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen entspricht, die von einem oder mehreren Objekten in der Szene reflektiert wurden; und einen Prozessor, der mit der Vielzahl von Lichtquellen und der Vielzahl von Detektoren verbunden ist, wobei der Prozessor dazu konfiguriert ist: eine Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls der Vielzahl von zurückgekehrten Lichtpulsen zu bestimmen; eine Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen zu erhalten, wobei die Punktwolke eine Vielzahl von Punkten umfasst, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren, wobei jeder jeweilige Punkt einem jeweiligen zurückgekehrten Lichtpuls entspricht; und für jeden jeweiligen Punkt in der Punktwolke: räumliche und zeitliche Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke zu analysieren; und einen Qualitätsfaktor für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen auszuwerten.
  22. LiDAR-System nach Anspruch 21, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch eine gleiche zeitliche Beabstandung zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  23. LiDAR-System nach Anspruch 21, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch zufällige zeitliche Abstände zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  24. LiDAR-System nach Anspruch 21, wobei jeder Satz von Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen durch die Vielzahl von Lichtquellen in einer gleichen sequenziellen Reihenfolge emittiert wird.
  25. LiDAR-System nach Anspruch 21, wobei: ein erster Satz von Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen durch die Vielzahl von Lichtquellen in einer ersten sequenziellen Reihenfolge emittiert wird; und ein zweiter Satz von Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen durch die Vielzahl von Lichtquellen in einer zweiten sequenziellen Reihenfolge emittiert wird, die von der ersten sequenziellen Reihenfolge verschieden ist.
  26. LiDAR-System nach Anspruch 21, wobei das Analysieren der räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und den benachbarten Punkten umfasst: Auswerten eines Teilqualitätsfaktors, der umgekehrt proportional zu einer räumlichen und zeitlichen Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt ist, für jeden jeweiligen benachbarten Punkt; und Auswerten einer Summe von Teilqualitätsfaktorwerten der benachbarten Punkte.
  27. LiDAR-System nach Anspruch 26, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine Winkeltrennung, eine Entfernungstrennung und eine zeitliche Trennung betrifft.
  28. Verfahren zum Betreiben eines LiDAR-Systems, wobei das Verfahren umfasst: Emittieren einer Vielzahl von Sätzen von Lichtpulsen, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, unter Verwendung einer Vielzahl von Lichtquellen, die in einem Array angeordnet sind, wobei: jeder jeweilige Satz von Lichtpulsen eine Vielzahl von Lichtpulsen in einer zeitlichen Folge umfasst, wobei jeder jeweilige Lichtpuls durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert wird; und die Vielzahl von Sätzen von Lichtpulsen durch zufällige Zeitverzögerungen zeitlich voneinander getrennt sind; Detektieren einer Vielzahl von zurückgekehrten Lichtpulsen unter Verwendung einer Vielzahl von Detektoren, die als ein Array angeordnet sind, wobei jeder jeweilige Detektor einer jeweiligen Lichtquelle entspricht und wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen entspricht, die von einem oder mehreren Objekten in der Szene reflektiert wurden; Bestimmen einer Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls der Vielzahl von zurückgekehrten Lichtpulsen; Erhalten einer Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen, wobei die Punktwolke eine Vielzahl von Punkten aufweist, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren, wobei jeder jeweilige Punkt einem jeweiligen zurückgekehrten Lichtpuls entspricht; und für jeden jeweiligen Punkt in der Punktwolke: Analysieren von räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke; und Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  29. Verfahren nach Anspruch 28, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch eine gleiche zeitliche Beabstandung zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  30. Verfahren nach Anspruch 28, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch zufällige zeitliche Abstände zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  31. Verfahren nach Anspruch 28, wobei jeder Satz von Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen durch die Vielzahl von Lichtquellen in einer gleichen sequenziellen Reihenfolge emittiert wird.
  32. Verfahren nach Anspruch 28, wobei: ein erster Satz von Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen durch die Vielzahl von Lichtquellen in einer ersten sequenziellen Reihenfolge emittiert wird; und ein zweiter Satz von Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen durch die Vielzahl von Lichtquellen in einer zweiten sequenziellen Reihenfolge emittiert wird, die von der ersten sequenziellen Reihenfolge verschieden ist.
  33. Verfahren nach Anspruch 28, wobei das Analysieren der räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und den benachbarten Punkten umfasst: Auswerten eines Teilqualitätsfaktors, der umgekehrt proportional zu einer räumlichen und zeitlichen Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt ist, für jeden jeweiligen benachbarten Punkt; und Auswerten einer Summe von Teilqualitätsfaktorwerten der benachbarten Punkte.
  34. Verfahren nach Anspruch 33, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine Winkeltrennung, eine Entfernungstrennung und eine zeitliche Trennung betrifft.
  35. LiDAR-System, umfassend: eine Vielzahl von Lichtquellen, die als ein Array angeordnet sind und dazu konfiguriert sind, eine Vielzahl von Sätzen von Lichtpulsen zu emittieren, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, wobei: jeder jeweilige Satz von Lichtpulsen eine Vielzahl von Lichtpulsen in einer zeitlichen Folge umfasst, wobei jeder jeweilige Lichtpuls durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert wird und die Vielzahl von Lichtpulsen von der Vielzahl von Lichtquellen in einer zufälligen Reihenfolge emittiert wird; eine Vielzahl von Detektoren, die als ein Array angeordnet sind, wobei jeder jeweilige Detektor einer jeweiligen Lichtquelle entspricht, wobei die Vielzahl von Detektoren dazu konfiguriert ist, eine Vielzahl von zurückgekehrten Lichtpulsen zu detektieren, wobei wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen entspricht, die von einem oder mehreren Objekten in der Szene reflektiert wurden; und einen Prozessor, der mit der Vielzahl von Lichtquellen und der Vielzahl von Detektoren verbunden ist, wobei der Prozessor dazu konfiguriert ist: eine Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls der Vielzahl von zurückgekehrten Lichtpulsen zu bestimmen; eine Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen zu erhalten, wobei die Punktwolke eine Vielzahl von Punkten aufweist, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren, wobei jeder jeweilige Punkt einem jeweiligen zurückgekehrten Lichtpuls entspricht; und für jeden jeweiligen Punkt in der Punktwolke: räumliche und zeitliche Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke zu analysieren; und einen Qualitätsfaktor für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen auszuwerten.
  36. LiDAR-System nach Anspruch 35, wobei die Vielzahl von Sätzen von Lichtpulsen durch zufällige Zeitverzögerungen zeitlich voneinander getrennt ist.
  37. LiDAR-System nach Anspruch 35, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch eine gleiche zeitliche Beabstandung zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  38. LiDAR-System nach Anspruch 35, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch zufällige zeitliche Abstände zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  39. LiDAR-System nach Anspruch 35, wobei das Analysieren der räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und den benachbarten Punkten umfasst: Auswerten eines Teilqualitätsfaktors, der umgekehrt proportional zu einer räumlichen und zeitlichen Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt ist, für jeden jeweiligen benachbarten Punkt; und Auswerten einer Summe von Teilqualitätsfaktorwerten des Satzes von benachbarten Punkten.
  40. LiDAR-System nach Anspruch 39, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine Winkeltrennung, eine Entfernungstrennung und eine zeitliche Trennung betrifft.
  41. Verfahren zum Betreiben eines LiDAR-Systems, wobei das Verfahren umfasst: Emittieren einer Vielzahl von Sätzen von Lichtpulsen, um hin zu einer Szene innerhalb eines Bildfelds des LiDAR-Systems gerichtet zu sein, unter Verwendung einer Vielzahl von Lichtquellen, die als ein Array angeordnet sind, wobei: jeder jeweilige Satz von Lichtpulsen eine Vielzahl von Lichtpulsen in einer zeitlichen Folge umfasst, wobei jeder jeweilige Lichtpuls durch eine jeweilige Lichtquelle der Vielzahl von Lichtquellen emittiert wird und die Vielzahl von Lichtpulsen durch die Vielzahl von Lichtquellen in einer zufälligen Reihenfolge emittiert wird; Detektieren einer Vielzahl von zurückgekehrten Lichtpulsen unter Verwendung einer Vielzahl von Detektoren, die als ein Array angeordnet sind, wobei jeder jeweilige Detektor einer jeweiligen Lichtquelle entspricht und wenigstens eine Teilmenge der Vielzahl von zurückgekehrten Lichtpulsen der Vielzahl von Sätzen von Lichtpulsen entspricht, die von einem oder mehreren Objekten in der Szene reflektiert wurden; Bestimmen einer Laufzeit für jeden jeweiligen zurückgekehrten Lichtpuls der Vielzahl von zurückgekehrten Lichtpulse; Erhalten einer Punktwolke basierend auf den Laufzeiten der Vielzahl von zurückgekehrten Lichtpulsen, wobei die Punktwolke eine Vielzahl von Punkten aufweist, die eine oder mehrere Oberflächen des einen oder der mehreren Objekte repräsentieren, wobei jeder jeweilige Punkt einem jeweiligen zurückgekehrten Lichtpuls entspricht; und für jeden jeweiligen Punkt in der Punktwolke: Analysieren von räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und benachbarten Punkten in der Punktwolke; und Auswerten eines Qualitätsfaktors für den jeweiligen Punkt basierend auf den räumlichen und zeitlichen Beziehungen.
  42. Verfahren nach Anspruch 41, wobei die Vielzahl von Sätzen von Lichtpulsen durch zufällige Zeitverzögerungen zeitlich voneinander getrennt ist.
  43. Verfahren nach Anspruch 41, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch eine gleiche zeitliche Beabstandung zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  44. Verfahren nach Anspruch 41, wobei die Vielzahl von Lichtpulsen in jedem jeweiligen Satz von Lichtpulsen durch zufällige zeitliche Abstände zwischen angrenzenden Lichtpulsen voneinander getrennt ist.
  45. Verfahren nach Anspruch 41, wobei das Analysieren der räumlichen und zeitlichen Beziehungen zwischen dem jeweiligen Punkt und den benachbarten Punkten umfasst: Auswerten eines Teilqualitätsfaktors, der umgekehrt proportional zu einer räumlichen und zeitlichen Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt ist, für jeden jeweiligen benachbarten Punkt; und Auswerten einer Summe von Teilqualitätsfaktorwerten des Satzes von benachbarten Punkten.
  46. Verfahren nach Anspruch 45, wobei die räumliche und zeitliche Trennung zwischen dem jeweiligen Punkt und dem jeweiligen benachbarten Punkt eine Winkeltrennung, eine Entfernungstrennung und eine zeitliche Trennung betrifft.
DE112020004763.6T 2019-10-02 2020-09-28 Techniken zum Detektieren von Überlagerungsstörungen in bildgebenden LiDAR-Sensoren Pending DE112020004763T5 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962909633P 2019-10-02 2019-10-02
US62/909,633 2019-10-02
US17/032,526 2020-09-25
US17/032,526 US11150348B2 (en) 2019-10-02 2020-09-25 Techniques for detecting cross-talk interferences in lidar imaging sensors
PCT/US2020/053021 WO2021067165A1 (en) 2019-10-02 2020-09-28 Techniques for detecting cross-talk interferences in lidar imaging sensors

Publications (1)

Publication Number Publication Date
DE112020004763T5 true DE112020004763T5 (de) 2022-06-30

Family

ID=75275048

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112020004763.6T Pending DE112020004763T5 (de) 2019-10-02 2020-09-28 Techniken zum Detektieren von Überlagerungsstörungen in bildgebenden LiDAR-Sensoren

Country Status (5)

Country Link
US (3) US11150348B2 (de)
JP (1) JP7474457B2 (de)
CN (1) CN114585943B (de)
DE (1) DE112020004763T5 (de)
WO (1) WO2021067165A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11150348B2 (en) 2019-10-02 2021-10-19 Cepton Technologies, Inc. Techniques for detecting cross-talk interferences in lidar imaging sensors
US11561281B2 (en) * 2020-06-29 2023-01-24 Waymo Llc Selective deactivation of light emitters for interference mitigation in light detection and ranging (lidar) devices
WO2023277998A2 (en) * 2021-04-26 2023-01-05 Neural Propulsion Systems, Inc. Moving aperture lidar
DE102022201740A1 (de) 2022-02-21 2023-08-24 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung zur Detektion von optischem Übersprechen in einem LiDAR-System sowie entsprechendes Computerprogramm, Speichermedium und LiDAR-System
CN115015874B (zh) * 2022-08-08 2022-11-08 探维科技(北京)有限公司 激光雷达串扰点云处理方法、装置、电子设备和介质
CN116538996B (zh) * 2023-07-04 2023-09-29 云南超图地理信息有限公司 基于激光雷达的地形测绘系统及方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7411196B2 (en) * 2005-08-18 2008-08-12 Itt Manufacturing Enterprises, Inc. Multi-sensors and differential absorption LIDAR data fusion
US8736818B2 (en) * 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
US9575184B2 (en) * 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
US9453941B2 (en) 2014-12-22 2016-09-27 GM Global Technology Operations LLC Road surface reflectivity detection by lidar sensor
JP6505470B2 (ja) 2015-02-27 2019-04-24 株式会社デンソー ノイズ除去方法および物体認識装置
JP6665535B2 (ja) 2016-01-11 2020-03-13 株式会社デンソー レーザレーダ装置
US10627490B2 (en) * 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
US10761195B2 (en) * 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
US10451740B2 (en) 2016-04-26 2019-10-22 Cepton Technologies, Inc. Scanning lidar systems for three-dimensional sensing
WO2018055513A2 (en) 2016-09-20 2018-03-29 Innoviz Technologies Ltd. Methods circuits devices assemblies systems and functionally associated machine executable code for light detection and ranging based scanning
US20180100928A1 (en) * 2016-10-09 2018-04-12 Innoviz Technologies Ltd. Methods circuits devices assemblies systems and functionally associated machine executable code for active scene scanning
US10845470B2 (en) 2016-11-16 2020-11-24 Waymo Llc Methods and systems for protecting a light detection and ranging (LIDAR) device
US10830878B2 (en) * 2016-12-30 2020-11-10 Panosense Inc. LIDAR system
US20180196125A1 (en) 2017-01-09 2018-07-12 Qualcomm Incorporated Systems and methods for lidar interference mitigation
US10641876B2 (en) 2017-04-06 2020-05-05 Quanergy Systems, Inc. Apparatus and method for mitigating LiDAR interference through pulse coding and frequency shifting
KR102657365B1 (ko) * 2017-05-15 2024-04-17 아우스터, 인크. 휘도 향상된 광학 이미징 송신기
US10591923B2 (en) * 2017-06-27 2020-03-17 GM Global Technology Operations LLC Method and apparatus for parallel illumination by a VCSEL array
US10754033B2 (en) 2017-06-30 2020-08-25 Waymo Llc Light detection and ranging (LIDAR) device range aliasing resilience by multiple hypotheses
US10311728B2 (en) * 2017-08-11 2019-06-04 Here Global B.V. Method and apparatus for providing a confidence-based road event message
US10955552B2 (en) * 2017-09-27 2021-03-23 Apple Inc. Waveform design for a LiDAR system with closely-spaced pulses
US10921431B2 (en) 2017-10-19 2021-02-16 Cepton Technologies Inc. Apparatuses for scanning a lidar system in two dimensions
US11971507B2 (en) 2018-08-24 2024-04-30 Velodyne Lidar Usa, Inc. Systems and methods for mitigating optical crosstalk in a light ranging and detection system
US11543495B2 (en) 2018-11-01 2023-01-03 Waymo Llc Shot reordering in LIDAR systems
DE102018129246B4 (de) 2018-11-21 2020-10-15 Infineon Technologies Ag Interferenzdetektierung und -minderung für lidarsysteme
CN110988846B (zh) 2019-04-22 2023-07-18 威力登激光雷达美国有限公司 可用于激光雷达的噪点识别方法以及激光雷达系统
US10613203B1 (en) 2019-07-01 2020-04-07 Velodyne Lidar, Inc. Interference mitigation for light detection and ranging
US11150348B2 (en) 2019-10-02 2021-10-19 Cepton Technologies, Inc. Techniques for detecting cross-talk interferences in lidar imaging sensors

Also Published As

Publication number Publication date
WO2021067165A1 (en) 2021-04-08
US11150348B2 (en) 2021-10-19
US20210405190A1 (en) 2021-12-30
CN114585943B (zh) 2023-07-14
CN114585943A (zh) 2022-06-03
US20210103055A1 (en) 2021-04-08
US11899110B2 (en) 2024-02-13
US20210405191A1 (en) 2021-12-30
JP2022550200A (ja) 2022-11-30
JP7474457B2 (ja) 2024-04-25

Similar Documents

Publication Publication Date Title
DE112020004763T5 (de) Techniken zum Detektieren von Überlagerungsstörungen in bildgebenden LiDAR-Sensoren
EP3168641B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
DE102017113675B4 (de) Optoelektronischer Sensor und Verfahren zur Messung der Entfernung zu einem Objekt
DE102017207317B4 (de) Vorrichtung zur Ermittlung eines Abstands zu einem Objekt sowie entsprechendes Verfahren
DE102005019269B4 (de) Vorrichtung zur Erkennung eines vorhergehenden Fahrzeugs
EP3049823B1 (de) Verfahren zur steuerung eines mikrospiegelscanners und mikrospiegelscanner
DE102005013555A1 (de) Radarvorrichtung
DE112017007467T5 (de) Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System
DE102007030823B4 (de) Radargerät
DE102011007133A1 (de) Vorrichtung und verfahren zum erkennen des vorhandenseins von objekten
DE102016108435A1 (de) Räumlich-zeitliche Abtastmuster für Lidarfeldsysteme
EP3182159A1 (de) Vorrichtung zur entfernungsmessung
DE102011006216A1 (de) Vorrichtung und Verfahren zur Erfassung von auf der Straße abgebildeten Teilungslinien
DE102019216085A1 (de) Laserabstandsmessvorrichtung
WO2011137465A1 (de) Laser-hydrographieverfahren
DE102019106129A1 (de) Testeinheit und Verfahren zum Prüfen einer LIDAR-Einheit für ein Fahrzeug
EP3816656A1 (de) Verfahren und vorrichtung zur optischen distanzmessung
EP1932017A1 (de) Vorrichtung und verfahren zur aufnahme von abstandsbildern
EP3531167B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
WO2018172258A1 (de) Spad-basiertes lidar-system
EP2921879B1 (de) Klassifikationsverfahren für Messpunkte eines topobathymetrischen Datensatzes
DE102019201739A1 (de) Vorrichtung und Verfahren für Time-Gating in laufzeitbasierter Distanzmessung
DE102013112820A1 (de) Selektivität durch polarisation
EP3614172B1 (de) Verfahren und vorrichtung zur optischen distanzmessung
EP2287630B1 (de) Optoelektronische Erfassungsvorrichtung