DE112021000951T5 - Lidar-Erfassungsanordnungen - Google Patents

Lidar-Erfassungsanordnungen Download PDF

Info

Publication number
DE112021000951T5
DE112021000951T5 DE112021000951.6T DE112021000951T DE112021000951T5 DE 112021000951 T5 DE112021000951 T5 DE 112021000951T5 DE 112021000951 T DE112021000951 T DE 112021000951T DE 112021000951 T5 DE112021000951 T5 DE 112021000951T5
Authority
DE
Germany
Prior art keywords
frequency
processor
time
signal
fov
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021000951.6T
Other languages
English (en)
Inventor
Masayuki Okano
Changho Chong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Santec Holdings Corp Komaki Jp
Original Assignee
Santec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Santec Corp filed Critical Santec Corp
Publication of DE112021000951T5 publication Critical patent/DE112021000951T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02002Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies
    • G01B9/02003Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies using beat frequencies
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02001Interferometers characterised by controlling or generating intrinsic radiation properties
    • G01B9/02002Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies
    • G01B9/02004Interferometers characterised by controlling or generating intrinsic radiation properties using two or more frequencies using frequency scans
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02041Interferometers characterised by particular imaging or detection techniques
    • G01B9/02045Interferometers characterised by particular imaging or detection techniques using the Doppler effect
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B9/00Measuring instruments characterised by the use of optical techniques
    • G01B9/02Interferometers
    • G01B9/02055Reduction or prevention of errors; Testing; Calibration
    • G01B9/0207Error reduction by correction of the measurement signal based on independently determined error sources, e.g. using a reference interferometer
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/34Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/14Fourier, Walsh or analogous domain transformations, e.g. Laplace, Hilbert, Karhunen-Loeve, transforms
    • G06F17/141Discrete Fourier transforms
    • G06F17/142Fast Fourier transforms, e.g. using a Cooley-Tukey type algorithm
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B2290/00Aspects of interferometers not specifically covered by any group under G01B9/02
    • G01B2290/60Reference interferometer, i.e. additional interferometer not interacting with object

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Mathematical Physics (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Discrete Mathematics (AREA)
  • Algebra (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Es werden ein System und Verfahren für Light Detecting and Ranging (LIDAR) offenbart. Das LIDAR-System umfasst eine Lichtquelle, die dazu ausgelegt ist, einen Strahl mit verschiedenen Wellenlängen zu einem wellenlängendispersiven Element zu projizieren. Das wellenlängendispersive Element ist dazu ausgelegt, den Strahl zu empfangen und mindestens einen Abschnitt des Strahls in ein Sichtfeld (FOV) in einem frequenzabhängigen Winkel zu projizieren. Das System umfasst außerdem einen Detektor, der angeordnet ist, um Abschnitte des Strahls, die von einem Objekt innerhalb des FOV reflektiert wurden, zu empfangen, und einen Prozessor, der dazu ausgelegt ist, die Lichtquelle zu steuern und eine Geschwindigkeit des Objekts zu bestimmen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität der US-Patentanmeldung Nr. 16/810269 , die am 5. März 2020 eingereicht wurde und die hier durch Verweis in ihrer Gänze aufgenommen ist.
  • TECHNISCHES GEBIET
  • Die vorliegende Anmeldung betrifft im Allgemeinen das Gebiet der Sensorik und insbesondere LIDAR-Erfassungsanordnungen (Light Detection and Ranging).
  • HINTERGRUND
  • LIDAR-Systeme verwenden Licht zum Detektieren einer Entfernung zwischen einer Lichtquelle und einem Ziel. Ein Strahl (z. B. ein Laser) wird auf das Ziel gerichtet. LIDAR-Systeme ermitteln in der Regel die Zeit, die Licht benötigt, um das Ziel zu erreichen, vom Ziel abgelenkt zu werden und zu einem Detektor zurückzukehren. Auf der Grundlage dieser Zeit und der Lichtgeschwindigkeit wird eine Entfernung zum Ziel bestimmt. Das Detektieren von Zielen und das Bestimmen der Bewegung der Ziele stellen Funktionen dar, die auf eine zuverlässige, kontinuierliche und zeitnahe Weise durchgeführt werden müssen, damit eine Maschine (d. h. ein autonomes Fahrzeug) sicher in Betrieb ist.
  • KURZDARSTELLUNG
  • Die vorliegende Technologie stellt Systeme und Verfahren für LIDAR bereit, die in der Lage sind, ein Objekt innerhalb eines Sichtfeldes (FOV) zu erfassen, zu verfolgen und seine Geschwindigkeit zu bestimmen. In einer Implementierung umfasst ein LIDAR-System eine Lichtquelle, die dazu ausgelegt ist, einen Strahl, der diskrete Frequenzen zu verschiedenen Zeitpunkten aufweist, zu generieren, ein wellenlängendispersives Element, das derart angeordnet ist, dass es mindestens einen Abschnitt des Strahls empfängt, und dazu ausgelegt ist, den Strahl über einen Bereich von Winkeln in einem Sichtfeld (FOV) durchlaufen zu lassen, wobei jede diskrete Frequenz des Strahls einem anderen Winkel im FOV entspricht, einen Detektor, der angeordnet ist, um Abschnitte des Strahls, die von einem Objekt innerhalb des FOV reflektiert werden, zu empfangen, und einen Prozessor, der mit dem Detektor kommunikativ gekoppelt ist. Der Prozessor ist dazu ausgelegt, zu veranlassen, dass die Lichtquelle einen Strahl generiert, der von einer ersten Frequenz zu einem ersten Zeitpunkt hin zu einer zweiten Frequenz im Verlauf einer Anstiegszeitdauer und von der zweiten Frequenz zurück zur ersten Frequenz im Verlauf einer Abfallzeitdauer durchläuft, und eine Geschwindigkeit des Objekts auf der Grundlage des Strahls zu bestimmen.
  • In einigen Ausführungsformen ist der Prozessor, um die Geschwindigkeit des Objekts zu bestimmen, außerdem dazu ausgelegt, einen ersten Abschnitt des Objektsignals, der dem während der Anstiegszeitdauer detektierten Objekt entspricht, zu identifizieren, und einen zweiten Abschnitt des Objektsignals, der dem während der Abfallzeitdauer detektierten Objekt entspricht, zu identifizieren. In einigen Ausführungsformen ist der Prozessor, um die Geschwindigkeit des Objekts zu bestimmen, außerdem dazu ausgelegt, eine erste Schwebungsfrequenz für den ersten Abschnitt des Objektsignals zu berechnen und eine zweite Schwebungsfrequenz für den zweiten Abschnitt des Objektsignals zu berechnen. In einigen Ausführungsformen wird die erste Schwebungsfrequenz unter Verwendung des ersten Abschnitts des Objektsignals und eines ersten Abschnitts des generierten Strahls, der dem ersten Objektsignal entspricht, berechnet, und die zweite Schwebungsfrequenz wird unter Verwendung des zweiten Abschnitts des Objektsignals und eines zweiten Abschnitts des generierten Strahls, der dem zweiten Objektsignal entspricht, berechnet. In einigen Ausführungsformen ist der Prozessor außerdem dazu ausgelegt, eine Entfernung des Objekts vom LIDAR-System unter Verwendung der ersten Schwebungsfrequenz und der zweiten Schwebungsfrequenz zu bestimmen. In einigen Ausführungsformen umfasst das System außerdem ein Interferometer und eine Strahlteilungsvorrichtung, die zwischen der Lichtquelle und dem wellenlängendispersiven Element angeordnet ist, wobei die Strahlteilungsvorrichtung dazu ausgelegt ist, den durch die Lichtquelle generierten Strahl zu empfangen und den Strahl in einen Objektstrahl, der zum wellenlängendispersiven Element gelenkt wird, und einen Referenzstrahl, der zum Interferometer gelenkt wird, zu teilen, wobei das Interferometer dazu ausgelegt ist, Frequenzen des Referenzstrahls zu detektieren.
  • In einigen Ausführungsformen entsprechen die Anstiegszeitdauer und die Abfallzeitdauer einem ersten Rahmen, wobei der Prozessor außerdem dazu ausgelegt ist, zu veranlassen, dass der Strahl von der ersten Frequenz zu einem zweiten Zeitpunkt hin zur zweiten Frequenz im Verlauf einer zweiten Anstiegszeitdauer durchläuft, und zu veranlassen, dass der Strahl von der zweiten Frequenz zurück zur ersten Frequenz im Verlauf einer zweiten Abfallzeitdauer durchläuft, und wobei der zweite Zeitpunkt, die zweite Anstiegszeitdauer und die zweite Abfallzeitdauer einem zweiten Rahmen entsprechen. In einigen Ausführungsformen ist der Prozessor außerdem dazu ausgelegt, eine erste Entfernung und einen ersten Winkel des Objekts in Bezug auf ein LIDAR-System während des ersten Rahmens zu bestimmen, eine zweite Entfernung und einen zweiten Winkel des Objekts in Bezug auf das LIDAR-System während des zweiten Rahmens zu bestimmen, und einen Geschwindigkeitsvektor des Objekts in Bezug auf das LIDAR-System unter Verwendung der ersten Entfernung, der zweiten Entfernung, des ersten Winkels und des zweiten Winkels zu bestimmen. In einigen Ausführungsformen ist der Prozessor, um die zweite Entfernung des Objekts zu bestimmen, außerdem dazu ausgelegt, die zweite Entfernung des Objekts in Bezug auf das LIDAR-System unter Verwendung der ersten Entfernung und der Geschwindigkeit des Objekts vorherzusagen, ein Filter auf der Grundlage der vorhergesagten zweiten Entfernung zu generieren, und empfangene Signale vom Objekt im zweiten Rahmen unter Verwendung des Filters zu filtern. In einigen Ausführungsformen ist der Prozessor außerdem dazu ausgelegt, einen Geschwindigkeitsvektor des Objekts in Bezug auf eine Umgebung außerhalb des LIDAR-Systems unter Verwendung des Geschwindigkeitsvektors des Objekts in Bezug auf das LIDAR-System und eines Geschwindigkeitsvektors des LIDAR-Systems in Bezug auf die Umgebung außerhalb des LIDAR-Systems zu bestimmen.
  • In einer anderen Implementierung umfasst ein System eine Lichtquelle, die dazu ausgelegt ist, einen Strahl, der diskrete Frequenzen zu verschiedenen Zeitpunkten aufweist, zu generieren, ein wellenlängendispersives Element, das derart angeordnet ist, dass es mindestens einen Abschnitt des Strahls empfängt, und dazu ausgelegt ist, den Strahl über einen Bereich von Winkeln in einem Sichtfeld (FOV) durchlaufen zu lassen, wobei jede diskrete Frequenz des Strahls einem anderen Winkel im FOV entspricht, einen Detektor, der angeordnet ist, um Abschnitte des Strahls, die von einem Objekt innerhalb des FOV reflektiert wurden, zu empfangen, einen Prozessor, der mit dem Detektor kommunikativ gekoppelt ist. Der Prozessor ist dazu ausgelegt, zu veranlassen, dass die Lichtquelle einen Strahl generiert, der von einer ersten Frequenz zu einem ersten Zeitpunkt hin zu einer zweiten Frequenz im Verlauf einer Zeitdauer durchläuft, und eine Geschwindigkeit des Objekts auf der Grundlage der durch den Detektor empfangenen Abschnitte des Strahls zu bestimmen.
  • In einigen Ausführungsformen ist der Prozessor, um die Geschwindigkeit zu bestimmen, außerdem dazu ausgelegt, eine Phase eines ersten Abschnitts eines Objektsignals zu bestimmen, wobei das Objektsignal auf den durch den Detektor empfangenen Abschnitten des Strahls basiert, und eine Phase eines zweiten Abschnitts des Objektsignals zu bestimmen. In einigen Ausführungsformen wird die Phase des ersten Abschnitts bestimmt, indem eine schnelle Fourier-Transformation (FFT) am ersten Abschnitt des Objektsignals durchgeführt wird, und die Phase des zweiten Abschnitts wird bestimmt, indem eine FFT am zweiten Abschnitt des Objektsignals durchgeführt wird. In einigen Ausführungsformen ist der Prozessor außerdem dazu ausgelegt, eine Entfernung des Objekts vom System zu bestimmen, wobei die Entfernung auf der Grundlage der Amplitude der FFT des ersten Abschnitts des Objektsignals und der Amplitude der FFT des zweiten Abschnitts des Objektsignals bestimmt wird.
  • In einigen Ausführungsformen ist der Prozessor, um die Geschwindigkeit zu bestimmen, außerdem dazu ausgelegt, einen Zeitunterschied zwischen dem ersten Abschnitt und dem zweiten Abschnitt zu bestimmen, eine Wellenlänge des Strahls zu schätzen, und die Geschwindigkeit unter Verwendung der Phase des ersten Abschnitts, der Phase des zweiten Abschnitts, des Zeitunterschieds, und der Wellenlänge zu bestimmen.
  • In einigen Ausführungsformen entspricht die Zeitdauer einem ersten Rahmen, und wobei der Prozessor außerdem dazu ausgelegt ist, zu veranlassen, dass der Strahl von der ersten Frequenz zu einem zweiten Zeitpunkt hin zur zweiten Frequenz im Verlauf einer zweiten Zeitdauer kontinuierlich durchläuft, wobei die zweite Zeitdauer einem zweiten Rahmen entspricht. In einigen Ausführungsformen ist der Prozessor, um die Geschwindigkeit zu bestimmen, außerdem dazu ausgelegt, eine Phase eines ersten Objektsignals, das dem Objekt im ersten Rahmen entspricht, zu bestimmen, eine Phase eines zweiten Objektsignals, das dem Objekt im zweiten Rahmen entspricht, zu bestimmen, und die Geschwindigkeit unter Verwendung der Phase des ersten Abschnitts, der Phase des zweiten Abschnitts, und einer Wellenlänge, die dem ersten Objektsignal entspricht, zu bestimmen.
  • In einer anderen Implementierung umfasst ein Verfahren: Steuern, über einen Prozessor, einer Lichtquelle, um einen Strahl zu projizieren, der, beginnend ab einem ersten Zeitpunkt, von einer ersten Frequenz zu einer letzten Frequenz im Verlauf einer ersten Zeitdauer kontinuierlich durchläuft, wobei der Strahl zu einem wellenlängendispersiven Element projiziert wird, das dazu ausgelegt ist, den Strahl in ein FOV in frequenzabhängigen Winkeln zu projizieren, und außerdem dazu ausgelegt ist, Abschnitte des Strahls, die von einem Objekt im FOV reflektiert werden, zu einem Detektor zu lenken, wobei der Detektor dazu ausgelegt ist, ein Objektsignal zu generieren, und Bestimmen, über den Prozessor, einer Geschwindigkeit des Objekts auf der Grundlage des Objektsignals.
  • In einigen Ausführungsformen wird die Geschwindigkeit des Objekts unter Verwendung einer Phase eines ersten Abschnitts des Objektsignals und einer Phase einer zweiten Phase des Objektsignals bestimmt. In einigen Ausführungsformen umfasst das Verfahren außerdem: Steuern, über den Prozessor, der Lichtquelle, damit der Strahl nach der ersten Zeitdauer im Verlauf einer zweiten Zeitdauer kontinuierlich von der letzten Frequenz zurück zur ersten Frequenz durchläuft, wobei das Bestimmen der Geschwindigkeit des Objekts auf einem Objektsignal, das dem während der ersten Zeitdauer detektierten Objekt entspricht, und einem Objektsignal, das dem während der zweiten Zeitdauer detektierten Objekt entspricht, basiert. In einigen Ausführungsformen umfasst das Verfahren außerdem: Steuern, über den Prozessor, der Lichtquelle, um einen Strahl, der von der ersten Frequenz zur letzten Frequenz zu einem zweiten Zeitpunkt während einer zweiten Zeitdauer kontinuierlich durchläuft, zu projizieren, wobei der zweite Zeitpunkt nach der ersten Zeitdauer liegt, wobei das Bestimmen der Geschwindigkeit des Objekts auf einem Objektsignal, das dem während der ersten Zeitdauer detektierten Objekt entspricht, und einem Objektsignal, das dem während der zweiten Zeitdauer detektierten Objekt entspricht, basiert.
  • Die vorstehende Kurzdarstellung ist lediglich veranschaulichend und soll in keiner Weise beschränkend sein. Zusätzlich zu den veranschaulichenden Aspekten und Merkmalen, die vorstehend beschrieben wurden, werden weitere Aspekte und Merkmale unter Bezugnahme auf die nachstehende Zeichnung und die ausführliche Beschreibung offensichtlich werden.
  • Figurenliste
  • Die vorstehenden und andere Merkmale der vorliegenden Offenbarung werden aus der nachstehenden Beschreibung und den beigefügten Ansprüchen, die in Verbindung mit den begleitenden Zeichnungen betrachtet werden, vollständiger verstanden. Mit dem Verständnis, dass diese Zeichnungen lediglich einige Implementierungen gemäß der Offenbarung darstellt und daher nicht als ihren Umfang einschränkend anzusehen ist, wird die Offenbarung mit zusätzlicher Genauigkeit und Einzelheiten durch die Verwendung der begleitenden Zeichnungen beschrieben.
    • 1 zeigt ein Blockdiagramm eines LIDAR-Systems gemäß einem Ausführungsbeispiel.
    • 2 zeigt ein Diagramm eines Signalprofils von einem LIDAR-System gemäß einem Ausführungsbeispiel.
    • 3 zeigt ein Blockdiagramm eines LIDAR-Systems gemäß einem Ausführungsbeispiel.
    • 4 zeigt ein Diagramm eines Signalprofils von einem LIDAR-System gemäß einem Ausführungsbeispiel.
    • 5 zeigt ein Diagramm eines Signalprofils, das mehrere Rahmen enthält, von einem LIDAR-System gemäß einem Ausführungsbeispiel.
    • 6 zeigt ein Blockdiagramm eines LIDAR-Systems gemäß einem Ausführungsbeispiel.
    • 7a zeigt ein Diagramm eines Signalprofils von einem LIDAR-System, das ein Interferometer umfasst, gemäß einem Ausführungsbeispiel.
    • 7b zeigt ein Diagramm eines Signalprofils mehrerer Rahmen von einem LIDAR-System, das ein Interferometer umfasst, gemäß einem Ausführungsbeispiel.
    • 8b zeigt ein Schwebungssignalprofil eines Schwebungssignals, das dem Signalprofil von 7a entspricht, gemäß einem Ausführungsbeispiel.
    • 8b zeigt ein Schwebungssignalprofil eines Schwebungssignals, das dem Signalprofil von 7b entspricht, gemäß einem Ausführungsbeispiel.
    • 9 zeigt ein LIDAR-System in Bewegung gemäß einem Ausführungsbeispiel.
    • 10 zeigt ein Sichtfeld (FOV) eines LIDAR-Systems gemäß einem Ausführungsbeispiel.
    • 11 zeigt ein Diagramm einer Filterung eines Objektsignals gemäß einem Ausführungsbeispiel.
    • 12 zeigt ein FOV eines LIDAR-Systems gemäß einem Ausführungsbeispiel.
    • 13 zeigt ein LIDAR-System in Bewegung gemäß einem Ausführungsbeispiel.
    • 14 zeigt ein Ablaufdiagramm eines Verfahrens zum Berechnen von Geschwindigkeiten von Objekten innerhalb eines FOV eines LIDAR-Systems gemäß einem Ausführungsbeispiel.
  • AUSFÜHRLICHE BESCHREIBUNG
  • In der nachstehenden ausführlichen Beschreibung wird Bezug auf die begleitende Zeichnung genommen, die einen Teil davon bildet. In der Zeichnung identifizieren ähnliche Symbole typischerweise ähnliche Komponenten, sofern der Kontext nichts anderes vorgibt. Die veranschaulichenden Implementierungen, die in der ausführlichen Beschreibung, der Zeichnung und den Ansprüchen beschrieben sind, sollen nicht beschränkend sein. Andere Implementierungen können verwendet werden, und andere Änderungen können vorgenommen werden, ohne vom Erfindungsgeist oder Umfangs des hier dargestellten Gegenstands abzuweichen. Es versteht sich leicht, dass die Aspekte der vorliegenden Offenbarung, wie hier im Allgemeinen beschrieben und in den Figuren dargestellt, auf eine Vielfalt verschiedener Ausgestaltungen angeordnet, ersetzt, kombiniert und gestaltet werden können, von denen alle explizit in Betracht gezogen werden und einen Teil dieser Offenbarung ausmachen.
  • Es werden hier Systeme und Verfahren für eine LIDAR-Erfassung beschrieben. Wie nachstehend ausführlicher besprochen sein wird, wird hier ein LIDAR-Erfassungssystem beschrieben, das eine Lichtquelle umfasst, die derart gesteuert wird, dass sie einen Strahl (z. B. einen Infrarotstrahl, einen Strahl, einen kollimierten Strahl usw.) mit verschiedenen Wellenlängen projiziert. Der Strahl wird zu einem wellenlängendispersiven Element gelenkt. Der Strahl wird von einem oder mehreren wellenlängendispersiven Elementen in einem Winkel projiziert, der der Wellenlänge des Strahls entspricht. Als Folge einer Änderung von Wellenlängen des Strahls generiert das LIDAR-Erfassungssystem eine vertikale Abtastung (z. B. eine zweidimensionale Abtastung) eines Sichtfeldes (FOV) der externen Umgebung. Eine Strahllenkungsvorrichtung kann verwendet werden, um es dem LIDAR-Erfassungssystem zu ermöglichen, mehrere vertikale Abtastungen entlang einer horizontalen Achse (oder umgekehrt) zu erzeugen, um eine dreidimensionale Abtastung eines Sichtfeldes (FOV) des LIDAR-Erfassungssystems zu erzeugen. In einigen Ausführungsformen wird die dreidimensionale Abtastung des FOV mit lediglich statischen Elementen bewerkstelligt (z. B. sind sowohl die ersten als auch die zweiten Elemente der wellenlängendispersiven Elemente statisch). Die empfangenen Abschnitte des Strahls von der Abtastung können dann verarbeitet werden, um eine Geschwindigkeit von Objekten innerhalb des FOV zu berechnen. Eine oder mehrere Abtastungen des FOV können mehrmals wiederholt werden (z. B. um mehrere Rahmen zu generieren), um es dem LIDAR-System zu ermöglichen, Objekte im Lauf der Zeit zu verfolgen, einen absoluten Geschwindigkeitsvektor von Objekten zu berechnen, oder auf eine andere Weise den Bereich, die Geschwindigkeit und die Position von Objekten in Bezug auf das LIDAR-System zu überwachen. Die Fähigkeit des LIDAR-Systems, die Geschwindigkeit eines Objekts innerhalb eines kurzen Zeitrahmens zu messen, ermöglicht es dem LIDAR-System, zukünftige Positionen von Objekten in Bezug auf das LIDAR-System vorherzusagen, wodurch ermöglicht wird, dass das LIDAR-System in Anwendungen verwendet wird, die eine verbesserte Überwachung und Verfolgung von Objekten innerhalb eines FOV des LIDAR-Systems erfordern (z. B. ein autonomes Fahrzeug). Dementsprechend ist das LIDAR-System in der Lage, die Geschwindigkeit eines Objekts innerhalb eines FOV in einer sehr kurzen Zeit unter Berücksichtigung des Dopplereffekts oder Phasenänderungen in den Signalen zu bestimmen, was die Wahrscheinlichkeit reduziert, dass das LIDAR-System ein während einer ersten Messung detektiertes erstes Objekt mit einem zweiten Objekt, das während einer zweiten Messung detektiert wird, verwechselt. Folglich kann das LIDAR-System in Anwendungen implementiert werden, in denen Objekte präzise verfolgt werden müssen (z. B. in einem autonomen Fahrzeug).
  • Unter Bezugnahme auf 1 ist ein Blockdiagramm eines LIDAR-Erfassungssystems 100 gezeigt. Das LIDAR-Erfassungssystem 100 ist derart dargestellt, dass es ein LIDAR-System101 und ein Sichtfeld (FOV) 190 des LIDAR-Systems 101 umfasst. In einigen Ausführungsformen kann sich ein Objekt 190 innerhalb des FOV 190 befinden. In einigen Ausführungsformen können sich ein oder mehrere Objekte 191, von denen jedes einen eindeutigen Bereich und eine eindeutige Geschwindigkeit in Bezug auf das LIDAR-System 101 aufweist, im FOV 190 befinden.
  • Das LIDAR-System 101 umfasst eine Lichtquelle 102. In einigen Implementierungen gibt die Lichtquelle 102 einen Strahl aus. In einigen Ausführungsformen weist der Strahl (z. B. ein Laserstrahl) eine wählbare, diskrete Frequenz auf. Außerdem ist die Lichtquelle 102 dazu ausgelegt, eine Wellenlänge λ (und dadurch z. B. eine Frequenz) des Strahls einzustellen. Das heißt, in einigen Ausführungsformen kann die Lichtquelle 102 ein abstimmbarer Laser sein, wobei die Wellenlänge λ des Lasers abgestimmt oder ausgewählt wird. Die Lichtquelle 102 kann dazu ausgelegt sein, die Wellenlänge λ des Strahls in einem Bereich einzustellen. In einigen Beispielen kann der Bereich von Wellenlängen λ zwischen 1,25 µm und 1,35 µm liegen. Die Lichtquelle 102 kann den Bereich von Wellenlängen λ durchlaufen, wie nachstehend ausführlicher besprochen sein wird. In einigen Ausführungsformen kann die Lichtquelle 102 den Bereich von Wellenlängen von einer ersten Wellenlänge (und dadurch einer ersten Frequenz) zu einer letzten Wellenlänge (und dadurch einer letzten Frequenz) kontinuierlich durchlaufen. Die Lichtquelle 102 kann von der ersten Wellenlänge zur letzten Wellenlänge in einem linearen oder einem nichtlinearen Muster durchlaufen. In einigen Ausführungsformen kann die Lichtquelle 102 einen oder mehrere abstimmbare Laser umfassen, die zusammen kaskadiert sind, damit die Lichtquelle 102 einen größeren Bereich von Wellenlängen λ aufweist.
  • In 1 ist das LIDAR-System 101 außerdem derart dargestellt, dass es ein wellenlängendispersives Element 104, einen Detektor 109 und ein Rechensystem 114 umfasst. Das wellenlängendispersive Element 104 ist dazu ausgelegt, Licht von der Lichtquelle 102 durch das FOV 190 zu lenken und empfangene gestreute oder reflektierte Abschnitte des Lichts zurück zu einem Detektor 109 zu lenken. Das heißt, die Lichtquelle 102 ist angeordnet, um Komponenten eines Strahls zum wellenlängendispersiven Element 104 zu projizieren. Das wellenlängendispersive Element 104 empfängt den Strahl und lenkt Abschnitte des Strahls in das FOV 190. Die Abschnitte des Strahls reflektieren von Objekten 191 im FOV 190 und mindestens ein Abschnitt des reflektierten Strahls wird zurück am wellenlängendispersiven Element 104 empfangen. Das wellenlängendispersive Element 104 empfängt den Abschnitt des reflektierten Strahls und lenkt den Abschnitt des reflektierten Strahls zu einem Detektor 109. Der Detektor 109 empfängt die Abschnitte der reflektierten Strahlen und generiert ein elektrisches Signal, das die empfangenen Abschnitte des reflektierten Lichts anzeigt und dadurch das Objekt anzeigt. Das elektrische Signal kann an einen Prozessor 114 des Rechensystems 112 übertragen werden, der das elektrische Signal (z. B. ein Objektsignal) verarbeiten kann, um einen Bereich und eine Geschwindigkeit des Objekts 191 im FOV 190 zu bestimmen.
  • In einigen Ausführungsformen kann das wellenlängendispersive Element 104 ein erstes Element 140 umfassen, das dazu ausgelegt ist, mindestens einen Abschnitt eines Strahls von der Lichtquelle 102 entlang von Winkeln einer ersten Achse 191 des FOV 190 zu lenken oder steuern. In einigen Ausführungsformen lenkt das erste Element 140 Abschnitte des Strahls entlang verschiedener Winkel in Bezug auf die erste Achse 191 des FOV 190 auf der Grundlage der Wellenlänge jedes entsprechenden Abschnitts des Strahls. In einigen Ausführungsformen kann das erste Element 140 ein oder mehrere Beugungsgitter, Prismen, Kristalle oder andere dispersive optische Elemente umfassen. In einigen Ausführungsformen können ein oder mehrere Beugungsgitter dazu ausgelegt sein, Abschnitte des Strahls von der Lichtquelle 102 in einem konstanten Einfallswinkel zu empfangen und die Abschnitte des Strahls in das FOV 190 in Beugungswinkeln, die von der Wellenlänge λ des Abschnitts des Strahls abhängen, zu reflektieren. Die in die Umgebung gelenkten Abschnitte des Strahls können dann von Objekten 191 innerhalb des FOV 190 reflektiert werden und die reflektierten Abschnitte des Strahls können am Beugungsgitter empfangen und zum Detektor 109 gelenkt werden. Auf diese Weise kann in einigen Ausführungsformen das erste Element 140 dazu ausgelegt sein, einen Lichtstrahl entlang der ersten Achse des FOV 190 auf der Grundlage der Charakteristiken (z. B. Wellenlängen) der Lichtstrahlen zu streuen.
  • In einigen Ausführungsformen kann das wellenlängendispersive Element 104 außerdem ein zweites Element 141 umfassen. In einigen Ausführungsformen ist das zweite Element 141 dazu ausgelegt, mindestens einen Abschnitt eines Strahls von der Lichtquelle 102 entlang einer zweiten Achse (z. B. einer horizontalen Achse) des FOV 190 zu lenken. In einigen Ausführungsformen kann das zweite Element 141 eine Strahllenkungsvorrichtung (z. B. einen rotierenden Spiegel, oder einen Steller des ersten Elements) umfassen. In einigen Ausführungsformen kann die Strahllenkungsvorrichtung 102 dazu ausgelegt sein, das erste Element (z. B. ein Beugungsgitter) derart zu steuern, zu rotieren oder einzustellen, dass das erste Element 140 verwendet werden kann, um mehrere Abtastungen (z. B. jede Abtastung entlang der ersten Achse) entlang der zweiten Achse zu generieren, um eine dreidimensionale Abtastung des FOV 190 zu generieren. In einigen Ausführungsformen kann das zweite Element 140 einen 1-mal-N-Teiler (IxN-Teiler) umfassen, der den Strahl von der Lichtquelle 102 in N Abschnitte teilt und jeden der N Abschnitte an ein entsprechendes dispersives Element (z. B. das erste Element 140) an einem jeweiligen Ausgang des 1xN- Teilers lenkt. Das heißt, jedes der dispersiven Elemente kann eine Abtastung erzeugen, indem Abschnitte des Strahls entlang der ersten Achse gelenkt werden, und das zweite Element 141 (z. B. der 1xN-Teiler) ermöglicht es, dass die Abtastungen jedes dispersiven Elements über die zweite Achse verteilt werden. Auf diese Weise kann in einer Implementierung eine dreidimensionale Abtastung der externen Umgebung des LIDAR-Systems 101 unter Verwendung von lediglich statischen Elementen im LIDAR-System vorgenommen werden.
  • Der Detektor 109 ist ausgelegt und innerhalb des Systems angeordnet, um Abschnitte von Licht, das von Objekten innerhalb des FOV 190 reflektiert wird, zu empfangen. In einigen Ausführungsformen kann der Detektor 109 mit dem Rechensystem 112 (z. B. dem Prozessor 114) kommunikativ gekoppelt sein. In einigen Ausführungsformen umfasst der Detektor 109 einen Infrarotsensor, eine Kamera, eine Infrarotkamera, oder eine beliebige andere Lichtdetektionsvorrichtung, die die Frequenz eines empfangenen Lichts erfassen kann. Der Detektor 109 ist derart angeordnet, dass Licht, das am wellenlängendispersiven Element 104 empfangen wird (z. B. Licht, das vom Objekt 190 reflektiert wurde) zum Detektor 109 gelenkt werden kann. Zum Beispiel kann in einigen Ausführungsformen das LIDAR-System 101 eine Strahlteilungsvorrichtung 157 umfassen, die zwischen der Lichtquelle 102 und dem wellenlängendispersiven Element 104 angeordnet ist, so dass der Strahl von der Lichtquelle 102 die Strahlteilungsvorrichtung 157 durchquert und zum wellenlängendispersiven Element 104 gelenkt wird. In einigen Ausführungsformen kann die Strahlteilungsvorrichtung 157 einen Halbspiegel, einen reziproken Spiegel, einen halbversilberten Spiegel, oder ein anderes optisches Element umfassen, das dazu ausgelegt ist, Licht von der Lichtquelle 102 zum wellenlängendispersiven Element 104 zu lenken und Licht vom wellenlängendispersiven Element 104 zum Detektor 109 zu lenken. Die Strahlteilungsvorrichtung 157 kann außerdem derart angeordnet sein, dass Licht, das vom Objekt 190 reflektiert (und durch das wellenlängendispersives Element 104 gelenkt) wird, reflektiert, gebeugt oder auf eine andere Weise durch die Strahlteilungsvorrichtung 157 zum Detektor 109 gelenkt wird. In einigen Ausführungsformen können die anderen optischen Komponenten oder andere Komponenten zusätzlich oder alternativ zur Strahlteilungsvorrichtung 157 verwendet werden. Der Detektor 109 ist dazu ausgelegt, ein Objektsignal zu generieren, das die durch den Detektor 109 detektierten Abschnitte des Strahls anzeigt. In einigen Ausführungsformen weist das Objektsignal die Form eines elektrischen Signals auf und wird an das Rechensystem 112 für eine Verarbeitung übertragen.
  • Das Rechensystem 112 umfasst einen Prozessor 114 und einen Speicher 116. Der Prozessor 114 kann eine beliebige Komponente oder eine Gruppe von Komponenten umfassen, die dazu ausgelegt sind, beliebige der hier beschriebenen Prozesse oder Funktionen oder eine beliebige Form von Anweisungen zum Ausführen solcher Prozesse oder zum Veranlassen, dass solche Prozesse durchgeführt werden, auszuführen, zu implementieren und/oder durchzuführen. In einer oder mehreren Anordnungen kann der Prozessor 114 ein Hauptprozessor des LIDAR-Erfassungssystems 100 sein. Beispiele für geeignete Prozessoren umfassen Mikroprozessoren, Mikrocontroller, DSP-Prozessoren und andere Schaltungen, die eine Software ausführen können. Weitere Beispiele für geeignete Prozessoren umfassen eine zentrale Verarbeitungseinheit (CPU), einen Array-Prozessor, einen Vektor-Prozessor, einen digitalen Signalprozessor (DSP), ein Field Programmable Gate Array (FPGA), ein programmierbares Logikarray (PLA), eine anwendungsspezifische integrierte Schaltung (ASIC), programmierbare logische Schaltungen, und eine Steuerung, sind aber nicht darauf beschränkt. Der Prozessor 114 kann mindestens eine Hardware-Schaltung (z. B. eine integrierte Schaltung) umfassen, die dazu ausgelegt ist, Anweisungen, die in einem Programmcode enthalten sind, auszuführen. In Anordnungen, in denen eine Vielzahl von Prozessoren vorhanden ist, können solche Prozessoren unabhängig voneinander arbeiten oder ein oder mehrere Prozessoren können in Kombination miteinander arbeiten.
  • Der Speicher 116 kann zum Speichern eines oder mehrerer Datentypen aufgebaut sein. Der Speicher 116 kann einen flüchtigen und/oder nichtflüchtigen Speicher umfassen. Beispiele für einen geeigneten Speicher 116 umfassen einen RAM (Direktzugriffsspeicher), einen Flash-Speicher, ein ROM (Festwertspeicher), einen PROM (programmierbarer Festwertspeicher), einen EPROM (löschbarer programmierbarer Festwertspeicher), einen EEPROM (elektrisch löschbarer programmierbarer Festwertspeicher), Register, magnetische Platten, optische Platten, Festplatten, oder ein beliebiges anderes geeignetes Speichermedium, oder eine Kombination davon. In einigen Ausführungsformen umfasst der Speicher 116 ein nichtflüchtiges computerlesbares Speichermedium, das mit dem Prozessor 114 kommunikativ gekoppelt ist. Das computerlesbare Speichermedium kann darauf gespeicherte Anweisungen aufweisen, die bei einer Ausführung durch den Prozessor den Prozessor dazu veranlassen, beliebige der hier beschriebenen Operationen, Schritte oder Verfahren durchzuführen. Der Speicher 116 kann eine Komponente des Prozessors 114 sein, oder der Speicher 116 kann mit dem Prozessor 114 betriebsfähig verbunden sein, um durch diesen verwendet zu werden. In einigen Anordnungen kann der Speicher 116 fern angeordnet sein und es kann auf ihn durch den Prozessor 114 zugegriffen werden, wie z. B. über eine geeignete Kommunikationsvorrichtung.
  • Der Prozessor 114 ist mit der Lichtquelle 102 kommunikativ gekoppelt und kann derart ausgelegt sein, dass er Anweisungen von einer Lichtquellensteuerung 118, die im Speicher 118 gespeichert oder programmiert sind, liest. Die Lichtquellensteuerung 118 kann computerlesbare Anweisungen zum Steuern eines oder mehrerer Aspekte der Lichtquelle 102 sein oder diese umfassen. Die Lichtquellensteuerung 118 kann im Speicher 116 gespeichert sein, wie dargestellt. In anderen Implementierungen kann die Lichtquellensteuerung 118 fern gespeichert sein und es kann auf sie durch verschiedene Komponenten des LIDAR-Erfassungssystems 100 zugegriffen werden. Der Prozessor 114 kann die Lichtquelle 102 gemäß den Anweisungen von der Lichtquellensteuerung 118 steuern.
  • Die Lichtquellensteuerung 118 kann Anweisungen umfassen, um ein Muster des von der Lichtquelle 102 projizierten Strahls zu generieren. Zum Beispiel kann in einigen Implementierungen der Strahl von der Lichtquelle 102 in einem Muster projiziert werden, das eine Periodizität aufweist (z. B. gepulst, Sägezahn usw.). Die Lichtquellensteuerung 118 kann Anweisungen umfassen, um zum Beispiel ein Sägezahnsignal zu generieren, das dem Periodizitätsmuster des von der Lichtquelle 102 projizierten Strahls entspricht. In einigen Ausführungsformen kann die Lichtquellensteuerung 118 Anweisungen umfassen, die veranlassen, dass die Lichtquelle 102 einen Strahl generiert, der von einer ersten Frequenz zu einem ersten Zeitpunkt hin zu einer zweiten Frequenz im Verlauf einer Anstiegszeitdauer und von der zweiten Frequenz zurück zur ersten Frequenz im Verlauf einer Abfallzeitdauer durchläuft. In einigen Ausführungsformen kann die Lichtquellensteuerung 118 Anweisungen umfassen, die veranlassen, dass die Lichtquelle einen Rahmen oder mehrere Rahmen generiert. In einigen Ausführungsformen sind mehrere Rahmen periodisch und weisen eine eingestellte Zeitdauer zwischen jedem Rahmen. Wie nachstehend ausführlicher besprochen sein wird, kann das Periodizitätsmuster eines Rahmens zum Bestimmen eines Bereichs und einer Geschwindigkeit des Objekts 190 verwendet werden.
  • In einigen Ausführungsformen können eine oder mehrere Komponenten des LIDAR-Systems 101 weggelassen sein. In einigen Ausführungsformen können verschiedene andere Komponenten des LIDAR-Systems 101 aufgenommen sein. Es ist zu beachten, dass 1 ein Beispiel einer Implementierung eines LIDAR-Systems 101 ist und dass sie nicht beschränken sein soll.
  • Zum Beispiel kann in einigen Ausführungsformen das LIDAR-System 101 ein Interferometer umfassen. Das Interferometer kann Komponenten sein oder diese umfassen, die angeordnet sind, um den Strahl von der Lichtquelle 102 zu empfangen, und den Strahl in einen oder mehrere Teilstrahlen zu teilen. Zum Beispiel kann das Interferometer 110 den Strahl in einen Objektstrahl und einen Referenzstrahl teilen. Der Objektstrahl kann zum wellenlängendispersiven Element 104 projiziert werden, und der Referenzstrahl kann zu einem Referenzspiegel hin projiziert werden. Das Interferometer kann ein Interferenzmuster auf der Grundlage einer Differenz zwischen Licht, das von Flächen von Objekten in der externen Umgebung reflektiert wird, und Licht, das vom Referenzspiegel reflektiert wird, generieren. Das LIDAR-Erfassungssystem 100 (z. B. der Prozessor 114) kann auf der Grundlage des Interferenzmusters eine Entfernung zu den Objekten bestimmen.
  • Unter Bezugnahme auf 2 ist ein Beispiel für ein entsprechendes Signalprofil 200 des Objekts 190 gezeigt. Zu Demonstrationszwecken wird während des Besprechung von 2 Bezug auf verschiedene Komponenten von 1 genommen. Das Signalprofil 200 umfasst eine y-Achse, die die Frequenz bezeichnet, und eine x-Achse, die Zeit bezeichnet. In einigen Ausführungsformen stellt das Signalprofil 200 einen ersten „Rahmen“ von Messungen vom LIDAR-System 100 dar. Der erste Rahmen umfasst einen vollständigen Durchlauf des LIDAR-Systems entlang der ersten Achse des FOV190.
  • Das Signalprofil 200 umfasst ein Referenzsignal 201, Signale 202 stationärer Objekte, und Signale 203 beweglicher Objekte. Das Referenzsignal 201 wird von der Lichtquelle 102 generiert und repräsentiert die Frequenz des Strahls, der von der Lichtquelle 102 im Laufe der Zeit projiziert wird. In einigen Ausführungsformen generiert die Lichtquellensteuerung 118 das Referenzsignalmuster (z. B. ein Sägezahnmuster) und der Prozessor 114 kommuniziert mit der Lichtquelle 102, um zu veranlassen, dass die Lichtquelle 102 im Verlauf der Zeit einen Strahl mit den Referenzsignalcharakteristiken (z. B. von einer ersten Frequenz zu einer letzten Frequenz und zurück zur ersten Frequenz) emittiert. In einigen Ausführungsformen wird angenommen, dass das Referenzsignal 201 die Charakteristiken des in der Lichtquellensteuerung 118 gespeicherten Musters aufweist. In einigen Ausführungsformen kann das Referenzsignal 201 durch ein Interferometer, den Detektor 109, einen zweiten Detektor oder mit einer anderen Vorrichtung gemessen werden.
  • In einigen Ausführungsformen lenkt das wellenlängendispersive Element 104 den Strahl in einem Winkel, der von der Wellenlänge des Strahls (z. B. dem Kehrwert der Frequenz des Strahls) abhängt. Zum Beispiel kann das wellenlängendispersive Element 104 den Strahl derart lenken, dass, wenn sich der Strahl bei einer ersten Wellenlänge λ1 befindet, der Strahl zur Mitte eines ersten Bereichs A1 des FOV 190 gelenkt wird, wenn sich der Strahl bei einer zweiten Wellenlänge λ2 befindet, der Strahl zur Mitte eines zweiten Bereichs A2 des FOV 190 gelenkt wird, und wenn sich der Strahl bei einer dritten Wellenlänge λ3 befindet, der Strahl zur Mitte eines dritten Bereichs A3 des FOV 190 gelenkt wird. In einigen Ausführungsformen kann der Winkel, in dem das wellenlängendispersive Element 104 den Strahl in das FOV 190 lenkt, linear mit der Frequenz des Strahls variieren.
  • Die Lichtquelle 102 beginnt einen Durchlauf bei einer ersten Frequenz ƒ0 zu einem ersten Zeitpunkt t0. Die Lichtquelle 102 lässt den Strahl kontinuierlich zu einer maximalen Frequenz ƒmax im Laufe einer ersten Zeitdauer Δtm bis zu einem zweiten Zeitpunkt t1 durchlaufen. Die Differenz zwischen der maximalen Frequenz ƒmax und der ersten Frequenz ƒ1 kann in diesem Beispiel als die Frequenzänderung Δƒ bezeichnet werden. Die Zeit zwischen dem ersten Zeitpunkt t0 und dem zweiten Zeitpunkt t1 kann in diesem Beispiel als „Anstiegs“-Zeit bezeichnet werden. Die Lichtquelle 102 führt dann den Strahl linear zurück zur ersten Frequenz ƒ1 im Verlauf einer anderen Zeitdauer bis zu einem dritten Zeitpunkt t2. Die Zeit zwischen dem zweiten Zeitpunkt t1 und dem dritten Zeitpunkt t2 kann in diesem Beispiel als die Abfallzeit bezeichnet werden. Die Zeit zwischen dem ersten Zeitpunkt t0 und dem dritten Zeitpunkt t2 kann als ein Rahmen bezeichnet werden. Ein Rahmen stellt einen Zyklus eines Durchlaufs von der Lichtquelle 102 dar. In einigen Ausführungsformen kann ein Rahmen lediglich eine Anstiegs- oder eine Abfalldauer umfassen.
  • In diesem Beispiel kann die Gleichung für die Anstiegszeit des Referenzsignals 201 durch Gleichung (1) für die Anstiegszeit und Gleichung (2) für die Abfallzeit angegeben werden: f ( t ) = ( Δ f Δ t m ) t + f 1
    Figure DE112021000951T5_0001
    f ( t ) = ( Δ f Δ t m ) t + Δ f ( 2 + τ Δ t m ) + f 1
    Figure DE112021000951T5_0002
  • In einem Beispiel, in dem das Objekt in Bezug auf das LIDAR-System 101 stationär ist, wird die detektierte Frequenz vom Objekt 191 durch das Signal 202 eines stationären Objekts angezeigt. Das Signal des stationären Objekts kann ein erstes Signal 220 umfassen, das die Frequenz und den Zeitpunkt, mit der/zu dem vom Objekt 191 reflektiertes Licht während einer Anstiegsdauer empfangen wird, bezeichnet, und das Objekt 191 ist in Bezug auf das LIDAR-System 101 stationär. Das Signal 202 des stationären Objekts kann außerdem ein zweites Signal 221 umfassen, das die Frequenz und den Zeitpunkt, mit der/zu dem vom Objekt 191 reflektiertes Licht während einer Abfalldauer empfangen wird, bezeichnet, und das Objekt 191 ist in Bezug auf das LIDAR-System 101 stationär.
  • In einem anderen Beispiel, wobei das Objekt in Bezug auf das LIDAR-System 101 stationär ist, wird die detektierte Frequenz vom Objekt 191 durch das Signal 203 eines beweglichen Objekts angezeigt. Das Signal 203 des beweglichen Objekts kann ein erstes Signal 230 umfassen, das die Frequenz und den Zeitpunkt, mit der/zu dem vom Objekt 191 reflektiertes Licht während einer Anstiegsdauer empfangen wird, bezeichnet, und das Objekt 191 bewegt sich weg vom LIDAR-System 101. Das Signal 203 des beweglichen Objekts kann ein zweites Signal 231 umfassen, das die Frequenz und den Zeitpunkt, mit der/zu dem vom Objekt 191 reflektiertes Licht während einer Abfalldauer empfangen wird, bezeichnet, und das Objekt 191 bewegt sich weg vom LIDAR-System 101.
  • Die Signale 202 stationärer Objekte und die Signale 203 beweglicher Objekte sind in Bezug auf das Referenzsignal 201 um eine Zeitkonstante τ verschoben. Die Zeitkonstante τ stellt die Zeit dar, die der Strahl benötigt, um zu einem Objekt zu gelangen und zum LIDAR-System 101 zurückreflektiert zu werden. Daher gleicht in einigen Ausführungsformen die Zeitkonstante τ dem 2-Fachen einer Entfernung R des Objekts geteilt durch die Lichtgeschwindigkeit c.
  • Die detektierte Frequenz vom Objekt 191 kann mit Gleichung (3) während Zeiten, in denen der Strahl auf das Objekt 191 während des Anstiegszeitdauer auftrifft (und von ihm reflektiert wird), und mit Gleichung (4) während Zeiten, in denen der Strahl während der Abfalldauer auf das Objekt 191 auftrifft (und von ihm reflektiert wird), verwendet (oder damit verglichen) werden: f 0 ( t ) = ( Δ f Δ t m ) ( t τ ) + f 1
    Figure DE112021000951T5_0003
    f 0 ( t ) = ( Δ f Δ t m ) ( t τ ) + Δ f ( 2 + τ Δ t m ) + f 1
    Figure DE112021000951T5_0004
  • Das heißt, der Prozessor 114 kann Gleichungen (3) und (4) zusammen mit den detektierten Objektsignalen verwenden, um eine Geschwindigkeit und/oder Position des Objekts 191 zu schätzen oder bestimmen. Wenn der Strahl nicht auf das Objekt 191 auftrifft (da z. B. die Frequenz des Strahls und der resultierende Winkel nicht der Position des Objekts 191 entsprechen), versteht es sich, dass kein detektiertes Licht oder resultierende Signale (z. B. Signale beweglicher Objekte oder Signale stationärer Objekte) vorhanden sein sollten. Jedoch kann ein Rauschen im Signal vorhanden sein. Der Prozessor 114 kann dann Gleichungen (3) und (4) zusammen mit den detektierten Objektsignalen verwenden, um eine Geschwindigkeit und/oder Position des Objekts 191 zu schätzen oder bestimmen.
  • In einigen Ausführungsformen bestimmt das Rechensystem 112 die Geschwindigkeit des Objekts, indem eine erste Schwebungsfrequenz ƒbeat1, die dem ersten Signal (z. B. Signal 220 oder 230) in der Anstiegsdauer entspricht, und eine zweite Schwebungsfrequenz ƒbeat2, die dem zweiten Signal (z. B. Signal 221 oder 231) der detektierten Signale in der Abfalldauer entspricht, berechnet werden. In einigen Ausführungsformen kann die Schwebungsfrequenz für ein nichtbewegliches Objekt berechnet werden, indem das Referenzsignal vom detektierten Signal subtrahiert wird. In einigen Ausführungsformen können die Schwebungsfrequenzen zum Bestimmen einer Entfernung des Objekts 190 verwendet werden, indem der bekannte Wert der Zeitverschiebung zwischen dem Referenzsignal und dem detektierten Signal verwendet wird.
  • Der Prozessor 114 kann die Geschwindigkeit des Objekts 191 unter Verwendung der Eigenschaften des Signalprofils 200 und des Dopplereffekts berechnen. Der Dopplereffekt ist in 2 als die Differenz 280 (z. B. die Dopplerverschiebung 280) zwischen dem Signal 202 des stationären Objekts und dem Signal 203 des beweglichen Objekts gezeigt. Die Dopplerverschiebung kann durch Gleichung (5) angegeben werden: D o p p l e r v e r s c h i e b u n g = U r s p r ü n g h l i c h e _ F r e q u e n z ( v c )
    Figure DE112021000951T5_0005
  • Daher ist die Dopplerverschiebung 280 proportional zur Geschwindigkeit v des Objekts 181. Unter Berücksichtigung der Dopplerverschiebung 280 kann die erste Schwebungsfrequenz ƒbeat1 (z.B. die der Anstiegszeit entsprechende Schwebungsfrequenz) unter Verwendung von Gleichung (6) berechnet werden und die zweite Schwebungsfrequenz ƒbeat2 (z. B. die der Abfallzeit entsprechende Schwebungsfrequenz) kann unter Verwendung von Gleichung (7) berechnet werden: f b e a t 1 = f ( t 3 ) f o ( t 3 ) ( 1 2 v c )
    Figure DE112021000951T5_0006
    f b e a t 2 = f o ( t 5 ) ( 1 2 v c ) f ( t 5 )
    Figure DE112021000951T5_0007
  • In Gleichungen (6) und (7) entspricht t3 dem ersten Signal (z. B. Signalen 220 oder 230), das in der Anstiegszeit detektiert wird, und t5 entspricht dem zweiten Signal (z. B. Signal 221 oder 231), das in der Abfallzeit detektiert wird. Die Entfernung des Objekts 191 kann unter Verwendung von Gleichungen (8) bestimmt werden und die Geschwindigkeit des Objekts 191 kann unter Verwendung von Gleichung (9) bestimmt werden: R c t m 2 Δ f ( f b e a t 1 + f b e a t 2 2 ) | w e n n   f o f c   u n d   v c < < 1
    Figure DE112021000951T5_0008
    v c 2 f c ( f b e a t 1 f b e a t 2 2 ) | w e n n   f o f c   u n d   v c < < 1
    Figure DE112021000951T5_0009
  • In Gleichungen (8) und (9) ƒc stellt die Mittenfrequenz des gemessenen Objekts dar. Zum Beispiel kann die Mittenfrequenz des Objekts 191 von 1 als die Lichtgeschwindigkeit geteilt durch die zweite Wellenlänge λ2 angegeben oder geschätzt werden. Unter Verwendung eines Referenzsignals 201, das von einer ersten Frequenz zu einer maximalen Frequenz steigt und zurück zur ersten, ist der Prozessor 114 daher in der Lage, sowohl den Bereich als auch die Geschwindigkeit des Objekts (z. B. mithilfe der Berücksichtigung des Dopplereffekts) zu bestimmen. Es ist zu beachten, dass 2 als ein Beispiel gedacht ist und dass viele Objekte innerhalb des FOV des LIDAR-Systems 101 auf eine ähnliche Weise gemessen, bestimmt oder berechnet werden können. Das heißt, die Entfernungen und die Geschwindigkeiten der Objekte in der Umgebung können kontinuierlich in einem gesamten Durchlauf der Frequenz entweder in 2 Dimensionen (mithilfe eines Durchlaufs auf einer ersten Achse) oder 3 Dimensionen (mithilfe eines Durchlaufs entlang der ersten Achse und durch viele Teile oder entlang einer zweiten Achse) gemessen werden.
  • 3 zeigt ein System 300, das dem LIDAR-Erfassungssystem 100 von 1 ähnlich ist. 3 umfasst ein LIDAR-System 101, ein Sichtfeld 190 und ein Objekt 301. Zu Zwecken des Demonstrierens eines Verfahrens zum Messen einer Geschwindigkeit des Objekts 301 unter Verwendung von Phasenverschiebungen in benachbarten Abschnitten einer Messung durch ein LIDAR-System 101 wird zusammen mit 3 Bezug auf 4 genommen. 4 umfasst ein Signalprofil 400 einer Messung durch das LIDAR-System 101 im System 300. Das Signalprofil 400 umfasst ein Referenzsignal 401 und ein Objektsignal 402. Das Objektsignal 402 wird durch den Detektor 109 während aller Frequenzen detektiert, wobei der Strahl von der Lichtquelle 102 in das FOV 190 gelenkt und vom Objekt 301 reflektiert wird. Ähnlich dem Signalprofil 200 von 2 ist das Objektsignal 402 auf dem Diagramm um einen Zeitbetrag, der τ gleicht, verschoben (z. B. die Zeit, die der Strahl benötigt, um vom Objekt 301 zum LIDAR-System 101 zurückreflektiert zu werden).
  • Das Signalprofil 400 zeigt eine erste Dauer 420, wobei die Frequenzen des Strahls den ersten Abschnitt A0 des FOV 190 abtasten, ihn überstreichen oder ihm entsprechen, eine zweite Dauer 421, wobei die Frequenzen des Strahls den zweiten Abschnitt A1 des FOV 190 abtasten, ihn überstreichen oder ihm entsprechen, und eine dritte Dauer 422, wobei die Frequenzen des Strahls den zweiten Abschnitt A2 des FOV 190 abtasten, ihn überstreichen oder ihm entsprechen, an. Abschnitte des Objektsignals 402, die der ersten, der zweiten und der dritten Dauer 420, 421 und 422 entsprechen, können in diskrete Signale zerlegt und verarbeitet werden, um die Geschwindigkeit des Objekts 301 zu bestimmen. Zum Beispiel kann in einer Ausführungsform, in der eine Geschwindigkeit des Objekts 301 hinreichend klein ist (z. B. kleiner als 1 m/s), so dass sich die Entfernung zum Objekt 301 während der Durchlaufzeit von der ersten Frequenz zur maximalen Frequenz (ƒ1 - ƒmax) nicht viel ändert, die Phasenverschiebung benachbarter Abschnitte des Objektsignals 402, die der ersten, der zweiten und der dritten Dauer 420, 421 und 422 entsprechen, verwendet werden, um die Geschwindigkeit des Objekts 301 zu bestimmen.
  • Die Phase des reflektierten Objektstrahls φo(z. B. des Strahls, der dem Objektsignal 402 entspricht) steht zur Phase des Referenzstrahls φr (z. B. des Objektstrahls des Strahls) in Beziehung, wie in Gleichung (10) gezeigt: φ 0 = φ r + 2 R ( 2 π λ )
    Figure DE112021000951T5_0010
  • In Gleichung (10) ist R die Entfernung des Objekts 290 vom LIDAR-System und λ stellt eine geschätzte Mittenwellenlänge der relevanten Abschnitte des Objektsignals 403 dar. Die Phasenänderung im Laufe der Zeit kann unter Verwendung von Gleichung (11) repräsentiert werden: d φ / d t = 4 π / λ * d R / d t = 4 π / λ * v
    Figure DE112021000951T5_0011
  • Daher kann eine Phasenänderung Δφ im Verlauf einer Zeitdauer T zum Berechnen der Geschwindigkeit verwendet werden. Von daher kann die Geschwindigkeit aus dem Detektieren der Phasendifferenz zwischen benachbarten Abschnitten des Objektsignals 402, die der ersten, der zweiten und der dritten Zeitdauer 420, 421 und 422 entsprechen, berechnet werden. Insbesondere kann die Zeitdauer T durch den Prozessor eingestellt oder bekannt sein. Zum Beispiel kann die Zeitdauer zwischen der ersten Wellenlänge λ1 und der zweiten Wellenlänge λ2 (z. B. die erste Zeitdauer 420 oder der erste Abschnitt A0 des FOV) als die Zeitdauer T verwendet werden. Die Geschwindigkeit des Objekts 301 kann unter Verwendung von Gleichung (12) berechnet werden: v = Δ φ T λ 4 π = φ i + 1 φ i T λ 4 π
    Figure DE112021000951T5_0012
  • In Gleichung (12) ist φi die Anfangsphase des Objektsignals 402 in einer ersten von den Zeitdauern 420, 421 oder 422, und φi+1 ist eine Phase des Objektsignals 402 in einer benachbarten Zeitdauer. Jedoch müssen die benachbarten Zeitdauern nah einander liegen, so dass λ beinahe λi gleicht und beide fast λi+1 gleichen (z. B. innerhalb von 1 bis 5 % davon liegen). Gleichung (12) sollte auf Situationen beschränkt sein, in denen die Änderung der Phase Δφ größer als minus Pi π und kleiner als Pi π ist. Das heißt, die Phasenverschiebung kann verwendet werden, um die Geschwindigkeit des Objekts 301 bis zu einer maximalen Geschwindigkeit Vmax genau zu berechnen, die für ein besonderes LIDAR-System 101 durch Gleichung (13) berechnet werden kann V m a x = λ 4 T
    Figure DE112021000951T5_0013
  • In einigen Ausführungsformen kann die Phasenverschiebung zwischen benachbarten Abschnitten des Objektsignals 402 berechnet werden, indem eine schnelle Fourier-Transformation (FFT) an den benachbarten Abschnitten des Objektsignals 402 durchgeführt wird. Die Amplitude der FFT kann verwendet werden, um die Entfernung (d. h. oder einen Bereich) des Objekts 301 vom LIDAR-System 101 zu berechnen. Die Phasenverschiebung zwischen den benachbarten Abschnitten des Objektsignals 402 kann berechnet werden, indem die FFT jedes Signals in der Entfernung des Objekts 302 verwendet wird und eine erste Phase in der Entfernung des ersten Objektsignals 402 von einer zweiten Phase in der Entfernung des zweiten (oder z. B. benachbarten) Objektsignals 402 subtrahiert wird. In einigen Ausführungsformen kann die Berechnung der Phasenverschiebung mehrmals unter Verwendung mehrerer benachbarter Abschnitte des Objektsignals 402 vorgenommen werden und die mehreren berechneten Phasenverschiebungen können dann zusammen gemittelt werden, um eine Möglichkeit eines Fehlers in der Geschwindigkeitsberechnung zu reduzieren.
  • In einigen Ausführungsformen kann die Geschwindigkeit des Objekts 301 ohne die Verwendung benachbarter Abschnitte des Objektsignals 402 gemessen werden. Dies ist in Situationen von Vorteil, in denen das Objekt 301 klein sein oder sich weit weg vom LIDAR-System 101 befinden kann, so dass das Objektsignal 402 nicht genügend (oder möglicherweise keine) benachbarte(n) Abschnitte aufweist, die zum Berechnen der Phasenverschiebung verwendet werden können. Zum Beispiel zeigt 5 einen Weg zum Messen oder Berechnen der Geschwindigkeit des Objekts 301 ohne die Verwendung benachbarter Abschnitte des Objektsignals.
  • 5 zeigt mehrere Rahmen eines Signalprofils 500, die zum Berechnen der Phasenverschiebung verwendet werden können. Das Signalprofil 500 umfasst einen ersten Rahmen 501, einen zweiten Rahmen 502 und einen Rahmen N 503. Der erste Rahmen 501 umfasst ein erstes Referenzsignal 510 und ein erstes Objektsignal 511. Der zweite Rahmen 502 umfasst ein zweites Referenzsignal 520 und ein zweites Objektsignal 521. Der N-Rahmen umfasst ein N-Referenzsignal 530 und ein N-Objektsignal 531. Das heißt, in einigen Ausführungsformen können zwei oder mehr Rahmen verwendet werden, um die Phasenverschiebung zwischen den Objektsignalen 511, 521 und 531 in benachbarten Rahmen zu berechnen. In einigen Ausführungsformen, wie z. B. wenn sich das Objekt 301 sehr langsam bewegt (z. B. ist die Geschwindigkeit kleiner als die Wellenlänge geteilt durch das 4-Fache der Zeitdauer T), kann die Phasenverschiebung zwischen benachbarten Rahmen berechnet werden, die um mehr als einen Rahmen voneinander entfernt liegen. Das LIDAR-System 101 kann aufgrund dessen, wo die Objektsignale in Bezug auf die Referenzsignale 510, 520 und 530 in jedem Rahmen empfangen werden, annehmen, dass jedes der Objektsignale 511, 521 und 531 demselben Objekt 301 entspricht. Zum Beispiel entsprechen all die Objektsignale 511, 521 und 531 den gleichen (oder ähnlichen) Frequenzen der Referenzsignale 510, 520 und 530 in jedem Rahmen. In einigen Ausführungsformen sind die Rahmen 501, 502 und 503 zu anderen Rahmen in einer konsistenten Zeitdauer Tƒ. benachbart.
  • Zum Beispiel kann in einigen Ausführungsformen die Geschwindigkeit des Objekts 301 zwischen dem ersten Rahmen 501 (oder einem ersten Rahmen i) und einem Rahmen, der sich N Zeitdauern Tƒ entfernt befindet, unter Verwendung von Gleichung (14) berechnet werden: v = φ i + N φ i N T f λ 4 π
    Figure DE112021000951T5_0014
  • Wie vorstehend erwähnt, kann eine Auflösung der messbarer Geschwindigkeit vres des Objekts 301 auf Situationen beschränkt sein, in denen die Phasenverschiebung sehr klein zwischen benachbarten Rahmen ist (z. B. ist die Geschwindigkeit des Objekts 301 sehr klein). In einigen solchen Ausführungsformen kann der Prozessor 114 Objektsignale 511, 521 oder 531 aus Rahmen wählen, die weiter auseinander liegen, um die Geschwindigkeit des Objekts genau zu messen, berechnen oder schätzen. Zum Beispiel ist die Auflösung einer messbaren Geschwindigkeit vres zwischen benachbarten Rahmen auf die minimale messbare Phasenverschiebung Δφmin des LIDAR-Systems 101 beschränkt, die für jede Implementierung spezifisch sein kann. Die Auflösung der messbaren Geschwindigkeit vres kann unter Verwendung von Gleichung (15) berechnet werden: v r e s = Δ φ m i n λ 4 π T f
    Figure DE112021000951T5_0015
  • Daher können in einigen Ausführungsformen die durch den Prozessor 114 zum Berechnen der Geschwindigkeit gewählten Rahmen vergrößert werden, um die Auflösung der messbaren Geschwindigkeit vres zu verbessern. Zum Beispiel kann die Auflösung der messbaren Geschwindigkeit vres verfeinert werden, indem Rahmen gewählt werden, die N Rahmen entfernt voneinander liegen. Auf diese Weise kann die Geschwindigkeit von Objekten, die sich in Bezug auf das LIDAR-System 101 sehr langsam bewegen, weiterhin präzise gemessenen oder berechnet werden. Die Auflösung der messbaren Geschwindigkeit vres zwischen Objektsignalen 511, 521 und 531, die N Rahmen entfernt voneinander liegen, kann unter Verwendung von Gleichung (16) berechnet werden: v r e s = Δ φ m i n λ 4 π N T f
    Figure DE112021000951T5_0016
  • Jedoch versteht es sich, dass die maximale Geschwindigkeit, die zwischen der N Anzahl von Rahmen gemessen wird, auf Situationen beschränkt sein sollte, in denen die Phasenverschiebung zwischen der N Anzahl von Rahmen Δφ größer als minus Pi π aber auch kleiner als Pi π ist, damit die Geschwindigkeit ohne Fehler durch größere Verschiebungen eindeutig bestimmt wird. Mit anderen Worten kann die maximale Geschwindigkeit, die zwischen N Rahmen eindeutig gemessen werden kann, unter Verwendung von Gleichung (17) berechnet werden: V m a x = λ 4 N T f
    Figure DE112021000951T5_0017
  • 6 zeigt ein LIDAR-System 600 gemäß einem Ausführungsbeispiel. Wie in 1 ausgewiesen, kann in einigen Ausführungsformen das LIDAR-System 101 ein Interferometer umfassen. Das LIDAR-System 600 umfasst verschiedene ähnliche Komponenten wie das LIDAR-System 101 und ein Interferometer 603. Das heißt, das LIDAR-System 600 umfasst eine Lichtquelle 102, ein wellenlängendispersives Element 104 und einen Detektor 109. In einigen Ausführungsformen kann das Interferometer 603 ein Referenz-Interferometer sein, das als Mach-Zehnder-Interferometer implementiert ist. In einigen Ausführungsformen projiziert die Lichtquelle 102 einen Strahl 602 zu einem Strahlteiler 603, der Strahlteiler 603 teilt den Strahl 602 in einen Referenzstrahl 604 und einen Objektstrahl 605 auf. Der Referenzstrahl 604 wird zu einem Eingang des Interferometers 608 gelenkt. Das Interferometer 608 beugt dann den Referenzstrahl 604, lenkt ihn ab oder lenkt ihn auf eine andere Weise auf einer bekannten Distanz, und der Referenzstrahl 604 wird an einem zweiten Detektor 609 empfangen. In einigen Ausführungsformen können der zweite Detektor 609 und der Detektor 109 derselbe Detektor sein und derart angeordnet sein, dass der Detektor sowohl den Referenzstrahl 604 als auch reflektierte Abschnitte des Objektstrahls 605 vom FOV empfängt.
  • In einigen Ausführungsformen wird der Objektstrahl gelenkt, gebeugt oder verläuft durch den Strahlteiler 603 und verläuft durch einen Halbspiegel 611. Der Objektstrahl 605 trifft auf das wellenlängendispersive Element 104 auf und wird in das FOV gelenkt. Der Objektstrahl 605 kann auf Objekte innerhalb des FOV auftreffen und zurück zum wellenlängendispersiven Element 104 reflektiert oder gestreut werden. Das wellenlängendispersive Element 104 kann dann die reflektierten Abschnitte des Objektstrahls 605 an den Detektor 109 lenken. In einigen Ausführungsformen treffen die reflektierten Abschnitte des Objektstrahls 605 auf den Halbspiegel 611 auf und werden reflektiert, gebeugt oder auf eine andere Weise zum Detektor 109 gelenkt.
  • In einigen Ausführungsformen ermöglicht das Interferometer es dem LIDAR-System 600, Interferenzsignale zwischen den reflektierten Abschnitten des Objektstrahls 605 und dem Referenzstrahl 605 zu generieren, um Schwebungssignale zu berechnen. In einigen Ausführungsformen wird das Interferometer verwendet, um den Frequenzdurchlauf zu überwachen und Abschnitte (wie z. B. die Zeitdauern, in denen der Strahl zum ersten Abschnitt des FOV A0 gelenkt wird) im Anstiegs- und Abfallabschnitt eines Rahmens zu identifizieren. In einigen Ausführungsformen ermöglicht das Interferometer 603 es dem Prozessor 614, eine Entfernung (oder z. B. einen Bereich) eines Objekts im FOV unter Verwendung eines berechneten Interferenzsignals zwischen den reflektierten Abschnitten des Objektstrahls 605 und dem Referenzstrahl 604 unter Verwendung der bekannten Wegstrecke des Referenzstrahls 604 zu berechnen.
  • 7a zeigt ein Signalprofil 700 im Verlauf einer Anstiegs- und Abfalldauer (z. B. eines Rahmens) eines LIDAR-Systems gemäß einem Ausführungsbeispiel. 7a zeigt ein Signalprofil 750 im Verlauf mehrerer Anstiegsdauern (z. B. mehrerer Rahmen) eines LIDAR-Systems gemäß einem Ausführungsbeispiel. 8a zeigt ein Schwebungssignalprofil 800 eines Schwebungssignals vom Interferometer, das dem Signalprofil 700 entspricht. 8b zeigt ein Schwebungssignalprofil 850 eines Schwebungssignals vom Interferometer, das dem Signalprofil 750 im Verlauf der mehreren Rahmen entspricht. Zu Demonstrationszwecken wird während der Besprechung von 7 und 8 Bezug auf 6 genommen. Das Signalprofil 700 umfasst ein Referenzsignal 701. In einigen Ausführungsformen ist das Referenzsignal 701 aufgrund von Beschränkungen der Lichtquelle 102 absichtlich oder nicht absichtlich nichtlinear. Die Nichtlinearität des Referenzsignals 701 kann den Betrag der Zeit, in der der Objektstrahl 605 zu bestimmen Abschnitten des FOV (wie z. B. A0, A1 oder A2) gelenkt wird, verzerren. Folglich können Berechnungen von Objektsignalpositionen und die Objektsignalgröße ebenfalls verzerrt werden. Damit das LIDAR-System 600 (z. B. der Prozessor 114) während der Berechnung des Bereichs und der Geschwindigkeit eines oder mehrerer Objekte im FOV die Verzerrungen korrigieren kann, kann das Schwebungssignalprofil 800 als eine Referenz verwendet werden. Zum Beispiel umfasst das Schwebungssignalprofil 800 ein Schwebungssignal 801, das den Zeitpunkt anzeigt, zu dem der Objektstrahl an jedem Abschnitt (z. B. A0, A1 und A2) des FOV vorbeigestrichen ist. In einigen Ausführungsformen kann das Schwebungssignal 801 den Zeitpunkt und die Winkelposition des Objektstrahls anzeigen, indem ein Kosinus-Diagramm erzeugt wird, wobei jeder Zyklus des Kosinus mit einem Abschnitt des FOV im Zusammenhang steht. Von daher kann das Schwebungssignal 801 vom Interferometer 603 verwendet werden, um die Abschnitte zu ermitteln, auf die der Objektstrahl 605 projiziert oder über bestimmte Abschnitte des FOV geführt wird, auch wenn eine Nichtlinearität im Referenzsignal vorhanden ist. Außerdem kann das Schwebungssignal 801 auch verwendet werden, um die Zeit zu identifizieren, zu dem der Anstiegs- und Abfallbereich eines Rahmens auftritt, auch wenn sie ebenfalls nicht identisch sind. Mit anderen Worten kann das Schwebungssignal 801 durch den Prozessor 114 verwendet werden, um die Nichtlinearität des Frequenzdurchlaufs auszugleichen und sicherzustellen, dass genaue Positionen, Entfernungen und Geschwindigkeiten für jedes Objekt im FOV gemessen werden. In einigen Ausführungsformen kann das LIDAR-System 600 die Nichtlinearität des Referenzsignals 701 berechnen und ausgleichen, indem das Referenzsignal 701 (z. B. mithilfe des Interferometers) detektiert wird und die Zeitpunkte, zu denen der Referenzstrahl 701 bei bestimmten Frequenzen liegt, aufgezeichnet werden und auf der Grundlage der Aufzeichnung Querverweise auf empfangene Objektsignale erstellt werden. Obwohl die Beschreibung zwischen 7a und 8a vorgenommen wird, versteht es sich, dass das Signalprofil 750 von 7b und das entsprechende Schwebungsprofil von 8b verwendet werden können, und die Nichtlinearität der Referenzsignale in jedem Rahmen zu berechnen und auszugleichen.
  • 9 zeigt ein LIDAR-System in Bewegung 900 gemäß einem Ausführungsbeispiel. Das LIDAR-System in Bewegung 900 umfasst ein LIDAR-System 101 (oder 600), das sich mit einer Geschwindigkeit vL bewegt. In einigen Ausführungsformen kann ein LIDAR-System 101 eine Geschwindigkeit vL aufweisen, weil es sich auf einem Fahrzeug (wie z. B. einem Auto oder autonomen Auto) befindet. Das LIDAR-System 101 kann die Geschwindigkeit vL unter Verwendung von verbundenen Sensoren bestimmen. Zum Beispiel kann das LIDAR-System 101 ein geographisches Positionssystem (GPS) umfassen, das mit dem Prozessor 114 gekoppelt ist und dem Prozessor 114 die Geschwindigkeit des LIDAR-Systems 101 anzeigt. In einigen Ausführungsformen kann der Prozessor 114 mit anderen Sensoren (wie z. B. einem Geschwindigkeitsmesser) verbunden sein, die die Geschwindigkeit vL. anzeigen. Das LIDAR-System 101 kann auf der Grundlage der Frequenz, bei der ein Objektsignal empfangen wird, einen Winkel θ von einer Achse 980, die senkrecht zum LIDAR-System 101 ist, in dem das Objekt angeordnet ist, bestimmen. Das LIDAR-System 101 kann die bestimmte, empfangene oder geschätzte Geschwindigkeit vL verwenden, um eine absolute Geschwindigkeit va eines Objekts 901 entlang des Winkels 0 zu berechnen. Zum Beispiel kann, wie vorstehend erläutert, das LIDAR-System 101 das Objekt 901 erfassen und eine Entfernung (oder z. B. einen Bereich) des Objekts 901 und eine Geschwindigkeit vo des Objekts 901 in Bezug auf das LIDAR-System 101 berechnen. Das LIDAR-System 101 (z. B. der Prozessor 114) kann die absolute Geschwindigkeit va des Objekts 901 unter Verwendung dieser gemessenen, bestimmten oder berechneten Information berechnen. Zum Beispiel kann das LIDAR-System 101 die absolute Geschwindigkeit des Objekts 901 unter Verwendung von Gleichung (18) bestimmen v a = v O + v L cos ( θ )
    Figure DE112021000951T5_0018
  • 10 zeigt ein Sichtfeld (FOV) 1000 eines LIDAR-Systems (z. B. 102 oder 600) gemäß einem Ausführungsbeispiel. In einigen Ausführungsformen kann das FOV 1000 das vorstehend beschriebene FOV 190 sein. Das FOV 1000 umfasst ein Objekt 1001, das während eines ersten Rahmens des LIDAR-Systems 101 detektiert wird. Es kann durch das LIDAR-System 101 gemessen oder berechnet werden, dass sich das Objekt 1001 in einem ersten Winkel θ1 in Bezug auf eine zum LIDAR-System 101 senkrechte Achse 1050, in einer ersten Entfernung R1 (d. h. oder einem Bereich) vom LIDAR-System 101 befindet, und eine erste Geschwindigkeit v1 entlang des ersten Winkels θ1 in Bezug auf eine zum LIDAR-System 101 senkrechte Achse 1050 aufweist. Das LIDAR-System 101 kann die Position des Objekts 1001 im nächsten Rahmen (oder anschließenden Rahmen) unter Verwendung der berechneten oder gemessenen Charakteristiken vorhersagen. Das LIDAR-System kann die Position des Objekts 1001 vorhersagen, um die Signal-Rausch-Verhältnisse von Signalen im nächsten Rahmen (oder anschließenden Rahmen) zu verbessern und auch um eine überlegene Objektverfolgung im Laufe der Zeit zu ermöglichen. Mit anderen Worten detektiert und berechnet das LIDAR-System die erste Geschwindigkeit v1 des Objekts 1001 und die erste Geschwindigkeit v1 zeigt lediglich die Geschwindigkeit des Objekts 1001 im ersten Winkel θ1. an. Daher kann durch Verfolgen des Objekts 1001 im Verlauf mehrerer Rahmen eine absolute Geschwindigkeit bestimmt werden, indem auch eine zweite Geschwindigkeitskomponente, die zur ersten Geschwindigkeit v1 senkrecht ist, bestimmt wird. Wenn sich jedoch das Objekt 1001 sehr schnell bewegt, muss das LIDAR-System 101 möglicherweise die Position des Objekts 1001 im zweiten Rahmen (oder anschließenden Rahmen) vorhersagen, um sicherzustellen, dass dasselbe Objekt 1001 im zweiten Rahmen (im Gegensatz z. B. zu einem zweiten Objekt) gemessen wird.
  • Das heißt, das FOV 100 umfasst außerdem einen vorhergesagten Bereich 1020 des Objekts 1001 im nächsten Rahmen (d. h. einem zweiten Rahmen) auf der Grundlage der berechneten oder gemessenen ersten Geschwindigkeit v1, des ersten Winkels θ1, und der ersten Entfernung R1 des Objekts 1001 im ersten Rahmen. Das LIDAR-System 101 kann eine vorhergesagte Änderung des Bereichs ΔR zwischen dem ersten und dem zweiten Rahmen berechnen, indem die Zeit zwischen Rahmen Tƒ mit der ersten Geschwindigkeit v1 multipliziert wird. Das LIDAR-System 101 kann bestimmen, dass sich ein erwarteter zweiter Bereich R2 des Objekts 1001 in einer Entfernung von R1 addiert zur vorhergesagten Änderung des Bereichs ΔR befindet. Es kann dann angenommen werden, dass ein im zweiten Bereich R2 im zweiten Rahmen detektiertes Objekt das Objekt 1001 ist.
  • 11 zeigt ein Diagramm 1100 einer Filterung von FFT-Signalen eines Objektsignals gemäß einem Ausführungsbeispiel. Das Diagramm 1100 umfasst ein erstes FFT-Signal 1101, ein zweites FFT-Signal 1102 und eine Filter-FFT-Funktion 1103. Das erste FFT-Signal 1101 ist eine FFT des Objekts 101 im ersten Rahmen (z. B. in der ersten Position, wie in 10 angezeigt). Es wird bestimmt, dass die Entfernung des Objekts in der ersten Entfernung R1. liegt. Der Prozessor 114 kann den vorhergesagten zweiten Bereich R2 (z. B. unter Verwendung der im ersten Rahmen gemessenen ersten Geschwindigkeit) in einem anschließenden Rahmen (d. h. dem zweiten Rahmen) berechnen und die Filter-FFT-Funktion 1103 generieren. Die Filter-FFT-Funktion 1103 umfasst ein Filtersignal 1130, das einen Peak 1131 aufweist, der dem zweiten Bereich R2 entspricht. In einigen Ausführungsformen kann die FFT-Funktion 1102 ein Gauss- oder Quadratfilter mit einem Peak sein, der dem zweiten Bereich R2 entspricht. Das zweite FFT-Signal 1102 entspricht einer FFT eines Objektsignals, das während des zweiten Rahmens erfasst wurde. Das zweite FFT-Signal 1102 enthält den zweiten Peak 1120, jedoch enthält auch ein Rauschen 1121. Das zweite FFT-Signal 1102 kann dann mit der Filter-FFT-Funktion 1102 multipliziert werden, um ein FFT-Signal 1104, das ein reduziertes Rauschen aufweist, zu generieren. Das FFT-Signal 1104 (und/oder die entsprechende Funktion) kann dann durch den Prozessor 114 verwendet werden, um eine oder mehrere hier beschriebene Operationen durchzuführen. Es ist zu beachten, dass 10 und 11 lediglich als Beispiele gedacht sind. Das heißt, in einigen Ausführungsformen können, in Abhängigkeit von der konkreten Implementierung, andere Verfahren oder Schritte verwendet werden, um den Bereich des Objekts im zweiten Rahmen vorherzusagen. Zum Beispiel kann das LIDAR-System 101 die Position von Objekten (z. B. dem Objekt 1001) im Laufe der Zeit überwachen und alle Komponenten der Geschwindigkeit jedes Objekts bestimmen und die Komponenten verwenden, um eine Filterfunktion für anschließende Rahmen zu generieren. In einigen Ausführungsformen wird auch eine Beschleunigung des LIDAR-Systems 101 beim Bestimmen der Filterfunktion ausgeglichen. In einigen Ausführungsformen liegen der erste Rahmen und der zweite Rahmen eine N-Anzahl von Rahmen voneinander entfernt. In einigen Ausführungsformen können andere Formen von Transformationen anstelle von oder zusätzlich zur schnellen Fourier-Transformation (FFT) implementiert werden.
  • 12 zeigt ein Sichtfeld (FOV) 1200 eines LIDAR-Systems (z. B. 102 oder 600) gemäß einem Ausführungsbeispiel. Das FOV 1200 zeigt eine gemessene Position des Objekts 1001 im FOV 1001. Das heißt, das FOV 1200 zeigt den ersten Bereich R1 und den ersten Winkel θ1 des Objekts 1001 in einem vorherigen Rahmen (d. h. dem ersten Rahmen) und den zweiten Bereich R2 und den zweiten Winkel θ2 des Objekts 1001, wie im zweiten Rahmen gemessenen oder detektiert. Der Prozessor 114 kann die Information des gemessenen Objekts im ersten und im zweiten Rahmen verwenden, um einen Geschwindigkeitsvektor v(t) des Objekts 1001 zu berechnen. In einigen Ausführungsformen kann der Geschwindigkeitsvektor v(t) bestimmt werden, indem ein Positionsvektor r2(R2, θ2), der der Position des Objekts 1001 im zweiten Rahmen entspricht, von einem ersten Positionsvektor r1(R11), der der Position des Objekts 1001 im ersten Rahmen entspricht, subtrahiert und das Ergebnis durch die Zeit zwischen dem zweiten Rahmen und dem ersten Rahmen geteilt wird. In einigen Ausführungsformen kann der Geschwindigkeitsvektor v(t) auf eine andere Weise bestimmt werden, wie z. B. indem die Positionsvektoren in andere Koordinatensysteme (z. B. ein kartesisches Koordinatensystem) vor dem Berechnen des Geschwindigkeitsvektors v(t) konvertiert werden.
  • Es ist zu beachten, dass 10 bis 12 lediglich als Beispiele gedacht sind. Das heißt, in einigen Ausführungsformen können, in Abhängigkeit von der konkreten Implementierung, andere Verfahren oder Schritte verwendet werden, um den Bereich des Objekts im zweiten Rahmen vorherzusagen. Zum Beispiel kann das LIDAR-System 101 die Position von Objekten (z. B. dem Objekt 1001) im Laufe der Zeit überwachen und alle Komponenten der Geschwindigkeit jedes Objekts bestimmen und die Komponenten verwenden, um eine Filterfunktion für anschließende Rahmen zu generieren. In einigen Ausführungsformen können ein oder mehrere Objekte im Verlauf mehrerer Rahmen verfolgt, vorhergesagt und gemessen werden. In einigen Ausführungsformen wird eine Beschleunigung des LIDAR-Systems 101 beim Bestimmen der Filterfunktion ebenfalls ausgeglichen. In einigen Ausführungsformen liegen der erste Rahmen und der zweite Rahmen eine N-Anzahl von Rahmen voneinander entfernt. In einigen Ausführungsformen können andere Formen von Transformationen anstelle von oder zusätzlich zur schnellen Fourier-Transformation (FFT) implementiert werden.
  • 13 zeigt ein LIDAR-System in Bewegung 1300 gemäß einem Ausführungsbeispiel. Das LIDAR-System in Bewegung 1300 kann ein LIDAR-System (wie z. B. die hier beschriebenen LIDAR-Systeme), das sich mit einer durch den Geschwindigkeitsvektor vL (t) angegebenen Geschwindigkeit bewegt, und ein Objekt 1301 umfassen. Das Objekt 1301 kann einen Geschwindigkeitsvektor v(t) in Bezug auf das LIDAR-System 101 aufweisen, der durch das LIDAR-System 101 detektiert, gemessen oder berechnet wird. Der Geschwindigkeitsvektor des LIDAR-Systems 101 vL(t) kann zum Geschwindigkeitsvektor v(t) des Objekts 1301 addiert werden, um einen absoluten Geschwindigkeitsvektor va(t) des Objekts 1301 in Bezug auf eine externe Umgebung des LIDAR-Systems 101 zu bestimmen. In einigen Ausführungsformen, in denen das LIDAR-System 101 beschleunigt wird (z. B. wird ein Fahrzeug, welches das LIDAR-System 101 an Bord aufweist, beschleunigt), kann sich der Geschwindigkeitsvektor von vL(t) ändern und die vorhergesagten Positionen des Objekts 1301 in Bezug auf das LIDAR-System in anschließenden Rahmen (z. B. im Laufe der Zeit) können entsprechend angepasst werden. Auf diese Weise ist das LIDAR-System 101 in der Lage, ein oder mehrere Objekte innerhalb des FOV zu messen, detektieren und berechnen, um die Position jedes der Objekte in Bezug auf das LIDAR-System im Verlauf der Zeit zu verfolgen, vorherzusagen oder zu schätzen, wodurch ermöglicht wird, dass das LIDAR-System 101 in vielen verschiedenen Anwendungen (z. B. in einem autonomen Fahrzeug) implementiert wird und Sicherheitsvorteile dafür bietet.
  • 14 zeigt ein Ablaufdiagramm eines Verfahrens 1400 zum Berechnen von Geschwindigkeiten von Objekten innerhalb eines FOV eines LIDAR-Systems gemäß einem Ausführungsbeispiel. Bei einem Vorgang 1401 steuert der Prozessor die Lichtquelle oder veranlasst diese dazu, einen Strahl über einen Frequenzdurchlauf im Verlauf einer ersten Zeitdauer zu generieren. In einigen Ausführungsformen kann der Prozessor die Lichtquelle dazu veranlassen, einen Strahl zu generieren, der von einer ersten Frequenz zu einem ersten Zeitpunkt kontinuierlich zu einer zweiten Frequenz zu einem Zeitpunkt durchläuft. In einigen Ausführungsformen ist der Durchlauf des Strahls über die Frequenzen linear mit einer bestimmten Steigung. In einigen Ausführungsformen ist der Durchlauf des Strahls über die Frequenzen nichtlinear. In einigen Ausführungsformen veranlasst der Prozessor ferner die Lichtquelle dazu, einen Strahl zu generieren, der von der ersten Frequenz hin zur zweiten Frequenz während einer Anstiegszeitdauer und zurück zur ersten Frequenz während einer Abfallzeitdauer durchläuft. In einigen Ausführungsformen verwendet der Prozessor einen Lichtquellengenerator, um ein Muster des Durchlaufs zu bestimmen. In einigen Ausführungsformen kann der Prozessor die Lichtquelle dazu veranlassen, die Frequenzen zu einem Zeitpunkt nach dem ersten Zeitpunkt erneut zu durchlaufen. Das heißt, der Prozessor kann die Lichtquelle dazu veranlassen, die Frequenzen erneut zu durchlaufen, um mehrere Rahmen zu generieren. In einigen Ausführungsformen ist jedes der mehreren Rahmen von benachbarten Rahmen durch eine eingestellte, bekannte oder vorgegebene Zeitdauer getrennt.
  • Bei einem Vorgang 1402 projiziert das LIDAR-System den Strahl zu einem wellenlängendispersiven Element hin. In einigen Ausführungsformen kann der Strahl zu einem oder mehreren wellenlängendispersiven Elementen projiziert werden. Die wellenlängendispersiven Elemente können Volumengitter, Beugungsgitter, oder andere Typen von Beugungsgittern, die innerhalb oder auf einem Kombinierer oder einer anderen Vorrichtung angeordnet sind, umfassen. In einigen Ausführungsformen können die wellenlängendispersiven Elemente einen Kristall, ein Prisma oder eine andere wellenlängendispersive Vorrichtung in Kombination mit anderen optischen Elementen, wie z. B. Spiegeln oder Linsen, umfassen.
  • Bei einem Vorgang 1403 wird der Strahl von den wellenlängendispersiven Elementen in ein FOV des LIDAR-Systems in Winkeln, die von der Frequenz des Strahls abhängen, projiziert oder gelenkt. Das heißt, der Strahl (oder ein Abschnitt des Strahls) kann auf das wellenlängendispersive Element in einem Einfallswinkel auftreffen, der über den gesamten Frequenzdurchlauf des Strahls konstant ist. Die wellenlängendispersiven Elemente reflektieren, streuen oder projizieren den Strahl in das FOV auf der Grundlage der Frequenz des Strahls. Das heißt, die erste Frequenz kann in einem ersten Winkel in das FOV projiziert werden, und die letzte Frequenz kann in einem zweiten Winkel in das FOV projiziert werden. Der Durchlauf des Strahls stellt sicher, dass alle Winkel zwischen dem ersten Winkel und dem zweiten Winkel im FOV abgetastet werden. Für ein bestimmtes LIDAR-System oder wellenlängendispersives Element ist der Winkel, in dem jede bestimmte Frequenz des Strahls in das FOV projiziert wird, bekannt, weswegen das LIDAR-System eine Winkelposition eines Objekts auf der Grundlage der Frequenz von Abschnitten des Strahls, die am Detektor empfangen werden, bestimmen kann.
  • Bei einem Vorgang 1404 werden Abschnitte des Strahls, die von einem Objekt im FOV reflektiert wurden, zu einem Detektor gelenkt. In einigen Ausführungsformen ist der Detektor derart angeordnet, dass er Abschnitte des Strahls empfängt, die vom Objekt im FOV reflektiert wurden. In einigen Ausführungsformen ist das wellenlängendispersive Element dazu ausgelegt, die Abschnitte des Strahls, die vom Objekt im FOV reflektiert werden, zu empfangen und die reflektierten Abschnitte des Strahls zum Detektor zu lenken. In einigen Ausführungsformen können ein oder mehrere andere optische Elemente verwendet und angeordnet werden, um die reflektierten Abschnitte des Strahls zum Detektor zu lenken.
  • Bei einem Vorgang 1405 generiert der Detektor ein Objektsignal auf der Grundlage der empfangenen reflektierten Abschnitte des Strahls. Der Detektor empfängt die reflektierten Abschnitte des Strahls und generiert ein Objektsignal. In einigen Ausführungsformen ist das Objektsignal ein elektrisches Signal (z. B. entweder analog oder digital), das zu einem Prozessor des LIDAR-Systems oder einem Detektor für eine Verarbeitung übertragen werden kann. In einigen Ausführungsformen wird das Objektsignal unmittelbar in einem Speicher für eine Verarbeitung zu einem späteren Zeitpunkt gespeichert. In einigen Ausführungsformen umfasst das Objektsignal ein Rauschen oder andere Unvollkommenheiten, die eine Verarbeitung erfordern, um ein Objekt zu identifizieren und/oder eine Geschwindigkeit oder Position des Objekts zu berechnen. In einigen Ausführungsformen umfasst das Objektsignal alle Ausgaben des Detektors im Verlauf einer spezifizierten Zeitdauer und Abschnitte des Objektsignals können als ein erster Abschnitt oder ein zweiter Abschnitt identifiziert werden.
  • Bei einem Vorgang 1406 bestimmt das LIDAR-System eine Geschwindigkeit des Objekts auf der Grundlage des detektierten Lichts, das der ersten Zeitdauer entspricht (d. h. des Objektsignals). In einigen Ausführungsformen verwendet der Prozessor die Charakteristiken des Objektsignals und des Referenzsignals, um die Geschwindigkeit des Objekts zu bestimmen. Zum Beispiel ermöglicht ein Referenzsignal, das sägezahnförmig ist (oder z. B. steigt und dann abfällt), es für einen Prozessor, die Entfernung und die Geschwindigkeit des Objekts auf der Grundlage des Dopplereffekts zu berechnen. In einigen Ausführungsformen verwendet der Prozessor benachbarte Abschnitte eines ersten Objektsignals, das einem während einer Anstiegsdauer abgetasteten oder detektierten Objekt entspricht, um die Geschwindigkeit des Objekts zu bestimmen. In einigen Ausführungsformen bestimmt der Prozessor die Geschwindigkeit des Objekts, indem eine Phasenverschiebung zwischen den benachbarten Abschnitten des ersten Objektsignals berechnet wird.
  • In einigen Ausführungsformen bestimmt der Prozessor die Geschwindigkeit des Objekts, indem eine Phasenverschiebung zwischen dem ersten Objektsignal und einem zweiten Objektsignal, das dem Objekt entspricht, welches zu einem anderen Zeitpunkt (z. B. während einer Anstiegsdauer eines anderen Rahmens) abgetastet oder detektiert wurde, bestimmt wird. In einigen Ausführungsformen bestimmt der Prozessor die Geschwindigkeit des Objekts, indem eine Dopplerverschiebung zwischen dem ersten Objektsignal und einem anderen Objektsignal, das dem während einer Abfalldauer abgetasteten Objekt entspricht, bestimmt wird. In einigen Ausführungsformen kann der Prozessor die Geschwindigkeit bestimmen, indem ein erstes Schwebungssignal für das erste Objektsignal und ein zweites Schwebungssignal für das zweite Objektsignal berechnet werden. Der Prozessor kann außerdem einen Bereich oder eine Entfernung des Objekts auf der Grundlage des ersten und des zweiten Schwebungssignals bestimmen.
  • In einigen Ausführungsformen ist der Prozessor außerdem dazu ausgelegt, einen Geschwindigkeitsvektor des Objekts in Bezug auf das LIDAR-System unter Verwendung einer Bestimmung der Geschwindigkeit und Position aus mehreren Rahmen zu bestimmen. In einigen Ausführungsformen ist der Prozessor außerdem dazu ausgelegt, das Objekt im Verlauf der Zeit und mehrerer Rahmen zu verfolgen oder nachzuverfolgen. In einigen Ausführungsformen ist der Prozessor außerdem dazu ausgelegt, die Position des Objekts in anschließenden Rahmen auf der Grundlage der bestimmten Geschwindigkeit oder des bestimmten Geschwindigkeitsvektors vorherzusagen. In einigen Ausführungsformen ist der Prozessor ferner dazu ausgelegt, ein Filter von der vorhergesagten Position des Objekts zu generieren. In einigen Ausführungsformen ermöglicht das Filter es, dass Rauschen in empfangenen Signalen, die anschließenden Rahmen entsprechen, reduziert wird. In einigen Ausführungsformen ist der Prozessor ferner dazu ausgelegt, einen absoluten Geschwindigkeitsvektor des Objekts in Bezug auf eine Umgebung außerhalb des LIDAR-Systems unter Verwendung einer bekannten, geschätzten, empfangenen oder bestimmten Geschwindigkeit des LIDAR-Systems zu bestimmen. In einigen Ausführungsformen ist der Prozessor ferner dazu ausgelegt, Beschleunigungsinformationen bezüglich des LIDAR-Systems zu empfangen und die Vorhersagen anzupassen oder das Objekt mit einer weltzentrischen Perspektive zu verfolgen.
  • Die vorstehende Beschreibung von Ausführungsbeispielen wurde zu Zwecken der Veranschaulichung und der Beschreibung dargelegt. Sie soll in Bezug auf die offenbarte genaue Form nicht erschöpfend oder einschränkend sein, und Modifikationen und Abwandlungen sind im Lichte der obigen Lehren möglich oder können aus der Praxis der offenbarten Ausführungsformen gewonnen werden.
  • Obwohl bestimmte Ausführungsformen dargestellt und beschrieben wurden, versteht es sich, dass Änderungen und Modifikationen darin in Übereinstimmung mit durchschnittlichem Fachwissen vorgenommen werden können, ohne von der Technologie in ihren breiten Aspekten, wie in den nachfolgenden Ansprüchen definiert, abzuweichen.
  • Die hier veranschaulichend beschriebenen Ausführungsformen können auf geeignete Weise in Abwesenheit eines Elements oder Elemente, einer Beschränkung oder Beschränkungen, die hierin nicht speziell offenbart sind, praktiziert werden. Daher sollten zum Beispiel die Begriffe „umfassen“, „aufweisen“, „enthalten“ usw. umfangreich und ohne eine Beschränkung gelesen werden. Außerdem wurden, die Begriffe und Ausdrücke, die hier verwendet werden, als Begriffe der Beschreibung und nicht der Beschränkung verwendet, und es besteht bei der Verwendung derartiger Begriffe und Ausdrücke keine Absicht des Ausschließens von Äquivalenten der gezeigten und beschriebenen Merkmale oder Abschnitten davon, aber es versteht sich, dass verschiedene Modifikationen innerhalb des Umfangs der beanspruchten Technologie möglich sind. Außerdem wird der Ausdruck „bestehend im Wesentlichen aus“ derart verstanden, dass er jene Elemente umfasst, die spezifisch genannt sind, und jene zusätzlichen Elemente, die grundlegenden und neuartigen Charakteristiken der beanspruchten Technologie nicht wesentlich beeinflussen. Der Ausdruck „bestehend aus“ schließt jedes nicht spezifizierte Element aus.
  • Die vorliegende Offenbarung soll nicht im Hinblick auf die konkreten Ausführungsformen, die in dieser Anmeldung beschrieben sind, beschränkt werden. Viele Modifikationen und Abwandlungen können vorgenommen werden, ohne vom Geist und Umfang abzuweichen, wie für einen Fachmann offensichtlich sein wird. Funktionell äquivalente Verfahren und Zusammensetzungen innerhalb des Umfangs der Offenbarung, zusätzlich zu den hierin aufgezählten, werden für einen Fachmann aus den vorstehenden Beschreibungen ersichtlich sein.
  • Solche Modifikationen und Abwandlungen sollen innerhalb des Umfangs der beigefügten Ansprüche liegen. Die vorliegende Offenbarung sollte lediglich durch die Bedingungen der beigefügten Ansprüche samt dem vollen Umfang von Äquivalenten, zu denen solche Ansprüche berechtigt sind, beschränkt werden. Es versteht sich, dass diese Offenbarung nicht auf bestimmte Verfahren, Reagenzien, Verbindungszusammensetzungen oder biologische Systeme, die natürlich variieren können, beschränkt ist.
  • Es versteht sich außerdem, dass die hier verwendete Terminologie lediglich dem Zweck der Beschreibung bestimmter Ausführungsformen dient und nicht beschränkend sein soll. Es versteht sich für einen Fachmann außerdem, dass „auf der Grundlage“ als „zumindest auf der Grundlage von“ auszulegen ist, sofern nicht ausdrücklich etwas anderes angegeben ist.
  • Wie ein Fachmann verstehen wird, umfassen alle hier offenbarten Bereiche für beliebige und alle Zwecke, insbesondere im Hinblick auf die Bereitstellung einer schriftlichen Beschreibung, auch beliebige und alle möglichen Unterbereiche und Kombinationen von Unterbereichen davon. Jeder aufgeführte Bereich kann leicht als hinreichend beschreibend erkannt werden und es ermöglichen, denselben Bereich in mindestens gleiche Hälften, Drittel, Viertel, Fünftel, Zehntel usw. aufzuteilen. Als nicht beschränkendes Beispiel kann jeder hier diskutierte Bereich leicht in ein unteres Drittel, ein mittleres Drittel und ein oberes Drittel usw. unterteilt werden. Wie ein Fachmann außerdem verstehen wird, umfassen alle Ausdrücke, wie z. B. „bis zu“, „mindestens“, „größer als“, „weniger als“ und dergleichen, die angegebene Zahl und beziehen sich auf Bereiche, die anschließend in Teilbereiche aufgeteilt werden können, wie vorstehend besprochen. Schließlich umfasst ein Bereich, wie ein Fachmann verstehen wird, jedes einzelne Mitglied.
  • Alle Veröffentlichungen, Patentanmeldungen, erteilten Patente und andere Dokumente, auf die in dieser Beschreibung Bezug genommen wird, sind hierin durch Verweis aufgenommen, als ob jede einzelne Veröffentlichung, Patentanmeldung, erteiltes Patent oder jedes andere Dokument ausdrücklich und einzeln derart gekennzeichnet wäre, dass sie/es in ihrer/seiner Gänze durch Verweis aufgenommen ist.
  • Definitionen, die in durch Verweis aufgenommenem Text enthalten sind, sind ausgeschlossen, soweit sie Definitionen in dieser Offenbarung widersprechen.
  • Andere Ausführungsformen werden in den nachstehenden Ansprüchen dargelegt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 16810269 [0001]

Claims (20)

  1. LIDAR-System (Light Detecting and Ranging), wobei das System umfasst: eine Lichtquelle, die dazu ausgelegt ist, einen Strahl zu generieren, der diskrete Frequenzen zu verschiedenen Zeitpunkten aufweist; ein wellenlängendispersives Element, das derart angeordnet ist, dass es mindestens einen Abschnitt des Strahls empfängt, und dazu ausgelegt ist, den Strahl über einen Bereich von Winkeln in einem Sichtfeld (FOV) durchlaufen zu lassen, wobei jede diskrete Frequenz des Strahls einem anderen Winkel im FOV entspricht; einen Detektor, der angeordnet ist, um Abschnitte des Strahls zu empfangen, die von einem Objekt innerhalb des FOV reflektiert werden, und dazu ausgelegt ist, ein Objektsignal auf der Grundlage der empfangenen Abschnitte des Strahls zu generieren; und einen Prozessor, der mit dem Detektor kommunikativ gekoppelt ist, wobei der Prozessor zum Folgenden ausgelegt ist: Veranlassen, dass der Strahl von einer ersten Frequenz zu einem ersten Zeitpunkt hin zu einer zweiten Frequenz im Verlauf einer Anstiegszeitdauer durchläuft, Veranlassen, dass der Strahl von der zweiten Frequenz zurück zur ersten Frequenz im Verlauf einer Abfallzeitdauer durchläuft, und Bestimmen einer Geschwindigkeit des Objekts auf der Grundlage von Charakteristiken des Strahls.
  2. System nach Anspruch 1, wobei, um die Geschwindigkeit des Objekts zu bestimmen, der Prozessor ferner zum Folgenden ausgelegt ist: Identifizieren eines ersten Abschnitts des Objektsignals, der dem während der Anstiegszeitdauer detektierten Objekt entspricht; und Identifizieren eines zweiten Abschnitts des Objektsignals, der dem während der Abfallzeitdauer detektierten Objekt entspricht.
  3. System nach Anspruch 2, wobei, um die Geschwindigkeit des Objekts zu bestimmen, der Prozessor ferner zum Folgenden ausgelegt ist: Berechnen einer ersten Schwebungsfrequenz für den ersten Abschnitt des Objektsignals; und Berechnen einer zweiten Schwebungsfrequenz für den zweiten Abschnitt des Obj ektsignals.
  4. System nach Anspruch 3, wobei die erste Schwebungsfrequenz unter Verwendung des ersten Abschnitts des Objektsignals und eines ersten Abschnitts des generierten Strahls, der dem ersten Objektsignal entspricht, berechnet wird, und die zweite Schwebungsfrequenz unter Verwendung des zweiten Abschnitts des Objektsignals und eines zweiten Abschnitt des generierten Strahls, der dem zweiten Objektsignal entspricht, berechnet wird.
  5. System nach Anspruch 3, wobei der Prozessor ferner dazu ausgelegt ist, eine Entfernung des Objekts vom LIDAR-System unter Verwendung der ersten Schwebungsfrequenz und der zweiten Schwebungsfrequenz zu bestimmen.
  6. System nach Anspruch 1, ferner umfassend: ein Interferometer, und eine Strahlteilungsvorrichtung, die zwischen der Lichtquelle und dem wellenlängendispersiven Element angeordnet ist, wobei die Strahlteilungsvorrichtung dazu ausgelegt ist, den durch die Lichtquelle generierten Strahl zu empfangen und den Strahl in einen Objektstrahl, der zum wellenlängendispersiven Element gelenkt wird, und einen Referenzstrahl, der zum Interferometer gelenkt wird, zu teilen; wobei das Interferometer dazu ausgelegt ist, Frequenzen des Referenzstrahls zu detektieren.
  7. System nach Anspruch 1, wobei die Anstiegszeitdauer und die Abfallzeitdauer einem ersten Rahmen entsprechen, wobei der Prozessor ferner dazu ausgelegt ist, zu veranlassen, dass der Strahl von der ersten Frequenz zu einem zweiten Zeitpunkt hin zur zweiten Frequenz im Verlauf einer zweiten Anstiegszeitdauer durchläuft, und zu veranlassen, dass der Strahl von der zweiten Frequenz zurück zur ersten Frequenz im Verlauf einer zweiten Abfallzeitdauer durchläuft, und wobei der zweite Zeitpunkt, die zweite Anstiegszeitdauer und die zweite Abfallzeitdauer einem zweiten Rahmen entsprechen.
  8. System nach Anspruch 7, wobei der Prozessor ferner zum Folgenden ausgelegt ist: Bestimmen einer ersten Entfernung und eines ersten Winkels des Objekts in Bezug auf ein LIDAR-System während des ersten Rahmens; Bestimmen einer zweiten Entfernung und eines zweiten Winkels des Objekts in Bezug auf das LIDAR-System während des zweiten Rahmens; und Bestimmen eines Geschwindigkeitsvektors des Objekts in Bezug auf das LIDAR-System unter Verwendung der ersten Entfernung, der zweiten Entfernung, des ersten Winkels und des zweiten Winkels.
  9. System nach Anspruch 7, wobei, um die zweite Entfernung des Objekts zu bestimmen, der Prozessor ferner zum Folgenden ausgelegt ist: Vorhersagen der zweiten Entfernung des Objekts in Bezug auf das LIDAR-System unter Verwendung der ersten Entfernung und der Geschwindigkeit des Objekts; Generieren eines Filters auf der Grundlage der vorhergesagten zweiten Entfernung; und Filtern von empfangenen Signalen vom Objekt im zweiten Rahmen unter Verwendung des Filters.
  10. System nach Anspruch 7, wobei der Prozessor ferner dazu ausgelegt ist, einen Geschwindigkeitsvektor des Objekts in Bezug auf eine Umgebung außerhalb des LIDAR-Systems unter Verwendung des Geschwindigkeitsvektors des Objekts in Bezug auf das LIDAR-System und eines Geschwindigkeitsvektors des LIDAR-Systems in Bezug auf die Umgebung außerhalb des LIDAR-Systems zu bestimmen.
  11. System, umfassend: eine Lichtquelle, die dazu ausgelegt ist, einen Strahl zu generieren, der diskrete Frequenzen zu verschiedenen Zeitpunkten aufweist; ein wellenlängendispersives Element, das derart angeordnet ist, dass es mindestens einen Abschnitt des Strahls empfängt, und dazu ausgelegt ist, den Strahl über einen Bereich von Winkeln in einem Sichtfeld (FOV) durchlaufen zu lassen, wobei jede diskrete Frequenz des Strahls einem anderen Winkel im FOV entspricht; einen Detektor, der angeordnet ist, um Abschnitte des Strahls zu empfangen, die von einem Objekt innerhalb des FOV reflektiert werden, und dazu ausgelegt ist, ein Objektsignal auf der Grundlage der empfangenen Abschnitte des Strahls zu generieren; und einen Prozessor, der mit dem Detektor kommunikativ gekoppelt ist und zum Folgenden ausgelegt ist: Veranlassen, dass der Strahl von einer ersten Frequenz zu einem ersten Zeitpunkt hin zu einer zweiten Frequenz im Verlauf einer Zeitdauer durchläuft, und Bestimmen einer Geschwindigkeit des Objekts auf der Grundlage der Abschnitte des Strahls, die durch den Detektor empfangen werden.
  12. System nach Anspruch 11, wobei, um die Geschwindigkeit zu bestimmen, der Prozessor ferner zum Folgenden ausgelegt ist: Bestimmen einer Phase eines ersten Abschnitts eines Objektsignals, wobei das Objektsignal auf den Abschnitten des Strahls, die durch den Detektor empfangen wurden, basiert; und Bestimmen einer Phase eines zweiten Abschnitts des Objektsignals.
  13. System nach Anspruch 12, wobei die Phase des ersten Abschnitts bestimmt wird, indem eine schnelle Fourier-Transformation (FFT) am ersten Abschnitt des Objektsignals durchgeführt wird, und die Phase des zweiten Abschnitts bestimmt wird, indem eine FFT am zweiten Abschnitt des Objektsignals durchgeführt wird.
  14. System nach Anspruch 13, wobei der Prozessor ferner dazu ausgelegt ist, eine Entfernung des Objekts vom System zu bestimmen, wobei die Entfernung auf der Grundlage der Amplitude der FFT des ersten Abschnitts des Objektsignals und der Amplitude der FFT des zweiten Abschnitts des Objektsignals bestimmt wird.
  15. System nach Anspruch 12, wobei, um die Geschwindigkeit zu bestimmen, der Prozessor ferner zum Folgenden ausgelegt ist: Bestimmen eines Zeitunterschieds zwischen dem ersten Abschnitt und dem zweiten Abschnitt; Schätzen einer Wellenlänge des Strahls; und Bestimmen der Geschwindigkeit unter Verwendung der Phase des ersten Abschnitts, der Phase des zweiten Abschnitts, des Zeitunterschieds und der Wellenlänge.
  16. System nach Anspruch 11, wobei die Zeitdauer einem ersten Rahmen entspricht, und wobei der Prozessor ferner dazu ausgelegt ist, zu veranlassen, dass der Strahl von der ersten Frequenz zu einem zweiten Zeitpunkt hin zur zweiten Frequenz kontinuierlich im Verlauf einer zweiten Zeitdauer durchläuft, wobei die zweite Zeitdauer einem zweiten Rahmen entspricht, und wobei, um die Geschwindigkeit zu bestimmen, der Prozessor ferner zum Folgenden ausgelegt ist: Bestimmen einer Phase eines ersten Objektsignals, das dem Objekt im ersten Rahmen entspricht; Bestimmen einer Phase eines zweiten Objektsignals, das dem Objekt im zweiten Rahmen entspricht; und Bestimmen der Geschwindigkeit unter Verwendung der Phase des ersten Abschnitts, der Phase des zweiten Abschnitts und einer Wellenlänge, die dem ersten Objektsignal entspricht.
  17. Verfahren zum Bestimmen einer Geschwindigkeit eines Objekts innerhalb eines Sichtfeldes (FOV) eines Erfassungssystems, wobei das Verfahren umfasst: Steuern, über einen Prozessor, einer Lichtquelle, damit sie einen Strahl projiziert, der von einer ersten Frequenz hin zu einer letzten Frequenz beginnend ab einem ersten Zeitpunkt im Verlauf einer ersten Zeitdauer durchläuft; Projizieren des Strahls zu einem wellenlängendispersiven Element; Lenken des Strahls in ein FOV in frequenzabhängigen Winkeln; Lenken von Abschnitten des Strahls, die von einem Objekt im FOV reflektiert wurden, zu einem Detektor; Generieren eines Objektsignals auf der Grundlage von empfangenen Abschnitten des Strahls vom Objekt im FOV, und Bestimmen, über den Prozessor, einer Geschwindigkeit des Objekts auf der Grundlage des Objektsignals.
  18. Verfahren nach Anspruch 17, wobei die Geschwindigkeit des Objekts unter Verwendung einer Phase eines ersten Abschnitts des Objektsignals und einer Phase einer zweiten Phase des Objektsignals bestimmt wird.
  19. Verfahren nach Anspruch 17, ferner umfassend: Steuern, über den Prozessor, der Lichtquelle, damit sie den Strahl kontinuierlich von der letzten Frequenz zurück zur ersten Frequenz nach der ersten Zeitdauer im Verlauf einer zweiten Zeitdauer durchlaufen lässt; und wobei das Bestimmen der Geschwindigkeit des Objekts auf einem Objektsignal, das dem während der ersten Zeitdauer detektierten Objekt entspricht, und einem Objektsignal, das dem während der zweiten Zeitdauer detektierten Objekt entspricht, basiert.
  20. Verfahren nach Anspruch 18, ferner umfassend: Steuern, über den Prozessor, der Lichtquelle, damit sie einen Strahl projiziert, der kontinuierlich von der ersten Frequenz zur letzten Frequenz zu einem zweiten Zeitpunkt während einer zweiten Zeitdauer durchläuft, wobei der zweite Zeitpunkt nach der ersten Zeitdauer liegt; wobei das Bestimmen der Geschwindigkeit des Objekts auf einem Objektsignal, das dem während der ersten Zeitdauer detektierten Objekt entspricht, und einem Objektsignal, das dem während der zweiten Zeitdauer detektierten Objekt entspricht, basiert.
DE112021000951.6T 2020-03-05 2021-02-24 Lidar-Erfassungsanordnungen Pending DE112021000951T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/810,269 2020-03-05
US16/810,269 US11513228B2 (en) 2020-03-05 2020-03-05 Lidar sensing arrangements
PCT/US2021/019341 WO2021178170A1 (en) 2020-03-05 2021-02-24 Lidar sensing arrangements

Publications (1)

Publication Number Publication Date
DE112021000951T5 true DE112021000951T5 (de) 2022-12-15

Family

ID=77556697

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021000951.6T Pending DE112021000951T5 (de) 2020-03-05 2021-02-24 Lidar-Erfassungsanordnungen

Country Status (4)

Country Link
US (1) US11513228B2 (de)
JP (1) JP2023517877A (de)
DE (1) DE112021000951T5 (de)
WO (1) WO2021178170A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114112964B (zh) * 2021-11-10 2023-09-12 中国科学院上海技术物理研究所 一种傅里叶红外光谱仪多元视场自动测量系统及方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US9295391B1 (en) 2000-11-10 2016-03-29 The General Hospital Corporation Spectrally encoded miniature endoscopic imaging probe
US6856400B1 (en) 2000-12-14 2005-02-15 Luna Technologies Apparatus and method for the complete characterization of optical devices including loss, birefringence and dispersion effects
US6870628B2 (en) 2001-05-11 2005-03-22 Fibersense Technology Corporation Alignment of optical fiber to optical port of integrated optical circuit
KR100459924B1 (ko) 2001-10-30 2004-12-03 광주과학기술원 이득스위칭된 다모드 fp-ld 및 고분산 광섬유를이용한 위상배열 안테나
US7123355B2 (en) 2002-04-09 2006-10-17 Ngk Insulators, Ltd. Method for determining core positions of optical element array and an apparatus for determining core positions thereof
US6947147B2 (en) 2002-08-21 2005-09-20 Agilent Technologies, Inc. De-embedment of optical component characteristics and calibration of optical receivers using rayleigh backscatter
US7023557B2 (en) 2003-08-05 2006-04-04 Agilent Technologies, Inc. Parallel interferometric measurements using an expanded local oscillator signal
US7426021B2 (en) 2004-11-29 2008-09-16 Expo Electro- Optical Engineering Inc. Interferometric optical analyzer and method for measuring the linear response of an optical component
EP1825215B1 (de) 2004-12-14 2013-10-30 Luna Innovations, Inc. Kompensation von zeitlich veränderlichen phasenwechseln bei interferometrischen messungen
KR20080066705A (ko) 2005-09-29 2008-07-16 더 제너럴 하스피탈 코포레이션 점진적으로 증가하는 분해능을 이용하여 하나 이상의 생물학적 샘플을 관찰 및 분석하기 위한 방법 및 장치
JP5043038B2 (ja) 2005-12-14 2012-10-10 デジタル シグナル コーポレイション 眼球の動きを追跡するシステムおよび方法
US20080063028A1 (en) 2006-09-11 2008-03-13 Lumera Corporation Photonics-based Multi-band Wireless Communication Methods
JP5324839B2 (ja) 2008-06-19 2013-10-23 株式会社トプコン 光画像計測装置
EP2329218B1 (de) 2008-09-11 2018-10-24 Nikon Metrology NV Kompakte faseroptische geometrie für ein kohärentes fmcw-laserradar mit gegenchirp
JP5540017B2 (ja) 2009-01-17 2014-07-02 ルナ イノベーションズ インコーポレイテッド 光デバイス検査のための光イメージング
CN102439393B (zh) 2009-05-15 2014-08-20 密歇根宇航公司 范围成像激光雷达
US8928865B2 (en) 2011-08-16 2015-01-06 Telaris, Inc. Three-dimensional tomographic imaging camera
US10119816B2 (en) 2012-11-21 2018-11-06 Nikon Metrology Nv Low drift reference for laser radar
US20160266005A1 (en) 2013-03-19 2016-09-15 Intuitive Surgical Operations Inc. Methods and apparatus for simultaneous optical parameter measurements
JP6072301B2 (ja) 2013-12-10 2017-02-01 三菱電機株式会社 レーザレーダ装置
US9851433B2 (en) 2013-12-19 2017-12-26 DSCG Solutions, Inc. Single laser LIDAR system
EP3101057B1 (de) 2014-01-29 2019-08-28 Sumitomo Bakelite Co., Ltd. Verfahren zur herstellung eines formkörpers
US9360554B2 (en) 2014-04-11 2016-06-07 Facet Technology Corp. Methods and apparatus for object detection and identification in a multiple detector lidar array
US10036801B2 (en) 2015-03-05 2018-07-31 Big Sky Financial Corporation Methods and apparatus for increased precision and improved range in a multiple detector LiDAR array
EP3274750B1 (de) 2015-03-27 2021-05-26 Intuitive Surgical Operations, Inc. Ofdr interferometrische ausrichtung von zu verbindenden optischen mehrkernfasern und ofdr dehnungssensor mit mehrkernfaser
US9984508B2 (en) 2015-05-20 2018-05-29 Micron Technology, Inc. Light-based radar system for augmented reality
EP3356854B1 (de) 2015-09-28 2024-03-27 Baraja Pty Ltd System und verfahren zur räumlichen profilierung
CN108603758A (zh) 2015-11-30 2018-09-28 卢米诺技术公司 具有分布式激光器和多个传感器头的激光雷达系统和激光雷达系统的脉冲激光器
US10345576B2 (en) 2016-04-07 2019-07-09 Arizona Board Of Regents On Behalf Of The University Of Arizona Diffraction-based light beam scanner
US10323924B2 (en) 2017-01-19 2019-06-18 Xiaoke Wan Step-scanning sensing beam for imaging interferometer
JP6395958B1 (ja) * 2017-07-04 2018-09-26 三菱電機株式会社 レーザレーダ装置
US11650296B2 (en) 2018-02-16 2023-05-16 Xiaotian Steve Yao Optical sensing based on wavelength division multiplexed (WDM) light at different wavelengths in light detection and ranging LiDAR systems
US10838047B2 (en) * 2018-04-17 2020-11-17 Santec Corporation Systems and methods for LIDAR scanning of an environment over a sweep of wavelengths
US11067671B2 (en) * 2018-04-17 2021-07-20 Santec Corporation LIDAR sensing arrangements
CA3100714A1 (en) 2018-06-07 2019-12-12 Baraja Pty Ltd An optical beam director
EP3620810B1 (de) 2018-09-05 2022-07-13 Nxp B.V. Radarinterferenzerkennung
JP7169642B2 (ja) 2018-11-28 2022-11-11 国立研究開発法人産業技術総合研究所 光学的測定装置及び測定方法
US11531111B2 (en) 2019-05-21 2022-12-20 Northrop Grumman Systems Corporation 360 degrees field of view scanning lidar with no movable parts
US11067816B1 (en) 2020-02-20 2021-07-20 Vathys, Inc. Scattering STED lithography
EP3910310B1 (de) 2020-05-14 2022-10-05 EXFO Optics, SAS Messung von polarisationsabhängigen verlusten

Also Published As

Publication number Publication date
US11513228B2 (en) 2022-11-29
US20210278538A1 (en) 2021-09-09
JP2023517877A (ja) 2023-04-27
WO2021178170A1 (en) 2021-09-10

Similar Documents

Publication Publication Date Title
DE112019002028T5 (de) Lidar-erfassungsanordnungen
DE102004037137B4 (de) Verfahren und Vorrichtung zur Entfernungsmessung
DE4204857A1 (de) Interferometer
EP2250516B1 (de) Verfahren zur bestimmung der entfernung eines eine ir-signatur emittierenden objekts
DE102007020264A1 (de) Verfahren und Messvorrichtung zum Bestimmen einer Relativgeschwindigkeit
EP2985592A1 (de) Absorptionsspektrometer und Verfahren zur Messung der Konzentration einer interessierenden Gaskomponente eines Messgases
DE102012211222B4 (de) Zielinformationsmessvorrichtung mit hoher möglicher Genauigkeit gemessener Informationen
DE102005042954B4 (de) Vorrichtung und Verfahren zur Bestimmung von Geschwindigkeitsprofilen in beliebig gerichteten Strömungen
EP0491749B1 (de) Vorrichtung zur absoluten zweidimensionalen positionsmessung
DE112021000951T5 (de) Lidar-Erfassungsanordnungen
EP2115695A1 (de) Verfahren zur bestimmung der güte eines messpunktes, insbesondere bei der kantenortbestimmung, sowie optisches präzisionsmessgerät
DE102011086226B3 (de) Aufnahme eines spektral aufgelösten Bildes durch Auslesen von verschiedenen Teil-Arrays in mehreren Interferometer-Durchläufen
EP1647838B1 (de) Verfahren und Messgerät zur Messung eines Absolutdistanzwertes
DE102010062842B9 (de) Verfahren und Vorrichtung zur Bestimmung der absoluten Position eines Objekts
EP0610374B1 (de) Verfahren zur messung der neigungen von grenzflächen in einem optischen system
EP0346601B1 (de) Verfahren und Vorrichtung zur Messung der Strömungsgeschwindigkeit, insbesondere in einem Windkanal
DE102009040990A1 (de) Vorrichtung und Verfahren zum Vermessen einer Oberfläche
EP3227717B1 (de) Verfahren und vorrichtung zum bestimmen statistischer eigenschaften von rohmesswerten
DD253688A1 (de) Optische anordnung und verfahren zur lichtelektrischen entfernungseinstellung
DE10256725B3 (de) Sensor, Vorrichtung und Verfahren zur Geschwindigkeitsmessung
DE102020215960A1 (de) Verfahren und Anordnung zum Ermitteln einer Position eines Objekts
DE102007063355B4 (de) Verfahren zur optischen Messung von Geschwindigkeiten nach dem Ortsfrequenzfilterverfahren und Sensor zur optischen Messung von Geschwindigkeiten
DE2602838B2 (de) Einrichtung zur verfolgung eines zieles
DE102009042404B3 (de) Verfahren zur Bestimmung der Geschwindigkeit eines bewegten Fluids unter Einsatz einer Eigenkalibrierung eines Doppler-Global-Velozimeters mit Laserfrequenzmodulation
WO2014202049A1 (de) Verfahren zum bestimmen einer optimalen unterwasserschallgeschwindigkeit sowie vorrichtung zum durchführen des verfahrens

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: SANTEC HOLDINGS CORPORATION, KOMAKI, JP

Free format text: FORMER OWNER: SANTEC CORPORATION, KOMAKI-SHI, AICHI, JP