DE102019105478A1 - LIDAR-Sensoren und Verfahren für dieselben - Google Patents

LIDAR-Sensoren und Verfahren für dieselben Download PDF

Info

Publication number
DE102019105478A1
DE102019105478A1 DE102019105478.8A DE102019105478A DE102019105478A1 DE 102019105478 A1 DE102019105478 A1 DE 102019105478A1 DE 102019105478 A DE102019105478 A DE 102019105478A DE 102019105478 A1 DE102019105478 A1 DE 102019105478A1
Authority
DE
Germany
Prior art keywords
view
field
light
reflective surface
lidar sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019105478.8A
Other languages
English (en)
Inventor
Boris KIRILLOV
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Priority to DE102019105478.8A priority Critical patent/DE102019105478A1/de
Priority to US16/807,778 priority patent/US11561287B2/en
Priority to CN202010144964.9A priority patent/CN111665514A/zh
Publication of DE102019105478A1 publication Critical patent/DE102019105478A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein LIDAR-Sensor ist bereitgestellt. Der LIDAR-Sensor umfasst einen optischen Sender, der ausgebildet ist, bei Betrieb in einem ersten Betriebsmodus erste Teilregionen eines Sichtfeldes zu beleuchten, um die Umgebung in dem Sichtfeld eindimensional abzutasten. Bei Betrieb in einem zweiten Betriebsmodus ist der optische Sender ausgebildet, zweite Teilregionen des Sichtfeldes zu beleuchten, um die Umgebung in einem Bereich des Sichtfeldes abzutasten. Eine zum Beleuchten der zweiten Teilregionen verwendete, zweite Beleuchtungsintensität ist höher als eine zum Beleuchten der ersten Teilregionen verwendete, erste Beleuchtungsintensität. Der LIDAR-Sensor umfasst ferner einen optischen Empfänger, der ausgebildet ist, Reflexionen von den ersten und zweiten Teilregionen zu empfangen.

Description

  • Gebiet
  • Die vorliegende Offenbarung betrifft Lichtdetektion und Abstandsmessung (engl. Light Detection And Ranging; LIDAR). Insbesondere beziehen sich Beispiele auf LIDAR-Sensoren und Verfahren für dieselben.
  • Hintergrund
  • Eine Vielzahl von unterschiedlichen LIDAR-Systemen, die Konzepte verwenden, wie beispielsweise Flash-LIDAR, eindimensionales Abtast-LIDAR oder zweidimensionales Abtast-LIDAR sind auf dem Markt verfügbar. Die individuellen Konzepte weisen jeweilige Nachteile auf, wie beispielsweise niedrige Lichtintensität, geringe Reichweite oder geringe Frame-Rate (Bildrate).
  • Zusammenfassung
  • Somit besteht ein Bedarf für verbesserte LIDAR-Techniken.
  • Der Bedarf kann durch den Gegenstand der angehängten Ansprüche gedeckt werden.
  • Ein Beispiel bezieht sich auf einen LIDAR-Sensor. Der LIDAR-Sensor umfasst einen optischen Sender, der ausgebildet ist, bei Betrieb in einem ersten Betriebsmodus erste Teilregionen eines Sichtfeldes sequentiell zu beleuchten, um die Umgebung in dem Sichtfeld eindimensional abzutasten. Bei Betrieb in einem zweiten Betriebsmodus ist der optische Sender ausgebildet, zweite Teilregionen des Sichtfeldes zu beleuchten, um die Umgebung in einem Bereich des Sichtfeldes abzutasten. Eine zweite Beleuchtungsintensität, die zum Beleuchten der zweiten Teilregionen verwendet wird, ist höher als eine erste Beleuchtungsintensität, die zum Beleuchten der ersten Teilregionen verwendet wird. Der LIDAR-Sensor umfasst ferner einen optischen Empfänger, der ausgebildet ist, Reflexionen von den ersten und zweiten Teilregionen zu empfangen.
  • Ein anderes Beispiel bezieht sich auf ein Verfahren für einen LIDAR-Sensor. Das Verfahren umfasst ein sequentielles Beleuchten von ersten Teilregionen eines Sichtfeldes in einem ersten Betriebsmodus, um die Umgebung in dem Sichtfeld eindimensional abzutasten. Ferner umfasst das Verfahren ein Beleuchten von zweiten Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus, um die Umgebung in einem Bereich des Sichtfeldes abzutasten. Eine zweite Beleuchtungsintensität, die zum Beleuchten der zweiten Teilregionen verwendet wird, ist höher als eine erste Beleuchtungsintensität, die zum Beleuchten der ersten Teilregionen verwendet wird. Zusätzlich umfasst das Verfahren ein Empfangen von Reflexionen von den ersten und zweiten Teilregionen.
  • Ein Beispiel bezieht sich auf einen anderen LIDAR-Sensor, umfassend einen optischen Sender und einen optischen Empfänger. Der optische Sender und der optische Empfänger sind bei Betrieb in einem ersten Betriebsmodus ausgebildet, die Umgebung in einem Sichtfeld eindimensional abzutasten. Bei Betrieb in einem zweiten Betriebsmodus sind der optische Sender und der optische Empfänger ausgebildet, die Umgebung in zumindest einem Bereich des Sichtfeldes zweidimensional abzutasten.
  • Ein weiteres Beispiel bezieht sich auf ein anderes Verfahren für einen LIDAR-Sensor. Das Verfahren umfasst ein eindimensionales Abtasten der Umgebung in einem Sichtfeld in einem ersten Betriebsmodus. Ferner umfasst das Verfahren ein zweidimensionales Abtasten der Umgebung in zumindest einem Bereich des Sichtfeldes in einem zweiten Betriebsmodus.
  • Ein Beispiel bezieht sich auf einen weiteren LIDAR-Sensor. Der LIDAR-Sensor umfasst eine erste reflektierende Oberfläche, die ausgebildet ist um eine erste Rotationsachse zu oszillieren. Ferner umfasst der LIDAR-Sensor eine erste Lichtquelle, die ausgebildet ist, steuerbar erste Lichtstrahlen über ein optisches System auf die erste reflektierende Oberfläche zu emittieren, sodass die erste reflektierende Oberfläche die ersten Lichtstrahlen in die Umgebung emittiert. Der LIDAR-Sensor umfasst eine zweite reflektierende Oberfläche, die ausgebildet ist, um eine zweite Rotationsachse zu oszillieren. Zusätzlich umfasst der LIDAR-Sensor eine zweite Lichtquelle, die ausgebildet ist, steuerbar zweite Lichtstrahlen auf die zweite reflektierende Oberfläche zu emittieren, sodass die zweite reflektierende Oberfläche die zweiten Lichtstrahlen über das optische System auf die erste reflektierende Oberfläche emittiert. Die erste reflektierende Oberfläche ist ausgebildet, die zweiten Lichtstrahlen in die Umgebung zu emittieren.
  • Ein Beispiel bezieht sich auf noch einen weiteren LIDAR-Sensor. Der LIDAR-Sensor umfasst eine reflektierende Oberfläche, die ausgebildet ist um eine Rotationsachse zu oszillieren. Zusätzlich umfasst der LIDAR-Sensor eine erste Lichtquelle, die ausgebildet ist, steuerbar erste Lichtstrahlen über ein optisches System auf die erste reflektierende Oberfläche zu emittieren, sodass die erste reflektierende Oberfläche die ersten Lichtstrahlen in die Umgebung emittiert. Ferner umfasst der LIDAR-Sensor ein lineares Array von zweiten Lichtquellen, von denen jede ausgebildet ist, steuerbar einen jeweiligen zweiten Lichtstrahl über ein optisches System auf die erste reflektierende Oberfläche zu emittieren, sodass die erste reflektierende Oberfläche die zweiten Lichtstrahlen in die Umgebung emittiert.
  • Ein anderes Beispiel bezieht sich auf einen LIDAR-Sensor. Der LIDAR-Sensor umfasst einen optischen Sender, der ausgebildet ist, bei Betrieb in einem ersten Betriebsmodus gleichzeitig ein volles Sichtfeld zu beleuchten, um die Umgebung in dem vollen Sichtfeld gleichzeitig zu erfassen. Bei Betrieb in einem zweiten Betriebsmodus ist der optische Sender ausgebildet, Teilregionen des Sichtfeldes sequentiell zu beleuchten, um die Umgebung in einem Bereich des Sichtfeldes eindimensional abzutasten. Der LIDAR-Sensor umfasst ferner einen optischen Empfänger, der ausgebildet ist, Reflexionen aus der Umgebung zu empfangen.
  • Ein Beispiel bezieht sich auf ein anderes Verfahren für einen LIDAR-Sensor. Das Verfahren umfasst ein gleichzeitiges Beleuchten eines vollen Sichtfeldes in einem ersten Betriebsmodus, um die Umgebung in dem vollen Sichtfeld gleichzeitig zu erfassen. Zusätzlich umfasst das Verfahren ein sequentielles Beleuchten von Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus, um die Umgebung in einem Bereich des Sichtfeldes zweidimensional abzutasten. Das Verfahren umfasst ferner ein Empfangen von Reflexionen aus der Umgebung.
  • Ferner bezieht sich ein Beispiel auf einen LIDAR-Sensor, umfassend eine erste Lichtquelle, die ausgebildet ist, steuerbar Licht in ein volles Sichtfeld des LIDAR-Sensors zu emittieren. Der LIDAR-Sensor umfasst zusätzlich eine reflektierende Oberfläche, die ausgebildet ist, um eine Rotationsachse zu oszillieren, und eine zweite Lichtquelle, die ausgebildet ist, steuerbar Lichtstrahlen auf die reflektierende Oberfläche zu emittieren, sodass die reflektierende Oberfläche die Lichtstrahlen sequentiell in Teilregionen des Sichtfeldes emittiert.
  • Figurenliste
  • Nachfolgend werden einige Beispiele von Vorrichtungen und/oder Verfahren ausschließlich beispielhaft und Bezug nehmend auf die beiliegenden Figuren beschrieben, in denen gilt:
    • 1 stellt ein erstes Beispiel eines LIDAR-Sensors dar, der eine Umgebung erfasst;
    • 2 stellt ein zweites Beispiel eines LIDAR-Sensors dar, der eine Umgebung erfasst;
    • 3 stellt ein Beispiel eines Photodetektors für einen LIDAR-Sensor dar;
    • 4 stellt ein drittes Beispiel eines LIDAR-Sensors dar, der eine Umgebung erfasst;
    • 5 stellt ein viertes Beispiel eines LIDAR-Sensors dar, der eine Umgebung erfasst;
    • 6 stellt ein fünftes Beispiel eines LIDAR-Sensors dar;
    • 7 stellt das fünfte Beispiel des LIDAR-Sensors in einem anderen Betriebsmodus dar;
    • 8 stellt das fünfte Beispiel des LIDAR-Sensors in noch einem anderen Betriebsmodus dar;
    • 9 stellt ein sechstes Beispiel eines LIDAR-Sensors dar, der eine Umgebung erfasst;
    • 10 stellt ein siebtes Beispiel eines LIDAR-Sensors dar, der eine Umgebung erfasst;
    • 11 stellt einen anderen Photodetektor für einen LIDAR-Sensor dar;
    • 12 stellt ein achtes Beispiel eines LIDAR-Sensors dar, der eine Umgebung erfasst;
    • 13 stellt ein Flussdiagramm eines ersten Beispiels eines Verfahrens für einen LIDAR-Sensor dar;
    • 14 stellt ein Flussdiagramm eines zweiten Beispiels eines Verfahrens für einen LIDAR-Sensor dar; und
    • 15 stellt ein Flussdiagramm eines dritten Beispiels eines Verfahrens für einen LIDAR-Sensor dar.
  • Detaillierte Beschreibung
  • Verschiedene Beispiele werden nun ausführlicher Bezug nehmend auf die beiliegenden Zeichnungen beschrieben, in denen einige Beispiele dargestellt sind. In den Figuren können die Stärken von Linien, Schichten und/oder Regionen der Klarheit halber übertrieben sein.
  • Während sich weitere Beispiele für verschiedene Modifikationen und alternative Formen eignen, sind dementsprechend einige bestimmte Beispiele derselben in den Figuren gezeigt und werden nachfolgend ausführlich beschrieben. Allerdings beschränkt diese detaillierte Beschreibung weitere Beispiele nicht auf die beschriebenen bestimmten Formen. Weitere Beispiele können alle Modifikationen, Entsprechungen und Alternativen abdecken, die in den Schutzbereich der Offenbarung fallen. Gleiche oder ähnliche Bezugszeichen beziehen sich in der gesamten Beschreibung der Figuren auf gleiche oder ähnliche Elemente, die bei einem Vergleich miteinander identisch oder in modifizierter Form implementiert sein können, während sie die gleiche oder eine ähnliche Funktion bereitstellen.
  • Es versteht sich, dass, wenn ein Element als mit einem anderen Element „verbunden“ oder „gekoppelt“ bezeichnet wird, die Elemente direkt oder über ein oder mehrere Zwischenelemente verbunden oder gekoppelt sein können. Wenn zwei Elemente A und B unter Verwendung eines „oder“ kombiniert werden, ist dies so zu verstehen, dass alle möglichen Kombinationen offenbart sind, d. h. nur A, nur B sowie A und B, sofern dies nicht explizit oder implizit anderweitig angegeben ist. Eine alternative Formulierung für die gleichen Kombinationen ist „zumindest eines von A und B“ oder „A und/oder B“. Das Gleiche gilt entsprechend für Kombinationen von mehr als zwei Elementen.
  • Die Terminologie, die hierin zu dem Zweck des Beschreibens bestimmter Beispiele verwendet wird, soll nicht begrenzend für weitere Beispiele sein. Wenn eine Singularform, z. B. „ein, eine“ und „der, die, das“ verwendet wird und die Verwendung nur eines einzelnen Elements weder explizit noch implizit als verpflichtend definiert ist, können weitere Beispiele auch Pluralelemente verwenden, um die gleiche Funktion zu implementieren. Wenn eine Funktion nachfolgend als unter Verwendung mehrerer Elemente implementiert beschrieben ist, können weitere Beispiele die gleiche Funktion unter Verwendung eines einzelnen Elements oder einer einzelnen Verarbeitungsentität implementieren. Es versteht sich ferner, dass die Ausdrücke „umfasst“, „umfassend“, „weist auf„ und/oder „aufweisend“ bei Verwendung die Anwesenheit der angegebenen Merkmale, Ganzzahlen, Schritte, Prozesse, Handlungen, Elemente und/oder Komponenten spezifizieren, aber nicht die Anwesenheit oder Hinzufügung eines/einer oder mehrerer anderer Merkmale, Ganzzahlen, Schritte, Operationen, Prozesse, Handlungen, Elemente, Komponenten und/oder irgendeiner Gruppe davon ausschließen.
  • Sofern nicht anderweitig definiert, werden alle Begriffe (einschließlich technischer und wissenschaftlicher Begriffe) hier in ihrer üblichen Bedeutung des Gebiets verwendet, zu dem die Beispiele gehören.
  • 1 stellt ein Beispiel eines LIDAR-Sensors 100 dar, um eine Umgebung 190 zu erfassen. Der LIDAR-Sensor 100 umfasst einen optischen Sender 110 und einen optischen Empfänger 120. Der LIDAR-Sensor 100 weist ein Sichtfeld 105 auf, das das Ausmaß der Umgebung 190 definiert, die durch den LIDAR-Sensor 100 zu einem gegebenen Zeitpunkt beobachtbar ist.
  • Der LIDAR-Sensor 100 - insbesondere der optische Sender 110 - kann in zwei unterschiedlichen Betriebsmodi betrieben werden.
  • Bei Betrieb in einem ersten Betriebsmodus ist der optische Sender 110 ausgebildet, erste Teilregionen (101-1, ..., 101-N) des Sichtfeldes 105 (ausschließlich) sequentiell zu beleuchten, um die Umgebung 190 in dem Sichtfeld 105 eindimensional abzutasten. In 1 sind die ersten Teilregionen 101-1, ..., 101-N längliche Teilregionen des Sichtfeldes 105, die sich orthogonal zu der horizontalen Achse erstrecken (d. h. die ersten Teilregionen 101-1, ..., 101-N erstrecken sich im Wesentlichen in der vertikalen Richtung). Anders ausgedrückt, der LIDAR-Sensor 100 ist ausgebildet, das Sichtfelds 105 entlang der horizontalen Achse eindimensional abzutasten.
  • Beispielsweise kann der optische Sender 110 ausgebildet sein, selektiv erste (gepulste) Lichtstrahlen in die ersten Teilregionen 101-1, ..., 101-N des Sichtfeldes 105 zu emittieren, um die Umgebung 190 in dem Sichtfeld 105 eindimensional abzutasten. Eine beispielhafte Beleuchtung der ersten Teilregion 101-I aus der Mehrzahl von ersten Teilregionen 101-1, ..., 101-N über einen ersten Lichtstrahl 111-I ist in 1 dargestellt.
  • Der LIDAR-Sensor 100 ist jedoch nicht auf darauf beschränkt, das Sichtfeld 105 entlang der horizontalen Achse eindimensional abzutasten. Im Allgemeinen kann der LIDAR-Sensor 100 ausgebildet sein, das Sichtfeld 105 entlang irgendeiner erwünschten (vorbestimmten) Achse eindimensional abzutasten. Beispielsweise kann der LIDAR-Sensor 100 ausgebildet sein, das Sichtfeld 105 entlang der vertikalen Achse eindimensional abzutasten. Dementsprechend können die ersten Teilregionen längliche Teilregionen des Sichtfeldes 105 sein, die sich orthogonal zu der vertikalen Achse erstrecken (d. h. die ersten Teilregionen können sich im Wesentlichen in der horizontalen Richtung erstrecken).
  • Zum Beleuchten der ersten Teilregionen 101-1, ..., 101-N können die ersten Lichtstrahlen einen im Wesentlichen rechteckigen Querschnitt in einer Ebene orthogonal zu ihrer jeweiligen Strahlrichtung aufweisen (d. h. der ersten Lichtstrahl kann linien- oder streifenförmig sein).
  • Der optische Empfänger 120 ist ausgebildet, Reflexionen von den ersten Teilregionen 101-1, ..., 101-N nach ihrer jeweiligen Beleuchtung durch den optischen Sender 110 zu empfangen. Zum Beispiel kann der optische Empfänger 120 einen Photodetektor (nicht dargestellt) umfassen, der ausgebildet ist, Reflexionen der ersten Lichtstrahlen aus der Umgebung 190 zu empfangen. Der Photodetektor kann z. B. ein zweidimensionales Array von lichtempfindlichen Sensorelementen sein. Anders ausgedrückt, die lichtempfindlichen Sensorelemente können entlang von zwei unterschiedlichen (z. B. orthogonalen) räumlichen Richtungen angeordnet sein. Beispielsweise kann ein lichtempfindliches Sensorelement eine Photodiode, eine Lawinen-Photodiode (APD; Avalanche Photo Diode), eine Einzelnes-Photon-Lawinendiode (SPAD; Single Photon Avalanche Diode) oder ein Array von SPADs als Silizium-Photomultipliers (SiPM; Silicon PhotoMultiplier) sein.
  • Wenn ein Objekt sich in der Umgebung 190 an einer Position der beleuchteten ersten Teilregion 101-I befindet, reflektiert das Objekt den ersten Lichtstrahl 111-I zurück zu dem LIDAR-Sensor 100. Die Reflexion 111-I’ wird von dem Photodetektor des optischen Empfängers 120 empfangen. Basierend auf einer Beleuchtungszeit der ersten Teilregion 101-I und einer Empfangszeit der Reflexion 111-I’ von der beleuchteten ersten Teilregion 101-I kann eine Distanz des LIDAR-Sensors 100 zu dem Objekt, das sich in der Umgebung 190 an der Position der beleuchteten ersten Teilregion 101-I befindet, bestimmt werden. Anders ausgedrückt, die Distanz zu dem Objekt kann durch eine Laufzeit- (Time-of-Flight-; ToF-) Messung bestimmt werden. Beispielsweise kann eine Verarbeitungsschaltung (nicht dargestellt) des LIDAR-Sensors 100 oder eine externe Verarbeitungsschaltung mit dem optischen Sender 110 und dem optischen Empfänger 120 zum Bestimmen der Distanz zu dem Objekt gekoppelt sein.
  • Bei Betrieb in einem zweiten Betriebsmodus ist der optische Sender 110 ausgebildet, zweite Teilregionen 102-1, ... 102-N des Sichtfeldes 105 sequentiell zu beleuchten, um die Umgebung 190 in einem Bereich 106 des Sichtfeldes 105 abzutasten. Der Bereich 106 des Sichtfeldes 105 ist kleiner als das volle Sichtfeld 105 und deckt somit nur einen Teil des vollen Sichtfeldes 105 ab. Zum Beleuchten der zweiten Teilregionen 102-1, ..., 102-N verwendet der optische Sender 110 eine zweite Beleuchtungsintensität, die höher ist als eine erste Beleuchtungsintensität, die von dem optischen Sender 110 zum Beleuchten der ersten Teilregionen 101-1, ..., 101-N verwendet wird. Anders ausgedrückt, der optische Sender 110 verwendet eine höhere Lichtleistung pro Flächeneinheit zum Beleuchten der zweiten Teilregionen 102-1, ..., 102-N als zum Beleuchten der ersten Teilregionen 101-1, ..., 101-N. Bei einigen Beispielen kann der optische Sender 110 alternativ dieselbe Beleuchtungsintensität, aber eine unterschiedliche Wellenlänge oder eine unterschiedliche (z. B. geringere) Strahldivergenz zum Beleuchten der zweiten Teilregionen 102-1, ..., 102-N als zum Beleuchten der ersten Teilregionen 101-1, ..., 101-N verwenden. Wie in 1 angezeigt ist, decken die zweiten Teilregionen 102-1, ... 102-N kleinere Bereiche des Sichtfeldes 150 ab als die ersten Teilregionen 101-1, ..., 101-N.
  • Beispielsweise kann der optische Sender 110 ausgebildet sein, selektiv zweite (gepulste) Lichtstrahlen in die zweiten Teilregionen 102-1, ..., 102-N des Sichtfeldes 105 zu emittieren, um den Bereich 106 des Sichtfeldes 105 abzutasten. Da der optische Sender 110 die zweite Beleuchtungsintensität zum Beleuchten der zweiten Teilregionen 102-1, ..., 102-N verwendet, die höher ist als die erste Beleuchtungsintensität, die durch den optischen Sender 110 zum Beleuchten der ersten Teilregionen 101-1, ..., 101-N verwendet wird, ist eine Lichtintensität der zweiten Lichtstrahlen höher als eine Lichtintensität der ersten Lichtstrahlen. Eine beispielhafte Beleuchtung der zweiten Teilregion 102-I aus der Mehrzahl von zweiten Teilregionen 102-1, ..., 102-N über einen zweiten Lichtstrahl 112-I ist in 1 dargestellt. Alternativ können die zweiten Lichtstrahlen eine unterschiedliche Wellenlänge oder eine unterschiedliche Strahldivergenz aufweisen als die ersten Lichtstrahlen.
  • In 1 weisen die zweiten Teilregionen 102-1, ..., 102-N einen kreisförmigen Querschnitt auf. Dementsprechend können die zweiten Lichtstrahlen einen im Wesentlichen kreisförmigen Querschnitt in einer Ebene orthogonal zu ihrer jeweiligen Strahlrichtung aufweisen. Der optische Sender 110 ist jedoch nicht darauf beschränkt, kreisförmige zweite Teilregionen 102-1, ..., 102-N zu verwenden. Im Allgemeinen können die Teilregionen 102-1, ..., 102-N (und somit auch die zweiten Lichtstrahlen) irgendeine Form / irgendeinen Querschnitt (z. B. winkelig, quadratisch, länglich, streifenförmig etc.) aufweisen. Die Querschnitte der zweiten Lichtstrahlen in einer Ebene orthogonal zu ihrer jeweiligen Strahlrichtung sind kleiner als die Querschnitte der ersten Lichtstrahlen in einer Ebene orthogonal zu ihrer jeweiligen Strahlrichtung. Bei einigen Beispielen kann ein Querschnitt von einem von den zweiten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung z. B. in Bezug auf einen Querschnitt von einem der ersten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung rotiert sein (z. B. können die ersten und zweiten Lichtstrahlen längliche Formen entlang von orthogonalen räumlichen Achsen aufweisen).
  • Die ersten und zweiten Lichtstrahlen können z. B. unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen aufweisen. Beispielsweise können die ersten und zweiten Lichtstrahlen Infrarot-Lichtstrahlen sein. Die ersten und zweiten Lichtstrahlen können z. B. Laserstrahlen sein.
  • Der optische Empfänger 120 ist ferner ausgebildet, Reflexionen von den zweiten Teilregionen 102-1, ... 102-N nach ihrer jeweiligen Beleuchtung durch den optischen Sender 110 zu empfangen. Beispielsweise kann der Photodetektor des optischen Empfängers 120 ausgebildet sein, Reflexionen der zweiten Lichtstrahlen aus der Umgebung 190 zu empfangen. Wenn ein Objekt sich in der Umgebung 190 an einer Position der beleuchteten zweiten Teilregion 102-I befindet, reflektiert das Objekt den zweiten Lichtstrahl 112-I zurück zu dem LIDAR-Sensor 100. Die Reflexion 112-I' wird von dem Photodetektor des optischen Empfängers 120 empfangen. In ähnlicher Weise zu dem, was vorstehend für die erste Teilregion 101-I beschrieben ist, kann eine Distanz zu dem Objekt, das sich in der Umgebung 190 an der Position der beleuchteten zweiten Teilregion 102-I befindet, bestimmt werden basierend auf einer Beleuchtungszeit der zweiten Teilregion 102-I und einer Empfangszeit der Reflexion 112-I' von der beleuchteten zweiten Teilregion 102-I.
  • In 1 sind die zweiten Teilregionen 102-1, ..., 102-N zweidimensional angeordnet. Daher kann der optische Sender 110 bei Betrieb in dem zweiten Betriebsmodus ausgebildet sein, zweite Teilregionen 102-1, ..., 102-N derart zu beleuchten, dass die Umgebung 190 in dem Bereich 106 des Sichtfeldes 105 zweidimensional abgetastet wird. Anders ausgedrückt, der LIDAR-Sensor 100 kann die Umgebung 190 in dem Bereich 106 des Sichtfeldes 105 zweidimensional abtasten. Der LIDAR-Sensor 100 ist jedoch nicht auf ein zweidimensionales Abtasten der Umgebung 190 in dem zweiten Betriebsmodus beschränkt. Bei einigen Beispielen können die zweiten Teilregionen 102-1, ..., 102-N eindimensional angeordnet sein, sodass der LIDAR-Sensor 100 ausgebildet sein kann, die Umgebung 190 in dem Bereich 106 des Sichtfeldes 105 bei Betrieb in dem zweiten Betriebsmodus eindimensional abzutasten.
  • Der LIDAR-Sensor 100 kann es erlauben, die Umgebung unter Verwendung unterschiedlicher Erfassungsbedingungen zu erfassen. Das eindimensionale Abtasten des Sichtfeldes 105 kann unter Verwendung der ersten Teilregionen 101-1, ..., 101-N erlauben, große oder hohe Objekte in mittleren oder kurzen Distanzen zu dem LIDAR-Sensor 100 zu detektieren, wie beispielsweise die zwei Personen 191 und 192 am Straßenrand in der Umgebung 190. Das (z. B. zweidimensionale) Abtasten des Bereichs 106 des Sichtfeldes 105 unter Verwendung der kleineren zweiten Teilregionen 102-1, ..., 102-N und die höhere Beleuchtungsintensität können erlauben, kleine Objekte in großen Distanzen zu dem LIDAR-Sensor 100 zu detektieren, wie beispielsweise den Ball 193 in der Umgebung 190. Verglichen mit herkömmlichen LIDAR-Systemen kann der LIDAR-Sensor 100 daher eine erhöhte Flexibilität und eine erhöhte Funktionsfähigkeit bereitstellen.
  • Bei Betrieb in dem zweiten Betriebsmodus kann der optische Sender 110 z. B. ausgebildet sein, die zweiten Teilregionen 102-1, ..., 102-N und die ersten Teilregionen 101-1, ..., 101-N gleichzeitig zu beleuchten. Das heißt, der optische Sender 110 kann ausgebildet sein, die zweiten Teilregionen 102-1, ..., 102-N in Kombination mit den ersten Teilregionen 101-1, ..., 101-N zu beleuchten. Anders ausgedrückt, der optische Sender 110 kann ausgebildet sein, um die sequentielle Beleuchtung der ersten Teilregionen 101-1, ..., 101-N und die Beleuchtung der zweiten Teilregionen 102-1, ..., 102-N zu überlagern. Dementsprechend kann der Photodetektor des optischen Empfängers 120 gleichzeitig (parallel) Reflexionen von den ersten und zweiten Teilregionen in dem zweiten Betriebsmodus empfangen. Diese Konfiguration des zweiten Betriebsmodus kann ein eindimensionales Abtasten des Sichtfeldes 105 bei einer hohen Frame-Rate und gleichzeitig ein Abtasten des Bereichs 106 des Sichtfeldes mit erhöhter Reichweite und erhöhter Auflösung ermöglichen.
  • Alternativ kann bei Betrieb in dem zweiten Betriebsmodus der optische Sender 110 ausgebildet sein, ausschließlich die zweiten Teilregionen 102-1, ..., 102-N des Sichtfeldes 105 zu beleuchten. Anders ausgedrückt, der optische Sender 110 kann in dem zweiten Betriebsmodus ausgebildet sein, ausschließlich die zweiten Teilregionen 102–1, ..., 102-N, aber nicht die ersten Teilregionen 101-1, ..., 101-N zu beleuchten. Dementsprechend kann der Photodetektor des optischen Empfängers 120 ausschließlich Reflexionen von den zweiten Teilregionen in dem zweiten Betriebsmodus empfangen. In dieser Konfiguration des zweiten Betriebsmodus kann der LIDAR-Sensor 100 ermöglichen, von dem eindimensionalen Abtasten des vollen Sichtfeldes 105 zu (z. B. einem zweidimensionalen) Abtasten von ausschließlich dem Bereich 106 des Sichtfeldes 105 zu wechseln. Der LIDAR-Sensor 100 kann somit zwischen einem eindimensionalen Abtasten des Sichtfeldes 105 bei einer hohen Frame-Rate und einem Abtasten des Bereichs 106 des Sichtfeldes 150 mit erhöhter Reichweite und erhöhter Auflösung wechseln.
  • Beispielsweise kann der optische Sender 110 ausgebildet sein, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung 190 anzeigen. Der LIDAR-Sensor 100 kann ausgebildet sein, um den Bereich 106 des Sichtfeldes 105 dementsprechend anzupassen, sodass der Bereich 106 des Sichtfeldes 105 (im Wesentlichen) der interessierenden Region entspricht. Wenn beispielsweise der LIDAR-Sensor 100 in einem Fahrzeug (z. B. einem Kraftfahrzeug, einem LKW oder einem Motorrad) verwendet wird, kann die interessierende Region eine Straße 194 sein, wie in 1 dargestellt. Wie in 1 dargestellt, deckt der Bereich 106 des Sichtfeldes 105 im Wesentlichen die Straße 194 ab. Dementsprechend können kleine Objekte auf der Straßenoberfläche (z. B. der Ball 193, Kinder oder Schmutz) bereits in großen Distanzen in dem zweiten Betriebsmodus detektiert werden. Die Steuerungsdaten können z. B. basierend auf dem eindimensionalen Abtasten der Umgebung in dem ersten Betriebsmodus bestimmt werden. Beispielsweise kann eine Verarbeitungsschaltung (nicht dargestellt) des LIDAR-Sensors 100 oder eine externe Verarbeitungsschaltung (nicht dargestellt) die Steuerungsdaten erzeugen. Alternativ oder zusätzlich können die Steuerungsdaten z. B. basierend auf Messdaten von einem oder mehreren anderen Sensoren (z. B. ein Radarsensor, eine Videokamera etc.) bestimmt werden.
  • 2 stellt ein detaillierteres Beispiel eines LIDAR-Sensors 200 dar, um eine Umgebung 190 zu erfassen. Verglichen mit dem in 1 dargestellten LIDAR-Sensor 100 zeigt der LIDAR-Sensor 200 weitere Details des optischen Senders 110 und des optischen Empfängers 120. Daher wird hauptsächlich auf die Unterschiede des LIDAR-Sensors 200 im Vergleich zu dem LIDAR-Sensor 100 Bezug genommen. Der Einfachheit halber sind nur eine erste Teilregion 101-I und nur eine zweite Teilregion 102-I in 2 dargestellt.
  • Der optische Sender 110 des LIDAR-Sensors 200 umfasst zumindest eine reflektierende Oberfläche 113, um den ersten und den zweiten Lichtstrahl 101-I und 102-I in die erste und die zweite Teilregion 101-I und 102-I zu emittieren. Die reflektierende Oberfläche 113 ist ausgebildet, um eine Rotationsachse zu oszillieren. Das heißt, die reflektierende Oberfläche 113 dreht sich um die Rotationsachse entlang einer ersten Rotationsrichtung von einer ersten Endposition zu einer zweiten Endposition und umgekehrt, d. h. entlang einer umgekehrten zweiten Rotationsrichtung von der zweiten Endposition zu der ersten Endposition. Zum Beispiel kann die Oszillationsbewegung der reflektierenden Oberfläche 113 Rotationen entlang beider Rotationsrichtungen zwischen 2° und 45° aufweisen. Eine Oszillationsfrequenz der reflektierenden Oberfläche 113 um die Rotationsachse kann anpassbar sein (z. B. durch eine Steuerschaltung des LIDAR-Sensors 200). Zum Beispiel kann die reflektierende Oberfläche 113 um die Rotationsachse bei Frequenzen zwischen 10 Hz und 100 kHz (z. B. bei 2,5 kHz) oszillieren. Die reflektierende Oberfläche 113 kann auf verschiedene Weisen implementiert sein. Bei einigen Beispielen kann die reflektierende Oberfläche 113 ein MEMS-Spiegel (MEMS; mikroelektromechanisches System) sein.
  • Der optische Empfänger 120 des LIDAR-Sensors 200 umfasst einen Photodetektor 121, der als zweidimensionales (oder eindimensionales) Array von lichtempfindlichen Sensorelementen implementiert ist. Ferner umfasst der optische Empfänger 120 ein optisches System 122 (z. B. umfassend eine oder mehrere Linsen), das ausgebildet ist, um die Reflexionen 111-I' und 112-I' auf den Photodetektor 121 zu projizieren.
  • Aufgrund der länglichen Form entlang der vertikalen Achse des ersten Lichtstrahls 111-I zum Beleuchten der ersten Teilregion 101-I weist auch die Reflexion 111-I’ von der ersten Teilregion 101-I eine längliche Form entlang der vertikalen Achse auf. Daher trifft die Reflexion 111-I' eine ganze Spalte i von lichtempfindlichen Sensorelementen an dem Photodetektor 121. Der zweite Lichtstrahl 112-I zum Beleuchten der zweiten Teilregion 102-I weist einen kleineren Querschnitt in der Ebene orthogonal zu seiner Strahlrichtung auf, sodass die Reflexion 112-I’ von der zweiten Teilregion 102-I nur eine kleine Anzahl von lichtempfindlichen Sensorelementen an dem Photodetektor 121 trifft (z. B. ein einzelnes lichtempfindliches Sensorelement). Zum Beispiel kann die Reflexion 112-I’ nur eines von den lichtempfindlichen Sensorelementen in Spalte k treffen, wie in 2 dargestellt.
  • Jedes lichtempfindliche Sensorelement des Photodetektors 121 ist nur fähig, Licht von einem bestimmten Raumwinkel zu empfangen. Um dies darzustellen, ist die Darstellung der lichtempfindlichen Sensorelemente des Photodetektors 121 in 2 mit einer Darstellung der Umgebung 190 unterlegt. Wie aus 2 ersichtlich ist, ist jedes lichtempfindliche Sensorelement des Photodetektors 121 nur fähig, Licht von einem bestimmten Bereich der Umgebung 190 zu empfangen.
  • Da die Raumwinkel, in die der erste und der zweite Lichtstrahl 111-I und 112-I emittiert werden, bekannt sind, ist es ausreichend, nur diese Raumwinkel über den Photodetektor 121 zu beobachten. Das heißt, nur diejenigen lichtempfindlichen Sensorelemente des Photodetektors 121 können selektiv aktiviert oder freigegeben (enable) werden, die fähig sind, Licht von den Raumwinkeln zu empfangen, in die der erste und der zweite Lichtstrahl 111-I und 112-I emittiert werden. Die anderen lichtempfindlichen Sensorelemente des Photodetektors 121 können selektiv deaktiviert, abgeschaltet (disable) oder ausgeschaltet (disconnect) werden. Dementsprechend kann ein leistungseffizienter Betrieb des Photodetektors 121 ermöglicht werden. Beispielsweise können nur die lichtempfindlichen Sensorelemente in Spalte i (und optional die lichtempfindlichen Sensorelemente in einer oder mehreren benachbarten Spalten) aktiviert werden, wenn der erste Lichtstrahl 111-I emittiert wird, da nur diese lichtempfindlichen Sensorelemente Reflexionen von der ersten Teilregion 101-I empfangen. Ähnlich können nur die lichtempfindlichen Sensorelemente in Spalte k (und optional die lichtempfindlichen Sensorelemente in einer oder mehreren benachbarten Spalten) aktiviert werden, wenn der zweite Lichtstrahl 112-I emittiert wird, da nur diese lichtempfindlichen Sensorelemente Reflexionen von der zweiten Teilregion 102-I empfangen. Die selektive Aktivierung und Deaktivierung von individuellen lichtempfindlichen Sensorelementen des Photodetektors 121 kann z. B. durch eine Steuerschaltung (nicht dargestellt) des LIDAR-Sensors 200 gesteuert werden.
  • Der (hochauflösende) zweidimensionale Photodetektor 121 des LIDAR-Sensors 200 kann das eindimensionale Abtasten in dem ersten Betriebsmodus sowie das zweidimensionale Abtasten in dem zweiten Betriebsmodus unterstützen.
  • 3 stellt eine Oberfläche eines beispielhaften Photodetektors 300 für einen LIDAR-Sensor gemäß der vorgeschlagenen Technik dar. Der Photodetektor 300 ist als zweidimensionales Array von lichtempfindlichen Sensorelementen implementiert.
  • Ferner sind zwei Reflexionen 111-1' und 111-N' der ersten Lichtstrahlen für ein eindimensionales Abtasten der Umgebung in dem Sichtfeld dargestellt (z. B. wie in dem ersten, vorstehend beschriebenen Betriebsmodus). Die zwei dargestellten Reflexionen 111-1' und 111-N' sind Reflexionen des ersten und des letzten Strahls einer Sequenz der ersten Lichtstrahlen. Wie in 3 angezeigt, treffen die Reflexionen der ersten Lichtstrahlen den Photodetektor 300 an variierenden Positionen entlang der horizontalen Achse, während die Sequenz durchläuft. Anders ausgedrückt, die Reflexionen der ersten Lichtstrahlen treffen variierende Spalten der lichtempfindlichen Sensorelemente, während die Sequenz durchläuft. Das eindimensionale Abtasten der Umgebung entlang der horizontalen Achse kann eine hohe horizontale Auflösung bei einer hohen Frame-Rate erlauben.
  • Zusätzlich sind drei Reflexionen 112-I’, 112-K' und 112-M' von zweiten Lichtstrahlen dargestellt, um die Umgebung in einem Bereich des Sichtfeldes (z. B. wie bei dem zweiten, vorstehend beschriebenen Betriebsmodus) zweidimensional abzutasten. Das zweidimensionale Abtasten ist in 3 durch Linie 301 angezeigt, die eine Bewegung entlang der horizontalen Achse und eine Bewegung entlang der vertikalen Achse überlagert. Aufgrund der kleineren Querschnitte der zweiten Lichtstrahlen verglichen mit den ersten Lichtstrahlen treffen die Reflexionen der zweiten Lichtstrahlen nur individuelle lichtempfindliche Sensorelemente des Photodetektors 300. Verglichen mit dem eindimensionalen Abtasten kann das zweidimensionale Abtasten eine hohe vertikale Auflösung bereitstellen. Da die Lichtintensität der zweiten Lichtstrahlen höher ist als für die ersten Lichtstrahlen, kann das zweidimensionale Abtasten eine erhöhte Reichweite zur Objektdetektion in der Umgebung ermöglichen.
  • Ein LIDAR-Sensor gemäß der vorgeschlagenen Technik kann Abtasten daher eine hohe vertikale und horizontale Auflösung, d. h. hohe Auflösung in zwei orthogonalen Richtungen, ermöglichen. Wie gesagt, das zweidimensionale Abtasten ist optional. Ein LIDAR-Sensor gemäß der vorgeschlagenen Technik kann nur in (einem) eindimensionalen Abtastmodus/Abtastmodi arbeiten.
  • 4 stellt ein anderes Beispiel eines LIDAR-Sensors 400 dar, das mehr strukturelle Details zeigt als die vorstehend beschriebenen LIDAR-Sensoren. Wiederum umfasst der LIDAR-Sensor 400 einen optischen Sender 110 und einen optischen Empfänger 120.
  • Der optische Sender 110 umfasst zwei Lichtquellen 131 und 132, um den ersten und den zweiten Lichtstrahl zu erzeugen. Beispielsweise können die zwei Lichtquellen 131 und 132 Laserdioden (z. B. kantenemittierende Laserdioden) sein. Der erste und der zweite Lichtstrahl können z. B. unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen aufweisen. Ferner kann der optische Sender 110 eine erste reflektierende Oberfläche 133 (z. B. einen MEMS-Spiegel) umfassen, die ausgebildet ist, um eine erste Rotationsachse zu oszillieren. Alternativ kann eine rotierende oder sich drehende (spinning) reflektierende Oberfläche anstelle der oszillierenden reflektierenden Oberfläche verwendet werden (umfassend eine quasi-statische Bewegung der reflektierenden Oberfläche).
  • Die erste Lichtquelle 131 ist ausgebildet, steuerbar die ersten Lichtstrahlen über ein optisches System 135 auf die erste reflektierende Oberfläche 133 zu emittieren, sodass die erste reflektierende Oberfläche 133 die ersten Lichtstrahlen in die ersten Teilregionen des Sichtfeldes emittiert. Dies ist in 4 beispielhaft für einen ersten Lichtstrahl 111-I dargestellt. Der erste Lichtstrahl 111-I wird über das System 135 auf die erste reflektierende Oberfläche 133 emittiert, sodass die erste reflektierende Oberfläche 133 den ersten Lichtstrahl 111-I in die erste Teilregion 101-I des Sichtfeldes des LIDAR-Sensors emittiert (ablenkt). Bei einigen Beispielen kann das optische System 135 weggelassen werden, sodass die erste Lichtquelle 131 die ersten Lichtstrahlen direkt auf die erste reflektierende Oberfläche 133 emittiert.
  • Der optische Sender 110 umfasst zusätzlich eine zweite reflektierende Oberfläche 134 (z. B. einen MEMS-Spiegel), die ausgebildet ist, um eine zweite Rotationsachse (die sich von der ersten Rotationsachse unterscheidet) zu oszillieren. Die erste und die zweite Rotationsachse sind in einem Winkel bezogen aufeinander angeordnet, wobei der Winkel sich von 0° und 180° unterscheidet. Beispielsweise kann die erste Rotationsachse orthogonal zu der zweiten Rotationsachse sein. Anders ausgedrückt, die reflektierenden Oberflächen 133 und 134 können um orthogonale Rotationsachsen oszillieren.
  • Die zweite Lichtquelle 132 ist ausgebildet, steuerbar die zweiten Lichtstrahlen auf die zweite reflektierende Oberfläche 134 zu emittieren, sodass die zweite reflektierende Oberfläche 134 die zweiten Lichtstrahlen über das optische System 135 auf die erste reflektierende Oberfläche 133 emittiert (ablenkt). Die erste reflektierende Oberfläche 133 ist ausgebildet, die zweiten Lichtstrahlen in die zweiten Teilregionen des Sichtfeldes zu emittieren (abzulenken). Dies ist in 4 beispielhaft für einen zweiten Lichtstrahl 112-I dargestellt. Der zweite Lichtstrahl 112-I wird auf die zweite reflektierende Oberfläche 134 emittiert, sodass die zweite reflektierende Oberfläche 134 den zweiten Lichtstrahl 112-I über das optische System 135 auf die erste reflektierende Oberfläche 133 emittiert, die wiederum den zweiten Lichtstrahl 112-I in die zweite Teilregion 102-I des Sichtfeldes des LIDAR-Sensors emittiert.
  • Da die reflektierenden Oberflächen 133 und 134 um unterschiedlich ausgerichtete (z. B. orthogonal) Rotationsachsen oszillieren, können die zweiten Lichtstrahlen in die Umgebung in einer zweidimensionalen Strukturierung emittiert werden. Insbesondere können die reflektierenden Oberflächen 133 und 134 erlauben, Strahlrichtungen der zweiten Lichtstrahlen entlang von zwei unterschiedlichen räumlichen Achsen (z. B. zwei orthogonalen räumlichen Achsen) anzupassen. Anders ausgedrückt, die zweiten Lichtstrahlen können das zweidimensionale Abtasten der Umgebung ermöglichen.
  • Beispielsweise kann eine Steuerschaltung des LIDAR-Sensors 400 (nicht dargestellt) ausgebildet sein, um Emissionszeiten der ersten und der zweiten Lichtquelle 131 und 132 derart zu steuern, dass die erste und die zweite reflektierende Oberfläche 133 und 134 die ersten und zweiten Lichtstrahlen in die Umgebung emittieren, wie vorstehend beschrieben.
  • Das optische System 135 umfasst ein optisches Element 136, das ausgebildet ist, die zweiten Lichtstrahlen von der zweiten reflektierenden 134 zu empfangen, und die zweiten Lichtstrahlen auf die erste reflektierende Oberfläche 133 zu reflektieren. Ferner ist das optische Element 136 optisch transparent für die ersten Lichtstrahlen, sodass die durch die erste Lichtquelle 131 emittierten, ersten Lichtstrahlen durch das optische Element 136 zu der ersten reflektierenden Oberfläche 133 transmittieren. Wenn beispielsweise die ersten und zweiten Lichtstrahlen unterschiedliche Polarisationen aufweisen, kann das optische Element 136 ein polarisierender Strahlteiler (z. B. ein Spiegel) sein. Wenn alternativ der erste und der zweite Lichtstrahl unterschiedliche Wellenlängen aufweisen, kann das optische Element 136 wellenlängen-empfindlich sein in Bezug auf seine Reflexionsvermögens- und Sende-Eigenschaften.
  • Das optische System 135 umfasst zusätzlich ein optisches Linsensystem 137, das zwischen dem optischen Element 136 und sowohl der ersten als auch der zweiten reflektierenden Oberfläche 133 und 134 angeordnet ist. Bei alternativen Beispielen kann das optische Linsensystem 137 zwischen dem optischen Element 136 und nur einer von der ersten und zweiten reflektierenden Oberfläche 133 und 134 angeordnet sein. Das optische Linsensystem 137 dient als Relay-Optik, die kleine Distanzen zwischen den zwei reflektierenden Oberflächen 133 und 134 ermöglicht. Beispielsweise kann eine Distanz zwischen der ersten und zweiten reflektierenden Oberfläche 133 und 134 (im Wesentlichen) gleich zu einem Durchmesser oder einer länglichen Erstreckung von einer von der ersten und zweiten reflektierenden Oberfläche 133 und 134 sein. Bei einigen Beispielen kann die Distanz zwischen der ersten und zweiten reflektierenden Oberfläche 133 und 134 kleiner sein als der Durchmesser oder die längliche Erstreckung von einer von der ersten und zweiten reflektierenden Oberfläche 133 und 134. Aufgrund der kleinen Distanzen zwischen den zwei reflektierenden Oberflächen 133 und 134 können die reflektierenden Oberflächen 133 und 134 (z. B. implementiert als MEMS-Spiegel) in dem gleichen Halbleiterpackage angeordnet sein. Alternativ können die reflektierenden Oberflächen 133 und 134 (z. B. implementiert als MEMS-Spiegel) in zwei separaten Halbleiterpackages angeordnet sein.
  • Bei dem Beispiel von 4 ist ein Objekt 195 in der Umgebung an den Stellen der ersten Teilregion 101-I und der zweiten Teilregion 102-I vorhanden. Der erste und der zweite Lichtstrahl 111-I und 112-I werden daher zu dem LIDAR-Sensor 400 zurück reflektiert. Die Reflexionen 111-I’ und 112-I’ werden durch den optischen Empfänger 120 des LIDAR-Sensors erfasst. Insbesondere ist ein optisches System 122 des optischen Empfängers 120 (z. B. umfassend eine oder mehrere Linsen) ausgebildet, die Reflexionen 111-I’ und 112-I' auf den Photodetektor 121 zu projizieren. Der Photodetektor 121 ist wiederum als zweidimensionales Array von lichtempfindlichen Sensorelementen implementiert.
  • Die individuellen lichtempfindlichen Sensorelemente können durch eine Ausleseschaltung 123 ausgelesen werden. Die Empfangszeiten der individuellen Reflexionen von den beleuchteten Teilregionen des Sichtfeldes können basierend auf den durch die Ausleseschaltung 123 bereitgestellten Auslesesignalen bestimmt werden. Zusammen mit den Emissionszeiten der ersten und der zweiten Lichtquelle 131 und 132 für den zugehörigen ersten und zweiten Lichtstrahl kann eine Distanz des LIDAR-Sensors 400 zu dem Objekt 195 bestimmt werden.
  • Der LIDAR-Sensor 400 kann ein eindimensionales Abtasten und optional ein zweidimensionales Abtasten der Umgebung gemäß der vorgeschlagenen LIDAR-Technik erlauben. Der LIDAR-Sensor 400 kann ferner ermöglichen, die Beleuchtungsintensität in einem Bereich des Sichtfeldes des LIDAR-Sensors ohne Anpassen der Relay-Optik (das optische System 135) hinsichtlich z. B. Divergenz, Fokus etc. zu erhöhen. Die Einstellung der Relay-Optik (das optische System 135) ist für beide Betriebsmodi gleich (unverändert).
  • Ein LIDAR-Sensor 500, der eine alternative Struktur für den optischen Sender 110 verwendet, ist in 5 dargestellt. Verglichen mit dem in 4 dargestellten LIDAR-Sensor 400 verwendet der LIDAR-Sensor 500 nur eine unterschiedliche Struktur für den optischen Sender 110. Daher wird hauptsächlich auf die Unterschiede des LIDAR-Sensors 500 im Vergleich zu dem LIDAR-Sensor 400 Bezug genommen.
  • Anstatt zwei reflektierende Oberflächen zu verwenden, verwendet der LIDAR-Sensor 500 nur eine reflektierende Oberfläche 138 zusammen mit einem linearen Array von zweiten Lichtquellen 139, um die zweiten Lichtstrahlen zu erzeugen. Die reflektierende Oberfläche 138 ist ausgebildet, um eine Rotationsachse zu oszillieren. Das lineare Array von zweiten Lichtquellen 139 ist entlang einer räumlichen Achse angeordnet, die wiederum in einem anderen Winkel als 0° und 180° in Bezug auf die Rotationsachse angeordnet ist. Beispielsweise kann das lineare Array von zweiten Lichtquellen 139 entlang einer räumlichen Achse orthogonal zu der Rotationsachse angeordnet sein.
  • Wie bei LIDAR-Sensor 400 ist die erste Lichtquelle 131 ausgebildet, steuerbar die ersten Lichtstrahlen über ein optisches System 135 auf die reflektierende Oberfläche 138 zu emittieren, sodass die reflektierende Oberfläche 138 die ersten Lichtstrahlen in die ersten Teilregionen des Sichtfeldes emittiert. Dies ist wiederum für den ersten Lichtstrahl 111-I dargestellt.
  • Jede zweite Lichtquelle des linearen Arrays von zweiten Lichtquellen 139 ist ausgebildet, steuerbar einen jeweiligen zweiten Lichtstrahl über das optische System 135 auf die reflektierende Oberfläche 138 zu emittieren, sodass die reflektierende Oberfläche 138 die zweiten Lichtstrahlen in die zweiten Teilregionen des Sichtfeldes emittiert. Dies ist in 5 für einen zweiten Lichtstrahl 112-I beispielhaft dargestellt. Die zweite Lichtquelle 139-D wird (z. B. durch eine Steuerschaltung des LIDAR-Sensors 500) selektiv aktiviert, sodass der zweite Lichtstrahl 112-I durch die zweite Lichtquelle 139-D über das optische System 135 auf die reflektierende Oberfläche 138 emittiert wird. Die reflektierende Oberfläche 138 emittiert wiederum den zweiten Lichtstrahl 112-I in die zweite Teilregion 102-I des Sichtfeldes des LIDAR-Sensors.
  • Anstatt einen zweiten Spiegel zu verwenden, um die Position zu variieren, zu der die zweiten Lichtstrahlen auf der reflektierenden Oberfläche 138 projiziert werden, aktiviert der LIDAR-Sensor 500 selektiv Unterschiedliche des linearen Arrays von zweiten Lichtquellen 139, um die Projektionsposition der zweiten Lichtstrahlen auf der reflektierenden Oberfläche 138 zu variieren. Eine oder mehrere von den zweiten Lichtquellen des linearen Arrays von zweiten Lichtquellen 139 können selektiv gleichzeitig aktiviert werden.
  • Beispielsweise kann eine Steuerschaltung des LIDAR-Sensors 500 (nicht dargestellt) ausgebildet sein, um Emissionszeiten der ersten Lichtquellen und der individuellen zweiten Lichtquellen des linearen Arrays von zweiten Lichtquellen 139 derart zu steuern, dass die erste reflektierende Oberfläche 138 die ersten und zweiten Lichtstrahlen in die Umgebung emittiert, wie vorstehend beschrieben ist.
  • Das optische System 135 ist im Wesentlichen identisch zu dem, was vorstehend beschrieben ist. Das optische System 135 umfasst ein optisches Element 136, das ausgebildet ist, die zweiten Lichtstrahlen von dem linearen Array von zweiten Lichtquellen 139 zu empfangen und die zweiten Lichtstrahlen auf die reflektierende Oberfläche 138 zu reflektieren. Wiederum ist das optische Element 136 optisch transparent für die ersten Lichtstrahlen, sodass die durch die erste Lichtquelle 131 emittierten, ersten Lichtstrahlen durch das optische Element 136 zu der reflektierenden Oberfläche 138 transmittieren.
  • Wiederum umfasst das optische System 135 ein optisches Linsensystem 137, das zwischen dem optischen Element 136 und sowohl der reflektierenden Oberfläche 138 als auch dem linearen Array von zweiten Lichtquellen 139 angeordnet ist. Bei alternativen Beispielen kann das optische Linsensystem 137 zwischen dem optischen Element 136 und nur einem von der reflektierenden Oberfläche 138 und dem linearen Array von zweiten Lichtquellen 139 angeordnet sein. Das optische Linsensystem 137 dient als Relay-Optik.
  • Ferner kann der LIDAR-Sensor 500 ein eindimensionales Abtasten und optional ein zweidimensionales Abtasten der Umgebung gemäß der vorgeschlagenen LIDAR-Technik erlauben. Ferner kann der LIDAR-Sensor 500 es ermöglichen, die Beleuchtungsintensität in einem Bereich des Sichtfeldes des LIDAR-Sensors ohne Anpassen der Relay-Optik (das optische System 135) hinsichtlich z. B. Divergenz, Fokus etc. zu erhöhen. Die Einstellung der Relay-Optik (das optische System 135) ist für beide Betriebsmodi gleich (unverändert).
  • Ein anderes Beispiel eines LIDAR-Sensors 600, das weitere strukturelle Details des optischen Senders zeigt, ist nachstehend in Verbindung mit 6 bis 8 beschrieben. In 6 bis 8 ist nur der optische Sender des LIDAR-Sensors 600 dargestellt. 6 stellt den LIDAR-Sensor 600 bei Betrieb in dem ersten Betriebsmodus dar, d. h. der LIDAR-Sensor 600 führt nur ein eindimensionales Abtasten aus.
  • Die erste Lichtquelle (z. B. eine kantenemittierende Laserdiode) 131 ist ausgebildet, erste Lichtstrahlen zu emittieren. Dies ist in 6 für einen ersten Lichtstrahl 111-I beispielhaft dargestellt. Die zweite Lichtquelle 132 und die zweite reflektierende Oberfläche 134 sind nicht aktiv (abgeschaltet).
  • Ein erstes optisches Projektionssystem 140 wird zum Projizieren der ersten Lichtstrahlen auf das optische Element 136 des optischen Systems 135 verwendet. Das optische System 135 ist zwischen der ersten reflektierenden Oberfläche 133 und der ersten Lichtquelle 131 angeordnet. Wie in 6 dargestellt, kann das erste optische Projektionssystem 140 z. B. drei optische Linsen umfassen, um die Form (z. B. den Querschnitt) der ersten Lichtstrahlen anzupassen und dieselben auf das optische Element 136 zu fokussieren. Wie vorangehend beschrieben wurde, transmittieren die ersten Lichtstrahlen durch das optische Element 136 und passieren das optische Linsensystem 137. Das optische Linsensystem 137 kollimiert die ersten Lichtstrahlen und projiziert sie auf die erste reflektierende Oberfläche 133, sodass sie zu den ersten Teilregionen des Sichtfeldes emittiert werden.
  • In 6 ist ferner ein zweites optisches System 150 dargestellt, das zum Kollimieren und Projizieren der zweiten Lichtstrahlen der zweiten Lichtquelle 132 auf die zweite reflektierende Oberfläche verwendet wird. Dies ist ferner in 7 dargestellt, die den LIDAR-Sensor 600 bei Betrieb in einem zweiten Betriebsmodus zeigt, in dem der LIDAR-Sensor 600 nur ein zweidimensionales Abtasten ausführt.
  • Daher ist die zweite Lichtquelle (z. B. eine kantenemittierende Laserdiode) 132 ausgebildet, die zweiten Lichtstrahlen zu emittieren. Dies ist in 7 für einen zweiten Lichtstrahl 112-I beispielhaft dargestellt. Die erste Lichtquelle 131 ist nicht aktiv.
  • Das zweite optische System 150 wird verwendet, um die Form (z. B. den Querschnitt) der zweiten Lichtstrahlen zu kollimieren und anzupassen. Ferner wird das zweite optische System 150 verwendet, um die zweiten Lichtstrahlen auf die zweite reflektierende Oberfläche 134 zu projizieren (zu fokussieren). Wie in 7 dargestellt, kann das zweite optische Projektionssystem 150 z. B. zwei optische Linsen 151 und 152 zum Kollimieren der zweiten Lichtstrahlen und eine Apertur zum Anpassen der Form der kollimierten zweiten Lichtstrahlen umfassen.
  • Die zweite reflektierende Oberfläche 134 lenkt die zweiten Lichtstrahlen über das optische Linsensystem 137 auf das optische Element 136 des optischen Systems 135 ab. Das optische Element 136 reflektiert die zweiten Lichtstrahlen über das optische Linsensystem 137 auf die erste reflektierende Oberfläche 133, sodass sie zu den zweiten Teilregionen des Sichtfeldes emittiert werden.
  • Wie vorangehend beschrieben wurde, können LIDAR-Sensoren gemäß der vorgeschlagenen Technik eine Überlagerung von eindimensionalem Abtasten und zweidimensionalem Abtasten in dem zweiten Betriebsmodus ermöglichen. Dies ist ferner in 8 dargestellt, die den LIDAR-Sensor 600 bei Betrieb in einem zweiten Betriebsmodus zeigt, in dem der LIDAR-Sensor 600 ein eindimensionales Abtasten und ein zweidimensionales Abtasten parallel (d. h. gleichzeitig) ausführt.
  • Beide Lichtquellen 131 und 132 sowie beide reflektierenden Oberflächen 133 und 134 sind aktiv. Daher beleuchten die ersten Lichtstrahlen sequentiell die ersten Teilregionen des Sichtfeldes des LIDAR-Sensors für ein eindimensionales Abtasten der Umgebung in dem Sichtfeld. Gleichzeitig beleuchten die zweiten Lichtstrahlen sequentiell die zweiten Teilregionen des Sichtfeldes, um die Umgebung in einem Bereich des Sichtfeldes zweidimensional abzutasten. Dies kann ein eindimensionales Abtasten des Sichtfeldes bei einer hohen Frame-Rate und gleichzeitig ein Abtasten des Bereichs des Sichtfeldes mit erhöhter Reichweite und erhöhter Auflösung ermöglichen.
  • Allgemeiner gesagt beziehen sich einige Beispiele der vorliegenden Offenbarung auf einen LIDAR-Sensor, umfassend einen optischen Sender (um die Umgebung in dem Sichtfeld zu beleuchten) und einen optischen Empfänger (um Reflexionen aus der Umgebung in dem Sichtfeld zu empfangen). Der optische Sender und der optische Empfänger sind ausgebildet, bei Betrieb in einem ersten Betriebsmodus die Umgebung in dem Sichtfeld (ausschließlich) eindimensional abzutasten. Bei Betrieb in einem zweiten Betriebsmodus sind der optische Sender und der optische Empfänger ausgebildet, die Umgebung in zumindest einem Bereich des Sichtfeldes zweidimensional abzutasten. Bei Betrieb in dem zweiten Betriebsmodus können der optische Sender und der optische Empfänger zum Beispiel ausgebildet sein, die Umgebung in zumindest dem Bereich des Sichtfeldes zweidimensional abzutasten in Kombination mit (zusätzlich zu / gleichzeitig zu / parallel zu) einem eindimensionalen Abtasten der Umgebung in dem Sichtfeld. Alternativ können bei Betrieb in dem zweiten Betriebsmodus der optische Sender und der optische Empfänger ausgebildet sein, die Umgebung in zumindest dem Bereich des Sichtfeldes ausschließlich zweidimensional abzutasten. Wie vorangehend beschrieben wurde, kann der LIDAR-Sensor ausgebildet sein, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung anzeigen, wobei der Bereich des Sichtfeldes der interessierenden Region entspricht.
  • Ein anderer beispielhafter LIDAR-Sensor 900, um eine Umgebung 990 zu erfassen, ist in 9 dargestellt. Der LIDAR-Sensor 900 umfasst einen optischen Sender 910 und einen optischen Empfänger 920. Der LIDAR-Sensor 900 weist ein Sichtfeld 905 auf.
  • Der optische Sender 910 kann in zwei unterschiedlichen Betriebsmodi betrieben werden.
  • Bei Betrieb in einem ersten Betriebsmodus ist der optische Sender 910 ausgebildet, das volle Sichtfeld 905 (ausschließlich) gleichzeitig zu beleuchten, um die Umgebung 990 in dem vollen Sichtfeld gleichzeitig zu erfassen. Beispielsweise kann der optische Sender 910 ausgebildet sein, selektiv Licht 912 in das volle Sichtfeld 905 zu emittieren, um die volle Umgebung 990 gleichzeitig zu erfassen. Das gleichzeitige Beleuchten des vollen Sichtfeldes, um die Umgebung 990 in dem vollen Sichtfeld 905 gleichzeitig zu erfassen, ist auch als „Flash-LIDAR“ bekannt. Beispielsweise kann ein einzelner Lichtstrahl oder eine Mehrzahl von Lichtstrahlen verwendet werden, um das volle Sichtfeld gleichzeitig zu beleuchten.
  • Der optische Empfänger 920 ist ausgebildet, Reflexionen aus der Umgebung 990 in dem Sichtfeld 905 nach der Beleuchtung durch den optischen Sender 910 zu empfangen. Beispielsweise kann der optische Empfänger 920 einen Photodetektor (nicht dargestellt) umfassen, der ausgebildet ist, Reflexionen des Lichts aus der Umgebung 990 zu empfangen. Der Photodetektor kann z. B. ein zweidimensionales Array von lichtempfindlichen Sensorelementen sein.
  • Basierend auf einer Beleuchtungszeit des vollen Sichtfeldes 905 und Empfangszeiten der Reflexionen aus der Umgebung 990 in dem vollen Sichtfeld 905 können Distanzen des LIDAR-Sensors 900 zu den sich in der Umgebung 990 befindlichen Objekten bestimmt werden. Beispielsweise können Distanzen zu dem Ball 993 oder den zwei Personen 991 und 992 am Straßenrand in der Umgebung 990 gleichzeitig bestimmt werden.
  • Bei Betrieb in einem zweiten Betriebsmodus ist der optische Sender 910 ausgebildet, Teilregionen 901-1, ..., 901-N des Sichtfeldes 905 sequentiell zu beleuchten, um die Umgebung 990 in einem Bereich 906 des Sichtfeldes 905 eindimensional abzutasten. Der Bereich 906 des Sichtfeldes 905 ist kleiner als das volle Sichtfeld 905. Beispielsweise kann der optische Sender 910 ausgebildet sein, selektiv (gepulste) Lichtstrahlen in die Teilregionen 901-1, ..., 901-N des Sichtfeldes 905 zu emittieren, um den Bereich 906 des Sichtfeldes 905 eindimensional abzutasten. Eine beispielhafte Beleuchtung der Teilregion 901-I aus der Mehrzahl von Teilregionen 901-1, ..., 901-N über einen Lichtstrahl 911-I ist in 9 dargestellt.
  • Eine zweite Beleuchtungsintensität, die zum Beleuchten der Teilregionen 901-1, ..., 901-N des Sichtfeldes 905 verwendet wird, ist höher als eine erste Beleuchtungsintensität, die zum Beleuchten des vollen Sichtfeldes 905 verwendet wird.
  • Bei dem Beispiel von 9 sind die Teilregionen 901-1, ... 901-N längliche Teilregionen des Sichtfeldes 905, die sich orthogonal zu der horizontalen Achse erstrecken (d. h. die Teilregionen 901-1, ..., 901-N erstrecken sich im Wesentlichen in der vertikalen Richtung). Anders ausgedrückt, der LIDAR-Sensor 900 ist ausgebildet, den Bereich 906 des Sichtfeldes 905 entlang der horizontalen Achse eindimensional abzutasten.
  • Der LIDAR-Sensor 900 ist jedoch nicht auf das eindimensionale Abtasten des Sichtfeldes 905 entlang der horizontalen Achse beschränkt. Allgemein kann der LIDAR-Sensor 900 ausgebildet sein, einen Bereich 90 des Sichtfeldes 905 entlang irgendeiner erwünschten (vorbestimmten) Achse eindimensional abzutasten. Zum Beispiel kann der LIDAR-Sensor 900 ausgebildet sein, einen Bereich des Sichtfeldes 905 entlang der vertikalen Achse eindimensional abzutasten. Dementsprechend können die Teilregionen längliche Teilregionen des Sichtfeldes 905 sein, die sich orthogonal zu der vertikalen Achse erstrecken (d. h. die Teilregionen können sich im Wesentlichen in der horizontalen Richtung erstrecken). Eine beispielhafte Beleuchtung einer Teilregion 901-I aus der Mehrzahl von Teilregionen 901-1, ..., 901-N über einen Lichtstrahl 911-I ist in 9 dargestellt.
  • Zum Beleuchten der Teilregionen 901-1, ..., 901-N können die Lichtstrahlen einen im Wesentlichen rechteckigen Querschnitt in einer Ebene orthogonal zu ihrer jeweiligen Strahlrichtung aufweisen (d. h. die Lichtstrahlen können linien- oder streifenförmig sein). Der optische Sender 910 ist jedoch nicht auf die Verwendung von rechteckigen Teilregionen 901-1, ..., 901-N begrenzt. Allgemein können die Teilregionen 901-1, ..., 901-N (und somit auch die Lichtstrahlen) irgendeinen Querschnitt (z. B. winkelig, quadratisch, länglich, streifenförmig etc.) aufweisen.
  • Das Licht, das zum Beleuchten des vollen Sichtfeldes verwendet wird, und die Lichtstrahlen, die zum Beleuchten der Teilregionen 901-1, ..., 901-N verwendet werden, können z. B. unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen aufweisen. Beispielsweise können das Licht und die Lichtstrahlen Infrarotlicht(strahlen) sein. Das Licht und die Lichtstrahlen können z. B. Laserlicht(strahlen) sein.
  • Der optische Empfänger 920 ist ferner ausgebildet, Reflexionen von den Teilregionen 901-1 , ..., 901-N nach ihrer jeweiligen Beleuchtung durch den optischen Sender 910 zu empfangen. Beispielsweise kann der Photodetektor des optischen Empfängers 920 ausgebildet sein, Reflexionen der Lichtstrahlen aus der Umgebung 990 zu empfangen. Ähnlich zu dem, was vorstehend beschrieben wurde, kann eine Distanz zu einem Objekt, das sich in der Umgebung 990 an der Position der beleuchteten Teilregion 901-I befindet, bestimmt werden basierend auf einer Beleuchtungszeit der Teilregion 901-I und einer Empfangszeit der Reflexion 911-I von der beleuchteten Teilregion 901-I.
  • Der LIDAR-Sensor 900 kann es erlauben, die Umgebung unter Verwendung unterschiedlicher Erfassungsbedingungen zu erfassen. Das gleichzeitige Abtasten des vollen Sichtfeldes 905 kann erlauben, die Umgebung 990 in dem Sichtfeld 905 bei einer hohen Frame-Rate abzutasten. Das eindimensionale Abtasten der Umgebung unter Verwendung der Teilregionen kann ein Abtasten des Bereichs 906 des Sichtfeldes 905 mit erhöhter Reichweite und erhöhter Auflösung entlang der Abtastachse (z. B. der horizontalen Achse bei dem Beispiel von 9) erlauben.
  • Bei Betrieb in dem zweiten Betriebsmodus kann der optische Sender 910 z. B. ausgebildet sein, die Teilregionen 901-1, ..., 901-N des Sichtfeldes 905 zu beleuchten in Kombination mit einem gleichzeitigen Beleuchten des vollen Sichtfeldes 905. Anders ausgedrückt, der optische Sender 910 kann ausgebildet sein, um die sequentielle Beleuchtung der Teilregionen 901-1, ..., 901-N und die gleichzeitige Beleuchtung des vollen Sichtfeldes 905 zu überlagern.
  • Dementsprechend kann der Photodetektor des optischen Empfängers 920 Reflexionen von dem vollen Sichtfeld und den Teilregionen 901-1, ..., 901-N des Sichtfeldes 905 gleichzeitig empfangen. Diese Konfiguration des zweiten Betriebsmodus kann ein Flash-Lidar-Erfassen des vollen Sichtfeldes 905 bei einer hohen Frame-Rate und gleichzeitig ein Abtasten des Bereichs 906 des Sichtfeldes 905 mit erhöhter Reichweite und erhöhter Auflösung ermöglichen.
  • Beispielsweise kann der optische Sender 910 ausgebildet sein, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung 990 anzeigen. Der LIDAR-Sensor 900 kann ausgebildet sein, den Bereich 906 des Sichtfeldes 905 dementsprechend anzupassen, sodass der Bereich 906 des Sichtfeldes 905 (im Wesentlichen) der interessierenden Region entspricht. Wenn beispielsweise der LIDAR-Sensor 900 in einem Fahrzeug verwendet wird, kann die interessierende Region eine Straße 994 sein, wie in 1 dargestellt. Wie in 1 dargestellt, deckt der Bereich 906 des Sichtfeldes 905 im Wesentlichen die Straße 994 ab. Dementsprechend können Objekte auf der Straßenoberfläche (z. B. der Ball 193) bereits in großen Distanzen in dem zweiten Betriebsmodus detektiert werden. Die Steuerungsdaten können z. B. basierend auf dem Flash-LIDAR-Erfassen der Umgebung in dem ersten Betriebsmodus bestimmt werden. Beispielsweise kann eine Verarbeitungsschaltung (nicht dargestellt) des LIDAR-Sensors 900 oder eine externe Verarbeitungsschaltung (nicht dargestellt) die Steuerungsdaten erzeugen. Alternativ oder zusätzlich können die Steuerungsdaten z. B. basierend auf Messdaten von einem oder mehreren anderen Sensoren (z. B. ein Radarsensor, eine Videokamera etc.) bestimmt werden.
  • 10 stellt ein detaillierteres Beispiel eines LIDAR-Sensors 1000 dar, um die Umgebung 990 zu erfassen. Verglichen mit dem in 9 dargestellten LIDAR-Sensor 900 zeigt der LIDAR-Sensor 1000 weitere Details des optischen Senders 910 und des optischen Empfängers 920. Daher wird hauptsächlich auf die Unterschiede des LIDAR-Sensors 1000 im Vergleich zu dem LIDAR-Sensor 900 Bezug genommen. Der Einfachheit halber ist in 10 nur eine Teilregion 901-I dargestellt.
  • Der optische Sender 910 des LIDAR-Sensors 1000 umfasst eine reflektierende Oberfläche 913, um den Lichtstrahl 911-I im Teilregionen 901-I zu emittieren. Die reflektierende Oberfläche 913 ist ausgebildet, um eine Rotationsachse zu oszillieren.
  • Ferner umfasst der optische Sender 910 des LIDAR-Sensors 100 eine Lichtquelle (nicht dargestellt), die Licht zum Beleuchten des vollen Sichtfeldes 905 emittiert.
  • Der optische Empfänger 920 des LIDAR-Sensors 1000 umfasst einen Photodetektor 921, der als zweidimensionales Array von lichtempfindlichen Sensorelementen implementiert ist. Ferner umfasst der optische Empfänger 920 ein optisches System 922 (z. B. umfassend eine oder mehrere Linsen), das ausgebildet ist, um die Reflexionen von der beleuchteten Umgebung auf den Photodetektor 921 zu projizieren.
  • Jedes lichtempfindliche Sensorelement des Photodetektors 921 ist nur fähig, Licht von einem bestimmten Raumwinkel zu empfangen. Um dies darzustellen, ist die Darstellung des lichtempfindlichen Sensorelements des Photodetektors 921 in 10 mit einer Darstellung der Umgebung 990 unterlegt. Wie aus 10 ersichtlich ist, ist jedes lichtempfindliche Sensorelement des Photodetektors 921 nur fähig, Licht von einem bestimmten Bereich der Umgebung 990 zu empfangen.
  • Wenn dementsprechend das volle Sichtfeld 905 gleichzeitig beleuchtet wird, können alle lichtempfindlichen Sensorelement des Photodetektors 921 Reflexionen empfangen. Aufgrund der länglichen Form entlang der vertikalen Achse des Lichtstrahls 911-I zum Beleuchten der Teilregion 901-I weist auch die Reflexion von der Teilregion 901-I eine längliche Form entlang der vertikalen Achse auf. Daher trifft die Reflexion mehrere lichtempfindliche Sensorelemente einer Spalte i von lichtempfindlichen Sensorelementen an dem Photodetektor 921.
  • Der (hochauflösende) zweidimensionale Photodetektor 921 des LIDAR-Sensors 1000 kann das Flash-LIDAR-Erfassen in dem ersten Betriebsmodus sowie das eindimensionale Abtasten in dem zweiten Betriebsmodus unterstützen.
  • 11 stellt eine Oberfläche eines beispielhaften Photodetektors 1100 für einen LIDAR-Sensor gemäß der vorgeschlagenen Technik dar. Der Photodetektor 1100 ist als zweidimensionales Array von lichtempfindlichen Sensorelementen implementiert.
  • Da das volle Sichtfeld während des Flash-LIDAR-Erfassens gleichzeitig beleuchtet wird, empfangen alle lichtempfindlichen Sensorelement des Photodetektors 1100 Reflexionen des Lichts, das für das Flash-LIDAR-Erfassen verwendet wird.
  • Ferner sind zwei Reflexionen 911-1' und 911-N' von Lichtstrahlen für ein eindimensionales Abtasten der Umgebung in einem Bereich des Sichtfeldes dargestellt (z. B. wie in dem zweiten, vorstehend beschriebenen Betriebsmodus). Die zwei dargestellten Reflexionen 911-1' und 911-N' sind Reflexionen des ersten und des letzten Strahls einer Sequenz der Lichtstrahlen. Wie in 11 angezeigt, treffen die Reflexionen der Lichtstrahlen den Photodetektor 1100 an variierenden Positionen entlang der horizontalen Achse, während die Sequenz durchläuft. Anders ausgedrückt, die Reflexionen der ersten Lichtstrahlen treffen variierende Spalten der lichtempfindlichen Sensorelemente, während die Sequenz durchläuft. Das eindimensionale Abtasten der Umgebung entlang der horizontalen Achse kann eine erhöhte Reichweite zur Objektdetektion bei einer hohen horizontalen Auflösung ermöglichen.
  • Ein LIDAR-Sensor gemäß der vorgeschlagenen Technik kann eine hohe horizontale Auflösung und eine erhöhte Reichweite zur Objektdetektion in einem eindimensionalen Abtastmodus ermöglichen. Ferner kann eine erhöhte Frame-Rate in dem Flash-LIDAR-Erfassungsmodus erreicht werden. Der eindimensionale Abtastmodus ist optional. Ein LIDAR-Sensor gemäß der vorgeschlagenen Technik kann nur in dem Flash-LIDAR-Erfassungsmodus arbeiten.
  • 12 stellt ein anderes Beispiel eines LIDAR-Sensors 1200 dar, das mehr strukturelle Details zeigt als die vorstehend beschriebenen LIDAR-Sensoren 900 und 1000. Wiederum umfasst der LIDAR-Sensor 1200 einen optischen Sender 910 und einen optischen Empfänger 920.
  • Der optische Sender 910 umfasst eine erste Lichtquelle 931, die ausgebildet ist, steuerbar Licht 912 in das volle Sichtfeld 905 zu emittieren. Beispielsweise kann die erste Lichtquelle 931 eine oder mehrere Laserdioden (z. B. kantenemittierende Laserdioden), die einen oder mehrere Laserstrahlen emittieren, und ein optisches System, das das volle Sichtfeld 905 unter Verwendung des einen oder der mehreren Lichtstrahlen beleuchtet, umfassen.
  • Ferner kann der optische Sender 910 eine reflektierende Oberfläche 933 (z. B. einen MEMS-Spiegel) umfassen, der ausgebildet ist, um eine Rotationsachse zu oszillieren.
  • Eine zweite Lichtquelle 932 des optischen Senders 910 ist ausgebildet, steuerbar die Lichtstrahlen auf die reflektierende Oberfläche 933 zu emittieren, sodass die reflektierende Oberfläche 933 die Lichtstrahlen in die Teilregionen des Sichtfeldes 905 emittiert. Dies ist in 12 beispielhaft für einen Lichtstrahl 911-I dargestellt. Der Lichtstrahl 911-I wird auf die reflektierende Oberfläche 933 derart emittiert, dass die reflektierende Oberfläche 933 den Lichtstrahl 911-I in Teilregion 901-I des Sichtfeldes des LIDAR-Sensors emittiert.
  • Beispielsweise kann eine Steuerschaltung des LIDAR-Sensors 1200 (nicht dargestellt) ausgebildet sein, die Emissionszeit der zweiten Lichtquelle 932 derart zu steuern, dass die reflektierende Oberfläche 933 die Lichtstrahlen in die Umgebung emittiert, wie vorstehend beschrieben. In ähnlicher Weise kann die Steuerschaltung die Emissionszeit der ersten Lichtquelle 931 zum selektiven Beleuchten des vollen Sichtfeldes 905 steuern. Das Licht 912 und der Lichtstrahl 911-I können z. B. unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen aufweisen.
  • Bei dem Beispiel von 12 ist ein Objekt 995 in der Umgebung an der Stelle der Teilregion 901-I vorhanden. Das Licht zum Beleuchten des vollen Feldes wird zu dem LIDAR-Sensor 1200 zurück reflektiert, unter anderem durch das Objekt 995 (durch die extensive Reflexion 912' angezeigt). Ferner wird der Lichtstrahl 111-I durch das Objekt 995 zu dem LIDAR-Sensor 1200 zurück reflektiert. Die Reflexionen 911-I’ und 912' werden durch den optischen Empfänger 920 des LIDAR-Sensors erfasst. Insbesondere ist ein optisches System 922 des optischen Empfängers 920 (z. B. umfassend eine oder mehrere Linsen) ausgebildet, die Reflexionen 911-I’ und 912' auf den Photodetektor 921 zu projizieren. Der Photodetektor 921 ist wiederum als zweidimensionales Array von lichtempfindlichen Sensorelementen implementiert.
  • Die individuellen lichtempfindlichen Sensorelemente können durch eine Ausleseschaltung 923 ausgelesen werden. Die Empfangszeiten der individuellen Reflexionen von den beleuchteten Regionen des Sichtfeldes können basierend auf den durch die Ausleseschaltung 923 bereitgestellten Auslesesignalen bestimmt werden. Zusammen mit den Emissionszeiten der ersten und der zweiten Lichtquelle 931 und 932 für das Licht und die Lichtstrahlen kann eine Distanz des LIDAR-Sensors 400 zu dem Objekt 995 bestimmt werden.
  • Der LIDAR-Sensor 1200 kann ein Flash-LIDAR-Erfassen und optional ein eindimensionales Abtasten der Umgebung gemäß der vorgeschlagenen LIDAR-Technik erlauben.
  • Zur weiteren Darstellung des Betriebs der vorstehend beschriebenen LIDAR-Sensoren stellen 13 bis 15 Flussdiagramme von beispielhaften Verfahren für LIDAR-Sensoren dar.
  • 13 stellt ein Flussdiagramm eines ersten beispielhaften Verfahrens 1300 für einen LIDAR-Sensor dar. Das Verfahren 1300 umfasst ein sequentielles Beleuchten 1302 von ersten Teilregionen eines Sichtfeldes in einem ersten Betriebsmodus, um die Umgebung in dem Sichtfeld eindimensional abzutasten. Ferner umfasst das Verfahren 1300 ein Beleuchten 1304 von zweiten Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus für ein Abtasten der Umgebung in einem Bereich des Sichtfeldes. Eine zweite Beleuchtungsintensität, die zum Beleuchten der zweiten Teilregionen verwendet wird, ist höher als eine erste Beleuchtungsintensität, die zum Beleuchten der ersten Teilregionen verwendet wird. Zusätzlich umfasst das Verfahren 1300 ein Empfangen 1306 von Reflexionen von den ersten und zweiten Teilregionen.
  • Ein Flussdiagramm eines zweiten beispielhaften Verfahrens 1400 für einen LIDAR-Sensor ist in 14 dargestellt. Das Verfahren 1400 umfasst ein eindimensionales Abtasten 1402 der Umgebung in einem Sichtfeld in einem ersten Betriebsmodus. Ferner umfasst das Verfahren 1400 ein zweidimensionales Abtasten 1404 der Umgebung in zumindest einem Bereich des Sichtfeldes in einem zweiten Betriebsmodus.
  • 15 stellt ein Flussdiagramm eines dritten beispielhaften Verfahrens 1500 für einen LIDAR-Sensor dar. Das Verfahren 1500 umfasst ein gleichzeitiges Beleuchten 1502 eines vollen Sichtfeldes in einem ersten Betriebsmodus, um die Umgebung in dem vollen Sichtfeld gleichzeitig zu erfassen. Zusätzlich umfasst das Verfahren 1500 ein sequentielles Beleuchten 1504 von Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus, um die Umgebung in einem Bereich des Sichtfeldes eindimensional abzutasten. Das Verfahren 1500 umfasst ferner ein Empfangen 1506 von Reflexionen aus der Umgebung.
  • Weitere Einzelheiten und Aspekte der Verfahren 1300, 1400 und 1500 sind in Verbindung mit dem vorgeschlagenen Konzept oder einem oder mehreren Ausführungsbeispielen, die vorangehend beschrieben sind (z. B. 1 bis 12), erläutert. Die Verfahren können ein oder mehrere zusätzliche optionale Merkmale aufweisen, die einem oder mehreren Aspekten der vorgeschlagenen Technik oder einem oder mehreren der vorstehend beschriebenen Beispiele entsprechen.
  • Die Beispiele, wie sie hierin beschrieben sind, können wie folgt zusammengefasst werden:
    • Einige Beispiele beziehen sich auf einen LIDAR-Sensor. Der LIDAR-Sensor umfasst einen optischen Sender, der ausgebildet ist, bei Betrieb in einem ersten Betriebsmodus erste Teilregionen eines Sichtfeldes sequentiell zu beleuchten, um die Umgebung in dem Sichtfeld eindimensional abzutasten. Bei Betrieb in einem zweiten Betriebsmodus ist der optische Sender ausgebildet, zweite Teilregionen des Sichtfeldes zu beleuchten, um die Umgebung in einem Bereich des Sichtfeldes abzutasten. Eine zweite Beleuchtungsintensität, die zum Beleuchten der zweiten Teilregionen verwendet wird, ist höher als eine erste Beleuchtungsintensität, die zum Beleuchten der ersten Teilregionen verwendet wird. Der LIDAR-Sensor umfasst ferner einen optischen Empfänger, der ausgebildet ist, Reflexionen von den ersten und zweiten Teilregionen zu empfangen.
  • Gemäß einigen Beispielen decken die zweiten Teilregionen kleinere Bereiche des Sichtfeldes ab als die ersten Teilregionen.
  • Bei einigen Beispielen ist bei Betrieb in dem zweiten Betriebsmodus der optische Sender ausgebildet, die zweiten Teilregionen und die ersten Teilregionen gleichzeitig zu beleuchten.
  • Bei alternativen Beispielen ist der optische Sender bei Betrieb in dem zweiten Betriebsmodus ausgebildet, ausschließlich die zweiten Teilregionen zu beleuchten.
  • Gemäß einigen Beispielen ist bei Betrieb in dem zweiten Betriebsmodus der optische Sender ausgebildet, die zweiten Teilregionen derart zu beleuchten, dass die Umgebung in dem Bereich des Sichtfeldes zweidimensional abgetastet wird.
  • Bei einigen Beispielen, ist der optische Sender ausgebildet, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung anzeigen, wobei der Bereich des Sichtfeldes der interessierenden Region entspricht.
  • Gemäß einigen Beispielen ist der optische Sender ausgebildet, selektiv erste Lichtstrahlen in die ersten Teilregionen des Sichtfeldes zu emittieren, um die Umgebung in dem Sichtfeld eindimensional abzutasten. Ferner ist der optische Sender ausgebildet, selektiv zweite Lichtstrahlen in die zweiten Teilregionen des Sichtfeldes zu emittieren, um den Bereich des Sichtfeldes abzutasten. Eine Lichtintensität der zweiten Lichtstrahlen ist höher als eine Lichtintensität der ersten Lichtstrahlen. Der optische Empfänger umfasst einen Photodetektor, der ausgebildet ist, Reflexionen der ersten und zweiten Lichtstrahlen aus der Umgebung zu empfangen.
  • Bei einigen Beispielen ist der Photodetektor ein zweidimensionales oder eindimensionales Array von lichtempfindlichen Sensorelementen.
  • Gemäß einigen Beispielen umfasst der optische Sender eine erste reflektierende Oberfläche, die ausgebildet ist, um eine erste Rotationsachse zu oszillieren, und eine erste Lichtquelle, die ausgebildet ist, steuerbar die ersten Lichtstrahlen über ein optisches System auf die erste reflektierende Oberfläche zu emittieren, sodass die erste reflektierende Oberfläche die ersten Lichtstrahlen in die ersten Teilregionen des Sichtfeldes emittiert. Der optische Sender umfasst ferner eine zweite reflektierende Oberfläche, die ausgebildet ist, um eine zweite Rotationsachse zu oszillieren, und eine zweite Lichtquelle, die ausgebildet ist, steuerbar die zweiten Lichtstrahlen auf die zweite reflektierende Oberfläche zu emittieren, sodass die zweite reflektierende Oberfläche die zweiten Lichtstrahlen über das optische System auf die erste reflektierende Oberfläche emittiert. Die erste reflektierende Oberfläche ist ausgebildet, die zweiten Lichtstrahlen in die zweiten Teilregionen des Sichtfeldes zu emittieren.
  • Bei einigen Beispielen umfasst das optische System ein optisches Element, das ausgebildet ist, die von der zweiten reflektierenden Oberfläche empfangenen, zweiten Lichtstrahlen auf die erste reflektierende Oberfläche zu reflektieren, wobei das optische Element für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle emittierten, ersten Lichtstrahlen durch das optische Element zu der ersten reflektierenden Oberfläche transmittieren.
  • Gemäß einigen Beispielen umfasst das optische System ferner ein optisches Linsensystem, das zwischen dem optischen Element und zumindest einer von der ersten und zweiten reflektierenden Oberfläche angeordnet ist.
  • Bei einigen Beispielen kann die erste Rotationsachse orthogonal zu der zweiten Rotationsachse sein.
  • Bei alternativen Beispielen umfasst der optische Sender eine reflektierende Oberfläche, die ausgebildet ist, um eine Rotationsachse zu oszillieren, und eine erste Lichtquelle, die ausgebildet ist, steuerbar die ersten Lichtstrahlen über ein optisches System auf die reflektierende Oberfläche zu emittieren, sodass die reflektierende Oberfläche die ersten Lichtstrahlen in die ersten Teilregionen des Sichtfeldes emittiert. Der optische Sender umfasst zusätzlich ein lineares Array von zweiten Lichtquellen, von denen jede ausgebildet ist, steuerbar einen jeweiligen zweiten Lichtstrahl über das optische System auf die reflektierende Oberfläche, sodass die reflektierende Oberfläche die zweiten Lichtstrahlen in die zweiten Teilregionen des Sichtfeldes emittiert.
  • Gemäß einigen Beispielen umfasst das optische System ein optisches Element, das ausgebildet ist, die von dem linearen Array von zweiten Lichtquellen empfangenen, zweiten Lichtstrahlen auf die reflektierende Oberfläche zu reflektieren, wobei das optische Element für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle emittierten, ersten Lichtstrahlen durch das optische Element zu der reflektierenden Oberfläche transmittieren.
  • Bei einigen Beispielen umfasst das optische System ferner ein optisches Linsensystem, das zwischen dem optischen Element und zumindest einem von der reflektierenden Oberfläche und dem linearen Array von zweiten Lichtquellen angeordnet ist.
  • Gemäß einigen Beispielen ist das lineare Array von zweiten Lichtquellen entlang einer räumlichen Achse orthogonal zu der Rotationsachse angeordnet.
  • Bei einigen Beispielen weisen die ersten und zweiten Lichtstrahlen unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen auf.
  • Gemäß einigen Beispielen ist ein Querschnitt von einem der zweiten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung kleiner als ein Querschnitt von einem der ersten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung.
  • Bei einigen Beispielen wird ein Querschnitt von einem der zweiten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung in Bezug auf einen Querschnitt von einem der ersten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung rotiert.
  • Andere Beispiele beziehen sich auf ein Verfahren für einen LIDAR-Sensor. Das Verfahren umfasst ein sequentielles Beleuchten von ersten Teilregionen eines Sichtfeldes in einem ersten Betriebsmodus für ein eindimensionales Abtasten der Umgebung in dem Sichtfeld. Ferner umfasst das Verfahren ein Beleuchten von zweiten Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus, um die Umgebung in einem Bereich des Sichtfeldes abzutasten. Eine zweite Beleuchtungsintensität, die zum Beleuchten der zweiten Teilregionen verwendet wird, ist höher als eine erste Beleuchtungsintensität, die zum Beleuchten der ersten Teilregionen verwendet wird. Zusätzlich umfasst das Verfahren ein Empfangen von Reflexionen von den ersten und zweiten Teilregionen.
  • Einige Beispiele beziehen sich auf einen anderen LIDAR-Sensor, umfassend einen optischen Sender und einen optischen Empfänger. Der optische Sender und der optische Empfänger sind ausgebildet, bei Betrieb in einem ersten Betriebsmodus die Umgebung in einem Sichtfeld eindimensional abzutasten. Bei Betrieb in einem zweiten Betriebsmodus sind der optische Sender und der optische Empfänger ausgebildet, die Umgebung in zumindest einem Bereich des Sichtfeldes zweidimensional abzutasten.
  • Bei einigen Beispielen ist der LIDAR-Sensor ausgebildet, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung anzeigen, und wobei der Bereich des Sichtfeldes der interessierenden Region entspricht.
  • Gemäß einigen Beispielen sind bei Betrieb in dem zweiten Betriebsmodus der optische Sender und der optische Empfänger ausgebildet, die Umgebung in zumindest dem Bereich des Sichtfeldes zweidimensional abzutasten in Kombination mit einem eindimensionalen Abtasten der Umgebung in dem Sichtfeld.
  • Bei einigen Beispielen sind bei Betrieb in dem zweiten Betriebsmodus der optische Sender und der optische Empfänger ausgebildet, die Umgebung in zumindest dem Bereich des Sichtfeldes ausschließlich zweidimensional abzutasten.
  • Weitere Beispiele beziehen sich auf ein anderes Verfahren für einen LIDAR-Sensor. Das Verfahren umfasst ein eindimensionales Abtasten der Umgebung in einem Sichtfeld in einem ersten Betriebsmodus. Ferner umfasst das Verfahren ein zweidimensionales Abtasten der Umgebung in zumindest einem Bereich des Sichtfeldes in einem zweiten Betriebsmodus.
  • Einige Beispiele beziehen sich auf einen weiteren LIDAR-Sensor. Der LIDAR-Sensor umfasst eine erste reflektierende Oberfläche, die ausgebildet ist, um eine erste Rotationsachse zu oszillieren. Ferner umfasst der LIDAR-Sensor eine erste Lichtquelle, die ausgebildet ist, steuerbar erste Lichtstrahlen über ein optisches System auf die erste reflektierende Oberfläche zu emittieren, sodass die erste reflektierende Oberfläche die ersten Lichtstrahlen in die Umgebung emittiert. Der LIDAR-Sensor umfasst eine zweite reflektierende Oberfläche, die ausgebildet ist, um eine zweite Rotationsachse zu oszillieren. Zusätzlich umfasst der LIDAR-Sensor eine zweite Lichtquelle, die ausgebildet ist, steuerbar zweite Lichtstrahlen auf die zweite reflektierende Oberfläche zu emittieren, sodass die zweite reflektierende Oberfläche die zweiten Lichtstrahlen über das optische System auf die erste reflektierende Oberfläche emittiert. Die erste reflektierende Oberfläche ist ausgebildet, die zweiten Lichtstrahlen in die Umgebung zu emittieren.
  • Gemäß einigen Beispielen umfasst das optische System ein optisches Element, das ausgebildet ist, die von der zweiten reflektierenden Oberfläche empfangenen, zweiten Lichtstrahlen auf die erste reflektierende Oberfläche zu reflektieren, wobei das optische Element für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle emittierten, ersten Lichtstrahlen durch das optische Element zu der ersten reflektierenden Oberfläche transmittieren.
  • Einige Beispiele beziehen sich auf einen noch weiteren LIDAR-Sensor. Der LIDAR-Sensor umfasst eine reflektierende Oberfläche, die ausgebildet ist, um eine Rotationsachse zu oszillieren. Zusätzlich umfasst der LIDAR-Sensor eine erste Lichtquelle, die ausgebildet ist, steuerbar erste Lichtstrahlen über ein optisches System auf die erste reflektierende Oberfläche zu emittieren, sodass die erste reflektierende Oberfläche die ersten Lichtstrahlen in die Umgebung emittiert. Ferner umfasst der LIDAR-Sensor ein lineares Array von zweiten Lichtquellen, von denen jede ausgebildet ist, steuerbar einen jeweiligen zweiten Lichtstrahl über ein optisches System auf die erste reflektierende Oberfläche zu emittieren, sodass die erste reflektierende Oberfläche die zweiten Lichtstrahlen in die Umgebung emittiert.
  • Gemäß einigen Beispielen umfasst das optische System ein optisches Element, das ausgebildet ist, die von dem linearen Array von zweiten Lichtquellen empfangenen, zweiten Lichtstrahlen auf die reflektierende Oberfläche zu reflektieren, wobei das optische Element für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle emittierten, ersten Lichtstrahlen durch das optische Element zu der reflektierenden Oberfläche transmittieren.
  • Andere Beispiele beziehen sich auf einen LIDAR-Sensor. Der LIDAR-Sensor umfasst einen optischen Sender, der ausgebildet ist, bei Betrieb in einem ersten Betriebsmodus ein volles Sichtfeld gleichzeitig zu beleuchten, um die Umgebung in dem vollen Sichtfeld gleichzeitig zu erfassen. Bei Betrieb in einem zweiten Betriebsmodus ist der optische Sender ausgebildet, Teilregionen des Sichtfeldes sequentiell zu beleuchten, um die Umgebung in einem Bereich des Sichtfeldes eindimensional abzutasten. Der LIDAR-Sensor umfasst ferner einen optischen Empfänger, der ausgebildet ist, Reflexionen aus der Umgebung zu empfangen.
  • Bei einigen Beispielen ist der optische Sender bei Betrieb in dem zweiten Betriebsmodus ausgebildet, die Teilregionen zu beleuchten in Kombination mit einem gleichzeitigen Beleuchten des vollen Sichtfeldes.
  • Gemäß einigen Beispielen ist der optische Sender ausgebildet, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung anzeigen, wobei der Bereich des Sichtfeldes der interessierenden Region entspricht.
  • Bei einigen Beispielen ist der optische Sender ausgebildet, selektiv Licht in das volle Sichtfeld zu emittieren, um die Umgebung in dem vollen Sichtfeld gleichzeitig zu erfassen. Ferner ist der optische Sender ausgebildet, selektiv Lichtstrahlen in die Teilregionen des Sichtfeldes zu emittieren, um den Bereich des Sichtfeldes eindimensional abzutasten. Der optische Empfänger umfasst einen Photodetektor, der ausgebildet ist, Reflexionen des Lichts und der Lichtstrahlen aus der Umgebung zu empfangen.
  • Gemäß einigen Beispielen ist der Photodetektor ein zweidimensionales Array von lichtempfindlichen Sensorelementen.
  • Bei einigen Beispielen umfasst der optische Sender eine erste Lichtquelle, die ausgebildet ist, steuerbar das Licht in das volle Sichtfeld zu emittieren. Ferner umfasst der optische Sender eine reflektierende Oberfläche, die ausgebildet ist, um eine Rotationsachse zu oszillieren, und eine zweite Lichtquelle, die ausgebildet ist, steuerbar die Lichtstrahlen auf die reflektierende Oberfläche zu emittieren, sodass die reflektierende Oberfläche die Lichtstrahlen in die Teilregionen des Sichtfeldes emittiert.
  • Gemäß einigen Beispielen weisen das Licht und die Lichtstrahlen unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen auf.
  • Einige Beispiele beziehen sich auf ein weiteres Verfahren für einen LIDAR-Sensor. Das Verfahren umfasst ein gleichzeitiges Beleuchten eines vollen Sichtfeldes in einem ersten Betriebsmodus, um die Umgebung in dem vollen Sichtfeld gleichzeitig zu erfassen. Zusätzlich umfasst das Verfahren ein sequentielles Beleuchten von Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus, um die Umgebung in einem Bereich des Sichtfeldes eindimensional abzutasten. Das Verfahren umfasst ferner ein Empfangen von Reflexionen aus der Umgebung.
  • Ferner beziehen sich einige Beispiele auf einen LIDAR-Sensor, umfassend eine erste Lichtquelle, die ausgebildet ist, steuerbar Licht in ein volles Sichtfeld des LIDAR-Sensors zu emittieren. Der LIDAR-Sensor umfasst zusätzlich eine reflektierende Oberfläche, die ausgebildet ist, um eine Rotationsachse zu oszillieren, und eine zweite Lichtquelle, die ausgebildet ist, steuerbar Lichtstrahlen auf die reflektierende Oberfläche zu emittieren, sodass die reflektierende Oberfläche die Lichtstrahlen sequentiell in Teilregionen des Sichtfeldes emittiert.
  • Bei einigen Beispielen umfasst der LIDAR-Sensor ferner einen Photodetektor, der ausgebildete ist, Reflexionen des Lichts und der Lichtstrahlen aus der Umgebung zu empfangen.
  • Die Aspekte und Merkmale, die zusammen mit einem oder mehreren der vorher detaillierten Beispiele und Figuren beschrieben sind, können auch mit einem oder mehreren der anderen Beispiele kombiniert werden, um ein gleiches Merkmal des anderen Beispiels zu ersetzen oder um das Merkmal in das andere Beispiel zusätzlich einzuführen.
  • Die Beschreibung und Zeichnungen stellen nur die Grundsätze der Offenbarung dar. Weiterhin sollen alle hier aufgeführten Beispiele grundsätzlich ausdrücklich nur darstellenden Zwecken dienen, um den Leser bei dem Verständnis der Grundsätze der Offenbarung und der durch den (die) Erfinder beigetragenen Konzepte zur Weiterentwicklung der Technik zu unterstützen. Alle hiesigen Aussagen über Grundsätze, Aspekte und Beispiele der Offenbarung sowie konkrete Beispiele derselben sollen deren Entsprechungen umfassen.
  • Ein Blockdiagramm kann zum Beispiel ein detailliertes Schaltdiagramm darstellen, das die Grundsätze der Offenbarung implementiert. In der Beschreibung oder in den Patentansprüchen offenbarte Verfahren können durch eine Vorrichtung implementiert werden, die ein Mittel zum Ausführen eines jeden der jeweiligen Schritte dieser Verfahren aufweist.
  • Es versteht sich, dass die Offenbarung mehrerer, in der Beschreibung oder den Ansprüchen offenbarter Schritte, Prozesse, Operationen oder Funktionen nicht als in der bestimmten Reihenfolge befindlich ausgelegt werden soll, sofern dies nicht explizit oder implizit anderweitig, z. B. aus technischen Gründen, angegeben ist. Daher werden diese durch die Offenbarung von mehreren Schritten oder Funktionen nicht auf eine bestimmte Reihenfolge begrenzt, es sei denn, dass diese Schritte oder Funktionen aus technischen Gründen nicht austauschbar sind. Ferner kann bei einigen Beispielen ein einzelner Schritt, Funktion, Prozess oder Operation mehrere Teilschritte, -funktionen, -prozesse oder -operationen einschließen und/oder in dieselben aufgebrochen werden. Solche Teilschritte können umfasst sein und Teil der Offenbarung dieses Einzelschritts sein, sofern sie nicht explizit ausgeschlossen sind.
  • Weiterhin sind die folgenden Ansprüche hiermit in die detaillierte Beschreibung aufgenommen, wo jeder Anspruch als getrenntes Beispiel für sich stehen kann. Während jeder Anspruch als getrenntes Beispiel für sich stehen kann, ist zu beachten, dass - obwohl ein abhängiger Anspruch sich in den Ansprüchen auf eine bestimmte Kombination mit einem oder mehreren anderen Ansprüchen beziehen kann - andere Beispiele auch eine Kombination des abhängigen Anspruchs mit dem Gegenstand jedes anderen abhängigen oder unabhängigen Anspruchs umfassen können. Solche Kombinationen werden hier explizit vorgeschlagen, sofern nicht angegeben ist, dass eine bestimmte Kombination nicht beabsichtigt ist. Ferner sollen auch Merkmale eines Anspruchs für jeden anderen unabhängigen Anspruch eingeschlossen sein, selbst wenn dieser Anspruch nicht direkt abhängig von dem unabhängigen Anspruch gemacht ist.

Claims (39)

  1. Ein LIDAR-Sensor (100), umfassend: einen optischen Sender (110), der ausgebildet ist: bei Betrieb in einem ersten Betriebsmodus erste Teilregionen (101-1, ..., 101-N) eines Sichtfeldes (105) sequentiell zu beleuchten, um die Umgebung in dem Sichtfeld (105) eindimensional abzutasten; bei Betrieb in einem zweiten Betriebsmodus zweite Teilregionen (102-1, ..., 102-N) des Sichtfeldes (105) zu beleuchten, um die Umgebung in einem Bereich (106) des Sichtfeldes (105) abzutasten, wobei eine zweite Beleuchtungsintensität, die zum Beleuchten der zweiten Teilregionen (102-1, ...., 102-N) verwendet wird, höher ist als eine erste Beleuchtungsintensität, die zum Beleuchten der ersten Teilregionen (101-1, ..., 101-N) verwendet wird; einen optischen Empfänger (120), der ausgebildet ist, Reflexionen von den ersten und zweiten Teilregionen zu empfangen.
  2. Der LIDAR-Sensor (100) gemäß Anspruch 1, wobei die zweiten Teilregionen (102-1, ..., 102-N) kleinere Bereiche des Sichtfeldes (105) abdecken als die ersten Teilregionen (101-1, ..., 101-N).
  3. Der LIDAR-Sensor (100) gemäß Anspruch 1 oder 2, wobei der optische Sender (110) bei Betrieb in dem zweiten Betriebsmodus ausgebildet ist, die zweiten Teilregionen (102-1, ...., 102-N) und die ersten Teilregionen (101-1, ..., 101-N) gleichzeitig zu beleuchten.
  4. Der LIDAR-Sensor (100) gemäß Anspruch 1 oder 2, wobei der optische Sender (110) bei Betrieb in dem zweiten Betriebsmodus ausgebildet ist, ausschließlich die zweiten Teilregionen (102-1, ..., 102-N) zu beleuchten.
  5. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 1 bis 4, wobei der optische Sender (110) bei Betrieb in dem zweiten Betriebsmodus ausgebildet ist, die zweiten Teilregionen (102-1, ..., 102-N) derart zu beleuchten, dass die Umgebung in dem Bereich (106) des Sichtfeldes (105) zweidimensional abgetastet wird.
  6. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 1 bis 5, wobei der optische Sender (110) ausgebildet ist, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung anzeigen, und wobei der Bereich (106) des Sichtfeldes (105) der interessierenden Region entspricht.
  7. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 1 bis 6, wobei der optische Sender (110) ausgebildet ist: selektiv erste Lichtstrahlen in die ersten Teilregionen (101-1, ..., 101-N) des Sichtfeldes (105) zu emittieren, um die Umgebung in dem Sichtfeld (105) eindimensional abzutasten; und selektiv zweite Lichtstrahlen in die zweiten Teilregionen (102-1, ..., 102-N) des Sichtfeldes (105) zu emittieren, um den Bereich (106) des Sichtfeldes (105) abzutasten, wobei eine Lichtintensität der zweiten Lichtstrahlen höher ist als eine Lichtintensität der ersten Lichtstrahlen, wobei der optische Empfänger (120) einen Photodetektor (121) umfasst, der ausgebildet ist, Reflexionen der ersten und zweiten Lichtstrahlen aus der Umgebung zu empfangen.
  8. Der LIDAR-Sensor (100) gemäß Anspruch 7, wobei der Photodetektor (121) ein zweidimensionales oder eindimensionales Array von lichtempfindlichen Sensorelementen ist.
  9. Der LIDAR-Sensor (100) gemäß Anspruch 7 oder 8, wobei der optische Sender (110) umfasst: eine erste reflektierende Oberfläche (133), die ausgebildet ist, um eine erste Rotationsachse zu oszillieren; eine erste Lichtquelle (131), die ausgebildet ist, steuerbar die ersten Lichtstrahlen über ein optisches System (135) auf die erste reflektierende Oberfläche (133) zu emittieren, sodass die erste reflektierende Oberfläche (133) die ersten Lichtstrahlen in die ersten Teilregionen (101-1, ..., 101-N) des Sichtfeldes (105) emittiert; eine zweite reflektierende Oberfläche (134), die ausgebildet ist, um eine zweite Rotationsachse zu oszillieren; und eine zweite Lichtquelle (132), die ausgebildet ist, steuerbar die zweiten Lichtstrahlen auf die zweite reflektierende Oberfläche (134) zu emittieren, sodass die zweite reflektierende Oberfläche (134) die zweiten Lichtstrahlen über das optische System (135) auf die erste reflektierende Oberfläche (133) emittiert, wobei die erste reflektierende Oberfläche (133) ausgebildet ist, die zweiten Lichtstrahlen in die zweiten Teilregionen (102-1, ..., 102-N) des Sichtfeldes (105) zu emittieren.
  10. Der LIDAR-Sensor (100) gemäß Anspruch 9, wobei das optische System (135) ein optisches Element (136) umfasst, das ausgebildet ist, die von der zweiten reflektierenden Oberfläche (134) empfangenen, zweiten Lichtstrahlen auf die erste reflektierende Oberfläche (133) zu reflektieren, wobei das optische Element (136) für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle (131) emittierten, ersten Lichtstrahlen durch das optische Element (136) zu der ersten reflektierenden Oberfläche (133) transmittieren.
  11. Der LIDAR-Sensor (100) gemäß Anspruch 10, wobei das optische System (135) ferner ein optisches Linsensystem (137) umfasst, das zwischen dem optischen Element (136) und zumindest einer von der ersten und der zweiten reflektierenden Oberfläche angeordnet ist.
  12. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 9 bis 11, wobei die erste Rotationsachse orthogonal zu der zweiten Rotationsachse ist.
  13. Der LIDAR-Sensor (100) gemäß Anspruch 7 oder 8, wobei der optische Sender (110) umfasst: eine reflektierende Oberfläche (138), die ausgebildet ist, um eine Rotationsachse zu oszillieren; eine erste Lichtquelle (131), die ausgebildet ist, steuerbar die ersten Lichtstrahlen über ein optisches System (135) auf die reflektierende Oberfläche (138) zu emittieren, sodass die reflektierende Oberfläche (138) die ersten Lichtstrahlen in die ersten Teilregionen (101-1, ..., 101-N) des Sichtfeldes (105) emittiert; und ein lineares Array von zweiten Lichtquellen (139), von denen jede ausgebildet ist, steuerbar einen jeweiligen zweiten Lichtstrahl über das optische System (135) auf die reflektierende Oberfläche (138) zu emittieren, sodass die reflektierende Oberfläche (138) die zweiten Lichtstrahlen in die zweiten Teilregionen (102-1,..., 102-N) des Sichtfeldes (105) emittiert.
  14. Der LIDAR-Sensor (100) gemäß Anspruch 13, wobei das optische System (135) ein optisches Element (136) umfasst, das ausgebildet ist, die von dem linearen Array von zweiten Lichtquellen empfangenen, zweiten Lichtstrahlen auf die reflektierende Oberfläche (138) zu reflektieren, wobei das optische Element (136) für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle (131) emittierten, ersten Lichtstrahlen durch das optische Element (136) zu der reflektierenden Oberfläche (138) transmittieren.
  15. Der LIDAR-Sensor (100) gemäß Anspruch 14, wobei das optische System (135) ferner ein optisches Linsensystem (137) umfasst, das zwischen dem optischen Element (136) und zumindest einem von der reflektierenden Oberfläche (138) und dem linearen Array von zweiten Lichtquellen angeordnet ist.
  16. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 13 bis 15, wobei das lineare Array von zweiten Lichtquellen entlang einer räumlichen Achse orthogonal zu der Rotationsachse angeordnet ist.
  17. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 7 bis 16, wobei die ersten und zweiten Lichtstrahlen unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen aufweisen.
  18. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 7 bis 17, wobei ein Querschnitt von einem der zweiten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung kleiner ist als ein Querschnitt von einem der ersten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung.
  19. Der LIDAR-Sensor (100) gemäß einem der Ansprüche 7 bis 18, wobei ein Querschnitt von einem der zweiten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung in Bezug auf einen Querschnitt von einem der ersten Lichtstrahlen in einer Ebene orthogonal zu seiner Strahlrichtung rotiert ist.
  20. Ein Verfahren (1300) für einen LIDAR-Sensor, umfassend: sequentielles Beleuchten (1302) von ersten Teilregionen eines Sichtfeldes in einem ersten Betriebsmodus, um die Umgebung in dem Sichtfeld eindimensional abzutasten; Beleuchten (1304) von zweiten Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus, um die Umgebung in einem Bereich des Sichtfeldes abzutasten, wobei eine zum Beleuchten der zweiten Teilregionen verwendete, zweite Beleuchtungsintensität höher ist als eine zum Beleuchten der ersten Teilregionen verwendete, erste Beleuchtungsintensität; und Empfangen (1306) von Reflexionen von den ersten und zweiten Teilregionen.
  21. Ein LIDAR-Sensor (100), umfassend einen optischen Sender (110) und einen optischen Empfänger (120), wobei der optische Sender (110) und der optische Empfänger (120) ausgebildet sind: die Umgebung in einem Sichtfeld (105) eindimensional abzutasten bei Betrieb in einem ersten Betriebsmodus; und die Umgebung in zumindest einem Bereich (106) des Sichtfeldes (105) zweidimensional abzutasten bei Betrieb in einem zweiten Betriebsmodus.
  22. Der LIDAR-Sensor (100) gemäß Anspruch 21, wobei der LIDAR-Sensor ausgebildet ist, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung anzeigen, und wobei der Bereich (106) des Sichtfeldes (105) der interessierenden Region entspricht.
  23. Der LIDAR-Sensor (100) gemäß Anspruch 21 oder Anspruch 22, wobei der optische Sender (110) und der optische Empfänger (120) bei Betrieb in dem zweiten Betriebsmodus ausgebildet sind, die Umgebung in zumindest dem Bereich (106) des Sichtfeldes (105) zweidimensional abzutasten in Kombination mit einem eindimensionalen Abtasten der Umgebung in dem Sichtfeld (105).
  24. Der LIDAR-Sensor (100) gemäß Anspruch 21 oder Anspruch 22, wobei der optische Sender (110) und der optische Empfänger (120) bei Betrieb in dem zweiten Betriebsmodus ausgebildet sind, die Umgebung in zumindest dem Bereich (106) des Sichtfeldes (105) ausschließlich zweidimensional abzutasten.
  25. Ein Verfahren (1400) für einen LIDAR-Sensor, umfassend: eindimensionales Abtasten (1402) der Umgebung in einem Sichtfeld in einem ersten Betriebsmodus; zweidimensionales Abtasten (1404) der Umgebung in zumindest einem Bereich des Sichtfeldes in einem zweiten Betriebsmodus.
  26. Ein LIDAR-Sensor (400), umfassend: eine erste reflektierende Oberfläche (133), die ausgebildet ist, um eine erste Rotationsachse zu oszillieren; eine erste Lichtquelle (131), die ausgebildet ist, steuerbar erste Lichtstrahlen über ein optisches System (135) auf die erste reflektierende Oberfläche (133) zu emittieren, sodass die erste reflektierende Oberfläche (133) die ersten Lichtstrahlen in die Umgebung emittiert; eine zweite reflektierende Oberfläche (134), die ausgebildet ist, um eine zweite Rotationsachse; und eine zweite Lichtquelle (132), die ausgebildet ist, steuerbar zweite Lichtstrahlen auf die zweite reflektierende Oberfläche (134) zu emittieren, sodass die zweite reflektierende Oberfläche (134) die zweiten Lichtstrahlen über das optische System (135) auf die erste reflektierende Oberfläche (133) emittiert, wobei die erste reflektierende Oberfläche (133) ausgebildet ist, die zweiten Lichtstrahlen in die Umgebung zu emittieren.
  27. Der LIDAR-Sensor (400) gemäß Anspruch 26, wobei das optische System (135) ein optisches Element (136) umfasst, das ausgebildet ist, die von der zweiten reflektierenden Oberfläche (134) empfangenen, zweiten Lichtstrahlen zu der ersten reflektierenden Oberfläche (133) zu reflektieren, wobei das optische Element (136) für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle (131) emittierten, ersten Lichtstrahlen durch das optische Element (136) zu der ersten reflektierenden Oberfläche (133) transmittieren.
  28. Ein LIDAR-Sensor (500), umfassend: eine reflektierende Oberfläche (138), die ausgebildet ist, um eine Rotationsachse zu oszillieren; eine erste Lichtquelle (131), die ausgebildet ist, steuerbar erste Lichtstrahlen über ein optisches System (135) auf die reflektierende Oberfläche (138) zu emittieren, sodass die reflektierende Oberfläche (138) die ersten Lichtstrahlen in die Umgebung emittiert; ein lineares Array von zweiten Lichtquellen, von denen jede ausgebildet ist, steuerbar einen jeweiligen zweiten Lichtstrahl über das optische System (135) auf die reflektierende Oberfläche (138) zu emittieren, sodass die erste reflektierende Oberfläche (138) die zweiten Lichtstrahlen in die Umgebung emittiert.
  29. Der LIDAR-Sensor (500) gemäß Anspruch 28, wobei das optische System (135) ein optisches Element (136) umfasst, das ausgebildet ist, die von dem linearen Array von zweiten Lichtquellen empfangenen, zweiten Lichtstrahlen zu der reflektierenden Oberfläche (138) zu reflektieren, wobei das optische Element (136) für die ersten Lichtstrahlen optisch transparent ist, sodass die durch die erste Lichtquelle (131) emittierten, ersten Lichtstrahlen durch das optische Element (136) zu der reflektierende Oberfläche (138) transmittieren.
  30. Ein LIDAR-Sensor (900), umfassend: einen optischen Sender (910), der ausgebildet ist: bei Betrieb in einem ersten Betriebsmodus gleichzeitig ein volles Sichtfeld (905) zu beleuchten, um gleichzeitig die Umgebung (990) in dem vollen Sichtfeld (905) zu erfassen; und bei Betrieb in einem zweiten Betriebsmodus sequentiell Teilregionen (901-1, ..., 901-N) des Sichtfeldes (905) zu beleuchten, um die Umgebung (990) in einem Bereich (906) des Sichtfeldes (905) eindimensional abzutasten; und einen optischen Empfänger (920), der ausgebildet ist, Reflexionen aus der Umgebung (990) zu empfangen.
  31. Der LIDAR-Sensor (900) gemäß Anspruch 30, wobei der optische Sender (910) bei Betrieb in dem zweiten Betriebsmodus ausgebildet ist, die Teilregionen (901-1, ..., 901-N) zu beleuchten in Kombination mit einem gleichzeitigen Beleuchten des vollen Sichtfeldes (905).
  32. Der LIDAR-Sensor (900) gemäß Anspruch 30 oder Anspruch 31, wobei der optische Sender (910) ausgebildet ist, von dem ersten Betriebsmodus in den zweiten Betriebsmodus zu wechseln nach Empfang von Steuerungsdaten, die eine interessierende Region in der Umgebung (990) anzeigen, wobei der Bereich (906) des Sichtfeldes (905) der interessierenden Region entspricht.
  33. Der LIDAR-Sensor (900) gemäß einem der Ansprüche 30 bis 32, wobei der optische Sender (910) ausgebildet ist: selektiv Licht in das volle Sichtfeld (905) zu emittieren, um die Umgebung (990) in dem vollen Sichtfeld (905) gleichzeitig zu erfassen; und selektiv Lichtstrahlen in die Teilregionen (901-1, ..., 901-N) des Sichtfeldes (905) zu emittieren, um den Bereich (906) des Sichtfeldes (905) eindimensional abzutasten, wobei der optische Empfänger (920) einen Photodetektor umfasst, der ausgebildet ist, Reflexionen des Lichts und der Lichtstrahlen aus der Umgebung (990) zu empfangen.
  34. Der LIDAR-Sensor (900) gemäß Anspruch 33, wobei der Photodetektor ein zweidimensionales Array von lichtempfindlichen Sensorelementen ist.
  35. Der LIDAR-Sensor (900) gemäß Anspruch 33 oder Anspruch 34, wobei der optische Sender (910) umfasst: eine erste Lichtquelle (931), die ausgebildet ist, steuerbar das Licht in das volle Sichtfeld (905) zu emittieren; eine reflektierende Oberfläche (933), die ausgebildet ist, um eine Rotationsachse zu oszillieren; und eine zweite Lichtquelle (932), die ausgebildet ist, steuerbar die Lichtstrahlen auf die reflektierende Oberfläche (933) zu emittieren, sodass die reflektierende Oberfläche (933) die Lichtstrahlen in die Teilregionen (901-1, ..., 901-N) des Sichtfeldes (905) emittiert.
  36. Der LIDAR-Sensor (900) gemäß einem der Ansprüche 33 bis 35, wobei das Licht und die Lichtstrahlen unterschiedliche Polarisationen und/oder unterschiedliche Wellenlängen aufweisen.
  37. Ein Verfahren (1500) für einen LIDAR-Sensor, umfassend: gleichzeitiges Beleuchten (1502) eines vollen Sichtfeldes in einem ersten Betriebsmodus, um die Umgebung in dem vollen Sichtfeld gleichzeitig zu erfassen; sequentielles Beleuchten (1504) von Teilregionen des Sichtfeldes in einem zweiten Betriebsmodus, um die Umgebung in einen Bereich des Sichtfeldes eindimensional abzutasten; und Empfangen (1506) von Reflexionen aus der Umgebung.
  38. Ein LIDAR-Sensor (1200), umfassend: eine erste Lichtquelle (931), die ausgebildet ist, steuerbar Licht in ein volles Sichtfeld (905) des LIDAR-Sensors zu emittieren; eine reflektierende Oberfläche (933), die ausgebildet ist, um eine Rotationsachse zu oszillieren; und eine zweite Lichtquelle (932), die ausgebildet ist, steuerbar Lichtstrahlen auf die reflektierende Oberfläche (933) zu emittieren, sodass die reflektierende Oberfläche (933) sequentiell die Lichtstrahlen in Teilregionen (901-1, ..., 901-N) des Sichtfeldes (905) emittiert.
  39. Der LIDAR-Sensor (1200) gemäß Anspruch 38, ferner umfassend einen Photodetektor (921), der ausgebildet ist, Reflexionen des Lichts und der Lichtstrahlen aus der Umgebung (990) zu empfangen.
DE102019105478.8A 2019-03-05 2019-03-05 LIDAR-Sensoren und Verfahren für dieselben Pending DE102019105478A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102019105478.8A DE102019105478A1 (de) 2019-03-05 2019-03-05 LIDAR-Sensoren und Verfahren für dieselben
US16/807,778 US11561287B2 (en) 2019-03-05 2020-03-03 LIDAR sensors and methods for the same
CN202010144964.9A CN111665514A (zh) 2019-03-05 2020-03-04 激光雷达传感器及用于激光雷达传感器的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019105478.8A DE102019105478A1 (de) 2019-03-05 2019-03-05 LIDAR-Sensoren und Verfahren für dieselben

Publications (1)

Publication Number Publication Date
DE102019105478A1 true DE102019105478A1 (de) 2020-09-10

Family

ID=72146824

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019105478.8A Pending DE102019105478A1 (de) 2019-03-05 2019-03-05 LIDAR-Sensoren und Verfahren für dieselben

Country Status (3)

Country Link
US (1) US11561287B2 (de)
CN (1) CN111665514A (de)
DE (1) DE102019105478A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11619722B2 (en) * 2020-02-12 2023-04-04 Ford Global Technologies, Llc Vehicle lidar polarization
DE102020007645A1 (de) * 2020-04-03 2021-10-07 Daimler Ag Verfahren zur Kalibrierung eines Lidarsensors
EP4125306A1 (de) * 2021-07-30 2023-02-01 Infineon Technologies AG Beleuchtungsvorrichtung für einen optischen sensor, optischer sensor und verfahren zur steuerung einer beleuchtungsvorrichtung
WO2023207009A1 (zh) * 2022-04-24 2023-11-02 上海禾赛科技有限公司 激光雷达
DE102022127122A1 (de) 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft LIDAR-System für ein Fahrassistenzsystem
WO2024168500A1 (zh) * 2023-02-14 2024-08-22 华为技术有限公司 一种发射方法、控制方法和对应装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170269197A1 (en) * 2016-03-21 2017-09-21 Velodyne Lidar, Inc. LIDAR Based 3-D Imaging With Varying Illumination Intensity
US20180059221A1 (en) * 2016-08-31 2018-03-01 Qualcomm Incorporated Hybrid scanning lidar systems
US20180113200A1 (en) * 2016-09-20 2018-04-26 Innoviz Technologies Ltd. Variable flux allocation within a lidar fov to improve detection in a region

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5204847A (en) * 1989-11-20 1993-04-20 International Business Machines Corporation Sensing previously-recorded information while recording or erasing a magnetooptic storage number
JP2001085313A (ja) * 1999-09-13 2001-03-30 Nikon Corp 露光方法及び装置、並びにデバイスの製造方法
JP4365253B2 (ja) * 2004-04-02 2009-11-18 株式会社小糸製作所 車両用前照灯および自動車用前照灯
DE102011102256A1 (de) * 2011-05-23 2012-11-29 Carl Zeiss Meditec Ag Mikroskopiesystem zur augenuntersuchung und verfahren zum betreiben eines mikroskopiesystems
US20180074196A1 (en) * 2016-05-27 2018-03-15 Harvey Weinberg Hybrid flash lidar system
EP3465249A4 (de) * 2016-06-01 2020-01-08 Velodyne Lidar, Inc. Multpixelabtastender lidar
US10520592B2 (en) * 2016-12-31 2019-12-31 Waymo Llc Light detection and ranging (LIDAR) device with an off-axis receiver
CN107426470B (zh) * 2017-05-03 2021-02-05 Oppo广东移动通信有限公司 相机模组和电子装置
DE102017208052A1 (de) * 2017-05-12 2018-11-15 Robert Bosch Gmbh Senderoptik für ein LiDAR-System, optische Anordnung für ein LiDAR-System, LiDAR-System und Arbeitsvorrichtung
US10094916B1 (en) * 2017-06-09 2018-10-09 Waymo Llc LIDAR optics alignment systems and methods
US11035957B2 (en) * 2018-05-29 2021-06-15 Waymo Llc LIDAR optics alignment system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170269197A1 (en) * 2016-03-21 2017-09-21 Velodyne Lidar, Inc. LIDAR Based 3-D Imaging With Varying Illumination Intensity
US20180059221A1 (en) * 2016-08-31 2018-03-01 Qualcomm Incorporated Hybrid scanning lidar systems
US20180113200A1 (en) * 2016-09-20 2018-04-26 Innoviz Technologies Ltd. Variable flux allocation within a lidar fov to improve detection in a region

Also Published As

Publication number Publication date
US20200284882A1 (en) 2020-09-10
CN111665514A (zh) 2020-09-15
US11561287B2 (en) 2023-01-24

Similar Documents

Publication Publication Date Title
DE102019105478A1 (de) LIDAR-Sensoren und Verfahren für dieselben
EP2686700B1 (de) Messvorrichtung zur messung einer entfernung zwischen der messvorrichtung und einem zielobjekt mit hilfe optischer messstrahlung
AT412028B (de) Einrichtung zur aufnahme eines objektraumes
DE102018109544A1 (de) Optoelektronischer Sensor und Verfahren zur Abstandsbestimmung
DE102005049471B4 (de) Entfernungssensor mit Einzelflächenabtastung
DE3942770C2 (de)
DE102016011299A1 (de) Codierte Laserlicht-Pulssequenzen für LIDAR
WO2018206517A1 (de) Senderoptik für ein lidar-system, optische anordnung für ein lidar-system, lidar-system und arbeitsvorrichtung
DE112012004255T5 (de) Räumlich selektive Erkennung unter Verwendung einer dynamischen Maske in einer Bildebene
DE102017002235A1 (de) LIDAR-System mit flexiblen Scanparametern
EP2708914A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung einer Tiefenkarte
WO2011029645A1 (de) Optische entfernungsmessvorrichtung
DE112011101667T5 (de) Abtastender 3D-Bildgeber
DE102019121340A1 (de) Verfahren und vorrichtung zum bestimmen einer fehlfunktion und sensorsystem
DE102018214140A1 (de) LIDAR-Sensor zur optischen Erfassung eines Sichtfeldes, Arbeitsvorrichtung oder Fahrzeug mit einem LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
DE102015223024A1 (de) Laserentfernungsmessgerät
EP3832344A1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
WO2019121435A1 (de) Optisches scansystem und verfahren zur kalibrierung des optischen scansystems
WO2018172258A1 (de) Spad-basiertes lidar-system
EP4184202B1 (de) Optoelektronischer sensor
DE112020000407T5 (de) Lidar-systeme und -verfahren mit strahllenkung und weitwinkelsignaldetektion
DE102018128164A1 (de) Lidar-sensoren und verfahren für lidar-sensoren
DE102019100929A1 (de) Langstreckendetektor für LIDAR
DE102022115267A1 (de) Verfahren zur Ermittlung wenigstens einer Korrekturfunktionen für ein LiDARSystem, LiDAR-System, Fahrzeug mit wenigstens einem LiDAR-System, Messanlage
DE102022113387A1 (de) Lidar-Sensor, Umfelderfassungssystem und Fahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R084 Declaration of willingness to licence