DE102019220289A1 - Echtzeit-gating und signal wegleitung in laser- und detektorarrays für lidar-anwendung - Google Patents

Echtzeit-gating und signal wegleitung in laser- und detektorarrays für lidar-anwendung Download PDF

Info

Publication number
DE102019220289A1
DE102019220289A1 DE102019220289.6A DE102019220289A DE102019220289A1 DE 102019220289 A1 DE102019220289 A1 DE 102019220289A1 DE 102019220289 A DE102019220289 A DE 102019220289A DE 102019220289 A1 DE102019220289 A1 DE 102019220289A1
Authority
DE
Germany
Prior art keywords
vertical
lidar
view
angle
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019220289.6A
Other languages
English (en)
Inventor
Marcus Edward Hennecke
Georg Schitter
Thomas Thurner
Han Woong Yoo
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US16/265,416 external-priority patent/US11709231B2/en
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of DE102019220289A1 publication Critical patent/DE102019220289A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4813Housing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/101Scanning systems with both horizontal and vertical deflecting means, e.g. raster or XY scanners
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/12Scanning systems using multifaceted mirrors
    • G02B26/123Multibeam scanners, e.g. using multiple light sources or beam splitters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein Lichtdetektions- und Entfernungsmesssystem (LIDAR-System), das in einem Fahrzeug integriert ist, umfasst einen LIDAR-Sender, der dazu konfiguriert ist, Laserstrahlen in ein Sichtfeld auszusenden, wobei das Sichtfeld ein Projektionszentrum aufweist, und der LIDAR-Sender umfasst einen Laser, um die in das Sichtfeld ausgesendeten Laserstrahlen zu erzeugen. Das LIDAR-System umfasst ferner einen LIDAR-Empfänger, der zumindest einen Photodetektor umfasst, der dazu konfiguriert ist, einen reflektierten Lichtstrahl zu empfangen und auf der Basis des reflektierten Lichtstrahls elektrische Signale zu erzeugen. Das LIDAR-System umfasst ferner eine Steuerung, die dazu konfiguriert ist, Rückmeldungsinformationen zu empfangen und auf der Basis der Rückmeldungsinformationen ein Projektionszentrum des Sichtfeldes in einer vertikalen Richtung zu modifizieren.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung nimmt die Priorität der US-Anmeldung 62/783,720 in Anspruch, die am 21. Dezember 2018 eingereicht wurde und durch Bezugnahme so in das vorliegende Dokument aufgenommen ist, als sei sie vollständig hier dargelegt.
  • GEBIET
  • Die vorliegende Offenbarung bezieht sich im Allgemeinen auf Vorrichtungen und Verfahren zur Lichtdetektion und Entfernungsmessung (Light Detection and Ranging, LIDAR).
  • HINTERGRUND
  • Lichtdetektion und Entfernungsmessung (Light Detection and Ranging, LIDAR) ist ein Fernerfassungsverfahren, das Licht in der Form eines gepulsten Lasers verwendet, um Entfernungen (variable Distanzen) zu einem oder mehreren Objekten in einem Sichtfeld zu messen. Im Einzelnen wird Licht zu dem Objekt hin ausgesendet. Einzelne Photodetektoren oder Arrays von Photodetektoren empfangen Reflexionen von Objekten, die von dem Licht beleuchtet werden, und die Zeit, die es braucht, bis die Reflexionen zu unterschiedlichen Sensoren in dem Photodetektor-Array gelangen, wird bestimmt. Dies wird auch als Messung einer Flugzeit (Time-of-Flight, TOF) bezeichnet. LIDAR-Systeme bilden Tiefenmessungen und nehmen Distanzmessungen vor, indem Objekten die Distanz auf der Basis der Flugzeitberechnungen zugeordnet wird. Somit können die Flugzeitberechnungen Distanz- und Tiefenabbildungen schaffen, die zum Erzeugen von Bildern verwendet werden können.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein Lichtdetektions- und Entfernungsmesssystem (LIDAR-System) mit verbesserten Charakteristika zu schaffen.
  • Diese Aufgabe wird durch ein LIDAR-System gemäß Anspruch 1 oder 7 oder 23 gelöst.
  • Aufgrund eines Erfordernisses, alle möglichen Situationen in einem Sichtfeld zu detektieren, kann ein LIDAR-System mehrere Kanäle aus Laser- und Detektorpaaren umfassen und kann ferner eine Datenerfassung und -verarbeitung für alle Detektorkanäle umfassen. Beispielsweise weist ein Detektorarray mehrere Kanäle zum Empfangen von Licht von Objekten auf, die sich in unterschiedlichen Regionen eines Sichtfeldes befinden. Jeder Detektor des Detektorarrays kann für einen Empfang von Licht von einem unterschiedlichen Winkel verantwortlich sein. Unterdessen werden Laser- und Detektorkanäle während eines Scanvorgangs (eines Vorgangs eines kontinuierlichen Abtastens) verwendet, und alle Detektorkanäle sind eins zu eins mit Signalverarbeitungsressourcen verbunden, um elektrische Signale an dieselben auszusenden. Jedoch ist ein Sichtfeld üblicherweise in einer vertikalen Richtung feststehend, wobei nicht alle vertikalen Winkel in einem Sichtfeld in allen Situationen sinnvoll sind. Dies kann zu Ineffizienz und zusätzlichem Aufwand für ein ganzes Fahrzeugsteuersystem führen.
  • Beispielsweise kann eine vor einem Fahrzeug liegende Straße von großem Interesse sein. Während diese Region in dem vertikalen Sichtfeld eher schmal ist (z. B. weniger als 10 Grad), kann es sein, dass ein LIDAR-System ein breiteres vertikales Sichtfeld (z. B. 25 Grad oder mehr) aufweisen muss, um allen Situationen gerecht zu werden. In diesem Fall werden Ressourcen aufgewendet, um außerhalb einer vertikalen interessierenden Region LIDAR-Daten zu erhalten. Dies führt zu Ineffizienz bei der Verwendung von Laser-, Detektor-, Datenerfassungs- und Datenverarbeitungsressourcen.
  • Deshalb kann eine verbesserte LIDAR-Vorrichtung wünschenswert sein, die Laser-, Detektor-, Datenerfassungs- und Datenverarbeitungsressourcen effizienter nutzt.
  • KURZDARSTELLUNG
  • Ausführungsbeispiele sehen Lichtdetektions- und Entfernungsmesssysteme (LIDAR-Systeme) und Verfahren zum Betreiben derselben und, insbesondere zum Modifizieren eines Sichtfeldes in einer vertikalen Richtung auf der Basis von Rückmeldungsinformationen vor.
  • Ein in ein Fahrzeug integriertes LIDAR-System umfasst einen LIDAR-Sender, der dazu konfiguriert ist, Laserstrahlen in ein Sichtfeld auszusenden, wobei das Sichtfeld ein Projektionszentrum aufweist, und wobei der LIDAR-Sender einen Laser umfasst, um die in das Sichtfeld ausgesendeten Laserstrahlen zu erzeugen. Das LIDAR-System umfasst ferner einen LIDAR-Empfänger, der zumindest einen Photodetektor umfasst, der dazu konfiguriert ist, einen reflektierten Laserstrahl zu empfangen und auf der Basis des reflektierten Laserstrahls elektrische Signale zu erzeugen. Das LIDAR-System umfasst ferner eine Steuerung, die dazu konfiguriert ist, Rückmeldungsinformationen zu empfangen und auf der Basis der Rückmeldungsinformationen ein Projektionszentrum des Sichtfeldes in einer vertikalen Richtung zu modifizieren.
  • Ein LIDAR-System umfasst einen LIDAR-Sender, der dazu konfiguriert ist, ein Sichtfeld mit einer Mehrzahl von Laserstrahlen zu scannen, wobei der LIDAR-Sender ein Laserarray umfasst, das eine Mehrzahl von Laserquellen umfasst, die jeweils dazu konfiguriert sind, einen anderen einer Mehrzahl von Laserstrahlen derart auszusenden, dass jeder der Mehrzahl von Laserstrahlen von dem LIDAR-Sender in eine andere vertikale Region einer Mehrzahl vertikaler Regionen projiziert wird. Das LIDAR-System umfasst ferner eine Steuerung, die dazu konfiguriert ist, Rückmeldungsinformationen zu empfangen und das Sichtfeld auf der Basis der Rückmeldungsinformationen in einer vertikalen Richtung zu modifizieren, und einen LIDAR-Empfänger, der ein Photodetektor-Array umfasst, das dazu konfiguriert ist, einen reflektierten Lichtstrahl zu empfangen und auf der Basis des reflektierten Lichtstrahls elektrische Signal zu erzeugen.
  • Ein LIDAR-System umfasst einen LIDAR-Sender, der dazu konfiguriert ist, ein Sichtfeld mit einer vertikalen Scanlinie in einer horizontalen Scanrichtung zu scannen. Der LIDAR-Sender umfasst ein Laserarray, das eine Mehrzahl von Laserquellen umfasst, von denen jede dazu konfiguriert ist, einen anderen einer Mehrzahl von Laserstrahlen auszusenden, so dass die Mehrzahl von Laserstrahlen als die vertikale Scanlinie projiziert werden, und eine eindimensionale Schwingstruktur für mikro-elektromechanische Systeme (MEMS), die dazu konfiguriert ist, um eine einzelne Scanachse herum zu oszillieren und die Mehrzahl von Laserstrahlen auf reflektierende Weise derart auszusenden, dass sich die vertikale Scanlinie in der horizontalen Scanrichtung horizontal über das Sichtfeld hinweg bewegt, während die eindimensionale MEMS-Schwingstruktur um die einzelne Scanachse herum oszilliert. Das LIDAR-System umfasst ferner eine Steuerung, die dazu konfiguriert ist, Rückmeldungsinformationen zu empfangen und auf der Basis der Rückmeldungsinformationen das Sichtfeld in einer vertikalen Richtung, die zu der horizontalen Scanrichtung senkrecht ist, zu modifizieren. Das LIDAR-System umfasst ferner einen LIDAR-Empfänger, der ein Photodetektor-Array umfasst, das dazu konfiguriert ist, einen reflektierten Lichtstrahl zu empfangen und auf der Basis des reflektierten Lichtstrahls elektrische Signale zu erzeugen.
  • Ein LIDAR-Scanverfahren umfasst ein Aussenden von Laserstrahlen in ein Sichtfeld, wobei das Sichtfeld ein Projektionszentrum aufweist; Empfangen eines reflektierten Lichtstrahls an zumindest einem Photodetektor; Erzeugen, seitens des zumindest einen Photodetektors, elektrischer Signale auf der Basis des reflektierten Lichtstrahls; Empfangen von Rückmeldungsinformationen; und Modifizieren eines Projektionszentrums des Sichtfeldes in einer vertikalen Richtung auf der Basis der Rückmeldungsinformationen.
  • Figurenliste
  • Hierin werden unter Bezugnahme auf die angehängten Zeichnungen Ausführungsbeispiele beschrieben.
    • 1 ist ein schematisches Diagramm eines LIDAR-Scansystems gemäß einem oder mehreren Ausführungsbeispielen;
    • 2 ist ein schematisches Blockdiagramm eines LIDAR-Scansystems gemäß einem oder mehreren Ausführungsbeispielen;
    • 3 veranschaulicht ein Beispiel eines LIDAR-Scansystems, bei dem sich eine interessierende Region auf der Basis zumindest entweder eines Neigungswinkels eines Fahrzeugs und/oder eines Oberflächenwinkels einer erwarteten Fahroberfläche gemäß einem oder mehreren Ausführungsbeispielen in einer vertikalen Richtung ändert;
    • 4A-4C zeigen ein flexibles LIDAR-System, das dazu konfiguriert ist, das Sichtfeld in einer vertikalen Region, die zu einer horizontalen Scanrichtung senkrecht ist, gemäß einem oder mehreren Ausführungsbeispielen zu modifizieren;
    • 5 zeigt ein weiteres flexibles LIDAR-System, das dazu konfiguriert ist, das Sichtfeld in einer vertikalen Region, die zu einer horizontalen Scanrichtung senkrecht ist, gemäß einem oder mehreren Ausführungsbeispielen zu modifizieren;
    • 6 ist eine signalperspektivische Ansicht eines LIDAR-Systems gemäß einem oder mehreren Ausführungsbeispielen; und
    • 7 zeigt eine perspektivische Ansicht eines LIDAR-Senders, der in einem Blitz-LIDAR-System gemäß einem oder mehreren Ausführungsbeispielen implementiert ist.
  • Im Folgenden werden verschiedene Ausführungsbeispiele unter Bezugnahme auf die beiliegenden Zeichnungen detailliert beschrieben. Es ist zu beachten, dass diese Ausführungsbeispiele lediglich veranschaulichenden Zwecken dienen und nicht als einschränkend aufgefasst werden sollen. Während Ausführungsbeispiele z. B. dahin gehend beschrieben werden, eine Mehrzahl von Merkmalen oder Elementen aufzuweisen, ist dies nicht dahin gehend aufzufassen, dass all diese Merkmale oder Elemente zum Implementieren von Ausführungsbeispielen erforderlich sind. Stattdessen können bei anderen Ausführungsbeispielen einige der Merkmale oder Elemente weggelassen oder durch alternative Merkmale oder Elemente ersetzt sein. Außerdem können weitere Merkmale oder Elemente zusätzlich zu den explizit gezeigten und beschriebenen bereitgestellt werden, beispielsweise herkömmliche Komponenten von Sensorbauelementen.
  • Merkmale aus unterschiedlichen Ausführungsbeispielen können dahin gehend kombiniert werden, weitere Ausführungsbeispiele zu bilden, sofern nicht explizit etwas anderes angegeben ist. Variationen oder Modifikationen, die in Bezug auf eines der Ausführungsbeispiele beschrieben werden, können auch auf andere Ausführungsbeispiele anwendbar sein. In einigen Fällen werden bekannte Strukturen und Bauelemente in Blockdiagrammform anstatt im Detail angezeigt, um die undeutliche Darstellung der Ausführungsbeispiele zu vermeiden.
  • Verbindungen oder Kopplungen zwischen in den Zeichnungen gezeigten oder hierin beschriebenen Elementen können drahtbasierte Verbindungen oder drahtlose Verbindungen sein, sofern nichts anderes angegeben ist. Ferner können solche Verbindungen oder Kopplungen direkte Verbindungen oder Kopplungen ohne zusätzliche eingreifende Elemente oder indirekte Verbindungen oder Kopplungen mit einem oder mehreren zusätzlichen eingreifenden Elementen sein, solange der allgemeine Zweck der Verbindung oder Kopplung, z. B. eine bestimmte Art von Signal zu übertragen oder eine bestimmte Art von Information zu übertragen, im Wesentlichen aufrechterhalten wird.
  • Ausführungsbeispiele beziehen sich auf optische Sensoren und optische Sensorsysteme und darauf, Informationen über optische Sensoren und optische Sensorsysteme zu erhalten. Ein Sensor kann sich auf eine Komponente beziehen, die eine zu messende physikalische Größe in ein elektrisches Signal umwandelt, beispielsweise ein Stromsignal oder ein Spannungssignal. Die physikalische Größe kann beispielsweise elektromagnetische Strahlung wie etwa sichtbares Licht, Infrarot(IR)-Strahlung oder eine andere Art von Beleuchtungssignal, einen Strom oder eine Spannung aufweisen, ist jedoch nicht darauf beschränkt. Beispielsweise kann ein Bildsensor ein Silizium-Chip in einer Kamera sein, der Lichtphotonen, die von einer Linse stammen, in Spannungen umwandelt. Je größer die aktive Fläche des Sensors, desto mehr Licht kann gesammelt werden, um ein Bild zu erzeugen.
  • Ein Sensorbauelement, wie es hierin verwendet wird, kann sich auf ein Bauelement beziehen, das einen Sensor und weitere Komponenten aufweist, beispielsweise eine Vorspannschaltungsanordnung, einen Analog-Digital-Wandler oder ein Filter. Ein Sensorbauelement kann auf einem einzelnen Chip integriert sein, obwohl bei anderen Ausführungsbeispielen eine Mehrzahl von Chips oder auch außerhalb eines Chips befindliche Komponenten zum Implementieren eines Sensorbauelementes verwendet werden können.
  • In LIDAR-Systemen sendet eine Lichtquelle Lichtpulse in ein Sichtfeld aus, und das Licht wird durch Rückstreuung von einem oder mehreren Objekten reflektiert. Im Einzelnen ist LIDAR ein Direktflugzeit(Time-of-Flight, TOF)-System, bei dem die Lichtpulse (z. B. Laserstrahlen aus Infrarotlicht) in das Sichtfeld emittiert werden und ein Pixelarray die reflektierten Strahlen detektiert und misst. Beispielsweise empfängt ein Array von Photodetektoren Reflexionen von Objekten, die mittels des Lichts beleuchtet werden.
  • Derzeit kann zum Messen des reflektierten Lichts ein Photodetektor-Array verwendet werden. Das Photodetektor-Array kann ein eindimensionales (ID-)Array sein, das aus mehreren Zeilen von Photodetektoren besteht, die in einer einzigen Spalte angeordnet sind, oder kann ein zweidimensionales (2D-)Array sein, das aus mehreren Zeilen und Spalten von Photodetektoren besteht, die in einer gitterartigen Anordnung angeordnet sind. Jede Pixelzeile oder Gruppe benachbarter Pixelzeilen kann einem anderen vertikalen Winkel in einem Sichtfeld entsprechen.
  • Unterschiede im Hinblick auf Rückkehrzeiten für jeden Lichtpuls über mehrere Pixel des Pixelarrays hinweg können dann dazu verwendet werden, digitale 3D-Darstellungen einer Umgebung zu erstellen oder andere Sensordaten zu erzeugen. Beispielsweise kann die Lichtquelle einen einzelnen Lichtpuls emittieren, und ein Zeit-Digital-Wandler (time-to-digital converter (TDC), der elektrisch mit dem Pixelarray gekoppelt ist, kann von dem Zeitpunkt, zu dem der Lichtpuls emittiert wird, bis zu einem Zeitpunkt zählen, zu dem der reflektierte Lichtpuls bei dem Empfänger (d. h. an dem Pixelarray) empfangen wird. Die „Flugzeit“ des Lichtpulses wird dann in eine Entfernung übersetzt.
  • Eine Scanvorgang wie etwa ein oszillierender horizontaler Scanvorgang (z. B. von links nach rechts und von rechts nach links eines Sichtfeldes) kann eine Szenerie auf eine Weise eines kontinuierlichen Scannens beleuchten. Jedes Abfeuern des Laserstrahls durch die Lichtquellen kann zu einer Scanlinie in dem „Sichtfeld“ führen. Durch das Emittieren von aufeinanderfolgenden Lichtpulsen in unterschiedlichen Scanrichtungen kann die als Sichtfeld bezeichnete Fläche gescannt werden, und Objekte in der Fläche können detektiert und abgebildet werden. Somit stellt das Sichtfeld eine Scanebene dar, die ein Projektionszentrum aufweist. Es könnte auch ein Rasterscanvorgang verwendet werden.
  • 1 ist ein schematisches Diagramm eines LIDAR-Scansystems 100 gemäß einem oder mehreren Ausführungsbeispielen. Das LIDAR-Scansystem 100 ist eine optische Scanvorrichtung, die einen Sender, welcher eine Beleuchtungseinheit 10, eine Senderoptik 11 sowie einen eindimensionalen (1D-)MEMS-Spiegel 12 (1D-MEMS-Scanner) umfasst, und einen Empfänger, der eine Hauptoptik 14 umfasst, und einen optischen Empfänger 15 umfasst. Der optische Empfänger 15 in der Veranschaulichung ist ein 2D-Photodetektor-Array 15, kann alternativ dazu jedoch ein 1 D-Photodetektor-Array sein. Der Empfänger kann ferner eine Empfängerschaltungsanordnung umfassen, z. B. eine Datenerfassungs-/-ausleseschaltungsanordnung und eine Datenverarbeitungsschaltungsanordnung, wie gemäß 2 näher beschrieben wird.
  • Das Photodetektor-Array 15, ob es nun ein 2D-Array oder ein 1D-Array ist, ist derart angeordnet, dass ein beabsichtigtes Sichtfeld vertikal auf die vertikale Erstreckung des Photodetektor-Arrays 15 abgebildet wird. Ein empfangener Lichtstrahl trifft je nach dem vertikalen Winkel des ausgesendeten und reflektierten Lichtstrahls nur auf eine spezifische Zeile oder Gruppe oder Zeilen des Detektorarrays.
  • Die Beleuchtungseinheit 10 umfasst drei Lichtquellen (z. B. Laserdioden oder lichtemittierende Dioden), die linear in einer Einzelbalkenformation ausgerichtet sind und die dazu ausgebildet sind, Licht auszusenden, das zum Scannen des Sichtfeldes für Objekte verwendet wird. Das von den Lichtquellen emittierte Licht ist für gewöhnlich Infrarotlicht, wobei auch Licht mit einer anderen Wellenlänge verwendet werden kann. Wie bei dem Ausführungsbeispiel aus 1 ersichtlich ist, dehnt sich die Form des von den Lichtquellen emittierten Lichts in einer zu der Senderichtung senkrechten Richtung aus, um einen Lichtstrahl mit einer länglichen Form, die senkrecht zu einer Senderichtung ist, zu bilden. Das von den Lichtquellen ausgesendete Beleuchtungslicht wird zu der Senderoptik 11 hin geleitet, die dazu ausgebildet ist, jeden Laser auf einen eindimensionalen MEMS-Spiegel 12 zu fokussieren. Die Senderoptik 11 kann beispielsweise eine Linse oder ein Prisma sein.
  • Wenn das Licht aus den Lichtquellen seitens des MEMS-Spiegels 12 reflektiert wird, wird dasselbe vertikal ausgerichtet, um für jeden emittierten Laserschuss eine eindimensionale vertikale Scanlinie SL aus Infrarotlicht oder einen vertikalen Balken aus Infrarotlicht zu bilden. Jede Lichtquelle der Beleuchtungseinheit 10 trägt zu einer unterschiedlichen vertikalen Region der vertikalen Scanlinie SL bei. Somit können die Lichtquellen gleichzeitig aktiviert und gleichzeitig deaktiviert werden, um einen Lichtpuls mit mehreren vertikalen Segmenten zu erhalten, wobei jedes vertikale Segment einer jeweiligen Lichtquelle entspricht. Jedoch kann jede vertikale Region oder jedes vertikale Segment der vertikalen Scanlinie SL auch unabhängig voneinander aktiv oder inaktiv sein, indem eine entsprechende der Lichtquellen der Beleuchtungseinheit 10 ein- oder ausgeschaltet wird. Somit kann eine teilweise oder vollständige vertikale Scanlinie SL von Licht aus dem System 100 in das Sichtfeld ausgegeben werden.
  • Demgemäß ist der Sender des Systems 100 eine optische Anordnung, die dazu konfiguriert ist, auf der Basis der Laserpulse Laserstrahlen zu erzeugen, wobei die Laserstrahlen eine längliche Form aufweisen, die sich in einer Richtung, die zu einer Senderichtung der Laserstrahlen senkrecht ist, erstreckt. Wie aus 1 hervorgeht, ist jede der Lichtquellen einer anderen vertikalen Region in dem Sichtfeld zugeordnet, so dass jede Lichtquelle eine vertikale Scanlinie lediglich in die vertikale Region beleuchtet, die der Lichtquelle zugeordnet ist. Beispielsweise beleuchtet die erste Lichtquelle in eine erste vertikale Region, und die zweite Lichtquelle beleuchtet in eine zweite vertikale Region, die sich von der ersten vertikalen Region unterscheidet.
  • Obwohl drei Laserquellen gezeigt sind, ist außerdem zu beachten, dass die Anzahl von Laserquellen nicht hierauf beschränkt ist. Beispielsweise kann die vertikale Scanlinie SL von einer einzelnen Laserquelle, zwei Laserquellen oder mehr als drei Laserquellen erzeugt werden.
  • Der MEMS-Spiegel 12 ist ein mechanischer beweglicher Spiegel (d. h. ein MEMS-Mikrospiegel), der auf einem Halbleiterchip (nicht gezeigt) integriert ist. Der MEMS-Spiegel 12 gemäß diesem Ausführungsbeispiel ist dazu ausgebildet, sich um eine einzige Scanachse zu drehen, und es kann daher festgestellt werden, dass derselbe lediglich einen Freiheitsgrad für das Scannen aufweist. Im Unterschied zu 2D-MEMS-Spiegeln (2D-MEMS-Scanvorrichtungen) ist bei dem 1D-MEMS-Spiegel die einzige Scanachse an einem sich nicht drehenden Substrat befestigt und behält somit während der Oszillation des MEMS-Spiegels seine räumliche Orientierung bei. Aufgrund dieser einzigen Scan-Drehachse wird der MEMS-Spiegel 12 als 1D-MEMS-Spiegel oder 1D-MEMS-Scanner bezeichnet.
  • Der MEMS-Spiegel 12 ist dazu ausgebildet, „von Seite zu Seite“ um eine einzige Scanachse 13 zu schwingen, so dass das von dem MEMS-Spiegel 12 reflektierte Licht (d. h. die vertikale Lichtscanlinie) in einer horizontalen Scanrichtung hin und her schwingt. Ein Scanzeitraum oder einen Schwingzeitraum ist beispielsweise durch eine vollständige Schwingung von einem ersten Rand des Sichtfelds (z. B. der linken Seite) zu einem zweiten Rand des Sichtfelds (z B. der rechten Seite) und dann zurück zu dem ersten Rand definiert. Ein Spiegelzeitraum des MEMS-Spiegels 12 entspricht einem Scanzeitraum.
  • Somit wird das Sichtfeld in der horizontalen Richtung durch den vertikalen Lichtbalken gescannt, indem der Winkel des MEMS-Spiegels 12 auf seiner Scanachse 13 geändert wird. Beispielsweise kann der MEMS-Spiegel 12 dazu ausgebildet sein, zwischen +/- 15 Grad in einer horizontalen Scanrichtung zu schwingen, um das Licht über +/- 30 Grad (d.h. 60 Grad) hinweg zu lenken, was den horizontalen Scanbereich des Sichtfelds ausmacht. Somit kann das Sichtfeld Linie für Linie durch eine Drehung des MEMS-Spiegels 12 über seinen Bewegungsgrad hinweg gescannt werden. Eine derartige Sequenz über den Bewegungsgrad (z. B. von -15 Grad zu +15 Grad oder umgekehrt) hinweg wird als einzelner Scanvorgang bezeichnet. Somit werden für jeden Scanzeitraum zwei Scanvorgänge verwendet. Mehrere Scanvorgänge können dazu verwendet werden, durch eine Verarbeitungseinheit Entfernungs- und Tiefenabbildungen sowie 3D-Bilder zu erzeugen. Die horizontale Auflösung der Tiefenabbildungen und der Bilder hängt von der Größe der zwischen Scanvorgängen vorgenommenen inkrementellen Schritte im Hinblick auf einen Drehwinkel des MEMS-Spiegels 12 ab.
  • Obwohl der Sendespiegel im Kontext eines MEMS-Spiegels beschrieben worden ist, ist zu beachten, dass auch andere 1 D-Spiegel verwendet werden können. Zusätzlich ist der Drehgrad nicht auf +/- 15 Grad beschränkt, und das Sichtfeld kann je nach der Anwendung vergrößert oder verkleinert werden. Somit ist ein eindimensionaler Scanspiegel dazu konfiguriert, um eine einzige Scanachse herum zu schwingen und die Laserstrahlen in unterschiedlichen Richtungen in ein Sichtfeld zu lenken. Somit umfasst eine Sendetechnik ein Aussenden der Lichtstrahlen in das Sichtfeld von einem Sendespiegel aus, der um eine einzige Scanachse herum schwingt, so dass die Lichtstrahlen als vertikale Scanlinie SL in das Sichtfeld projiziert werden, die sich horizontal über das Sichtfeld bewegt, während der Sendespiegel um die einzige Scanachse herum schwingt. LIDAR-Systeme, die 1D-Scanspiegel verwenden, können eine entspanntere Schussrate der Beleuchtungseinheit 10 (d. h. des Senders) im Vergleich zu 2D-Scanspiegeln verwenden, die Laserpunkte zum Scannen des Sichtfeldes verwenden, was mehr Schüsse erfordert, damit der Sender ein Sichtfeld scannen kann. Außerdem sind LIDAR-Systeme, die 1D-Scanspiegel verwenden, im Vergleich zu 2D-Scanspiegeln üblicherweise robuster in Bezug auf Stöße und Erschütterungen und sind deshalb für Anwendungen in Automobilen gut geeignet.
  • Nachdem er auf ein oder mehrere Objekte aufgetroffen ist, wird der ausgesendete Balken vertikalen Lichts mittels Rückstreuung als reflektierte vertikale Linie zu dem LIDAR-Scansystem 100 zurückreflektiert, wo die zweite optische Komponente 14 (z. B. eine Linse oder ein Prisma) das reflektierte Licht empfängt. Die zweite optische Komponente 14 lenkt das reflektierte Licht auf das Photodetektor-Array 15, das das reflektierte Licht als Empfangslinie RL empfängt und dazu konfiguriert ist, elektrische Messsignale zu erzeugen. Die elektrischen Messsignale können zum Erzeugen einer 3D-Abbildung der Umgebung und/oder anderer Objektdaten auf der Basis des reflektierten Lichts (z. B. mittels TOF-Berechnungen und -Verarbeitung) verwendet werden.
  • Die Empfangslinie RL ist als vertikale Spalte von Licht gezeigt, die sich in einer Längsrichtung einer der Pixelspalten entlang dieser Pixelspalte erstreckt. Die Empfangslinie weist drei vertikale Regionen auf, die den vertikalen Regionen der in 1 gezeigten vertikalen Scanlinie SL entsprechen. Während sich die vertikale Scanlinie SL horizontal über das Sichtfeld hinweg bewegt, bewegt sich auch die vertikale Spalte von Licht RL, die auf das 2D- Photodetektor-Array 15 auftrifft, horizontal über das 2D-Photodetektor-Array 15 hinweg. Der reflektierte Lichtstrahl RL bewegt sich von einem ersten Rand des Photodetektor-Arrays 15 bis zu einem zweiten Rand des Photodetektor-Arrays 15, während sich die Empfangsrichtung des reflektierten Lichtstrahls RL ändert. Die Empfangsrichtung des reflektierten Lichtstrahls RL entspricht einer Senderichtung der Scanlinie SL.
  • In einem System, das ein 1D-Photodetektor-Array statt eines 2D-Photodetektor-Arrays verwendet, wird jeder Lichtstrahl (d. h. jede Empfangslinie RL) auf die Spalte des Detektorarrays projiziert.
  • Das Photodetektor-Array 15 kann ein beliebiges einer Reihe von Photodetektor-Typen sein; einschließlich Lawinenphotodioden (APD, avalanche photodiodes), Photozellen und/oder anderer Photodiodenbauelemente. Bildgebungssensoren wie etwa ladungsgekoppelte Bauelemente (CCD, charge-coupled devices) können die Photodetektoren sein. Bei den hierin bereitgestellten Beispielen ist das Photodetektor-Array 15 ein zweidimensionales (2D-)APD-Array, das ein Array aus APD-Pixeln aufweist. Wie oben angemerkt wurde, kann das Photodetektor-Array 15 ein 1D-Array sein, das eine einzige Spalte von Photodioden umfasst. Die Aktivierung der Photodioden kann mit Lichtpulsen, die durch die Beleuchtungseinheit 10 emittiert werden, synchronisiert werden.
  • Das Photodetektor-Array 15 empfängt reflektive Lichtpulse als die Empfangslinie RL und erzeugt ansprechend darauf elektrische Signale. Da die Sendezeit jedes Lichtpulses von der Beleuchtungseinheit 10 bekannt ist und da sich das Licht mit einer bekannten Geschwindigkeit bewegt, kann eine Flugzeitberechnung unter Verwendung der elektrischen Signale die Entfernung von Objekten von dem Photodetektor-Array 15 bestimmen. Eine Tiefenabbildung kann die Distanzinformation graphisch darstellen.
  • Bei einem Beispiel löst eine Mikrosteuerung für jede Distanzabtastung (distance sampling, = diskrete Distanzabtastung) einen Laserpuls aus jeder der Lichtquellen der Beleuchtungseinheit 10 aus und startet außerdem einen Zeitgeber in einem Zeit/Digital-Wandler(time-to-digital converter, TDC)-Integrierter-Schaltkreis (Integrated Circuit, IC). Der Laserpuls wird von der Senderoptik verteilt, von dem Zielfeld reflektiert und durch eine oder mehrere Empfangsphotodioden des Photodetektor-Arrays 1515 erfasst. Jede Empfangsphotodiode emittiert einen kurzen elektrischen Impuls, der durch die analoge Ausleseschaltung ausgelesen wird. Jedes Signal, das aus der analogen Ausleseschaltung ausgelesen wird, kann durch einen elektrischen Signalverstärker verstärkt werden.
  • Eine Komparator-IC erkennt den Puls und sendet ein digitales Signal an den TDC, um den Zeitgeber zu stoppen. Der TDC verwendet eine Taktfrequenz, um jede Messung zu kalibrieren. Der TDC sendet die seriellen Daten der Differenzzeit zwischen den digitalen Start- und Stoppsignalen an die Mikrosteuerung, die mögliche Fehlerlesungen herausfiltert, mehrere Zeitmessungen mittelt und die Entfernung zu dem Ziel an jener bestimmten Feldposition berechnet. Durch das Emittieren aufeinanderfolgender Lichtpulse in unterschiedliche Richtungen, die durch den MEMS-Spiegel festgelegt werden, kann eine Fläche (d.h. ein Sichtfeld) gescannt werden, ein dreidimensionales Bild kann erzeugt werden, und Objekte in der Fläche können detektiert werden.
  • Die Signalverarbeitungskette des Empfängers kann auch einen Analog/Digital-Wandler (ADC, analog-to-digital converter) für jede Photodiode oder für eine Gruppe von Photodioden umfassen. Der ADC ist dazu konfiguriert, die analogen elektrischen Signale von den Photodioden oder der Gruppe von Photodioden in ein digitales Signal umzuwandeln, das zur weiteren Datenverarbeitung verwendet wird.
  • Wenn ein Puls an Laserenergie als vertikale Scanlinie SL von der Oberfläche des MEMS-Spiegels 12 in das Sichtfeld eintritt, treten reflektierende Impulse auf, wenn das Laserlicht ein Objekt in dem Sichtfeld beleuchtet. Diese reflektierenden Impulse kommen als vertikale Spalte von Licht, die beispielsweise die Breite eines Photodetektorpixels und eine Länge aufweisen kann, die sich vertikal zumindest teilweise entlang einer Pixelspalte des Photodetektor-Arrays 15 in einer Längsrichtung erstreckt, an dem Photodetektor-Array 15 an. Das heißt, alle Photodetektorpixel in einer Pixelspalte oder ein Teil der Photodetektorpixel der Pixelspalte können bzw. kann den Lichtbalken empfangen. Beispielsweise können in einem Fall alle Lichtquellen der Beleuchtungseinheit 10 dazu verwendet werden, die Scanlinie SL/Empfangslinie RL zu erzeugen. In diesem Fall kann sich die Empfangslinie RL in der Längsrichtung entlang einer vollständigen Pixelspalte erstrecken. In einem anderen Fall wird eventuell lediglich eine Teilmenge der Lichtquellen verwendet, um die Scanlinie SL/Empfangslinie RL zu erzeugen. In diesem Fall erstreckt sich die Empfangslinie eventuell lediglich entlang eines Teils der Pixelspalte in der Längsrichtung.
  • In manchen Fällen können zwei oder mehr Pixelspalten Licht von einem selben Lichtbalken empfangen. Beispielsweise können zwei Pixelspalten Licht empfangen, wenn ein Teil des empfangenen Lichtbalkens auf einen Bereich zwischen zwei Photodetektorpixeln auftrifft. In diesem Fall können zwei Pixelspalten in der Breitenrichtung durch einen einzelnen Lichtbalken teilweise beleuchtet werden.
  • Falls andererseits eine teilweise vertikale Scanlinie SL durch die Beleuchtungseinheit 10 erzeugt wird, wie oben beschrieben wurde, dann wird eventuell lediglich eine teilweise Pixelspalte des Photodetektor-Arrays 15 in einer Längsrichtung beleuchtet.
  • Das Photodetektor-Array 15 ist dazu konfiguriert, Messsignale (elektrische Signale) zu erzeugen, die zum Erzeugen einer 3D-Abbildung der Umgebung auf der Basis des reflektierten Lichts (z. B. TOF-Berechnungen und -Verarbeitung) verwendet werden. Wie oben angegeben wurde, kann das Photodetektor-Array 15 beispielsweise ein 2D-Array von Photodioden oder eine sonstige Lichtdetektionskomponente sein, die in der Lage ist, Licht zu detektieren und zu messen und daraus elektrische Signale zu erzeugen.
  • Obwohl dies nicht gezeigt ist, kann das LIDAR-Scansystem 100 auch ein digitales Mikrospiegelarray (DMD, digital micromirror device, wörtlich: digitale Mikrospiegelvorrichtung) und eine sekundäre Optik (z. B. eine Linse, ein Totalreflexionsprisma (TIR-Prisma, TIR = total internal reflection) oder ein Strahlenteiler) umfassen, die dazu konfiguriert sind, das reflektierte Licht anfänglich durch die Hauptoptik 14 zu empfangen und das empfangene reflektierte Licht zu dem Photodetektor-Array 15 hin umzulenken. Beispielsweise würde das DMD zuerst den reflektierten Lichtpuls von der Hauptoptik empfangen und das empfangene reflektierte Licht durch die sekundäre Optik (z. B. eine Linse, ein Totalreflexionsprisma (TIR-Prisma, TIR = total internal reflection) oder ein Strahlenteiler) auf das Photodetektor-Array 15 umlenken. In diesem Fall würde das Photodetektor-Array 15 trotzdem noch eine vertikale Spalte von Licht empfangen, wie oben beschrieben wurde.
  • 2 ist ein schematisches Blockdiagramm des LIDAR-Scansystems 200 gemäß einem oder mehreren Ausführungsbeispielen. Insbesondere zeigt 2 zusätzliche Merkmale des LIDAR-Scansystems 200, das beispielhafte Verarbeitungs- und Steuersystemkomponenten wie beispielsweise einen MEMS-Treiber, eine Empfängerschaltung und eine Systemsteuerung umfasst.
  • Das LIDAR-Scansystem 200 umfasst eine Sendereinheit 21, die für einen Emitterpfad des Systems 200 verantwortlich ist, und eine Empfängereinheit 22, die für einen Empfängerpfad des Systems 200 verantwortlich ist. Das System umfasst ferner eine Systemsteuerung 23, die dazu konfiguriert ist, Komponenten der Sendereinheit 21 und der Empfängereinheit 22 zu steuern und Rohdaten von der Empfängereinheit 22 zu empfangen und an denselben eine Verarbeitung vorzunehmen (z. B. über eine Digitalsignalverarbeitung), um Objektdaten (z. B. Punktwolkendaten) zu erzeugen. Somit umfasst die Systemsteuerung 23 zumindest einen Prozessor und/oder eine Prozessorschaltungsanordnung (z. B. Komparatoren, TDCs, ADCs und Digitalsignalprozessoren (DSPs)) einer Signalverarbeitungskette zum Verarbeiten von Daten sowie eine Steuerschaltungsanordnung wie z. B. eine Mikrosteuerung, die dazu konfiguriert ist, Steuersignale zu erzeugen. Das LIDAR-Scansystem 200 kann auch einen Neigungssensor 26 umfassen.
  • Die Empfängereinheit 22 umfasst das Photodetektor-Array 15 sowie eine Empfängerschaltung 24. Die Empfängerschaltung 24 kann eine oder mehrere Schaltungsanordnungen oder Teilschaltungsanordnungen zum Empfangen und/oder Verarbeiten von Informationen umfassen. Die Empfängerschaltung 24 kann die analogen elektrischen Signale von den Photodetektoren des Photodetektor-Arrays 15 empfangen und die elektrischen Signale als rohe analoge Daten oder rohe digitale Daten an die Systemsteuerung 23 senden. Um die Rohdaten als digitale Daten auszusenden, kann die Empfängerschaltung 24 einen Analog/Digital-Wandler (ADC) und ein feldprogrammierbares Gatearray (FPGA, field programmable gate array) umfassen. Die Empfängerschaltung 24 kann auch Triggersteuersignale von der Systemsteuerung 23 empfangen, die eine Aktivierung eines oder mehrerer Photodetektoren auslösen. Die Empfängerschaltung 24 kann auch Verstärkungseinstellungssteuersignale zum Steuern der Verstärkung eines oder mehrerer Photodetektoren empfangen.
  • Die Sendereinheit 21 umfasst die Beleuchtungseinheit 10, den MEMS-Spiegel 12 und einen MEMS-Treiber 25, der dazu konfiguriert ist, den MEMS-Spiegel 12 anzutreiben. Insbesondere betätigt der MEMS-Treiber 25 den Spiegel und erfasst die Drehposition desselben und stellt der Systemsteuerung 23 Positionsinformationen (z. B. Neigungswinkel oder Grad der Drehung um die Drehachse) des Spiegels bereit. Auf der Basis dieser Positionsinformationen werden die Laserquellen der Beleuchtungseinheit 10 durch die Systemsteuerung 23 ausgelöst, und die Photodioden werden dahin gehend aktiviert, ein reflektiertes Lichtsignal zu erfassen und somit zu messen. Somit führt eine höhere Genauigkeit der Positionserfassung des MEMS-Spiegels zu einer genaueren und präziseren Steuerung anderer Komponenten des LIDAR-Systems.
  • Der Neigungssensor 26 ist dazu konfiguriert, einen Neigungswinkel eines Fahrzeugs relativ zu einer ersten Referenzrichtung (z. B. einer Schwerkraftrichtung) zu messen und der Steuerung 23 den Neigungswinkel als Rückmeldungsinformationen bereitzustellen. Beispielsweise kann der Neigungssensor 26 ein Neigungsmesser oder Inklinationsmesser sein, was ein Instrument ist, das zum Messen von Neigungswinkeln (oder Kippwinkeln), einer Anhebung oder Absenkung eines Objekts bezüglich der Richtung der Schwerkraft (z. B. bezüglich des Geozentrums der Erde) verwendet wird. Ein Neigungsmesser kann auch als Gradiometer, Kippungsanzeiger oder Steigungsmesser bezeichnet werden. Ferner wird einleuchten, dass die erste Referenzrichtung nicht auf eine Schwerkraftrichtung begrenzt ist, sondern eine beliebige Referenzrichtung sein kann, so dass ein Neigungswinkel relativ zu derselben gemessen werden kann.
  • Außerdem können Rückmeldungsinformationen einen Oberflächenwinkel einer erwarteten Fahroberfläche eines Fahrzeugs relativ zu einer zweiten Referenzrichtung umfassen. Es ist zu beachten, dass die erste Referenzrichtung und die zweite Referenzrichtung dieselbe Richtung oder unterschiedliche Richtungen sein können.
  • Die Steuerung 23 kann dazu konfiguriert sein, auf der Basis der Topographieinformationen den Oberflächenwinkel einer erwarteten Fahroberfläche des Fahrzeugs zu bestimmen. Beispielsweise kann zumindest ein Prozessor der Steuerung 23 dazu konfiguriert sein, auf der Basis der elektrischen Signale von dem Photodetektor 15 LIDAR-Daten zu empfangen, auf der Basis der LIDAR-Daten Topographieinformationen zu erzeugen und auf der Basis der Topographieinformationen den Oberflächenwinkel der erwarteten Fahroberfläche relativ zu der zweiten Referenzrichtung zu bestimmen.
  • Alternativ dazu kann die Steuerung 23 eine Speichervorrichtung umfassen, die dazu konfiguriert ist, die Topographieinformationen zu speichern, und in der die Topographieinformationen über einen vorbestimmten Zeitraum nach dem Herunterladen dauerhaft gespeichert oder vorübergehend gespeichert werden. Bei einem Beispiel können die Topographieinformationen eine Topographieabbildung sein, die zum Zeitpunkt der Herstellung gespeichert wurde, oder können eine Topographieabbildung sein, die von einer Infrastruktur heruntergeladen und periodisch aktualisiert wird. Topographieinformationen können je nach einer Region, in der sich das Fahrzeug befindet, heruntergeladen werden und können aktualisiert werden, wenn das Fahrzeug seine Positionen wechselt und sich durch verschiedene Regionen hindurch fortbewegt.
  • In diesem Fall kann zumindest ein Prozessor der Steuerung 23 dazu konfiguriert sein, die Topographieinformationen vom Speicher und Positionsinformationen des Fahrzeugs zu empfangen und auf der Basis der Topographieinformationen und der Positionsinformationen des Fahrzeugs den Oberflächenwinkel der erwarteten Fahroberfläche relativ zu der zweiten Referenzrichtung zu bestimmen. Die Positionsinformationen können beispielsweise Daten eines globalen Positionsbestimmungssystems (GPS-Daten) sein, die durch einen GPS-Empfänger bereitgestellt werden.
  • Wenn auf Rückmeldungsinformationen Bezug genommen wird, die zum Modifizieren des Sichtfeldes in einer vertikalen Richtung verwendet werden, können die Rückmeldungsinformationen den Neigungswinkel eines Fahrzeugs relativ zu einer ersten Referenzrichtung, den Oberflächenwinkel einer erwarteten Fahroberfläche eines Fahrzeugs relativ zu einer zweiten Referenzrichtung oder eine Kombination derselben umfassen.
  • Es ist ein Rahmen 27 vorgesehen, in dem der MEMS-Spiegel 12 angeordnet ist. Der MEMS-Spiegel 12 ist an zwei Drehpunkten auf gegenüberliegenden Seiten entlang der Scanachse 13 drehbar an dem Rahmen 27 befestigt.
  • Hierin bereitgestellte Ausführungsbeispiele sind auf Verfahren zum effizienten Steuern des Laserarrays (d. h. der Beleuchtungseinheit 10) des Scanners (d. h. des MEMS-Spiegels 12), des Detektorarrays 15 und der Datenerfassungs- und Datenverarbeitungseinheiten in Echtzeit auf der Basis einer interessierenden vertikalen Region in dem Sichtfeld gerichtet. Beispielsweise sind einige Ausführungsbeispiele darauf gerichtet, das Sichtfeld in einer vertikalen Richtung, die senkrecht zu der horizontalen Scanrichtung ist, auf der Basis von Rückmeldungsinformationen zu modifizieren. Andere Ausführungsbeispiele sind darauf gerichtet, Ressourcen in dem Signalpfad der Datenverarbeitungskette auf der Basis der in den vertikalen Regionen befindlichen interessierenden Region zeitlich zuzuweisen.
  • Beispielsweise ist ein erstes Verfahren darauf gerichtet, ein Laserarray und ein Photodetektor-Array durch Auswählen einer interessierenden Region in der vertikalen Richtung zu steuern. Ein zweites Verfahren ist darauf gerichtet, ein Betätigungsglied des Scanners derart zu steuern, dass das Sichtfeld auf der Basis einer interessierenden Region in der vertikalen Richtung modifiziert wird. Ein drittes Verfahren ist darauf gerichtet, Datenerfassungs- und -verarbeitungseinheiten zu steuern, die in verschiedenen Verarbeitungspfaden vorgesehen sind, bei denen verschiedene Signalpfade auf der Basis einer interessierenden Region in der vertikalen Richtung dynamisch aktiviert und deaktiviert werden. Jedes Verfahren kann verwendete Ressourcen verringern und/oder die Menge an erfassten oder verarbeiteten Daten verringern. Folglich kann die durch das LIDAR-System erforderliche Größe der Datenbreite verringert werden, und andere Ressourcen können freigesetzt werden. Dies führt zu einem effizienten Betrieb des LIDAR-Systems mit einer geringeren Laserbelichtung und den Kostenvorteilen, indem Anforderungen bezüglich des LIDAR-Designs verringert werden.
  • 3 veranschaulicht ein Beispiel eines scannenden LIDAR-Systems, bei dem sich eine interessierende Region auf der Basis zumindest entweder eines Neigungswinkels eines Fahrzeugs und/oder eines Oberflächenwinkels einer erwarteten Fahroberfläche gemäß einem oder mehreren Ausführungsbeispielen in einer vertikalen Richtung verändert. Hier ist ein Fahrzeug 1 in drei verschiedenen Winkelpositionen gezeigt: flach, nach oben geneigt und nach unten geneigt. Es wird einleuchten, dass die Begriffe „Laserkanäle“, „Laserquellen“ und „Laser“ hierin austauschbar verwendet werden können. In diesem Fall werden alle Laserkanäle (d. h. alle Laser in dem Laserarray) dazu verwendet, Laserstrahlen zu erzeugen, die in verschiedene vertikale Regionen des Sichtfeldes projiziert werden.
  • Beispielsweise werden bei dem in 1 gezeigten LIDAR-System 100 alle Laserkanäle dazu verwendet, die vertikale Scanlinie zu erzeugen, die in das Sichtfeld projiziert wird. Hier definiert die vertikale Scanlinie eine vertikale Abmessung des Sichtfeldes, wo jeder Laserkanal zu einer anderen vertikalen Region dieser vertikalen Abmessung beiträgt. Bei einem Flash-LIDAR-System können alle Laserkanäle dazu verwendet werden, die vertikale Abmessung des Sichtfeldes zu definieren, wobei jeder Laserkanal zu einer anderen vertikalen Region dieser vertikalen Abmessung beiträgt. Somit stehen alle Laserkanäle in dem vertikalen Sichtfeld zur Verfügung, um mit der Auf- und Abwärtsbewegung des Fahrzeugs zurechtzukommen.
  • Jedoch sind eventuell nur einige wenige Laserkanäle für das Erhalten von Felddaten von Interesse. Beispielsweise kann ein interessierendes Sichtfeld etwa 10 Grad in der vertikalen Richtung betragen, während die vollständige verfügbare vertikale Abmessung eines vollständigen Sichtfeldes etwa 25 Grad in der vertikalen Richtung betragen kann. Ein Verringern der vertikalen Abmessung des Sichtfeldes durch Anvisieren verschiedener gehaltener interessierender Regionen hilft dabei, LIDAR-Daten, die erfasst und verarbeitet werden sollen, zu verringern. Außerdem wird durch eine Auswahl dessen, welche Laser aktiviert werden sollen, nicht nur Leistung auf der Senderseite eingespart, sondern es können auch Leistung und Verarbeitungsressourcen auf der Empfängerseite eingespart werden.
  • Bei diesem Beispiel weist das Fahrzeug 1 ein LIDAR-System mit fünf Laserkanälen (d. h. fünf Laserquellen eines Laserarrays) auf, die Lichtstrahlen in verschiedenen vertikalen Winkeln in das Sichtfeld aussenden, um verschiedene vertikale Regionen der vertikalen Abmessung des Sichtfeldes zu definieren. Beispielsweise definiert bei dem in 1 gezeigten LIDAR-System jeder Lichtstrahl ein vertikales Segment einer vertikalen Scanlinie. Die vertikalen Segmente der vertikalen Scanlinie entsprechen jeweils einer anderen vertikalen Region, auf die der Laserstrahl projiziert wird. Die vertikale Scanlinie wird horizontal eingescannt, um den Bereich auf die oben beschriebene Weise zu scannen.
  • Wenn sich das Fahrzeug 1 in einem relativen flachen Winkel befindet und/oder die erwartete (d. h. anstehende) Fahroberfläche relativ flach ist, kann eine Mittel- oder Zentralregion in einem Sichtfeld von Interesse sein, um Fahrzeuge und andere Objekte, die direkt davor liegen, zu detektieren. Wenn das Fahrzeug 1 an einer Steigung bergauf gefahren wird, kann eine untere Region in dem Sichtfeld von Interesse sein, um Fahrzeuge und andere Objekte unten am Hügel zu detektieren. Wenn das Fahrzeug 1 an einem Abhang bergab gefahren wird, kann eine obere Region in dem Sichtfeld von Interesse sein, um Fahrzeuge und andere Objekte zu detektieren, die sich in Richtung des unteren Endes des Hügels oder jenseits des Hügels voraus befinden. Obwohl das LIDAR-System erfordert, dass das vollständige Laserarray verfügbar ist, um sich an eine Gesamtbandbreite vertikaler Winkel zu wenden (d. h. um sich an die gesamte vertikale Abmessung des Sichtfeldes zu wenden), ist eventuell nur ein Teil des Laserarrays auf eine spezifische Fahrsituation anwendbar.
  • Desgleichen entspricht ein vollständiges Detektorarray der Gesamtbandbreite an vertikalen Winkeln, während eventuell lediglich ein Teil der Photodetektoren des Photodetektor-Arrays auf eine spezifische Fahrsituation anwendbar ist.
  • 4A-4C zeigen ein flexibles LIDAR-System 400, das dazu konfiguriert ist, das Sichtfeld in einer vertikalen Richtung, die senkrecht zu einer horizontalen Scanrichtung ist, gemäß einem oder mehreren Ausführungsbeispielen zu modifizieren. Insbesondere ist das LIDAR-System 400 ähnlich dem in 1 gezeigten LIDAR-System, jedoch können ähnliche Konzepte auch auf andere Arten von LIDAR-Systemen anwendbar sein, beispielsweise auf Flash-LIDAR-Systeme, bei denen ein Laserarray dazu verwendet wird, Laserstrahlen in verschiedene vertikale Regionen zu projizieren. Hier kann die Beleuchtungseinheit 10 als Laserarray bezeichnet werden.
  • Wie aus den Figuren ersichtlich ist, stellt das Sichtfeld eine Scanebene mit einem Projektionszentrum dar. Die Steuerung 23, die das individuelle Abfeuern jedes Lasers steuert (siehe 2), kann dazu konfiguriert sein, das Sichtfeld in der vertikalen Richtung in Echtzeit zu modifizieren, indem sie das Projektionszentrum der Scanebene in der vertikalen Richtung auf der Basis von Rückmeldungsinformationen (d. h. des Neigungswinkels eines Fahrzeugs relativ zu einer ersten Referenzrichtung und/oder des Oberflächenwinkels einer erwarteten Fahroberfläche eines Fahrzeugs relativ zu einer zweiten Referenzrichtung) verschiebt. Insbesondere kann das Projektionszentrum je nachdem verschoben werden, welche Laser des Laserarrays 10 durch die Steuerung 23 aktiviert und welche Laser durch die Steuerung 23 deaktiviert werden. Da jeder Laser auf eine andere vertikale Region in dem Scanbereich projiziert wird, können in der vertikalen Richtung verschiedene interessierende Regionen anvisiert werden, indem verschiedene Teile des Laserarrays 10 selektiv aktiviert und deaktiviert werden (d. h. indem verschiedene Laserquellen des Laserarrays 10 selektiv aktiviert und deaktiviert werden).
  • 4A-4C veranschaulichen eine flexible Steuerung des Laserarrays 10, um mit einer variablen interessierenden Region umzugehen. Teile des Laserarrays 10 können für einen Scanvorgang komplett ausgeschaltet werden oder können für einen Scanvorgang im Vergleich zu anderen Laserkanälen bei einer niedrigeren Pulswiederholungsrate betrieben werden. In dem letzteren Fall ist die Steuerung 23 dazu konfiguriert, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie eine variable Pulswiederholungsrate eines ersten Teils der Laserquellen relativ zu einer variablen Pulswiederholungsrate eines zweiten Teils der Laserquellen auf der Basis der Rückmeldungsinformationen verringert. Diese Technik könnte dahin gehend nützlich sein, immer noch in der Lage zu sein, Topographieinformationen über die Umgebung (d. h. die Fahroberfläche) zu erhalten, auch wenn eine bestimmte vertikale Region von Interesse ist. Der Vorteil kann darin bestehen, dass die Datenmenge insgesamt verringert werden kann (komprimiertes Erfassen), ohne jedoch die Informationen in den nicht interessierenden Regionen (RONI - regions of no interest) vollständig zu opfern.
  • Somit werden manche Laser weniger eventuell häufig abgefeuert als andere, so dass diejenigen Laser, die außerhalb einer interessierenden vertikalen Region schießen, weniger häufig feuern als diejenigen Laser, die in Richtung der interessierenden vertikalen Region abfeuern. Ein derartiges Modulieren der Laser kann das Sichtfeld in der vertikalen Richtung für zumindest einen Teil eines Scanzeitraums modifizieren. Somit kann eine Länge eines Scanbereichs in der vertikalen Richtung während zumindest eines Teils eines Scanzeitraums verkürzt oder verschmälert werden. Beispielsweise kann die Länge der vertikalen Scanlinie in der vertikalen Abmessung zumindest für einen Teil eines Scanzeitraums verkürzt werden.
  • 4A zeigt eine Situation, in der für einen Scanvorgang die mittleren drei Laserquellen des Laserarrays 10 bei einer höheren Abtastrate (höhere Rate einer diskreten Abtastung) aktiviert oder betrieben werden, während die obere und die untere Laserquelle bei einer unteren Abtastrate deaktiviert oder betrieben werden. Folglich wird das Sichtfeld in der vertikalen Abmessung verkürzt oder verschmälert, um den Fokus auf eine mittlere Region des Scanbereichs zu richten. In diesem Fall bleibt das Projektionszentrum des Sichtfeldes dasselbe, so, als würden alle Laserquellen vollständig aktiviert.
  • 4B zeigt eine Situation, in der für einen Scanvorgang die unteren drei Laserquellen des Laserarrays 10 bei einer höheren Abtastrate aktiviert oder betrieben werden, während die oberen zwei Laserquellen bei einer unteren Abtastrate deaktiviert oder betrieben werden. Folglich wird das Sichtfeld in der vertikalen Abmessung verkürzt oder verschmälert, um den Fokus auf eine obere Region des Scanbereichs zu richten. In diesem Fall wird das Projektionszentrum des Sichtfeldes in der vertikalen Richtung von der Mitte nach oben verschoben.
  • 4C zeigt eine Situation, in der für einen Scanvorgang die oberen drei Laserquellen des Laserarrays 10 bei einer höheren Abtastrate aktiviert oder betrieben werden, während die unteren zwei Laserquellen bei einer unteren Abtastrate deaktiviert oder betrieben werden. Folglich wird das Sichtfeld in der vertikalen Abmessung verkürzt oder verschmälert, um den Fokus auf eine untere Region des Scanbereichs zu richten. In diesem Fall wird das Projektionszentrum des Sichtfeldes in der vertikalen Richtung von der Mitte aus nach unten verschoben.
  • Wenn das in 1 gezeigte LIDAR-System 100 betrachtet wird, umfasst die vertikale Scanlinie eine Mehrzahl vertikaler Segmente, von denen jedes einer anderen vertikalen Region des Scanbereichs entspricht. Ferner trägt jede der Laserquellen zu einem anderen Segment der Mehrzahl vertikaler Segmente der vertikalen Scanlinie bei. In diesem Fall ist die Steuerung 23 dazu konfiguriert, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie auf der Basis der Rückmeldungsinformationen einen ersten Teil der Laserquellen aktiviert und einen zweiten Teil der Laserquellen deaktiviert, um eine Länge der vertikalen Scanlinie in der vertikalen Richtung zu verkürzen. Durch Verschieben des Fokus auf andere interessierende Regionen in einem schmaleren vertikalen Band wird das Sichtfeld in der vertikalen Richtung modifiziert.
  • Es wird einleuchten, dass Aktivierungs-/Deaktivierungsschemata möglich sind und dass unterschiedliche Gruppierungen der Laserquellen verwendet werden können, um unterschiedliche Verschiebungen des Sichtfeldes in der vertikalen Richtung zu erzielen, und dass keine Beschränkung auf die in 4A-4C veranschaulichten Gruppierungen besteht. In jedem Fall können Photodetektoren des Detektorarrays 15 mit einer entsprechenden Laserquelle des Laserarrays 10 gepaart werden. Die Photodetektoren können in Synchronisation mit ihrer entsprechenden Laserquelle selektiv aktiviert/deaktiviert werden. Dadurch kann die Menge an Sensordaten, die erfasst werden und der Signalverarbeitungskette des LIDAR-Systems bereitgestellt werden, verringert werden.
  • Außerdem ist der Neigungssensor 26 dazu konfiguriert, einen Neigungswinkel eines Fahrzeugs relativ zu einer ersten Referenzrichtung zu messen, und die Rückmeldungsinformationen umfassen den Neigungswinkel des Fahrzeugs. Die vertikalen Regionen in dem Scanbereich umfassen eine untere Region, eine mittlere Region und eine obere Region, die je nach entsprechenden der Laserquellen aktiviert und deaktiviert werden. Somit ist die Steuerung 23 dazu konfiguriert, unter einer Bedingung, dass der Neigungswinkel einem Anstiegswinkel entspricht, der eine erste Schwelle überschreitet, zumindest die untere Region zu aktivieren und die obere Region zu deaktivieren, unter einer Bedingung, dass der Neigungswinkel einem Abfallwinkel entspricht, der eine zweite Schwelle überschreitet, zumindest die obere Region zu aktivieren und die untere Region zu deaktivieren, und unter einer Bedingung, dass der Neigungswinkel zwischen der ersten Schwelle und der zweiten Schwelle liegt, zumindest die mittlere Region zu aktivieren und zumindest einen Teil der unteren Region und zumindest einen Teil der oberen Region zu deaktivieren.
  • Zusätzlich oder alternativ dazu umfassen die Rückmeldungsinformationen einen Oberflächenwinkel einer erwarteten Fahroberfläche relativ zu einer zweiten Referenzrichtung, und die Steuerung 23 ist dazu konfiguriert, unter einer Bedingung, dass der Oberflächenwinkel einem Anstiegswinkel entspricht, der eine dritte Schwelle überschreitet, zumindest die untere Region zu aktivieren und die obere Region zu deaktivieren, unter einer Bedingung, dass der Oberflächenwinkel einem Abfallwinkel entspricht, der eine vierte Schwelle überschreitet, zumindest die obere Region zu aktivieren und die untere Region zu deaktivieren, und unter einer Bedingung, dass der Oberflächenwinkel zwischen der dritten Schwelle und der vierten Schwelle liegt, zumindest die mittlere Region zu aktivieren und zumindest einen Teil der unteren Region und zumindest einen Teil der oberen Region zu deaktivieren. Hier können die erste und die dritte Schwelle gleich oder unterschiedlich sein, und die zweite und die vierte Schwelle können gleich oder unterschiedlich sein.
  • Die Steuerung 23 kann den Neigungswinkel und den Oberflächenwinkel getrennt oder in Kombination dazu verwenden, das Sichtfeld in der vertikalen Richtung zu modifizieren. Es wird einleuchten, dass das Sichtfeld je nach den Rückmeldungsinformationen kontinuierlich und auf dynamischer und Echtzeit-Basis in der vertikalen Richtung modifiziert werden kann. Somit kann die Reihenfolge des Fortschreitens des Aktivierens und Deaktivierens bestimmter Laserquellen oder Gruppen von benachbarten Laserquellen in der vertikalen Richtung aufeinanderfolgend sein, oder es kann eine Diskontinuität bezüglich des Fortschreitens in der vertikalen Richtung vorliegen. Beispielsweise kann eine Aktivierung von einer unteren Gruppe bis zu einer mittleren Gruppe bis zu einer oberen Gruppe von Lichtquellen erfolgen oder umgekehrt. Alternativ dazu kann eine Aktivierung von einer unteren Gruppe zu einer oberen Gruppe oder umgekehrt erfolgen und kann im Fall einer plötzlichen Verschiebung des Neigungswinkels und/oder Oberflächenwinkels eine mittlere Gruppe überspringen.
  • 5 zeigt ein flexibles LIDAR-System 500, das dazu konfiguriert ist, das Sichtfeld in einer vertikalen Richtung, die zu einer horizontalen Scanrichtung senkrecht ist, gemäß einem oder mehreren Ausführungsbeispielen zu modifizieren. Das LIDAR-System 500 ist ähnlich dem in 4A-4C gezeigten LIDAR-System 400, abgesehen davon, dass ein Betätigungsglied 58 mit dem Rahmen 27 gekoppelt ist, in dem der MEMS-Spiegel 12 angeordnet ist.
  • Das Betätigungsglied 58 ist dazu konfiguriert, den Rahmen 27, und insbesondere den MEMS-Spiegel 12, um eine Neigungsachse zu drehen, die sich senkrecht zu der einzelnen Scanachse 13 erstreckt, wo eine Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse eine vertikale Position des Projektionszentrums des Sichtfeldes definiert. Die Steuerung 23 ist dazu konfiguriert, das Betätigungsglied 58 dahin gehend zu steuern, dadurch den vertikalen Winkel, in dem die Laserstrahlen von dem LIDAR-System 500 projiziert werden, zu steuern. Auf diese Weise wird ein ganzer Abschnitt des Sichtfeldes gemäß der Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse verschoben. Folglich modifiziert die Steuerung 23 auf der Basis der Rückmeldungsinformationen das Sichtfeld in Echtzeit in der vertikalen Richtung (d. h. nach oben oder nach unten), indem sie die Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse modifiziert, um das Projektionszentrum der Scanebene in der vertikalen Richtung zu verschieben.
  • Der Neigungssensor 26 ist dazu konfiguriert, den Neigungswinkel eines Fahrzeugs relativ zu einer ersten Referenzrichtung zu messen, und die Rückmeldungsinformationen umfassen den Neigungswinkel des Fahrzeugs. Die Steuerung 23 ist dazu konfiguriert, die Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse über das Betätigungsglied 58 dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Neigungswinkel einem Anstiegswinkel entspricht, der eine erste Schwelle überschreitet, hin zu einer unteren vertikalen Region zu verschieben, die Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse über das Betätigungsglied 58 dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Neigungswinkel einem Abfallwinkel entspricht, der eine zweite Schwelle überschreitet, hin zu einer oberen vertikalen Region zu verschieben, und die Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse über das Betätigungsglied 58 dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Neigungswinkel zwischen der ersten Schwelle und der zweiten Schwelle liegt, hin zu einer mittleren vertikalen Region zu verschieben.
  • Zusätzlich oder alternativ dazu umfassen die Rückmeldungsinformationen einen Oberflächenwinkel einer erwarteten Fahroberfläche relativ zu einer zweiten Referenzrichtung, und die Steuerung 23 ist dazu konfiguriert, die Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse über das Betätigungsglied 58 dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Oberflächenwinkel einem Anstiegswinkel entspricht, der eine dritte Schwelle überschreitet, hin zu einer unteren vertikalen Region zu verschieben, die Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse über das Betätigungsglied 58 dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Oberflächenwinkel einem Abfallwinkel entspricht, der eine vierte Schwelle überschreitet, hin zu einer oberen vertikalen Region zu verschieben, und die Ausrichtung des MEMS-Spiegels 12 um die Neigungsachse über das Betätigungsglied 58 dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Oberflächenwinkel zwischen der dritten Schwelle und der vierten Schwelle liegt, hin zu einer mittleren vertikalen Region zu verschieben. Hier können die erste und die dritte Schwelle gleich oder unterschiedlich sein, und die zweite und die vierte Schwelle können gleich oder unterschiedlich sein.
  • Die Steuerung 23 kann den Neigungswinkel und den Oberflächenwinkel getrennt oder in Kombination dazu verwenden, das Sichtfeld in der vertikalen Richtung zu modifizieren. Es wird einleuchten, dass der Neigungswinkel des Spiegels je nach den Rückmeldungsinformationen kontinuierlich und auf dynamischer und Echtzeit-Basis modifiziert werden kann. Somit kann der Neigungswinkel des Spiegels über eine Bandbreite von Neigungswinkeln hinweg kontinuierlich variieren, während sich die Rückmeldungsinformationen ändern.
  • Alternativ dazu, statt lediglich den MEMS-Spiegel 12 um die Neigungsachse zu neigen, ist es möglich, den gesamten Sender (z. B. die Sendereinheit 21), einschließlich des Laserarrays 10, der Senderoptik 11 und des MEMS-Spiegels 12, durch Anwenden eines ähnlichen Prinzips um eine Neigungsachse zu neigen.
  • Ferner wird angemerkt, dass das Laserarray 10, wie in 5 gezeigt ist, im Vergleich zu dem in 4A-4C gezeigten Laserarray eine geringere Anzahl von Laserquellen umfassen kann, im Vergleich zu dem in 4A-4C gezeigten Laserarray jedoch auch dieselbe oder eine größere Anzahl von Laserquellen umfassen kann. Jedoch kann eine geringere Anzahl von Laserquellen (d. h. eine geringere Anzahl von Kanälen) ermöglichen, dass eine schmälere interessierende Region anvisiert wird, während das Sichtfeld in der vertikalen Richtung modifiziert wird.
  • Außerdem ist der Detektorkanal (d. h. die Anzahl von Photodetektoren in einer Spalte) größer als der Laserstrahlkanal (d. h. die Anzahl von Laserquellen), und er wird elektrisch gesteuert. Das reflektierte Licht kann auf verschiedene Regionen des Photodetektor-Arrays 15 projiziert werden, während die Ausrichtung des Senders um die Neigungsachse herum geändert wird. Beispielsweise kann das reflektierte Licht entlang einer Spalte des Photodetektor-Arrays 15 nach oben oder nach unten verschoben werden, während das Sichtfeld in der vertikalen Richtung modifiziert wird, so dass unterschiedliche Photodetektoren in der Spalte das reflektierte Licht empfangen. Somit empfängt das Photodetektor-Array 15 das reflektierte Signal auf der Basis der Situation und des vertikalen Winkels des MEMS-Spiegels 12.
  • Dieses Schema kann die Menge an Sensordaten, die seitens des Photodetektor-Arrays 15 erfasst und der Signalverarbeitungskette des LIDAR-Systems bereitgestellt werden, verringern. Dieses Schema kann auch mit dem unter Bezugnahme auf 4A-4C beschriebenen Schema kombiniert werden, so dass weitere diskrete vertikale interessierende Regionen anvisiert werden.
  • Außerdem kann die Hauptoptik 14 oder der LIDAR-Empfänger 22 selbst, der die Hauptoptik 14 und das Photodetektor-Array 15 umfasst, dazu konfiguriert sein, sich um eine Neigungsachse zu neigen, um reflektiertes Licht von einer vertikalen interessierenden Region zu empfangen. Somit kann die Steuerung 23 dazu konfiguriert sein, die Ausrichtung der Hauptoptik 14 oder des LIDAR-Empfängers 22 um die Neigungsachse über ein (nicht veranschaulichtes) Betätigungsglied dynamisch zu modifizieren, wobei auf der Basis der Rückmeldungsinformationen ein anderer Neigungswinkel gewählt wird.
  • 6 ist eine signalperspektivische Ansicht eines LIDAR-Systems 600 gemäß einem oder mehreren Ausführungsbeispielen. Das LIDAR-System 600 kann bei einem beliebigen der hierin beschriebenen Ausführungsbeispiele implementiert sein. Das LIDAR-System 600 umfasst ein Laserarray 10, das eine Mehrzahl von Laserkanälen (d. h. Laserquellen) umfasst, ein Photodetektor-Array 15, das eine Mehrzahl von Detektorkanälen (d. h. Photodetektoren) umfasst, und eine Empfängerschaltung 24, wie zuvor erörtert wurde. Im Fall von Direktdetektions-TOF-LIDAR erzeugt eine Lasersteuereinheit 61 einen Puls mit einer gegebenen Zeitsteuerung und bringt das Laserarray 10 zum Aufblitzen. Das ausgesendete Licht wird seitens eines Zielobjekts mittels Rückstreuung reflektiert, und das reflektierte Licht wird durch das Detektorarray 15 detektiert und mittels Auslesens in elektrische Signale umgewandelt. Mittels Auslesens verarbeiten Datenerfassungs und -verarbeitungseinheiten das Signal zu Punktwolkendaten und transferieren die Punktwolkendaten an eine oder mehrere Fahrzeugsteuereinheiten wie beispielsweise automatisierte Fahrerassistenzsysteme (ADAS - automated driver assistance systems).
  • Die Empfängerschaltung 24 weist eine Mehrzahl von Eingangssignalkanälen auf, von denen jeder dazu konfiguriert ist, elektrische Signale von einem entsprechenden der Detektorkanäle zu empfangen. Die Empfängerschaltung 24 weist ferner eine Mehrzahl von Ausgangssignalkanälen oder analogen Auslesekanälen auf, von denen jeder dazu konfiguriert ist, analoge Sensordaten auszulesen und die analogen Sensordaten anderen Signalverarbeitungskomponenten bereitzustellen, die sich in der Verarbeitungsrichtung nach der Signalverarbeitungskette befinden. Mit anderen Worten ist die Empfängerschaltung 24 dazu konfiguriert, die elektrischen Signale von dem Photodetektor-Array 15 zu erfassen und die elektrischen Signale als analoge Sensordaten an andere Signalverarbeitungskomponenten weiterzuleiten.
  • Das LIDAR-System 600 umfasst ferner Steuerungs-, Erfassungs- und Verarbeitungskomponenten, die in die Steuerung 23 integriert sein können. Insbesondere kann das LIDAR-System 600 eine Lasersteuereinheit 61, eine TDC/ADC/Vergleichseinheit 62, eine Verarbeitungs- und Transfereinheit 63 und einen Ressourcen-Scheduler (ein Ressourcensteuerprogramm) 64 umfassen.
  • Die Lasersteuereinheit 61 ist dazu konfiguriert, das Abfeuern der Laser des Laserarrays 10 auszulösen.
  • Die TDC/ADC/Vergleichseinheit 62 ist dazu konfiguriert, die analogen Signale von der Empfängerschaltung 64 zu digitalisieren, Flugzeitinformationen zu erzeugen und die digitalen Signale und die Flugzeitinformationen über eine Mehrzahl von Signalkanälen auszugeben.
  • Die Verarbeitungs- und Transfereinheit 63 ist dazu konfiguriert, die digitalen Signale und die Flugzeitinformationen über die Mehrzahl von Signalkanälen zu empfangen, Punktwolkendaten und andere LIDAR-Daten zu erzeugen und die LIDAR-Daten über eine Mehrzahl von Signalkanälen an eine oder mehrere Fahrzeugsteuereinheiten auszugeben. Ferner kann die Verarbeitungs- und Transfereinheit 63 die Punktwolkendaten als Topographieinformationen nutzen, wie oben erörtert wurde, die ferner seitens der Steuerung 23 dazu verwendet werden können, das Sichtfeld in der vertikalen Richtung zu modifizieren.
  • Der Ressourcen-Scheduler 64 ist dazu konfiguriert, die Detektorsignale des Detektors 15 zeitlich den Datenerfassungs- und Datenverarbeitungseinheiten 24, 62 und 63 zuzuweisen. Im Einzelnen ist der Ressourcen-Scheduler 64 dazu konfiguriert, eine Teilmenge der Laserstrahlkanäle und/oder eine Teilmenge von Detektorkanälen, die aktiviert werden sollen, auszuwählen, während die verbleibenden, nicht ausgewählten Kanäle deaktiviert werden. Jeder Detektorkanal kann einen Photodetektor, eine Zeile von Photodetektoren oder eine Gruppe benachbarter Zeilen von Photodetektoren des Detektors 15 umfassen. Somit kann die Deaktivierung eines Detektorkanals eine Deaktivierung eines entsprechenden Photodetektors, einer Zeile von Photodetektoren oder einer Gruppe benachbarter Zeilen von Photodetektoren umfassen. Die Anzahl von Detektorkanälen kann größer sein als die Anzahl von Laserstrahlkanälen und kann auf der Basis der interessierenden Region, die auf der Basis der Rückmeldungsinformationen durch die Steuerung 23 bestimmt wird, elektrisch gesteuert werden. Außerdem kann der Ressourcen-Scheduler 64 auf der Basis der Rückmeldungsinformationen in Echtzeit dynamisch neu adressieren, welche Detektorkanäle mit der Empfängerschaltung 24 (d. h. mit der Ausleseschaltung) und somit mit den Auslesekanälen verbunden sind.
  • Diese Entscheidungen seitens des Ressourcen-Schedulers 64 können auf einer interessierenden Region beruhen, die anvisiert wird, während das Sichtfeld in der vertikalen Richtung auf der Basis der Rückmeldungsinformationen modifiziert wird. Insbesondere adressiert der Ressourcen-Scheduler 64 die elektrischen Signale von den Detektorkanälen auf der Basis dessen neu, ob die Signale einer interessierenden Region entsprechen oder nicht, und leitet diese entsprechend um, so dass die Datenerfassungs- und Datenverarbeitungseinheiten 24, 62 und 63 eventuell lediglich diejenigen Signale verarbeiten, die der interessierenden Region entsprechen.
  • Demgemäß umfasst die Signalverarbeitungskette eine Mehrzahl von Verarbeitungskanälen, die dazu konfiguriert sind, die elektrischen Signale zu verarbeiten, und der Ressourcen-Scheduler 64 ist dazu konfiguriert, relativ zu einer Position des Projektionszentrums in dem Sichtfeld in der vertikalen Richtung, wodurch die interessierende Region definiert wird, einen ersten Teil der Mehrzahl von Verarbeitungskanälen zu aktivieren und einen zweiten Teil der Mehrzahl von Verarbeitungskanälen zu deaktivieren. Auf diese Weise steuert der Ressourcen-Scheduler 64 direkt die Signalpfade von dem Detektor, den Datenerfassungseinheiten und den Datenverarbeitungseinheiten. Der Ressourcen-Scheduler 64 entscheidet, welche Teilmenge der Signale an die nächste Stufe geliefert wird.
  • Falls beispielsweise ein Fahrzeug auf einer flachen Fahrregion fährt, dann können die Detektorsignale an den mittleren Regionen an die Datenerfassungseinheit (DAQ-Einheit, DAQ = data acquisition) (d. h. die Empfängerschaltung 24) geliefert werden, während die Detektorsignale, die den obersten und untersten Regionen entsprechen, bei der Lieferung an die DAQ-Einheit unterbrochen werden. Wenn das Fahrzeug bergauf fährt, können Detektorsignale an den unteren Regionen und möglicherweise manchen mittleren Regionen an die DAQ geliefert werden, während die Detektorsignale, die den oberen Regionen und möglicherweise manchen mittleren Regionen entsprechen, bei der Lieferung an die DAQ-Einheit unterbrochen werden. Wenn das Fahrzeug bergab fährt, können Detektorsignale an den oberen Regionen und möglicherweise manchen mittleren Regionen an die DAQ geliefert werden, während die Detektorsignale, die den unteren Regionen und möglicherweise manchen mittleren Regionen entsprechen, bei der Lieferung an die DAQ-Einheit unterbrochen werden.
  • Dies erhöht die Nutzung und Flexibilität der Datenerfassungs- und -verarbeitungskanäle und kann die Datenerfassungs- und verarbeitungskapazität für große Detektorsignale erhöhen. Dies kann auch den Umfang an Verarbeitungsschaltungsanordnung und Verarbeitungsbandbreite, die benötigt wird, um LIDAR-Daten zu verarbeiten und zu erzeugen, verringern. Zum Zweck einer weiteren Flexibilität kann der Scheduler 64 die Signalkanäle zwischen jeder Entität separat steuern, so dass die Signalverarbeitungskette vollständig kundenspezifisch gestaltet werden kann. Der Scheduler 64 ist ferner dazu konfiguriert, die Zuweisung von Ressourcen bei Empfang in Verbindung mit der Senderseite (d. h. in Verbindung mit der Modifikation des Sichtfeldes in der vertikalen Richtung seitens des Senders) zu koordinieren. Beispielsweise können die Aktivierung und Deaktivierung spezifischer Laserkanäle, Detektorkanäle und Signalverarbeitungskanäle in einer beliebigen Anzahl von Kombinationen synchronisiert oder koordiniert werden. Die Aktivierung und Deaktivierung spezifischer Elemente können auch mit dem Neigungswinkel des MEMS-Spiegels 12 oder des LIDAR-Senders koordiniert werden. Somit können die in Verbindung mit 6 beschriebenen Prinzipien mit beliebigen der hierin offenbarten Ausführungsbeispiele kombiniert werden.
  • 7 zeigt eine perspektivische Ansicht eines LIDAR-Senders 700, der in einem Flash-LIDAR-System gemäß einem oder mehreren Ausführungsbeispielen implementiert ist. Der LIDAR-Sender 700 umfasst ein Laserarray 10 und eine Senderoptik 11. Das Laserarray 10 umfasst Laserquellen, die in einer vertikalen Spalte angeordnet sind. Die Senderoptik 11 ist eine Streulinse, die dazu konfiguriert ist, Laserstrahlen von jeder Laserquelle zu empfangen und breite horizontale und schmale vertikale Strahlen auszusenden. Insbesondere können die Laserquellen des Laserarrays 10 hinter einer Streulinse 11 vertikal miteinander ausgerichtet sein. Jedes emittierte Lichtsignal von einer Laserquelle des Laserarrays wird durch eine Streulinse ausgesendet, um einen breiten horizontalen und schmalen vertikalen Strahl zu bilden. Somit projiziert jede Laserquelle einen Laserstrahl in eine andere vertikale Region in dem Sichtfeld. Objekte reflektieren einen Teil des ausgesendeten Lichts zurück zu dem Empfänger. Dieses Licht wird durch eine Empfängerlinse eingefangen und erneut auf ein Photodetektor-Array gelenkt, wie unter Bezugnahme auf 1 auf ähnliche Weise beschrieben wurde. Somit fängt jedes der Pixel des Photodetektors ein gesondertes Segment des zurückgesendeten Lichtsignals ein. Die zurückgesendeten Signale werden durch die Signalverarbeitungskette digitalisiert und verarbeitet.
  • Verschiedene vertikale Regionen zum Scannen können seitens einer Steuerung (z. B. der Steuerung 23) auf der Basis eines selektiven Aktivierens verschiedener der Laserquellen auf der Basis von Rückmeldungsinformationen ausgewählt werden, indem ähnliche Prinzipien angewendet werden, die oben unter Bezugnahme auf 4A-4C beschrieben wurden. Beispielsweise können Laserquellen, die Laserstrahlen in eine obere Region des Sichtfeldes projizieren, während eines Scanvorgangs aktiviert werden, während Laserquellen, die Laserstrahlen in eine untere Region des Sichtfeldes projizieren, während des Scanvorgangs deaktiviert werden können, und umgekehrt. Außerdem können Laserquellen, die Laserstrahlen in eine mittlere Region des Sichtfeldes projizieren, aktiviert werden, während Laserquellen, die in zumindest einen Teil der oberen Region des Sichtfeldes projizieren, deaktiviert werden können und während Laserquellen, die in zumindest einen Teil der unteren Region des Sichtfeldes projizieren, deaktiviert werden können. Somit kann die Steuerung 23 das Sichtfeld auf der Basis der Rückmeldungsinformationen in einer vertikalen Richtung modifizieren, indem sie verschiedene Teile des Laserarrays, die verschiedenen vertikalen interessierenden Regionen entsprechen, aktiviert und deaktiviert.
  • Ferner kann der Sender 700 mit einem Betätigungsglied gekoppelt sein, ganz ähnlich dem in 5 beschriebenen Sender. Das Betätigungsglied kann dazu konfiguriert sein, den gesamten Sender 700, der das Laserarray 10 umfasst, und die Senderoptik 11 um eine Neigungsachse zu drehen, die sich senkrecht zu der vertikalen Richtung erstreckt, wobei eine Ausrichtung des Senders 700 um die Neigungsachse eine vertikale Position des Projektionszentrums des Sichtfeldes definiert. Die Steuerung 23 ist dazu konfiguriert, das Betätigungsglied dahin gehend zu steuern, dadurch den vertikalen Winkel zu steuern, in dem die Laserstrahlen von dem Sender 700 projiziert werden. Auf diese Weise wird ein ganzer Abschnitt des Sichtfeldes gemäß der Ausrichtung des Senders um die Neigungsachse verschoben. Folglich modifiziert die Steuerung 23 auf der Basis der Rückmeldungsinformationen das Sichtfeld in Echtzeit in der vertikalen Richtung (d. h. nach oben oder nach unten), indem sie den Sender um die Neigungsachse modifiziert, um das Projektionszentrum der Scanebene in der vertikalen Richtung zu verschieben. Dieses Schema kann auch alternativ zu oder in Kombination mit einem selektiven Aktivieren verschiedener der Laserquellen auf der Basis von Rückmeldungsinformationen verwendet werden.
  • Außerdem kann die Hauptoptik 14 oder der LIDAR-Empfänger 22 selbst, der die Hauptoptik 14 und das Photodetektor-Array 15 umfasst, dazu konfiguriert sein, sich um eine Neigungsachse zu neigen, um reflektiertes Licht von einer vertikalen interessierenden Region zu empfangen. Somit kann die Steuerung 23 dazu konfiguriert sein, die Ausrichtung der Hauptoptik 14 oder des LIDAR-Empfängers 22 um die Neigungsachse über ein (nicht veranschaulichtes) Betätigungsglied dynamisch zu modifizieren, wobei auf der Basis der Rückmeldungsinformationen ein anderer Neigungswinkel gewählt wird.
  • Obwohl sich hierin beschriebene Ausführungsbeispiele auf ein MEMS-Bauelement beziehen, ist zu beachten, dass andere Implementierungen optische Bauelemente außer MEMS-Spiegel-Bauelementen umfassen können. Obwohl einige Aspekte im Zusammenhang mit einer Vorrichtung beschrieben worden sind, ist es offenkundig, dass diese Aspekte ebenfalls eine Beschreibung des entsprechenden Verfahrens darstellen, wobei ein Block oder eine Vorrichtung einem Verfahrensschritt oder einem Merkmal eines Verfahrensschrittes entsprechen. Analog dazu stellen die im Zusammenhang mit einem Verfahrensschritt beschriebenen Aspekte ebenfalls eine Beschreibung eines entsprechenden Blocks oder einer Einzelheit oder eines Merkmals einer entsprechenden Vorrichtung dar. Einige oder alle der Verfahrensschritte können durch (oder durch Anwendung) ein/einer Hardware-Vorrichtung, wie beispielsweise eines Mikroprozessors, eines programmierbaren Computers oder einer elektronischen Schaltung, ausgeführt werden. Bei einigen Ausführungsbeispielen können einer oder mehrere der Verfahrensschritte durch eine solche Vorrichtung ausgeführt werden.
  • Je nach gewissen Implementierungserfordernissen können Ausführungsbeispiele der Erfindung in Hardware oder in Software implementiert sein. Die Implementierung kann unter Anwendung eines digitalen Speichermediums, beispielsweise einer Floppy-Disk, einer DVD, einer Blu-Ray, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM, oder eines FLASH-Speichers, ausgeführt werden, das elektronisch lesbare Steuersignale darauf gespeichert hat, die mit einem programmierbaren Computersystem derart zusammenarbeiten (oder zu einer Zusammenarbeit fähig sind), dass das entsprechende Verfahren ausgeführt wird. Somit kann das digitale Speichermedium computerlesbar sein.
  • Befehle können durch einen oder mehrere Prozessoren ausgeführt werden, wie z.B. durch einen oder mehrere Zentralprozessoren (CPU), digitale Signalprozessoren (DSP), allgemeine Mikroprozessoren, anwendungsspezifische integrierte Schaltungen (ASIC), feldprogrammierbare logische Arrays (FPGA) oder andere gleichwertige integrierte oder diskrete logische Schaltungen. Dementsprechend kann sich die Bezeichnung „Prozessor“, wie hierin verwendet, auf eine beliebige der oben angeführten Strukturen oder jede andere Struktur beziehen, die zur Ausführung der hierin beschriebenen Verfahren geeignet ist. Zusätzlich dazu kann die hierin beschriebene Funktionalität in einigen Aspekten mit dedizierten Hardware- und/oder Softwaremodulen bereitgestellt sein. Die Verfahren könnten auch vollständig in einer oder mehreren Schaltungen oder logischen Elementen ausgeführt werden.
  • Die obigen Ausführungsbeispiele dienen lediglich der Veranschaulichung der Prinzipien der vorliegenden Erfindung. Es wird darauf hingewiesen, dass Modifizierungen und Variationen der hierin beschriebenen Anordnungen und Einzelheiten für andere Fachleute offenkundig sein werden. Eine Einschränkung ist daher lediglich durch den Schutzumfang der folgenden Patentansprüche, und nicht durch die mittels Beschreibung und Erläuterung der angeführten Ausführungsbeispiele dargelegten spezifischen Details beabsichtigt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/783720 [0001]

Claims (23)

  1. Ein Lichtdetektions- und Entfernungsmesssystem (LIDAR-System), das in einem Fahrzeug integriert ist, wobei das LIDAR-System folgende Merkmale aufweist: einen LIDAR-Sender, der dazu konfiguriert ist, Laserstrahlen in ein Sichtfeld auszusenden, wobei das Sichtfeld ein Projektionszentrum aufweist, wobei der LIDAR-Sender zumindest einen Laser aufweist, um die in das Sichtfeld ausgesendeten Laserstrahlen zu erzeugen; einen LIDAR-Empfänger, der zumindest einen Photodetektor aufweist, der dazu konfiguriert ist, einen reflektierten Lichtstrahl zu empfangen und auf der Basis des reflektierten Lichtstrahls elektrische Signale zu erzeugen; und eine Steuerung, die dazu konfiguriert ist, Rückmeldungsinformationen zu empfangen und auf der Basis der Rückmeldungsinformationen ein Projektionszentrum des Sichtfeldes in einer vertikalen Richtung zu modifizieren.
  2. Das LIDAR-System gemäß Anspruch 1, bei dem die Rückmeldungsinformationen einen Neigungswinkel des Fahrzeugs relativ zu einer ersten Referenzrichtung und einen Oberflächenwinkel einer erwarteten Fahroberfläche relativ zu einer zweiten Referenzrichtung umfassen.
  3. Das LIDAR-System gemäß Anspruch 2, das folgendes Merkmal aufweist: einen Neigungssensor, der dazu konfiguriert ist, den Neigungswinkel des Fahrzeugs relativ zu der ersten Referenzrichtung zu messen.
  4. Das LIDAR-System gemäß Anspruch 2 oder 3, das ferner folgendes Merkmal aufweist: zumindest einen Prozessor, der dazu konfiguriert ist, LIDAR-Daten auf der Basis der elektrischen Signale von dem zumindest einen Photodetektor zu empfangen, auf der Basis der LIDAR-Daten Topographieinformationen zu erzeugen und auf der Basis der Topographieinformationen den Oberflächenwinkel der erwarteten Fahroberfläche relativ zu der zweiten Referenzrichtung zu bestimmen.
  5. Das LIDAR-System gemäß einem der Ansprüche 2 bis 4, das ferner folgende Merkmale aufweist: einen Speicher, der dazu konfiguriert ist, Topographieinformationen zu speichern; und zumindest einen Prozessor, der dazu konfiguriert ist, die Topographieinformationen und Positionsinformationen des Fahrzeugs zu empfangen und auf der Basis der Topographieinformationen und der Positionsinformationen des Fahrzeugs den Oberflächenwinkel der erwarteten Fahroberfläche relativ zu der zweiten Referenzrichtung zu bestimmen.
  6. Das LIDAR-System gemäß einem der Ansprüche 1 bis 5, das ferner folgende Merkmale aufweist: eine Signalverarbeitungskette, die eine Mehrzahl von Verarbeitungskanälen aufweist und dazu konfiguriert ist, die elektrischen Signale zu verarbeiten, wobei die Steuerung dazu konfiguriert ist, relativ zu einer Position des Projektionszentrums in der vertikalen Richtung einen ersten Teil der Mehrzahl von Verarbeitungskanälen zu aktivieren und einen zweiten Teil der Mehrzahl von Verarbeitungskanälen zu deaktivieren.
  7. Ein Lichtdetektions- und Entfernungsmesssystem (LIDAR-System), das folgende Merkmale aufweist: einen LIDAR-Sender, der dazu konfiguriert ist, ein Sichtfeld mit einer Mehrzahl von Laserstrahlen zu scannen, wobei der LIDAR-Sender folgende Merkmale aufweist: ein Laserarray, das eine Mehrzahl von Laserquellen aufweist, von denen jede dazu konfiguriert ist, einen anderen einer Mehrzahl von Laserstrahlen derart auszusenden, dass jeder der Mehrzahl von Laserstrahlen von dem LIDAR-Sender in eine andere vertikale Region einer Mehrzahl vertikaler Regionen projiziert wird; eine Steuerung, die dazu konfiguriert ist, Rückmeldungsinformationen zu empfangen und auf der Basis der Rückmeldungsinformationen das Sichtfeld in einer vertikalen Richtung zu modifizieren; und einen LIDAR-Empfänger, der ein Photodetektor-Array aufweist, das dazu konfiguriert ist, einen reflektierten Lichtstrahl zu empfangen und auf der Basis des reflektierten Lichtstrahls elektrische Signale zu erzeugen.
  8. Das LIDAR-System gemäß Anspruch 7, bei dem: das Sichtfeld eine Scanebene, die ein Projektionszentrum aufweist, darstellt, und die Steuerung dazu konfiguriert ist, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie das Projektionszentraum der Scanebene in der vertikalen Richtung verschiebt.
  9. Das LIDAR-System gemäß Anspruch 8, bei dem: der LIDAR-Sender ferner folgendes Merkmal aufweist: eine eindimensionale Schwingstruktur für mikro-elektromechanische Systeme (MEMS), die dazu konfiguriert ist, um eine einzelne Scanachse herum zu oszillieren und die Mehrzahl von Laserstrahlen auf reflektierende Weise derart auszusenden, dass sich die vertikale Scanlinie in einer horizontalen Scanrichtung horizontal über das Sichtfeld hinweg bewegt, während die eindimensionale MEMS-Schwingstruktur um die einzelne Scanachse herum oszilliert, und das LIDAR-System ferner folgende Merkmale aufweist: ein Betätigungsglied, das dazu konfiguriert ist, die eindimensionale MEMS-Schwingstruktur um eine Neigungsachse zu drehen, wobei eine Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse eine vertikale Position des Projektionszentrums definiert, und wobei die Steuerung dazu konfiguriert ist, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie die Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse dahin gehend modifiziert, das Projektionszentrum der Scanebene in der vertikalen Richtung zu verschieben.
  10. Das LIDAR-System gemäß Anspruch 9, das ferner folgende Merkmale aufweist: einen Neigungssensor, der dazu konfiguriert ist, einen Neigungswinkel eines Fahrzeugs relativ zu einer Referenzrichtung zu messen, und die Rückmeldungsinformationen umfassen den Neigungswinkel des Fahrzeugs, und die Steuerung ist dazu konfiguriert: die Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Neigungswinkel einem Abfallwinkel entspricht, der eine zweite Schwelle überschreitet, hin zu einer oberen vertikalen Region zu verschieben, die Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Neigungswinkel einem Anstiegswinkel entspricht, der eine erste Schwelle überschreitet, hin zu einer unteren vertikalen Region zu verschieben, und die Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Neigungswinkel zwischen der ersten Schwelle und der zweiten Schwelle liegt, hin zu einer mittleren vertikalen Region zu verschieben.
  11. Das LIDAR-System gemäß Anspruch 9 oder 10, bei dem: die Rückmeldungsinformationen einen Oberflächenwinkel einer erwarteten Fahroberfläche relativ zu einer Referenzrichtung umfassen, u d die Steuerung dazu konfiguriert ist: die Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Oberflächenwinkel einem Abfallwinkel entspricht, der eine zweite Schwelle überschreitet, hin zu einer oberen vertikalen Region zu verschieben, die Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Oberflächenwinkel einem Anstiegswinkel entspricht, der eine erste Schwelle überschreitet, hin zu einer unteren vertikalen Region zu verschieben, und die Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse dahin gehend zu modifizieren, das Projektionszentrum unter einer Bedingung, dass der Oberflächenwinkel zwischen der ersten Schwelle und der zweiten Schwelle liegt, hin zu einer mittleren vertikalen Region zu verschieben.
  12. Das LIDAR-System gemäß einem der Ansprüche 9 bis 11, bei dem die Steuerung dazu konfiguriert ist, die eindimensionale MEMS-Schwingstruktur auf der Basis der Rückmeldungsinformationen dynamisch zwischen einer Bandbreite von Neigungswinkeln um die Neigungsachse zu drehen.
  13. Das LIDAR-System gemäß einem der Ansprüche 9 bis 12, bei dem ein ganzer Abschnitt des Sichtfeldes gemäß der Ausrichtung der eindimensionalen MEMS-Schwingstruktur um die Neigungsachse verschoben ist.
  14. Das LIDAR-System gemäß einem der Ansprüche 7 bis 13, bei dem: der LIDAR-Sender ferner folgende Merkmale aufweist: eine eindimensionale Schwingstruktur für mikro-elektromechanische Systeme (MEMS), die dazu konfiguriert ist, um eine einzelne Scanachse herum zu oszillieren und die Mehrzahl von Laserstrahlen auf reflektierende Weise derart auszusenden, dass sich die vertikale Scanlinie in einer horizontalen Scanrichtung horizontal über das Sichtfeld hinweg bewegt, während die eindimensionale MEMS-Schwingstruktur um die einzelne Scanachse herum oszilliert, die vertikale Scanlinie umfasst eine Mehrzahl vertikaler Segmente, von denen jedes einer anderen vertikalen Region der Mehrzahl vertikaler Regionen entspricht, jede der Mehrzahl von Laserquellen trägt zu einem anderen vertikalen Segment der Mehrzahl vertikaler Segmente der vertikalen Scanlinie bei, und die Steuerung ist dazu konfiguriert, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie auf der Basis der Rückmeldungsinformationen einen ersten Teil der Mehrzahl von Laserquellen aktiviert und einen zweiten Teil der Mehrzahl von Laserquellen deaktiviert, um eine Länge der vertikalen Scanlinie in der vertikalen Richtung zu verkürzen.
  15. Das LIDAR-System gemäß einem der Ansprüche 8 bis 14, das ferner folgende Merkmale aufweist: ein Betätigungsglied, das dazu konfiguriert ist, den LIDAR-Sender um eine Neigungsachse zu drehen, wobei eine Ausrichtung des LIDAR-Senders um die Neigungsachse eine vertikale Position des Projektionszentrums definiert, und wobei die Steuerung dazu konfiguriert ist, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie die Ausrichtung des LIDAR-Senders um die Neigungsachse dahin gehend modifiziert, das Projektionszentrum der Scanebene in der vertikalen Richtung zu verschieben.
  16. Das LIDAR-System gemäß einem der Ansprüche 7 bis 15, bei dem: die Steuerung dazu konfiguriert ist, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie auf der Basis der Rückmeldungsinformationen einen ersten Teil der Mehrzahl von Laserquellen aktiviert und einen zweiten Teil der Mehrzahl von Laserquellen deaktiviert, so dass eine aktive Region der Mehrzahl von vertikalen Regionen gemäß den Rückmeldungsinformationen dynamisch variiert.
  17. Das LIDAR-System gemäß Anspruch 16, das ferner folgende Merkmale aufweist: einen Neigungssensor, der dazu konfiguriert ist, einen Neigungswinkel eines Fahrzeugs relativ zu einer Referenzrichtung zu messen, und die Rückmeldungsinformationen den Neigungswinkel des Fahrzeugs umfassen, wobei die Mehrzahl von vertikalen Regionen eine untere Region, eine mittlere Region und eine obere Region umfassen, die je nach entsprechenden der Mehrzahl von Lichtquellen aktiviert und deaktiviert sind, und die Steuerung dazu konfiguriert ist: unter einer Bedingung, dass der Neigungswinkel einem Anstiegswinkel entspricht, der eine erste Schwelle überschreitet, zumindest die untere Region zu aktivieren und die obere Region zu deaktivieren, unter einer Bedingung, dass der Neigungswinkel einem Abfallwinkel entspricht, der eine zweite Schwelle überschreitet, zumindest die obere Region zu aktivieren und die untere Region zu deaktivieren, und unter einer Bedingung, dass der Neigungswinkel zwischen der ersten Schwelle und der zweiten Schwelle liegt, zumindest die mittlere Region zu aktivieren und zumindest einen Teil der unteren Region und zumindest einen Teil der oberen Region zu deaktivieren.
  18. Das LIDAR-System gemäß Anspruch 16 oder 17, bei dem: die Rückmeldungsinformationen einen Oberflächenwinkel einer erwarteten Fahroberfläche relativ zu einer Referenzrichtung umfassen, wobei die Mehrzahl von vertikalen Regionen eine untere Region, eine mittlere Region und eine obere Region umfassen, die je nach entsprechenden der Mehrzahl von Lichtquellen aktiviert und deaktiviert sind, und die Steuerung dazu konfiguriert ist: unter einer Bedingung, dass der Oberflächenwinkel einem Anstiegswinkel entspricht, der eine erste Schwelle überschreitet, zumindest die untere Region zu aktivieren und die obere Region zu deaktivieren, unter einer Bedingung, dass der Oberflächenwinkel einem Abfallwinkel entspricht, der eine zweite Schwelle überschreitet, zumindest die obere Region zu aktivieren und die untere Region zu deaktivieren, und unter einer Bedingung, dass der Oberflächenwinkel zwischen der ersten Schwelle und der zweiten Schwelle liegt, zumindest die mittlere Region zu aktivieren und zumindest einen Teil der unteren Region und zumindest einen Teil der oberen Region zu deaktivieren.
  19. Das LIDAR-System gemäß einem der Ansprüche 7 bis 18, das ferner folgendes Merkmal aufweist: einen Neigungssensor, der dazu konfiguriert ist, einen Neigungswinkel eines Fahrzeugs relativ zu einer Referenzrichtung zu messen, und die Rückmeldungsinformationen den Neigungswinkel des Fahrzeugs umfassen.
  20. Das LIDAR-System gemäß einem der Ansprüche 7 bis 19, das ferner folgende Merkmale aufweist: einen Speicher, der dazu konfiguriert ist, Topographieinformationen zu speichern, wobei die Rückmeldungsinformationen einen Oberflächenwinkel einer erwarteten Fahroberfläche relativ zu einer Referenzrichtung umfassen, und die Steuerung dazu konfiguriert ist, auf der Basis der Topographieinformationen den Oberflächenwinkel der erwarteten Fahroberfläche zu bestimmen.
  21. Das LIDAR-System gemäß Anspruch 20, das ferner folgende Merkmale aufweist: zumindest einen Prozessor, der dazu konfiguriert ist, LIDAR-Daten auf der Basis der elektrischen Signale von dem Photodetektor-Array zu empfangen und auf der Basis der LIDAR-Daten die Topographieinformationen zu erzeugen.
  22. Das LIDAR-System gemäß einem der Ansprüche 7 bis 21, bei dem: jede der Mehrzahl von Laserquellen eine variable Pulswiederholungsrate aufweist, und die Steuerung dazu konfiguriert ist, das Sichtfeld in der vertikalen Richtung zu modifizieren, indem sie eine variable Pulswiederholungsrate eines ersten Teils der Mehrzahl von Laserquellen relativ zu der variablen Pulswiederholungsrate eines zweiten Teils der Mehrzahl von Laserquellen auf der Basis der Rückmeldungsinformationen verringert, um einen Scanbereich in der vertikalen Richtung während zumindest eines Teils eines Scanzeitraums zu verkürzen.
  23. Ein Lichtdetektions- und Entfernungsmessungsscanverfahren (LIDAR-Scanverfahren), das folgende Schritte aufweist: Aussenden von Laserstrahlen in ein Sichtfeld, wobei das Sichtfeld ein Projektionszentrum aufweist; Empfangen eines reflektierten Lichtstrahls an zumindest einem Photodetektor; Erzeugen, seitens des zumindest einen Photodetektors, elektrischer Signale auf der Basis des reflektierten Lichtstrahls; Empfangen von Rückmeldungsinformationen; und Modifizieren eines Projektionszentrums des Sichtfeldes in einer vertikalen Richtung auf der Basis der Rückmeldungsinformationen.
DE102019220289.6A 2018-12-21 2019-12-19 Echtzeit-gating und signal wegleitung in laser- und detektorarrays für lidar-anwendung Pending DE102019220289A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862783720P 2018-12-21 2018-12-21
US62/783,720 2018-12-21
US16/265,416 US11709231B2 (en) 2018-12-21 2019-02-01 Real time gating and signal routing in laser and detector arrays for LIDAR application
US16/265,416 2019-02-01

Publications (1)

Publication Number Publication Date
DE102019220289A1 true DE102019220289A1 (de) 2020-06-25

Family

ID=70969376

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019220289.6A Pending DE102019220289A1 (de) 2018-12-21 2019-12-19 Echtzeit-gating und signal wegleitung in laser- und detektorarrays für lidar-anwendung

Country Status (1)

Country Link
DE (1) DE102019220289A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220187462A1 (en) * 2020-12-11 2022-06-16 STMicroelectromics (Research & Development ) Limited Methods and apparatus for locating devices
CN117092658A (zh) * 2023-10-20 2023-11-21 徐州瑞控机电科技有限公司 基于激光雷达的目标智能检测定位方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220187462A1 (en) * 2020-12-11 2022-06-16 STMicroelectromics (Research & Development ) Limited Methods and apparatus for locating devices
CN117092658A (zh) * 2023-10-20 2023-11-21 徐州瑞控机电科技有限公司 基于激光雷达的目标智能检测定位方法
CN117092658B (zh) * 2023-10-20 2023-12-26 徐州瑞控机电科技有限公司 基于激光雷达的目标智能检测定位方法

Similar Documents

Publication Publication Date Title
DE102019215136A1 (de) LIDAR-2D-Empfängerarrayarchitektur
DE102019208109A1 (de) Hybrider LIDAR-Empfänger und hybride LIDAR-Verfahren
DE102020104413A1 (de) Überabtast- und sender-schiess-struktur für ein lichtdetektions-und abstandsmessungs-system
DE102020114938A1 (de) Sender- und empfängerkalibrierung in 1d-abtastlidar
EP2686700B1 (de) Messvorrichtung zur messung einer entfernung zwischen der messvorrichtung und einem zielobjekt mit hilfe optischer messstrahlung
EP2475957B2 (de) Optischer entfernungsmesser
EP3130889B1 (de) Optische entfernungsmessvorrichtung
EP2686703B1 (de) Messvorrichtung und messgerät zur mehrdimensionalen vermessung eines zielobjektes
EP3557284A2 (de) Optoelektronischer sensor und verfahren zur abstandsbestimmung
DE102009040837A1 (de) Vorrichtungen und Verfahren zur Positionsbestimmung und Oberflächenvermessung
EP3451021A1 (de) Messgerät mit scanfunktionalität und einstellbaren empfangsbereichen des empfängers
EP3516418A2 (de) Codierte laserlicht-pulssequenzen für lidar
CN111727381A (zh) 用于多维感测对象的多脉冲激光雷达系统
EP2019973A1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE102021118356A1 (de) Strahlenlenkungsbewusstes pixelclustern eines segmentierten sensorbereichs und implementierung von mittelungsalgorithmen für die pixel verarbeitung
DE102020206388A1 (de) Ein array von einzelphotonen-lawinendioden-(spad-)mikrozellen und deren betrieb
DE102019130647A1 (de) Multi-detektor mit verschachtelten photodetektor-arrays und analogen ausleseschaltungen für lidar-empfänger
DE102020101451A1 (de) Zufällige-hardwarefehler- und verschlechterungsschutzvorrichtung für laufzeitempfänger
DE102019220289A1 (de) Echtzeit-gating und signal wegleitung in laser- und detektorarrays für lidar-anwendung
DE102021209408A1 (de) Spiegelbewegung und Laserschussmusterkompensation für Frequenzmodulierten Dauerstrich(FMCW)-LIDAR
DE102021111073A1 (de) Flexibles lissajous-abtastmuster durch phasenmodulation
JP2021534415A (ja) 視野の光学捕捉のためのlidarセンサ、lidarセンサを備えた作動装置または車両、および視野の光学捕捉のための方法
DE112020000407B4 (de) Lidar-systeme und -verfahren mit strahllenkung und weitwinkelsignaldetektion
DE102021203920A1 (de) Verzögerungsmessung, -überwachung und -kompensation eines Oszillatorsteuersystems
EP3650888B1 (de) Optoelektronischer sensor und verfahren zur erfassung und abstandsbestimmung von objekten

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R084 Declaration of willingness to licence