DE102017205631A1 - LiDAR-System und Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems - Google Patents

LiDAR-System und Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems Download PDF

Info

Publication number
DE102017205631A1
DE102017205631A1 DE102017205631.2A DE102017205631A DE102017205631A1 DE 102017205631 A1 DE102017205631 A1 DE 102017205631A1 DE 102017205631 A DE102017205631 A DE 102017205631A DE 102017205631 A1 DE102017205631 A1 DE 102017205631A1
Authority
DE
Germany
Prior art keywords
light beam
lidar system
detector array
mirror
transparent element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017205631.2A
Other languages
English (en)
Inventor
Siegwart Bogatscher
Reiner Schnitzer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102017205631.2A priority Critical patent/DE102017205631A1/de
Priority to US15/943,109 priority patent/US11125876B2/en
Priority to CN201810290781.0A priority patent/CN108693515B/zh
Publication of DE102017205631A1 publication Critical patent/DE102017205631A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • G01S7/4812Constructional features, e.g. arrangements of optical elements common to transmitter and receiver transmitted and received beams following a coaxial path
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/10Scanning systems
    • G02B26/105Scanning systems with one or more pivoting mirrors or galvano-mirrors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/095Refractive optical elements
    • G02B27/0955Lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/09Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
    • G02B27/0938Using specific optical elements
    • G02B27/0977Reflective elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B26/00Optical devices or arrangements for the control of light using movable or deformable optical elements
    • G02B26/08Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light
    • G02B26/0816Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements
    • G02B26/0833Optical devices or arrangements for the control of light using movable or deformable optical elements for controlling the direction of light by means of one or more reflecting elements the reflecting element being a micromechanical device, e.g. a MEMS mirror, DMD
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/14Beam splitting or combining systems operating by reflection only
    • G02B27/145Beam splitting or combining systems operating by reflection only having sequential partially reflecting surfaces

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Die vorliegende Erfindung betrifft ein LiDAR-System (1) und ein Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems (1). Das LiDAR-System (1) umfasst eine optische Quelle (2), einen Spiegel (3), ein teiltransparentes Element (4), einen Detektorarray (5) und eine Auswertungseinheit (6). Die optischen Elemente des LiDAR-System (1) sind derart angeordnet, dass ein Anteil (9) des Lichtstrahls (7) von dem teiltransparenten Element (4) auf den Detektorarray (5) reflektiert wird. Die Auswertungseinheit (6) ist dazu eingerichtet, ein Detektorsignal von dem Detektorarray (5) zu empfangen, welches eine Dimension, Form und/oder Lage des auf dem Detektorarray (5) abgebildeten zweiten Anteils (9) des Lichtstrahls (7) beschreibt und aus dem Detektorsignal einen Systemzustand des LiDAR-Systems (1) zu ermitteln.

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft ein LiDAR-System und ein Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems.
  • Aktuelle LiDAR-Systeme umfassen eine Positionssensorik, welche dazu geeignet ist, eine Stellung eines beweglichen Mikrospiegels des LiDAR-Systems zu erkennen. Dies erfolgt mittels piezoresistiver Sensoren, die auf Torsionsfedern angeordnet sind und in einer Messbrücke als Positionssensorik eingesetzt werden. Dies bringt jedoch Nachteile mit sich. So können real auftretende Schwingungsmoden des Mikrospiegels, wie z. B. Out-of-plane-Moden, die durch mechanische Störeinkopplung, wie beispielsweise Schock oder Vibration, angeregt und einer Nutzschwingung überlagert werden, nicht durch die piezoresistiven Sensoren gemessen werden. Ferner werden durch Positionssensorik teilweise Moden gemessen, die real nicht auftreten. Langsame Driften, beispielsweise Driften der Schwingungsamplitude, können nicht durch die Positionssensorik festgestellt werden. Ferner kann eine optische Verzerrung, die sich durch eine schräge Einstrahlrichtung eines Laserstrahls auf den Mikrospiegel ergibt, mittels einer solchen Sensorik nicht erfasst werden. Dadurch, dass das Analogsignal der Messbrücke mit einem eigenen Takt abgetastet wird, sind die Abtastzeitpunkte nicht mit den Schusszeitpunkten des Lasers synchronisiert. Dies erfordert einen zusätzlichen Rechenaufwand zur genauen Bestimmung der Sendeausrichtung des ausgesendeten Lichtpulses.
  • Es ist wichtig, dass LiDAR-Systeme bestimmte Anforderungen erfüllen, welche aufgrund einer Augensicherheit erforderlich sind. Die Augensicherheit erfordert eine schnelle und zuverlässige Erkennung von Fehlerzuständen, wie z. B. eines Spiegelbruchs, eines mechanischen Anschlags und ähnlicher Fehler, welche in einem LiDAR-System auftreten können. Eine solche Erkennung kann nicht durch die Positionssensorik realisiert werden, die nicht alle schnellen Fehlereinflüsse, wie z. B. die Out-of-plane-Moden, erfassen kann.
  • Die DE102006031114A1 offenbart dazu einen Laserscanner mit einem oszillierenden Spiegel und einem Detektor aus dem Stand der Technik.
  • Offenbarung der Erfindung
  • Das erfindungsgemäße LiDAR-System umfasst eine optische Quelle, welche dazu eingerichtet ist, einen Lichtstrahl auszusenden, einen Spiegel, welcher derart angeordnet ist, dass dieser den von der optischen Quelle abgegebenen Lichtstrahl reflektiert, ein teiltransparentes Element, welches derart gegenüber dem Spiegel angeordnet ist, dass der Lichtstrahl auf das teiltransparente Element trifft, nachdem dieser von dem Spiegel reflektiert wurde, wobei ein erster Anteil des Lichtstrahls das teiltransparente Element durchläuft und ein zweiter Anteil des Lichtstrahls von dem teiltransparenten Element reflektiert wird, einen Detektorarray, welcher eine Vielzahl einzelner Sensoren umfasst und welcher derart angeordnet ist, dass der zweite Anteil des Lichtstrahls von dem teiltransparenten Element auf den Detektorarray reflektiert wird, und eine Auswertungseinheit, welche dazu eingerichtet ist, ein Detektorsignal von dem Detektorarray zu empfangen, welches eine Dimension, Form und/oder Lage des auf dem Detektorarray abgebildeten zweiten Anteils des Lichtstrahls beschreibt und aus dem Detektorsignal einen Systemzustand des LiDAR-Systems zu ermitteln.
  • Das erfindungsgemäße Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems umfasst ein Aussenden eines Lichtstrahls mittels einer optischen Quelle, ein Reflektieren des von der optischen Quelle abgegebenen Lichtstrahls mittels eines Spiegels, ein Aufteilen des reflektierten Lichtstrahls mittels eines teiltransparenten Elements in einem ersten Anteil und einem zweiten Anteil des Lichtstrahls, wobei der erste Anteil des Lichtstrahls das teiltransparente Element durchläuft und ein zweiter Anteil des Lichtstrahls von dem teiltransparenten Element reflektiert wird, ein Empfangen des zweiten Anteils des Lichtstrahls mittels eines Detektorarrays, welcher eine Vielzahl einzelner Sensoren umfasst, und ein Ermitteln eines Systemzustands des LiDAR-Systems, basierend auf einer Dimension, Form und/oder Lage des auf dem Detektorarray abgebildeten zweiten Anteils des Lichtstrahls.
  • Die optische Quelle ist eine Lichtquelle, welche den Lichtstrahl erzeugt, welcher dazu genutzt wird, die Umgebung des LiDAR-Systems abzutasten. Die optische Quelle ist bevorzugt ein Laser. Der Spiegel ist bevorzugt ein Mikrospiegel. Das teiltransparente Element ist eine optische Komponente, welche dazu geeignet ist, einen Lichtstrahl aufzuteilen, d. h. den Lichtstrahl anteilig zu reflektieren. Bereits eine Reflektion an einer Oberfläche einer sonst transparenten optischen Komponente ist dabei ausreichend, um den Lichtstrahl aufzuteilen und ein als teiltransparent zu bezeichnendes Element zu schaffen. Der Detektorarray umfasst eine Vielzahl einzelner Sensoren. Die Sensoren sind dabei lichtempfindliche Sensoren. Das bedeutet, dass diese auf einfallendes Licht reagieren. Die Sensoren sind dabei insbesondere so ausgelegt, dass diese auf eine Wellenlänge des Lichtes reagieren, welches von der optischen Quelle ausgesandt wird. Die einzelnen Sensoren sind bevorzugt Fotodioden. Die Auswertungseinheit ist eine elektrische Schaltung. Diese ist entweder analog oder digital ausgeführt. Das Detektorsignal beschreibt die optische Leistung, Dimension, Form und/oder Lage des auf den Detektorarray abgebildeten zweiten Anteils des Lichtstrahls. Die Lage beschreibt dabei, an welcher Stelle der zweite Anteil des Lichtstrahls auf den Detektorarray fällt, beschreibt also eine Position auf einer Oberfläche des Detektorarrays. Die Dimension beschreibt dabei, eine Größe eines durch den zweiten Anteil des Lichtstrahls beleuchteten Bereichs auf einer Oberfläche des Detektorarrays. Die Form beschreibt dabei, wie ein äußerer Umfang des durch den Lichtstrahl beleuchteten Bereichs auf der Oberfläche des Detektorarrays geformt ist.
  • Aus einem solchen Detektorsignal können zahlreiche Rückschlüsse auf den Systemzustand des LiDAR-Systems geschlossen werden. Ein Systemzustand des LiDAR-Systems ist ein Parameter, welcher das LiDAR-System beschreibt. Dazu gehören sowohl Parameter, welche für einen Betrieb des LiDAR-Systems vorteilhaft ausgewertet werden können, beispielsweise, um eine Präzision der Messung zu erhöhen, als auch solche Parameter, welche beschreiben, ob das LiDAR-System voll funktionsfähig ist. Das teiltransparente Element ist ein optisches Baueelement, welches dazu geeignet ist, den von der optischen Quelle abgegebenen Lichtstrahl zu teilen. Das teiltransparente Element ist dabei ein Zusätzliches Bauelement oder ein Bauelement, welches ohnehin in einem LiDAR-Sytem angeordnet ist. Das teiltransparente Element ist bevorzugt eine Glasscheibe oder eine Linse. Das teiltransparente Element ist in einem optischen Sendepfad des LiDAR-Systems angeordnet, wobei dieses entlang dem Sendepfad hinter dem Spiegel des LiDAR-Systems angeordnet ist. Dabei wird ein Teil des ausgesendeten Lichts an dem teiltransparenten Element reflektiert und fällt auf das Detektorarray.
  • Der Strahldurchmesser des Lichtstrahls auf dem Detektorarray ist größer als ein einzelner Sensor des Detektorelements. Somit werden jeweils zumindest zwei Sensoren, also insbesondere Fotodioden, beleuchtet und über eine Schwerpunktbildung kann beispielsweise eine Richtung des ausgesendeten Laserimpulses ermittelt werden. Daraus kann entweder auf einen Fehler in dem LiDAR-System geschlossen werden oder eine Messgenauigkeit erhöht werden. Die Schwerpunktbildung kann entweder als Analogschaltung oder in digitaler Schaltungstechnik bzw. als Software in einem Microcontroller ausgeführt werden.
  • Es wird somit eine Richtungssensorik geschaffen, die einerseits synchron zu den Schusszeitpunkten der optischen Quelle abtastet und andererseits real auftretende mechanische Störeinkopplungen erfassen kann. Zudem kann eine optische Verzerrung aufgrund eines schrägen Einfallswinkels des Lichtstrahls auf den Spiegel und ein langsames Driften einer Stellung des Spiegels über die Lebensdauer des LiDAR-Systems hinweg messtechnisch erfasst werden. Dabei ist eine solche Richtungssensorik kostengünstig zu implementieren und es kann auf bereits vorhandene Komponenten, welche in einem LiDAR-System ohnehin verfügbar sind, zurückgegriffen werden.
  • Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung.
  • Bevorzugt ist der Spiegel beweglich angeordnet. Insbesondere ist der Spiegel dabei ein Mikrospiegel. Weiter bevorzugt ist der Spiegel ein Schwingspiegel oder ein rotierender Spiegel. Dadurch kann der Lichtstrahl in unterschiedliche Richtungen gelenkt werden und somit eine Umgebung des LiDAR-Systems gescannt werden. Da der Detektorarray hinter dem Spiegel angeordnet ist, wenn man einer Ausbreitung des Lichtstrahls folgt, können Ungenauigkeiten erfasst werden, die durch den beweglich angeordneten Spiegel verursacht werden. Dies ermöglicht, dass eine Richtung, in welcher der Lichtstrahl von dem LiDAR-System tatsächlich abgestrahlt wird, genau erfasst werden kann.
  • Weiter bevorzugt beschreibt das Detektorsignal die Lage des auf den Detektorarray abgebildeten zweiten Anteils des Lichtstrahls auf dem Detektorarray, wobei die Lage ein Punkt maximaler Helligkeit des zweiten Anteils des Lichtstrahls auf dem Detektorarray ist. Auf diese Weise wird ein Detektorsignal bereitgestellt, durch welches jeglicher Parameter des LiDAR-Systems erkannt werden kann, welcher Einfluss auf eine Ausbreitungsrichtung des Lichtstrahls hat. Es wird somit eine effiziente Überwachung der Scanrichtung und der Ausrichtung aller optischen Komponenten des LiDAR-Systems ermöglicht.
  • Weiter bevorzugt sind die einzelnen Sensoren des Detektorarrays über einen Subtrahierer miteinander gekoppelt. Auf diese Weise kann ein Verlauf einer Intensität des auf den Dektektorarray reflektierten zweiten Anteils des Lichtstrahls geschaffen werden. Es wird somit ein Einflussfaktor fremder Lichtquellen minimiert. So kann beispielsweise ein Einfluss von Umgebungslicht kompensiert werden. Ferner kann auf diese Weise der Punkt maximaler Helligkeit des zweiten Anteils des Lichtstrahls auf dem Detektorarray in effizienter Weise ermittelt werden.
  • Weiter bevorzugt sind die Subtrahierer ausgangsseitig mit einem Multiplexer gekoppelt. Es wird somit eine Auswahl ermöglicht, welche der Sensoren des Detektorarrays für ein Bereitstellen des Detektorsignals herangezogen werden soll. Gleichzeitig kann eine maximale Anzahl der notwendigen Bauteile reduziert werden.
  • Es ist vorteilhaft, wenn nur eine Auswahl der Sensoren des Detektorarrays aktiv ist, um den von dem teiltransparenten Element auf den Detektorarray reflektierten zweiten Anteil des Lichtstrahls zu empfangen. Es kann somit eine Energieersparnis bei dem Betrieb des LiDAR-Systems erreicht werden. Bei einer entsprechenden Auswahl der aktiven Sensoren kann zudem eine Filterwirkung erzeugt werden, indem solche Sensoren nicht aktiv sind, auf welche der zweite Anteil des Lichtstrahls ohnehin nicht fallen sollte, wenn das LiDAR-System unbeschädigt ist. Zudem ermöglicht dies eine reduzierte Komplexität in der Schaltungstechnik, weil nur noch wenige Analogsignale gleichzeitig abgetastet werden müssen.
  • Weiter bevorzugt werden Ausgangssignale der Sensoren mit einem Schwellenwert verglichen und nur solche der Ausgangssignale zur Erzeugung des Detektorsignals genutzt, deren Amplitude größer als der Schwellenwert ist. Auf diese Weise können ebenfalls solche Ausgangssignale ausgefiltert werden, welche durch Sensoren verursacht werden, auf welche ein ungewollter, schwacher Lichteinfall erfolgt. Ein solcher ungewollter Lichteinfall kann beispielsweise aus der Umgebung des LiDAR-Systems stammen.
  • Bevorzugt beschreibt der Systemzustand des LiDAR-Systems eine Ausrichtung optischer Komponenten des LiDAR-Systems, eine durch die optischen Komponenten des LiDAR-Systems verursachte Verzerrung des Lichtstahls und/oder eine Richtung des zweiten Teils des Lichtstrahls. Diese Informationen sind besonders dazu geeignet, eine Präzision des LiDAR-Systems zu erhöhen und um dessen Funktionalität zu überwachen.
  • Bevorzugt ist die Auswertungseinheit ferner mit einem Positionssensor gekoppelt, welcher eine Stellung des Spiegels erfasst, wobei die Auswertungseinheit mittels des Detektorsignals eine tatsächliche Stellung des Spiegels ermittelt und diese tatsächliche Stellung des Spiegels mit einer von dem Positionssensor erfassten Stellung des Spiegels vergleicht, um den Systemzustand zu ermitteln. Auf diese Weise kann eine Genauigkeit des Positionssensors überwacht werden und zudem eine tatsächliche Stellung des Spiegels ermittelt werden. Ein Messwert des Positionssensors kann basierend auf der über die Auswertungseinheit und den Detektorarray ermittelte tatsächliche Stellung des Spiegels korrigiert werden.
  • Des Weiteren ist es vorteilhaft, wenn der Detektorarray derart angeordnet ist, dass der zweite Anteil des Lichtstrahls auf den Detektorarray trifft, wenn dieser zweite Anteil des Lichtstrahls in einer Umgebung des LiDAR-Systems reflektiert wird. Mit anderen Worten bedeutet dies, dass der Detektorarray sowohl zum Erfassen des Systemzustandes des LiDAR-Systems genutzt wird als auch zur Detektion der Umgebung des LiDAR-Systems genutzt wird. Es ist somit möglich, einen bereits in einem LiDAR-System bestehenden Detektorarray zu nutzen, um den Systemzustand des LiDAR-Systems zu ermitteln. Es kann somit ein kostengünstiges LiDAR-System realisiert werden.
  • Zusammenfassend ergibt sich somit eine Vielzahl von Vorteilen bei dem erfindungsgemäßen LiDAR-System. So kann eine Richtungssensorik geschaffen werden, durch welche eine Richtung des Lichtstrahls ermittelt werden kann, wenn dieser von dem Lidar-System ausgestrahlt wird. So ist es grundsätzlich möglich, eine Abweichung eines Scanstrahls, also des ersten Anteils des Lichtstrahls, in zwei Dimensionen zu erfassen. Somit kann jede Art von mechanischen Einflüssen auf das LiDAR-System erfasst werden. Störmoden, die nicht durch eine Messbrücke erfasst werden können, werden durch eine solche optische Richtungssensorik inhärent berücksichtigt. Dabei misst eine solche optische Richtungssensorik nur real auftretende Richtungen. Langsames Driften einer Amplitude des Spiegels, beispielsweise eines Mikrospiegels, bzw. Änderung der Nichtlinearitäten werden durch eine solche optische Richtungssensorik erfasst. Eine redundante Erfassung der Winkelstellung des Spiegels durch zwei orthogonale Messprinzipien ermöglicht ein zuverlässiges Erkennen von Fehlzuständen des Scanspiegels durch gegenseitige Plausibilisierng der Messergebnisse. Eine gegenseitige Re-Kalibrierung der Richtungssensorik und des Positionssensors wird möglich. Durch das Hinzufügen des optischen Richtungssensorik, kann sowohl die Richtungssensorik, als auch der Positionssensor für seine jeweilige Aufgabe optimiert werden. Der Positionssensor kann somit für eine Spiegelregelung ausgelegt werden, beispielsweise mit einer festen Abtastrate, entsprechender Bandbegrenzung etc., während die Richtungssensorik für die genaue Messung der tatsächlichen Schussrichtung ausgelegt werden kann, beispielsweise durch synchrone Abtastung zum Lasertrigger. Durch ein zeitliches Gating der optischen Richtungssensorik (Detektorarray ist beispielsweise nur während des Laserpulses von ca. 1ns aktiv) kann das Signal-zu-Rausch-Verhältnis um Größenordnungen gegenüber einem festen Tastverhältnis verbessert werden. Dies wirkt sich unmittelbar auf die Messgenauigkeit aus. Durch die Erhöhung der Anzahl von Sensoren kann die Messgenauigkeit der Richtungssensorik bei Bedarf weiter verbessert werden. Eine Messung der emittierten Laserleistung und der Pulslänge aus Gründen der Augensicherheit ist zusätzlich vorteilhaft. Typischerweise wird für diese Aufgabe eine Monitor-Photodiode zur Messung der Leistung und der Pulslänge des ausgesendeten Laserstrahls nach dem Laser eingesetzt. Diese kann entfallen. Das Signal am Detektorarray kann zusätzlich als Referenzsignal zum Starten der Lichtlaufzeitmessung verwendet werden.
  • Figurenliste
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist:
    • 1 eine schematische Darstellung eines LiDAR-Systems 1 gemäß einer ersten Ausführungsform der Erfindung,
    • 2 ein Diagramm, welches einen Signalfluss in dem erfindungsgemäßen LiDAR-System gemäß der ersten Ausführungsform darstellt,
    • 3 eine schematische Darstellung eines Detektorarrays mit einer Vielzahl einzelner Sensoren, und
    • 4 eine schematische Darstellung des Detektorarrays mit einem an dem Detektorarray angeordneten Multiplexer.
  • Ausführungsformen der Erfindung
  • 1 zeigt eine schematische Darstellung einer Sendeeinheit eines LiDAR-Systems 1 gemäß einer ersten Ausführungsform der Erfindung, wobei eine Empfangseinheit der Einfachheit halber nicht dargestellt ist. Das LiDAR-System 1 umfasst eine optische Quelle 2, einen Spiegel 3, ein teiltransparentes Element 4, einen Detektorarray 5 und eine Auswertungseinheit 6.
  • Die optische Quelle 2 ist dazu eingerichtet, einen Lichtstrahl 7 auszusenden. Die optische Quelle 2 ist ein Laser. Der Lichtstrahl 7 ist daher ein Laserstrahl. Der Spiegel 3 ist derart angeordnet, dass dieser den von der optischen Quelle 2 abgegebenen Lichtstrahl 7 reflektiert. Der Spiegel 3 ist ein Mikrospiegel. Der Spiegel 3 ist beweglich angeordnet. Der Spiegel 3 ist in dieser ersten Ausführungsform ein schwingender Spiegel. Die Schwingung des Spiegels kann entweder resonant oder quasistatisch sein. Diese Schwingbewegung ist in 1 durch einen Doppelpfeil angedeutet. Der Spiegel 3 schwenkt somit aus seiner Ruhelage abwechselnd in unterschiedlichen Richtungen. Dabei dreht sich der Spiegel in wechselnder Richtung um eine Lagerungsachse.
  • Das teiltransparente Element 4 ist derart gegen über dem Spiegel 3 angeordnet, dass der Lichtstrahl auf das teiltransparente Element 4 trifft, nachdem dieser von dem Spiegel 3 reflektiert wurde. Der Spiegel ist in einem Strahlengang des Lichtstrahls 7 also zwischen der optischen Quelle 2 und dem teiltransparente Element 4 angeordnet. Das teiltransparente Element 4 ist eine optische Linse. Dabei ist es ausreichend, dass der Lichtstrahl 7 zu einem geringen Anteil an der Oberfläche des teiltransparenten Elements 4 reflektiert wird, um die Bedingungen zu erfüllen, dass die Linse als teiltransparent betrachtet werden kann. Das als Linse ausgeführte teiltransparente Element 4 ist entweder dazu ausgelegt, den Lichtstrahl 7 zu fokussieren, zu kollimieren oder ihn nicht maßgeblich zu beeinflussen (z.b. planparallel), wenn dieser aus dem LiDAR-System 1 austritt. Das LiDAR-System 1 kann somit für eine bestimmte Scan-Reichweite optimiert werden. Der Anteil des Lichtstrahls 7, welcher von dem teiltransparenten Element 4 nicht reflektiert wird, durchläuft das teiltransparente Element 4. Dieser Anteil des Lichtstrahls 7 wird als ein erster Anteil 8 des Lichtstrahls 7 bezeichnet und als Scanstrahl genutzt. Ein zweiter Anteil 9 des Lichtstrahls 7 ist der Anteil des Lichtstrahls 7, welcher an der Oberfläche des teiltransparenten Elements 4 reflektiert wird. Element 4 wird vorzugsweise so ausgelegt, dass das Detektorarray klein und damit kostengünstig ausgeführt werden kann.
  • Der Detektorarray 5 weist eine Vielzahl einzelner Sensoren 21, 22, 23, 24, 25 auf. Diese können in einer Reihe oder alternativ in Form einer zweidimensionalen Matrix angeordnet sein. Die Sensoren 21, 22, 23, 24, 25 sind Fotodioden. Der Detektorarray 5 weist eine aktive Oberfläche auf, welche so ausgerichtet ist, dass der dem teiltransparenten Element 4 reflektierte Anteil des Lichtstrahls 7, also der zweite Anteil 9 des Lichtstrahls 7, auf den Detektorarray 5 fällt. Mit einfachen Worten beschrieben kann somit gesagt werden, dass der Lichtstrahl 7 einen Lichtfleck auf der Oberfläche des Detektorarrays 5 verursacht.
  • Die Auswertungseinheit 6 ist eine Elektronik, welche dazu eingerichtet ist, ein Detektorsignal von dem Detektorarray 5 zu empfangen. Das Detektorsignal ist ein von dem Detektorarray 5 bereitgestelltes Signal. Die Auswertungseinheit 6 ist daher mit dem Detektorarray 5 gekoppelt. Das Detektorsignal ist ein Signal, welches eine Dimension, Form und Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 beschreibt. Abhängig davon, welche Informationen das Detektorsignal umfasst, können unterschiedliche Rückschlüsse auf einen Systemzustand des LiDAR-Systems getroffen werden.
  • Umfasst das Detektorsignal Informationen über eine Dimension des auf den Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7, beschreibt also, wie viele der Sensoren des Detektorarrays 5 durch den Lichtstrahl 7 angeregt werden, so kann darauf beispielsweise auf eine Fokussierung des Lichtstrahls 7 geschlossen werden. Tritt dabei eine Veränderung auf, beispielsweise dadurch, dass sich ein Abstand zwischen einzelnen Komponenten des LiDAR-Systems 1 ändert, so kann dies erkannt werden.
  • Wird eine Form des auf den Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 durch das Detektorsignal beschrieben, so wird es ermöglicht, dass eine Verzerrung des Lichtstrahls 7 erkannt wird. Eine solche kann beispielsweise durch eine Verformung des Spiegels 3 oder des teiltransparenten Elements 4 verursacht werden. Somit kann unter anderen Verformungen des LiDAR-Systems 1 erkannt werden.
  • Wird eine Lage des auf den Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 von dem Detektorsignal beschrieben, so kann daraus auf eine Errichtung geschlossen werden, in welche der Lichtstrahl 7, insbesondere der erste Anteil 8 des Lichtstrahls 7, das LiDAR-System 1 verlässt, um eine Umgebung des LiDAR-Systems 1 zu scannen.
  • In dieser ersten Ausführungsform umfasst das Detektorsignal sowohl Informationen bezüglich Dimension, Form und Lage des Detektorarrays. In alternativen Ausführungsformen ist es ausreichend, wenn das Detektorsignal lediglich zumindest eine dieser Informationen, also zumindest die Dimension, Form oder Lage des Detektorarrays umfasst.
  • Abhängig davon, welche Informationen benötigt werden, erfolgt eine entsprechende Auswertung durch die Auswertungseinheit 6. Dazu sind insbesondere Dimension, Form und Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 hinterlegt, welche sich bei einem Betrieb des LiDAR-Systems 1 geben, so dieses sich in einem optimalen Arbeitsbereich befindet. Weicht das LiDAR-System 1 von diesem optimalen Zustand ab, so wird dies mittels eines Vergleichs mit einer durch den Detektorarray 5 aktuell erfassten Dimension, Form und Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 durch die Auswertungseinheit 6 erkannt und kann ggf. kompensiert werden.
  • 2 zeigt ein Diagramm 100, welches einen Signalfluss des LiDAR-Systems 1 darstellt. Dabei sind sowohl einzelne Elemente des LiDAR-Systems 1 in 2 schematisch dargestellt als auch der Signalfluss zwischen diesen Elementen dargestellt.
  • Ein erstes Element 101 stellt ein Time-of-flight-System, kurz TOF-System, dar. Dieses ist ein System, durch welches eine Abstandsmessung ermöglicht wird, mittels derer einzelne Punkte in der Umgebung des LiDAR-Systems 1 abgetastet werden. Durch das TOF-System wird ein Triggersignal an die optische Quelle 2 übermittelt, um den Lichtstrahl 7 auszusenden. Die optische Quelle 2 ist in 2 durch ein zweites Element 102 dargestellt.
  • Durch die optische Quelle 2 wird der Lichtstrahl 7 ausgestrahlt, welcher von dem Spiegel 3 reflektiert wird, welcher in 2 als ein drittes Element 103 symbolisiert ist. Dort wird der Lichtstrahl 7 reflektiert und auf das teiltransparente Element 4 gelenkt, welches eine Linse ist. Das teiltransparente Element 4 ist in 2 auch durch ein viertes Element 104 dargestellt. Durch das teiltransparente Element 4 wird der Lichtstrahl 7 in den ersten Anteil 8 und den zweiten Anteil 9 des Lichtstrahls 7 aufgeteilt. Der zweite Anteil 9 des Lichtstrahls 7 trifft auf den Detektorarray 5, welche in 2 durch ein fünftes Element 105 dargestellt ist. Von dem Detektorarray 5 wird das Detektorsignal bereitgestellt und an die Auswertungseinheit 6 übertragen, welche in 2 als sechstes Element 106 dargestellt ist. Der Auswertungseinheit 6 wird zudem das Triggersignal bereitgestellt, welches von dem TOF-System, also von dem ersten Element 101, ausgegeben wird. Das Detektorsignal wird lediglich für einen Zeitraum betrachtet, der innerhalb eines Zeitintervalls ΔT seit dem Ausgeben des Triggersignals liegt. Somit wird sichergestellt, dass lediglich während dem Senden des Lichtstrahls 7 eine Bewertung des Systemzustandes des LiDAR-Systems erfolgt. In einer anschließenden Zeitphase kann der Detektorarray 5 dazu genutzt werden, den aus der Umgebung des LiDAR-Systems 1 zurückgeworfenen Lichtstrahl 7 zu empfangen. Der Detektorarray 5 ist dazu derart angeordnet, dass der zweite Anteil 9 des Lichtstrahls 7 auf den Detektorarray 5 trifft, wenn dieser zweite Anteil 9 des Lichtstrahls 7 in der Umgebung des LiDAR-Systems 1 reflektiert wird.
  • In einem Berechnungsschritt 107 erfolgt eine Schwerpunktberechnung, das bedeutet, es wird ermittelt, an welcher Stelle der zweite Anteil 9 des Lichtstrahls 7 auf den Detektorarray 5 getroffen ist. Es wird somit eine Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 ermittelt. Ferner ist für den Berechnungsschritt 107 ein Berechnungsmodell hinterlegt, welches das LiDAR-System 1 beschreibt. Basierend auf dem Berechnungsmodell und dem berechneten Schwerpunkt wird eine Senderichtung des LiDAR-Systems errechnet. Diese Information wird als ein Systemzustand des LiDAR-Systems 1 bereitgestellt und kann bei einer Berechnung einer Lage von Objekten im Umfeld des LiDAR-Systems 1 herangezogen werden.
  • Wird von dem Detektorarray 5 der zweite Anteil 9 des Lichtstrahls 7 empfangen, so werden zudem die von den Sensoren 21, 22, 23, 24, 25 ausgegebenen Ausganssignale addiert. Dies erfolgt in einem Summierungsschritt 108. Die so entstandene Summe wird mit einem Referenzwert, hier einer Referenzspannung Vref, verglichen. Dies erfolgt beispielsweise mittels eines Komparators, welcher in 2 als ein neuntes Element 109 dargestellt ist. Überschreitet die Summe einen vorgegebenen Referenzwert, so bedeutet dies, dass der Lichtstrahl 7 mit einer hinreichenden Stärke ausgesandt wird. Dieses Signal wird als Startsignal für die Time-of-flight-Messung dem ersten Element 101 bereitgestellt. Gleichzeitig wird die Summe mittels eines D/A-Wandlers 110 in einen Digitalwert gewandelt und als ein Indikator bereitgestellt, welcher eine Leistung des Lichtstrahls 7 beschreibt.
  • In dieser ersten Ausführungsform wird eine Lage des auf den Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 durch das Detektorsignal beschrieben. Dabei ist die Lage ein Punkt maximaler Helligkeit des zweiten Anteils 9 des Lichtstrahls 7 auf dem Detektorarray 5. 3 zeigt dazu in einer ersten Kurve 40 einen Verlauf einer Helligkeit des zweiten Anteils 9 des Lichtstrahls 7 auf der Oberfläche des Detektorarrays 5. Es ist ersichtlich, dass der zweite Anteil 9 des Lichtstrahls 7 in seinem Zentrum eine besonders hohe Helligkeit aufweist und dessen Intensität zu seinen Randbereichen hin abnimmt.
  • In 3 ist ferner der Detektorarray 5 mit der Vielzahl einzelner Sensoren 20, 21, 22, 23, 24, 25 dargestellt. So umfasst der Detektorarray 5 zumindest einen ersten Sensor 20, einen zweiten Sensor 21, einen dritten Sensor 22, einen vierten Sensor 23, einen fünften Sensor 24 und einen sechsten Sensor 25. Eine Anzahl der Sensoren 20, 21, 22, 23, 24, 25 kann jedoch variieren. Jeder der Sensoren 20, 21, 22, 23, 24, 25 ist als ein Rechteck dargestellt. In dem jeweiligen Rechteck ist ein Sensorwert eingetragen, welches ein von einer Belichtung des jeweiligen Sensors 20, 21, 22, 23, 24, 25 abhängiges Ausgangssignal des jeweiligen Sensors ist. Dabei sind die Sensorwerte beispielhaft so gewählt, wie diese bei einer Belichtung des Detektorarrays gemäß der ersten Kurve 40 auftreten können. So ist ersichtlich, dass der dritte Sensor 22 besonders stark belichtet wird, da dieser im Zentrum des zweiten Anteils 9 des Lichtstrahls 7 liegt. Jeweils benachbarte Sensoren des Detektorarrays 5 sind über einen Subtrahierer 30, 31, 32, 33, 34 miteinander gekoppelt. So ist der erste Sensor 20 und der zweite Sensor 21 über einen ersten Subtrahierer 30 gekoppelt. Der zweite Sensor 21 ist mit dem dritten Sensor 22 über einen zweiten Subtrahierer 31 gekoppelt. Der dritte Sensor 22 ist mit dem vierten Sensor 23 über einen dritten Subtrahierer 32 gekoppelt. Der vierte Sensor 23 ist mit dem fünften Sensor 24 über einen vierten Subtrahierer 33 gekoppelt. Der fünfte Sensor 24 ist mit dem sechsten Sensor 25 über einen fünften Subtrahierer 34 gekoppelt.
  • Die von benachbarten Sensoren ausgegebenen Ausgangswerte werden durch den koppelnden Subtrahierer voneinander subtrahiert. So gibt der erste Sensor 20 den Sensorwert „1“ als Ausgangswert aus und der zweite Sensor 22 den Sensorwert „2,5“ Als Ausgangswert aus. Folglich wird durch den ersten Subtrahierer 30 ausgangsseitig ein Wert von „-1,5“ ausgegeben. Die ausgangsseitig von den Subtrahierern 30, 31 ausgegebenen Werte sind neben einer zweiten Kurve 41 in 3 dargestellt. Dabei sind die von den Subtrahierern 30, 31 ausgegebenen Werte als Kreuze markiert. Die Ausgangswerte der Subtrahierer 30, 31 sind Stützpunkte für die zweite Kurve 41. Es wird ein Nulldurchgang der zweiten Kurve 42 ermittelt. Der Punkt des Nulldurchgangs dieser zweiten Kurve 42 beschreibt die Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7. Es wird somit ein Ort auf dem Detektorarray 5 durch das Detektorsignal beschrieben, welcher wiederum die Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls (7) beschreibt.
  • Es wird darauf hingewiesen, dass in dieser beispielhaften ersten Ausführungsform die Lage des zweiten Anteils des Lichtstrahls auf dem Detektorarray 5 lediglich in einer Dimension bestimmt wird. Dies ist in 3 dargestellt. Es ist jedoch in entsprechender Weise möglich, die Lage in zwei Dimensionen zu bestimmen. Entsprechend kann er Detektorarray 5 entweder eine Vielzahl einzelner Sensoren 20, 21, 22, 23, 24, 25 umfassen, welche lediglich in einer Reihe angeordnet sind, kann aber auch ein Feld von Sensoren 20, 21, 22, 23, 24, 25 sein, welches sich in zwei Dimensionen erstreckt. Der Detektorarray 5 kann somit auch ein Sensorfeld sein.
  • Es ist ersichtlich, dass auf entsprechende Weise auch eine Dimension und eine Form des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 ermittelt werden kann, da ein Umfang des abgebildeten Lichtstrahls 7 ebenfalls durch Nullstellen der zweiten Kurve 41 definiert ist. Die Nullstellen sind in der zweiten Kurve 41 als ein erster Punkt 42, ein zweiter Punkt 43 und ein dritter Punkt 44 dargestellt. Die mittlere Nullstelle, also der zweite Punkt 43, beschreibt die Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7. Der erste Punkt 42 und der dritte Punkt 44 definieren einen äußeren Rand, also einen Umfang und zugleich eine Dimension des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7.
  • Das Detektorsignal wird der Auswertungseinheit 6 bereitgestellt. Die Auswertungseinheit 6 ist ferner mit einem Positionssensor 12 gekoppelt, welcher eine Stellung des Spiegels 3 erfasst. Durch die Auswertungseinheit 6 wird mittels des Detektorsignals durch die Auswertungseinheit 6 eine tatsächliche Stellung des Spiegels 3 ermittelt. Dazu wird auf das Berchnungsmodell des LiDAR-Systems 1 zurückgegriffen, in welchem jeder Lage des auf dem Detektorarray 5 abgebildeten zweiten Anteils 9 des Lichtstrahls 7 eine Stellung des Spiegels 3 zugeordnet ist. Diese zugeordnete Stellung des Spiegels 3 wird als die tatsächliche Stellung des Spiegels 3 betrachtet. Es wird nunmehr die tatsächliche Stellung des Spiegels 3 mit der von dem Positionssensor 12 erfassten Stellung des Spiegels 3 verglichen. Weichen die beiden Stellungen voneinander ab, so wird eine Abweichung des Positionssensors 12 festgestellt und somit ein Systemzustand ermittelt. Im Folgenden wird ein Korrekturwert für den Positionssensor 12 ermittelt, welcher auf diesen angewendet wird. Der Korrekturwert ist derart gewählt, dass eine durch den Positionssensor 12 erfasste Stellung des Spiegels 3 der tatsächlichen Stellung des Spiegels 3 entspricht.
  • Es ist ersichtlich, dass zusätzlich oder alternativ durch die Auswertungseinheit 6 eine Ausrichtung optischer Komponenten des LiDAR-Systems, eine durch die optischen Komponenten des LiDAR-Systems 1 verursachte Verzerrung des Lichtstrahls 7 und/oder eine Richtung des zweiten Teils 8 des Lichtstrahls 7 als Systemzustand ermittelt werden kann. Dazu werden bevorzugt Vergleichswerte bereitgestellt, wobei diese Vergleichswerte insbesondere Werte des Detektorsignals beschreiben, wenn eine optimale Ausrichtung der optischen Komponenten des LiDAR-Systems 1 vorliegt, keine durch die optische Komponenten des LiDAR-Systems 1 verursachte Verzerrung des Lichtstrahls 7 vorliegt und/oder eine korrekte Richtung des zweiten Teils 8 des Lichtstrahls 7 durch das Detektorsignal beschrieben wird.
  • 4 zeigt den Detektorarray 5 mit einem an dem Detektorarray 5 angeordneten Multiplexer 10. Dabei wird der Detektorarray 5 gemäß einem in einer dritten Kurve 45 dargestellten Helligkeitsverlauf belichtet.
  • Der in 4 gezeigte Aufbau ermöglicht eine besonders kompakte Bauform des LiDAR-Systems 1. Die Subtrahierer 30, 31 sind ausgangsseitig mit einem Eingang des Multiplexers 10 gekoppelt. Durch den Multiplexer 10 kann eine Auswahl erfolgen, welche der von den Subtrahierern 30, 31 bereitgestellten Signale in das Detektorsignal Einfluss finden.
  • Insbesondere nur eine Auswahl der Sensoren 20, 21, 22, 23, 24, 25 genutzt, um den von dem transparenten Element 4 auf den Detektorarray 5 reflektierten zweiten Anteil 9 des Lichtstrahls 7 zu empfangen. Die übrigen Sensoren werden optional deaktiviert. Es kann auch lediglich eine Auswahl der Sensoren mittels des Multiplexers 10 erfolgen. So wird beispielsweise der fünfte Sensor 24 und der sechste Sensor 25 deaktiviert, wenn der Lichtstrahl 7 lediglich die übrigen Sensoren des Detektorarrays 5 anregt. So können beispielsweise einige der Sensoren 20, 21, 22, 23, 24, 25 durch eine Vorauswahl deaktiviert werden, da in etwa bekannt ist, welche der Sensoren 20, 21, 22, 23, 24, 25 zu einem bestimmten Zeitpunkt belichtet werden.
  • Alternativ oder zusätzlich werden die Ausgangssignale der Sensoren 20, 21, 22, 23, 24, 25 mit einem Schwellenwert zu verglichen und nur solche der Ausgangssignale der Sensoren 20, 21, 22, 23, 24, 25 zur Erzeugung des Detektorsignals genutzt, deren Amplitude größer als der Schwellenwert ist. Dabei können entweder die Ausgangssignale der Sensoren 20, 21, 22, 23, 24, 25 mit einem ersten Schwellenwert verglichen werden, oder die ausgangsseitigen Signale der Subtrahierer 30, 31, 32, 33,34, 35 mit einem zweiten Schwellenwert verglichen werden. Ein solcher Vergleich kann beispielsweise durch einen Schwellenwertdetektor 11 erfolgen, wie diese beispielhaft in 4 dargestellt ist. Durch diesen Schwellenwertdetektor 11 erfolgt eine Auswahl in dem Multiplexer 10, welche der ausgangsseitig bereitgestellten Signale der Subtrahierer 30, 31 zu der Auswertungseinheit 6 übertragen werden.
  • Zusammenfassend ist ein Aufbau einer Sendeeinheit des LiDAR-Systems 1 mit optischer Richtungssensorik in 2 als Blockdiagramm dargestellt. Für jeden Sendepuls wird von dem TOF-System ein Triggersignal erzeugt, das sowohl als Lasertrigger mit entsprechender Zeitverzögerung ΔT als Aktivierungssignal für ein Frontend zwischen Detektorarray und Schwerpunktberechnung verwendet wird. Ein kleiner Teil des emittierten Laserpulses wird an einem optischen Element, beispielsweise einer plankonkaven Linse, reflektiert und beleuchtet das Detektorarray 5. Aus dem Fotostrom der verschiedenen Sensoren des Detektorarrays 5 werden nun mit verschiedenen Schaltungen Senderichtung, Pulsleistung, Pulslänge und Startsignal für die Laufzeitmessung ermittelt.
  • Eine mögliche Ausführungsform einer Schwerpunktberechnung ist in 3 dargestellt. Dabei wird die Differenz der jeweils benachbarten Sensoren ermittelt. In einem zweiten Schritt wird der Nulldurchgang des differenzierten Signals bestimmt. In diesem Fall braucht man für jeden Sensor einen separaten Signalpfad. Um die Anzahl von Signalpfanden gering zu halten, kann alternativ, wie in 4 dargestellt, ein Multiplexer 10 eingesetzt werden. Hierbei sollte sichergestellt werden, dass die räumliche Ausdehnung des Laserpulses auf dem Detektorarray 5 nicht wesentlich größer ist als die Fläche der vom Multiplexer 10 geschalteten Detektorelemente. Wenn der Puls sich beispielsweise über zwei Sensoren 5 erstreckt, so muss der Multiplexer 10 auch zwei Ausgänge haben. In diesem Fall werden die beleuchteten Detektorelemente über einen Schwellenwertdetektor 11 identifiziert und durchgeschaltet. Danach erfolgt analog zu der in 3 dargestellten Schaltung eine Schwerpunktberechnung.
  • Nebst obenstehender Offenbarung wird explizit auf die Offenbarung der 1 bis 4 verwiesen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102006031114 A1 [0004]

Claims (11)

  1. LiDAR-System (1), umfassend: - eine optische Quelle (2), welche dazu eingerichtet ist, einen Lichtstrahl (7) auszusenden, - einen Spiegel (3), welcher derart angeordnet ist, dass dieser den von der optischen Quelle (2) abgegebenen Lichtstrahl (7) reflektiert, - ein teiltransparentes Element (4), welches derart gegenüber dem Spiegel (3) angeordnet ist, dass der Lichtstrahl (7) auf das teiltransparente Element (4) trifft, nachdem dieser von dem Spiegel (3) reflektiert wurde, wobei ein erster Anteil (8) des Lichtstrahls das teiltransparente Element (4) durchläuft und ein zweiter Anteil (9) des Lichtstrahls (7) von dem teiltransparenten Element (4) reflektiert wird, - einen Detektorarray (5), welcher eine Vielzahl einzelner Sensoren (21, 22, 23, 24, 25) umfasst und welcher derart angeordnet ist, dass der zweite Anteil (9) des Lichtstrahls (7) von dem teiltransparenten Element (4) auf den Detektorarray (5) reflektiert wird, und - eine Auswertungseinheit (6), welche dazu eingerichtet ist, ein Detektorsignal von dem Detektorarray (5) zu empfangen, welches eine Dimension, Form und/oder Lage des auf dem Detektorarray (5) abgebildeten zweiten Anteils (9) des Lichtstrahls (7) beschreibt und aus dem Detektorsignal einen Systemzustand des LiDAR-Systems (1) zu ermitteln.
  2. LiDAR-System (1) gemäß Anspruch 1, dadurch gekennzeichnet, dass der Spiegel (3) beweglich angeordnet ist.
  3. LiDAR-System (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass das Detektorsignal die Lage des auf den Detektorarray (5) abgebildeten zweiten Anteils (9) des Lichtstrahls (7) auf dem Detektorarray (5) beschreibt, wobei die Lage ein Punkt maximaler Helligkeit des zweiten Anteils (9) des Lichtstrahls (7) auf dem Detektorarray (5) ist.
  4. LiDAR-System (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass einzelne Sensoren (21, 22, 23, 24, 25) des Detektorarrays über einen Subtrahierer miteinander gekoppelt sind.
  5. LiDAR-System (1) gemäß Anspruch 4, dadurch gekennzeichnet, dass die Subtrahierer ausgangsseitig mit einem Multiplexer (10) gekoppelt sind.
  6. LiDAR-System (1) gemäß einem der voranstehenden Ansprüche, wobei nur eine Auswahl der Sensoren (21, 22, 23, 24, 25) aktiv ist, um den von dem teiltransparenten Element (4) auf den Detektorarray (5) reflektierten zweiten Anteil (9) des Lichtstrahls (7) zu empfangen.
  7. LiDAR-System (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass Ausgangssignale der Sensoren (21, 22, 23, 24, 25) mit einem Schwellenwert verglichen werden und nur solche der Ausgangssignale zur Erzeugung des Detektorsignals genutzt werden, deren Amplitude größer als der Schwellenwert ist.
  8. LiDAR-System (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass der Systemzustand des LiDAR-Systems (1) eine Ausrichtung optischer Komponenten des LiDAR-Systems, eine durch die optischen Komponenten des LiDAR-Systems (1) verursachte Verzerrung des Lichtstrahls (7) und/oder eine Richtung des zweiten Teils (8) des Lichtstrahls (7) beschreibt.
  9. LiDAR-System (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass die Auswertungseinheit (6) ferner mit einem Positionssensor (12) gekoppelt ist, welcher eine Stellung des Spiegels (3) erfasst, wobei die Auswertungseinheit (6) mittels des Detektorsignals eine tatsächliche Stellung des Spiegels ermittelt und diese tatsächliche Stellung des Spiegels (3) mit einer von dem Positionssensor (12) erfassten Stellung des Spiegels (3) vergleicht, um den Systemzustand zu ermitteln.
  10. LiDAR-System (1) gemäß einem der voranstehenden Ansprüche, dadurch gekennzeichnet, dass der Detektorarray (5) derart angeordnet ist, dass der zweite Anteil (9) des Lichtstrahls (7) auf den Detektorarray (5) trifft, wenn dieser zweite Anteil (9) des Lichtstrahls (7) in einer Umgebung des LiDAR-Systems (1) reflektiert wird.
  11. Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems (1), umfassend: - Aussenden eines Lichtstrahls (7) mittels einer optischen Quelle (2), - Reflektieren des von der optischen Quelle (2) abgegebenen Lichtstrahls (7) mittels eines Spiegels (3), - Aufteilen des reflektierten Lichtstrahls (7) mittels eines teiltransparenten Elements (4) in einen ersten Anteil (8) und einen zweiten Anteil (9) des Lichtstrahls (7), wobei der erste Anteil (8) des Lichtstrahls das teiltransparente Element (4) durchläuft und ein zweiter Anteil (9) des Lichtstrahls (7) von dem teiltransparenten Element (4) reflektiert wird, - Empfangen des zweiten Anteils (9) des Lichtstrahls (7) mittels eines Detektorarrays (5), welcher eine Vielzahl einzelner Sensoren (21, 22, 23, 24, 25) umfasst, und - Ermitteln eines Systemzustands des LiDAR-Systems (1) basierend auf einer Dimension, Form und/oder Lage des auf dem Detektorarray (5) abgebildeten zweiten Anteils (9) des Lichtstrahls (7).
DE102017205631.2A 2017-04-03 2017-04-03 LiDAR-System und Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems Pending DE102017205631A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017205631.2A DE102017205631A1 (de) 2017-04-03 2017-04-03 LiDAR-System und Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems
US15/943,109 US11125876B2 (en) 2017-04-03 2018-04-02 Lidar system and method for ascertaining a system state of a lidar system
CN201810290781.0A CN108693515B (zh) 2017-04-03 2018-04-03 激光雷达系统和用于获知激光雷达系统的系统状态的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017205631.2A DE102017205631A1 (de) 2017-04-03 2017-04-03 LiDAR-System und Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems

Publications (1)

Publication Number Publication Date
DE102017205631A1 true DE102017205631A1 (de) 2018-10-04

Family

ID=63524462

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017205631.2A Pending DE102017205631A1 (de) 2017-04-03 2017-04-03 LiDAR-System und Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems

Country Status (3)

Country Link
US (1) US11125876B2 (de)
CN (1) CN108693515B (de)
DE (1) DE102017205631A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019101966A1 (de) * 2019-01-28 2020-07-30 Valeo Schalter Und Sensoren Gmbh Positionserfassungseinrichtung für eine Lichtsignalumlenkeinrichtung einer optischen Messvorrichtung zur Erfassung von Objekten, Lichtsignalumlenkeinrichtung, Messvorrichtung und Verfahren zum Betreiben einer Positionserfassungseinrichtung
WO2021083804A1 (de) * 2019-10-31 2021-05-06 Robert Bosch Gmbh Lidar-sensor mit kontrolldetektor
EP4063902A1 (de) * 2021-03-23 2022-09-28 Sick Ag Optoelektronischer sensor und verfahren zur erfassung von objekten
DE102021130609A1 (de) 2021-11-23 2023-05-25 Scantinel Photonics GmbH Vorrichtung und Verfahren zur scannenden Messung des Abstands zu einem Objekt

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10788659B2 (en) * 2018-10-24 2020-09-29 Infinean Technologies Ag Monitoring of MEMS mirror properties
CN113260874A (zh) * 2018-11-20 2021-08-13 感觉光子公司 用于空间分布式选通的方法和系统
DE102018221083A1 (de) * 2018-12-06 2020-06-10 Robert Bosch Gmbh LiDAR-System sowie Kraftfahrzeug
US20200191926A1 (en) * 2018-12-18 2020-06-18 Aptiv Technologies Limited Object detector
DE102018222721A1 (de) * 2018-12-21 2020-06-25 Robert Bosch Gmbh LIDAR-Sensor für ein LIDAR-System
JP7287864B2 (ja) * 2019-08-09 2023-06-06 スタンレー電気株式会社 光走査装置
CN110940988B (zh) * 2019-11-01 2021-10-26 深圳市镭神智能系统有限公司 一种激光雷达接收系统及激光雷达
JP7456796B2 (ja) 2020-02-25 2024-03-27 京セラ株式会社 基板及び走査装置
US20220130185A1 (en) * 2020-10-23 2022-04-28 Argo AI, LLC Enhanced sensor health and regression testing for vehicles
FR3137186A1 (fr) * 2022-06-27 2023-12-29 Cailabs Dispositif optique de balayage d'un faisceau lumineux sur une pièce à usiner

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006031114A1 (de) 2006-06-29 2008-01-03 Kst Gmbh Kamera & System Technik 3D Kombinationsmessgerät aus digitaler Kamera und Laserscanner
EP2789972A1 (de) * 2013-04-12 2014-10-15 Hexagon Technology Center GmbH Vermessungsgerät mit verformbarem optischem Element
EP3118651A1 (de) * 2015-07-17 2017-01-18 Hexagon Technology Center GmbH Laufzeitmessvorrichtung und laufzeitmessverfahren mit ambiguitätslösung in echtzeit

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5191384A (en) * 1988-01-30 1993-03-02 Minolta Camera Kabushiki Kaisha Distance measuring system
US5354983A (en) * 1990-04-10 1994-10-11 Auto-Sense, Limited Object detector utilizing a threshold detection distance and suppression means for detecting the presence of a motor vehicle
US7164108B2 (en) * 2003-04-24 2007-01-16 Coherent, Inc. Detection system for optical beam pointing and shaping
US7476841B2 (en) * 2005-01-05 2009-01-13 Matsushita Electric Works, Ltd. Photodetector, spatial information detecting device using the photodetector, and photo detection method
FR2902894B1 (fr) * 2006-06-27 2010-06-04 Cit Alcatel Systeme de metrologie lateral et longitudinal
US8958057B2 (en) * 2006-06-27 2015-02-17 Arete Associates Camera-style lidar setup
DE102008044858A1 (de) * 2008-08-28 2010-03-04 Dr. Johannes Heidenhain Gmbh Optische Positionsmesseinrichtung
JP4846811B2 (ja) * 2009-02-03 2011-12-28 シャープ株式会社 光スポット位置検出装置およびそれを含む光デバイス、並びに、その光デバイスを含む電子機器
US8977489B2 (en) * 2009-05-18 2015-03-10 GM Global Technology Operations LLC Turn by turn graphical navigation on full windshield head-up display
US8457421B2 (en) * 2009-10-23 2013-06-04 Texas Instruments Incorporated System and method for imaging
US8085185B2 (en) * 2009-11-02 2011-12-27 Invention Planet, LLC Method of down converting high-frequency signals
JP5439163B2 (ja) * 2009-12-25 2014-03-12 オリンパス株式会社 光学式信号出力装置の信号処理装置及び光学式変位検出装置
US8384559B2 (en) * 2010-04-13 2013-02-26 Silicon Laboratories Inc. Sensor device with flexible interface and updatable information store
TWI425182B (zh) * 2010-06-15 2014-02-01 Pixart Imaging Inc 距離測量系統及其方法
GB2499159B (en) * 2010-10-22 2015-04-15 Neptec Design Group Ltd Wide angle bistatic scanning optical ranging sensor
GB201020023D0 (en) * 2010-11-25 2011-01-12 St Microelectronics Ltd Radiation sensor
US9086273B1 (en) * 2013-03-08 2015-07-21 Google Inc. Microrod compression of laser beam in combination with transmit lens
WO2015011869A1 (ja) * 2013-07-23 2015-01-29 パナソニックIpマネジメント株式会社 撮像装置及びその駆動方法
US20150176977A1 (en) * 2013-12-20 2015-06-25 Lemoptix Sa Methods and devices for determining position or distance
US10237534B2 (en) * 2014-07-07 2019-03-19 Infineon Technologies Ag Imaging device and a method for producing a three-dimensional image of an object
KR20230042386A (ko) * 2014-08-15 2023-03-28 에이아이, 아이엔씨. 레이더 전송을 위한 방법 및 시스템
WO2016033036A2 (en) * 2014-08-26 2016-03-03 Massachusetts Institute Of Technology Methods and apparatus for three-dimensional (3d) imaging
US10436907B1 (en) * 2014-10-11 2019-10-08 Arete Associates Active christiansen effect LIDAR system and method
US10126415B2 (en) * 2014-12-31 2018-11-13 Faro Technologies, Inc. Probe that cooperates with a laser tracker to measure six degrees of freedom
US9395296B1 (en) * 2015-02-20 2016-07-19 The United States Of America, As Represented By The Secretary Of The Army Two-dimensional optical spot location using a one-dimensional detector array
CN107407728B (zh) * 2015-03-26 2020-05-22 富士胶片株式会社 距离图像获取装置以及距离图像获取方法
JP2018533026A (ja) * 2015-11-05 2018-11-08 ルミナー テクノロジーズ インコーポレイテッド 高分解能のデプスマップを作成するための、改善された走査速度を有するライダーシステム
US9753126B2 (en) * 2015-12-18 2017-09-05 Gerard Dirk Smits Real time position sensing of objects
US20180100928A1 (en) * 2016-10-09 2018-04-12 Innoviz Technologies Ltd. Methods circuits devices assemblies systems and functionally associated machine executable code for active scene scanning
KR101913835B1 (ko) * 2016-10-27 2018-10-31 주식회사 에스오에스랩 장애물 감지장치 및 감지방법
US9869754B1 (en) * 2017-03-22 2018-01-16 Luminar Technologies, Inc. Scan patterns for lidar systems
US10976417B2 (en) * 2017-03-29 2021-04-13 Luminar Holdco, Llc Using detectors with different gains in a lidar system
US10684360B2 (en) * 2017-03-30 2020-06-16 Luminar Technologies, Inc. Protecting detector in a lidar system using off-axis illumination

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006031114A1 (de) 2006-06-29 2008-01-03 Kst Gmbh Kamera & System Technik 3D Kombinationsmessgerät aus digitaler Kamera und Laserscanner
EP2789972A1 (de) * 2013-04-12 2014-10-15 Hexagon Technology Center GmbH Vermessungsgerät mit verformbarem optischem Element
EP3118651A1 (de) * 2015-07-17 2017-01-18 Hexagon Technology Center GmbH Laufzeitmessvorrichtung und laufzeitmessverfahren mit ambiguitätslösung in echtzeit

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019101966A1 (de) * 2019-01-28 2020-07-30 Valeo Schalter Und Sensoren Gmbh Positionserfassungseinrichtung für eine Lichtsignalumlenkeinrichtung einer optischen Messvorrichtung zur Erfassung von Objekten, Lichtsignalumlenkeinrichtung, Messvorrichtung und Verfahren zum Betreiben einer Positionserfassungseinrichtung
WO2021083804A1 (de) * 2019-10-31 2021-05-06 Robert Bosch Gmbh Lidar-sensor mit kontrolldetektor
EP4063902A1 (de) * 2021-03-23 2022-09-28 Sick Ag Optoelektronischer sensor und verfahren zur erfassung von objekten
DE102021130609A1 (de) 2021-11-23 2023-05-25 Scantinel Photonics GmbH Vorrichtung und Verfahren zur scannenden Messung des Abstands zu einem Objekt
WO2023094156A1 (de) 2021-11-23 2023-06-01 Scantinel Photonics GmbH Vorrichtung und verfahren zur scannenden messung des abstands zu einem objekt

Also Published As

Publication number Publication date
CN108693515A (zh) 2018-10-23
CN108693515B (zh) 2024-03-19
US20180284271A1 (en) 2018-10-04
US11125876B2 (en) 2021-09-21

Similar Documents

Publication Publication Date Title
DE102017205631A1 (de) LiDAR-System und Verfahren zum Ermitteln eines Systemzustands eines LiDAR-Systems
EP2686700B1 (de) Messvorrichtung zur messung einer entfernung zwischen der messvorrichtung und einem zielobjekt mit hilfe optischer messstrahlung
EP2002281B1 (de) Vorrichtung zur optischen distanzmessung
EP1405037B1 (de) Vorrichtung zur optischen distanzmessung über einen grossen messbereich
EP2475957B1 (de) Optischer entfernungsmesser
EP2002208B1 (de) Vorrichtung zur optischen distanzmessung sowie verfahren zum betrieb einer solchen vorrichtung
EP2126607B1 (de) Umfeldsensor zur detektion von objekten und betriebsverfahren hierfür
EP3279685A1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
EP2189815B1 (de) Optische Einrichtung und Verfahren zu deren Überprüfung
DE102011089636A1 (de) Lichtlaufzeitkamera
DE3219452C2 (de) Dynamik-Steuerungsanordnung für ein Entfernungsmeßgerät
WO2020070311A1 (de) Bildgebender sensor
DE102015004903A1 (de) Optoelektronische Messvorrichtung
EP3699640A1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
WO2018086786A1 (de) Partikelsensor mit wenigstens zwei laser-doppler-sensoren
EP1903352B1 (de) Optoelektronische Sensoreinheit und Verfahren zum Betreiben einer optoelektronischen Sensoreinheit
DE202016104285U1 (de) Optoelektronischer Sensor zur Erfassung eines Objekts
DE2936104C2 (de)
DE102020100451A1 (de) Sensor und Verfahren zur Bestimmung einer Entfernung
DE102020104601A1 (de) Betriebsfähigkeitsüberwachung für Lichtdetektions- und Entfernungsmesssysteme
EP2963444B1 (de) Sensor und Verfahren zur ortsgenauen Detektion eines relativ zum Sensor in einer Förderrichtung geförderten Objekts
EP4184201B1 (de) Optoelektronischer sensor und verfahren zum ausrichten eines optoelektronischen sensors
EP4105682B1 (de) Optoelektronischer sensor und verfahren zur erfassung von objekten
EP4249949B1 (de) Erfassung und abstandsbestimmung eines objekts
DE102016213427A1 (de) LiDAR mit nachgeführtem Erfassungsbereich

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication