DE102018222718A1 - Optoelektronischer Sensor, Verfahren und Fahrzeug - Google Patents

Optoelektronischer Sensor, Verfahren und Fahrzeug Download PDF

Info

Publication number
DE102018222718A1
DE102018222718A1 DE102018222718.7A DE102018222718A DE102018222718A1 DE 102018222718 A1 DE102018222718 A1 DE 102018222718A1 DE 102018222718 A DE102018222718 A DE 102018222718A DE 102018222718 A1 DE102018222718 A1 DE 102018222718A1
Authority
DE
Germany
Prior art keywords
signal
digital converter
analog
signals
signal processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018222718.7A
Other languages
English (en)
Inventor
Matthias Wichmann
Daniel AQUINO MAIER
Oliver Kern
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018222718.7A priority Critical patent/DE102018222718A1/de
Priority to US16/715,165 priority patent/US11579264B2/en
Priority to CN201911336944.5A priority patent/CN111427058A/zh
Publication of DE102018222718A1 publication Critical patent/DE102018222718A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/34Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4917Receivers superposing optical signals in a photodetector, e.g. optical heterodyne detection

Abstract

Die vorliegende Erfindung betrifft einen optoelektronischen Sensor umfassend eine Sendeeinheit (20), welche eingerichtet ist, eine Mehrzahl optischer Signale jeweils auf eine Mehrzahl von Segmenten eines Objektes zu senden, eine Empfangseinheit (18) umfassend eine erste Multikanal-Analog-Digital-Wandlervorrichtung (10) mit: einer Analog-Digital-Wandlereinheit (1); einer Mehrzahl von Signalverarbeitungskanälen, wobei die Signalverarbeitungskanäle (8a-8d) der Mehrzahl von Signalverarbeitungskanälen jeweils: eine Detektionsantenne (12a-12d), welche eingerichtet ist, optische Signale, zu empfangen; und einen Modulator (3a-3d), welcher eingerichtet ist, eine individuelle Signalkodierung zu erzeugen, aufweisen wobei Signale der Mehrzahl von Signalverarbeitungskanälen mit individueller Signalkodierung gemeinsam an die Analog-Digital-Wandlereinheit (1) übertragbar sind, gewandelt werden und aufgrund der individuellen Signalkodierung über Algorithmen wieder den entsprechenden Signalverarbeitungskanälen zugeordnet werden können.

Description

  • Stand der Technik
  • Die vorliegende Erfindung betrifft einen optoelektronischen Sensor, insbesondere einen LiDAR-Sensor, ein Verfahren zum Betreiben des Sensors und ein Fahrzeug.
  • Für die Analyse der Umgebung durch LiDAR-Sensoren gibt es unterschiedliche Konzepte.
  • Ein häufig genutzter Ansatz ist der so genannte „Makroscanner“, bei dem ein rotierender Makrospiegel mit einem Durchmesser im Zentimeterbereich den Strahl über das Sichtfeld (auch „Field of View“ genannt) lenkt. Der relativ große Strahldurchmesser hat Vorteile in Bezug auf die Einhaltung der Augensicherheit, da in den Normen (IEC 608125-1) angenommene Pupillendurchmesser von 7 mm folglich nur einen Bruchteil der im Strahl enthaltenen optischen Leistung einfangen. Außerdem ist ein größerer Strahldurchmesser robuster gegenüber Streueinflüssen, wie z.B. Regen oder Staub.
  • Ein anderes Systemkonzept besteht darin, Mikroscanner zu verwenden. Hierbei handelt es sich um kleine Spiegel mit einem Durchmesser im Millimeter-Bereich (typischerweise 1-3 mm), die in der MEMS-Technologie gefertigt werden und in einer oder zwei Achsen schwingen können, um eine Strahlablenkung zu realisieren.
  • Weiterhin sind aus dem Stand der Technik LiDAR-Sensoren bekannt, die tonnenförmig, schuhkartonförmig oder dosenförmig ausgeführt sind. Des Weiteren werden derzeit „Solid State LiDAR“ (SSL)-Systeme entwickelt, welche ohne mechanische Bewegung zur Strahlablenkung, d. h. ohne einen beweglichen Spiegel, auskommen. Neben reduzierten Kosten können diese Systeme ebenfalls Vorteile in Bezug auf Vibrationseinflüsse haben, die unter anderem im Automotive-Bereich eine Rolle spielen. Ein Ansatz eines SSL basiert auf einer Strahlablenkung durch sogenannte „Optical Phase Arrays“ (OPAs). Hier wird die Phase einzelner Antennenelemente eines Antennen-Arrays auf einem photonischen Chip so angepasst, dass die Superposition der Teile aller Antennenelemente ein Intensitätsmaximum in der bevorzugten Richtung besitzt. Große Herausforderungen bei diesem Ansatz sind unter anderem sowohl die präzise Einstellung der Phase für jedes Einzelelement als auch in andere Richtungen abgestrahlte Nebenordnungen des Interferenzmusters. Ferner ist beispielsweise aus der US 2017/0090031 A1 ein Scanning-System auf Basis zweier Gitter ohne ein scannendes Element zur zweidimensionalen Strahlablenkung bekannt.
  • LiDAR-Systeme messen den Abstand eines Objektes zum Beispiel durch eine direkte Laufzeitmessung (auch „direct time of flight“ (dToF) genannt) des ausgestrahlten Lichtimpulses. Eine Laserquelle sendet einen Lichtimpuls aus, der über eine geeignete Einheit auf ein Objekt abgelenkt wird. Das Objekt reflektiert den Lichtimpuls, wobei der reflektierte Lichtimpuls von einem Detektor gemessen und ausgewertet wird. Bei der Nutzung der Laufzeitmessung kann das System anhand der Zeitpunkte des ausgesendeten und des empfangenen Lichtpulses die Laufzeit und über die Lichtgeschwindigkeit den Abstand des Objekts zum Sender/Detektor ermitteln. Andere Verfahren basieren auf einer indirekten Laufzeitmessung durch Modulation der Lichtintensität bzw. der Lichtfrequenz selbst. Ein Ansatz ist hierbei die Kombination aus Frequenzmodulation und kohärenter Detektion (auch „coherent frequency modulated continuous wave“ (FMCW) genannt). Als Fachwissen hierzu ist insbesondere die WO 2018/067158 A1 einschlägig.
  • Offenbarung der Erfindung
  • Gemäß einem ersten Aspekt betrifft die vorliegende Erfindung einen optoelektronischen Sensor. Unter einem „optoelektronischen Sensor“ kann insbesondere ein LiDAR-Sensor und/oder ein laserbasierter Geschwindigkeits- und/oder Entfernungsmesssensor verstanden werden. Der optoelektronische Sensor umfasst eine Sendeeinheit, welche eingerichtet ist, eine Mehrzahl optischer Signale jeweils auf eine Mehrzahl von Segmenten eines Objektes zu senden. Unter einem „Objekt“ kann insbesondere ein durch den optoelektronischen Sensor erfassbares Objekt verstanden werden. Das Objekt wird insbesondere über ein Sichtfeld des Sensors adressiert, wobei Bildpunkte des Sichtfeldes jeweils Segmenten der Mehrzahl von Segmenten des Objekts zugewiesen sind. Die Sendeeinheit kann insbesondere eingerichtet sein, über bewegliche optische Elemente, z.B. Spiegel, ein optisches Signal selektiv auf ein Segment des Objektes bzw. auf einen Bildpunkt eines Sichtfeldes, welcher mit einem Segment des Objektes assoziiert ist, zu senden. Vorliegend werden die Begriffe „Bildpunkt“ und „Pixel“ äquivalent verwendet. Ferner umfasst der erfindungsgemäße optoelektronische Sensor eine Empfangseinheit umfassend eine erste Multikanal-Analog-Digital-Wandlervorrichtung. Insbesondere kann die Empfangseinheit auch eine Mehrzahl von Multikanal-Analog-Digital-Wandlervorrichtungen aufweisen. Die besagte erste Multikanal-Analog-Digital-Wandlervorrichtung umfasst eine Analog-Digital-Wandlereinheit, welche eingerichtet sein kann, elektronische Signale abzutasten und in digitale Signale umzuwandeln, d.h. die elektronischen Signale zu digitalisieren. Ein nachfolgender Signalprozessor, z.B. eine CPU, führt Signalverarbeitungsschritte aus, welche, die üblichen aus dem Stand der Technik bekannten FMCW-Signalverarbeitungsschritte umfassen können, außer, dass eine zusätzliche Trennung der vorher kombinierten Signale der jeweiligen optischen Kanäle erfolgt. Diese Signalverarbeitungsschritte können z.B. ein Transformationsverfahren, wie etwa ein Fourier-Transformationsverfahren (z.B. ein Fast-Fourier-Transformationsverfahren), umfassen. Ferner umfasst die Multikanal-Analog-Digital-Wandlervorrichtung eine Mehrzahl von Signalverarbeitungskanälen, wobei die Signalverarbeitungskanäle der Mehrzahl von Verarbeitungskanälen jeweils eine Detektionsantenne, welche eingerichtet ist, optische Signale zu empfangen, aufweisen. Insbesondere kann die Detektionsantenne eingerichtet sein, optische Signale, welche von einem Segment der Mehrzahl von Segmenten des Objektes reflektiert werden, zu empfangen. Als Detektionsantenne kann insbesondere jegliche Detektionsantenne in Frage kommen, welche eingerichtet ist, eine Laserstrahlung zu empfangen. Ferner umfasst ein Signalverarbeitungskanal der Mehrzahl von Signalverarbeitungskanälen jeweils einen Modulator, welcher eingerichtet ist, eine individuelle Signalkodierung zu erzeugen. Insbesondere kann die Mehrzahl von Signalverarbeitungskanälen 2 bis 1000, insbesondere 4 bis 100, Signalverarbeitungskanäle, besonders bevorzugt 4 bis 16 Signalverarbeitungskanäle, umfassen. Die jeweiligen Signale der Mehrzahl von Signalverarbeitungskanälen können mit individueller Signalkodierung, welche durch den Modulator erzeugt wird, gemeinsam an die Analog-Digital-Wandlereinheit übertragen werden. Insbesondere können die Signale mit individueller Signalkodierung über eine Überlagerungseinheit, beispielsweise über einen Addierer, geleitet und dort überlagert werden, ehe die Signale mit individueller Signalkodierung auf die Analog-Digital-Wandlereinheit übertragen werden. Bevorzugt werden für den optoelektronischen Sensor gemäß der vorliegenden Erfindung Wellenlängen im Bereich von 1300 bis 1600 nm und/oder 840 bis 1000 nm zur Erzeugung der Signale verwendet. Mittels des Modulators kann mit anderen Worten ein Signal mit individueller Signalkodierung erzeugt werden, wobei der Modulator in Abhängigkeit von seiner Anordnung im Signalverarbeitungskanal, ein optisches und/oder ein elektronisches Signal individuell kodieren kann. Hierdurch sind die jeweiligen Signale aus den verschiedenen Signalverarbeitungskanälen voneinander unterscheidbar. Durch die jeweilige individuelle Signalkodierung können die Signale aus der Mehrzahl von Signalverarbeitungskanälen beispielsweise gemeinsam in eine einzige Analog-Digital-Wandlereinheit übertragen werden, wo die Signale digitalisiert werden. Nach erfolgter Digitalisierung in der Analog-Digital-Wandlereinheit wird das digitalisierte Signal einem Signalprozessor zugeführt. Hierbei kann insbesondere über die Fourier-Transformation oder ein anderes Korrelationsverfahren, wie die Kreuzkorrelation mit bekannten Codes, aufgrund der eingangs individualisierten Kodierung der jeweiligen Signale das entsprechende Signal einem spezifischen Bildpunkt zugeordnet werden. Durch die Transformation, beispielsweise eine Fast-Fourier-Transformation und/oder eine Kreuzkorrelation, kann, aufgrund der eingangs erzeugten individuellen Kodierung der jeweiligen Signale, das Signal nach der Zusammenführung in dem Analog-Digital-Wandler dem ursprünglich empfangenen optischen Signal zugewiesen werden. Auf diese Art und Weise können mehrere Bildpunkte, welche mit empfangenen Signalen assoziiert sind, welche beispielsweise von mehreren Segmenten des Objektes reflektiert wurden, in einer Analog-Digital-Wandlereinheit ausgewertet werden. Somit können Kosten gespart werden, da auf eine wie eingangs beschriebene bekannte Anordnung verzichtet werden kann, bei der jeder Signalverarbeitungskanal einer jeweiligen Analog-Digital-Wandlereinheit zugewiesen ist. Weiterhin können aufgrund der parallelen Auswertung der reflektierten Signale, welche einem jeweiligen Bildpunkt zugewiesen sind, die Auswertezeiten verkürzt werden. Die Auswertung kann insbesondere über eine eingangs beschriebene FMCW-Technik durchgeführt werden. Insbesondere wird die FMCW-spezifische Modulation der Sendeeinheit zur Entfernungs- und Geschwindigkeitsbestimmung verwendet. Die erfindungsgemäßen Modulatoren der Empfangseinheit hingegen werden verwendet, um Pixel voneinander zu unterscheiden. Innerhalb der Kombiniereinheit findet also insbesondere eine Interferenz zwischen dem ausgesendeten und dem empfangenen optischen Signal statt. Dies kann vorteilhaft sein, um die entsprechenden Signale, welche Bildpunkten bzw. Pixeln eines Sichtfeldes zugewiesen sind, zuzuordnen, da man beispielsweise eine optische Phase auch an einem abgezweigten, in die Kombiniereinheit mündenden Referenzkanal modulieren kann, was bei einer dToF-Messung insbesondere nicht möglich ist. Hierbei ist es allerdings gegenüber dem Stand der Technik vorteilhaft, dass, wie bereits ausgeführt, sowohl die Anzahl der Analog-Digital-Wandler deutlich verringert wird als auch die Auswertezeit deutlich reduziert ist, da mehrere Bildpunkte parallel abgetastet werden. Somit kann je Bildpunkt eine höhere Auswertezeit vorgesehen werden. Um die Signale unterscheidbar voneinander zu modulieren, kann eine Modulation beispielsweise eine Amplitudenmodulation und/oder eine Phasenmodulation umfassen. Die entsprechende Modulation kann elektronisch und/oder optisch erfolgen. Eine Amplitudenmodulation kann insbesondere eine Multiplikation eines Signals mit 1 oder 0 und/oder -1 und 1 umfassen. Bei einer derartigen binären Modulation werden beispielsweise bei einer Auswertung von vier Bildpunkten, wobei jeder Signalverarbeitungskanal einem Bildpunkt zugewiesen ist, vier Signalverarbeitungskanäle benötigt. Je Signalverarbeitungskanal werden hierbei mindestens zwei Messungen benötigt, um per Modulation eine unterscheidbare Kodierung für vier Signale der jeweiligen Signalverarbeitungskanäle zu erzeugen. Diese Signale können für die Analog-Digital-Wandlereinheit überlagert werden und sind nach der Digitalisierung in der Analog-Digital-Wandlereinheit, wie vorstehend beschrieben, voneinander unterscheidbar und einem ursprünglichen Signalverarbeitungskanal zuordenbar. Erfindungsgemäß kann ein optoelektronischer Sensor somit auf eine kompakte und kostengünstige Art und Weise realisiert werden, da durch die parallele Auswertung von Bildpunkten große Reichweiten (> 100 m) wie auch größere Sichtfelder (> 100 °) und auch große Messraten (> 1 Megasamples pro Sekunde) realisierbar sind. Durch die vorstehend beschriebene kostengünstige Parallelisierung mittels einer Multikanal-Analog-Digital-Wandlervorrichtung, kann durch eine höhere Messzeit pro Bildpunkt zudem das Signal-zu-Rausch-Verhältnis des optoelektronischen Sensors verbessert werden. Zudem kann für eine gleichbleibende Detektionswahrscheinlichkeit die Sendeleistung reduziert werden, was ebenfalls eine Kosteneinsparung zur Folge hat. Weiterhin kann durch die Parallelisierung gemäß der Multikanal-Analog-Digital-Wandlervorrichtung eine „Bildpunkt-Samplingrate“ (adressierte Bildpunkte des Sichtfeldes je Zeiteinheit) erhöht werden. Weiterhin ist auch eine waferbasierte Fertigung des erfindungsgemäßen optoelektronischen Sensors möglich.
  • Die Unteransprüche haben vorteilhafte Weiterbildungen und Ausgestaltungen der Erfindung zum Inhalt.
  • Gemäß einer vorteilhaften Weiterbildung ist die Sendeeinheit eingerichtet, die optischen Signale pixelweise und/oder spaltenweise und/oder blockweise, d.h. je Analog-Digital-Wandlervorrichtung, gemäß einer Ausrichtung der Detektionsantennen in Bezug auf das Sichtfeld, auf das Objekt zu senden. Der erfindungsgemäße optoelektronische Sensor hat daher den Vorteil, dass die vorstehend beschriebenen technischen Effekte über eine Vielzahl von Beleuchtungsschemata eines Sichtfeldes des Sensors realisiert werden können. Insbesondere kann die Sendeeinheit, beispielsweise in Kombination mit einer weiteren optischen Einheit, insbesondere einem Linsensystem, eingerichtet sein, ein Flash-Beleuchtungsmuster, d.h. eine zeitgleiche Ausleuchtung des gesamten Sichtfelds, und/oder ein pixelweises Beleuchtungsmuster und/oder ein spaltenweises Beleuchtungsmuster bezüglich der Bildpunkte eines Sichtfeldes des optoelektronischen Sensors auszusenden. Zusätzlich oder alternativ können die Bildpunkte eines Sichtfeldes gleichzeitig beleuchtet werden. Mit anderen Worten kann eine Gruppe von Bildpunkten, welche der Anzahl der Signalverarbeitungskanäle des erfindungsgemäßen optoelektronischen Sensors entsprechen, wobei jeder Signalverarbeitungskanal insbesondere mit einem Bildpunkt einer Gruppe assoziiert ist, adressiert werden.
  • Gemäß einer vorteilhaften Ausgestaltung des erfindungsgemäßen optoelektronischen Sensors kann die Sendeeinheit ein erstes diffraktives optisches Element aufweisen, wobei das erste diffraktive optische Element eingerichtet ist, in Abhängigkeit einer Variation einer von der Sendeeinheit ausgesandten Wellenlänge ein zu dieser Wellenlänge korrespondierendes optisches Signal auf verschiedene Segmente der Mehrzahl von Segmenten des Objekts zu leiten. Das diffraktive optische Element kann fest und nicht-beweglich an dem erfindungsgemäßen optoelektronischen Sensor angeordnet sein.
  • Insbesondere kann ein optisches Signal von dem diffraktiven optischen Element, z.B. von einem Gitter, auf einen Spiegel, z.B. einen beweglichen Spiegel, geleitet werden und umgekehrt ehe das Signal auf das Objekt geleitet wird. Hierbei kann der Spiegel ein vertikales oder ein horizontales Sichtfeld adressieren. Ferner ist es möglich, dass durch die Ablenkung am Gitter bzw. dem diffraktiven optischen Element ein horizontales oder ein vertikales Sichtfeld adressiert wird. Mit anderen Worten kann die Zielposition des Signals, also der adressierte Bildpunkt, durch die Variation der ausgesandten Wellenlänge geändert bzw. gesteuert werden. Ferner kann sich ein Winkel einer Ablenkung eines optischen Signals durch das diffraktive optische Element aufgrund einer Änderung einer Gitterkonstante und/oder einer Gitterphase desselben ergeben. Insbesondere kann hierbei die Sendeeinheit eine Laserquelle beinhalten. Weiterhin kann beispielsweise die Sendeeinheit ein der Laserquelle nachgeordnetes Linsenelement, beispielsweise einen Kollimator und/oder ein Objektiv, beinhalten, wobei der Kollimator und/oder das Objektiv eingerichtet sind, eine planare Wellenfront des Lichts, welches durch die Sendeeinheit ausgesendet wird, zu erzeugen, wobei diese planare Wellenfront anschließend auf das erste diffraktive optische Element geleitet werden kann. Durch eine derartige Anordnung kann insbesondere lediglich durch die Variation einer Wellenlänge die Richtung eines ausgesendeten Lichtstrahls positionsselektiv gesteuert werden, ohne dass rotierende Elemente notwendig sind. Somit lässt sich das Licht insbesondere in einer Dimension über die Wellenlängenänderung steuern. Die zweite, dazu orthogonale Dimension kann z.B. über eine linienförmige Anordnung der Signalkanäle in der Fokusebene des Objektivs aufgespannt werden. Das Objektiv ermöglicht dabei, dass jeder Signalverarbeitungskanal einen unterschiedlichen Bildpunkt im Sichtfeld adressiert. Somit kann erfindungsgemäß ein SSL-Sensor mit den vorstehend beschriebenen Eigenschaften bereitgestellt werden. Beispielsweise kann durch die Signalverarbeitungskanäle der Multikanal-Analog-Digitalwandervorrichtung eine Dimension aufgespannt werden. Eine zweite Dimension kann durch einen Wellenlängenscan aufgespannt werden, wobei der erfindungsgemäße optoelektronische Sensor in einer vorteilhaften Ausführungsform als koaxiales System auf einem „Photonic Integrated Circuit“ (PIC) umgesetzt wird.
  • Alternativ zu einer Wellenlängenänderung kann eine Strahlablenkung auch über ein adaptives diffraktives optisches Element in der Pupille stattfinden, dieses Element ändert für definierte Wellenlängen in Abhängigkeit z.B. einer Spannung seine optische Funktion, z.B. die Strahlablenkung.
  • Alternativ können die Signalverarbeitungskanäle der Multikanal-Analog-Digital-Wandlervorrichtung eine Dimension aufspannen. Eine eindimensionale Strahlablenkung wie z.B. ein beweglicher Spiegel, in einer Pupille des Objektivs kann eine zweite Dimension aufspannen, wobei der optoelektronische Sensor als koaxiales System auf einem PIC umgesetzt werden kann. Im Falle eines diffraktiven optischen Elements kann dieses beispielsweise ein diffraktives optisches Gitter sein. Dieses Gitter kann insbesondere mittels einer MEMS-Technologie und/oder einer Hologrammtechnologie und/oder mittels einer Prägungs- und/oder Heißformgebungstechnologie und/oder mittels einer LCD-Technik und/oder Lithographie-Prozessen hergestellt werden. Insbesondere kann die Geometrie des Gitters ein Blazed Grating (um die Effizienz in der Hauptordnung zu maximieren) und/oder ein binäres Gitter, d.h. ein diskretes Gitter mit Stufen zweier definierter Höhen, und/oder ein Sinusgitter, d.h. die Amplitude und/oder Phase des Gitters weist eine sinusförmige Struktur auf, und/oder ein Freiformgitter bzw. ein aperiodisches Gitter, d.h. eine Gitterstruktur die auf bestimmte optische Funktionen optimiert ist, und/oder ein Gitter umfassend ein holographisches Material aufweisen.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung kann die Sendeeinheit ein erstes bewegliches optisches Element aufweisen, wobei das erste bewegliche optische Element eingerichtet ist, in Abhängigkeit einer Eigenbewegung ein optisches Signal auf verschiedene Segmente der Mehrzahl von Segmenten des Objekts zu leiten. Mit anderen Worten kann durch das erste bewegliche optische Element eine bestimmte Pixelposition des Sichtfeldes zur Signalaussendung in Abhängigkeit dessen Eigenbewegung adressiert werden. Insbesondere umfasst das erste bewegliche optische Element ein rotierendes Element und/oder einen Scanner. Mit dem Begriff „Scanner“ ist ein optisches Element gemeint, das einen optischen Strahl in eine definierte Raumrichtung ablenkt und somit erlaubt, einen Bereich im Sichtfeld zu adressieren. Insbesondere kann der Scanner als 1D-Scanner und/oder 2D-Scanner ausgelegt sein. Ferner können ebenfalls zwei eindimensionale Scanner für jeweils ein horizontales und vertikales Sichtfeld in geringem Abstand zueinander eingesetzt werden. Weiterhin können auch zwei eindimensionale Scanner für ein horizontales und ein vertikales Sichtfeld mit einer X:Y-Abbildung zwischen den Scannern eingesetzt werden. Insbesondere kommen als bewegliche optische Elemente Spiegel, insbesondere MEMS-Spiegel, und/oder Galvo- und/oder kardanische Spiegel bzw. Gimbal-Spiegel und/oder Makroscanner, wobei ein Makroscanner einen Sensor auf einem drehbaren Element umfasst und eingerichtet ist, z.B. ein horizontales Sichtfeld abzutasten, in Frage.
  • Beispielsweise können das bewegliche optische Element und das diffraktive optische Element nacheinander angeordnet sein. Hierbei kann das bewegliche optische Element Lichtstrahlen auf das diffraktive optische Element lenken und umgekehrt. Weiterhin kann das diffraktive optische Element auf dem beweglichen optischen Element, z.B. einem Spiegel, aufgebracht sein.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen optoelektronischen Sensors ist dieser eingerichtet, ein direct Time of Flight, d.h. ein direktes Laufzeitmessverfahren, und/oder eine Kombination aus Frequenzmodulation und kohärenter Detektion (FMCW-Verfahren, siehe obige Definition) und/oder eine Kombination aus Phasenmodulation und kohärenter Detektion durchzuführen. Insbesondere kann es bei einem FMCW-Verfahren vorgesehen sein, dass ein moduliertes Referenzsignal von dem Sendesignal über einen Referenzkanal abgezweigt wird. Insbesondere ist ein Referenzkanal mit Kombiniereinheiten, welche insbesondere jeweils in einer der Signalverarbeitungskanäle der Mehrzahl von Signalverarbeitungskanälen angeordnet sind, verbunden. Mit anderen Worten wird insbesondere ein Teil eines modulierten Signals, welches ausgesendet wird, z.B. als Lokaloszillator (d. h. als moduliertes Referenzsignal) abgezweigt. Der Anteil dieses Signals wird mit dem empfangenen Signal in der Kombiniereinheit interferiert. Die Modulation des Lasers und damit des Referenzsignals bzw. empfangenen Signals wird, wie von FMCW Verfahren bekannt, zur Ermittlung der Entfernung und Geschwindigkeit eines Objekts verwendet. Die Modulation der Modulatoren dient der Unterscheidung der einzelnen Signalverarbeitungskanäle der Multikanal-Analog-Digital-Wandlervorrichtung. Insbesondere führt die FMCW-Modulation der Sendeeinheit zu einem Beating-Signal (bei der Überlagerung des Lokaloszillators mit den Signalen der Empfangseinheit), in welchem die Entfernung und die Geschwindigkeit eines Objekts in einem Pixel enkodiert sind. Beispielsweise kann über eine Fast-Fourier-Transformation eine Beatingfrequenz bestimmt werden. Weiterhin oder alternativ kann eine Überlagerung mehrerer Pixel von jeweiligen Signalverarbeitungskanälen zu einem unterschiedlichen Verhalten der einzelnen Peaks führen, was durch mehrere Messungen bestimmt werden kann. Hierbei kann jeder Peak einem Signalverarbeitungskanal zugeordnet werden. Auf diese Art und Weise kann insbesondere durch die erste Multikanal-Analog-Digital-Wandlervorrichtung ein vorteilhafter Betrieb eines optoelektronischen Sensors mit verbessertem Signal-zu-Rausch-Verhältnis und einer höheren Messzeit pro Pixel bereitgestellt werden.
  • Gemäß einer vorteilhaften Weiterbildung des erfindungsgemäßen optoelektronischen Sensors können die Sendeeinheit und die Empfangseinheit koaxial und/oder biaxial zueinander angeordnet sein. Insbesondere können die Sendeeinheit und die Empfangseinheit als Transceiver ausgelegt sein. Hierbei kommen diskrete Systeme und/oder Freistrahlsysteme und/oder faserbasierte Systeme und/oder PIC in Betracht. Insbesondere können die Sendeeinheit und die Empfangseinheit bei einer koaxialen Anordnung ein Multiplexing mehrerer Laser umfassen. Hierbei kann eine Parallelisierung durch mehrere Laser mit eigenen Signalpfaden stattfinden. Die Laser können optional unterschiedliche Zentralwellenlängen haben. Insbesondere kann eine biaxiale Ausgestaltung der Sendeeinheit und der Empfangseinheit der Ausgestaltung in der vorbeschriebenen koaxialen Variante entsprechen. Hierbei besteht der Unterschied darin, dass die Signalverarbeitungskanäle bezüglich des Ortes der Auskopplung und des Empfangs bzw. des Ortes der Anordnung der Detektionsantenne und einer Sendeantenne variieren. Ferner können beide vorbeschriebenen Varianten innerhalb eines erfindungsgemäßen optoelektronischen Sensors angeordnet sein.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung kann der Sensor mit einer biaxialen Anordnung von Sendeeinheit und Empfangseinheit ein zweites diffraktives optisches Element und/oder ein zweites bewegliches optisches Element aufweisen, wobei das zweite diffraktive optische Element bzw. das zweite bewegliche optische Element jeweils eingerichtet sind, auftreffende optische Signale zu den Detektionsantennen der Signalverarbeitungskanäle zu leiten. Im Falle einer biaxialen Anordnung kann sich das zweite diffraktive optische Element bzw. das zweite bewegliche optische Element von dem vorstehend beschriebenen ersten diffraktiven optischen Element bzw. dem ersten beweglichen optischen Element bezüglich seiner räumlichen Anordnung unterscheiden. Im anderen Fall können das erste diffraktive optische Element und das zweite diffraktive optische Element bzw. das erste bewegliche optische Element und das zweite bewegliche optische Element identisch sein.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung des erfindungsgemäßen optoelektronischen Sensors kann die Empfangseinheit eine zweite Multikanal-Analog-Digital-Wandlervorrichtung aufweisen. Diese zweite Multikanal-Analog-Digital-Wandlervorrichtung weist im Wesentlichen dieselben strukturellen Merkmale bzw. Eigenschaften wie die erste Multikanal-Analog-Digital-Wandlervorrichtung auf. Beispielsweise können pro Multikanal-Analog-Digital-Wandlervorrichtung 10 bis 20 Signalverarbeitungskanäle vorgesehen sein. Weiterhin können bei einem Sensor, welcher mittels eines Flash-Verfahrens betrieben wird, 2000 bis 7000 Multikanal-Anaolg-Digital-Wandlervorrichtungen mit je 10 bis 30 Multikanal-Analog-Digital-Wandlervorrichtungen vorgesehen sein. Weiterhin können erfindungsgemäße LiDAR-Sensoren eine vertikale Anordnung erfindungsgemäßer Multikanal-Analog-Digital-Wandlervorrichtungen (z.B. 4 bis 16) mit jeweils 8 bis 32 Signalverarbeitungskanälen aufweisen. Ferner kommt ein horizontaler Scanner mit 10 bis 20 Multikanal-Analog-Digital-Wandlervorrichtungen mit je 4 bis 64 Signalverarbeitungskanälen infrage.
  • Gemäß einer weiteren vorteilhaften Ausgestaltung adressiert die erste Multikanal-Analog-Digital-Wandlervorrichtung Bildpunkte eines Sichtfeldes, welche parallel und/oder alternierend und/oder diagonal versetzt zu Bildpunkten sind, die durch die zweite Multikanal-Analog-Digital-Wandlervorrichtung adressiert werden. Hierbei sind beliebe Kombinationen vorstehend genannter Muster möglich. Besonders vorteilhafte Muster zeichnen sich in einer Ausführungsform dadurch aus, dass die einer Multikanal-Analog-Digital-Wandlervorrichtung zugeordneten Bildpunkte des Sichtfelds möglichst unterschiedliche Entfernungen adressieren. Insbesondere werden z.B. Muster eingesetzt bei denen die zu einer der Multikanal-Analog-Digital-Wandlervorrichtungen zugehörigen Pixel im vertikalen Sichtfeld möglichst weit auseinanderliegen. Bei 10 Multikanal-Analog-Digital-Wandlervorrichtung mit jeweils 16 Signalverarbeitungskanälen und einem vertikalen Sichtfeld von 0 ° bis 24 °, werden von einer ersten Multikanal-Analog-Digital-Wandlervorrichtung Pixel im Bereich von 0 ° bis 22,5 ° (z.B. in 1,5 °-Schritten) und von der zweiten Multikanal-Analog-Digital-Wandlervorrichtung die Pixel 0,15° bis 22,65 ° (z.B. in 1,5 °-Schritten) adressiert. Die folgenden Multikanal-Analog-Digital-Wandlervorrichtungen sind immer um 0,15 ° verschoben, sodass die zehnte Multikanal-Analog-Digital-Wandlervorrichtung die Winkel 1,35 ° bis 24 ° (z.B. in 1,5 °-Schritten) adressiert.
  • In bestimmten Fällen kann es auch von Vorteil sein, dass die zu einer Multikanal-Analog-Digital-Wandlervorrichtung gehörenden Signalverarbeitungskanäle möglichst benachbarte Pixel im Sichtfeld adressieren, z.B. um das Signal-zu-Rausch-Verhältnis zu verbessern. In einer Ausführungsform können hier beispielsweise drei Multikanal-Analog-Digital-Wandlervorrichtungen vorgesehen sein, wobei eine erste Multikanal-Analog-Digital-Wandlervorrichtung einen Winkelbereich von 0 ° bis 10 °, eine zweite Multikanal-Analog-Digital-Wandlervorrichtung einen Winkelbereich von 10 ° bis 20 ° und eine dritte Multikanal-Analog-Digital-Wandlervorrichtung einen Winkelbereich von 20 ° bis 30 ° adressiert. Dasselbe kann zusätzlich oder alternativ zu diesen Winkelbereichen auch für Entfernungsbereiche von jeweils < 50 m, 50 m bis 100 m und 150 m bis 200 m erfolgen.
  • Bezüglich der Ausgestaltung der ersten und/oder zweiten und/oder weiteren erfindungsgemäßen Multikanal-Analog-Digital-Wandlervorrichtungen seien folgende Varianten aufgeführt:
    • Gemäß einer ersten Variante umfassen die Signalverarbeitungskanäle der Mehrzahl von Signalverarbeitungskanälen jeweils einen Photodetektor, insbesondere eine Photodiode und/oder einen Balanced-Detektor, wobei der Photodetektor eingerichtet ist, optische Signale in elektronische Signale zu konvertieren, und/oder eine Kombiniereinheit, wobei die Kombiniereinheit eingerichtet ist, die durch die Detektionsantennen empfangenen optischen Signale mit einem modulierten Referenzsignal zu kombinieren.
  • Gemäß einer zweiten Variante, welche mit der ersten Variante kombinierbar ist, ist der Modulator jeweils zwischen der Detektionsantenne und der Kombiniereinheit und/oder zwischen dem abgezweigten Signal aus einem abgezweigten Referenzkanal und der Kombiniereinheit und/oder zwischen der Kombiniereinheit und dem Photodetektor und/oder zwischen dem Photodetektor und der Analog-Digital-Wandlereinheit in mindestens einem Signalverarbeitungskanal der Mehrzahl der Signalverarbeitungskanäle angeordnet.
  • In einer dritten Variante, welche mit den vorstehenden Varianten kombinierbar ist, ist eine Mehrzahl der Detektionsantennen der Mehrzahl von Signalverarbeitungskanälen jeweils in unterschiedliche räumliche Richtungen ausgerichtet.
  • Gemäß einer vierten Variante, welche mit den vorstehend genannten Varianten kombinierbar ist, ist mindestens ein Modulator der Mehrzahl von Signalverarbeitungskanälen eingerichtet, eine Amplitude und/oder eine Phase des optischen Signals und/oder des in der Kombiniereinheit kombinierten Signals und/oder des in dem Photodetektor detektierten Signals zu modulieren. Eine derartige Modulation kann entweder bezüglich eines optischen und/oder eines elektronischen Signals stattfinden. Insbesondere kann im Falle einer Amplitudenmodulation eine Multiplikation einer Amplitude mit 0 oder 1 bzw. -1 und 1 auf eine binäre Weise erfolgen. Weiterhin kann eine Modulation der Phase um 0 ° und/oder 90° und/oder 180 ° stattfinden. Als Modulator kommen insbesondere ein einstellbares Dämpfung- und/oder Verstärkungsglied und/oder ein thermischer Phasenschieber und/oder ein elektrischer Phasenschieber in Frage.
  • Gemäß einer fünften Variante, die mit den vorstehend genannten kombinierbar ist, umfasst eine erfindungsgemäße Multikanal-Analog-Digital-Wandlervorrichtung eine Signalüberlagerungseinheit, welche eingerichtet ist, die Signale mit individueller Signalkodierung vor deren Übertragung in die Analog-Digital-Wandlereinheit zu überlagern.
  • Gemäß einer sechsten Variante, welche mit den vorstehend genannten Varianten kombinierbar ist, ist die Analog-Digital-Wandlereinheit eingerichtet, ein digitales Signal zu generieren. Mittels eines der Analog-Digital-Wandlereinheit nachgeordneten Signalprozessors kann eine Transformation der Signale stattfinden.
  • Die folgenden erfindungsgemäßen Aspekte weisen die vorteilhaften Ausgestaltungen mit den wie vorstehend genannten Merkmalen sowie die generellen Vorteile des erfindungsgemäßen optoelektronischen Sensors und die jeweils damit verbundenen technischen Aspekte entsprechend auf. Zur Vermeidung von Wiederholungen wird deshalb auf eine erneute Aufzählung verzichtet.
  • Gemäß einem zweiten Aspekt betrifft die vorliegende Erfindung ein Fahrzeug, insbesondere ein Automobil, umfassend einen optoelektronischen Sensor gemäß dem ersten Erfindungsaspekt. Als Fahrzeuge im Sinne der Erfindung kommen zum Beispiel Automobile, insbesondere PKW und/oder Robotaxis und/oder LKW und/oder autonome Transportsysteme und/oder Motorräder und/oder Flugzeuge und/oder Schiffe in Frage. Die Erfindung betrifft aber auch autonome Roboter für Industrie- und Consumerapplikationen.
  • Gemäß einem dritten Aspekt betrifft die vorliegende Erfindung ein Verfahren zur Signalmodulation in einem optoelektronischen Sensor. Das Verfahren kann als FMCW- und/oder dToF-Verfahren ausführbar sein. Das Verfahren umfasst den Schritt eines Sendens eines, insbesondere modulierten, optischen Signals auf mehrere Bildpunkte eines Sichtfeldes. In einem zweiten Schritt umfasst das Verfahren ein Empfangen reflektierter optischer Signale bezüglich mehrerer Bildpunkte über eine vorstehend beschriebene Multikanal-Analog-Digital-Wandlervorrichtung über jeweils einen Signalverarbeitungskanal der Mehrzahl von Signalverarbeitungskanälen. In einem weiteren Schritt wird insbesondere ein vormoduliertes Referenzsignal des gesendeten modulierten optischen Signals mit dem empfangenen Signal (im Falle eines FMCW-Verfahrens) kombiniert. Dies kann beispielsweise in der Kombiniereinheit stattfinden. In einem weiteren Schritt werden insbesondere die empfangenen Signale moduliert, um ein individuell kodiertes analoges Signal zu erzeugen. Dies kann insbesondere durch die bereits oben beschriebenen Maßnahmen erfolgen. In einem weiteren Schritt werden die individuell kodierten analogen Signale miteinander überlagert. Dies kann beispielsweise durch eine Überlagerungseinheit erfolgen. Anschließend werden insbesondere die überlagerten und kodierten Signale gemeinsam in eine Analog-Digital-Wandlereinheit übertragen, wo sie digitalisiert werden. Die digitalisierten Signale werden mit einem Transformationsverfahren, insbesondere mehrfach, beispielsweise mittels eines Fast-Fourier-Transformations-Verfahrens, durch einen Signalprozessor transformiert, damit die digitalen Signale voneinander unterschieden werden können bzw. die Entfernungs- und/oder Geschwindigkeitsinformation ermittelt werden kann. Insbesondere ergibt eine Fast-Fourier-Transformation Peaks, welche Informationen zu Entfernung und Geschwindigkeit enthalten. Durch die Modulation dieser Peaks mit mehreren Messungen kann eine Pixelzugehörigkeit hinsichtlich eines Sichtfeldes bestimmt werden. Mit anderen Worten erfolgt ein Auswerten der transformierten überlagerten Signale, um diese dem jeweiligen Bildpunkt zuzuordnen. Auf diese Art und Weise kann innerhalb dieses Schrittes durch bekannte technische Verfahren der Abstand bzw. die Geschwindigkeit eines Objektes in jedem Pixel zugeordnet werden. Hierbei kann die Ermittlung von Entfernung und Geschwindigkeit weitgehend auf dem Fachmann bekannten Verfahren erfolgen. Insbesondere wird von den überlagerten digitalen Signalen mittels eines Signalprozessors ein Spektrum ermittelt, wobei die Frequenzmaxima gesucht werden. Bei einer Parallelisierung von z.B. vier Signalverarbeitungskanälen befinden sich insbesondere vier Peaks in einem Spektrum. Die Frequenz der Maxima dieser Peaks entspricht einer linearen Kombination aus einer „Range-Frequenz“ und einer Doppler-Frequenz. Die Zuteilung der jeweiligen Maxima zu den Signalverarbeitungskanälen erfolgt anschließend erfindungsgemäß über die individuelle Signalkodierung.
  • Figurenliste
  • Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitende Zeichnung im Detail beschrieben. In der Zeichnung ist:
    • 1 eine Variante der ersten Multikanal-Analog-Digital-Wandlervorrichtung gemäß der vorliegenden Erfindung;
    • 2a eine schematische Darstellung eines erfindungsgemäßen LiDAR-Sensors;
    • 2b eine Illustration erfindungsgemäßer Verfahren zum Betreiben eines erfindungsgemäßen LiDAR-Sensors;
    • 3 eine Illustration eines Auswertungsverfahrens;
    • 4 eine Illustration einer Funktionsweise einer Ausführungsform des erfindungsgemäßen optoelektronischen Sensors;
    • 5 eine Illustration von Beleuchtungsmustern hinsichtlich eines Sichtfeldes;
    • 6 eine Variante des erfindungsgemäßen optoelektronischen Sensors mit einem diffraktiven optischen Element;
    • 7 eine Variante des optoelektronischen Sensors mit einem beweglichen optischen Element;
    • 8a eine Realisierung einer Pixeladressierung mit zwei erfindungsgemäßen Multikanal-Analog-Digital-Wandlervorrichtungen;
    • 8b eine Pixeladressierung mit zwei erfindungsgemäßen Multikanal-Analog-Digital-Wandlervorrichtungen;
    • 9a eine erste Variante einer erfindungsgemäßen Sende- und Empfangseinheit;
    • 9b eine zweite Variante einer erfindungsgemäßen Sende- und Empfangseinheit;
    • 9c eine dritte Variante einer erfindungsgemäßen Sende- und Empfangseinheit;
    • 10a eine Variante eines erfindungsgemäßen Signalpfads;
    • 10b eine Variante eines selektiven optischen Elements;
    • 10c eine weitere Variante eines erfindungsgemäßen Signalpfads;
    • 11 eine Variante eines erfindungsgemäßen Fahrzeugs;
    • 12 ein Flussdiagramm einer Variante des erfindungsgemäßen Verfahrens; und
    • 13 eine Illustration einer erfindungsgemäßen Signalzuordnung mittels eines Signalprozessors.
  • Ausführungsformen der Erfindung
  • 1 zeigt eine Illustration einer Variante der erfindungsgemäßen Multikanal-Analog-Digital-Wandlervorrichtung 10. Die erfindungsgemäße Multikanal-Analog-Digital-Wandlervorrichtung 10 weist eine Sendeeinheit 20 auf. Die Sendeeinheit 20 umfasst mindestens eine Laserquelle 4 und eine Abzweigeeinheit 6, wobei letztere eingerichtet ist, optische vormodulierte Signale der Laserquelle 4 zu einer ersten bis vierten Sendeantenne 5a bis 5d zu übertragen und ein abgezweigtes Signal in den Referenzkanal 7 abzuzweigen. Insbesondere wird die Multikanal-Analog-Digital-Wandlervorrichtung 10 gemäß der Erfindung mit einem FMCW-Verfahren betrieben. Hierbei erzeugt die Laserquelle 4 ein moduliertes optisches Signal, das über eine der ersten bis vierten Sendeantennen 5a bis 5b auf einen Pixel bzw. Bildpunkt eines Sichtfeldes ausgesendet wird. Zur Zuordnung des ausgesendeten Referenzsignals bezüglich eines der über die erste bis vierte Detektionsantenne 12a bis 12d empfangenen reflektierten Signale wird ein vormoduliertes Referenzsignal über den Referenzkanal 7 in einer der ersten bis vierten Kombiniereinheiten 11a bis 11d mit dem über die ersten bis vierten Detektionsantennen empfangenen reflektierten Signalen kombiniert, um die empfangenen Signale dem gesendeten Signal zuzuordnen. Hierbei sind insbesondere vier abgezweigte Referenzkanäle 7a bis 7d vorhanden, in denen ebenfalls ein Modulator 3a bis 3d angeordnet sein kann. Insbesondere sind die ersten bis vierten Sendeantennen 5a bis 5d unterschiedlichen Bildpunkten bzw. Pixeln zugeordnet. Die ersten bis vierten Detektionsantennen 12a bis 12d empfangen die von den jeweiligen Segmenten eines Objektes reflektierten Signale korrespondierend zur jeweiligen Sendeantenne 5a bis 5d. Beispielsweise empfängt die erste Detektionsantenne 12a das vom Objekt reflektierte Signal, welches ursprünglich von der ersten Sendeantenne 5a ausgesandt wurde. Weiterhin empfängt die zweite Detektionsantenne 12b das Signal, welches ursprünglich durch die zweite Sendeantenne 5b auf ein anderes Segment des Objektes gesendet wurde usw. Jedes detektierte Signal wird auf einen der ersten bis vierten Signalverarbeitungskanäle 8a bis 8d über die Detektionsantennen 12a bis 12d übertragen. In den ersten bis vierten Detektoren 9a bis 9d, insbesondere Balanced-Detektoren, werden die analogen optischen Signale in elektronische Signale umgewandelt. Durch den ersten bis vierten Modulator 3a bis 3d werden die Signale, welche über die jeweiligen ersten bis vierten Signalverarbeitungskanäle 8a bis 8d geführt werden, individualisiert kodiert, sodass alle Signalkodierungen individuell voneinander unterscheidbar sind. Wenn im vorliegenden Fall durch die ersten bis vierten Modulatoren 3a bis 3d beispielsweise eine binäre Kodierung verwendet wird und die Modulation beispielsweise eine Amplitudenmodulation ist, können die Amplituden der jeweiligen Signale innerhalb der ersten bis vierten Modulatoren beispielsweise mit -1 oder 1 je Messung multipliziert werden. Bei vier unterschiedlich adressierten Bildpunkten werden demnach je Analog-Digital-Wandlereinheit 1 zwei Messungen je Signalverarbeitungskanal 8a bis 8d benötigt, um eine unterscheidbare Kodierung je Signal zu erzeugen. Pro Messung wird ein Signal hierbei mit einer Binärzahl multipliziert. Bei vier über die erste bis vierte Detektionsantenne 12a bis 12d empfangenen Signale werden insbesondere das erste Signal, welches über die erste Detektionsantenne 12a empfangen wird, mit der Binärfolge „-1, -1“ innerhalb des ersten Modulators 3a moduliert, das zweite Signal, welches über die zweite Empfangsantenne 12b empfangen wird, mit der Binärfolge „-1, 1“ innerhalb des zweiten Modulators 3b moduliert und das dritte Signal, welches über die dritte Detektionsantenne 12c empfangen wird, mit der Binärfolge „1, -1“ innerhalb des dritten Modulators 3c moduliert sowie das vierte Signal, welches über die Detektionsantenne 12d empfangen wird, mit der Binärfolge „1, 1“ innerhalb des vierten Modulators 3d moduliert. Somit könne alle Signale mit einer individualisierten Kodierung moduliert werden. Um vier verschiedene Pixel, welche zu den ersten bis vierten Detektionsantennen 12a bis 12 d der ersten bis vierten Signalverarbeitungskanäle 8a bis 8d gehören, voneinander unterscheiden zu können, müssen mit anderen Worten bei einer vorbestehend beschriebenen binären Kodierung je Pixel bzw. je Antenne mindestens zwei Messungen durchgeführt werden. In einer Signalüberlagerungseinheit 2 werden dann alle kodierten Signale miteinander überlagert. Anschließend werden die Signale auf die Analog-Digital-Wandlereinheit 1 übertragen, um diese zu digitalisieren. In einem nachgeschalteten Signalprozessor werden diese einer Fourier-Transformation unterzogen und können aufgrund der eingangs individualisierten Kodierung voneinander z.B. nach einer Fourier-Transformation unterschieden werden.
    Die Modulation des Lasers und damit des ausgesandten Signals und Referenzkanals dient dabei der Messung von der Entfernung eines Objekts in einem spezifischen Pixel. Zusätzlich oder alternativ kann in Ergänzung zur Entfernung die Geschwindigkeit bestimmt werden.
  • 2a zeigt einen erfindungsgemäßen LiDAR-Sensor 30, welcher eine Sendeeinheit 20 zum Senden optischer Signale und eine Empfangseinheit 18 zum Empfangen optischer Signale aufweist. Hierbei kann zur Steuerung des Ganges der optischen Signale ein optisches Element 19 der Sendeeinheit 20 und der Empfangseinheit 18 vorgesehen sein. Ein Objekt 21 wird hierdurch gescannt. Der erfindungsgemäße LiDAR-Sensor 30 kann beispielsweise einen 1D-Scanner und einen 2D-Scanner aufweisen, um ein zweidimensionales Sichtfeld abzutasten, um somit dreidimensionale Bilder generieren zu generieren.
  • 2b zeigt Illustrationen zu Messungen zweier Verfahren L1, L2 zur Entfernungsmessung durch den erfindungsgemäßen LiDAR-Sensor 30. Das erste Verfahren L1 ist ein FMCW-Verfahren, bei welchem bei einer sich ändernden optischen Frequenz eines Lasers einer Sendeeinheit 20 eine Schwebungsfrequenz zwischen gesendetem und empfangenem Signal erzeugt wird, die von der Lichtlaufzeit abhängig ist und somit eine Bestimmung der Entfernung zulässt. In Schritt S1 wird dieses Signal in ein elektrisches Signal umgewandelt. Hiernach wird, wie für Schritt S2 illustriert ist, das elektronische Signal digitalisiert. Hierbei kann für das digitalisierte Signal beispielsweise eine Transformation vorgenommen werden, deren graphisches Ergebnis im dritten Bild von links der 2b des Schrittes L1 angedeutet ist. Beispielsweise kommt eine Fast-Fourier-Transformation in Frage. Schritt L2 der 2b zeigt einen zeitlichen Signalverlauf bei einer direkten Laufzeitmessung (DToF). Nach Aussendung des Signals zum ersten Zeitpunkt t0 kann das empfangene Signal zum zweiten Zeitpunkt t1 empfangen werden. Über die Laufzeitdifferenz zwischen gesendetem und empfangenem Signal lässt sich eine Entfernung eines Objektes bestimmen.
  • 3 zeigt eine Illustration von fourier-transformierten Spektren, welche verwendet werden können, um digitalisierte Signale einem ursprünglichen Signal mit individueller Signalkodierung zuzuordnen. Hierbei ist im oberen Bereich der 3 das graphische Ergebnis einer bereits vorgenommenen Fourier-Transformation verschiedener Signale M1 bis M4 unterschiedlicher Signalverarbeitungskanäle gezeigt. Über eine weitere Fourier-Transformation in einem Schritt S3, können über die Modulatoren (3a-3d) unterschiedliche Peaks, d.h. Peaks mit z.B. unterschiedlicher Amplitude, unterschiedlicher detektierter Signale M1 bis M4 generiert werden. Die Signale M1 bis M4 können über ein Mini-Fourier-Transformationsfilter den ursprünglich modulierten analogen Signalkodierungen zugewiesen werden.
  • 4 zeigt einen erfindungsgemäßen LiDAR-Sensor 30, welcher eine erfindungsgemäße Multikanal-Analog-Digital-Wandlervorrichtung 10 aufweist. Hierbei sind zwei Detektionsantennen 8a, 8b gezeigt. Ferner weist der erfindungsgemäße LiDAR-Sensor 30 eine zweite Multikanal-Analog-Digital-Wandlervorrichtung 40 auf, von der zwei Signalverarbeitungskanäle 8e, 8f gezeigt sind. Mit Hilfe eines optischen Elements 19, welches eingerichtet ist, eine räumliche Signalablenkung durchzuführen, können, nachdem die optischen Signale gesendet werden, die jeweiligen Signalverarbeitungskanäle 8a, 8e der ersten und zweiten erfindungsgemäßen Multikanal-Analog-Digital-Wandlervorrichtung 10, 40 verschiedenen Pixeln P1 bis Pn eines Sichtfeldes (22) zugewiesen werden. Mit anderen Worten können die Signalverarbeitungskanäle 8a, 8b, 8e, 8f der ersten und zweiten erfindungsgemäßen Multikanal-Analog-Digital-Wandlervorrichtung 10, 40 verschiedene Pixel P1 bis Pn adressieren.
  • 5 zeigt unterschiedliche Varianten von Pixelzuordnungen innerhalb eines Sichtfeldes 22. Mit anderen Worten wird ein Beleuchtungsschema eines Sichtfeldes 22 gezeigt. Das erste Beleuchtungsschema 23a betrifft eine pixelweise Beleuchtung des Sichtfeldes 22. Das zweite Beleuchtungsschema 23b betrifft eine Beleuchtung, welche einer Anzahl von Signalkanälen einer erfindungsgemäßen Multikanal-Analog-Digital-Wandlervorrichtung 10 zugeordnet ist. Ferner zeigt 5 ein drittes Beleuchtungsschema 23c eines Sichtfeldes 22, wobei das dritte Beleuchtungsschema 23c eine spaltenweise Beleuchtung betrifft.
  • 6 zeigt eine Ausgestaltung eines erfindungsgemäßen LiDAR-Sensors 30. Der erfindungsgemäße LiDAR-Sensor 30 umfasst eine kombinierte Sende- bzw. Empfangseinheit 18, 20, wobei die Empfangseinheit 18 eine erfindungsgemäße Multikanal-Analog-Digital-Wandlervorrichtung 10, 40 aufweist, welche hier nicht gezeigt ist. Beispielsweise können die Sendeeinheit 20 und die Empfangseinheit 18 koaxial, d.h. als Transceiver, ausgestaltet sein. Zwischen dem erfindungsgemäßen LiDAR-Sensor 30 und dem Sichtfeld 22, welches mit einem Objekt 21 assoziiert ist, ist ein Kollimator 24 angeordnet. Der Kollimator 24 hat insbesondere die Aufgabe, eine planare Wellenfront des Lichts zu erzeugen. Statt des Kollimators 24 kann in einer Ausführungsform auch ein Objektiv, insbesondere ein f-Theta-Objektiv, insbesondere ein telezentrisches f-Theta-Objektiv verwendet werden. Diese Objektive transformieren die unterschiedlichen Orte der Transceiver Ein-/Ausgänge in der Fokusebene, bzw. in einem geringen Abstand darum, in unterschiedliche Austrittswinkel in der Pupille des Objektivs. Die Signale, welche von der Sende- und Empfangseinheit 18, 20 ausgesandt werden, werden über ein diffraktives optisches Element 45 auf verschiedene Pixel P1, P7, P13 der Gesamtzahl der Pixel P1 bis P18 des Sichtfeldes 22 gelenkt. Die jeweiligen Signale reflektieren an der Oberfläche eines Objektes, welches dem jeweiligen Pixel P1 bis P18 zugewiesen ist. Die reflektierten Signale folgen dem Weg wie die ausgesandten Signale zurück zur Sende-Empfangseinheit 18, 20. Dies ist in 6 durch die bidirektionalen Pfeile, welche mit den Signalpfaden assoziiert sind, gezeigt. In Abhängigkeit einer Variation der Wellenlänge können unterschiedliche Ablenkungen am diffraktiven optischen Gitter 45 stattfinden, wobei die Strahlen durch die Variation der Wellenlänge in der Laserquelle der Sendeeinheit 18 von beispielsweise dem ersten Pixel zum zweiten Pixel bzw. dem siebten Pixel zum achten Pixel, bzw. dem 13. Pixel zum 14. Pixel, wie in 6 illustriert, geleitet werden. In einer besonderen Ausführungsform ist eine Dimension vollständig durch eine oder mehrere Multikanal-Analog-Digital-Wandlervorrichtung abgedeckt und die zweite Dimension wird über einen Wellenlängenscan adressiert. Hierdurch wird ein Solid State LiDAR, d.h. ein LiDAR Sensor ohne bewegliche Teile realisiert.
    In einer weiteren besonderen Ausführungsform ist eine Dimension vollständig durch eine oder mehrere Multikanal-Analog-Digital-Wandlervorrichtung abgedeckt und die zweite Dimension wird über Änderungen des Zustands eines adaptiven diffraktiven Elements adressiert. Hierdurch wird ein Solid State LiDAR, d.h. ein LiDAR Sensor ohne bewegliche Teile realisiert. Insbesondere kann die Entscheidung, welche Signalverarbeitungskanäle, die zu bestimmten Pixeln korrespondieren, zu einer Multikanal-Analog-Digital-Wandlervorrichtung 10 zusammengeschaltet werden, über Auslegung der Elektronik getroffen werden. Auf diese Weise können beliebige Muster zu einer Multikanal-Analog-Digital-Wandlervorrichtung 10 zusammengefasst werden.
  • 7 zeigt eine Variante eines erfindungsgemäßen LiDAR-Sensors 30. 7 unterscheidet sich von 6 dadurch, dass die Signale über einen beweglichen Spiegel 46 auf ein Sichtfeld 22 gelenkt werden. Durch die Bewegung des Spiegels kann die Adressierung der Pixel P1, P5, P9 durch die Signale, wie es durch die Pfeile in dem angedeuteten Sichtfeld illustriert ist, verändert werden.
  • 8a zeigt eine Ausführungsform einer erfindungsgemäßen Empfangseinheit 18. Hierbei umfasst die Empfangseinheit 18 eine erste Multikanal-Analog-Dialog-Wandlervorrichtung 10 und eine zweite Multikanal-Analog-Dialog-Wandlervorrichtung 40. Die erste Multikanal-Analog-Dialog-Wandlervorrichtung 10 weist eine erste bis dritte Detektionsantenne 12a bis 12c auf sowie erste bis dritte Modulatoren 3a bis 3b innerhalb der ersten bis dritten Signalverarbeitungskanäle 8a bis 8c auf. Hierbei sind die Detektionsantennen 12a bis 12c der ersten Multikanal-Analog-Digital-Wandlervorrichtung 10 alternierend zu den Detektionsantennen 12a` bis 12c` der zweiten Multikanal-Analog-Digital-Wandlervorrichtung 40 angeordnet. Weiterhin hat jeder Signalverarbeitungskanal 8a` bis 8c', der zweiten Multikanal-Analog-Digital-Wandlervorrichtung 40 jeweils einen eigenen ersten bis dritten Modulator 3a` bis 3c'. Durch die unterschiedlichen Anordnungen der ersten bis dritten Signalverarbeitungskanäle 8a` bis 8c` der zweiten Multikanal-Analog-Digital-Wandlervorrichtung 40 und der ersten bis dritten Signalverarbeitungskanäle 8a bis 8c der ersten Multikanal-Analog-Digital-Wandlervorrichtung 10 können unterschiedliche Muster von Pixeln in einem Sichtfeld 22 adressiert werden. Dies ist insbesondere in 8b gezeigt. Beispielsweise können durch zwei Multikanal-Analog-Digital-Wandlervorrichtungen 10, 40 jeweils parallele Spalten adressiert werden, wobei die in 8b in Figurenteil I gezeigten eckigen Symbole mit der ersten Multikanal-Analog-Digital-Wandlervorrichtung 10 assoziiert sind und die runden Symbole mit der zweiten Multikanal-Analog-Digital-Wandlervorrichtung 40 assoziiert sind. Weiterhin können die jeweiligen Multikanal-Analog-Digital-Wandlervorrichtungen 10, 40 auch wie in Figurenteil II der 8b gezeigt, versetzte Pixel eines Sichtfeldes 22 adressieren. Weiterhin können die Pixel diagonal alternierend adressiert werden, wie es im Sichtfeld 22 des Figurenteils III gezeigt ist.
  • 9a zeigt eine erste Variante eines erfindungsgemäßen LiDAR-Sensors 30a. Hierbei sind die ersten und zweiten Laserquellen 33a und 33b parallel angeordnet. Hierbei sind ein erster und ein zweiter Zirkulator jeweils zwischen den Laserquellen 33a, 33b und den ersten und zweiten Sende- und Empfangseinheiten 18a, 18b, 20a, 20b angeordnet. Hierbei sind die jeweiligen Sende- und Empfangseinheiten 18a, 18b, 20a, 20b koaxial angeordnet, d. h. dass das Sendesignal sowie das Empfangssignal auf demselben Kanal empfangen und gesendet werden. Dies ist durch die Hin- und Rückpfeile an den jeweiligen Sende- und Empfangseinheiten 18a, 18b, 20a, 20b gezeigt. 9b zeigt hingegen eine biaxiale Anordnung der Sende- und Empfangseinheiten 18a, 18b, 20a, 20b. Dies heißt mit anderen Worten, dass die optischen Signale auf unterschiedlichen Kanälen empfangen und gesendet werden. 9c zeigt eine Variante von 9a, wobei nur eine einzige Laserquelle 33 verwendet wird, deren Signale auf die einzelnen Signalpfade aufgespaltet werden. Für alle Varianten kann insbesondere die Auskopplung des gesendeten Signals bzw. der Empfang des reflektierten Signals über eine Freistrahlordnung mit einer Auskoppeloptik und/oder mit einer über eine optische Faser mit Kollimationsoptik oder, im Fall von photonisch integrierten Systemen, über Grating und/oder Edge-Kopplers erfolgen. Insbesondere kann der gesamte (FMCW)-Signalpfad als Freistrahlsystem, als faseroptisches System oder als PIC realisiert werden.
  • 10a und 10c zeigen Varianten von biaxialen bzw. koaxialen Signalpfaden des erfindungsgemäßen LiDAR-Sensors 30. Diese Varianten entsprechen insbesondere in ihrer Funktionsweise einem Mach-Zehnder-Interferometer. Hierbei werden die jeweiligen Signalpfade für eine FMCW-basierte Detektion dargestellt. Insbesondere werden jeweils über eine Abzweigeeinheit 6 modulierte Referenzsignale, welche von dem Signaleigang SI stammen, vom Sendesignal abgezweigt. Insbesondere kann ein erstes selektives optisches Element 29a, insbesondere ein Zirkulator, gemäß 10a vorgesehen sein, um das Sendesignal auszusenden und um das reflektierte Signal zu empfangen, was jeweils durch die Pfeile angedeutet ist. Ferner kann das erste selektive optische Element 29a das empfangene Signal an die Kombiniereinheit 34, insbesondere einen Koppler, übertragen, wobei die Kombiniereinheit 34 eingerichtet ist, das modulierte Referenzsignal mit dem empfangenen Signal, z.B. mit einem Teilerverhältnis von 50:50, zu kombinieren. Anschließend werden die kombinierten Signale über einen Balanced-Detektor 9 geführt. Das erste selektive optische Element 29a in Form eines Zirkulators gemäß 10a kann auch durch zweites selektives optisches Element 29b gemäß 10b ersetzt werden, wobei die Signalkanäle innerhalb des zweiten selektiven optischen Elements 29b hierbei überkreuzt verlaufen anstatt zirkulär verlaufen. 10c zeigt eine biaxiale Variante von Signalpfaden, wobei der die Empfangseinheit 18a eine Detektionsantenne ist und die Sendeeinheit 20 räumlich separat davon eine Sendeantenne aufweist. Hierbei werden die empfangenen und gesendeten Signale in einem Koppler 34 miteinander verbunden, ehe diese in einen Balanced-Detektor 9 übertragen werden.
  • 11 zeigt eine Ausführungsform eines erfindungsgemäßen Fahrzeugs 60 mit einem erfindungsgemäßen LiDAR-Sensor 30.
  • 12 zeigt ein Flussdiagramm einer Ausführungsform des erfindungsgemäßen Verfahrens. In einem ersten Schritt 100 wird hierbei ein moduliertes optisches Signal bezüglich mehrerer Bildpunkte eines Sichtfeldes ausgesendet. In einem zweiten Schritt 200 werden die zu mehreren Bildpunkten gehörigen reflektierten modulierten optischen Signale über eine Multikanal-Digital-Analog-Wandlervorrichtung 10 gemäß dem ersten Erfindungsaspekt über eine Mehrzahl von Signalverarbeitungskanälen 8a bis 8d empfangen. In einem dritten Schritt 300 werden die abgezweigten modulierten Referenzsignale des modulierten gesendeten Signals mit dem empfangenen reflektierten optischen modulierten Signal kombiniert. In einem vierten Schritt 400 werden die kombinierten Signale moduliert, um ein individuell kodiertes analoges Signal zu erzeugen, wobei die Schritte 300 und 400 entsprechend obiger Erläuterung auch in umgekehrter Reihenfolge durchgeführt werden können. In einem fünften Schritt 500 werden die individuell kodierten analogen Signale miteinander überlagert und in einem sechsten Schritt 600 in eine Analog-Digital-Wandlereinheit 1 übertragen und digitalisiert. In einem siebten Schritt 700 werden, wie bereits vorstehend beschrieben, die Messungen je nach Anzahl der Bildpunkte und Anzahl der Signalverarbeitungskanäle 8a bis 8d wiederholt. In einem achten Schritt 800 wird eine Transformation, z.B. eine Fast-Fourier-Transformation, jeder Messung durchgeführt, wobei sich M Spektren (wobei M für die Anzahl der Messungen steht) mit bis zu N Peaks (wobei die Anzahl der Peaks für die Anzahl der Bildpunkte bzw. Pixel steht, unter der Annahme, dass pro Pixel bzw. Bildpunkt nicht mehr als ein Ziel zu detektieren ist) ergeben. Die Transformation erfolgt insbesondere über einen Signalprozessor 13. In einem neunten Schritt 900 werden die Spektren gemittelt und die Lage der N Maxima detektiert. In einem zehnten Schritt 1000 werden die komplexen Werte der N Spektren an deren Positionen gespeichert. Daraus ergeben sich M x N Werte. In einem elften Schritt 1100 werden diese M x N Werte mit der ursprünglichen analogen individuellen Kodierfolge korreliert. In einem zwölften Schritt 1200 werden die Kodierungen mit der größten Korrelation einem jeweiligen Peak zugeordnet. Auf diese Weise kann durch die größte Korrelation mit einem Peak auf den Bildpunkt bzw. Pixel geschlossen werden.
  • 13 illustriert eine erfindungsgemäße Signalzuordnung mittels eines Signalprozessors 13. Die Signalzuordnung ist für ein vereinfachtes Beispiel einer erfindungsgemäßen Multikanal-Analog-Digital-Wanldervorrichtung 10 mit zwei Signalverarbeitungskanälen 8a, 8b umfassend zwei Modulatoren 3a, 3b gezeigt. Den Signalverarbeitungskanälen 8a, 8b sind eine Signalüberlagerungseinheit 2, eine Analog-Digital-Wandlereinrichtung 1 sowie ein Signalprozessor 13 seriell nachgeschaltet. Während einer ersten Messung wird je Signalverarbeitungskanal 8a, 8b ein Signal S11(t) bzw. S12(t) empfangen. Durch die jeweiligen Modulatoren 3a, 3b werden die Signale S11(t) sowie S12(t) entsprechend mit Phasenkodierwerten K11 , K12 moduliert, wobei sich die modulierten Singale S11m(t) und S12m(t) mathematisch wie folgt darstellen lassen: S 11m ( t ) = S 11 ( t ) e  K11
    Figure DE102018222718A1_0001
    S 12m ( t ) = S 12 ( t ) e  K12
    Figure DE102018222718A1_0002
  • Hierbei ist „j“ der Imaginäranteil der Exponentialfunktion. Aus den modulierten Signalen wird ein summiertes Signal S1(t) = S11m(t) + S12m(t) mithilfe der Signalüberlagerungseinheit 2 erstellt. Dieses summierte Signal S1(t) wird mittels der Analog-Digital-Wandlereinheit 1 digitalisiert und anschließend mittels des Signalprozessors 13 einer Fast-Fourier-Transformation unterzogen, um das Spektrum S1(f) zu erhalten, wobei das Spektrum S1(f), welches aus der Fast-Fourier-Transformation resultiert, beispielhaft auf der oberen rechten Seite der 4 gezeigt ist. Auf dieselbe Weise wird eine zweite Messung durchgeführt, wobei der Verlauf der zweiten Messung durch die Gleichungen: S 21m ( t ) = S 11 ( t ) e  K21
    Figure DE102018222718A1_0003
    S 22m ( t ) = S 12 ( t ) e  K22
    Figure DE102018222718A1_0004
    sowie S2(t) = S21m(t) + S22m(t) beschrieben wird. Das entsprechende Spektrum S2(f), welches aus der anschließenden Fast-Fourier-Transformation resultiert, ist auf der rechten unteren Seite der 4 gezeigt. In den entsprechenden Spektren S1(f), S2(f), welche aus der Fast-Fourier-Transformation resultieren, werden anschließend die Maxima identifiziert. Die Anzahl der Maxima entspricht der Anzahl parallelisierter Signalverarbeitungskanäle 8a, 8b, d.h. im vorliegenden Fall zwei. Die komplexen Amplituden dieser Maxima beinhalten die ursprünglichen Phasenkodierungen und können z.B. über eine Vektormultiplikation und Betragsbildung, wie es in 13 unterhalb des nach unten gerichteten Pfeils gezeigt ist, identifiziert werden. Sollten die Maxima rauschbehaftet sein, können mehr als zwei Messungen durchgeführt werden. Beispielsweise kommt es in Frage, dass für 16 Signalverarbeitungskanäle zehn aufeinanderfolgende Messungen durchgeführt werden, wodurch nach wie vor Messzeit gegenüber sechzehn Einzelmessungen ohne Parallelisierung eingespart werden kann. Sind die Phasenwerte P linear ansteigend, wobei jeder Signalverarbeitungskanal 8a, 8b eine andere Steigung dieser zugrundeliegenden Geraden hat, so kann die Berechnung vereinfachend durch die Fast-Fourier-Transformation ersetzt werden, da die obige Berechnung für alle Signalverarbeitungskanäle und Phasenwerte mathematisch zu einer Fast-Fourier-Transformation führt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2017/0090031 A1 [0005]
    • WO 2018/067158 A1 [0006]

Claims (11)

  1. Optoelektronischer Sensor umfassend: • eine Sendeeinheit (20, 20a, 20b), welche eingerichtet ist, eine Mehrzahl optischer Signale jeweils auf eine Mehrzahl von Segmenten eines Objektes (21) zu senden, wobei Segmente der Mehrzahl von Segmenten jeweils mit Bildpunkten eines Sichtfeldes (22) des optoelektronischen Sensors assoziiert sind, • eine Empfangseinheit (18, 18a, 18b) umfassend eine erste Multikanal-Analog-Digital-Wandlervorrichtung (10) mit: • einer Analog-Digital-Wandlereinheit (1); • einer Mehrzahl von Signalverarbeitungskanälen, wobei die Signalverarbeitungskanäle (8a-8d) der Mehrzahl von Signalverarbeitungskanälen jeweils: • eine Detektionsantenne (12a-12d), welche eingerichtet ist, optische Signale, zu empfangen; und • einen Modulator (3a-3d), welcher eingerichtet ist, eine individuelle Signalkodierung zu erzeugen, aufweisen, wobei Signale der Mehrzahl von Signalverarbeitungskanälen (8a-8d) mit individueller Signalkodierung gemeinsam an die Analog-Digital-Wandlereinheit (1) übertragbar sind.
  2. Optoelektronischer Sensor nach Anspruch 1, wobei die Sendeeinheit (20, 20a, 20b) eingerichtet ist, ein Flash-Beleuchtungsmuster und/oder pixelweises Beleuchtungsmuster und/oder spaltenweises Beleuchtungsmuster und/oder ein Beleuchtungsmuster bezüglich einer Anzahl der Bildpunkte, die mit den Signalverarbeitungskanälen (8a-8d) der ersten Multikanal-Analog-Digital-Wandlervorrichtung (10) assoziiert sind, bezüglich des Sichtfeldes (22) des optoelektronischen Sensors auszusenden.
  3. Optoelektronischer Sensor nach Anspruch 1 oder 2, wobei die Sendeeinheit (20, 20a, 20b) ein erstes diffraktives optisches Element (45) aufweist, wobei das erste diffraktive optische Element (45) eingerichtet ist, in Abhängigkeit einer Variation einer durch die Sendeeinheit (20, 20a, 20b) ausgesandten Wellenlänge ein zu dieser Wellenlänge korrespondierendes optisches Signal, welches auf das erste diffraktive optische Element (45) auftrifft, insbesondere auf verschiedene Segmente der Mehrzahl von Segmenten des Objekts (21) zu leiten.
  4. Optoelektronischer Sensor nach einem der vorstehenden Ansprüche, wobei die Sendeeinheit (20, 20a, 20b) ein erstes bewegliches optisches Element (46) aufweist, wobei das erste bewegliche optische Element (46) eingerichtet ist, in Abhängigkeit einer Eigenbewegung ein auftreffendes optisches Signal auf verschiedene Segmente der Mehrzahl von Segmenten des Objekts (21) zu senden.
  5. Optoelektronischer Sensor nach einem der vorstehenden Ansprüche, wobei der optoelektronische Sensor eingerichtet ist, ein direktes Laufzeitmessverfahren und/oder ein Messverfahren mit einer Kombination aus Frequenzmodulation und/oder kohärenter Detektion durchzuführen.
  6. Optoelektronischer Sensor nach einem der vorstehenden Ansprüche, wobei die Sendeeinheit (20, 20a, 20b) und die Empfangseinheit (18, 18a, 18b) coaxial und/oder biaxial zueinander angeordnet sind.
  7. Optoelektronischer Sensor nach einem der Ansprüche 3 oder 4, wobei die Empfangseinheit ein zweites diffraktives optisches Element bzw. ein zweites bewegliches optisches Element aufweist, wobei das zweite diffraktive optische Element bzw. das zweite bewegliche optische Element jeweils eingerichtet sind, auftreffende optische Signale zu den Detektionsantennen (12a bis 12d) der Signalverarbeitungskanäle (8a bis 8d) zu leiten.
  8. Optoelektronischer Sensor nach einem der vorstehenden Ansprüche, wobei die Empfangseinheit (18, 18a, 18b) mindestens eine zweite Multikanal-Analog-Digital-Wandlervorrichtung (40) aufweist.
  9. Optoelektronischer Sensor nach Anspruch 8, wobei die erste Multikanal-Analog-Digital-Wandlervorrichtung (10) eingerichtet ist, Bildpunkte des Sichtfeldes (22) zu adressieren, welche parallel und/oder alternierend und/oder diagonal versetzt zu Bildpunkten sind, die durch die zweite Multikanal-Analog-Digital-Wandlervorrichtung (40) adressierbar sind.
  10. Fahrzeug (60) umfassend einen optoelektronischen Sensor nach einem der Ansprüche 1 bis 9.
  11. Verfahren zum Betreiben eines optoelektronischen Sensors nach einem der Ansprüche 1 bis 9 umfassend die Schritte: • Senden (100) eines optischen Signals bezüglich mehrerer Bildpunkte eines Sichtfeldes, • Empfangen (200) reflektierter optischer Signale bezüglich mehrerer Bildpunkte des Sichtfeldes über eine Multikanal-Analog-Digital-Wandlervorrichtung (10, 40) des optoelektronischen Sensors nach einem der Ansprüche 1 bis 9 über jeweils einen Signalverarbeitungskanal (8a-8d) einer Mehrzahl von Signalverarbeitungskanälen, • Modulieren (400) der empfangenen optischen Signale und/oder eines zugehörigen Referenzsignals, um jeweils ein individuell kodiertes analoges Signal zu erzeugen, • Überlagern (500) mehrerer individuell kodierter analoger Signale, • Digitalisieren (600) der überlagerten individuell kodierten analogen Signale; • Transformieren (800) der digitalisierten Signale; und • Auswerten (1200) der transformierten und digitalisierten überlagerten Signale, um diese einem jeweiligen Bildpunkt der Mehrzahl von Bildpunkten zuzuordnen.
DE102018222718.7A 2018-12-21 2018-12-21 Optoelektronischer Sensor, Verfahren und Fahrzeug Pending DE102018222718A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102018222718.7A DE102018222718A1 (de) 2018-12-21 2018-12-21 Optoelektronischer Sensor, Verfahren und Fahrzeug
US16/715,165 US11579264B2 (en) 2018-12-21 2019-12-16 Optoelectronic sensor, method and vehicle
CN201911336944.5A CN111427058A (zh) 2018-12-21 2019-12-23 光电传感器,方法和车辆

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018222718.7A DE102018222718A1 (de) 2018-12-21 2018-12-21 Optoelektronischer Sensor, Verfahren und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102018222718A1 true DE102018222718A1 (de) 2020-06-25

Family

ID=70969222

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018222718.7A Pending DE102018222718A1 (de) 2018-12-21 2018-12-21 Optoelektronischer Sensor, Verfahren und Fahrzeug

Country Status (3)

Country Link
US (1) US11579264B2 (de)
CN (1) CN111427058A (de)
DE (1) DE102018222718A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200233086A1 (en) * 2019-01-22 2020-07-23 Carl Zeiss Industrielle Messtechnik Gmbh Method and apparatus for determining at least one spatial position and orientation of at least one tracked measuring device
WO2022194524A1 (de) * 2021-03-16 2022-09-22 Robert Bosch Gmbh Lidar-system

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3726241A1 (de) * 2019-04-19 2020-10-21 Siemens Mobility GmbH Verfahren und system zur lokalisierung eines gegenstandes
US11280909B2 (en) 2020-06-29 2022-03-22 Aurora Operations, Inc. Lidar transmit/receive system
US10948600B1 (en) * 2020-06-29 2021-03-16 Aurora Innovation, Inc. Systems and methods for IQ detection
US11415699B2 (en) * 2020-06-29 2022-08-16 Aurora Operations, Inc. Lidar transmit/receive system
WO2022004441A1 (ja) * 2020-07-02 2022-01-06 ソニーグループ株式会社 測距装置および測距方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8659748B2 (en) * 2011-02-15 2014-02-25 Optical Air Data Systems, Llc Scanning non-scanning LIDAR
US20170090031A1 (en) 2015-09-28 2017-03-30 Federico Collarte Bondy Spatial profiling system and method
WO2018067158A1 (en) 2016-10-06 2018-04-12 Strobe, Inc. Lidar system
US20180123699A1 (en) * 2016-06-07 2018-05-03 California Institute Of Technology Optical sparse phased array receiver
WO2018160729A2 (en) * 2017-03-01 2018-09-07 Pointcloud, Inc. Modular three-dimensional optical sensing system
WO2018218003A1 (en) * 2017-05-25 2018-11-29 Ours Technology, Inc. Solid-state light detection and ranging (lidar) system with real-time self-calibration

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8242476B2 (en) * 2005-12-19 2012-08-14 Leddartech Inc. LED object detection system and method combining complete reflection traces from individual narrow field-of-view channels
EP2037407B1 (de) * 2007-09-13 2014-07-23 Delphi Technologies, Inc. Verfahren zur Objekterfassung
US9739864B2 (en) * 2012-01-03 2017-08-22 Ascentia Imaging, Inc. Optical guidance systems and methods using mutually distinct signal-modifying
DE102014118056A1 (de) * 2014-12-08 2016-06-09 Valeo Schalter Und Sensoren Gmbh Optoelektronische Detektionseinrichtung fuer ein Kraftfahrzeug sowie Verwendung einer solchen Detektionseinrichtung
US10598785B2 (en) * 2016-02-11 2020-03-24 California Institute Of Technology Hybrid transmitter receiver optical imaging system
CN108693537A (zh) * 2017-04-11 2018-10-23 北醒(北京)光子科技有限公司 一种光学相控阵扫描探测方法
CN108761427B (zh) * 2018-09-10 2024-01-23 成都英鑫光电科技有限公司 分布式激光雷达及自动驾驶系统
US11579299B2 (en) * 2019-04-02 2023-02-14 Litexel Inc. 3D range imaging method using optical phased array and photo sensor array

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8659748B2 (en) * 2011-02-15 2014-02-25 Optical Air Data Systems, Llc Scanning non-scanning LIDAR
US20170090031A1 (en) 2015-09-28 2017-03-30 Federico Collarte Bondy Spatial profiling system and method
US20180123699A1 (en) * 2016-06-07 2018-05-03 California Institute Of Technology Optical sparse phased array receiver
WO2018067158A1 (en) 2016-10-06 2018-04-12 Strobe, Inc. Lidar system
WO2018160729A2 (en) * 2017-03-01 2018-09-07 Pointcloud, Inc. Modular three-dimensional optical sensing system
WO2018218003A1 (en) * 2017-05-25 2018-11-29 Ours Technology, Inc. Solid-state light detection and ranging (lidar) system with real-time self-calibration

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MARTIN A. [et al.]: Photonic Integrated Circuit-Based FMCW Coherent LiDAR. In: Journal of Lightwave Technology, vol. 36, no. 19, 2018, S.4640-4645. https://ieeexplore.ieee.org/document/8367822 [abgerufen am 25.11.2019] *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200233086A1 (en) * 2019-01-22 2020-07-23 Carl Zeiss Industrielle Messtechnik Gmbh Method and apparatus for determining at least one spatial position and orientation of at least one tracked measuring device
US11841433B2 (en) * 2019-01-22 2023-12-12 Carl Zeiss Industrielle Messtechnik Gmbh Method and apparatus for determining at least one spatial position and orientation of at least one tracked measuring device
WO2022194524A1 (de) * 2021-03-16 2022-09-22 Robert Bosch Gmbh Lidar-system

Also Published As

Publication number Publication date
CN111427058A (zh) 2020-07-17
US20200200881A1 (en) 2020-06-25
US11579264B2 (en) 2023-02-14

Similar Documents

Publication Publication Date Title
DE102018222718A1 (de) Optoelektronischer Sensor, Verfahren und Fahrzeug
EP0435011B1 (de) Entfernungsbildkamera
WO2018050906A2 (de) Codierte laserlicht-pulssequenzen für lidar
EP3581958B1 (de) Optoelektronischer sensor und verfahren zur erfassung von dreidimensionalen bilddaten
DE102008052064B4 (de) Vorrichtung zur Aufnahme von Bildern einer Objektszene
EP3633405B1 (de) Messgerät zur geometrischen 3d-abtastung einer umgebung mit einer vielzahl sendekanäle und semiconductor-photomultiplier sensoren
DE102013219567A1 (de) Verfahren zur Steuerung eines Mikrospiegelscanners und Mikrospiegelscanner
DE102018222721A1 (de) LIDAR-Sensor für ein LIDAR-System
DE102018108340A1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung und Abstandsbestimmung von Objekten
DE102018222629A1 (de) Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Objekts
DE102010054078A1 (de) Lasersensor für Fahrerassistenzsysteme
DE102014118055A1 (de) Sendeeinrichtung, Empfangseinrichtung und Objekterfassungsvorrichtung für ein Kraftfahrzeug sowie Verfahren dafür
WO2012051982A2 (de) Laser-doppler-linien-distanzsensor zur dreidimensionalen formvermessung bewegter festkörper
DE102017116597A1 (de) Sendevorrichtung für ein abtastendes optisches Detektionssystem eines Fahrzeugs, Detektionssystem, Fahrerassistenzsystem, Verfahren zur Steuerung einer Strahlrichtung eines optischen Sendesignals
WO2017148583A1 (de) Mechanisch robustes optisches messsystem mittels lichtlaufzeit- und/oder reflektivitätsmessung
DE102008059665A1 (de) Optischer Modulator, optisches Modulatormodul und diese enthaltende Abtastanzeigevorrichtung
DE102018222415A1 (de) Multikanal-Analog-Digital-Wandlervorrichtung für einen optoelektronischen Sensor, Verfahren zur Signalmodulation in einem optoelektronischen Sensor und laserbasierter Entfernungs- und/oder Geschwindigkeitssensor
EP2505986A1 (de) Bildgebendes THz-Messverfahren und Vorrichtung
DE102018219475A1 (de) Optische Anordnung zum Aussenden mehrerer Lichtstrahlen mit verschiedenen Ausbreitungsrichtungen und LiDAR-Sensor
DE102020209851A1 (de) Kontinuierlich emittierendes und abtastendes LiDAR-System
DE10153977B4 (de) System zur Erzeugung eines Entfernungsbildes mit elektromagnetischen Impulsen
DE102020202982A1 (de) Optische Vorrichtung zur Abstandsbestimmung eines Messobjekts
DE102019200733A1 (de) Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens einer getrackten Messvorrichtung
DE102021126999A1 (de) Verfahren zum Betreiben eines LiDAR-Systems, LiDAR-System und Fahrzeug aufweisend wenigstens eine LiDAR-System
DE102016006776A1 (de) Vorrichtung und Verfahren zur eindeutigen Abstandsmessung mit moduliertem LIDAR

Legal Events

Date Code Title Description
R163 Identified publications notified