DE102021118356A1 - Strahlenlenkungsbewusstes pixelclustern eines segmentierten sensorbereichs und implementierung von mittelungsalgorithmen für die pixel verarbeitung - Google Patents

Strahlenlenkungsbewusstes pixelclustern eines segmentierten sensorbereichs und implementierung von mittelungsalgorithmen für die pixel verarbeitung Download PDF

Info

Publication number
DE102021118356A1
DE102021118356A1 DE102021118356.1A DE102021118356A DE102021118356A1 DE 102021118356 A1 DE102021118356 A1 DE 102021118356A1 DE 102021118356 A DE102021118356 A DE 102021118356A DE 102021118356 A1 DE102021118356 A1 DE 102021118356A1
Authority
DE
Germany
Prior art keywords
pixel
sub
scanning
active
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021118356.1A
Other languages
English (en)
Inventor
Norbert Druml
Philipp GREINER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infineon Technologies AG
Original Assignee
Infineon Technologies AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infineon Technologies AG filed Critical Infineon Technologies AG
Publication of DE102021118356A1 publication Critical patent/DE102021118356A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4817Constructional features, e.g. arrangements of optical elements relating to scanning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein Abtastsystem umfasst eine erste Abtaststruktur, die so ausgebildet ist, dass sie sich um mindestens eine erste Abtastachse dreht; einen Treiber, der so ausgebildet ist, dass er die Abtaststruktur um die mindestens eine Abtastachse antreibt und eine Position der ersten Abtaststruktur in Bezug auf die mindestens eine erste Abtastachse während der Bewegung der ersten Abtaststruktur erfasst; einen segmentierten Pixelsensor, der eine Mehrzahl von Subpixelelementen umfasst, die in einem Pixelbereich angeordnet sind; und eine Steuerung, die so ausgebildet ist, dass sie selektiv die Mehrzahl von Subpixelelementen in mindestens ein aktives Cluster und mindestens ein deaktiviertes Cluster aktiviert und deaktiviert, um mindestens ein aktives Pixel aus dem mindestens einen aktiven Cluster zu bilden, erste Positionsinformationen von dem Treiber empfängt, die die erfasste Position der ersten Abtaststruktur anzeigen, und eine Clusterung von aktivierten Subpixelelementen und eine Clusterung von deaktivierten Subpixelelementen basierend auf den ersten Positionsinformationen dynamisch ändert.

Description

  • HINTERGRUND
  • Lichtdetektion und Abstandsmessung (LIDAR; Light Detection and Ranging) ist ein Femerfassungsverfahren, das Licht in der Form eines gepulsten Lasers verwendet, um Abstände (variable Distanzen) zu einem oder mehreren Objekten in einem Sichtfeld zu messen. Insbesondere wird Licht in Richtung des Objekts gesendet. Einzelne Photodetektoren oder Arrays von Photodetektoren empfangen Reflexionen von Objekten, die durch das Licht beleuchtet werden, und die Zeit, die benötigt wird, bis die Reflexionen an verschiedenen Sensoren in dem Photodetektor-Array ankommen, wird bestimmt. Dies wird auch als Messen der Laufzeit (TOF; time-of-flight) bezeichnet. LIDAR-Systeme bilden Tiefenmessungen und erstellen Distanzmessungen durch ein Abbilden der Distanz zu Objekten basierend auf den Laufzeitberechnungen. Somit können die Laufzeitberechnungen Distanz- und Tiefen-Abbildungen erzeugen, die zum Erzeugen von Bildern verwendet werden können.
  • Im Allgemeinen sind die Pixelstrukturen in herkömmlichen Photodetektor-Arrays typischerweise statisch. Darüber hinaus ist die Überabtastung und Mittelwertbildung ein sehr erwünschtes Merkmal, um das Signal-Rausch-Verhältnis (SNR; signal-to-noise ratio) zu erhöhen und die Robustheit des Empfängers gegenüber anderen Ereignissen als typischem Rauschen (z. B. Schuss, weißes Rauschen) wie Interferenzen von anderen LIDAR-Systemen/Sendern zu erhöhen. Neben der Interferenz mit anderen LIDAR-Systemen/Sendern können auch augensicherheitsbedingte Einschränkungen der Laserpulsleistung zur Notwendigkeit einer Mittelwertbildung (averaging) führen.
  • Während ein eindimensionaler (1D) Abtastansatz hohe Frameraten unterstützt und damit Überabtastung und Mittelwertbildung ermöglicht, unterstützt ein 2×1D Lissajous-Abtastansatz nur niedrige Frameraten von z. B. 10-25 Hz. Folglich werden Überabtastung und Mittelwertbildung nicht als praktikable Lösung angesehen, da sie die Framerate effektiv weiter reduzieren. Wenn beim Laserschießenµ eine Mittelwertbildung über mehrere Frames erforderlich ist, treten außerdem hohe Datenraten auf und der Speicherbedarf steigt. Dies ist darauf zurückzuführen, dass es erforderlich ist, alle Daten eines Fotodetektor-Arrays über mehrere Frames zu speichern, um die Mittelwertbildung durchzuführen. Außerdem wird die Mittelwertbildung über zwei oder mehr Frames durch die Bewegungsunschärfe der Szenerie beeinträchtigt.
  • Wird die Mittelwertbildung so durchgeführt, dass mehrere schnelle aufeinanderfolgende Laserpulse verwendet werden, dann reduziert sich der Speicherbedarf drastisch, da es nicht notwendig ist, Daten über mehrere Frames zu speichern. Außerdem wird die Bewegungsunschärfe der Szenerie reduziert. Quasi-statische Scanner (das Timing des Laserschusses wird nicht durch irgendeine Scanner-Oszillation beeinflusst) unterstützen diesen Mittelwertbildungs-Ansatz (zur Position bewegen, mehrmals schießen, zur nächsten Position bewegen, mehrmals schießen usw.). Im Gegensatz dazu führen oszillierende Scanner, bei denen die oszillierende Bewegung des Scanners kontinuierlich ist, zu einer Bewegungsunschärfe des sich bewegenden Scanners (z.B. aufgrund von ~3 µs Laufzeit eines einzelnen Pulses, begrenzten Puls-Wiederholungsfrequenzen (z.B. 100kHz) von Lasersendern). Daher ist es praktisch unmöglich, bei Verwendung eines hochfrequent oszillierenden Scanners über aufeinanderfolgende Laserschüsse zu mitteln.
  • Darüber hinaus kann die Szenerie vom LIDAR-Sender mit einer Pulsfolge von Laserpulsen oder mit einem frequenzmodulierten Dauerstrich-Lichtstrahl (FMCW; frequency-modulated continuous-wave) beleuchtet werden. Da die Pixelstrukturen in einem Photodetektor-Array statisch sind, verursacht ein oszillierender/bewegter Scanner mit diesen Szenerie-Beleuchtungsverfahren eine bewegte Projektion auf das Photodetektor-Array (z.B. 3µs Laufzeit eines Einzelpulses, begrenzte Puls-Wiederholfrequenzen (z.B. 100kHz) von Lasern). Diese sich bewegende Projektion über die statischen Pixel führt zu einer gestörten Wahrnehmung der Umgebung. Daher ist ein Überabtasten und eine Mittelwertbildung eines jeweiligen statischen Pixels mit schnell aufeinanderfolgenden Laserpulsen bei einem bewegten/oszillierenden Scanner praktisch unmöglich, da sich der Scanner zwischen aufeinanderfolgenden Laserschüssen und zwischen Lasersendung und -empfang zu stark bewegt.
  • Daher kann ein dynamisch rekonfigurierbares, nicht-statisches Photodetektor-Array, das ein dynamisches Neu-Clustern von Sub-Sub-Pixeln und Sub-Pixeln zum Bilden von Pixeln unterstützt, für LIDAR-Empfängersysteme wünschenswert sein.
  • ZUSAMMENFASSUNG
  • Es kann ein Bedarf bestehen zum Bereitstellen eines verbesserten Konzepts für die Bereitstellung eines Abtastsystems und eines Abtastverfahrens.
  • Ein solcher Bedarf kann durch den Gegenstand eines der Ansprüche erfüllt werden.
  • Ein oder mehrere Ausführungsbeispiele stellen ein Abtastsystem bereit, umfassend eine erste Abtaststruktur, die so ausgebildet ist, dass sie sich um mindestens eine erste Abtastachse dreht; einen Treiber, der so ausgebildet ist, dass er die erste Abtaststruktur um die mindestens eine Abtastachse antreibt und eine Position der ersten Abtaststruktur in Bezug auf die mindestens eine erste Abtastachse während der Bewegung der ersten Abtaststruktur erfasst; einen segmentierten Pixelsensor, der eine Mehrzahl von Subpixelelementen umfasst, die in einem Pixelbereich angeordnet sind; und eine Steuerung, die so ausgebildet ist, dass sie selektiv die Mehrzahl von Subpixelelementen in mindestens ein aktives Cluster und mindestens ein deaktiviertes Cluster aktiviert und deaktiviert, um mindestens ein aktives Pixel aus dem mindestens einen aktiven Cluster zu bilden, erste Positionsinformationen von dem Treiber empfängt, die die erfasste Position der ersten Abtaststruktur anzeigen, und ein Clustern von aktivierten Subpixelelementen und ein Clustern von deaktivierten Subpixelelementen basierend auf den ersten Positionsinformationen dynamisch ändert.
  • Ein oder mehrere Ausführungsbeispiele stellen ein Abtastverfahren bereit, umfassend ein Treiben einer ersten Abtaststruktur um mindestens eine erste Abtastachse; Detektieren einer Position der ersten Abtaststruktur in Bezug auf die mindestens eine erste Abtastachse während der Bewegung der ersten Abtaststruktur; selektives Aktivieren und Deaktivieren einer Mehrzahl von Subpixelelementen eines segmentierten Pixelsensors in mindestens ein aktives Cluster und mindestens ein deaktiviertes Cluster, um mindestens ein aktives Pixel aus dem mindestens einen aktiven Cluster zu bilden; und dynamisches Ändern einer Clusterung von aktivierten Subpixelelementen und einer Clusterung von deaktivierten Subpixelelementen auf der Grundlage von ersten Positionsinformationen, die die erfasste Position der ersten Abtaststruktur anzeigen.
  • Figurenliste
  • Ausführungsbeispiele werden hierin unter Bezugnahme auf die beiliegenden Zeichnungen beschrieben.
    • 1 ist ein schematisches Diagramm eines LIDAR-Abtastsystems gemäß einem oder mehreren Ausführungsbeispielen;
    • 2 ist ein schematisches Blockdiagramm eines LIDAR-Abtastsystems gemäß einem oder mehreren Ausführungsbeispielen;
    • 3A ist ein schematisches Diagramm eines SiNT-Pixels (d.h. eines 2D-SiMP-Pixels) gemäß einem oder mehreren Ausführungsbeispielen;
    • 3B ist ein schematisches Diagramm eines 2D-SiPM-Pixelarrays gemäß einem oder mehreren Ausführungsbeispielen;
    • 4A-4H veranschaulichen verschiedene Möglichkeiten des Clustems von Subpixeln zu Pixeln auf einem segmentierten Pixelsensor gemäß einem oder mehreren Ausführungsbeispielen;
    • 5A-5D zeigen eine dynamische Formation von Pixeln, die sich über einen segmentierten Pixelsensor bewegen, gemäß einem oder mehreren Ausführungsbeispielen;
    • 6 veranschaulicht die Pixel-Mittelwertbildung von Pixel A, dargestellt in 5A-5D;
    • 7A-7F zeigen eine dynamische Formation von Pixeln, die sich über einen segmentierten Pixelsensor bewegen, gemäß einem oder mehreren Ausführungsbeispielen;
    • 8 veranschaulicht die Pixel-Mittelwertbildung von Pixel A, dargestellt in 7A-7F;
    • 9A-9D zeigen eine dynamische Formation von Pixeln, die sich über einen segmentierten Pixelsensor bewegen, gemäß einem oder mehreren Ausführungsbeispielen;
    • 10 veranschaulicht die Pixel-Mittelwertbildung von Pixel A, dargestellt in 9A-9D. Der Mittelwertbildungsalgorithmus gewichtet nur ganze Pixel;
    • 11A und 11B zeigen schematische Blockdiagramme einer Empfängerschaltung gemäß einem oder mehreren Ausführungsbeispielen;
    • 12A ist ein schematisches Diagramm eines Lissajous-LIDAR-Abtastsystems gemäß einem oder mehreren Ausführungsbeispielen;
    • 12B ist ein schematisches Blockdiagramm des Lissajous-LIDAR-Abtastsystems, umfassend eine zusätzliche Schaltungsanordnung zu der, die in 2 gezeigt ist;
    • 13A ist eine schematische Darstellung des Lissajous-LIDAR-Abtastsystems aus 12A, zeigt aber zusätzlich zwei aufeinanderfolgende Laserschüsse in das Sichtfeld; und
    • 13B und 13C zeigen verschiedene mögliche Pixelpositionen, an denen Laserschüsse auf dem segmentierten Pixelsensor empfangen werden können, basierend auf einer Laufzeit jedes Laserschusses.
  • DETAILLIERTE BESCHREIBUNG
  • Nachfolgend werden verschiedene Ausführungsbeispiele detailliert Bezug nehmend auf die beiliegenden Zeichnungen beschrieben. Es versteht sich jedoch, dass diese Ausführungsbeispiele nur zu darstellenden Zwecken dienen und nicht als einschränkend betrachtet werden sollen. Zum Beispiel, während Ausführungsbeispiele möglicherweise derart beschrieben sind, dass sie eine Mehrzahl von Merkmalen oder Elementen aufweisen, soll dies nicht so ausgelegt werden, dass all diese Merkmale oder Elemente zum Implementieren von Ausführungsbeispielen notwendig sind. Stattdessen können bei anderen Ausführungsbeispielen einige der Merkmale oder Elemente weggelassen werden oder können durch alternative Merkmale oder Elemente ersetzt werden. Zusätzlich dazu können weitere Merkmale oder Elemente zusätzlich zu jenen, die ausdrücklich gezeigt und beschrieben sind, bereitgestellt werden, zum Beispiel herkömmliche Komponenten von Sensorbauelementen.
  • Merkmale von unterschiedlichen Ausführungsbeispielen können kombiniert werden, um weitere Ausführungsbeispiele zu bilden, außer dies ist spezifisch anderweitig angegeben. Abänderungen oder Modifikationen, die in Bezug auf eines der Ausführungsbeispiele beschrieben sind, können auch auf andere Ausführungsbeispiele anwendbar sein. In einigen Fällen sind bekannte Strukturen und Vorrichtungen in Blockdiagrammform und nicht im Detail gezeigt, um ein Verunklaren der Ausführungsbeispiele zu vermeiden.
  • Ferner werden äquivalente oder gleiche Elemente oder Elemente mit äquivalenter oder gleicher Funktionalität in der nachfolgenden Beschreibung mit äquivalenten oder gleichen Bezugszeichen bezeichnet. Da den gleichen oder funktional äquivalenten Elementen in den Figuren dieselben Bezugszeichen gegeben werden, kann eine wiederholte Beschreibung für Elemente, die mit denselben Bezugszeichen bereitgestellt sind, weggelassen werden. Somit sind Beschreibungen, die für Elemente mit denselben oder ähnlichen Bezugszeichen bereitgestellt sind, gegenseitig austauschbar.
  • Verbindungen oder Kopplungen zwischen Elementen, die in den Zeichnungen gezeigt oder hierin beschrieben sind, können auf Draht basierende Verbindungen oder drahtlose Verbindungen sein, sofern nicht anderweitig angemerkt. Ferner können solche Verbindungen oder Kopplungen direkte Verbindungen oder Kopplungen ohne zusätzliche dazwischen liegende Elemente oder indirekte Verbindungen oder Kopplungen mit einem oder mehreren zusätzlichen dazwischen liegenden Elementen sein, solange der allgemeine Zweck der Verbindung oder Kopplung, zum Beispiel das Übertragen einer bestimmten Art von Signal oder das Übertragen einer bestimmten Art von Information, im Wesentlichen beibehalten wird.
  • In der vorliegenden Offenbarung können Ausdrücke, die Ordinalzahlen umfassen, wie beispielsweise „erste/r/s“, „zweite/r/s“ und/oder ähnliches, verschiedene Elemente modifizieren. Solche Elemente sind jedoch nicht durch die vorangehenden Ausdrücke begrenzt. Die obigen Ausdrücke schränken z. B. die Abfolge und/oder die Wichtigkeit der Elemente nicht ein. Die vorangehenden Ausdrücke werden nur zum Zweck der Unterscheidung eines Elements von den anderen Elementen verwendet. Ein erstes Kästchen und ein zweites Kästchen zeigen z. B. unterschiedliche Kästchen an, obwohl beide Kästchen sind. Als weiteres Beispiel könnte ein erstes Element als ein zweites Element bezeichnet werden und ähnlich könnte ein zweites Element auch als ein erstes Element bezeichnet werden, ohne von dem Schutzbereich der vorliegenden Offenbarung abzuweichen.
  • Ausführungsbeispiele beziehen sich auf optische Sensoren und optische Sensorsysteme und auf das Erhalten von Informationen über optische Sensoren und optische Sensorsysteme. Ein Sensor kann sich auf eine Komponente beziehen, die eine physikalische Größe, die gemessen werden soll, in ein elektrisches Signal umwandelt, zum Beispiel ein Stromsignal oder ein Spannungssignal. Die physikalische Größe kann zum Beispiel elektromagnetische Strahlung, wie beispielsweise sichtbares Licht, Infrarot- (IR-) Strahlung oder einen anderen Typ von Beleuchtungssignal, einen Strom oder eine Spannung aufweisen, ist aber nicht darauf beschränkt. Zum Beispiel kann ein Bildsensor ein Siliziumchip innerhalb einer Kamera sein, der Photonen von Licht, das aus einer Linse kommt, in Spannungen umwandelt. Je größer der aktive Bereich des Sensors, desto mehr Licht kann gesammelt werden, um ein Bild zu erzeugen.
  • Ein Sensorbauelement, wie es hierin verwendet wird, kann sich auf ein Bauelement beziehen, das einen Sensor und weitere Komponenten aufweist, zum Beispiel eine Vorspannungs-Schaltungsanordnung, einen Analog-Digital-Wandler oder ein Filter. Ein Sensorbauelement kann auf einem einzelnen Chip integriert sein, obwohl bei anderen Ausführungsbeispielen eine Mehrzahl von Chips oder auch Komponenten außerhalb eines Chips zum Implementieren eines Sensorbauelements verwendet werden können.
  • Bei LIDAR-Systemen (Light Detection and Ranging; Lichtdetektion und Abstandsmessung) sendet eine Lichtquelle eine Pulsfolge von Lichtpulsen oder einen frequenzmodulierten Dauerstrich-(FMCW-) Lichtstrahl in ein Sichtfeld und das Licht wird von einem oder mehreren Objekten durch Rückstreuung reflektiert. Ein Pixel-Array, wie z. B. ein Fotodetektor-Array, erfasst und misst die reflektierten Strahlen, die von Objekten empfangen werden, die vom übertragenen Licht beleuchtet werden. Insbesondere kann LIDAR direkte ToF-Sensoren verwenden, die kurze Lichtpulse aussenden, die nur wenige Nanosekunden dauern, und dann die Zeit messen, die ein Teil des emittierten Lichts braucht, um zurückzukommen, oder indirekte ToF-Sensoren, die kontinuierliches, moduliertes Licht aussenden und die Phase des reflektierten Lichts messen, um die Entfernung zu einem Objekt zu berechnen. Beide Typen können in den hier beschriebenen Ausführungsbeispielen verwendet werden.
  • Bei den hier beschriebenen Ausführungsbeispielen ist das Fotodetektor-Array ein segmentierter Pixelsensor, bei dem Pixel flexibel und dynamisch gebildet werden, indem Sub-Sub-Elemente zu Sub-Elementen kombiniert und gebildete Sub-Elemente kombiniert werden, um ein Pixel zu bilden. Ein Pixel wird also aus einer Menge von Sub-Elementen (d. h. Sub-Pixeln) geclustert (gruppiert). Die Kombination von Sub-Sub-Elementen und die Kombination von Sub-Elementen ist programmierbar und kann während einer Abtastoperation flexibel und dynamisch verändert werden, während die Pulsfolge oder der FMCW-Lichtstrahl in das Sichtfeld übertragen wird. Es kann ein 1D-Pixelarray oder ein 2D-Pixelarray erstellt werden, je nachdem, wie die Sub-Sub-Elemente und die Sub-Elemente kombiniert werden, um die Pixel zu bilden.
  • Die kleinste Einheit des Photodetektor-Arrays ist das Sub-Sub-Element, das eine einzelne Diode sein kann, wie z. B. eine Avalanche-Photodiode (APD) oder eine Single-Photon-Avalanche-Diode (SPAD; Einzel-Photon-Avalanche-Diode). Im Folgenden wird ein Sub-Sub-Element als Sub-Sub-Pixel bezeichnet.
  • Ein Sub-Element, im Folgenden als Sub-Pixel bezeichnet, wird aus einem Satz dynamisch ausgewählter Sub-Sub-Pixel geclustert und jedes Pixel wird aus einem Satz dynamisch ausgewählter Sub-Pixel geclustert.
  • Ein Sub-Sub-Pixel kann z. B. eine einzelne SPAD (oder APD) sein. Ein 8x8-Cluster von SPADs oder APDs kann ein Sub-Pixel bilden. Im Falle der Verwendung von SPADs kann das Sub-Pixel als Silizium-Photomultiplier (SiPM) bezeichnet werden. Ein 4x4-Cluster von Sub-Pixeln (z. B. 32x32 SPADs oder APDs) kann ein Pixel bilden. Ein oder mehrere Pixel können zu einem bestimmten Zeitpunkt gebildet werden.
  • Die Sub-Sub-Pixel und die Sub-Pixel, die zur Bildung eines Pixels verwendet werden, können von einer Systemsteuerung, die einen Clustering-Algorithmus implementiert, dynamisch ausgewählt werden. Die Anzahl der Sub-Sub-Pixel und Sub-Pixel, die zur Bildung eines Pixels verwendet werden, ist vollständig konfigurierbar und programmierbar. Darüber hinaus kann die Auswahl von Sub-Sub-Pixeln und Sub-Pixeln, die zur Bildung eines Pixels verwendet werden, aus einer einzigen zusammenhängenden Gruppierung, zwei oder mehreren zusammenhängenden Gruppierungen, die ihrerseits durch mindestens ein oder mehrere Sub-Sub-Pixel voneinander beabstandet (d. h. nicht zusammenhängend) sind, gebildet werden. Außerdem kann jede Gruppierung von Sub-Sub-Pixeln und Sub-Pixeln in beliebiger Form gruppiert werden und muss nicht in einer quadratischen Formation sein.
  • Jedes Sub-Sub-Pixel kann als Sub-Sub-Messsignal in Form von analogen oder digitalen Rohdaten ausgelesen werden. Jedes Sub-Sub-Messsignal, das von einem Pixel (d. h. von den Sub-Sub-Pixeln des Pixels) stammt, kann von einer Ausleseverarbeitungskette summiert und/oder gemittelt werden, um ein Pixel-Messsignal zu erzeugen.
  • Unterschiede bei Rücklaufzeiten für jeden Lichtpuls über mehrere Pixel des Pixelarrays können dann verwendet werden, um digitale 3D-Repräsentationen einer Umgebung zu erstellen oder um andere Sensordaten zu erzeugen. Zum Beispiel kann die Lichtquelle, in einem Direkt-ToF-System, einen einzelnen Lichtpuls emittieren und eine Empfängerschaltung, die elektrisch mit dem Pixelarray gekoppelt ist, kann von der Zeit, zu der der Lichtpuls emittiert wird, was einem Startsignal entspricht, bis zu einer Zeit zählen, zu der der reflektierte Lichtpuls an dem Empfänger (d. h. an dem Pixelarray) empfangen wird, was einem Stoppsignal entspricht. Die „Laufzeit“ des Lichtpulses wird dann in eine Distanz übersetzt.
  • Zum Beispiel kann die Lichtquelle einen einzelnen Lichtpuls emittieren und ein Zeit-zu-Digital-Wandler (TDC; time-to-digital converter), der elektrisch mit dem Pixelarray gekoppelt ist, kann von der Zeit zählen, zu der der Lichtpuls emittiert wird, was einem Startsignal entspricht, und eine Zeit aufzeichnen (d.h. eine ToF-Trefferzeit), zu der der reflektierte Lichtpuls an dem Empfänger (d. h. an dem Pixelarray) empfangen wird, was einem ToF-Treffersignal entspricht.
  • Alternativ kann ein Analog-zu-Digital-Wandler (ADC; analog-to-digital converter) für Pulsdetektierung und ToF-Messung elektrisch mit dem Pixel-Array (z.B. indirekt mit dazwischenliegenden Elementen dazwischen gekoppelt sein) gekoppelt sein. Beispielsweise kann ein ADC verwendet werden, um ein Zeitintervall zwischen Start- und ToF-Treffersignalen mit einem geeigneten Algorithmus zu schätzen.
  • Eine Abtastung, wie beispielsweise eine oszillierende horizontale Abtastung (z. B. von links nach rechts und rechts nach links eines Sichtfelds), kann eine Szene auf eine durchgehende Abtastungsweise beleuchten. Jedes Abfeuern eines Laserstrahls durch die Lichtquellen kann zu einer Abtastzeile in dem „Sichtfeld“ führen. Durch ein Emittieren von aufeinanderfolgenden Lichtpulsen oder eines FMCW-Lichtstrahls in unterschiedliche Abtastrichtungen kann ein als das Sichtfeld bezeichneter Bereich abgetastet werden und Objekte innerhalb des Bereichs können detektiert und abgebildet werden. Somit repräsentiert das Sichtfeld eine Abtastebene, die eine Mitte einer Projektion aufweist. Es kann auch eine Rasterabtastung oder eine Lissajous-Abtastung mit zwei orthogonalen Abtastachsen verwendet werden.
  • 1 ist ein schematisches Diagramm eines LIDAR-Scansystems 100 gemäß einem oder mehreren Ausführungsbeispielen. Das LIDAR-Abtastsystem 100 ist eine optische Abtastvorrichtung, die einen Sender umfasst, umfassend eine Beleuchtungseinheit 10, eine Senderoptik 11 und einen eindimensionalen (1D-) MEMS-Spiegel 12 (1D-MEMS-Abtastvorrichtung), und einen Empfänger, umfassend eine primäre Optik 14 und einen optischen Empfänger 15. Der optische Empfänger 15 in der Abbildung ist ein segmentierter Pixelsensor 15. Der Empfänger kann ferner eine Empfängerschaltungsanordnung umfassen, wie beispielsweise eine Daten-Erwerbs-/Ausleseschaltungsanordnung und eine Datenverarbeitungsschaltungsanordnung, wie weiter gemäß 2 beschrieben wird.
  • Obwohl diese Anordnung ein Beispiel einer Art von LIDAR-System repräsentiert, wird darauf hingewiesen, dass auch andere Arten von LIDAR-Systemen, wie beispielsweise diese, die bei Flash-LIDAR verwendet werden, verwendet werden können. Außerdem kann das LIDAR-Abtastsystem 100 gedreht werden, um in eine andere Abtastrichtung abzutasten. Zum Beispiel kann das LIDAR-Abtastsystem 100 um 90° gedreht werden, um in vertikaler statt in horizontaler Richtung abzutasten. Daher sind die hier beschriebenen Ausführungsbeispiele nicht auf einen bestimmten Typ von Lichtsender oder ToF-System beschränkt und können auch auf andere Typen von ToF-Systemen angewendet werden.
  • Bezugnehmend wieder auf 1 ist der segmentierte Pixelsensor 15 so angeordnet, dass ein vorgesehenes Sichtfeld vertikal auf die vertikale Ausdehnung des segmentierten Pixelsensors 15 abgebildet wird. Ein empfangener Lichtstrahl trifft nur auf eine spezielle Zeile oder Gruppe von Zeilen des Detektor-Arrays, abhängig von dem vertikalen Winkel des empfangenen Lichtstrahls. Das beabsichtigte Sichtfeld kann ferner horizontal auf die horizontale Erstreckung des segmentierten Pixelsensors 15 abgebildet werden.
  • In seiner kleinsten Einheit kann der segmentierte Pixelsensor 15 aus einem Array von analogen oder digitalen Sub-Sub-Pixel-Elementen gebildet sein. Im Fall einer Bildung eines SiPM (d. h. eines Sub-Pixels) umfasst jedes SiPM eine Mehrzahl von Mikrozellen, wobei jede Mikrozelle eine SPAD umfasst. Somit umfasst jeder SiPM einen Satz von zwei oder mehr SPADs.
  • SPADs nutzen wie Avalanche-Photodioden (APDs) den durch einfallende Strahlung ausgelösten Avalanche-Strom eines p-n-Übergangs bei umgekehrter Vorspannung. Der grundlegende Unterschied zwischen SPADs und APDs besteht darin, dass SPADs speziell für den Betrieb mit einer Sperrvorspannung (reverse-bias voltage) weit oberhalb der Durchbruchspannung entworfen sind. Diese Art des Betriebs wird auch als Geiger-Modus bezeichnet (im Gegensatz zum Linear-Modus für den Fall einer APD).
  • Bei diesem Beispiel umfasst die Beleuchtungseinheit 10 mehrere Lichtquellen (z. B. Laserdioden oder lichtemittierende Dioden), die linear in Einzelstrich-Formation ausgerichtet sind und ausgebildet sind, um Licht zu senden, das zum Abtasten des Sichtfelds nach Objekten verwendet wird. Das durch die Lichtquellen emittierte Licht ist typischerweise Infrarotlicht, obwohl auch Licht mit einer anderen Wellenlänge verwendet werden kann. Wie bei dem Ausführungsbeispiel von 1 ersichtlich ist, wird die Form des durch die Lichtquellen emittierten Lichts in einer Richtung senkrecht zu der Übertragungsrichtung ausgebreitet, um einen Lichtstrahl mit einer länglichen Form senkrecht zu einer Übertragungsrichtung zu bilden. Das Beleuchtungslicht, das aus den Lichtquellen übertragen wird, wird in Richtung der Senderoptik 11 gerichtet, die ausgebildet ist, um jeden Laser auf einen eindimensionalen MEMS-Spiegel 12 zu fokussieren. Die Senderoptik 11 kann zum Beispiel eine Linse oder ein Prisma sein.
  • Bei Reflexion durch den MEMS-Spiegel 12 wird das Licht aus den Lichtquellen vertikal ausgerichtet, um für jeden emittierten Laserschuss eine eindimensionale vertikale Abtastzeile SL (SL; scanning line) aus Infrarotlicht oder einen vertikalen Strich aus Infrarotlicht zu bilden. Jede Lichtquelle der Beleuchtungseinheit 10 trägt zu einer unterschiedlichen vertikalen Region der vertikalen Abtastzeile SL bei. Somit können die Lichtquellen gleichzeitig aktiviert und gleichzeitig deaktiviert werden, um einen Lichtpuls mit mehreren vertikalen Segmenten zu erhalten, wobei jedes vertikale Segment einer jeweiligen Lichtquelle entspricht. Jedoch kann jede vertikale Region oder Segment der vertikalen Abtastzeile SL auch unabhängig aktiv oder inaktiv sein, indem eine entsprechende der Lichtquellen der Beleuchtungseinheit 10 ein- oder ausgeschaltet wird. Somit kann eine teilweise oder vollständige vertikale Abtastzeile SL aus Licht aus dem System 100 in das Sichtfeld ausgegeben werden.
  • Dementsprechend ist der Sender des Systems 100 eine optische Anordnung, die ausgebildet ist, um Laserstrahlen basierend auf den Laserpulsen zu erzeugen, wobei die Laserstrahlen eine längliche Form aufweisen, die sich in eine Richtung senkrecht zu einer Übertragungsrichtung der Laserstrahlen erstreckt. Wie in 1 ersichtlich ist, ist jede der Lichtquellen einer unterschiedlichen vertikalen Region in dem Sichtfeld zugeordnet, so dass jede Lichtquelle eine vertikale Abtastzeile nur in die vertikale Region, die der Lichtquelle zugeordnet ist, beleuchtet. Beispielsweise leuchtet die erste Lichtquelle in eine erste vertikale Region und die zweite Lichtquelle leuchtet in eine zweite vertikale Region, die unterschiedlich zu der ersten vertikalen Region ist.
  • Zusätzlich, obwohl drei Laserquellen gezeigt sind, wird darauf hingewiesen, dass die Anzahl von Laserquellen nicht darauf beschränkt ist. Zum Beispiel kann die vertikale Abtastzeile SL durch eine einzelne Laserquelle, zwei Laserquellen oder mehr als drei Laserquellen erzeugt werden.
  • Der MEMS-Spiegel 12 ist ein mechanischer, sich bewegender Spiegel (d. h. ein MEMS-Mikrospiegel), der auf einem Halbleiterchip (nicht gezeigt) integriert ist. Der MEMS-Spiegel 12 gemäß diesem Ausführungsbeispiel wird in einem 1D-Abtastsystem eingesetzt und ist so ausgebildet, dass er um eine einzige Abtastachse rotiert. Im Gegensatz zu 2D-MEMS-Spiegeln (2D-MEMS-Abtastvorrichtungen (Scannern)) weist ein ID-MEMS-Spiegel nur ein Freiheitsgrad für Abtastung auf, wodurch die einzelne Abtastachse an einem nicht rotierenden Substrat befestigt ist und somit ihre räumliche Ausrichtung während der Oszillation des MEMS-Spiegels aufrechterhält. Aufgrund dieser einzelnen Abtast-Rotationsachse wird der MEMS-Spiegel 12 als ein 1D-MEMS-Spiegel oder eine 1D-MEMS-Abtastvorrichtung bezeichnet.
  • Es wird darauf hingewiesen, dass auch 2D-Abtastsysteme, wie z. B. ein 2D-MEMS-Spiegel, der um zwei orthogonale Abtastachsen oszilliert, oder zwei 1D-MEMS-Spiegel (d. h. ein 2×1D-Scanner-System), die jeweils um eine einzige, zueinander orthogonale Abtastachse oszillieren, verwendet werden können. Letzteres kann als Lissajous-Abtastsystem bezeichnet werden.
  • Typischerweise sendet ein ID-Abtastsystem eine Abtastzeile aus Laserlicht in das Sichtfeld. Im Gegensatz dazu sendet ein 2D-Abtastsystem einen Abtastpunkt (z. B. einen kreisförmigen oder quadratischen Punkt) aus Laserlicht in das Sichtfeld. Somit können die in 1 für ein ID-Abtastsystem dargestellte Abtastzeile SL und die Empfangszeile RL durch einen Abtastpunkt bzw. einen Empfangspunkt für ein 2D-Abtastsystem ersetzt werden.
  • Der MEMS-Spiegel 12 in 1 ist ausgebildet, um von „Seite-zu-Seite“ derart um eine einzelne Abtastachse 13 zu oszillieren, dass das Licht, das von dem MEMS-Spiegel 12 (d. h. der vertikalen Abtastzeile von Licht) reflektiert wird, in einer horizontalen Abtastrichtung rückwärts und vorwärts oszilliert. Die Bewegung des MEMS-Spiegels 12 ist kontinuierlich für eine volle Abtastperiode (z. B. für eine vollständige Abtastung eines Sichtfelds). Eine Abtastperiode, eine Oszillationsperiode oder ein Rahmen ist beispielsweise durch eine vollständige Oszillation von einem ersten Rand des Sichtfeldes (z. B. linke Seite) zu einem zweiten Rand des Sichtfeldes (z. B. rechte Seite) und dann wieder zurück zu dem ersten Rand definiert. Eine Spiegelperiode oder ein Frame des MEMS-Spiegels 12 entspricht einer Abtastperiode. Ein Frame ist also eine vollständige Abtastung des Sichtfeldes über eine volle Spiegelperiode.
  • Somit wird das Sichtfeld in horizontaler Richtung durch den vertikalen Lichtstrich abgetastet, indem der Winkel θ des MEMS-Spiegels 12 auf seiner Abtastachse 13 verändert wird. Zum Beispiel kann der MEMS-Spiegel 12 ausgebildet sein, um zwischen +/-15 Grad in einer horizontalen Abtastrichtung zu oszillieren, um das Licht über +/-30 Grad (d.h. 60 Grad) zu lenken, was den horizontalen Abtastbereich des Sichtfeldes ausmacht. Somit kann das Sichtfeld kontinuierlich Zeile für-Zeile durch eine Rotation des MEMS-Spiegels 12 durch seinen Bewegungsgrad abgetastet werden. Eine solche Sequenz durch den Bewegungsgrad (z. B. von -15 Grad bis +15 Grad oder umgekehrt) wird als eine einzelne Abtastung bezeichnet. Somit werden für jede Abtastperiode zwei Abtastungen verwendet. Mehrere Abtastungen können verwendet werden, um Distanz- und Tiefen-Abbildungen sowie 3D-Bilder durch eine Verarbeitungseinheit zu erzeugen. Die horizontale Auflösung der Tiefen-Abbildungen und Bilder hängt von der Größe der inkrementellen Schritte bei dem Rotationswinkel des MEMS-Spiegels 12, vorgenommen zwischen den Abtastungen, ab.
  • Obwohl der Übertragungsspiegel in dem Kontext eines MEMS-Spiegel beschrieben ist, wird darauf hingewiesen, dass auch andere 1D-Spiegel oder sogar 2D-Spiegel verwendet werden können. Zusätzlich ist der Rotationsgrad nicht auf +/-15 Grad beschränkt und das Sichtfeld kann vergrößert oder verkleinert werden, gemäß der Anwendung. Somit ist ein eindimensionaler Abtastspiegel ausgebildet, um um eine einzelne Abtastachse zu oszillieren und die Laserstrahlen in unterschiedliche Richtungen in ein Sichtfeld zu lenken. Daher umfasst eine Übertragungstechnik ein Übertragen der Lichtstrahlen in das Sichtfeld von einem Übertragungsspiegel, der um eine einzelne Abtastachse oszilliert, sodass die Lichtstrahlen als eine vertikale Abtastzeile SL in das Sichtfeld projiziert werden, die sich horizontal über das Sichtfeld bewegt, während der Übertragungsspiegel um die einzelne Abtastachse oszilliert. LIDAR-Systeme die ID-Abtastspiegel verwenden, können eine entspanntere Schussrate der Beleuchtungseinheit 10 (d.h. des Senders) verwenden im Vergleich zu 2D-Abtastspiegeln, die Laserpunkte zum Abtasten des Sichtfeldes verwenden, was mehr Schüsse für den Sender erfordert, um ein Sichtfeld abzutasten. Zusätzlich sind LIDAR-Systeme, die ID-Abtastspiegel verwenden, im Vergleich zu 2D-Abtastspiegeln typischerweise robuster gegen Stöße und Vibrationen und eignen sich daher gut für Automobilanwendungen.
  • Nach dem Auftreffen auf einem oder mehreren Objekten wird der übertragene vertikale Lichtstrich durch Rückstreuung als eine reflektierte vertikale Zeile zurück in Richtung des LIDAR-Abtastsystems 100 reflektiert, wo die zweite optische Komponente 14 (z. B. eine Linse oder ein Prisma) das reflektierte Licht empfängt. Die zweite optische Komponente 14 richtet das reflektierte Licht auf den segmentierten Pixelsensor Detektorarray 15, der das reflektierte Licht als eine Empfangszeile RL (Receiving Line) empfängt und ausgebildet ist zum Erzeugen elektrischer Messsignale. Der segmentierte Pixelsensor 15 erzeugt ein digitales Messsignal basierend auf dem empfangenen Licht. Die digitalen Messsignale können zum Erzeugen einer 3D-Abbildung der Umgebung und/oder anderer Objektdaten basierend auf dem reflektierten Licht (z. B. durch TOF-Berechnungen und -Verarbeitung) verwendet werden.
  • Die Empfangsleitung wird als eine vertikale Lichtspalte gezeigt, die sich entlang einer der Pixelspalten in einer Längsrichtung der Pixelspalte erstreckt. Die Empfangszeile weist drei vertikale Regionen auf, die den vertikalen Regionen der vertikalen Abtastzeile SL entsprechen, die in 1 gezeigt ist. Da sich die vertikale Abtastzeile SL horizontal über das Sichtfeld bewegt, bewegt sich die vertikale Lichtspalte RL, die auf den segmentierten 2D-Pixelsensor 15 auftrifft, auch horizontal über den segmentierten 2D-Pixelsensor 15. Der reflektierte Lichtstrahl RL bewegt sich von einem ersten Rand des Photodetektor-Detektorarrays 15 zu einem zweiten Rand des Photodetektor-Detektorarrays 15, während sich die empfangende Richtung des reflektierten Lichtstrahls RL ändert. Die empfangende Richtung des reflektierten Lichtstrahls RL entspricht einer Übertragungsrichtung der Abtastzeile SL.
  • Der segmentierte 2D-Pixelsensor 15 empfängt reflektierende Lichtpulse als die Empfangszeile RL und erzeugt ansprechend darauf digitale elektrische Signale. Da der Zeitpunkt der Übertragung jedes Lichtpulses von der Beleuchtungseinheit 10 bekannt ist und da das Licht sich mit einer bekannten Geschwindigkeit bewegt, kann eine Laufzeitberechnung unter Verwendung der elektrischen Signale die Distanz von Objekten von dem segmentierten 2D-Pixelsensor 15 bestimmen. Alternativ kann bei indirekten Messungen eine Phasendifferenz zwischen dem gesendeten Licht und dem empfangenen, reflektierten Licht gemessen werden, um den Abstand zu einem Objekt zu berechnen. Eine Tiefen-Abbildung kann die Distanzinformationen graphisch darstellen.
  • Bei einem Beispiel löst ein Mikrocontroller für jede Distanzabtastung einen Laserpuls von jeder der Lichtquellen der Beleuchtungseinheit 10 aus und startet auch einen Timer in einer integrierten Schaltung (IC) eines Zeit-Digital-Wandlers (TDC). Der Laserpuls wird durch die Übertragungsoptik ausgebreitet, durch das Zielfeld reflektiert und durch eine oder mehrere empfangende Sub-Sub-Pixel des segmentierten 2D-Pixelsensors 15 erfasst. Jedes empfangende Sub-Sub-Pixel emittiert einen kurzen elektrischen Puls, der durch die Ausleseschaltung ausgelesen wird.
  • Ein Komparator-IC erkennt den Puls und sendet ein digitales Signal an den TDC, um den Zeitgeber zu stoppen. Der TDC verwendet eine Taktfrequenz, um jede Messung zu kalibrieren. Der TDC sendet die seriellen Daten der Differenzzeit zwischen dem digitalen Start- und Stoppsignal an den Mikrocontroller, der jegliche Fehlerablesungen herausfiltert, mehrere Zeitmessungen mittelt und die Distanz zum Ziel an dieser bestimmten Feldposition berechnet. Durch Emittieren von aufeinanderfolgenden Lichtpulsen in unterschiedliche Richtungen, hergestellt durch den MEMS-Spiegel 12, kann ein Bereich (d. h. ein Sichtfeld) abgetastet werden, ein dreidimensionales Bild kann erzeugt werden und Objekte innerhalb des Bereichs können detektiert werden.
  • Die Signalverarbeitungskette des Empfängers kann auch einen ADC für jede Fotodiode umfassen. Der ADC ist ausgebildet, um die analogen elektrischen Signale von der Photodiode in ein digitales Signal umzuwandeln, das für weitere Datenverarbeitung verwendet wird.
  • Darüber hinaus können ADCs, anstatt den TDC-Ansatz zu verwenden, für Signaldetektierung und ToF-Messung verwendet werden. Zum Beispiel kann jeder ADC verwendet werden, um ein analoges elektrisches Signal von einer oder mehreren Photodioden zu detektieren, um ein Zeitintervall zwischen einem Startsignal (d.h. entsprechend einer Zeitgebung eines gesendeten Lichtpulses) und einem ToF-Treffersignal (d.h. entsprechend einer Zeitgebung eines Empfangens eines analogen elektrischen Signals an einem ADC) mit einem geeigneten Algorithmus zu schätzen.
  • In einem Fall können alle Lichtquellen der Beleuchtungseinheit 10 verwendet werden, um die Abtastzeile SL/Empfangszeile RL zu erzeugen. In diesem Fall kann sich die Empfangszeile RL entlang einer vollen Länge des segmentierten Pixelsensors 15 erstrecken. Bei einem anderen Beispiel wird möglicherweise nur eine Teilmenge der Lichtquellen verwendet, um die Abtastzeile SL/Empfangszeile RL zu erzeugen. In diesem Fall erstreckt sich die Empfangszeile möglicherweise nur entlang eines Abschnitts des segmentierten Pixelsensors 15 in die Längsrichtung.
  • Die Lage und/oder Form der aktivierten Pixel des segmentierten Pixelsensors 15 kann während einer Abtastoperation dynamisch verändert werden, um dem empfangenen Licht (d. h. der Empfangszeile oder dem Empfangspunkt) zu folgen, wenn es sich synchron mit der Abtastbewegung des übertragenen Lichts über den segmentierten Pixelsensor 15 bewegt. Dementsprechend können diejenigen Sub-Sub-Pixel, die sich an einer Stelle auf dem segmentierten Pixelsensor 15 befinden, an der empfangenes Licht erwartet wird, selektiv aktiviert werden, während diejenigen Sub-Sub-Pixel, die sich außerhalb dieser erwarteten Stelle befinden, selektiv deaktiviert werden können.
  • 2 ist ein schematisches Blockdiagramm des LIDAR-Scansystems 200 gemäß einem oder mehreren Ausführungsbeispielen. Insbesondere zeigt 2 zusätzliche Merkmale des LIDAR-Abtastsystems 200, umfassend exemplarische Verarbeitungs- und Steuersystemkomponenten, wie beispielsweise einen MEMS-Treiber, eine Empfängerschaltung und eine Systemsteuerung.
  • Das LIDAR-Abtastsystem 200 umfasst eine Sendereinheit 21, die für einen Emitterpfad des Systems 200 verantwortlich ist, und eine Empfängereinheit 22, die für einen Empfängerpfad des Systems 200 verantwortlich ist. Das System umfasst auch eine Systemsteuerung 23, die ausgebildet ist, um Komponenten der Sendereinheit 21 und der Empfängereinheit 22 zu steuern und um analoge oder digitale Rohdaten von der Empfängereinheit 22 zu empfangen und eine Verarbeitung darauf (z. B. über analoge und/oder digitale Signalverarbeitung) auszuführen, um Objektdaten (z. B. Punktwolkendaten) zu erzeugen. Somit umfasst die Systemsteuerung 23 zumindest einen Prozessor und/oder eine Prozessorschaltungsanordnung (z.B. Komparatoren und digitale Signalprozessoren (DSPs; digital signal processors)) einer Signalverarbeitungskette zur Datenverarbeitung, sowie eine Steuerschaltungsanordnung, wie beispielsweise einen Mikrocontroller, die zum Erzeugen von Steuersignalen ausgebildet ist. Das LIDAR-Abtastsystem 200 kann auch einen Sensor 26, wie beispielsweise einen Temperatursensor, umfassen, der der Systemsteuerung 23 Sensorinformationen bereitstellt.
  • Die Sendereinheit 21 umfasst die Beleuchtungseinheit 10, den MEMS-Spiegel 12 und einen MEMS-Treiber 25, der ausgebildet ist, um den MEMS-Spiegel 12 zu treiben. Der MEMS-Treiber 25 kann den MEMS-Spiegel 12 während einer vollständigen Abtastung eines Sichtfeldes kontinuierlich ansteuern. Insbesondere betätigt und erfasst der MEMS-Treiber 25 die Rotationsposition des Spiegels und stellt der Systemsteuerung 23 Positionsinformationen (z. B. Kippwinkel oder Grad der Rotation um die Rotationsachse) des Spiegels bereit. Basierend auf diesen Positionsinformationen werden die Laserquellen der Beleuchtungseinheit 10 durch die Systemsteuerung 23 ausgelöst und die Photodioden werden aktiviert, um ein reflektiertes Lichtsignal zu erfassen und damit zu messen. Somit führt eine höhere Genauigkeit bei der Positionserfassung des MEMS-Spiegels zu einer genaueren und präziseren Steuerung anderer Komponenten des LIDAR-Systems.
  • Die Empfängereinheit 22 umfasst den segmentierten Pixel-Sensor 15 sowie eine Empfängerschaltung 24, die eine digitale Ausleseschaltung umfasst. Wie im Folgenden näher beschrieben wird, kann ein Pixel des segmentierten Pixelsensors 15 mit einem Auslesekanal der Empfängerschaltung 24 gekoppelt sein, die die elektrischen Signale derselben empfängt. Ein Pixel, und insbesondere seine Sub-Sub-Pixel, das oder die mit der Empfängerschaltung 24 gekoppelt ist oder sind, kann als aktiv bezeichnet werden, während ein Sub-Sub-Pixel, das nicht mit der Empfängerschaltung 24 gekoppelt ist, als inaktiv bezeichnet werden kann.
  • Die Ausleseschaltung umfasst N Ausgangskanäle (z.B. 32 Kanäle), die ausgebildet sind, um Messsignale auszulesen, die von einem ausgewählten Pixel des segmentierten Pixelsensors empfangen werden. Außerdem kann mehr als ein Pixel gebildet und ausgelesen werden. Eine Erfassung von Pixeldaten (d. h. ein Pixelmesssignal) von dem segmentierten Pixelsensor 15 auf einem Ausgangskanal kann als ein Abtastwert bezeichnet werden, und jeder Ausgangskanal kann zur Erfassung verschiedener Abtastwerte von verschiedenen Pixeln verwendet werden. Jeder Abtastwert kann außerdem einer Abtastzeit entsprechen, zu der Pixelmesssignale aus einem oder mehreren Pixeln ausgelesen werden.
  • So kann die Empfängerschaltung 24 die digitalen elektrischen Signale von den Pixeln des segmentierten Pixelsensors 15 empfangen und die elektrischen Signale als analoge oder digitale Rohdaten an die Systemsteuerung 23 zur ToF-Messung und Erzeugung von Objektdaten (z. B. 3D-Punktwolkendaten) übertragen.
  • Die Empfängerschaltung 24 kann auch Trigger-Steuersignale von der Systemsteuerung 23 empfangen, die eine Aktivierung eines oder mehrerer Sub-Sub-Pixel auslöst oder umgekehrt ein oder mehrere Sub-Sub-Pixel deaktiviert. So kann die Systemsteuerung 23 steuern, welche Sub-Sub-Pixel freigegeben und welche gesperrt sind. Die Ausleseschaltung 24 wiederum kann so ausgebildet sein, dass sie bestimmte Sub-Sub-Pixel des segmentierten Pixelsensors 15 aktiviert oder deaktiviert. Die Empfängerschaltung 24 kann auch Verstärkungseinstellungs-Steuersignale zum Steuern der Verstärkung von einem oder mehreren Sub-Sub-Pixeln empfangen.
  • 3A ist ein schematisches Diagramm eines SiPM-Sub-Pixels 1 gemäß einem oder mehreren Ausführungsbeispielen. 3B ist eine schematische Darstellung eines Beispielpixels 5 des segmentierten Pixelsensors 15 gemäß einem oder mehreren Ausführungsbeispielen. Daher stellt 3B nur einen Teil des vollständigen segmentierten Pixelsensors 15 dar.
  • Insbesondere besteht der segmentierte Pixelsensor 15 aus einem Array von SPADs, die in diesem Fall in einem 4x4-Array von SiPM-Sub-Pixeln 1 angeordnet sind, um ein Pixel 5 zu bilden. Wie noch erläutert wird, kann diese Konfiguration von SiPM-Sub-Pixeln jedoch sowohl in Form als auch Größe angepasst werden, um das Pixel 5 zu bilden. Jedes SiPM-Sub-Pixel 1 umfasst ein Array von Mikrozellen 2, von denen jede eine SPAD 3 in Reihe mit einer Löschschaltung 4 (z. B. einem Widerstand oder einem Transistor) umfasst. Somit umfasst jedes SiPM-Subpixel 1 auswählbare Cluster von Sub-Sub-Pixeln (d. h. SPADs), die aus dem vollständigen Array von Sub-Sub-Pixeln in dem segmentierten Pixelsensor 15 ausgewählt werden. Mit anderen Worten: Ein einzelnes SiPM-Sub-Pixel kann als SPAD-Array bezeichnet werden und jede SPAD kann als SPAD-Sub-Sub-Pixel bezeichnet werden.
  • Jede SPAD ist von Natur aus eine binäre Vorrichtung - entweder wurde sie von einem Photon getroffen oder nicht. Beim Empfang eines Photons erzeugt eine SPAD 3 einen elektrischen Impuls. Die Intensität des von einem SiPM erzeugten Signals wird durch Zählen (Photonenzählung) der Anzahl der von seinen aktiven SPADs innerhalb eines Messzeitschlitzes erzeugten Ausgangsimpulsen oder durch Erfassen des kumulierten Stroms aller SPADs, die nicht jedes Photonenereignis auflösen, ermittelt, während die zeitabhängige Wellenform des Signals durch Messen der zeitlichen Verteilung des Ausgangssignals (Photonentiming) ermittelt wird. Letzteres kann durch den Betrieb des SPAD-Detektors im zeitkorrelierten Einzelphotonenzählen (TCSPC; time-correlated single photon counting) erreicht werden.
  • Insbesondere ist eine SPAD ein Festkörper-Photodetektor, in dem ein durch Photonen erzeugter Träger (über den internen photoelektrischen Effekt) einen kurzzeitigen, aber relativ großen Avalanche-Strom auslösen kann. Diese Lawine (Avalanche) entsteht durch einen Mechanismus, der als Stoßionisierung bezeichnet wird, wobei Träger (Elektronen und/oder Löcher) durch einen großen Potentialgradienten (Spannung) auf hohe kinetische Energien beschleunigt werden. Ist die kinetische Energie eines Trägers ausreichend (in Abhängigkeit von der Ionisierungsenergie des Bulkmaterials), werden weitere Träger aus dem Atomgitter freigesetzt. Die Anzahl der Träger steigt damit exponentiell von teilweise nur einem einzigen Träger an.
  • Der Avalanche-Strom steigt schnell [Sub-Nanosekunden-Anstiegszeit] auf einen makroskopisch stabilen Wert im Milliampere-Bereich an. Wenn der primäre Träger photo-generiert ist, markiert die ansteigende Flanke des Avalanche-Pulses [mit Pikosekunden-Zeitjitter] die Ankunftszeit des detektierten Photons. Der Strom läuft weiter, bis die Lawine durch Absenken der von der internen Kapazität gespeicherten Vorspannung VBIAS auf oder unter die Durchbruchspannung VBD gelöscht wird. Die interne Kapazität ist eine Streukapazität oder parasitäre Kapazität der SPAD und wird durch einen internen Kondensator CD dargestellt in 5A-5D.
  • Wenn dies geschieht, ist das niedrigere elektrische Feld nicht mehr in der Lage, Träger zur Stoßionisierung mit Gitteratomen zu beschleunigen, daher hört der Strom auf. Um ein weiteres Photon detektieren zu können, muss die Vorspannung an der internen Kapazität wieder über die Durchbruchspannung angehoben (d.h. nachgeladen) werden. Diese Aufladezeit führt dazu, dass die SPAD blind oder deaktiviert ist, bis die interne Kapazität wieder über die Durchbruchspannung aufgeladen ist. Die Schaltung, die für die Löschung des Avalanche-Stroms und die anschließende Wiederaufladung der internen Kapazität verantwortlich ist, wird als Löschschaltung 4 bezeichnet. Die Löschschaltung 4 kann eine aktive Lösch-Wiederauflade-Schaltung sein, die aktive Komponenten, wie einen Transistor, umfasst, der aktiv durch ein Taktsignal getriggert wird, oder eine passive Lösch-Wiederauflade-Schaltung, die passive Komponenten, wie einen Widerstand, umfasst, die nicht aktiv getriggert werden.
  • Dieser Lösch- und Wiederauflade-Vorgang erfordert eine geeignete Schaltung, die die ansteigende Flanke des Avalanche-Stroms erfasst, einen Standard-Ausgangsimpuls synchron mit dem Avalanche-Aufbau erzeugt, die Avalanche durch Absenken der Vorspannung auf oder unter die Durchbruchsspannung löscht und die Fotodiode wieder in den Betriebszustand versetzt (d.h. über die Durchbruchsspannung).
  • Zusätzlich kann jede SPAD selektiv aktiviert und deaktiviert werden. Dies kann z. B. dadurch geschehen, dass eine SPAD über einen Multiplexer selektiv an einen Ausgang des segmentierten Pixelsensors 15 angekoppelt (aktiviert) oder davon abgekoppelt (deaktiviert) wird oder dass ihre jeweilige Lösch-Wiederauflade-Schaltung 4 selektiv aktiviert oder deaktiviert wird, so dass sich eine SPAD nicht mehr bis zu einem Betriebsniveau auflädt. Es wird jedoch deutlich, dass die Aktivierung und Deaktivierung einer SPAD nicht auf diese Beispieltechniken beschränkt ist. Im Falle der Verwendung von APDs als Sub-Sub-Pixel kann die selektive Kopplung (Aktivierung) oder Entkopplung (Deaktivierung) einer APD an einen Ausgang des segmentierten Pixelsensors 15 zur Aktivierung und Deaktivierung der APDs verwendet werden.
  • Bei dem Beispiel in 3A und 3B sind zwölf Mikrozellen 2 umfasst. Ein SiPM 1 hat also zwölf in einem Array angeordnete SPADs. Die Ausgabe des durch das 4x4-SiPM-Array gebildeten Pixels 5 ist entsprechend den von den SPADs 3 erzeugten elektrischen Signalen kumulativ. Wenn z. B. nur eine SPAD im Pixel während einer Messperiode ein Photon detektiert, kann der Ausgang des Pixels 5 eine Intensität I haben. Wenn dagegen fünf SPADs im Pixel jeweils ein Photon während einer Messperiode detektieren, kann der Ausgang des Pixels 5 eine Intensität 51 haben. Wenn alle SPADs im Array jeweils ein Photon während einer Messperiode detektieren, kann die Ausgabe des Pixels 5 eine Intensität 1921 haben (d. h. die Gesamtzahl der SPADs, aus denen das Pixel 5 besteht). Als Ergebnis werden die Beiträge aller SPADs 3 im gebildeten Pixel 5 durch eine Summierschaltung addiert, um das Pixelausgangssignal (d. h. das Pixelmesssignal) zu erzeugen. Die Anzahl der SiPM-Sub-Pixel und die Anzahl der SPAD-Sub-Sub-Pixel innerhalb jedes Pixels 5 ist vollständig konfigurierbar und kann während eines Abtastvorgangs gemäß einem von der Systemsteuerung 23 implementierten Clustering-Algorithmus aktiv geändert werden.
  • Die folgenden Ausführungsbeispiele können dynamisches Pixelclustern für einen segmentierten Pixelsensor verwenden und dessen Pixelclustern für nicht-stationäre Strahlsteuerung dynamisch anpassen, so dass die angepassten Pixel der Projektion des Laserstrahls auf dem segmentierten Pixelsensor folgen, der in das Sichtfeld gelenkt wird. Folglich ist eine Pulsfolgen- oder kontinuierliche (FMCW) Beleuchtung mit einem sich kontinuierlich bewegenden/oszillierenden Scanner (d. h. einem nicht quasistatischen Scanner) möglich, Überabtastung und Mittelwertbildung über mehrere aufeinanderfolgende Laserschüsse werden ermöglicht, und das Abtasten über große Entfernungen ist ohne Bewegungsunschärfe möglich, da die Bewegung des kontinuierlich oszillierenden Spiegels kompensiert wird, während das Laserlicht in das Sichtfeld und zurück wandert.
  • Gemäß den folgenden Ausführungsbeispielen werden Sub-Sub-Pixel (z. B. SPADs oder APDs) frei (d. h. auf dynamischer Basis) als ein konfigurierbares Sub-Pixel (z. B. SiPM) gruppiert und Sub-Pixel frei (d. h. auf dynamischer Basis) als ein konfigurierbares Pixel gruppiert, um effektiv „Pixel“ spontan zu definieren. Diese „Pixel“ sind nicht auf ein festes Raster beschränkt, sondern können in Größe, Form und Lage im segmentierten Pixelsensor 15 variieren. Dadurch kann der Sensor die Pixel genauer an die Form und den erwarteten Ort des empfangenen Laserlichts anpassen. Es ist auch möglich, die Auflösung flexibel zu erhöhen oder zu reduzieren, indem die Größe der „Pixel“ verringert oder erhöht wird. Dies funktioniert sowohl für 2D-Abtast-LIDAR, bei dem runde Lichtpunkte am segmentierten Pixelsensor 15 empfangen werden, als auch für 1D-LIDAR, das mit dem Empfang von Lichtzeilen arbeitet. Da die Lage der „Pixel“ frei variieren kann, kann der Sensor auch Verzerrung oder Unschärfe kompensieren, die durch die sich bewegenden MEMS-Spiegel entsteht.
  • Effektiv kann nur ein kleiner Teil des Mikrozellen-Arrays zu einem bestimmten Zeitpunkt aktiv sein. Dies reduziert den Stromverbrauch, aber ebenso wichtig ist es, dass die übertragene Datenmenge reduziert wird. Es wäre nicht möglich, die Daten des gesamten segmentierten Pixelsensors 15 bei 1GHz weg vom Empfängerchip zu übertragen.
  • 4A-4H veranschaulichen verschiedene Möglichkeiten des Clusterns von Subpixeln 1 zu Pixeln 5 auf einem segmentierten Pixelsensor 15 gemäß einem oder mehreren Ausführungsbeispielen. Jedes Sub-Pixel 1 wird durch ein ausgewähltes Cluster von Sub-Sub-Pixeln (nicht dargestellt) gebildet.
  • In 4A wird ein einzelnes Pixel 5 aus einem Cluster von Sub-Pixeln 1 gebildet. Das Pixel 5 befindet sich in einer Projektion des beleuchteten Sichtfeldes 16, das auf den segmentierten Pixelsensor 15 projiziert wird.
  • In 4B-4H werden mehrere Pixel 5 in unterschiedlichen Anordnungen gebildet, die auf einer unterschiedlichen Clusterung der Sub-Pixel 1 basieren. Zum Beispiel sind in 4B, 4C und 4E quadratische Pixel 5 mit dazwischen liegenden Zwischenräumen gebildet. Um einen Zwischenraum zu bilden, werden zwei benachbarte Pixel 5 durch mindestens ein deaktiviertes Sub-Sub-Pixel oder deaktiviertes Sub-Pixel räumlich getrennt. In 4D, 4F, 4G und 4H sind alle Pixel 5 an mindestens ein benachbartes Pixel angrenzend. In 4D werden vier quadratische Pixel 5 zu einem Erfassungsbereich kombiniert, um einen Abdeckungsbereich auf dem segmentierten Pixelsensor 15 zu maximieren. In den 4F-4H sind die Sub-Pixel 1 zu nicht quadratischen (z. B. kreuzförmigen) Pixeln 5 geclustert. Die Pixel 5 in 4F werden kombiniert, um einen Erfassungsbereich zu bilden, um sich einem kreisförmigen Erfassungsbereich mit einem Zwischenraum in der Mitte anzunähern. Die Pixel 5 in 4G werden kombiniert, um einen Erfassungsbereich zu bilden, der von einem X/Y-Raster abweicht. Schließlich werden die Pixel 5 in 4H so geformt und kombiniert, dass sie einen nicht rechteckigen Bereich bilden. Hier, in 4H ist der Beleuchtungsbereich kreisförmig und die Pixel 5 werden so kombiniert, dass sie annähernd der Form des Beleuchtungsbereichs entsprechen (d. h. zur Annäherung an einen kreisförmigen Erfassungsbereich).
  • Neben den in 4A-4H dargestellten Pixelstrukturen, kann auch die Ausleuchtung der Pixel unterschiedlich sein. Die beleuchtete Sensorfläche kann z. B. größer als die jeweils genutzte Sensorfläche sein, der jeweils genutzten Sensorfläche entsprechen oder kleiner als die jeweils genutzte Sensorfläche sein. Außerdem kann die Anzahl der Mittelwertbildungen für die x-Abtastung oder für die y-Abtastung fest sein, während die Anzahl der Mittelwertbildungen für die Lissajous-Abtastung variieren kann, je nachdem, wie oft in einer Reihe ein Pixel beleuchtet wird, oder sogar als Bruchteil für ein teilweise beleuchtetes Pixel. Im Folgenden werden verschiedene Ausführungsformen der dynamischen Aktivierung von Pixeln und der Mittelwertbildung bereitgestellt.
  • 5A-5D zeigen eine dynamische Formation von Pixeln, die sich über einen segmentierten Pixelsensor bewegen, gemäß einem oder mehreren Ausführungsbeispielen. 5A-5D stellen eine sequentielle Abfolge von Laserschussereignissen (z. B. vier Schritte von vier aufeinanderfolgenden Laserübertragungen oder Laserschüssen) eines Lissajous-Abtastvorgangs dar. So wird in einem ersten Zeitereignis (d.h. in einem ersten Laserschuss) im Schritt N, wobei N eine ganze Zahl ist, ein erster Laser in einer ersten Übertragungsrichtung in das Sichtfeld übertragen, in einem zweiten Zeitereignis (d.h. in einem zweiten Laserschuss) im Schritt N+1 ein zweiter Laser in einer zweiten Übertragungsrichtung in das Sichtfeld übertragen, in einem dritten Zeitereignis (d.h. in einem dritten Laserschuss) im Schritt N+2 ein dritter Laser in einer dritten Übertragungsrichtung übertragen, und ein vierter Laser in einer vierten Übertragungsrichtung in einem vierten Zeitereignis (d.h. in einem vierten Laserschuss) in Schritt N+3 in das Sichtfeld übertragen. Ein ähnliches Prinzip kann auf einen FMCW-Lichtstrahl angewendet werden, wobei jeder Schritt einer anderen aufeinanderfolgenden Frequenzrampe von vier aufeinanderfolgenden Frequenzrampen des Lichtstrahls entspricht.
  • Dabei wird ein Beleuchtungsbereich 16 verwendet, der größer ist als der jeweils genutzte Sensorbereich des segmentierten Pixelsensors 15. Die Form des Beleuchtungsbereichs 16 kann unterschiedlich sein (z.B. quadratisch, rund, etc.). Bereitgestellt sind aktivierte Pixel 5a, deaktivierte Pixel 5b und deaktivierte Subpixel, die zwischen aktivierten und/oder deaktivierten Pixeln angeordnet sind. Diejenigen Pixel (z. B. umfassend einen 4x4-Bereich von Sub-Pixeln), die sich vollständig innerhalb des Sensorbereichs des segmentierten Pixelsensors 15 befinden, werden aktiviert, während diejenigen Pixel, die sich nur teilweise innerhalb des Sensorbereichs befinden, weil sie sich über den Sensorbereich des segmentierten Pixelsensors 15 hin erstrecken, deaktiviert werden. Die Pixel, umfassend aktivierte und deaktivierte Pixel, bewegen sich innerhalb des Sensorbereichs, um der Trajektorie des projizierten Sichtfelds oder der Szenerie (d. h. der Trajektorie des/der übertragenen Laserstrahls/Laserstrahlen) zu folgen. Die räumliche Orientierung der Pixel im Hinblick aufeinander bleibt fest. Wenn sich also deaktivierte Pixel vollständig innerhalb des Sensorbereichs bewegen, werden sie aktiviert. In ähnlicher Weise werden aktivierte Pixel deaktiviert, wenn sie sich ganz oder teilweise aus dem Sensorbereich herausbewegen.
  • Wenn eine hohe Anzahl von Pixeln gleichzeitig aktiv ist, haben die fehlenden Pixel an den Rändern wenig Einfluss auf die Beleuchtungseffizienz. Ein Bereich von 4x4 Pixeln benötigt z. B. einen Beleuchtungsbereich von 5x5 Pixeln und führt zu einer Beleuchtungseffizienz von 64 %.
  • In 5A sind die Pixel A, B, C und D aktiviert. Die Pixel E und F (nicht abgebildet) befinden sich vollständig außerhalb des Sensorbereichs.
  • In 5B werden die Pixel A, B, C und D in Richtung der projizierten Szenerie-Trajektorie verschoben. Da sie vollständig innerhalb des Sensorbereichs bleiben, bleiben sie aktiviert. Durch die Bewegung der Pixelanordnung als Ganzes werden die Pixel E und F teilweise in den Sensorbereich bewegt, bleiben aber deaktiviert.
  • In 5C werden die Pixel A, B, C und D in Richtung der projizierten Szenerie-Trajektorie verschoben. Da sie vollständig innerhalb des Sensorbereichs bleiben, bleiben sie aktiviert. Durch die Bewegung der Pixelanordnung als Ganzes werden die Pixel E und F weiter in den Sensorbereich bewegt, bleiben aber deaktiviert, da sie sich nicht vollständig im Sensorbereich befinden.
  • In 5D werden die Pixel A, B, C und D in Richtung der projizierten Szenerie-Trajektorie verschoben. Da die Pixel A und B vollständig innerhalb des Sensorbereichs bleiben, bleiben sie aktiviert. Die Pixel C und D befinden sich jedoch nicht mehr vollständig innerhalb des Sensorbereichs und sind deaktiviert. Andererseits verschieben sich die Pixel E und F vollständig innerhalb des Sensorbereichs und werden aktiviert.
  • 6 veranschaulicht die Pixel-Mittelwertbildung von Pixel A, dargestellt in 5A-5D. Die Systemsteuerung 23 empfängt das Pixelmesssignal von Pixel A in jedem der aufeinanderfolgenden Schritte N bis N+3 und wendet eine gleichgewichtige Mittelwertbildung an, um ein gemitteltes Pixelmesssignal zu erzeugen. Die gleiche Mittelwertbildung kann für jedes der Pixel A-E angewendet werden, um gemittelte Pixeldaten für jedes der Pixel über mehrere Frames zu erzeugen.
  • 7A-7F zeigen eine dynamische Formation von Pixeln, die sich über einen segmentierten Pixelsensor bewegen, gemäß einem oder mehreren Ausführungsbeispielen. So wie 5A-5D zeigen 7A-7F eine sequentielle Abfolge von Laserschussereignissen eines Lissajous-Abtastvorgangs. Hier werden sechs Schritte N bis N+5 von sechs aufeinanderfolgenden Laserübertragungen gezeigt. Hier stimmt der Beleuchtungsbereich 16 mit dem Pixelbereich des segmentierten Pixelsensors 15 überein, wobei die Pixel teilweise gemittelt werden, um eine höhere Effizienz zu erreichen, insbesondere bei der Beleuchtung mit einer geringen Anzahl von Pixeln im beleuchteten Bereich). In diesem Fall werden Teile der Pixel 5a und 5c, die sich innerhalb des Beleuchtungsbereichs befinden, aktiviert, während Pixel 5b oder Teile der Pixel 5d, die sich außerhalb des Beleuchtungsbereichs befinden, deaktiviert werden.
  • Auch hier folgen die gebildeten Pixel der Bewegung der projizierten Szenerie-Trajektorie über die aufeinanderfolgenden Schritte (d. h. die aufeinanderfolgenden Frames).
  • 8 veranschaulicht die Pixel-Mittelwertbildung von Pixel A, dargestellt in 7A-7F. Hier wird das Pixel A oder ein Teil davon nur während der Schritte N+1, N+2, N+3 und N+4 aktiviert. Somit wird ein durchschnittliches Pixelmesssignal für Pixel A aus Pixelmesssignalen erzeugt, die von Pixel A für diese vier Schritte erfasst wurden. Der Mittelwertbildungsalgorithmus kann alle Pixel, die zumindest teilweise auf dem segmentierten Pixelsensor 15 vertreten sind, mit ihrem jeweiligen aktivierten Bereich gewichten (d. h. entsprechend einer Anzahl aktivierter Subpixel für ein bestimmtes Pixel). Der Mittelwertbildungsalgorithmus kann Pixel entsprechend ihrem Beleuchtungsbereich gewichten. Wenn ein Pixel nur zu 50 % beleuchtet ist (d. h. 50 % der Subpixel des Pixels sind aktiviert), berücksichtigt der Gewichtungalgorithmus diese Tatsache mathematisch bei der Mittelwertbildung. So kann z. B. einem Pixel, das in einem Schritt zu 50 % beleuchtet ist, die halbe Gewichtung eines voll aktivierten Pixels zugewiesen werden.
  • 9A-9D zeigen eine dynamische Formation von Pixeln, die sich über einen segmentierten Pixelsensor bewegen, gemäß einem oder mehreren Ausführungsbeispielen. So wie 5A-5D zeigen 9A-9D eine sequentielle Abfolge von Laserschussereignissen eines Lissajous-Abtastvorgangs. Hier werden vier Schritte N bis N+3 von vier aufeinanderfolgenden Laserübertragungen gezeigt. Dabei stimmt der Beleuchtungsbereich 16 mit dem Pixelbereich des segmentierten Pixelsensors 15 überein. In diesem Fall werden ganze Pixel, die sich innerhalb des Beleuchtungsbereichs befinden, aktiviert, während Pixel, die sich außerhalb des Beleuchtungsbereichs befinden, deaktiviert werden. Die Zeit zwischen den Laserschüssen ist genau die Zeit, um eine ganzzahlige Anzahl N von Pixeln zu bewegen. Zum Beispiel kann N=1 und 2x Mittelwertbildung für jedes Pixel verwendet werden.
  • Auch hier folgen die gebildeten Pixel der Bewegung der projizierten Szenerie-Trajektorie über die aufeinanderfolgenden Schritte (d. h. die aufeinanderfolgenden Frames).
  • 10 veranschaulicht die Pixel-Mittelwertbildung von Pixel A, dargestellt in 9A-9D. Der Mittelwertbildungsalgorithmus gewichtet nur ganze Pixel. In diesem Fall befindet sich Pixel A nur in den Schritten N+1 und N+2 innerhalb des Beleuchtungsbereichs und ein durchschnittliches Pixelmesssignal für Pixel A wird aus dem Pixelmesssignal erzeugt, das von Pixel A in diesen beiden Schritten erfasst wurde.
  • Zusätzlich kann ein kleinerer Beleuchtungsbereich als der jeweils genutzte Sensorbereich verwendet werden. Gegeben sind Pixel am Rand des genutzten Sensorbereichs und ein typischer Laser, der ein nicht rechteckiges Beleuchtungsprofil ohne scharfe Laserlichtkanten unterstützt. In diesem Fall holen die Pixel an den Rändern des Beleuchtungsbereichs nur Bruchteile des Laserlichts ab. Infolgedessen wird das SNR an diesen Pixeln reduziert. Dennoch können die teilweise abgedeckten Pixel und ihre Pixelinformationen z. B. gewichtet zur Mittelwertbildung verwendet werden, um die Gesamt-Laserlicht-Effizienz zu verbessern.
  • 11A und 11B zeigen schematische Blockdiagramme einer Empfängerschaltung 24 gemäß einem oder mehreren Ausführungsbeispielen. Insbesondere ist FIG. IIA auf analoges Pixelmultiplexing und Datenkonvertierung ausgerichtet, während 11B auf digitales Pixelmultiplexing und Pixeldatenberechnung ausgerichtet ist. In jedem Fall wird die Empfängerschaltung 24 selektiv mit den Subpixeln 1 gekoppelt, entsprechend den Konfigurationssteuersignalen, die von der Systemsteuerung 23 empfangen werden. Die Konfigurationssteuersignale stellen Sub-Sub-Pixel und Sub-Pixel-Clustering-Informationen zum selektiven Gruppieren von Sub-Sub-Pixeln zu Sub-Pixeln und zum selektiven Gruppieren von Sub-Pixeln zu Pixeln bereit.
  • In 11A wird die Summe der elektrischen Signale (z. B. Ströme) von jedem Sub-Sub-Pixel eines jeweiligen Sub-Pixels als Sub-Pixel-Strom empfangen. Die Subpixelströme werden an ausgewählten Auswahl- und Summierschaltungen 31-1, 31-2, ..., und 31-n empfangen, die jeweils einem zugewiesenen Pixel auf der Grundlage von Subpixel-Clustering-Informationen entsprechen. Somit werden die Sub-Pixel-Ströme in zugewiesene Pixel gruppiert, basierend auf ihrer Zuweisung zu einer bestimmten Auswahl- und Summierschaltung 31-1, 31-2, ..., und 31-n. Zusätzliche Multiplexer und Summierschaltungen (nicht dargestellt) können zum Gruppieren und Summieren von Sub-Sub-Pixeln in Sub-Pixel-Ströme auf der Grundlage von Sub-Sub-Pixel-Clustering-Informationen und zum Leiten der Sub-Pixel-Ströme zu zugewiesenen Auswahl- und Summierschaltungen 31-1, 31-2, ... und 31-n gemäß den Sub-Pixel-Clustering-Informationen verwendet werden.
  • Jede Auswahl- und Summierschaltung 31-1, 31-2, ... und 31-n wählt aus den empfangenen Subpixelströmen aus, welche zu addieren sind, und wendet einen Summieralgorithmus an, um die ausgewählten Subpixelströme zu summieren, um einen Pixelstrom für das entsprechende Pixel zu erzeugen. Die jeweiligen Pixelströme werden an einen jeweiligen Transimpedanzverstärker (TIA) 32-1, 32-2, ..., und 32-n übertragen, der den Pixelstrom in ein Spannungssignal umwandelt. Das Spannungssignal wird dann einem jeweiligen ADC 33-1, 33-2, ..., und 33-n bereitgestellt, der das analoge Spannungssignal in ein digitales Signal umwandelt. Das digitale Signal wird dann auf einem Auslesekanal als Pixeldaten von der Empfängerschaltung 24 an die Systemsteuerung 23 zur weiteren Verarbeitung übertragen.
  • In 11B stellen Sub-Sub-Pixel (z. B. SPADs) Sub-Sub-Pixel-Signale (z. B. Ströme) an eine entsprechende 1-Bit-ADC-Detektorschaltung 41 bereit. Das heißt, jedes Sub-Sub-Pixel ist elektrisch mit seiner eigenen 1-Bit-ADC-Detektorschaltung 41 gekoppelt. Die 1-Bit-ADC-Detektorschaltung 41 detektiert, ob ein Sub-Sub-Pixel empfangen wird oder nicht, und gibt ein binäres Signal (d. h. entweder eine 1 oder eine 0) basierend auf der Detektion aus. Das Binärsignal ist also ein digitales Sub-Sub-Pixel-Signal. Eine solche Detektion kann mit allen 1-Bit-ADC-Detektorschaltungen 41 basierend auf einem Taktsignal synchronisiert werden.
  • Die digitalen Sub-Sub-Pixel-Signale werden den zugeordneten Addierern 42 auf der Grundlage der Sub-Sub-Pixel-Clustering-Informationen bereitgestellt. Insbesondere entspricht jeder der Addierer 42 einem anderen digitalen SiPM und erzeugt Sub-Pixel-Daten für diesen SiPM durch Addition der digitalen Sub-Sub-Pixel-Signale. Ein Multiplexer (nicht abgebildet) kann zur Weiterleitung der digitalen Sub-Sub-Pixel-Signale an die ihnen zugeordneten Addierer 42 verwendet werden. Jeder Addierer 42 entspricht einem anderen Subpixel und ist so ausgebildet, dass er die empfangenen digitalen Sub-Sub-Pixel-Signale zu Sub-Pixel-Daten für sein entsprechendes Sub-Pixel addiert. Ein Multiplexer 43 empfängt die Subpixeldaten für jedes Subpixel und leitet die Subpixeldaten entsprechend der Subpixel-Clustering-Informationen an eine zugewiesene Pixelschaltungsanordnung weiter.
  • Die Pixelschaltungsanordnung umfasst eine Gewichtungsschaltung 44 und einen Addierer 45. Jede Gewichtungsschaltung 44 wendet eine zugewiesene Gewichtung (z. B. 0 bis Wn) gemäß einem der vorgenannten Gewichtungsschemata an (z. B. Gleichgewichtung wie gezeigt in 6 und 10, Pixelgewichtung wie gezeigt in 8, etc.). Die Konfigurationssteuersignale können die Gewichtungsinformationen für die Programmierung der Gewichtungsschaltungen 44 bereitstellen.
  • Jeder Addierer 45 empfängt die gewichteten Subpixeldaten von seinen entsprechenden Gewichtungsschaltungen 44 und addiert die gewichteten Subpixeldaten, um Pixeldaten für sein entsprechendes Pixel zu erzeugen. Das digitale Pixelsignal wird dann auf einem Auslesekanal als Pixeldaten von der Empfängerschaltung 24 an die Systemsteuerung 23 zur weiteren Verarbeitung übertragen.
  • Nur die Spiegelposition zum Zeitpunkt des Laserschusses ist für die Beleuchtung eines bestimmten Bereichs des Sichtfeldes relevant. Während ein Laserpuls in der Regel sehr kurz ist (einige ns) und somit von der kontinuierlichen Spiegelbewegung nicht beeinflusst wird, variiert die Spiegelposition, an der das Licht empfangen wird, je nach Laufzeit. Das heißt, die Position des Empfängerspiegels kann sich in einem anderen Winkel befinden, je nachdem, wann ein reflektierter Lichtstrahl empfangen wird. So kann sich die Position des beleuchteten Bereichs auf dem segmentierten Pixelsensor 15 basierend auf der Laufzeit aufgrund der kontinuierlichen Spiegelbewegung ändern. Mit anderen Worten: Die Darstellung der Szenerie auf dem segmentierten Pixelsensor 15 ist abhängig von der Zeitverzögerung (bis zu einigen µs) und der Spiegelgeschwindigkeit.
  • Kurz und weit entfernte Objekte, die sich im Weg des reflektierten Laserlichts befinden, erscheinen an unterschiedlichen Positionen auf dem segmentierten Pixelsensor 15. Das adaptive Pixel-Clustern kann auch verwendet werden, um diesen Effekt zu kompensieren.
  • 12A ist ein schematisches Diagramm eines Lissajous-LIDAR-Abtastsystems 1200 gemäß einem oder mehreren Ausführungsbeispielen. 12B ist ein schematisches Blockdiagramm des Lissajous-LIDAR-Abtastsystems 1200, umfassend eine zusätzliche Schaltungsanordnung zu der, die in 2 gezeigt ist.
  • Das Lissajous-LIDAR-Abtastsystem 1200 umfasst einen ersten 1D-MEMS-Spiegel 12y, der die Strahlsteuerung in y-Richtung durchführt, und einen zweiten 1D-MEMS-Spiegel 12x, der die Strahlsteuerung in x-Richtung durchführt. Die beiden MEMS-Spiegel bilden ein 2x1D-Spiegel-Abtast-System zum Abtasten eines Sichtfeldes. Beide Spiegel werden zum Senden und Empfangen von Lichtstrahlen verwendet. Darüber hinaus umfasst das Lissajous-LIDAR-Abtastsystem 1200 die Beleuchtungseinheit 10, die Optik 14 und den segmentierten Pixelsensor 15.
  • 12A veranschaulicht, wie nahe und weit entfernte Objekte an unterschiedlichen Positionen auf dem segmentierten Pixelsensor 15 erscheinen, wobei nahe Objekte (kurze Laufzeit) über reflektiertes Laserlicht auf einen Bereich des segmentierten Pixelsensors 15 und weiter entfernte Objekte (längere Laufzeit) über reflektiertes Laserlicht auf einen anderen Bereich des segmentierten Pixelsensors 15 projiziert werden, und zwar aufgrund der unterschiedlichen Drehposition der kontinuierlich oszillierenden MEMS-Spiegel 12x und 12y.
  • Die MEMS-Treiber 25y und 25x treiben nicht nur die Oszillation ihrer jeweiligen MEMS-Spiegel 12y und 12x, sondern erfassen auch deren Drehpositionen (d.h. Winkelpositionen oder Kippwinkel) um ihre Drehachse. Die Positionsinformationen jedes Spiegels werden der Systemsteuerung 23 bereitgestellt. Die Systemsteuerung 23 verwendet die Positionsinformationen jedes Spiegels, um einen Projektionsbereich 16 des empfangenen Lichtstrahls auf den segmentierten Pixelsensor 15 zu antizipieren.
  • Die Rotationspositionen der Spiegel 12y und 12x ändern sich mit zunehmender Laufzeit weiter. So kann der Projektionsbereich 16 an einem Startbereich beginnen, der auf den Rotationspositionen der Spiegel 12y und 12x zu dem Zeitpunkt basiert, zu dem ein Lichtstrahl von der Beleuchtungseinheit 10 übertragen wird (d. h. zum Zeitpunkt T0). Der Projektionsbereich 16 ändert sich mit den wechselnden Rotationspositionen der Spiegel 12y und 12x und weicht mit zunehmender Laufzeit weiter von der Startposition ab. Eine kurze Laufzeit kann der Zeit T1 entsprechen, während eine längere Laufzeit der Zeit T2 entsprechen kann.
  • Wenn sich der Projektionsbereich 16 ändert, ändert die Systemsteuerung 23 die Pixelposition der aktiven Pixel 5a, um innerhalb des erwarteten Projektionsbereichs 16 zu bleiben. Bei diesem Beispiel bleiben die aktiven Pixel 5a innerhalb des erwarteten Projektionsbereichs 16 zentriert. Um die Pixelposition der aktiven Pixel 5a zu ändern, aktualisiert die Systemsteuerung 23 die Sub-Sub-Pixel- und Sub-Pixel-Clustering-Informationen und überträgt die aktualisierten Konfigurationssteuersignale an die Empfängerschaltung 24. Als Reaktion auf die aktualisierten Konfigurationssteuersignale ändert die Empfängerschaltung 24 das Sub-Sub-Pixel- und Sub-Pixel-Clustern, um die Position der aktiven Pixel 5a zu ändern, während die übrigen Sub-Sub-Pixel deaktiviert werden. 5A-5D zeigen ein Beispiel von sich ändernden Pixelpositionen basierend auf der erwarteten Trajektorie des empfangenen Laserlichts und ist in ähnlicher Weise für die Kompensation der Spiegelbewegung während der Laufzeit anwendbar.
  • So folgt die Position des aktiven Pixels nach dem Schuss des Laserstrahls der Projektion auf dem Pixelsensor 15, um die Spiegelbewegung während der Laufzeit zu kompensieren. Diese Kompensationstechnik ist besonders bei weit entfernten Objekten und sehr schnell (kHz) bewegten Spiegeln von Bedeutung.
  • So kann z. B. die Pixelposition, die sich mit Subpixelauflösung ändern kann, jederzeit so bewegt werden, dass sie am besten zur erwarteten Projektion passt (x- und y-Bewegung könnten unterschiedlich sein und müssen zu verschiedenen Zeiten geschaltet werden). Ein Sichtfeld x * y = 60° * 60°, 120 Pixel in x-Richtung, Pixelgröße entspricht 0,5° und besteht aus 4x4 Subpixel (1 Subpixel ~0,125°), Laserbewegungen mit 0,25°/µs in x-Richtung und 0,2°/µs in y-Richtung führen dazu, dass ein Pixel alle 0,5µs um 1 Subpixel in x-Richtung und alle 0,625µs um 1 Subpixel in y-Richtung verschoben wird, um eine Bewegung der Projektion auf dem Pixelsensor 15 auszugleichen.
  • Es wird darauf hingewiesen, dass aufgrund unterschiedlicher Verstärkungen der Sub-Pixel das Umschalten zwischen Sub-Pixeln beim Empfang einer einzelnen Laserschussantwort (Pixelsignal) potentiell zu einem Schritt im Empfangssignal führen kann. Dies ist jedoch unkritisch, da ein symmetrisches Filter (d. h. ein angepasstes Filter) verwendet werden kann, um diesen Schritt zu unterdrücken.
  • Bei einem gepulsten Laserstrahl (d. h. bei Pulsfolgen-LiDAR) kann das LIDAR-Abtastsystem den Laser abschießen, wenn die beweglichen/oszillierenden MEMS-Spiegel 12y und 12x ihre gewünschten Positionen erreichen. Die gewünschten Positionen sind erreicht, wenn der beleuchtete Bereich im Sichtfeld mit den aktiven Pixelpositionen innerhalb einer Subpixelauflösung übereinstimmt.
  • Alternativ kann das LIDAR-Abtastsystem bei einem gepulsten Laserstrahl zu einem beliebigen Zeitpunkt schießen und die Pixelclusterung dynamisch so anpassen, dass der beleuchtete Bereich im Sichtfeld innerhalb einer Subpixelauflösung möglichst genau mit der aktiven Pixelposition übereinstimmt.
  • Alternativ kann das LIDAR-Abtastsystem bei FMCW-LIDAR und Puls-Train- (Pulsfolgen-) LiDAR die Positionen der aktiven Pixel dynamisch gemäß dem Lichtstrahl anpassen, der über das Sichtfeld gelenkt und bewegt wird, wie z. B. dargestellt in 5A-5D.
  • Die vorgenannten Techniken der Pixelpositionskompensation für schnell aufeinanderfolgendes Laser-Schießen und Mittelwertbildung oder Laufzeit-Spiegelbewegung können einzeln oder kombiniert eingesetzt werden. Bei einem möglichen Ausführungsbeispiel können die beiden Techniken kombiniert werden. Bei diesem Ausführungsbeispiel bewegt sich die Pixelposition nach dem Schießen des Laserpulses, um die Spiegelbewegung während der Laufzeit zu kompensieren. Wenn eine Empfangsphase eines Laserschusses beendet ist, umfassend die Mittelwertbildung des Signals, kann der Laserpuls erneut geschossen werden, beginnend mit einer neuen Pixelposition. Dabei könnte die Empfangsphase sowie die Zeit für die Bewegung des Spiegels um ein Pixel mit der Laserschuss-Wiederholungsrate der Beleuchtungseinheit 10 übereinstimmen.
  • 13A ist eine schematische Darstellung des Lissajous-LIDAR-Abtastsystems 1200 aus 12A, zeigt aber zusätzlich zwei aufeinanderfolgende Laserschüsse 17 und 18 in das Sichtfeld. Die beiden aufeinanderfolgenden Laserschüsse 17 und 18 können zwei beliebigen, oben genannten aufeinanderfolgenden Schritten entsprechen (z. B. N und N+1, N+1 und N+2, usw.). Für die Zwecke dieses Beispiels entsprechen die beiden aufeinanderfolgenden Laserschüsse 17 und 18 jedoch den Schritten N und N+1. Wie im Sichtfeld zu sehen ist, überlappen die beiden aufeinanderfolgenden Laserschüsse 17 und 18 um ein Pixel. In diesem Fall wird das Pixel C von den beiden aufeinanderfolgenden Laserschüssen 17 und 18 gemeinsam genutzt. Mit anderen Worten: Das Pixel C ist auf dem segmentierten Pixelsensor 15 für beide Laserschüsse 17 und 18 aktiv.
  • 13B und 13C zeigen verschiedene mögliche Pixelpositionen, an denen Laserschüsse 17 und 18 auf dem segmentierten Pixelsensor 15 empfangen werden können, basierend auf einer Laufzeit jedes Laserschusses 17 und 19, oder insbesondere basierend auf der Änderung der Position der MEMS-Spiegel 12y und 12x basierend auf der Laufzeit der Laserschüsse 17 und 18. 13B zeigt verschiedene Empfangsphasen, die jeweils nacheinander einem Bereich längerer Laufzeiten und verschiedenen Bereichen von Spiegelpositionen entsprechen. 13C zeigt die Bewegung oder Positionsänderung der aktiven Pixel entsprechend der aktuellen Empfangsphase, die sich mit zunehmender Laufzeit ändert, gemäß 13B.
  • Der Laserschuss 17 kann z. B. in einer von vier vorkonfigurierten Empfangsphasen M, M+1, M+2 und M+3 empfangen werden, die jeweils sequentiell einem Bereich längerer Laufzeiten und einem unterschiedlichen Bereich von Spiegelpositionen entsprechen. M ist eine ganze Zahl. Jeder der vorkonfigurierten Empfangsphasen M, M+1, M+2 und M+3 sind unterschiedliche Pixelpositionen für die aktiven Pixel A, B, C und D zum Empfang des Laserschusses 17 zugeordnet. Während die Laufzeit durch die verschiedenen Empfangsphasen fortschreitet, aktualisiert die Systemsteuerung 23 die Sub-Sub-Pixel- und Sub-Pixel-Clustering-Informationen, um die Pixelpositionen zu ändern und an die aktuelle Empfangsphase anzupassen.
  • Mit anderen Worten, das eine oder die mehreren Pixel werden selektiv in einem von mehreren diskreten Bereichen des Pixelbereichs aktiviert. Jeder diskrete Bereich ist einem anderen aus einer Mehrzahl von Positionsbereichen des/der MEMS-Spiegel/s 12 zugeordnet. Die Empfangsphase M entspricht z. B. einem ersten Laufzeitbereich (d. h. einer ersten Zeitspanne), der einem ersten Positionsbereich von Winkelpositionen oder Drehpositionen des/der MEMS-Spiegel/s 12 entspricht. Der erste Positionsbereich ist ein Bereich von Winkelpositionen, die der/die MEMS-Spiegel 12 voraussichtlich vom Beginn der Empfangsphase M bis zum Ende der Empfangsphase M durchläuft/durchlaufen. Somit kann die Projektion von empfangenem Laserlicht, das von dem/den MEMS-Spiegel/n 12 auf den segmentierten Pixelsensor 15 abgelenkt wird, in einem ersten diskreten Bereich des Pixelbereichs erwartet werden. Somit werden das eine oder die mehreren Pixel innerhalb dieses ersten diskreten Bereichs während der Empfangsphase M aktiviert.
  • Wird in der Empfangsphase M kein Laserlicht empfangen, geht das System in die Empfangsphase M+1 über. Die Empfangsphase M+1 entspricht einem zweiten Laufzeitbereich (d. h. einer zweiten Zeitspanne), der einem zweiten Positionsbereich von Winkelpositionen oder Drehpositionen des/der MEMS-Spiegel/s 12 entspricht. Der zweite Positionsbereich ist ein Bereich von Winkelpositionen, den der/die MEMS-Spiegel 12 vom Beginn der Empfangsphase M+1 bis zum Ende der Empfangsphase M+1 voraussichtlich durchlaufen wird. Somit kann die Projektion des empfangenen, von dem/den MEMS-Spiegel/n 12 abgelenkten Lichts auf den segmentierten Pixelsensor 15 in einem zweiten diskreten Bereich des Pixelbereichs erwartet werden. Dadurch ändert sich die Lage des einen oder der mehreren Pixel, die in diesem zweiten diskreten Bereich während der Empfangsphase M+1 aktiviert werden.
  • Wenn in der Empfangsphase M+1 kein Laserlicht empfangen wird, wird in die Empfangsphase M+2 weitergeschaltet, und weiter zu M+3, wenn in der Empfangsphase M+2 kein Laserlicht empfangen wird.
  • Zu Beginn der Empfangsphase M+4 feuert die Beleuchtung 10 den Laserschuss 18 ab, dem ebenfalls unterschiedliche Pixelpositionen für die aktiven Pixel C, E, F und G zugeordnet sind. Ähnlich wie der Laserschuss 17 kann der Laserschuss 18 in einer der vier vorkonfigurierten Empfangsphasen M+4, M+5 usw. empfangen werden.
  • Die Systemsteuerung 23 ist ausgebildet, um einen Positionsbereich aus der Mehrzahl von Positionsbereichen des/der MEMS-Spiegel 12 basierend auf der Positionsinformation zu bestimmen, die von dem einen oder den mehreren Treibern empfangen wird, und das Clustern von aktivierten Subpixelelementen und das Clustern von deaktivierten Subpixelelementen zu ändern, um das mindestens eine aktive Pixel basierend auf dem bestimmten Positionsbereich zu bilden.
  • In den meisten praktischen Fällen wird die Zeit für die Bewegung des Spiegels um ein Pixel länger sein als die Empfangsphase (auch die Spiegelgeschwindigkeit variiert, z. B. durch sinusförmige Spiegelbewegung) und die Laserschuss-Wiederholzeit wird ebenfalls größer sein als die Empfangsphase, um die Nachbearbeitung zu vereinfachen (da in der jeweiligen Empfangsphase nur ein Laserpuls empfangen wird).
  • Bei einem anderen Ausführungsbeispiel könnten sich die Empfangsphasen jedoch auch überlagern, indem mehrere Laserpulse parallel für die Verarbeitung mehrerer Pulse abgearbeitet werden, die geschossen werden, bevor die Empfangsphase des ersten Laserpulses vorbei ist.
  • In diesem Zusammenhang könnte ein digitaler SIPM-basierter Pixel-Clustering-Ansatz nützlich sein, da er das parallele Clustern und Empfangen von verschiedenen, aber teilweise überlappenden Pixeln gleichzeitig ermöglicht. Im Vergleich dazu können analoge Ströme von Subpixeln nicht einfach zu verschiedenen überlappenden Pixeln aufsummiert werden.
  • Die hier beschriebenen Ausführungsbeispiele werden durch eine Empfängerstruktur dargestellt, die ein dynamisches Pixelclustern für einen segmentierten Pixelsensor verwendet, der sein Pixelclustem für eine nicht stationäre Strahlsteuerung dynamisch anpasst. Die Pixel folgen also der Projektion des Laserstrahls auf den Pixelsensor, der in die Szenerie gelenkt wird.
  • Das Clustern von Pixeln für APDs kann auf Kosten einer reduzierten Flächeneffizienz und Photonendetektionseffizienz gehen.
  • Pixel-Clustern ist am ehesten für Empfangselemente sinnvoll, die bereits geclustert (gruppiert) sind, wie z. B. analoge und digitale SiPMs. Insbesondere digitale SiPMs werden von dem Pixel-Clustern profitieren, da Sub-Sub-Pixel-Daten digital verfügbar sind und daher leichter in verschiedenen Clustern zusammengefasst werden können.
  • Obwohl sich die hier beschriebenen Ausführungsbeispiele auf ein LIDAR-System beziehen, ist es zu verstehen, dass die vorangehenden Ausführungsbeispiele auch in anderen Anwendungen verwendet werden können und nicht auf LIDAR beschränkt sind.
  • Zusätzlich, obwohl einige Aspekte in dem Kontext einer Vorrichtung beschrieben wurden, ist es offensichtlich, dass diese Aspekte auch eine Beschreibung des entsprechenden Verfahrens repräsentieren, wobei ein Block oder eine Vorrichtung einem Verfahrensschritt oder einem Merkmal eines Verfahrensschrittes entspricht. Analog dazu repräsentieren Aspekte, die in dem Kontext eines Verfahrensschrittes beschrieben sind, auch eine Beschreibung eines entsprechenden Blocks oder Elements oder Merkmals einer entsprechenden Vorrichtung. Einige oder alle der Verfahrensschritte können durch eine (oder unter Verwendung einer) Hardwarevorrichtung ausgeführt werden, wie zum Beispiel eines Mikroprozessors, eines programmierbaren Computers oder einer elektronischen Schaltung. Bei einigen Ausführungsbeispielen können ein einzelner oder mehrere der Verfahrensschritte durch eine solche Vorrichtung ausgeführt werden.
  • Abhängig von bestimmten Implementierungsanforderungen können hierin bereitgestellte Ausführungsbeispiele in Hardware oder in Software implementiert sein. Die Implementierung kann unter Verwendung eines digitalen Speichermediums ausgeführt werden, zum Beispiel einer Diskette, einer DVD, einer Blue-Ray, einer CD, eines ROM, eines PROM, eines EPROM, eines EEPROM oder eines FLASH-Speichers mit elektronisch lesbaren Steuerungssignalen, die darauf gespeichert sind, die mit einem programmierbaren Computersystem derart zusammenarbeiten (oder in der Lage sind, zusammenzuarbeiten), dass das jeweilige Verfahren durchgeführt wird. Daher kann das digitale Speichermedium computerlesbar sein.
  • Anweisungen können durch einen oder mehrere Prozessoren ausgeführt werden, wie beispielsweise eine oder mehrere zentrale Verarbeitungseinheiten (CPU; central processing units), digitale Signalprozessoren (DSPs; digital signal processors), Allzweck-Mikroprozessoren, anwendungsspezifische integrierte Schaltungen (ASICs; application specific integrated circuits), feldprogrammierbare Logik-Arrays (FPGAs; field programmable logic arrays) oder eine andere äquivalente integrierte oder diskrete Logik-Schaltungsanordnung. Dementsprechend bezieht sich der Ausdruck „Prozessor“, wie hierin verwendet, auf irgendeine der vorangehenden Strukturen oder irgendeine andere Struktur, die für eine Implementierung der hierin beschriebenen Techniken geeignet ist. Zusätzlich kann bei einigen Aspekten die hierin beschriebene Funktionalität innerhalb dedizierter Hardware- und/oder Software-Module bereitgestellt sein. Auch könnten die Techniken vollständig in einer oder mehreren Schaltungen oder Logikelementen implementiert sein.
  • Die oben beschriebenen beispielhaften Ausführungsbeispiele sind ausschließlich darstellend. Es versteht sich, dass Modifikationen und Variationen der hierin beschriebenen Anordnungen und Details für andere Fachleute auf dem Gebiet offensichtlich sind. Es ist daher die Absicht, dass diese nur durch den Schutzbereich der anhängigen Patentansprüche und nicht durch die spezifischen Details eingeschränkt sind, die durch die Beschreibung und Erklärung der Ausführungsbeispiele hierin präsentiert werden.
  • Ausführungsbeispiel 1 ist ein Abtastsystem umfassend eine erste Abtaststruktur, die so ausgebildet ist, dass sie sich um mindestens eine erste Abtastachse dreht; einen Treiber, der so ausgebildet ist, dass er die erste Abtaststruktur um die mindestens eine Abtastachse antreibt und eine Position der ersten Abtaststruktur in Bezug auf die mindestens eine erste Abtastachse während der Bewegung der ersten Abtaststruktur erfasst; einen segmentierten Pixelsensor, der eine Mehrzahl von Subpixelelementen umfasst, die in einem Pixelbereich angeordnet sind; und eine Steuerung, die so ausgebildet ist, dass sie selektiv die Mehrzahl von Subpixelelementen in mindestens ein aktives Cluster und mindestens ein deaktiviertes Cluster aktiviert und deaktiviert, um mindestens ein aktives Pixel aus dem mindestens einen aktiven Cluster zu bilden, erste Positionsinformationen von dem Treiber empfängt, die die erfasste Position der ersten Abtaststruktur anzeigen, und eine Clusterung von aktivierten Subpixelelementen und eine Clusterung von deaktivierten Subpixelelementen basierend auf den ersten Positionsinformationen dynamisch ändert.
  • Bei Ausführungsbeispiel 2, bei dem Abtastsystem von Ausführungsbeispiel 1, ist die Steuerung so ausgebildet, dass sie eine Position des mindestens einen aktiven Clusters und eine Position des mindestens einen deaktivierten Clusters innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert.
  • Bei Ausführungsbeispiel 3, bei dem Abtastsystem von Ausführungsbeispiel 1 oder 2, ist die Steuerung so ausgebildet, dass sie eine Position des mindestens einen aktiven Pixels innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert.
  • Bei Ausführungsbeispiel 4, bei dem Abtastsystem von Ausführungsbeispiel 1-3, wird das mindestens eine aktive Pixel selektiv in einem einer Mehrzahl von diskreten Bereichen des Pixelbereichs aktiviert, wobei jeder diskrete Bereich der Mehrzahl von diskreten Bereichen einem anderen einer Mehrzahl von Positionsbereichen der ersten Abtaststruktur zugeordnet ist, und die Steuerung ausgebildet ist, um einen Positionsbereich aus der Mehrzahl von Positionsbereichen der ersten Abtaststruktur basierend auf der ersten Positionsinformation zu bestimmen, und das Clustern von aktivierten Subpixelelementen und das Clustern von deaktivierten Subpixelelementen zu ändern, um das mindestens eine aktive Pixel basierend auf dem bestimmten Positionsbereich zu bilden.
  • Bei Ausführungsbeispiel 5, bei dem Abtastsystem von Ausführungsbeispiel 1-4, ist die Steuerung so ausgebildet, dass sie selektiv Subpixelelemente des mindestens einen aktiven Clusters in eine Mehrzahl von aktiven Pixeln gruppiert.
  • Bei Ausführungsbeispiel 6, bei dem Abtastsystem von Ausführungsbeispiel 5, ist die Steuerung so ausgebildet, dass sie eine Position der Mehrzahl von aktiven Pixeln innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert.
  • Bei Ausführungsbeispiel 7, bei dem Abtastsystem von Ausführungsbeispiel 1-6, ändert sich die Position der ersten Abtaststruktur während einer vollständigen Abtastung eines Sichtfeldes kontinuierlich.
  • Bei Ausführungsbeispiel 8, bei dem Abtastsystem von Ausführungsbeispiel 1-7, sind Subpixelelemente des mindestens einen aktiven Clusters so ausgebildet, dass sie elektrische Signale auf der Basis von detektiertem Licht erzeugen, und Subpixelelemente des mindestens einen deaktivierten Clusters sind so deaktiviert, dass sie keine elektrischen Signale auf der Basis von empfangenem Licht erzeugen.
  • Bei Ausführungsbeispiel 9 umfasst das Abtastsystem von Ausführungsbeispiel 1-8 ferner eine Ausleseschaltung, die mit dem segmentierten Pixelsensor gekoppelt ist, wobei Subpixelelemente des mindestens einen aktiven Clusters mit einer Ausleseschaltung gekoppelt sind und Subpixelelemente des mindestens einen deaktivierten Clusters von der Ausleseschaltung entkoppelt sind.
  • Bei Ausführungsbeispiel 10 umfasst das Abtastsystem von Ausführungsbeispiel 1-9 ferner eine Ausleseschaltung, die so ausgebildet ist, dass sie elektrische Signale von Subpixelelementen des mindestens einen aktiven Clusters empfängt und die elektrischen Signale entsprechend dem mindestens einen aktiven Pixel kombiniert, um ein Pixelsignal für jedes des mindestens einen aktiven Pixels zu erzeugen.
  • Bei Ausführungsbeispiel 11, bei dem Abtastsystem von Ausführungsbeispiel 10, ist die Ausleseschaltung so ausgebildet, dass sie die elektrischen Signale eines aktiven Pixels des mindestens einen aktiven Pixels entsprechend zugewiesener Gewichtungen summiert, um das Pixelsignal für das aktive Pixel zu erzeugen.
  • Bei Ausführungsbeispiel 12, bei dem Abtastsystem von Ausführungsbeispiel 11, ist die Steuerung so ausgebildet, dass sie eine Position des aktiven Pixels innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert, und die Ausleseschaltung ist ausgebildet, um ein erstes Pixelsignal für das aktive Pixel zu erzeugen, das an einer ersten Position des Pixelbereichs angeordnet ist, ein zweites Pixelsignal für das aktive Pixel zu erzeugen, das an einer zweiten Position des Pixelbereichs angeordnet ist, und ein gemitteltes Pixelsignal basierend auf dem ersten Pixelsignal und dem zweiten Pixelsignal zu erzeugen.
  • Bei Ausführungsbeispiel 13, bei dem Abtastsystem von Ausführungsbeispiel 1-12, ist die Steuerung so ausgebildet, dass sie aus dem mindestens einen deaktivierten Cluster mindestens ein deaktiviertes Pixel bildet.
  • Bei Ausführungsbeispiel 14, bei dem Abtastsystem von Ausführungsbeispielen 1-13, umfasst der segmentierte Pixelsensor eine Mehrzahl von Sub-Sub-Pixelelementen, die zur Bildung der Mehrzahl von Sub-Pixelelementen verwendet werden, und die Steuerung ist so ausgebildet, dass sie die Mehrzahl von Sub-Sub-Pixel-Elementen selektiv in die mehreren Sub-Pixel-Elemente gruppiert.
  • Bei Ausführungsbeispiel 15, bei dem Abtastsystem von Ausführungsbeispiel 14, werden Sub-Pixel-Elemente durch Aktivieren ihrer entsprechenden Sub-Sub-Pixel-Elemente aktiviert und durch Deaktivieren ihrer entsprechenden Sub-Sub-Pixel-Elemente deaktiviert.
  • Bei Ausführungsbeispiel 16, bei dem Abtastsystem von Ausführungsbeispiel 14 oder 15, ist jedes der Mehrzahl von Sub-Sub-Pixelelementen eine Fotodiode, eine Avalanche-Fotodiode oder eine Einzelphotonen-Avalanche-Diode.
  • Bei Ausführungsbeispiel 17 umfasst das Abtastsystem der Ausführungsbeispiele 1-16 ferner eine zweite Abtaststruktur, die so ausgebildet ist, dass sie sich um eine zweite Abtastachse dreht, wobei der Treiber ausgebildet ist, um die zweite Abtaststruktur um die zweite Abtastachse zu treiben und eine Position der zweiten Abtaststruktur in Bezug auf die zweite Abtastachse während der Bewegung der zweiten Abtaststruktur zu erfassen, wobei die Steuerung so ausgebildet ist, dass sie zweite Positionsinformationen von dem Treiber empfängt, die die erfasste Position der zweiten Abtaststruktur anzeigen, und die Clusterung der aktivierten Subpixelelemente und die Clusterung der deaktivierten Subpixelelemente basierend auf den ersten Positionsinformationen und den zweiten Positionsinformationen dynamisch ändert.
  • Bei Ausführungsbeispiel 18, bei dem Abtastsystem von Ausführungsbeispielen 1-17, treibt der Treiber die erste Abtaststruktur während einer vollständigen Abtastung eines Sichtfeldes kontinuierlich.
  • Ausführungsbeispiel 19 ist ein Abtastverfahren, umfassend ein Treiben einer ersten Abtaststruktur um mindestens eine erste Abtastachse; Detektieren einer Position der ersten Abtaststruktur in Bezug auf die mindestens eine erste Abtastachse während der Bewegung der ersten Abtaststruktur; selektives Aktivieren und Deaktivieren einer Mehrzahl von Subpixelelementen eines segmentierten Pixelsensors in mindestens ein aktives Cluster und mindestens ein deaktiviertes Cluster, um mindestens ein aktives Pixel aus dem mindestens einen aktiven Cluster zu bilden; und dynamisches Ändern einer Clusterung von aktivierten Subpixelelementen und einer Clusterung von deaktivierten Subpixelelementen auf der Grundlage von ersten Positionsinformationen, die die erfasste Position der ersten Abtaststruktur anzeigen.
  • Bei Ausführungsbeispiel 20 umfasst das Verfahren von Ausführungsbeispiel 19 ferner ein Ändern einer Position des mindestens einen aktiven Clusters und einer Position des mindestens einen deaktivierten Clusters, um mit einer Änderung der Position der ersten Abtaststruktur zusammenzufallen.
  • Bei Ausführungsbeispiel 21 umfasst das Verfahren von Ausführungsbeispiel 19 oder 20 ferner ein Ändern einer Position des mindestens einen aktiven Pixels innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur.
  • Bei Ausführungsbeispiel 22 umfasst das Verfahren von Ausführungsbeispiel 19-21 ferner ein selektives Aktivieren des mindestens einen aktiven Pixels in einem einer Mehrzahl von diskreten Bereichen des Pixelbereichs, wobei jeder diskrete Bereich der Mehrzahl von diskreten Bereichen einem anderen einer Mehrzahl von Positionsbereichen der ersten Abtaststruktur zugeordnet ist; Bestimmen eines Positionsbereichs aus der Mehrzahl von Positionsbereichen der ersten Abtaststruktur basierend auf der ersten Positionsinformation; und das Ändern der Clusterung von aktivierten Subpixelelementen und der Clusterung von deaktivierten Subpixelelementen, um das mindestens eine aktive Pixel basierend auf dem bestimmten Positionsbereich zu bilden.
  • Bei Ausführungsbeispiel 23, bei dem Verfahren von Ausführungsbeispiel 19-22, ändert sich die Position der ersten Abtaststruktur während einer vollständigen Abtastung eines Sichtfeldes kontinuierlich.
  • Bei Ausführungsbeispiel 24 umfasst das Verfahren von Ausführungsbeispielen 19-23 ferner ein Kombinieren von elektrischen Signalen, erzeugt von Subpixelelementen des mindestens einen aktiven Clusters, entsprechend dem mindestens einen aktiven Pixel, um ein Pixelsignal für jedes des mindestens einen aktiven Pixels zu erzeugen.
  • Bei Ausführungsbeispiel 25 umfasst das Verfahren von Ausführungsbeispielen 19-24 ferner ein Treiben einer zweiten Abtaststruktur um eine zweite Abtastachse; das Erfassen einer Position der zweiten Abtaststruktur in Bezug auf die zweite Abtastachse während der Bewegung der zweiten Abtaststruktur; und das dynamische Ändern des Clusterns der aktivierten Subpixelelemente und des Clusterns der deaktivierten Subpixelelemente auf der Grundlage der ersten Positionsinformation und der zweiten Positionsinformation, die die erfasste Position der zweiten Abtaststruktur angibt.

Claims (20)

  1. Ein Abtastsystem, umfassend: eine erste Abtaststruktur, die so ausgebildet ist, dass sie sich um mindestens eine erste Abtastachse dreht; einen Treiber, der so ausgebildet ist, dass er die erste Abtaststruktur um die mindestens eine erste Abtastachse treibt und eine Position der ersten Abtaststruktur in Bezug auf die mindestens eine erste Abtastachse während der Bewegung der ersten Abtaststruktur erfasst; einen segmentierten Pixelsensor, der eine Mehrzahl von Subpixelelementen umfasst, die in einem Pixelbereich angeordnet sind; und eine Steuerung, die so ausgebildet ist, dass sie selektiv die Mehrzahl von Subpixelelementen in mindestens ein aktives Cluster und mindestens ein deaktiviertes Cluster aktiviert und deaktiviert, um mindestens ein aktives Pixel aus dem mindestens einen aktiven Cluster zu bilden, erste Positionsinformationen von dem Treiber empfängt, die die erfasste Position der ersten Abtaststruktur anzeigen, und eine Clusterung von aktivierten Subpixelelementen und eine Clusterung von deaktivierten Subpixelelementen basierend auf den ersten Positionsinformationen dynamisch ändert.
  2. Das Abtastsystem gemäß Anspruch 1, wobei die Steuerung so ausgebildet ist, dass sie eine Position des mindestens einen aktiven Clusters und eine Position des mindestens einen deaktivierten Clusters innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert.
  3. Das Abtastsystem gemäß Anspruch 1 oder 2, wobei die Steuerung so ausgebildet ist, dass sie eine Position des mindestens einen aktiven Pixels innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert.
  4. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, wobei: das mindestens eine aktive Pixel selektiv in einem einer Mehrzahl von diskreten Bereichen des Pixelbereichs aktiviert wird, wobei jeder diskrete Bereich der Mehrzahl von diskreten Bereichen einem anderen einer Mehrzahl von Positionsbereichen der ersten Abtaststruktur zugeordnet ist, und die Steuerung ausgebildet ist, um einen Positionsbereich aus der Mehrzahl von Positionsbereichen der ersten Abtaststruktur basierend auf der ersten Positionsinformation zu bestimmen, und das Clustern von aktivierten Subpixelelementen und das Clustern von deaktivierten Subpixelelementen zu ändern, um das mindestens eine aktive Pixel basierend auf dem bestimmten Positionsbereich zu bilden.
  5. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, wobei die Steuerung so ausgebildet ist, dass sie selektiv Subpixelelemente des mindestens einen aktiven Clusters in eine Mehrzahl von aktiven Pixeln gruppiert.
  6. Das Abtastsystem gemäß Anspruch 5, wobei die Steuerung so ausgebildet ist, dass sie eine Position der Mehrzahl von aktiven Pixeln innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert.
  7. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, wobei sich die Position der ersten Abtaststruktur während einer vollständigen Abtastung eines Sichtfeldes kontinuierlich ändert.
  8. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, wobei Subpixelelemente des mindestens einen aktiven Clusters so ausgebildet sind, dass sie elektrische Signale auf der Basis von detektiertem Licht erzeugen, und Subpixelelemente des mindestens einen deaktivierten Clusters so deaktiviert sind, dass sie keine elektrischen Signale auf der Basis von empfangenem Licht erzeugen.
  9. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, ferner umfassend: eine Ausleseschaltung, die mit dem segmentierten Pixelsensor gekoppelt ist, wobei Subpixelelemente des mindestens einen aktiven Clusters mit einer Ausleseschaltung gekoppelt sind und Subpixelelemente des mindestens einen deaktivierten Clusters von der Ausleseschaltung entkoppelt sind.
  10. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, ferner umfassend: eine Ausleseschaltung, die so ausgebildet ist, dass sie elektrische Signale von Subpixelelementen des mindestens einen aktiven Clusters empfängt und die elektrischen Signale entsprechend dem mindestens einen aktiven Pixel kombiniert, um ein Pixelsignal für jedes des mindestens einen aktiven Pixels zu erzeugen.
  11. Das Abtastsystem gemäß Anspruch 10, wobei die Ausleseschaltung so ausgebildet ist, dass sie die elektrischen Signale eines aktiven Pixels des mindestens einen aktiven Pixels entsprechend zugewiesener Gewichtungen summiert, um das Pixelsignal für das aktive Pixel zu erzeugen.
  12. Das Abtastsystem gemäß Anspruch 11, wobei: die Steuerung so ausgebildet ist, dass sie eine Position des aktiven Pixels innerhalb des Pixelbereichs mit einer Änderung der Position der ersten Abtaststruktur ändert, und die Ausleseschaltung ausgebildet ist, um ein erstes Pixelsignal für das aktive Pixel zu erzeugen, das an einer ersten Position des Pixelbereichs angeordnet ist, ein zweites Pixelsignal für das aktive Pixel zu erzeugen, das an einer zweiten Position des Pixelbereichs angeordnet ist, und ein gemitteltes Pixelsignal basierend auf dem ersten Pixelsignal und dem zweiten Pixelsignal zu erzeugen.
  13. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, wobei die Steuerung so ausgebildet ist, dass sie aus dem mindestens einen deaktivierten Cluster mindestens ein deaktiviertes Pixel bildet.
  14. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, wobei: der segmentierte Pixelsensor eine Mehrzahl von Sub-Sub-Pixelelementen umfasst, die zur Bildung der Mehrzahl von Sub-Pixelelementen verwendet werden, die Steuerung so ausgebildet ist, dass sie die Mehrzahl von Sub-Sub-Pixel-Elementen selektiv in die mehreren Sub-Pixel-Elemente gruppiert.
  15. Das Abtastsystem gemäß Anspruch 14, wobei Sub-Pixel-Elemente durch Aktivieren ihrer entsprechenden Sub-Sub-Pixel-Elemente aktiviert werden und durch Deaktivieren ihrer entsprechenden Sub-Sub-Pixel-Elemente deaktiviert werden.
  16. Das Abtastsystem gemäß Anspruch 14 oder 15, wobei jedes der Mehrzahl von Sub-Sub-Pixelelementen eine Fotodiode, eine Avalanche-Fotodiode oder eine Einzelphotonen-Avalanche-Diode ist.
  17. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, ferner umfassend: eine zweite Abtaststruktur, die so ausgebildet ist, dass sie sich um eine zweite Abtastachse dreht, wobei der Treiber ausgebildet ist, um die zweite Abtaststruktur um die zweite Abtastachse zu treiben und eine Position der zweiten Abtaststruktur in Bezug auf die zweite Abtastachse während der Bewegung der zweiten Abtaststruktur zu erfassen, wobei die Steuerung so ausgebildet ist, dass sie zweite Positionsinformationen von dem Treiber empfängt, die die erfasste Position der zweiten Abtaststruktur anzeigen, und die Clusterung der aktivierten Subpixelelemente und die Clusterung der deaktivierten Subpixelelemente basierend auf den ersten Positionsinformationen und den zweiten Positionsinformationen dynamisch ändert.
  18. Das Abtastsystem gemäß einem der vorangehenden Ansprüche, wobei der Treiber die erste Abtaststruktur während einer vollständigen Abtastung eines Sichtfeldes kontinuierlich treibt.
  19. Ein Abtastverfahren, umfassend: Treiben einer ersten Abtaststruktur um mindestens eine erste Abtastachse; Erfassen einer Position der ersten Abtaststruktur in Bezug auf die mindestens eine erste Abtastachse während der Bewegung der ersten Abtaststruktur; selektives Aktivieren und Deaktivieren einer Mehrzahl von Subpixelelementen eines segmentierten Pixelsensors in mindestens ein aktives Cluster und mindestens ein deaktiviertes Cluster, um mindestens ein aktives Pixel aus dem mindestens einen aktiven Cluster zu bilden; und dynamisches Ändern einer Clusterung von aktivierten Subpixelelementen und einer Clusterung von deaktivierten Subpixelelementen auf der Grundlage von ersten Positionsinformationen, die die erfasste Position der ersten Abtaststruktur anzeigen.
  20. Das Verfahren gemäß Anspruch 19, ferner umfassend: Ändern einer Position des mindestens einen aktiven Clusters und einer Position des mindestens einen deaktivierten Clusters, um mit einer Änderung der Position der ersten Abtaststruktur zusammenzufallen.
DE102021118356.1A 2020-07-17 2021-07-15 Strahlenlenkungsbewusstes pixelclustern eines segmentierten sensorbereichs und implementierung von mittelungsalgorithmen für die pixel verarbeitung Pending DE102021118356A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/931,876 US11698447B2 (en) 2020-07-17 2020-07-17 Beam steering aware pixel clustering of segmented sensor area and implementing averaging algorithms for pixel processing
US16/931,876 2020-07-17

Publications (1)

Publication Number Publication Date
DE102021118356A1 true DE102021118356A1 (de) 2022-01-20

Family

ID=79021303

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021118356.1A Pending DE102021118356A1 (de) 2020-07-17 2021-07-15 Strahlenlenkungsbewusstes pixelclustern eines segmentierten sensorbereichs und implementierung von mittelungsalgorithmen für die pixel verarbeitung

Country Status (3)

Country Link
US (2) US11698447B2 (de)
CN (1) CN113945906A (de)
DE (1) DE102021118356A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587247B1 (en) 2019-04-03 2023-02-21 Meta Platforms Technologies, Llc Synchronous event driven readout of pixels in a detector for direct time-of-flight depth sensing
US11480684B2 (en) * 2020-06-18 2022-10-25 Meta Platforms Technologies, Llc Time of flight depth system including an illumination source with addressable illumination blocks
JP2024022190A (ja) * 2022-08-05 2024-02-16 株式会社東芝 信号処理装置、光検出器、及び距離計測装置
WO2024073653A2 (en) * 2022-09-30 2024-04-04 Semiconductor Components Industries, Llc SILICON PHOTOMULTIPLIER (SiPM) HAVING AN IMPROVED SIGNAL-TO-NOISE RATIO
CN117075217B (zh) * 2023-10-12 2024-01-12 北京瑞控信科技股份有限公司 一种基于大角度视场的周扫红外设备及标校方法和系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140047494A (ko) * 2012-10-12 2014-04-22 삼성전자주식회사 서브픽셀, 이를 포함하는 이미지 센서, 및 이미지 센싱 시스템
US10775508B1 (en) * 2016-08-19 2020-09-15 Apple Inc. Remote sensing device
DE102017223102A1 (de) * 2017-12-18 2019-06-19 Robert Bosch Gmbh Multipuls-Lidarsystem zur mehrdimensionalen Erfassung von Objekten
US11022679B2 (en) * 2017-12-29 2021-06-01 Lyft, Inc. Apparatus and method for a beam-directing system using a grated light valve
US20190285734A1 (en) * 2018-03-14 2019-09-19 Infineon Technologies Ag Detection system with configurable range and field of view
US11353557B2 (en) * 2018-06-04 2022-06-07 Infineon Technologies Ag Hybrid LIDAR receiver and lidar methods
CN113424071A (zh) * 2019-02-15 2021-09-21 新唐科技日本株式会社 摄像装置以及距离信息算出方法
US11604259B2 (en) * 2019-10-14 2023-03-14 Infineon Technologies Ag Scanning LIDAR receiver with a silicon photomultiplier detector
DE102020200348A1 (de) * 2020-01-14 2021-07-15 Robert Bosch Gesellschaft mit beschränkter Haftung LiDAR System
WO2021232069A1 (en) * 2020-05-14 2021-11-18 Velodyne Lidar Usa, Inc. Scanning mirror mechanisms for lidar systems, and related methods and apparatus

Also Published As

Publication number Publication date
US11698447B2 (en) 2023-07-11
US20230296735A1 (en) 2023-09-21
US20220018941A1 (en) 2022-01-20
CN113945906A (zh) 2022-01-18

Similar Documents

Publication Publication Date Title
DE102021118356A1 (de) Strahlenlenkungsbewusstes pixelclustern eines segmentierten sensorbereichs und implementierung von mittelungsalgorithmen für die pixel verarbeitung
US20220137189A1 (en) Method and device for optically measuring distances
EP2686703B1 (de) Messvorrichtung und messgerät zur mehrdimensionalen vermessung eines zielobjektes
DE102019215136A1 (de) LIDAR-2D-Empfängerarrayarchitektur
EP3724684B1 (de) Lidar empfangseinheit
DE102019208109A1 (de) Hybrider LIDAR-Empfänger und hybride LIDAR-Verfahren
EP3130889B1 (de) Optische entfernungsmessvorrichtung
EP2686700B1 (de) Messvorrichtung zur messung einer entfernung zwischen der messvorrichtung und einem zielobjekt mit hilfe optischer messstrahlung
DE102020206388A1 (de) Ein array von einzelphotonen-lawinendioden-(spad-)mikrozellen und deren betrieb
EP3450915B1 (de) Totalstation oder theodolit mit scanfunktionalität und einstellbaren empfangsbereichen des empfängers
DE102018109544A1 (de) Optoelektronischer Sensor und Verfahren zur Abstandsbestimmung
DE102020114938A1 (de) Sender- und empfängerkalibrierung in 1d-abtastlidar
EP3451021A1 (de) Messgerät mit scanfunktionalität und einstellbaren empfangsbereichen des empfängers
EP2894493B1 (de) Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten in einem Überwachungsbereich
EP3611535A1 (de) Erfassen von licht mit einer vielzahl von lawinenphotodiodenelementen
DE102020104413A1 (de) Überabtast- und sender-schiess-struktur für ein lichtdetektions-und abstandsmessungs-system
DE112015001704T5 (de) Bildsensor mit hoher Auflösung, Frame-Rate und niedrigem Stromverbrauch
EP2019973A1 (de) Distanzmessverfahren und distanzmesser zur erfassung der räumlichen abmessung eines zieles
DE112011102535T5 (de) Abtastenden Bildgeber mit aktiver Beleuchtung
DE212017000247U1 (de) LiDAR-Vorrichtung
DE102014215972A1 (de) Pixelstruktur zur optischen Abstandsmessung an einem Objekt und Abstandserfassungssystem mit einer derartigen Pixelstruktur
DE102021209408A1 (de) Spiegelbewegung und Laserschussmusterkompensation für Frequenzmodulierten Dauerstrich(FMCW)-LIDAR
DE102019220289A1 (de) Echtzeit-gating und signal wegleitung in laser- und detektorarrays für lidar-anwendung
DE102020202764A1 (de) Lichtdetektionseinrichtung und elektronikvorrichtung
EP3650888B1 (de) Optoelektronischer sensor und verfahren zur erfassung und abstandsbestimmung von objekten

Legal Events

Date Code Title Description
R012 Request for examination validly filed