DE112017004806T5 - Optisches system zur sammlung von entfernungsinformationen in einem feld - Google Patents

Optisches system zur sammlung von entfernungsinformationen in einem feld Download PDF

Info

Publication number
DE112017004806T5
DE112017004806T5 DE112017004806.0T DE112017004806T DE112017004806T5 DE 112017004806 T5 DE112017004806 T5 DE 112017004806T5 DE 112017004806 T DE112017004806 T DE 112017004806T DE 112017004806 T5 DE112017004806 T5 DE 112017004806T5
Authority
DE
Germany
Prior art keywords
optical
aperture
pixel
microoptical
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017004806.0T
Other languages
English (en)
Inventor
Angus Pacala
Mark Frichtl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ouster Inc
Original Assignee
Ouster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=59960008&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE112017004806(T5) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Ouster Inc filed Critical Ouster Inc
Publication of DE112017004806T5 publication Critical patent/DE112017004806T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/029Multi-channel photometry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/218Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0411Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using focussing or collimating elements, i.e. lenses or mirrors; Aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/04Optical or mechanical part supplementary adjustable parts
    • G01J1/0407Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
    • G01J1/0437Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using masks, aperture plates, spatial light modulators, spatial filters, e.g. reflective filters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/08Arrangements of light sources specially adapted for photometry standard sources, also using luminescent or radioactive material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/42Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
    • G02B27/46Systems using spatial filters
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0056Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/005Diaphragms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/20Filters
    • G02B5/208Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B6/00Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
    • G02B6/0001Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
    • G02B6/0011Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
    • G02B6/0013Means for improving the coupling-in of light from the light source into the light guide
    • G02B6/0015Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it
    • G02B6/002Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it by shaping at least a portion of the light guide, e.g. with collimating, focussing or diverging surfaces
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Measurement Of Optical Distance (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Lenses (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Elements Other Than Lenses (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Automatic Focus Adjustment (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)
  • Semiconductor Lasers (AREA)
  • Photo Coupler, Interrupter, Optical-To-Optical Conversion Devices (AREA)
  • Light Receiving Elements (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

Optisches System zum Erfassen von Abstandsinformation in einem Feld. Das optische System kann Linsen zum Sammeln von Photonen aus einem Feld und Linsen zum Verteilen von Photonen auf ein Feld beinhalten. Das optische System kann Linsen umfassen, die Photonen kollimieren, die durch eine Apertur geleitet werden, optische Filter, die normal einfallendes Licht außerhalb der Betriebswellenlänge zurückweisen, und Pixel, die einfallende Photonen erkennen. Das optische System kann ferner Beleuchtungsquellen umfassen, die Photonen bei einer Betriebswellenlänge ausgeben.

Description

  • HINTERGRUND DER ERFINDUNG
  • GEBIET DER ERFINDUNG
  • Diese Erfindung bezieht sich allgemein auf das Gebiet von optischen Sensoren und insbesondere auf ein neues und nützliches optisches System zum Sammeln von Entfernungsinformationen im Felde der optischen Sensoren.
  • Figurenliste
    • 1 ist die schematische Darstellung eines Systems.
    • 2 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 3 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 4 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 5 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 6 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 7 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 8 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 9 ist ein Flussdiagramm Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 10 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
    • 11 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems.
  • DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Die folgende Beschreibung von Ausführungsformen der Erfindung soll die Erfindung nicht auf diese Ausführungsformen beschränken, sondern vielmehr einem Fachmann ermöglichen, diese Erfindung herzustellen und zu verwenden. Variationen, Konfigurationen, Ausführungen, beispielhafte Ausführungen und Beispiele, die hierin beschrieben sind, sind optional und schließen die Variationen, Konfigurationen, Ausführungen, beispielhaften Ausführungen und Beispiele, die sie beschreiben, nicht aus. Die hier beschriebene Erfindung kann jede Kombination aus diesen Variationen, Konfigurationen, Ausführungen, beispielhaften Ausführungen und Beispielen enthalten.
  • EINDIMENSIONALES OPTISCHES SYSTEM: APERTURSANORDNUNG
  • Wie in 1 dargestellt, umfasst ein eindimensionales optisches Systems 100 zum Sammeln von Entfernungsinformationen in einem Feld Folgendes: einen Satz von Beleuchtungsquellen 110 entlang einer ersten Achse, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen 110 so ausgebildet ist, dass sie einen Beleuchtungsstrahl mit einer Arbeitswellenlänge zu einem diskreten Punkt in dem Bereich vor der Lichtquelle ausschickt; eine Massenbilderfassungsoptik 130, gekennzeichnet durch eine Fokalebene gegenüber dem Feld; eine Aperturschicht 140, die mit der Fokalebene zusammenfällt, und die einen Satz von Aperturen 144 in einem Linienarray parallel zur ersten Achse aufweist, und einen Anschlagsbereich 146 um den Satz von Aperturen 144 festlegt, wobei jede Apertur in dem Satz von Aperturen 144 ein Sichtfeld im Feld definiert, dass mit der diskreten Aussendung eines Punktes durch eine entsprechende Beleuchtungsquelle aus dem Satz von Beleuchtungsquellen 110 zusammenfällt, und wobei der Anschlagsbereich 146 Lichtstrahlen absorbiert, die von Oberflächen im Feld reflektiert werden und außerhalb der Gesichtsfelder liegen, die durch den Satz von Aperturen 144 und durch die Massenbilderfasssungsoptik 130 fallen; einen Satz aus Linsen 150, wobei jede Linse in dem Satz von Linsen 150 durch eine zweite Brennweite gekennzeichnet ist und deren Fokalebene gegenüber der Massenbilderfassungsoptik 130 durch die zweite Brennweite unterschiedlich ist, die jeweils auf eine Apertur in dem Satz von Aperturen 144 ausgerichtet und so konfiguriert sind, dass sie Lichtstrahlen durch die Apertur kollimieren; einen optischen Filter 160, der neben dem Satz von Linsen 150 gegenüber der Aperturschicht 140 ausgebildet ist und die Lichtstrahlen der Betriebswellenlänge durchlässt, ein Satz aus Pixeln 170, die neben dem optischen Filter 160 gegenüber dem Satz aus Linsen 150 liegen und wobei jedes Pixel in dem Satz aus Pixeln 170 einer Linse in dem Satz aus Linsen 150 entspricht und einen Satzes aus Subpixel entlang einer zweiten Achse umfasst, die nicht parallel zur ersten Achse ist; und einen Diffusor 180 zwischen dem optischen Filter 160 und dem Satz aus Pixeln 170, der so konfiguriert ist, dass er kollimiertes Licht von jeder Linse aus dem Satz aus Linsen 150 über einen Satz von Subpixeln eines entsprechenden Pixels in dem Satz aus Pixeln 170 verteilt.
  • ANWENDUNGEN
  • Im Allgemeinen funktioniert das eindimensionale optische System 100 (das „System“) als Bildsensor, der, wenn er um eine Achse parallel zu einer Spalte von Aperturen gedreht wird, dreidimensionale Abstandsdaten eines durch das System belegten Volumens sammelt. Genauer gesagt kann das eindimensionale optische System 100 ein Volumen zum Sammeln von dreidimensionalen Entfernungsdaten abtasten; diese Daten können dann rekonstruiert und in eine virtuelle dreidimensionale Darstellung des Volumens überführt werden; es basiert auf den aufgezeichneten Zeiten zwischen der Aussendung der Beleuchtungsstrahlen von den Beleuchtungsquellen und der Detektion von Photonen - wahrscheinlich aus den Beleuchtungsquellen -, die in den Satz aus Pixeln 170 einfallen, und auf Phasenmesstechniken oder auf anderen geeigneten Entfernungsmessverfahren. Das System 100 umfasst: eine Spalte von versetzten Aperturen hinter einer Massenbilderfassungsoptik 130, die diskrete Sichtfelder in einem Bereich vor der Massenbilderfassungsoptik 130 definiert (das heißt nicht überlappende Sichtfelder außerhalb einer Schwellenentfernung vom System); einen Satz aus Beleuchtungsquellen 110, die einzelne Beleuchtungsstrahlen mit einer Arbeitswellenlänge in (und im Wesentlichen nur in) die Sichtfelder, die durch die Aperturen festgelegt sind, aussendet; eine Spalte von Linsen, die Lichtstrahlen kollimierten, welche durch entsprechende Aperturen weitergeleitet werden; und einen optischen Filter 160, der selektiv ein schmales Band von Lichtwellenlängen leitet (d.h., elektromagnetische Strahlung), einschließlich der Betriebswellenlänge; und einen Satz von Pixeln 170 zur Erfassung von einfallenden Photonen (die z.B. die Anzahl der einfallenden Photonen zählt und die Zeiten zwischen nacheinander einfallenden Photonen nachverfolgt). Das System kann daher Beleuchtungsstrahlen selektiv in ein vor dem System befindliches Feld gemäß einem Beleuchtungsmuster projizieren, das im Wesentlichen - in Größe und Geometrie über einen Bereich von Entfernungen von dem System - den Sichtfeldern der Aperturen entspricht. Insbesondere sind die Beleuchtungsquellen so konfiguriert, dass sie im Wesentlichen nur Oberflächen im vor dem System liegenden Feld beleuchten, die von Pixeln im System erfasst werden können, so dass eine minimale Leistungsabgabe durch das System (über die Beleuchtungsquellen) durch Beleuchtungsflächen in dem Feld verschwendet wird, für das die Pixel blind sind. Das System kann daher ein relativ hohes Verhältnis zwischen Ausgangssignal (d. h. der Beleuchtungsstrahlleistung) und Eingangssignal (d. h. Photonen, die zu einem Auftreffen auf das Pixelarray geleitet werden) erreichen. Darüber hinaus kann der Satz aus Linsen 150 Lichtstrahlen kollimieren, die durch die benachbarten Aperturen gelangen, so dass einfallende Lichtstrahlen auf das optische Filter 160 den optischen Filter 160 mit einem Einfallswinkel von etwa 0° erreichen, wodurch ein relativ schmales Band von Lichtwellenlängen durch das optische Filter 160 gelangt und ein relativ hoher Rauschabstand („SNR“) für die Lichtstrahlen erreicht wird, die den Satz aus Pixeln 170 erreichen.
  • Das System umfasst Pixel, die in einer Spalte angeordnet und passend zu den Aperturen ausgerichtet sind, und jedes Pixel kann eine nicht quadratische Geometrie (z. B. kurz und breit) aufweisen, um den Erfassungsbereich des Systems für eine feste Apertursteigung und Pixelspaltenhöhe zu erweitern. Das System umfasst auch einen Diffusor 180, der Lichtstrahlen, die von einer Apertur durch das optische Filter 160 geleitet werden, über den Bereich eines entsprechenden Pixels verteilt, so dass das Pixel einfallende Photonen über seine volle Breite und Höhe detektieren kann, wodurch der Dynamikbereich des Systems vergrößert wird.
  • Das System ist hier als Projektion elektromagnetischer Strahlung in ein Feld und Erfassung der reflektierten elektromagnetischen Strahlung von einer Oberfläche aus dem Feld zur Massenbilderfassungsoptik. Die Begriffe „Beleuchtungsstrahl“, „Licht“, „Lichtstrahlen“ und „Photonen“, die hier angeführt sind, beziehen sich auf eine solche elektromagnetische Strahlung. Der Begriff „Kanal“, der hier zitiert wird, bezieht sich auf eine Apertur in der Aperturschicht 140, eine entsprechende Linse in dem Satz aus Linsen 150 und ein entsprechendes Pixel in dem Satz aus Pixeln 170.
  • MASSENBILDERFASSUNGSOPTIK
  • Das System umfasst eine Massenbilderfasssungsoptik 130, die durch eine dem Feld gegenüberliegende Fokalebene gekennzeichnet ist. Allgemein funktioniert die Massenbilderfassungsoptik 130 so, dass sie von außerhalb des Systems einfallende Lichtstrahlen auf die Fokalebene projiziert, wo Lichtstrahlen, die auf einen Stoppbereich 146 der Aperturschicht 140 fallen, verworfen werden (z.B. Gespiegelt oder absorbiert werden) und wobei Lichtstrahlen, die auf Aperturen in der Aperturschicht 140 fallen, in eine Linse fallen, die eine Brennweite und einen Versatz von der Fokalebene um die Brennweite aufweisen.
  • In einer Verkörperung beinhaltet die Massenbilderfassungsoptik 130 eine Sammellinse, wie eine bikonvexe Linse (in 2 dargestellt) oder eine plankonvexe Linse, gekennzeichnet durch eine bestimmte Brennweite bei der Betriebswellenlänge des Systems. Die Massenbilderfassungsoptik 130 kann auch mehrere einzelne Linsen beinhalten, die gemeinsam die Lichtstrahlen in Richtung auf die Aperturschicht 140 projizieren und sich dadurch auszeichnen, dass sie eine zusammengesetzte Fokalebene gegenüber dem Feld bilden, wie in 11 dargestellt ist. Jedoch kann die Massenbilderfassungsoptik 130 auch jede andere geeignete Art von Linse oder Kombination von Linsen eines beliebigen anderen Typs oder mit einer beliebigen anderen Geometrie sein.
  • APERTURSCHICHT
  • Wie in den 1 und 2 dargestellt, umfasst das System eine Aperturschicht 140, die mit der Fokalebene zusammenfällt und einen Satz aus Aperturen 144 in einer Linienanordnung parallel zu den Achsen der Beleuchtungsquellen festlegt, und die einen Stoppbereich 146 um den Satz aus Aperturen 144 herum festlegt, wobei jede Apertur in dem Satz von Aperturen 144 ein Sichtfeld in dem Feld definiert, das mit einer diskreten Punktausstrahlung von einer entsprechenden Beleuchtungsquelle aus dem Satz von Beleuchtungsquellen 110 zusammenfällt, und wobei der Stoppbereich 146 Lichtstrahlen, die von Oberflächen im Bereich außerhalb der Gesichtsfelder, die durch den Satz von Aperturen 144 und durch die Massenbilderfassungsoptik 130 festgelegt sind, absorbiert und/oder reflektiert. Allgemein definiert die Aperturschicht 140 eine Anordnung der offenen Bereiche (i.e., Aperturen, einschließlich einer Apertur pro Linse) und der geschlossene Bereich („Stoppbereiche“) zwischen benachbarten Aperturen. Jede Apertur in der Aperturschicht 140 definiert eine „Lochblende“ und damit ein Sichtfeld für den entsprechenden Messkanal und leitet Licht, das von einer externen Oberfläche innerhalb ihres Sichtfeldes reflektiert wird, in die entsprechende Linse weiter, und jeder Stoppbereich 146 kann Lichtstrahlen, die in ausgewählte Bereichen der Fokalebene einfallen, daran hindern, in die Linsenanordnung zu gelangen; siehe hierzu 6.
  • Die Aperturschicht 140 schließt eine relativ dünne undurchsichtige Struktur ein, die mit der Fokalebene der Massenbilderfassungsoptik 130 zusammenfällt (z. B. entlang derselben angeordnet ist), wie in den 1 und 2 dargestellt. Zum Beispiel kann die Aperturschicht 140 eine 10 Mikrometer dicke abgeschiedene Kupfer-, Silber-, oder Nickelschicht (also plattiert) über einer durch Lichteinwirkung aushärtbaren Polymerschicht sein; sie wird dann selektiv geätzt, um die Anordnung der Aperturen herzustellen. In einem ähnlichen Beispiel kann eine reflektierende metallisierte Schicht oder ein lichtabsorbierendes Photopolymer (z.B. ein Photopolymer gemischt mit einem lichtabsorbierenden Farbstoff) auf einen Glaswafer abgeschieden und selektiv mit einer Fotomaske belichtet werden, um die Aperturschicht 140 und den Satz aus Aperturen 144 zu bilden. Alternativ kann die Aperturschicht 140 einen diskreten metallischen Film umfassen, der mechanisch oder chemisch perforiert ist, um die Anordnung von Aperturen zu bilden, mit der Linsenanordnung verbunden und dann über der Massenbilderfassungsoptik 130 entlang der Fokalebene installiert werden. Jedoch kann die Aperturschicht 140 auch jedes andere reflektierende (z. B. spiegelnde) oder Licht absorbierende Material umfassen, das auf jede andere Weise gebildet wird, um die Anordnung von Aperturen entlang der Fokalebene der Massenbilderfassungsoptik 130 zu definieren.
  • Im eindimensionalen optischen Systems 100 kann die Aperturschicht 140 eine einzelne Spalte von mehreren diskreten kreisförmigen Aperturen mit im Wesentlichen einheitlichem Durchmesser definieren, wobei jede Apertur eine Achse definiert, die im Wesentlichen parallel zu einer Linse der Linsenanordnung ist und darauf ausgerichtet ist, wie in 3 dargestellt. Benachbarte Aperturen sind um einen Aperturabstand von mehr als dem Durchmesser der Apertur und im Wesentlichen um den Linsenabstand versetzt, und die Aperturschicht 140 definiert einen Stoppbereich 146 (also einen undurchsichtigen oder reflektierenden Bereich) zwischen benachbarten Aperturen, so dass die Aperturen diskrete, nicht überlappende Sichtfelder für ihre entsprechenden Messkanäle definieren. Bei immer kleiner werdenden Durchmessern bis zu einem beugungsbegrenzten Durchmesser - in Abhängigkeit von der Wellenlänge des einfallenden Lichts und der numerischen Apertur der Massenbilderfassungslinse - definiert eine Apertur ein immer schmaleres Gesichtsfeld (also ein Sichtfeld mit kleinerem Durchmesser) und leitet eine schärferes Signal mit niedrigerer Intensität (gedämpft) von der Massenbilderfassungsoptik 130 in die entsprechende Linse. Die Aperturschicht 140 kann daher Aperturen definieren, deren Durchmesser: größer als der beugungsbegrenzte Durchmesser für die Wellenlänge von Licht der Lichtquellen ist (z.B. 900 nm); im wesentlich größer ist als die Dicke der Aperturschicht 140; und kleiner ist als der Aperturabstand, welcher im Wesentlichen gleich dem Linsenabstand und Pixelabstand ist. In einem Beispiel kann die Aperturschicht 140 Aperturen mit Durchmessern definieren, die sich dem beugungsbegrenzten Durchmesser nähern, um die geometrische Selektivität des Sichtfeldes jedes einzelnen Erfassungskanals zu maximieren. Alternativ können die Aperturen einen Durchmesser aufweisen, der für die Wellenlänge des von den Beleuchtungsquellen abgegebenen Lichts kleiner als der beugungsbegrenzte Durchmesser ist. In einem Beispiel kann die Aperturschicht 140 Aperturen mit Durchmessern definieren, die passend zu einer Leistungsabgabe der Beleuchtungsquellen im System und zur Anzahl und Photonendetektionskapazität der Subpixel-Photodetektoren in jedem Pixel in dem Satz aus Pixeln 170 ausgelegt sind, so dass eine Zielanzahl von Photoneneinfällen innerhalb jeder Abtastperiode auf jedem Pixel erreicht wird. In diesem Beispiel kann jede Apertur einen bestimmten Durchmesser definieren, der einen Zieldämpfungsbereich für Pixel definiert, die von einer entsprechenden Lichtquelle stammen und während einer Abtastperiode auf die Massenbilderfasssungsoptik 130 einfallen. Da insbesondere eine Apertur in der Aperturschicht 140 ein Signal dämpft, das zu ihrer entsprechenden Linse und zu ihrem entsprechenden Pixel geleitet wird, kann der Durchmesser der Apertur an den dynamischen Bereich ihres entsprechenden Pixels angepasst werden.
  • In einer Ausführung kann eine erste Apertur 141 in der Aperturschicht 140 Lichtstrahlen - die von einem bestimmten Bereich einer Oberfläche im Feld (dem Sichtfeld der Messkanals) vor der Massenbildverarbeitungsoptik 130 reflektiert werden - in ihre entsprechende Linse durchlassen; ein Stoppbereich 146 zwischen der ersten Apertur 141 und benachbarten Aperturen in der Aperturschicht 140 blockiert Lichtstrahlen - die von einem Bereich der Oberfläche außerhalb des Sichtfeldes der ersten Apertur 141 reflektiert werden -, so dass diese nicht in die Linse mit Entsprechung zur ersten Apertur 141 fallen. In dem eindimensionalen optischen Systems 100 definiert die Aperturschicht 140 daher eine Reihe von Aperturen zur Festlegung einer Vielzahl von diskreten, nicht überlappenden Sichtbereichen mit im Wesentlichen unbegrenzter Feldtiefe, wie in 2 dargestellt.
  • In dieser Ausführung definiert eine erste Apertur 141 in der Aperturschicht 140 ein Sichtfeld, das verschieden ist und sich mit keinem Sichtfeld überschneidet, das durch eine andere Apertur in der Aperturschicht 140 definiert ist, wie in 2 dargestellt. Der Satz aus Beleuchtungsquellen 110 enthält eine erste Beleuchtungsquelle 111, die mit der ersten Apertur 141 gepaart und so konfiguriert ist, dass sie einen Beleuchtungsstrahl projiziert, der im Wesentlichen mit dem Sichtfeld der ersten Apertur 141 im Feld vor der Massenbilderfassungsoptik 130 zusammenfällt (d. h., sich mit ihm überlappt). Darüber hinaus können die erste Beleuchtungsquelle 111 und eine Massensendeoptik 120 zusammenwirken und einen Beleuchtungsstrahl mit einem Querschnitt im Wesentlichen gleich (und etwas größer als) dem Querschnitt des Sichtfeldes der ersten Apertur 141 bei verschiedenen Entfernungen von der Massenbilderfassungsoptik 130 projizieren. Daher kann Licht, das von der ersten Beleuchtungsquelle 111 - gepaart mit der ersten Apertur 141 - ausgesendet und in das Sichtfeld der ersten Apertur 141 projiziert wird, im Wesentlichen außerhalb der Sichtfelder anderer Aperturen in der Aperturschicht 140 bleiben.
  • Allgemein beleuchten Photonen, die von der ersten Beleuchtungsquelle 111 in das Feld geworfen werden, einen bestimmten Bereich einer Oberfläche (oder mehrere Oberflächen) im Feld innerhalb des Sichtfeldes des ersten Messkanals und werden von der Oberfläche bzw. den Oberflächen) reflektiert (z.B. gestreut); mindestens einige von diesen Photonen, die durch einen bestimmten Bereich einer Oberfläche reflektiert wurden, können die Massenbildbearbeitungsoptik 130 erreichen, welche diese Photonen auf die Fokalebene leitet. Da diese Photonen von einem Bereich einer Oberfläche innerhalb des Sichtfeldes der ersten Apertur 141 reflektiert wurden, kann die Massenbildverarbeitungsoptik 130 diese Photonen in die erste Apertur 141 projizieren, und die erste Apertur 141 kann diese Photonen zur ersten Linse 151 weiterleiten (oder eine Teilmenge dieser Photonen, die in einem Winkel relativ zur Achse der ersten Apertur 141 unterhalb eines bestimmten Schwellwinkels einfallen). Da jedoch eine zweite Apertur 142 in der Aperturschicht 140 gegenüber der ersten Apertur 141 versetzt ist und da insbesondere der Bereich der Oberfläche im Feld, welcher über die erste Beleuchtungsquelle 111 ausgeleuchtet ist, (im Wesentlichen) nicht mit dem Sichtfeld der zweiten Apertur 142 zusammenfällt, werden Photonen, die durch den bestimmten Bereich der Oberfläche reflektiert werden und die Massenbildverarbeitungsoptik 130 erreichen, auf die zweite Apertur 142 projiziert und an eine zweite Linse 152 hinter der zweiten Apertur 142 weitergeleitet, und umgekehrt, wie in 2 dargestellt. Weiterhin kann ein Stoppbereich 146 zwischen der ersten und zweiten Apertur 142 Photonen blockieren, die in Richtung der Fokalebene zwischen der ersten und der zweiten Apertur 142 gerichtet sind, die von der Massenbildverarbeitungsoptik 130 reflektiert werden, wodurch das Übersprechen zwischen dem ersten und dem zweiten Messkanal verringert wird.
  • Für eine erste Apertur 141 in der Aperturschicht 140 gepaart mit einer ersten Beleuchtungsquelle 111 in dem Satz aus Beleuchtungsquellen 110 definiert die erste Apertur 141 in der Aperturschicht 140 ein erstes Sichtfeld und leitet einfallende Lichtstrahlen, die von einer Oberfläche im Feld ausgehen oder reflektiert werden, die mit diesem ersten Sichtfeld zusammenfällt, in die Linse 151 weiter. Da die erste Beleuchtungsquelle 111 einen Beleuchtungsstrahl projiziert, dessen Größe im Wesentlichen gleich groß (oder minimal größer als) das Sichtfeld ist, das durch die erste Apertur 141 definiert ist (siehe 4), kann ein Signal, das in die erste Linse 151 durch die erste Apertur 141 in der Aperturschicht 140 gelangt, ein relativ hohes Verhältnis zwischen ausgehenden Lichtstrahlen von der ersten Lichtquelle 111 und Lichtstrahlen, die von anderen Lichtquellen im System ausgehen, aufweisen. Da im Allgemeinen verschiedene Lichtquellen im System Beleuchtungsstrahlen mit verschiedenen Frequenzen, Tastverhältnissen und/oder Leistungspegeln etc. zu einer bestimmten Zeit während des Betriebs aussenden können, stellen Lichtstrahlen, die von der Massenbildverarbeitungsoptik 130 au ein erstes Pixel 171 im Satz aus Pixeln 170 geleitet werden, die aber von einer anderen Beleuchtungsquelle stammen als der ersten Beleuchtungsquelle 111, die mit dem ersten Pixel 171 gepaart ist, am ersten Pixel 171 Signalrauschen dar. Obwohl die relativ kleinen Durchmesser der Aperturen in der Aperturschicht 140 ein Gesamtlichtsignal, das von der Massenbildverarbeitungsoptik 130 in den Satz aus Linsen 150 geleitet wird, abschwächen können, kann jede Apertur in der Aperturschicht 140 einen relativ großen Anteil an Photonen mit Ursprung in ihrer entsprechenden Beleuchtungsquelle durchleiten, im Vergleich zu anderen Beleuchtungsquellen im System; denn aufgrund der Geometrie einer bestimmten Apertur und ihrer entsprechenden Beleuchtungsquelle kann eine bestimmte Apertur ein Signal zur ihrer entsprechenden Linse und damit an das entsprechende Pixel weiterleiten, das einen relativ hohen Rauschabstand aufweist. Ferner gilt: je kleiner die Lochdurchmesser in der Aperturschicht 140 sind - und damit die Sichtfelder der entsprechenden Messkanäle -, desto weniger kann das System Rauschen durch Sonnenstrahlung oder anderen umgebenden Lichtquellen an dem Satz aus Pixeln 170 weiterleiten.
  • In einer Variation umfasst das System eine zweite Aperturschicht, die zwischen der Linsenanordnung und dem optischen Filter 160 angeordnet ist, wobei die zweite Aperturschicht einen zweiten Satz aus Aperturen 144 definiert, die jeweils auf eine entsprechenden Linse in dem Satz aus Linsen 150 ausgerichtet sind, wie oben beschrieben. In dieser Variation kann eine Apertur in der zweiten Aperturschicht 140 fehlerhafte Lichtstrahlen absorbieren oder reflektieren, die von einer entsprechenden Linse durchlaufen werden, wie oben beschrieben, um das Übersprechen zwischen den Messkanälen weiter zu reduzieren, wodurch der Signal-/Rauschabstand innerhalb des Systems verbessert wird. In gleicher Weise kann das System zusätzlich oder alternativ eine dritte Aperturschicht zwischen dem optischen Filter 160 und dem/den Diffusor(en) 180 beinhalten, wobei die dritte Aperturschicht einen dritten Satz aus Aperturen 144 definiert, die jeweils fluchtend mit einer entsprechenden Linse in dem Satz von Linsen 150 liegen, wie oben beschrieben. In dieser Variation kann eine Apertur in der dritten Aperturschicht fehlerhafte Lichtstrahlen absorbieren oder reflektieren, die den Lichtfilter passiert haben, wie oben beschrieben, um das Übersprechen zwischen Messkanälen weiter zu reduzieren, wodurch der Signal-/Rauschabstand innerhalb des Systems verbessert wird.
  • LINSENANORDNUNG
  • Das System umfasst einen Satz aus Linsen 150, wobei jede Linse in dem Satz aus Linsen 150 durch eine zweite Brennweite gekennzeichnet ist, durch die zweite Brennweite versetzt von der Fokalebene gegenüber der Massenbildverarbeitungsoptik 130 ist, auf eine entsprechende Apertur im Satz aus Aperturen 144 ausgerichtet ist, und so konfiguriert ist, dass sie Lichtstrahlen, die durch die entsprechende Apertur fallen, kollimiert. Im Allgemeinen dient eine Linse in dem Satz aus Linsen 150 dazu, Lichtstrahlen zu kollimieren, die durch ihre entsprechende Apertur fallen, und diese kollimierten Lichtstrahlen in das optische Filter 160 zu leiten.
  • In dem eindimensionalen optischen System 100 sind die Linsen in einer einzigen Spalte angeordnet, und benachbarte Linsen sind um einen gleichförmigen Linsenabstand versetzt (d. h. um einen Mittenabstand zwischen benachbarten Pixeln), wie in 3 dargestellt. Der Satz aus Linsen 150 ist zwischen der Aperturschicht und dem optischen Filter 160 angeordnet. Insbesondere kann jede Linse eine Sammellinse umfassen, die durch eine zweite Brennweite gekennzeichnet ist und durch die zweite Brennweite zur Fokalebene der Massenbildverarbeitungsoptik 130 - gegenüber der Massenbildverarbeitungsoptik 130 - versetzt sein kann, um die Apertur der Massenbildverarbeitungsoptik 130 zu erhalten und um Licht, das in die Massenbildverarbeitungsoptik 130 und durch eine entsprechende Apertur einfällt, zu kollimieren. Jede Linse in dem Satz aus Linsen kann durch eine relativ kurze Brennweite gekennzeichnet sein (also weniger als eine Brennweite der Massenbildverarbeitungsoptik 130) und einer relativ großen Randstrahlwinkel (z.B. eine relativ hohe numerische Apertur der Linse), so dass die Linse auch stark abgewinkelte Lichtstrahlen, die von der Massenbildverarbeitungsoptik 130 in Richtung der Linse projiziert werden, noch erfassen kann. Das heißt, jede Linse in dem Linsensatz kann durch einen Strahlkegel charakterisiert sein, der im Wesentlichen an einen Strahlkegel der Massenbildverarbeitungsoptik 130 angepasst ist.
  • Linsen in dem Satz aus Linsen 150 können im Wesentlichen ähnlich sein. Eine Linse in dem Satz aus Linsen 150 ist zur Kollimation von Lichtstrahlen konfiguriert, die von der Massenbildverarbeitungsoptik 130 in ihre entsprechende Apertur fokussiert werden. Beispielsweise kann eine Linse in dem Satz aus Linsen 150 eine bikonvexe oder plankonvexe Linse umfassen, die durch eine Brennweite gekennzeichnet ist, welche basierend auf der Größe (z. B. Durchmesser) ihrer entsprechenden Apertur und der Betriebswellenlänge des Systems ausgewählt wird. In diesem Beispiel kann die Brennweite (f) einer Linse in dem Satz aus Linsen 150 gemäß der Formel berechnet werden: f = d 2 2 λ
    Figure DE112017004806T5_0001
    wobei d der Durchmesser der entsprechenden Apertur in der Aperturschicht ist und λ die Betriebswellenlänge des von der Beleuchtungsquelle abgegebenen Lichts (z. B. 900 nm). Die Geometrie einer Linse in dem Satz aus Linsen 150 kann daher an die Geometrie einer entsprechenden Apertur in der Aperturschicht angepasst werden, so dass die Linse ein im Wesentlichen scharfes Bild von Lichtstrahlen - bei oder nahe der Betriebswellenlänge - in das optische Filter 160 und somit weiter zur Pixelanordnung durchlässt.
  • Jedoch kann der Satz aus Linsen 150 auch Linsen einer beliebigen anderen Geometrie umfassen und auf irgendeine andere Weise benachbart zur Aperturschicht angeordnet sein.
  • OPTISCHER FILTER
  • Wie in 3 dargestellt, enthält das System einen optischen Filter 160 neben dem Satz aus Linsen 150 gegenüber der Aperturschicht und ist so konfiguriert, dass es Lichtstrahlen bei der Betriebswellenlänge durchlässt. Allgemein empfängt d optische Filter 160 ein Spektrum elektromagnetischer Strahlung von dem Satz aus Linsen 150, leitet ein relativ schmales Band von elektromagnetischer Strahlung - einschließlich der Strahlung mit Betriebswellenlänge - an die Pixelanordnung weiter und blockiert die elektromagnetische Strahlung außerhalb des Bandes. Insbesondere stellt jede andere elektromagnetische Strahlung als die von der Beleuchtungsquelle ausgegebene elektromagnetische Strahlung - wie Umgebungslicht -, die auf ein Pixel im Satz aus Pixeln 170 fällt, Rauschen im System dar. Das optische Filter 160 arbeitet daher so, dass elektromagnetische Strahlung außerhalb der Arbeitswellenlänge oder allgemeiner außerhalb eines schmalen Wellenlängenbandes zurückgewiesen wird, wodurch Rauschen in dem System reduziert und der Signal-/Rauschabstand erhöht wird.
  • In einer Ausführung umfasst das optische Filter 160 ein optisches Bandpassfilter, das ein schmales Band elektromagnetischer Strahlung durchlässt, das im Wesentlichen auf die Betriebswellenlänge des Systems zentriert ist. In einem Beispiel geben die Beleuchtungsquellen Licht (überwiegend) bei einer Betriebswellenlänge von 900 nm aus, und das optische Filter 160 ist so konfiguriert, dass es Licht zwischen 899,95 nm und 900,05 nm durchlässt und Licht außerhalb dieses Bandes blockiert.
  • Das optische Filter 160 kann selektiv Lichtwellenlängen als Funktion des Einfallswinkels auf das optische Filter 160 weiterleiten und zurückweisen. Allgemein können optische Bandpassfilter Wellenlängen von Licht umgekehrt proportional zu ihrem Einfallswinkel auf das lichtoptische Bandpassfilter weiterleiten. Zum Beispiel, bei einem optischen Filter 160 einschließlich einem 0,5 nm breiten optischen Bandpassfilter, kann das optische Filter 160 für auf das optische Filter 160 einfallende Lichtstrahlen unter einem Einfallswinkel von etwa 0° über 95% der elektromagnetischen Strahlung über ein scharfes Band von 899,75 nm bis 900,25 nm durchlassen und ungefähr 100% der elektromagnetischen Strahlung unter 899,70 nm und oberhalb von 900,30 nm ausfiltern. Jedoch kann in diesem Beispiel das optische Filter 160 für Lichtstrahlen, die unter einem Einfallswinkel von etwa 15° in das optische Filter 160 einfallen, über 95% der elektromagnetischen Strahlung über ein schmales Band von 899,5 nm bis über 900,00 nm durchlassen und elektromagnetische Strahlung über ein viel breiteres Band unterhalb von 899,50 nm und oberhalb von 900,30 nm zu 100% ausfiltern. Daher kann die Einfallsebene des optischen Filters 160 im Wesentlichen senkrecht zu den Achsen der Linsen sein, und der Satz aus Linsen 150 kann Lichtstrahlen kollimieren, die durch eine entsprechende Apertur einfallen, und diese Lichtstrahlen im Wesentlichen senkrecht zur Einfallsebene des optischen Filters 160 ausgeben (d. h. mit einem Einfallswinkel von ungefähr 0° auf das optische Filter). Insbesondere kann der Satz aus Linsen 150 Lichtstrahlen in Richtung des optischen Filters 160 aus Einfallswinkeln ausgeben, die sich 0° annähern, so dass im Wesentlichen die gesamte elektromagnetische Strahlung, die durch das optische Filter 160 geleitet wird, bei oder sehr nahe an der Betriebswellenlänge des Systems liegt.
  • In dem eindimensionalen optischen Systems 100 kann das System einen einzelnen optischen Filter 160 enthalten, der die Spalte der Linse in dem Satz aus Linsen 150 überspannt. Alternativ kann das System mehrere optische Filter 160 enthalten, die jeweils benachbart zu einer einzelnen Linse oder einer Teilmenge von Linsen in der Gruppe aus Linsen 150 angeordnet sind. Jedoch kann das optische Filter 160 jede andere Geometrie festlegen und auf jede andere Weise funktionieren, um nur ein begrenztes Band von Lichtwellenlängen durchzulassen.
  • PIXELANORDNUNG UND DIFFUSER
  • Das System umfasst einen Satz aus Pixeln 170 angrenzend an den optischen Filter 160 gegenüber dem Satz aus Linsen 150, wobei jedes Pixel in dem Satz aus Pixeln 170 einer Linse in dem Satz aus Linsen 150 entspricht und einen Satz aus Subpixeln entlang einer zweiten Achse nicht parallel zu der ersten Achse einschließt. Der Satz aus Pixeln 170 ist allgemein gegenüber dem optischen Filter 160 gegenüber dem Satz von Linsen 150 versetzt, und jedes Pixel in dem Satz aus Pixeln 170 übernimmt die Ausgabe eines einzelnen Signals oder eines Signalstroms entsprechend der Anzahl der in einer oder mehreren Abtastperioden auf die Pixel einfallenden Photonen.
  • Das System umfasst auch einen Diffusor 180, der zwischen dem optischen Filter 160 und dem Satz aus Pixeln 170 angeordnet ist und so konfiguriert ist, dass er kollimiertes Licht, das von jeder Linse in dem Satz aus Linsen 150 ausgegeben wird, über einen Satz von Subpixeln eines einzelnen entsprechenden Pixels in dem Satz aus Pixeln 170 verteilt. Im Allgemeinen funktioniert der Diffusor 180 für jede Linse in dem Satz aus Linsen 150 so, dass er Lichtstrahlen - die zuvor durch die Linse kollimiert und durch das optische Filter 160 durchgelassen wurden - über die Breite und Höhe eines Erfassungsbereichs innerhalb eines entsprechenden Pixels streut. Der Diffusor 180 kann als ein einzelnes optisches Element ausgebildet sein, das den Satz von Linsen 150 überspannt, oder der Diffusor 180 kann mehrere diskrete optische Elemente beinhalten, wie zum Beispiel jeweils einen optischen Diffusor, der auf einen entsprechenden Messkanal ausgerichteten ist.
  • In einer Ausführung umfasst ein erstes Pixel 171 in dem Satz aus Pixeln 170 eine Anordnung von einzelnen Photonenlawinendiodendetektoren (nachfolgend „SPADs“), und der Diffusor 180 streut Lichtstrahlen - die vorher durch eine entsprechende erste Apertur 141 durchgelassen wurden, durch eine erste Linse 151 kollimiert wurden und durch das optische Filter 160 durchgegangen sind - über den Bereich des ersten Pixels 171, siehe die 3, 5, und 6. Im Allgemeinen können angrenzende Aperturen vertikal um einen Aperturabstand ausgerichtet und versetzt werden, angrenzende Linsen können vertikal um einen Linsenabstand ausgerichtet und versetzt werden, der im Wesentlichen identisch mit dem Aperturabstand ist, und benachbarte Pixel können vertikal um einen Pixelabstand ausgerichtet und versetzt werden, der im Wesentlichen identisch mit den Linsen- und Aperturabständen ist. Jedoch kann der Pixelabstand nur eine relativ kleine Anzahl von (z. B. zwei) vertikal gestapelten SPADs aufnehmen. Jedes Pixel in dem Satz von Pixeln 170 kann daher ein Seitenverhältnis von mehr als 1:1 definieren, und der Diffusor 180 die vom optischen Filter 160 durchgelassenen Lichtstrahlen entsprechend der Geometrie eines entsprechenden Pixels verteilen, um einen größeren Erfassungsbereich pro Pixel aufzunehmen.
  • In einem Beispiel ist jedes Pixel in dem Satz von Pixeln 170 auf einem Bildsensor angeordnet, und ein erstes Pixel 171 in dem Satz von Pixeln 170 umfasst eine einzelne Reihe von 16 SPADs, die entlang einer Querachse senkrecht zu einer vertikalen Achse verteilt sind, die die Spalte der Aperturen und Linsen halbiert. In diesem Beispiel kann die Höhe eines einzelnen SPAD im ersten Pixel 171 geringer sein als die Höhe (z. B. Durchmesser) der ersten Linse 151, aber die Gesamtlänge der 16 SPADs kann größer sein als die Breite (z. B. Durchmesser) der ersten Linse 151; der Diffusor 180 kann daher die von der ersten Linse 151 abgegebenen Lichtstrahlen auf eine Höhe konvergieren, die der Höhe eines SPAD in der Ebene des ersten Pixels 171 entspricht, und die von der ersten Linse 151 abgegebenen Lichtstrahlen auf eine Breite divergieren, die der Breite der 16 SPADs in der Ebene des ersten Pixels 171 entspricht. In diesem Beispiel können die verbleibenden Pixel in dem Satz von Pixeln 170 ähnliche Reihen von SPADs enthalten, und der Diffusor 180 kann gleichermaßen Lichtstrahlen konvergieren und divergieren, die durch entsprechende Aperturen zu entsprechenden Pixeln geleitet werden.
  • Bei dem vorstehenden Beispiel kann die Aperturschicht eine Spalte von 16 gleichartigen Aperturen beinhalten, der Satz von Linsen 150 kann eine Spalte mit 16 gleichartigen Linsen beinhalten, die hinter der Aperturschicht angeordnet sind, und der Satz von Pixeln 170 kann einen Satz von 16 gleichartigen Pixeln beinhalten - jedes mit einer ähnlichen Anordnung von SPADs - die hinter dem Satz von Linsen 150 angeordnet sind. Bei einem 6,4 mm breiten, 6,4 mm hohen Bildsensor kann jedes Pixel eine einzelne Reihe von 16 SPADs umfassen, wobei jedes SPAD elektrisch mit einer entfernten analogen Front-End-Verarbeitungselektronik/ Digitalverarbeitungselektronikschaltung 240 gekoppelt ist. Jede SPAD kann in einem 400 µm breiten, 400 µm hohen SPAD-Bereich angeordnet sein und kann einen aktiven Erfassungsbereich von bis zu 400 µm Durchmesser definieren. Angrenzende SPADs können um einen SPAD-Abstand von 400 µm versetzt werden. In diesem Beispiel können der Aperturabstand entlang der vertikalen Spalte der Aperturen, der Linsenabstand entlang der vertikalen Spalte der Linsen und der Pixelabstand entlang der vertikalen Spalte der Pixel jeweils etwa 400 µm betragen. Für den ersten Messkanal im System (d. h., die erste Apertur 141, die erste Linse 151, und das erste Pixel 171, etc.), kann ein erster Diffusor 180 eine zylindrische Lichtsäule aus Lichtstrahlen divergieren, die von der ersten Linse 151 durch das optische Filter 160 geleitet wird - wie beispielsweise eine Lichtsäule mit einem Durchmesser von etwa 100 µm für ein Aperturschicht-Bildverhältnis von 1:4 - bis zu einer Höhe von etwa 400 µm, die vertikal mit der Reihe von SPADs im ersten Pixel 171 ausgerichtet ist. Der erste Diffusor kann in ähnlicher Weise die zylindrische Säule von Lichtstrahlen, die von der ersten Linse 151 durch das optische Filter 160 geleitet werden, auf eine Breite von ungefähr 6,4 µm divergieren, die horizontal über die Reihe von SPADs im Pixel 171 zentriert ist. Andere Diffusoren 180 in dem System können gleichermaßen kollimiertes Licht divergieren (oder konvergieren), das von entsprechenden Linsen über entsprechende Pixel in dem Satz von Pixeln 170 geleitet wird. Daher kann das System in diesem Beispiel durch die Verbindung jedes SPAD (oder jedes Pixels) mit einer entfernten analogen Front-End-Verarbeitungselektronik 240 und durch die Integration von Diffusoren 180, die das vom optischen Filter 160 durchgelassene Licht über die Breiten und Höhen der entsprechenden Pixel verteilen, einen relativ hohen Füllfaktor des Erfassungsbereichs über den Bildsensor erreichen.
  • Daher können Pixel im eindimensionalen optischen System 100 im Satz von Pixeln 170 eine Anordnung von mehreren SPADS beinhalten, die im Verhältnis größer als 1:1 angeordnet sind, und der Diffusor 180 kann Lichtstrahlen über entsprechende nichtquadratische Pixel verteilen, wodurch eine relativ große Anzahl von SPADs über ein einzelnes Pixel angezeigt werden kann, um einen größeren dynamischen Bereich über den Bildsensor zu erreichen, als ein Bildsensor mit einem einzelnen SPAD pro Pixel, wie in 3. dargestellt. Insbesondere kann ein erster Messkanal im System durch die Integration mehrerer SPADs pro Pixel (d.h. pro Messkanal) mehrere einfallende Photonen - die von einer Oberfläche in dem durch ein durch die erste Apertur 141 definiertes Sichtfeld begrenzten Feld stammen - innerhalb der Spanne der für die SPADs charakteristischen Totzeit erkennen. Der erste Messkanal kann also eine „hellere“ Oberfläche in seinem Blickfeld erfassen. Zusätzlich oder alternativ kann das erste Pixel 171 im ersten Messkanal schneller abgetastet werden als die für SPADs im ersten Pixel 171 charakteristische Totzeit, denn obwohl eine erste Teilmenge von SPADs im ersten Pixel 171 während einer ersten Abtastzeit aufgrund der Sammlung von einfallenden Photonen während der ersten Abtastzeit unten (oder „tot“) sein kann, bleiben andere SPADs im ersten Pixel 171 eingeschaltet (oder „lebendig“) und können daher einfallende Photonen während einer nachfolgenden Abtastzeit sammeln. Zudem kann der Bildsensor durch Einbeziehen von Pixeln, die durch relativ hohe Seitenverhältnisse von Fotodetektoren gekennzeichnet sind, Pixel beinhalten, die um einen relativ kleinen Pixelabstand versetzt sind, aber das System 100 kann dennoch ein Pixel mit relativ hohem Dynamikbereich erreichen.
  • Jedoch können Pixel in dem Satz von Pixeln 170 jede andere Anzahl von SPADs umfassen, die in beliebigen anderen Anordnungen angeordnet sind, wie beispielsweise in einer 64x1 Gitteranordnung (wie oben beschrieben), in einer 32x2 Gitteranordnung oder in einer 16x4 Gitteranordnung, und der Diffusor 180 kann entsprechende Pixel in anderer geeigneter Weise konvergieren und/oder divergieren. Darüber hinaus kann jedes Pixel in der Pixelmenge 170 anstelle der (oder zusätzlich zu den) SPADs eine oder mehrere lineare Lawinenphotodioden, Geiger-Lawinenphotodioden, Photomultiplikatoren, Resonanzkavitätsphotodioden, QUANTUM DOT-Detektoren oder andere Arten von Photodetektoren beinhalten, die wie vorstehend beschrieben angeordnet sind, und der/die Diffusor(en) 180 kann/können Signale, die von den optischen Filtern 160 über entsprechende Pixel geleitet werden, wie hier beschrieben, ähnlich konvergieren und divergieren.
  • BELEUCHTUNGSQUELLEN
  • Das System enthält einen Satz Beleuchtungsquellen 110, die entlang einer ersten Achse angeordnet sind, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen 110 konfiguriert ist, um einen Beleuchtungsstrahl einer Betriebswellenlänge zu einem diskreten Punkt in einem Feld vor der Beleuchtungsquelle auszugeben. Im Allgemeinen dient jede Beleuchtungsquelle dazu, einen Lichtstrahl auszugeben, der mit einem Sichtfeld übereinstimmt, das durch eine entsprechende Apertur in der Menge der Aperturen 144 definiert ist, wie in 1 und 2 dargestellt.
  • In einer Implementierung umfasst der Satz von Beleuchtungsquellen 110 eine Bulk-Senderoptik und einen getrennten Emitter pro Lese-Kanal. So kann beispielsweise der Satz von Beleuchtungsquellen 110 monolithische VCSEL-Arrays mit einem Satz von getrennten Emittern beinhalten. Bei dieser Implementierung kann die Bulk-Senderoptik im Wesentlichen identisch mit der Bulk-Abbildungsoptik 130 in Material, Geometrie (z. B. Brennweite), thermischer Isolierung usw. sein, und die Bulk-Senderoptik ist angrenzend und lateral und/oder vertikal von der Bulk-Abbildungsoptik 130 versetzt. In einem ersten Beispiel umfasst der Satz von Beleuchtungsquellen 110 eine Laseranordnung mit getrennten Emittern, die in einer Spalte angeordnet sind, wobei angrenzende Emitter um einen Emitterabstand versetzt sind, der im Wesentlichen identisch mit dem Aperturabstand ist. In diesem ersten Beispiel gibt jeder Emitter einen Lichtstrahl aus, dessen Durchmesser im Wesentlichen identisch oder geringfügig größer als der Durchmesser einer entsprechenden Apertur in der Aperturschicht ist, und die Säule der Emitter ist entlang der Fokusebene der Bulk-Senderoptik so angeordnet, dass jeder von der Bulk-Senderoptik in das Feld projizierte Lichtstrahl sich schneidet und im Wesentlichen die gleiche Größe und Geometrie aufweist wie das Sichtfeld des entsprechenden Lesekanals, wie in 4. dargestellt. Daher kann im Wesentlichen die gesamte Ausgangsleistung jedes Emitters in dem Satz von Beleuchtungsquellen 110 mit relativ geringem Energieverlust in das Sichtfeld seines entsprechenden Messkanals projiziert werden und die Oberflächen im Feld außerhalb der Sichtfelder der Messkanäle beleuchten.
  • In einem zweiten Beispiel sind die getrennten Emitter ähnlich in einer Spalte angeordnet, wobei benachbarte Emitter um einen Emitterabstand versetzt sind, der doppelt so groß ist wie der Aperturabstand, wie in 2. dargestellt. In diesem zweiten Beispiel ist jeder Emitter durch einen leuchtenden aktiven Bereich (oder Apertur) mit einem Durchmesser von etwa (oder etwas größer als) dem doppelten des Durchmessers einer entsprechenden Apertur in der Aperturschicht gekennzeichnet, und die Säule der Emitter ist hinter der Bulk-Senderoptik um das Doppelte der Brennweite der Bulk-Senderoptik versetzt, sodass jeder von der Bulk-Senderoptik in das Feld projizierte Lichtstrahl sich schneidet und von im Wesentlichen der gleichen Größe und Geometrie wie das Sichtfeld des entsprechenden Lesekanals ist, wie oben beschrieben. Zudem kann für dieselbe Beleuchtungsstrahlleistungsdichte ein Beleuchtungsstrahl, der von einem Emitter in diesem zweiten Beispiel ausgegeben wird, die vierfache Leistung eines Beleuchtungsstrahls enthalten, der von einem Emitter in dem ersten oben beschriebenen Beispiel ausgegeben wird. Das System kann daher einen Satz von Emittern beinhalten, die entsprechend einem Emitterneigungsabstand angeordnet sind, der konfiguriert ist, um beleuchtete Strahlen mit einem Durchmesser auszugeben, und hinter der Bulk-Senderoptik um einen Versatzabstand in Abhängigkeit von einem Skalenfaktor (z.B. 2,0 oder 3,0) und 1) dem Aperturabstand in der Aperturschicht, 2) dem Durchmesser der Aperturen in der Aperturschicht und 3) der Brennweite der Bulk-Senderoptik. Das System kann daher ein beleuchtetes Subsystem umfassen, das proportional größer ist als ein entsprechendes Empfängersubsystem, um eine größere Gesamtleistung der Beleuchtung innerhalb der gleichen Strahlwinkel und Sichtfelder der entsprechenden Kanäle im Empfängersubsystem zu erzielen.
  • Das System kann auch mehrere getrennte Sätze von Lichtquellen umfassen, wobei jeder Satz von Beleuchtungsquellen 110 mit einer getrennten Bulk-Senderoptik neben der Bulk-Abbildungsoptik 130 gekoppelt ist. Beispielsweise kann das System eine erste Bulk-Senderoptik, eine zweite Bulk-Senderoptik und eine dritte Bulk-Senderoptik umfassen, die radial um die Bulk-Abbildungsoptik 130 in einem gleichmäßigen radialen Abstand von der Mitte der Bulk-Abbildungsoptik 130 angeordnet und um einen Winkelabstand von 120° beabstandet ist. In diesem Beispiel kann das System eine Laseranordnung mit einem Emitter - wie oben beschrieben - hinter jeder der ersten, zweiten, und dritten Bulk-Senderoptik beinhalten. Jeder getrennte Laseranordnung und seine entsprechende Bulk-Senderoptik kann somit einen Satz von Beleuchtungsstrahlen in die Sichtfelder projizieren, die durch entsprechende Aperturen in der Aperturschicht definiert sind. Daher können in diesem Beispiel die drei getrennten Laseranordnungen und die drei entsprechenden Bulk-Senderoptiken zusammenarbeiten, um die dreifache Leistung auf die Sichtfelder der Lesekanäle im System zu projizieren, verglichen mit einer einzigen Laseranordnung und einer Bulk-Senderoptik. Zusätzlich oder alternativ kann das System mehrere getrennte Schichtanordnungen und Bulk-Senderoptiken zu beiden umfassen: 1) Erreichen einer Soll-Beleuchtungsleistung, die in das Sichtfeld jedes Abtastkanals im Empfänger-Subsystem mit mehreren Sendern mit geringerer Leistung pro Abtastkanal abgegeben wird; und 2) Verteilung der optischen Energie über einen größeren Bereich im Nahfeld, um eine optische Energiedichte zu erreichen, die kleiner als eine zulässige optische Energiedichte für das menschliche Auge ist.
  • Das System kann jedoch jede andere Anzahl und Konfiguration von Beleuchtungsquellen und Großsenderoptiken beinhalten, die konfiguriert sind, um die durch die Lesekanäle definierten Sichtfelder zu beleuchten. Der Satz von Beleuchtungsquellen 110 kann auch jeden anderen geeigneten Typ eines optischen Senders umfassen, wie beispielsweise einen 1x16 optischen Splitter, der von einer einzelnen Laserdiode gespeist wird, eine seitlich emittierende Laserdiodenanordnung, eine LED-Anordnung oder eine Quantenpunkt-LED-Anordnung, etc.
  • FERTIGUNG
  • In einer Implementierung werden die Massenempfängerlinse, die Aperturschicht, der Linsensatz 150, der optische Filter 160 und der Diffusor 180 hergestellt und dann mit einem Bildsensor ausgerichtet und auf diesem montiert. Zum Beispiel kann das optische Filter 160 durch Beschichten eines Quarzglassubstrats hergestellt werden. Das photoaktive optische Polymer kann dann über dem optischen Filter 160 abgeschieden werden, und eine Linsenform kann über das photoaktive optische Polymer gelegt und eine UV-Lichtquelle aktiviert werden, um das photoaktive optische Polymer in Form von Linsen zu härten, die über den optischen Filter 160 gemustert sind. Abstandshalter können ähnlich geformt oder über den optischen Filter 160 mittels PhotolithographieTechniken gebildet werden, und eine Aperturschicht, die durch einen selektiv gehärteten, metallisierten Glaswafer definiert ist, kann dann an die Abstandshalter gebunden oder anderweitig montiert werden, um die Aperturschicht zu bilden. Die Anordnung kann dann umgekehrt werden, und ein Satz getrennter Diffusoren und Abstandshalter kann auf ähnliche Weise auf der gegenüberliegenden Seite des optischen Filters 160 hergestellt werden. Ein getrennter Bildsensor kann dann mit den Abstandshaltern ausgerichtet und verbunden werden, und eine Bulk-Abbildungsoptik 130 kann auf ähnliche Weise über der Aperturschicht angebracht werden.
  • Alternativ können Photolithographie- und Wafer-Level-Bonding-Techniken eingesetzt werden, um die Bulk-Imaging-Optik, die Aperturschicht, den Linsensatz 150, den optischen Filter 160 und den Diffusor 180 direkt auf den nicht gewürfelten Halbleiterwafer mit den Detektorchips herzustellen, um die Herstellung zu vereinfachen, Kosten zu reduzieren und die optische Stapelhöhe für ein geringeres Pixel-Nebensprechen zu reduzieren.
  • EINDIMENSIONALES OPTISCHES SYSTEM: LINSENROHR
  • Eine Variation des Systems umfasst: einen Satz von Beleuchtungsquellen 110, die entlang einer ersten Achse angeordnet sind, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen 110 konfiguriert ist, um einen Beleuchtungsstrahl einer Betriebswellenlänge in Richtung eines diskreten Punktes in einem Feld vor der Beleuchtungsquelle auszugeben; eine Massenbildoptik 130, die durch eine dem Feld gegenüberliegende Fokusebene gekennzeichnet ist; einen Satz von Linsenrohren 210, die in einer Linienanordnung parallel zur ersten Achse angeordnet sind, wobei jedes Linsenrohr in dem Satz von Linsenrohren 210 folgendes beinhaltet: eine Linse, gekennzeichnet durch eine Brennweite, die um die Brennweite von der Brennebene versetzt ist, und konfiguriert ist, um Lichtstrahlen, die in die Massenbildoptik 130 reflektiert werden, von einem diskreten Punkt in dem von einer entsprechenden Lichtquelle in dem Satz von Optiken beleuchteten Feld in die Massenbildoptik 130 zu kollimieren; und eine zylindrische Wand 218, die sich von der Linse gegenüber der Brennebene erstreckt und eine lange Achse im Wesentlichen senkrecht zur ersten Achse definiert, und konfiguriert ist, um einfallende Lichtstrahlen, die in die Massenbildoptik 130 reflektiert werden, aus einem Bereich in dem Feld außerhalb des von der entsprechenden Lichtquelle beleuchteten diskreten Punktes zu absorbieren. Bei dieser Variante umfasst das System auch: ein optisches Filter 160 angrenzend an den Satz von Linsenrohren 210 gegenüber der Fokusebene und konfiguriert, um Lichtstrahlen bei der Betriebswellenlänge zu leiten; einen Satz von Pixeln 170 angrenzend an das optische Filter 160 gegenüber dem Satz von Linsen 150, wobei jedes Pixel in dem Satz von Pixeln 170 einer Linse in dem Satz von Linsen 150 entspricht und einen Satz von Subpixeln beinhaltet, die entlang einer dritten Achse senkrecht zur ersten Achse ausgerichtet sind; und einen Diffusor 180, der zwischen dem optischen Filter 160 und dem Satz von Pixeln 170 angeordnet ist und konfiguriert ist, um die kollimierte Lichtausgabe von jeder Linse in dem Satz von Linsen 150 über einen Satz von Subpixeln eines entsprechenden Pixels in dem Satz von Pixeln 170 zu verteilen.
  • Im Allgemeinen beinhaltet das System bei dieser Variante ein Linsenrohr als Ersatz für (oder zusätzlich zu) jeder der oben beschriebenen Blenden und Linsenpaare. In dieser Variation kann jedes Linsenrohr durch eine zweite (kurze) Brennweite charakterisiert werden und kann von der Brennebene der Massenbildoptik 130 um die zweite Brennweite versetzt werden, um die Apertur der Massenbildoptik 130 zu erhalten und einfallendes Licht, das von der Massenbildoptik 130 empfangen wird, wie oben beschrieben und in 5 und 7 dargestellt.
  • Jedes Linsenrohr definiert auch eine opake zylindrische Wand 218, die eine Achse senkrecht zur Einfallsebene des benachbarten optischen Filters 160 definiert und konfiguriert ist, um einfallende Lichtstrahlen zu absorbieren, wie in 5. dargestellt. Im Allgemeinen kann die zylindrische Wand 218 eines Linsenrohrs bei größeren axialen Längen Lichtstrahlen absorbieren, die in geringeren Winkeln zur Achse des Linsenrohrs durch das Linsenrohr hindurchgehen, wodurch das Sichtfeld des Linsenrohrs reduziert wird (was einer Verringerung des Durchmessers einer Apertur in der Aperturschicht bis zum beugungsbegrenzten Durchmesser, wie vorstehend beschrieben, ähnlich sein kann) und ein Ausgangssignal kollimierter Lichtstrahlen ergibt, das näher an der Einfallsebene des optischen Filters 160 liegt. Jedes Linsenrohr kann daher eine längliche zylindrische Wand 218 einer Länge definieren, die ausreichend ist, um ein Zielblickfeld zu erreichen und kollimierte Lichtstrahlen unter maximalen Winkeln zur Achse des Linsenrohrs kleiner als einen Schwellwinkel zu leiten. In dieser Variation kann ein Linsenrohr somit als ein vorstehend beschriebenes Apertur-Sensor-Paar fungieren, um ein enges Sichtfeld zu definieren und im Wesentlichen kollimiertes Licht an den angrenzenden optischen Filter 160 abzugeben.
  • Die zylindrische Wand 218 eines Linsenrohrs kann eine grobe oder gemusterte undurchsichtige Oberfläche um ein transparentes (oder transluzentes) Linsenmaterial definieren, wie in 5 dargestellt, um die Absorption zu erhöhen und die Reflexion von Lichtstrahlen zu verringern, die auf die zylindrische Wand 218 fallen. Jedes Linsenrohr (und jede Linse, die oben beschrieben wurde) kann auch mit einer AntiReflex-Beschichtung beschichtet sein.
  • Wie in 9 dargestellt, kann bei dieser Variation der Satz von Linsenrohren 210 durch Implementieren photolithographischer Techniken hergestellt werden, um ein photoaktives optisches Polymer (z. B. SU8) auf das optische Filter 160 (z. B. auf einen Siliziumwafer, der das optische Filter definiert) aufzumustern. Ein lichtabsorbierendes Polymer kann dann zwischen die Linsenrohre gegossen und gehärtet werden. Ein Satz von Linsen 150 kann dann separat hergestellt (z. B. geformt) und dann mit über die Linsenrohre geklebt werden. Alternativ können die Linsen direkt auf den Linsenrohren durch Photolithographietechniken hergestellt werden. Alternativ kann jedoch auch eine Form für Linsen direkt auf die Linsenrohre durch Einspritzen von Polymer in eine Form gegossen werden, die über den Linsenrohren angeordnet ist. Ein einzelner Diffusor 180 oder mehrere getrennte Diffusoren 180 können auf ähnliche Weise auf dem optischen Filter 160 gegenüber den Linsenrohren hergestellt und/oder montiert werden. Abstandshalter, die sich vom optischen Filter 160 erstrecken, können ebenfalls hergestellt oder um den/die Diffusor(en) 180 herum installiert werden, und der Bildsensor kann mit den Abstandshaltern gegenüber dem optischen Filter 160 ausgerichtet und verbunden werden. Andere optische Elemente innerhalb des Systems (z. B. die Bulk-Abbildungslinse, die Bulk-Transmissionslinse usw.) können gemäß ähnlichen Techniken und mit ähnlichen Materialien hergestellt werden.
  • ZWEIDIMENSIONALES OPTISCHES SYSTEM
  • Eine weitere Variante des Systems beinhaltet: einen Satz von Beleuchtungsquellen 110, die in einer ersten geradlinigen Gitteranordnung angeordnet sind, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen 110 konfiguriert ist, um einen Beleuchtungsstrahl mit einer Betriebswellenlänge zu einem diskreten Punkt in einem Feld vor der Beleuchtungsquelle auszugeben; eine Bulk-Abbildungsoptik 130, die durch eine dem Feld gegenüberliegende Fokusebene gekennzeichnet ist; eine Aperturschicht, die mit der Fokusebene übereinstimmt, die einen Satz von Aperturen 144 in einem zweiten geradlinigen Gitterarray definiert, das proportional zu dem ersten geradlinigen Gitterarray ist, und einen Stoppbereich 146 um den Satz von Aperturen 144 definiert, wobei jede Apertur in dem Satz von Aperturen 144 ein Sichtfeld in dem Feld definiert, das mit einem diskreten Punkt übereinstimmt, der von einer entsprechenden Lichtquelle in dem Satz von Beleuchtungsquellen 110 ausgegeben wird, wobei der Stoppbereich 146 Lichtstrahlen absorbiert, die von Oberflächen in dem Feld außerhalb von Sichtfeldern reflektiert werden, die durch den Satz von Aperturen 144 definiert sind und durch die Massenbildoptik 130 verlaufen; einen Satz von Linsen 150, wobei jede Linse in dem Satz von Linsen 150 durch eine zweite Brennweite gekennzeichnet ist, die von der Brennebene gegenüber der Massenbildoptik 130 um die zweite Brennweite versetzt ist, mit einer Apertur in dem Satz von Aperturen 144 ausgerichtet ist und konfiguriert ist, um von der Apertur durchgelassene Lichtstrahlen zu kollimieren; ein optisches Filter 160 angrenzend an den Satz von Linsen 150 gegenüber der Aperturschicht und konfiguriert, um Lichtstrahlen bei der Betriebswellenlänge zu leiten; einen Satz von Pixeln 170 angrenzend an den optischen Filter 160 gegenüber dem Satz von Linsen 150, wobei jedes Pixel im Satz von Pixeln 170 mit einem Teilsatz von Linsen im Satz von Linsen 150 ausgerichtet ist; und einen Diffusor 180, der zwischen dem optischen Filter 160 und dem Satz von Pixeln 170 angeordnet ist und konfiguriert ist, um die kollimierte Lichtabgabe von jeder Linse im Satz von Linsen 150 über ein entsprechendes Pixel im Satz von Pixeln 170 zu verteilen.
  • Im Allgemeinen enthält das System in dieser Variation ein zweidimensionales Gitterarray von Kanälen (d. h. Apertur-, Linsen- und Pixelsätze oder Linsenrohr- und Pixelsätze) und ist konfiguriert, um ein Volumen, das durch das System eingenommen wird, in zwei Dimensionen abzubilden. Das System kann eindimensionale Abstandsdaten - wie z. B. Zählungen von einfallenden Photonen innerhalb einer Abtastzeit und/oder Zeiten zwischen aufeinanderfolgenden Photonen sammeln, die auf Pixel einer bekannten Position einfallen, die bekannten Sichtfeldern auf dem Feld entsprechen - über ein zweidimensionales Feld. Die eindimensionalen Abstandsdaten können dann mit bekannten Positionen der Sichtfelder für jeden Kanal in dem System zusammengeführt werden, um eine virtuelle dreidimensionale Darstellung des Feldes vor dem System zu rekonstruieren.
  • Bei dieser Variation kann die Aperturschicht ein Gitterarray von Aperturen definieren, der Satz von Linsen 150 kann in einem ähnlichen Gitterarray angeordnet sein, wobei eine Linse mit einer Apertur in der Aperturschicht ausgerichtet ist, und der Satz von Pixeln 170 kann, wie oben beschrieben, ein Pixel pro Apertur und Linsenpaar umfassen. Die Aperturschicht kann beispielsweise ein 24×24 Gitterarray mit Aperturen von 200 µm Durchmesser definieren, die vertikal und lateral um einen Aperturabstand von 300 µm versetzt sind, und der Satz von Linsen 150 kann ebenfalls ein 24×24 Gitterarray von Linsen definieren, das vertikal und lateral um einen Linsenpitchabstand von 300 µm versetzt ist. In diesem Beispiel kann der Satz von Pixeln 170 ein 24x24 Gitterarray von 300 µm quadratischen Pixeln beinhalten, wobei jedes Pixel eine 3×3 quadratische Anordnung von neun 100 µm quadratischen SPADs beinhaltet.
  • Alternativ kann bei dieser Variante der Satz von Pixeln 170 ein Pixel pro Gruppe von mehreren Aperturen- und Linsenpaaren beinhalten. In dem vorstehenden Beispiel kann der Satz von Pixeln 170 alternativ ein 12x12 Gitterarray von 600 µm quadratischen Pixeln umfassen, wobei jedes Pixel eine 6x6 quadratische Anordnung von 36 100 µm quadratischen SPADs umfasst und wobei jedes Pixel mit einer Gruppe von vier benachbarten Linsen in einem quadratischen Gitter ausgerichtet ist. In diesem Beispiel kann der Diffusor 180 für jede Gruppe von vier angrenzenden Linsen: kollimierte Lichtstrahlen, die von einer Linse in der (1, 1)-Position in dem quadratischen Gitter nach oben und nach rechts abgegeben werden, um Lichtstrahlen, die durch die (1,1)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels verteilen; kann kollimierte Lichtstrahlen, die von einer Linse in der (2,1)-Position in dem quadratischen Gitter nach oben und nach links gerichtet werden, um Lichtstrahlen, die durch die (2,1)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels verteilen; kann kollimierte Lichtstrahlen, die von einer Linse in der (1,2)-Position in dem quadratischen Gitter abgegeben werden, nach unten und rechts vorspannen, um Lichtstrahlen, die durch die (1,2)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels zu verteilen, und kann kollimierte Lichtstrahlen, die von einer Linse in der (2,2)-Position in dem quadratischen Gitter abgegeben werden, nach unten und nach links vorspannen, um Lichtstrahlen, die durch die (2,2)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels zu verteilen, wie in 8. dargestellt.
  • Im vorstehenden Beispiel kann das System für jede Gruppe von vier Beleuchtungsquellen in einem quadratischen Gitter und entsprechend einer Gruppe von vier Linsen in einem quadratischen Raster zu jedem gegebenen Zeitpunkt eine Beleuchtungsquelle in der Gruppe von vier Beleuchtungsquellen betätigen. Insbesondere kann das System für jede Gruppe von vier Beleuchtungsquellen in einem quadratischen Raster, das einem Pixel in dem Satz von Pixeln 170 entspricht, eine erste Beleuchtungsquelle 111 in einer (1, 1) Position während einer ersten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine erste Apertur 141 definiert ist, die einem Objektiv in der (1,1)-Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der ersten Abtastperiode abtasten. Das System kann dann die erste Beleuchtungsquelle 111 abschalten und eine zweite Beleuchtungsquelle 112 in einer (1, 2) Position während einer nachfolgenden zweiten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine zweite Apertur 142 definiert ist, die einer Linse in der (1,2) Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der zweiten Abtastperiode erfassen. Anschließend kann das System die erste und zweite Beleuchtungsquelle 112 abschalten und eine dritte Beleuchtungsquelle in einer (2,1) Position während einer nachfolgenden dritten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine dritte Apertur definiert ist, die einem Objektiv in der (2,1) Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der dritten Abtastperiode erfassen. Schließlich kann das System die erste, zweite und dritte Lichtquelle abschalten und eine vierte Lichtquelle in einer (2,2) Position während einer vierten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine vierte Apertur definiert ist, die einem Objektiv in der (2,2) Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der vierten Abtastperiode erfassen. Das System kann diesen Vorgang während des gesamten Betriebs wiederholen.
  • Daher kann das System im vorstehenden Beispiel einen Satz von Pixeln 170 beinhalten, die über einen Bildsensor mit einer Breite von 7,2 mm und einer Länge von 7,2 mm angeordnet sind, und ein Scanschema implementieren, so dass jeder Kanal im System auf eine Reihe von SPADs zugreifen kann (Lichtstrahlen projizieren kann), die ansonsten einen wesentlich größeren Bildsensor erfordern (z.B. einen 14,4 mm × 14,4 mm Bildsensor). Insbesondere kann das System ein serielles Scanschema pro Gruppe von Beleuchtungsquellen implementieren, um eine exponentielle Zunahme des Dynamikbereichs jedes Kanals im System zu erreichen. Insbesondere bei dieser Variante kann das System die vorgenannten bildgebenden Verfahren implementieren, um die Bildauflösung des Systems zu erhöhen.
  • In der vorhergehenden Implementierung kann das System auch einen Verschluss 182 zwischen jedem Kanal und dem Bildsensor beinhalten, und das System kann jeden Verschluss 182 selektiv öffnen und schließen, wenn die Beleuchtungsquelle für den entsprechenden Kanal aktiviert bzw. deaktiviert wird. Das System kann beispielsweise einen unabhängig bedienbaren elektrochromen Verschluss 182 zwischen jeder Linse beinhalten, und das System kann den elektrochromen Verschluss 182 über der (1, 1) Linse in der quadratischen Gittergruppe von vier Linsen öffnen und elektrochrome Verschlüsse 182 über der (1, 2), (2, 1), und (2, 2) Linse schließen, wenn die (1, 1) Beleuchtungsquelle aktiviert ist, wodurch das Rauschen, das durch die (1, 2), (2, 1), und (2, 2) Linse geht, vor dem Erreichen des entsprechenden Pixels auf dem Bildsensor ausgeschlossen wird. Das System kann daher die Verschlüsse 182 zwischen jedem Kanal und dem Bildsensor selektiv öffnen und schließen, um das SNR pro Kanal während des Betriebs zu erhöhen. Alternativ kann das System einen unabhängig bedienbaren elektrochromen Verschluss 182 enthalten, der über ausgewählten Regionen jedes Pixels angeordnet ist, wie in 8 dargestellt, wobei jeder elektrochrome Verschluss 182 mit einem einzelnen Kanal (d. h. mit einer einzelnen Linse in dem Satz von Linsen) ausgerichtet ist. Das System kann alternativ mechanische MEMS-Verschlüsse oder irgendeine andere geeignete Art von Verschluss umfassen, die zwischen dem Satz von Linsen 150 und dem Bildsensor angeordnet ist.
  • Bei dieser Variation kann das System zweidimensionale Gitterarrays von Aperturen, Linsen, Diffusoren und/oder Pixeln definieren, die durch eine erste Teilungsdistanz entlang einer ersten (z. B. X) Achse und eine zweite Teilungsdistanz - die sich von der ersten Teilungsdistanz unterscheidet- entlang einer zweiten (z. B. Y) Achse gekennzeichnet sind. Beispielsweise kann der Bildsensor Pixel umfassen, die um einen horizontalen Abstand von 25 µm und einen vertikalen Abstand von 300 µm versetzt sind, wobei jedes Pixel eine einzelne Reihe von zwölf Subpixeln umfasst.
  • Jedoch kann in dieser Variation das zweidimensionale optische System eine Anordnung irgendeiner anderen Anzahl und eines Musters von Kanälen (z. B. Aperturen, Linsen (oder Linsenröhren) und Diffusoren) und Pixel umfassen, und kann jedes andere geeignete Scanschema ausführen, um höhere räumliche Auflösungen pro Kanal als die Rohpixelauflösung des Bildsensors zu erreichen. Das System kann zusätzlich oder alternativ eine konvergierende Optik, eine divergierende Optik und/oder jede andere geeignete Art von optischem Element umfassen, um Lichtrechte zu verteilen, die von einem Kanal über die Breite eines entsprechenden Pixels geleitet werden.
  • Wie ein Fachmann aus der vorhergehenden detaillierten Beschreibung und aus den Figuren und Ansprüchen erkennen wird, können Änderungen und Ergänzungen an den Ausführungsformen der Erfindung vorgenommen werden, ohne vom Umfang dieser Erfindung abzuweichen, wie er in den folgenden Ansprüchen definiert ist.

Claims (86)

  1. Ein mikrooptischer Empfängerkanal, bestehend aus: einer Eingangsaperturschicht; einer optischen Linsenschicht, die an die Eingangsaperturschicht angrenzt; einer optischen Filterschicht, die an die optische Linsenschicht angrenzt; und einer Pixelschicht, die an die optische Filterschicht angrenzt.
  2. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die Eingangsaperturschicht eine Apertur umfasst.
  3. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die Eingangsaperturschicht eine Apertur und ein die Apertur umgebendes Anschlagmaterial umfasst.
  4. Mikrooptischer Empfängerkanal nach Anspruch 3, wobei das Stoppmaterial ein reflektierendes Material umfasst.
  5. Mikrooptischer Empfängerkanal nach Anspruch 3, wobei das Stoppmaterial ein lichtabsorbierendes Material umfasst.
  6. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die optische Linsenschicht eine Kollimatorlinse umfasst.
  7. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die Eingangsaperturschicht eine Apertur umfasst und wobei die optische Linsenschicht eine Linse umfasst, wobei die Apertur mit der Linse ausgerichtet ist.
  8. Mikrooptischer Empfängerkanal nach Anspruch 1, der mit einer zweiten Aperturschicht zwischen der optischen Linsenschicht und der optischen Filterschicht.
  9. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die optische Filterschicht einen optischen Bandfilter aufweist.
  10. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die Pixelschicht mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst.
  11. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die Pixelschicht eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst.
  12. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die Pixelschicht mindestens eine resonante Hohlraum-Photodiode umfasst.
  13. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei die Pixelschicht eine Vielzahl von resonanten Hohlraum-Photodioden umfasst.
  14. Mikrooptischer Empfängerkanal nach Anspruch 1, wobei das Pixel eine Vielzahl von Subpixeln umfasst.
  15. Mikrooptischer Empfängerkanal nach Anspruch 1, der ferner einen Diffusor zwischen dem optischen Filter und der Pixelschicht umfasst.
  16. Mikrooptischer Empfängerkanal nach Anspruch 15, der ferner eine dritte Apertur zwischen dem optischen Filter und dem Diffusor umfasst.
  17. Ein optischer Mikroempfängerkanal, bestehend aus: einer Apertur, die von einem Anschlagbereich umgeben ist; einer optischen Linse angrenzend an die Apertur; einem optischen Filter angrenzend an die optische Linse; und einem an den optischen Filter benachbarter Pixel, wobei die Apertur einen Eingangskegel aus Licht annimmt, der einen breiten Wellenlängenbereich enthält, und der optische Filter alle bis auf ein schmales Band der Wellenlängen herausfiltert, die bei einer Betriebswellenlänge zentriert sind, und wobei das Pixel konfiguriert ist, um Photonen nur innerhalb des schmalen Wellenlängenbereichs zu erfassen.
  18. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei der Anschlagbereich ein reflektierendes Material umfasst.
  19. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst.
  20. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei die optische Linse eine Kollimatorlinse umfasst.
  21. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei die Apertur mit der Linse ausgerichtet ist.
  22. Mikrooptischer Empfängerkanal nach Anspruch 17, ferner mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter.
  23. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei die optische Filterschicht ein optisches Bandfilter aufweist.
  24. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst.
  25. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst.
  26. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst.
  27. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei das Pixel eine Mehrzahl von Resonanzhohlraum-Photodioden umfasst.
  28. Mikrooptischer Empfängerkanal nach Anspruch 17, wobei das Pixel eine Vielzahl von Subpixeln umfasst.
  29. Mikrooptischer Empfängerkanal nach Anspruch 17, der ferner einen Diffusor zwischen dem optischen Filter und der Pixelschicht umfasst.
  30. Mikrooptischer Empfängerkanal nach Anspruch 29, der ferner eine dritte Apertur zwischen dem optischen Filter und dem Diffusor umfasst.
  31. Ein Bildsensor mit: einer Vielzahl von mikrooptischen Empfängerkanälen, jeder mikrooptische Empfängerkanal mit: einer Apertur; einer optischen Linse angrenzend an die Apertur; einen optischem Filter angrenzend an die optische Linse; und ein Pixel angrenzend an den optischen Filter.
  32. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei der Anschlagbereich ein reflektierendes Material umfasst.
  33. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst.
  34. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei die optische Linse eine Kollimatorlinse umfasst.
  35. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei die Apertur mit der Linse ausgerichtet ist.
  36. Mikrooptischer Empfängerkanal nach Anspruch 31, ferner mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter.
  37. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei die optische Filterschicht ein optisches Bandfilter aufweist.
  38. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst.
  39. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst.
  40. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst.
  41. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei das Pixel eine Vielzahl von Resonanzhohlraum-Photodioden umfasst.
  42. Mikrooptischer Empfängerkanal nach Anspruch 31, wobei das Pixel eine Vielzahl von Subpixeln umfasst.
  43. Mikrooptischer Empfängerkanal nach Anspruch 31, der ferner einen Diffusor zwischen dem optischen Filter und der Pixelschicht umfasst.
  44. Mikrooptischer Empfängerkanal nach Anspruch 43, der ferner eine dritte Apertur zwischen dem optischen Filter und dem Diffusor umfasst.
  45. Ein Verfahren, das Folgendes umfasst: Bereitstellen eines mikrooptischen Empfängerkanals, der folgendes umfasst: Eine Apertur, die von einem Anschlagbereich umgeben ist; Eine optische Linse, angrenzend an die Apertur Ein optischer Filter, angrenzend an die optische Linse; und ein dem optischen Filter benachbartes Pixel, wobei die Apertur einen Eingangslichtkegel annimmt, der einen breiten Wellenlängenbereich enthält, und der optische Filter alle bis auf ein schmales Band der Wellenlängen herausfiltert, die bei einer Betriebswellenlänge zentriert sind, und wobei das Pixel konfiguriert ist, um Photonen nur innerhalb des schmalen Wellenlängenbereichs zu erfassen.
  46. Verfahren nach Anspruch 45, wobei der Anschlagbereich ein reflektierendes Material umfasst.
  47. Verfahren nach Anspruch 45, wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst.
  48. Verfahren nach Anspruch 45, wobei die optische Linse eine Kollimatorlinse umfasst.
  49. Verfahren nach Anspruch 45, wobei die Apertur mit der Linse ausgerichtet ist.
  50. Verfahren nach Anspruch 45, zusätzlich mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter.
  51. Verfahren nach Anspruch 45, wobei die optische Filterschicht ein optisches Bandpassfilter aufweist.
  52. Verfahren nach Anspruch 45, wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst.
  53. Verfahren nach Anspruch 45, wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst.
  54. Verfahren nach Anspruch 45, wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst.
  55. Verfahren nach Anspruch 45, wobei das Pixel eine Mehrzahl von Resonanzhohlraum-Photodioden umfasst.
  56. Verfahren nach Anspruch 45, wobei das Pixel eine Vielzahl von Subpixeln umfasst.
  57. Verfahren nach Anspruch 45, zusätzlich mit einem Diffusor zwischen dem optischen Filter und der Pixelschicht.
  58. Verfahren nach Anspruch 57, zusätzlich mit einer dritten Apertur zwischen dem optischen Filter und dem Diffusor.
  59. Ein Verfahren, das Folgendes umfasst: Verwenden eines mikrooptischen Empfängerkanals, der folgendes umfassend: einer Apertur, die von einem Anschlagbereich umgeben ist; einer optischen Linse angrenzend an die Apertur einen optischen Filter angrenzend an die optische Linse; und ein dem optischen Filter benachbartes Pixel, wobei die Apertur einen Eingangslichtkegel annimmt, der einen breiten Wellenlängenbereich enthält, und der optische Filter alle bis auf ein schmales Band der Wellenlängen herausfiltert, die bei einer Betriebswellenlänge zentriert sind, und wobei das Pixel konfiguriert ist, um Photonen nur innerhalb des schmalen Wellenlängenbereichs zu erfassen.
  60. Verfahren nach Anspruch 59, wobei der Anschlagbereich ein reflektierendes Material umfasst.
  61. Verfahren nach Anspruch 59, wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst.
  62. Verfahren nach Anspruch 59, wobei die optische Linse eine Kollimatorlinse umfasst.
  63. Verfahren nach Anspruch 59, wobei die Apertur mit der Linse ausgerichtet ist.
  64. Verfahren nach Anspruch 59, zusätzlich mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter.
  65. Verfahren nach Anspruch 59, wobei die optische Filterschicht ein optisches Bandpassfilter aufweist.
  66. Verfahren nach Anspruch 59, wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst.
  67. Verfahren nach Anspruch 59, wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst.
  68. Verfahren nach Anspruch 59, wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst.
  69. Verfahren nach Anspruch 59, wobei das Pixel eine Mehrzahl von Resonanzhohlraum-Photodioden umfasst.
  70. Verfahren nach Anspruch 59, wobei das Pixel eine Vielzahl von Subpixeln umfasst.
  71. Verfahren nach Anspruch 59, zusätzlich mit einem Diffusor zwischen dem optischen Filter und der Pixelschicht.
  72. Verfahren nach Anspruch 71, zusätzlich mit einer dritten Apertur zwischen dem optischen Filter und dem Diffusor.
  73. Ein optischer Kanal zum Empfangen von Photonen und zum Detektieren der Photonen, der folgendes umfasst: eine Bulk-Abbildungsoptik; eine Aperturschicht, die sich in einer Bildebene der Bulk-Optik befindet; eine Kollimatorlinsenschicht hinter der Aperturschicht, die durch eine Brennweite der Kollimatorlinsenschicht davon getrennt ist; einen optischen Filter hinter der Kollimatorlinsenschicht; und ein Pixel, das gegenüber der Kollimatorlinsenschicht gegenüber dem optischen Filter versetzt ist und auf Photonen anspricht, die auf das Pixel fallen.
  74. Optischer Kanal nach Anspruch 73, zusätzlich mit einem Diffusor, der von der Aperturschicht durch das optische Filter geleitete Lichtstrahlen über einen Bereich eines entsprechenden Pixels verteilt, wodurch das Pixel einfallende Photonen über seine gesamte Breite und Höhe erfassen kann, um den Dynamikbereich des Systems zu erhöhen.
  75. Optischer Kanal nach Anspruch 73, wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst.
  76. Optischer Kanal nach Anspruch 73, wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst.
  77. Optischer Kanal nach Anspruch 63, wobei die Bulk-Abbildungsoptik telezentrisch ist.
  78. Satz optischer Kanäle nach Anspruch 73, wobei der Satz von Pixeln des Satzes optischer Kanäle auf einem einzelnen Bildsensor angeordnet ist.
  79. Satz optischer Kanäle nach Anspruch 78, wobei mehrere Sätze optischer Kanäle auf dem gleichen Wafer hergestellt und gewürfelt werden, um mehrere Sätze optischer Kanäle zu erhalten.
  80. Satz optischer Kanäle nach Anspruch 78, zusätzlich mit einer Bulk-Abbildungsoptik mit Aperturen in einer Brennebene, die in ein Feld projiziert wird, das Sichtfelder für jeden optischen Kanal definiert.
  81. Satz optischer Kanäle mit der Bulk-Abbildungsoptik nach Anspruch 80 umfasst zusätzlich eine Bulk-Senderoptik mit einem Satz optischer Emitter in einer Brennebene, die Licht in ein Feld projizieren, das Sichtfelder definiert, die sich mit den Sichtfeldern überlappen, die durch den Satz optischer Kanäle definiert sind, und die mit derselben Wellenlänge arbeitet wie der Satz optischer Kanäle und eine Steuerung, um einen aktiven optischen Beleuchtungssensor zu bilden.
  82. Optischer Sensor für aktive Beleuchtung nach Anspruch 81, wobei die Bulk-Abbildungsoptik telezentrisch ist.
  83. Optischer Sensor für aktive Beleuchtung nach Anspruch 81, wobei der Satz optischer Emitter auf einem einzelnen Halbleiterchip angeordnet ist.
  84. Optischer Sensor für aktive Beleuchtung nach Anspruch 81, wobei der Satz optischer Emitter Laser sind.
  85. Optischer Sensor für aktive Beleuchtung nach Anspruch 81, wobei der optische Sensor für aktive Beleuchtung konfiguriert ist, den Abstand zu einem Objekt in der Szene für jedes Sendeempfängerpaar zu messen.
  86. Optischer Sensor für aktive Beleuchtung nach Anspruch 85, wobei der optische Sensor für aktive Beleuchtung ein 3D-Tiefensensor ist.
DE112017004806.0T 2015-09-24 2017-06-26 Optisches system zur sammlung von entfernungsinformationen in einem feld Pending DE112017004806T5 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201562232222P 2015-09-24 2015-09-24
US15/276,532 2016-09-26
US15/276,532 US9992477B2 (en) 2015-09-24 2016-09-26 Optical system for collecting distance information within a field
PCT/US2017/039306 WO2018057084A1 (en) 2015-09-24 2017-06-26 Optical system for collecting distance information within a field

Publications (1)

Publication Number Publication Date
DE112017004806T5 true DE112017004806T5 (de) 2019-06-19

Family

ID=59960008

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112017004806.0T Pending DE112017004806T5 (de) 2015-09-24 2017-06-26 Optisches system zur sammlung von entfernungsinformationen in einem feld
DE202017007509.1U Active DE202017007509U1 (de) 2015-09-24 2017-06-26 Optisches System zur Sammlung von Entfernungsinformationen in einem Feld

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE202017007509.1U Active DE202017007509U1 (de) 2015-09-24 2017-06-26 Optisches System zur Sammlung von Entfernungsinformationen in einem Feld

Country Status (11)

Country Link
US (8) US9992477B2 (de)
JP (1) JP7214629B2 (de)
KR (2) KR102425304B1 (de)
CN (2) CN109983312B (de)
CA (1) CA3038038A1 (de)
DE (2) DE112017004806T5 (de)
DK (1) DK180852B1 (de)
GB (2) GB2601435B (de)
IL (1) IL265562B2 (de)
SE (1) SE544865C2 (de)
WO (1) WO2018057084A1 (de)

Families Citing this family (107)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11609336B1 (en) 2018-08-21 2023-03-21 Innovusion, Inc. Refraction compensation for use in LiDAR systems
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US10063849B2 (en) 2015-09-24 2018-08-28 Ouster, Inc. Optical system for collecting distance information within a field
MX2018009265A (es) 2016-01-29 2019-05-13 Ouster Inc Sistemas y metodos para calibrar un sensor de distancia optico.
US10761195B2 (en) 2016-04-22 2020-09-01 OPSYS Tech Ltd. Multi-wavelength LIDAR system
KR20190035853A (ko) * 2016-08-04 2019-04-03 오피르 옵트로닉스 솔루션즈 리미티드 Led용 광도계 테스트 시스템
SG11201901600WA (en) 2016-08-24 2019-03-28 Ouster Inc Optical system for collecting distance information within a field
US11275155B1 (en) * 2016-11-08 2022-03-15 Lockheed Martin Coherent Technologies, Inc. Laser-array lidar devices
US10605984B2 (en) 2016-12-01 2020-03-31 Waymo Llc Array of waveguide diffusers for light detection using an aperture
US10502618B2 (en) * 2016-12-03 2019-12-10 Waymo Llc Waveguide diffuser for light detection using an aperture
US11300683B2 (en) 2016-12-30 2022-04-12 Innovusion Ireland Limited Multiwavelength LiDAR design
US10942257B2 (en) 2016-12-31 2021-03-09 Innovusion Ireland Limited 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices
JP7177065B2 (ja) 2017-01-05 2022-11-22 イノビュージョン インコーポレイテッド ライダーを符号化および復号する方法およびシステム
US11009605B2 (en) 2017-01-05 2021-05-18 Innovusion Ireland Limited MEMS beam steering and fisheye receiving lens for LiDAR system
DE102017101945A1 (de) * 2017-02-01 2018-08-02 Osram Opto Semiconductors Gmbh Messanordnung mit einem optischen Sender und einem optischen Empfänger
EP3596492A4 (de) 2017-03-13 2020-12-16 Opsys Tech Ltd Augensicheres abtastendes lidarsystem
CN110603461B (zh) * 2017-05-11 2021-10-22 华为技术有限公司 飞行时间设备
US11131773B2 (en) 2017-05-15 2021-09-28 Ouster, Inc. Lidar unit with an optical link between controller and photosensor layer
WO2018213338A1 (en) 2017-05-15 2018-11-22 Ouster, Inc. Augmenting panoramic lidar results with color
US10444359B2 (en) * 2017-07-05 2019-10-15 Ouster, Inc. Light ranging device with electronically scanned emitter array and synchronized sensor array
KR20220119769A (ko) 2017-07-28 2022-08-30 옵시스 테크 엘티디 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기
US10791283B2 (en) * 2017-09-01 2020-09-29 Facebook Technologies, Llc Imaging device based on lens assembly with embedded filter
US10785400B2 (en) 2017-10-09 2020-09-22 Stmicroelectronics (Research & Development) Limited Multiple fields of view time of flight sensor
WO2019079642A1 (en) 2017-10-19 2019-04-25 Innovusion Ireland Limited LIDAR WITH EXTENDED DYNAMIC RANGE
CN111356934B (zh) 2017-11-15 2024-03-12 欧普赛斯技术有限公司 噪声自适应固态lidar系统
JP2019101244A (ja) * 2017-12-04 2019-06-24 富士通株式会社 光モジュール
JP7120756B2 (ja) * 2017-12-05 2022-08-17 シャープ株式会社 受光素子、飛行時間測定装置及び光レーダー装置
US10481269B2 (en) 2017-12-07 2019-11-19 Ouster, Inc. Rotating compact light ranging system
US11493601B2 (en) 2017-12-22 2022-11-08 Innovusion, Inc. High density LIDAR scanning
WO2019139895A1 (en) 2018-01-09 2019-07-18 Innovusion Ireland Limited Lidar detection systems and methods that use multi-plane mirrors
US11675050B2 (en) 2018-01-09 2023-06-13 Innovusion, Inc. LiDAR detection systems and methods
WO2019165130A1 (en) 2018-02-21 2019-08-29 Innovusion Ireland Limited Lidar detection systems and methods with high repetition rate to observe far objects
US11927696B2 (en) 2018-02-21 2024-03-12 Innovusion, Inc. LiDAR systems with fiber optic coupling
US11988773B2 (en) 2018-02-23 2024-05-21 Innovusion, Inc. 2-dimensional steering system for lidar systems
US11808888B2 (en) 2018-02-23 2023-11-07 Innovusion, Inc. Multi-wavelength pulse steering in LiDAR systems
WO2019165095A1 (en) 2018-02-23 2019-08-29 Innovusion Ireland Limited Distributed lidar systems
US11567182B2 (en) 2018-03-09 2023-01-31 Innovusion, Inc. LiDAR safety systems and methods
KR102604050B1 (ko) 2018-04-01 2023-11-22 옵시스 테크 엘티디 잡음 적응형 솔리드-스테이트 lidar 시스템
US11789132B2 (en) 2018-04-09 2023-10-17 Innovusion, Inc. Compensation circuitry for lidar receiver systems and method of use thereof
US11289873B2 (en) 2018-04-09 2022-03-29 Innovusion Ireland Limited LiDAR systems and methods for exercising precise control of a fiber laser
DE102018109544A1 (de) * 2018-04-20 2019-10-24 Sick Ag Optoelektronischer Sensor und Verfahren zur Abstandsbestimmung
WO2019241396A1 (en) 2018-06-15 2019-12-19 Innovusion Ireland Limited Lidar systems and methods for focusing on ranges of interest
DE102018118653B4 (de) 2018-08-01 2020-07-30 Sick Ag Optoelektronischer Sensor und Verfahren zum Erfassen eines Objekts
KR102398080B1 (ko) * 2018-08-03 2022-05-16 옵시스 테크 엘티디 분산 모듈형 솔리드-스테이트 광 검출 및 거리 측정 시스템
US11473970B2 (en) 2018-08-09 2022-10-18 Ouster, Inc. Subpixel apertures for channels in a scanning sensor array
US10739189B2 (en) 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
US11579300B1 (en) 2018-08-21 2023-02-14 Innovusion, Inc. Dual lens receive path for LiDAR system
US11860316B1 (en) 2018-08-21 2024-01-02 Innovusion, Inc. Systems and method for debris and water obfuscation compensation for use in LiDAR systems
US11796645B1 (en) 2018-08-24 2023-10-24 Innovusion, Inc. Systems and methods for tuning filters for use in lidar systems
US11614526B1 (en) 2018-08-24 2023-03-28 Innovusion, Inc. Virtual windows for LIDAR safety systems and methods
US11579258B1 (en) 2018-08-30 2023-02-14 Innovusion, Inc. Solid state pulse steering in lidar systems
US20200088512A1 (en) * 2018-09-18 2020-03-19 Shenzhen GOODIX Technology Co., Ltd. Depth information construction system, associated electronic device, and method for constructing depth information
WO2020102406A1 (en) 2018-11-14 2020-05-22 Innovusion Ireland Limited Lidar systems and methods that use a multi-facet mirror
US10852434B1 (en) * 2018-12-11 2020-12-01 Facebook Technologies, Llc Depth camera assembly using fringe interferometery via multiple wavelengths
US11947038B2 (en) 2018-12-21 2024-04-02 Continental Automotive Systems, Inc. Wavelength adaptive narrow band optical filter for a LIDAR system
US11585906B2 (en) 2018-12-26 2023-02-21 Ouster, Inc. Solid-state electronic scanning laser array with high-side and low-side switches for increased channels
CN113302515A (zh) 2019-01-10 2021-08-24 图达通爱尔兰有限公司 具有光束转向和广角信号检测的lidar系统和方法
US11486970B1 (en) 2019-02-11 2022-11-01 Innovusion, Inc. Multiple beam generation from a single source beam for use with a LiDAR system
EP3699640B1 (de) 2019-02-19 2022-01-26 Sick Ag Optoelektronischer sensor und verfahren zur erfassung eines objekts
JP2020154008A (ja) * 2019-03-18 2020-09-24 キヤノン株式会社 レンズ装置および撮像装置
JP2020153796A (ja) * 2019-03-19 2020-09-24 株式会社リコー 測距装置、及び測距方法
US11977185B1 (en) 2019-04-04 2024-05-07 Seyond, Inc. Variable angle polygon for use with a LiDAR system
EP3953727A4 (de) 2019-04-09 2023-01-04 Opsys Tech Ltd. Festkörperlidar-sender mit lasersteuerung
WO2020223589A1 (en) * 2019-05-01 2020-11-05 Sense Photonics, Inc. Event driven shared memory pixel
KR20220006638A (ko) 2019-05-13 2022-01-17 아우스터, 인크. 전자 스캐닝 lidar 시스템을 위한 동기화된 이미지 캡처
US11448732B2 (en) 2019-05-21 2022-09-20 Northrop Grumman Systems Corporation Frequency modulated scanning LIDAR with 360 degrees field of view
US11531111B2 (en) 2019-05-21 2022-12-20 Northrop Grumman Systems Corporation 360 degrees field of view scanning lidar with no movable parts
US11555891B2 (en) 2019-05-21 2023-01-17 Northrop Grumman Systems Corporation Methods for large angle field of view scanning LIDAR with no movable parts
WO2020242834A1 (en) 2019-05-30 2020-12-03 OPSYS Tech Ltd. Eye-safe long-range lidar system using actuator
KR102538137B1 (ko) 2019-06-10 2023-05-31 옵시스 테크 엘티디 눈-안전 장거리 고체 상태 lidar 시스템
US10861819B1 (en) * 2019-07-05 2020-12-08 Asm Technology Singapore Pte Ltd High-precision bond head positioning method and apparatus
US10701326B1 (en) * 2019-07-10 2020-06-30 Lightspace Technologies, SIA Image display system, method of operating image display system and image projecting device
KR20210020469A (ko) 2019-08-14 2021-02-24 삼성전자주식회사 분광 카메라
DE102019126982A1 (de) 2019-10-08 2021-04-08 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten
KR20210046971A (ko) 2019-10-21 2021-04-29 삼성전자주식회사 복수-입력 폴디드 카메라 및 이를 포함하는 모바일 장치
DE102019129986A1 (de) 2019-11-07 2021-05-12 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten
CN111123239B (zh) * 2019-12-20 2022-08-16 深圳市速腾聚创科技有限公司 接收装置、收发装置和激光雷达
US20230019676A1 (en) * 2019-12-26 2023-01-19 Ams International Ag A sensing system
DE102020102247A1 (de) 2020-01-30 2021-08-05 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten
CN113472995B (zh) * 2020-03-31 2022-12-06 深圳市安思疆科技有限公司 一种基于spad传感器接收模组的动态自动对焦系统及方法
US11695911B2 (en) 2020-04-27 2023-07-04 Ouster, Inc. Stereoscopic image capturing systems
US11876109B2 (en) * 2020-05-06 2024-01-16 Semiconductor Components Industries, Llc Semiconductor devices with single-photon avalanche diodes and light spreading lenses
DE102020209849A1 (de) 2020-08-05 2022-02-10 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln eines optischen Übersprechens eines Lidar-Sensors und Lidar-Sensor
US11579265B2 (en) 2020-08-19 2023-02-14 Continental Autonomous Mobility US, LLC Lidar system with crosstalk reduction comprising a power supply circuit layer stacked between an avalanche-type diode layer and a read-out circuit layer
US11977169B2 (en) 2020-08-24 2024-05-07 Innoviz Technologies Ltd. Multi-beam laser emitter with common optical path
EP4001866A1 (de) * 2020-11-20 2022-05-25 STMicroelectronics S.r.l. Strahlungssensor mit integriertem mechanischem optischem modulator und zugehöriges herstellungsverfahren
TWI833561B (zh) * 2020-12-26 2024-02-21 以色列商趣眼有限公司 感測器、校正焦平面陣列中飽和檢測結果的方法及檢測物體深度資訊的方法
WO2022144246A1 (en) * 2021-01-04 2022-07-07 Signify Holding B.V. A disinfection system comprising an optical arrangement for a far uv light source to filter out undesired wavelengths
US11422267B1 (en) 2021-02-18 2022-08-23 Innovusion, Inc. Dual shaft axial flux motor for optical scanners
EP4260086A1 (de) 2021-03-01 2023-10-18 Innovusion, Inc. Faserbasierte sender- und empfängerkanäle von lichtdetektions- und entfernungsmesssystemen
CN112965243B (zh) * 2021-03-10 2022-10-04 北京航空航天大学 一种紧凑型眼纹(巩膜血管)成像装置
WO2022195537A1 (en) * 2021-03-17 2022-09-22 The Trustees Of Princeton University Microlens amplitude masks for flying pixel removal in time-of-flight imaging
US20220333911A1 (en) * 2021-04-20 2022-10-20 Egis Technology Inc. Distance sensing apparatus
US11555895B2 (en) 2021-04-20 2023-01-17 Innovusion, Inc. Dynamic compensation to polygon and motor tolerance using galvo control profile
US11614521B2 (en) 2021-04-21 2023-03-28 Innovusion, Inc. LiDAR scanner with pivot prism and mirror
US11662439B2 (en) 2021-04-22 2023-05-30 Innovusion, Inc. Compact LiDAR design with high resolution and ultra-wide field of view
CN113156557B (zh) * 2021-04-30 2023-02-21 浙江光珀智能科技有限公司 一种光学面罩及光学系统
US11624806B2 (en) 2021-05-12 2023-04-11 Innovusion, Inc. Systems and apparatuses for mitigating LiDAR noise, vibration, and harshness
CN117413199A (zh) 2021-05-21 2024-01-16 图达通智能美国有限公司 使用lidar扫描仪内部的检流计镜进行智能扫描的移动配置文件
US11768294B2 (en) 2021-07-09 2023-09-26 Innovusion, Inc. Compact lidar systems for vehicle contour fitting
WO2023018146A1 (ko) * 2021-08-09 2023-02-16 주식회사 위멤스 스캐닝 미러 기반의 라이다 장치
DE102021124430B3 (de) 2021-09-21 2022-11-03 Sick Ag Visualisieren von Lidar-Messdaten
WO2023131509A1 (en) 2022-01-04 2023-07-13 Signify Holding B.V. A radiation generating system comprising an optical arrangement for a far uv light source minimizing the impact of unfiltered undesired wavelengths
WO2023147143A1 (en) * 2022-01-30 2023-08-03 Ouster, Inc. Overlapping sub-ranges with power stepping
US11871130B2 (en) 2022-03-25 2024-01-09 Innovusion, Inc. Compact perception device
US20230375679A1 (en) * 2022-05-17 2023-11-23 Stmicroelectronics (Research & Development) Limited Quantum film direct time of flight sensor circuit for low cost short wave infrared operation
CN115966865B (zh) * 2022-12-29 2024-06-14 中国电子科技集团公司第二十六研究所 一种基于三维堆叠产生带外零点的mems滤波器及其制作方法

Family Cites Families (261)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US672262A (en) * 1900-11-16 1901-04-16 Charles Hook Adrean Harness attachment.
US4358851A (en) 1980-02-28 1982-11-09 Xerox Corporation Fiber optic laser device and light emitter utilizing the device
US4602289A (en) 1982-05-31 1986-07-22 Tokyo Shibaura Denki Kabushiki Kaisha Solid state image pick-up device
JPS58211677A (ja) 1982-06-02 1983-12-09 Nissan Motor Co Ltd 光レ−ダ装置
DE3426868A1 (de) 1984-07-20 1986-01-30 LITEF Litton Technische Werke der Hellige GmbH, 7800 Freiburg Verfahren und einrichtung zur drehratenauslesung mittels eines passiven optischen resonators
US4676599A (en) 1985-08-14 1987-06-30 The United States Of America As Represented By The Secretary Of The Air Force Micro-optical lens holder
US4744667A (en) 1986-02-11 1988-05-17 University Of Massachusetts Microspectrofluorimeter
US4851664A (en) 1988-06-27 1989-07-25 United States Of America As Represented By The Secretary Of The Navy Narrow band and wide angle hemispherical interference optical filter
JPH036407A (ja) 1989-06-03 1991-01-11 Daido Steel Co Ltd 外周形状測定装置
NL9100248A (nl) 1991-02-13 1992-09-01 Philips & Du Pont Optical Inrichting voor het meten van de reflectie en/of transmissie van een voorwerp.
US5267016A (en) 1991-11-27 1993-11-30 United Technologies Corporation Laser diode distance measurement
US5188286A (en) 1991-12-18 1993-02-23 International Business Machines Corporation Thermoelectric piezoelectric temperature control
US5288992A (en) 1992-12-15 1994-02-22 Gte Laboratories Incorporated Wide angle, narrow band optical filter
US6133989A (en) 1993-02-09 2000-10-17 Advanced Scientific Concepts, Inc. 3D imaging laser radar
JPH0749417A (ja) 1993-08-06 1995-02-21 Fujitsu Ltd 干渉フィルタアセンブリ
JP3404607B2 (ja) * 1993-09-30 2003-05-12 株式会社小松製作所 共焦点光学装置
WO1995009346A1 (fr) * 1993-09-30 1995-04-06 Kabushiki Kaisha Komatsu Seisakusho Appareil optique a foyer commun
JP2919267B2 (ja) 1994-05-26 1999-07-12 松下電工株式会社 形状検出方法およびその装置
JP3251150B2 (ja) 1994-12-29 2002-01-28 日本板硝子株式会社 平板マイクロレンズアレイおよびその製造方法
JP3350918B2 (ja) * 1996-03-26 2002-11-25 株式会社高岳製作所 2次元配列型共焦点光学装置
US6043873A (en) 1997-01-10 2000-03-28 Advanced Optical Technologies, Llc Position tracking system
JPH09331107A (ja) 1996-06-11 1997-12-22 Canon Inc 波長可変光源及びその波長制御方法及び波長多重通信ネットワーク
GB9618720D0 (en) 1996-09-07 1996-10-16 Philips Electronics Nv Electrical device comprising an array of pixels
JP3816632B2 (ja) 1997-05-14 2006-08-30 オリンパス株式会社 走査型顕微鏡
US6362482B1 (en) 1997-09-16 2002-03-26 Advanced Scientific Concepts, Inc. High data rate smart sensor technology
US6721262B1 (en) 1997-09-22 2004-04-13 Seagate Technology Llc Aperture stop for a flying optical head
US5953110A (en) 1998-04-23 1999-09-14 H.N. Burns Engineering Corporation Multichannel laser radar
JP2000138792A (ja) 1998-10-30 2000-05-16 Sharp Corp イメージセンサ及びその製造方法
US6201293B1 (en) 1998-11-19 2001-03-13 Xerox Corporation Electro optical devices with reduced filter thinning on the edge pixel photosites and method of producing same
EP1159636B1 (de) 1999-03-18 2003-05-28 Siemens Aktiengesellschaft Ortsauflösendes abstandsmesssystem
US6564168B1 (en) 1999-09-14 2003-05-13 Immersion Corporation High-resolution optical encoder with phased-array photodetectors
US6414746B1 (en) 1999-11-24 2002-07-02 Advanced Scientific Concepts, Inc. 3-D imaging multiple target laser radar
TW527518B (en) * 2000-07-14 2003-04-11 Massachusetts Inst Technology Method and system for high resolution, ultra fast, 3-D imaging
US7045833B2 (en) * 2000-09-29 2006-05-16 Board Of Regents, The University Of Texas System Avalanche photodiodes with an impact-ionization-engineered multiplication region
DE10110420A1 (de) 2001-03-05 2002-09-12 Sick Ag Vorrichtung zur Bestimmung eines Abstandsprofils
US6707230B2 (en) 2001-05-29 2004-03-16 University Of North Carolina At Charlotte Closed loop control systems employing relaxor ferroelectric actuators
DE10127204A1 (de) 2001-06-05 2003-03-20 Ibeo Automobile Sensor Gmbh Erfassungsverfahren und - vorrichtung
DE10153977B4 (de) 2001-11-06 2004-08-26 Martin Spies System zur Erzeugung eines Entfernungsbildes mit elektromagnetischen Impulsen
US7091462B2 (en) 2002-08-26 2006-08-15 Jds Uniphase Corporation Transmitter with laser monitoring and wavelength stabilization circuit
DE10244641A1 (de) 2002-09-25 2004-04-08 Ibeo Automobile Sensor Gmbh Optoelektronische Erfassungseinrichtung
WO2004066352A2 (en) 2003-01-23 2004-08-05 Orbotech Ltd. System and method for providing high brightness illumination
JP4427954B2 (ja) 2003-02-13 2010-03-10 アイシン精機株式会社 監視装置
US20040223071A1 (en) * 2003-05-08 2004-11-11 David Wells Multiple microlens system for image sensors or display units
WO2005017489A2 (en) 2003-07-11 2005-02-24 Svt Associates, Inc. Film mapping system
US7266248B2 (en) * 2003-08-08 2007-09-04 Hewlett-Packard Development Company, L.P. Method and apparatus for generating data representative of an image
DE10345555A1 (de) * 2003-09-30 2005-05-04 Osram Opto Semiconductors Gmbh Strahlungsemittierendes und -empfangendes Halbleiterbauelement und Verfahren zu dessen Herstellung
US7433042B1 (en) 2003-12-05 2008-10-07 Surface Optics Corporation Spatially corrected full-cubed hyperspectral imager
US7808706B2 (en) 2004-02-12 2010-10-05 Tredegar Newco, Inc. Light management films for displays
DE102004014041B4 (de) 2004-03-19 2006-04-06 Martin Spies Sensor zur Hinderniserkennung
US7738026B2 (en) * 2005-05-02 2010-06-15 Andrew G. Cartlidge Increasing fill-factor on pixelated sensors
US7279764B2 (en) * 2004-06-01 2007-10-09 Micron Technology, Inc. Silicon-based resonant cavity photodiode for image sensors
USD531525S1 (en) 2004-11-02 2006-11-07 Sick Ag Optoelectronic sensor
US20090295910A1 (en) 2005-03-24 2009-12-03 Jose Mir Hyperspectral Imaging System and Methods Thereof
US8355767B2 (en) 2005-04-27 2013-01-15 Massachusetts Institute Of Technology Raman spectroscopy for non-invasive glucose measurements
US8294809B2 (en) 2005-05-10 2012-10-23 Advanced Scientific Concepts, Inc. Dimensioning system
EP2703871A3 (de) 2005-05-25 2014-09-03 Massachusetts Institute Of Technology Multifokale Rastermikroskopie-Systeme und -Verfahren
EP1764835B1 (de) 2005-09-19 2008-01-23 CRF Societa'Consortile per Azioni Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren
JP4967296B2 (ja) 2005-10-03 2012-07-04 株式会社ニコン 撮像素子、焦点検出装置、および、撮像システム
US8130367B2 (en) 2005-12-08 2012-03-06 Roger Stettner Laser ranging, tracking and designation using 3-D focal planes
US7421159B2 (en) 2005-12-13 2008-09-02 Board of Supervisor of Louisiana State University and Agricultural and Mechanical College Integral pre-aligned micro-optical systems
WO2007071032A1 (en) 2005-12-19 2007-06-28 Institut National D'optique Object-detecting lighting system and method
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
US7544945B2 (en) 2006-02-06 2009-06-09 Avago Technologies General Ip (Singapore) Pte. Ltd. Vertical cavity surface emitting laser (VCSEL) array laser scanner
US7423821B2 (en) * 2006-03-24 2008-09-09 Gentex Corporation Vision system
GB0608923D0 (en) 2006-05-05 2006-06-14 Visitech Internat Ltd 2-d array laser confocal scanning microscope and methods of improving image quality in such microscope
KR100782470B1 (ko) * 2006-05-22 2007-12-05 삼성에스디아이 주식회사 레이저 조사장치 및 그를 이용한 유기전계발광소자의제조방법
US7873601B1 (en) 2006-06-29 2011-01-18 Emc Corporation Backup of incremental metadata in block based backup systems
CN101688774A (zh) 2006-07-13 2010-03-31 威力登音响公司 高精确度激光雷达系统
US8767190B2 (en) 2006-07-13 2014-07-01 Velodyne Acoustics, Inc. High definition LiDAR system
EP1901093B1 (de) 2006-09-15 2018-11-14 Triple-IN Holding AG Aufnahme von Entfernungsbildern
JP2010512536A (ja) 2006-12-12 2010-04-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 温度補償機能を備えるセンサ濃度検出器
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
TWI433052B (zh) 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
EP1978394A1 (de) * 2007-04-06 2008-10-08 Global Bionic Optics Pty Ltd. Optisches System zum Vergrößern der Tiefenschärfe
CA2635155C (en) 2007-06-18 2015-11-24 Institut National D'optique Method for detecting objects with visible light
WO2008155770A2 (en) 2007-06-19 2008-12-24 Prime Sense Ltd. Distance-varying illumination and imaging techniques for depth mapping
CA2710212C (en) 2007-12-21 2014-12-09 Leddartech Inc. Detection and ranging methods and systems
TWI358606B (en) 2007-12-28 2012-02-21 Ind Tech Res Inst Method for three-dimension (3d) measurement and an
US8384997B2 (en) 2008-01-21 2013-02-26 Primesense Ltd Optical pattern projection
ATE543105T1 (de) 2008-03-20 2012-02-15 Sick Ag Omnidirektionales lidar system
EP2283383B1 (de) * 2008-04-11 2013-07-17 École Polytechnique Fédérale de Lausanne (EPFL) Auf laufzeit basierendes abbildungssystem, das ein display als beleuchtungsquelle benutzt
US9041915B2 (en) 2008-05-09 2015-05-26 Ball Aerospace & Technologies Corp. Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR
WO2010006081A1 (en) * 2008-07-08 2010-01-14 Chiaro Technologies, Inc. Multiple channel locating
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
CN201298079Y (zh) 2008-11-17 2009-08-26 南京德朔实业有限公司 激光测距装置
JP2010128122A (ja) 2008-11-27 2010-06-10 Olympus Corp 撮像装置
US20100204964A1 (en) 2009-02-09 2010-08-12 Utah State University Lidar-assisted multi-image matching for 3-d model and sensor pose refinement
US9164689B2 (en) 2009-03-30 2015-10-20 Oracle America, Inc. Data storage system and method of processing a data access request
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US7876456B2 (en) 2009-05-11 2011-01-25 Mitutoyo Corporation Intensity compensation for interchangeable chromatic point sensor components
US8743176B2 (en) 2009-05-20 2014-06-03 Advanced Scientific Concepts, Inc. 3-dimensional hybrid camera and production system
WO2010141631A1 (en) 2009-06-02 2010-12-09 Velodyne Acoustics, Inc. Color lidar scanner
US8504529B1 (en) 2009-06-19 2013-08-06 Netapp, Inc. System and method for restoring data to a storage device based on a backup image
EP2446301B1 (de) * 2009-06-22 2018-08-01 Toyota Motor Europe Optischer pulslichtentfernungsmesser
US8478799B2 (en) 2009-06-26 2013-07-02 Simplivity Corporation Namespace file system accessing an object store
US8803967B2 (en) 2009-07-31 2014-08-12 Mesa Imaging Ag Time of flight camera with rectangular field of illumination
US8330840B2 (en) 2009-08-06 2012-12-11 Aptina Imaging Corporation Image sensor with multilayer interference filters
US7995708B2 (en) 2009-08-14 2011-08-09 Varian Medical Systems, Inc. X-ray tube bearing shaft and hub
CN102006402B (zh) 2009-08-28 2014-02-19 鸿富锦精密工业(深圳)有限公司 摄像装置及其身份识别方法
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
US20110116262A1 (en) 2009-11-13 2011-05-19 Phoseon Technology, Inc. Economical partially collimating reflective micro optical array
JP5588310B2 (ja) 2009-11-15 2014-09-10 プライムセンス リミテッド ビームモニタ付き光学プロジェクタ
EP2502115A4 (de) * 2009-11-20 2013-11-06 Pelican Imaging Corp Aufnahme und verarbeitung von bildern mittels eines monolithischen kameraarrays mit heterogenem bildwandler
US20150358601A1 (en) 2009-12-23 2015-12-10 Mesa Imaging Ag Optical Filter on Objective Lens for 3D Cameras
US8605761B2 (en) 2010-01-18 2013-12-10 Optical Physics Company Multi-beam laser control system and method
US8786757B2 (en) 2010-02-23 2014-07-22 Primesense Ltd. Wideband ambient light rejection
US20110242355A1 (en) * 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
US8799414B2 (en) 2010-05-03 2014-08-05 Panzura, Inc. Archiving data for a distributed filesystem
US9811532B2 (en) 2010-05-03 2017-11-07 Panzura, Inc. Executing a cloud command for a distributed filesystem
US8805967B2 (en) 2010-05-03 2014-08-12 Panzura, Inc. Providing disaster recovery for a distributed filesystem
US9742564B2 (en) 2010-05-14 2017-08-22 Oracle International Corporation Method and system for encrypting data
US8612699B2 (en) 2010-06-25 2013-12-17 International Business Machines Corporation Deduplication in a hybrid storage environment
NL2004996C2 (nl) 2010-06-29 2011-12-30 Cyclomedia Technology B V Werkwijze voor het vervaardigen van een digitale foto, waarbij ten minste een deel van de beeldelementen positieinformatie omvatten en een dergelijke digitale foto.
DE102010031535A1 (de) * 2010-07-19 2012-01-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes
USD659030S1 (en) 2010-07-30 2012-05-08 Sick Ag Optoelectronic sensor
US8736818B2 (en) 2010-08-16 2014-05-27 Ball Aerospace & Technologies Corp. Electronically steered flash LIDAR
WO2012055966A1 (en) 2010-10-27 2012-05-03 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Protecting data integrity with storage leases
US8285133B2 (en) 2010-12-03 2012-10-09 Research In Motion Limited Dynamic lighting control in hybrid camera-projector device
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
JP2012128270A (ja) 2010-12-16 2012-07-05 Denso Corp 干渉フィルタアセンブリ
EP2469295A1 (de) * 2010-12-23 2012-06-27 André Borowski Echtzeit-3D-Landschaft-Bildwandler und entsprechende Bildgebungsverfahren
EP2469301A1 (de) 2010-12-23 2012-06-27 André Borowski Verfahren und Vorrichtungen zur Erzeugung einer Repräsentation einer 3D-Szene bei sehr hoher Geschwindigkeit
US8717488B2 (en) 2011-01-18 2014-05-06 Primesense Ltd. Objective optics with interference filter
JP2012202776A (ja) 2011-03-24 2012-10-22 Toyota Central R&D Labs Inc 距離測定装置
US8908159B2 (en) 2011-05-11 2014-12-09 Leddartech Inc. Multiple-field-of-view scannerless optical rangefinder in high ambient background light
WO2012174401A2 (en) 2011-06-16 2012-12-20 Lenny Lipton Stereoscopic camera with polarizing apertures
DE102011107360A1 (de) 2011-06-29 2013-01-03 Karlsruher Institut für Technologie Mikrooptisches Element, mikrooptisches Array und optisches Sensorensystem
US8645810B2 (en) 2011-07-31 2014-02-04 Sandisk Technologies Inc. Fast detection of convergence or divergence in iterative decoding
US8908277B2 (en) * 2011-08-09 2014-12-09 Apple Inc Lens array projector
US8849759B2 (en) 2012-01-13 2014-09-30 Nexenta Systems, Inc. Unified local storage supporting file and cloud object access
DE102011052802B4 (de) 2011-08-18 2014-03-13 Sick Ag 3D-Kamera und Verfahren zur Überwachung eines Raumbereichs
US8797512B2 (en) 2011-09-15 2014-08-05 Advanced Scientific Concepts, Inc. Automatic range corrected flash ladar camera
US20160150963A1 (en) * 2011-09-26 2016-06-02 Michael Lee Roukes One-photon integrated neurophotonic systems
WO2013064507A1 (en) * 2011-11-04 2013-05-10 Imec Spectral camera with overlapping segments of image copies interleaved onto sensor array
US8762798B2 (en) 2011-11-16 2014-06-24 Stec, Inc. Dynamic LDPC code rate solution
US8743923B2 (en) * 2012-01-31 2014-06-03 Flir Systems Inc. Multi-wavelength VCSEL array to reduce speckle
WO2013121267A1 (en) 2012-02-15 2013-08-22 Mesa Imaging Ag Time of flight camera with stripe illumination
CN104160240B (zh) 2012-02-15 2017-02-22 苹果公司 扫描深度引擎
JP2013181912A (ja) 2012-03-02 2013-09-12 Seiko Epson Corp 成分分析装置
EP2828833B1 (de) 2012-03-22 2017-03-08 Apple Inc. Hängende abtastspiegelanordnung
US9335220B2 (en) 2012-03-22 2016-05-10 Apple Inc. Calibration of time-of-flight measurement using stray reflections
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US9071763B1 (en) 2012-09-26 2015-06-30 Google Inc. Uniform illumination image capture
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9398264B2 (en) * 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US9111444B2 (en) 2012-10-31 2015-08-18 Raytheon Company Video and lidar target detection and tracking system and method for segmenting moving targets
US9281841B2 (en) 2012-10-31 2016-03-08 Avago Technologies General Ip (Singapore) Pte. Ltd. Load balanced decoding of low-density parity-check codes
US9648214B2 (en) 2012-11-21 2017-05-09 Nokia Technologies Oy Module for plenoptic camera system
KR102004987B1 (ko) 2012-12-11 2019-07-29 삼성전자주식회사 광자 계수 검출 장치 및 독출 회로
US9823351B2 (en) 2012-12-18 2017-11-21 Uber Technologies, Inc. Multi-clad fiber based optical apparatus and methods for light detection and ranging sensors
CN103048046B (zh) * 2012-12-21 2015-02-25 浙江大学 双光束光谱仪
US20160047901A1 (en) 2012-12-25 2016-02-18 Quanergy Systems, Inc. Robust lidar sensor for broad weather, shock and vibration conditions
WO2014102341A1 (en) 2012-12-31 2014-07-03 Iee International Electronics & Engineering S.A. Optical system generating a structured light field from an array of light sources by meand of a refracting or reflecting light structuring element
US9285477B1 (en) 2013-01-25 2016-03-15 Apple Inc. 3D depth point cloud from timing flight of 2D scanned light beam pulses
US20140211194A1 (en) 2013-01-27 2014-07-31 Quanergy Systems, Inc. Cost-effective lidar sensor for multi-signal detection, weak signal detection and signal disambiguation and method of using same
US9063549B1 (en) 2013-03-06 2015-06-23 Google Inc. Light detection and ranging device with oscillating mirror driven by magnetically interactive coil
US9086273B1 (en) 2013-03-08 2015-07-21 Google Inc. Microrod compression of laser beam in combination with transmit lens
US9470520B2 (en) 2013-03-14 2016-10-18 Apparate International C.V. LiDAR scanner
US9267787B2 (en) 2013-03-15 2016-02-23 Apple Inc. Depth scanning with multiple emitters
WO2014150856A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Array camera implementing quantum dot color filters
CN103234527B (zh) 2013-04-07 2015-06-24 南京理工大学 多光谱光场相机的成像方法
US9164511B1 (en) 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
US10132928B2 (en) 2013-05-09 2018-11-20 Quanergy Systems, Inc. Solid state optical phased array lidar and method of using same
WO2014203110A1 (en) 2013-06-19 2014-12-24 Primesense Ltd. Integrated structured-light projector
US10078137B2 (en) 2013-06-21 2018-09-18 Irvine Sensors Corp. LIDAR device and method for clear and degraded environmental viewing conditions
US20150002636A1 (en) 2013-06-28 2015-01-01 Cable Television Laboratories, Inc. Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras
US9551791B2 (en) 2013-07-09 2017-01-24 Xenomatix Nv Surround sensing system
US20150260830A1 (en) 2013-07-12 2015-09-17 Princeton Optronics Inc. 2-D Planar VCSEL Source for 3-D Imaging
US9268012B2 (en) 2013-07-12 2016-02-23 Princeton Optronics Inc. 2-D planar VCSEL source for 3-D imaging
US8742325B1 (en) 2013-07-31 2014-06-03 Google Inc. Photodetector array on curved substrate
CN105593651B (zh) * 2013-08-02 2019-06-07 威利食品有限公司 光谱测定系统和方法、光谱设备和系统
US10126412B2 (en) 2013-08-19 2018-11-13 Quanergy Systems, Inc. Optical phased array lidar system and method of using same
US8836922B1 (en) 2013-08-20 2014-09-16 Google Inc. Devices and methods for a rotating LIDAR platform with a shared transmit/receive path
JP6476658B2 (ja) * 2013-09-11 2019-03-06 ソニー株式会社 画像処理装置および方法
JP2015055314A (ja) 2013-09-12 2015-03-23 日本精工株式会社 電動モータ、電動パワーステアリング装置及び動力伝達機構
US9299731B1 (en) 2013-09-30 2016-03-29 Google Inc. Systems and methods for selectable photodiode circuits
US9368936B1 (en) 2013-09-30 2016-06-14 Google Inc. Laser diode firing system
US9425654B2 (en) 2013-09-30 2016-08-23 Google Inc. Contactless electrical coupling for a rotatable LIDAR device
WO2015052616A1 (en) 2013-10-09 2015-04-16 Koninklijke Philips N.V. Monolithic led arrays for uniform and high-brightness light sources
JP6314418B2 (ja) 2013-10-18 2018-04-25 株式会社デンソー レーダ装置
TWI533179B (zh) * 2013-10-25 2016-05-11 緯創資通股份有限公司 光學觸控系統、觸控偵測方法及電腦程式產品
US9299732B2 (en) 2013-10-28 2016-03-29 Omnivision Technologies, Inc. Stacked chip SPAD image sensor
US20150124094A1 (en) 2013-11-05 2015-05-07 Delphi Technologies, Inc. Multiple imager vehicle optical sensor system
US10203399B2 (en) 2013-11-12 2019-02-12 Big Sky Financial Corporation Methods and apparatus for array based LiDAR systems with reduced interference
CN106463565B (zh) 2013-11-22 2018-06-01 优步技术公司 激光雷达扫描仪校准
US9733344B2 (en) 2013-11-25 2017-08-15 Electronics And Telecommunications Research Institute Laser radar apparatus and method for operating thereof
JP6292533B2 (ja) 2013-12-06 2018-03-14 株式会社リコー 物体検出装置及びセンシング装置
KR101582572B1 (ko) 2013-12-24 2016-01-11 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
US20150186287A1 (en) 2013-12-30 2015-07-02 Michael Henry Kass Using Memory System Programming Interfacing
US20150192677A1 (en) 2014-01-03 2015-07-09 Quanergy Systems, Inc. Distributed lidar sensing system for wide field of view three dimensional mapping and method of using same
US10061111B2 (en) * 2014-01-17 2018-08-28 The Trustees Of Columbia University In The City Of New York Systems and methods for three dimensional imaging
JP2015137987A (ja) 2014-01-24 2015-07-30 アズビル株式会社 距離センサおよび距離計測方法
JP5999121B2 (ja) 2014-02-17 2016-09-28 横河電機株式会社 共焦点光スキャナ
CN111781583B (zh) 2014-03-14 2024-05-14 赫普塔冈微光有限公司 可操作以识别虚假反射并补偿由虚假反射导致的误差的光电模块
WO2015163074A1 (ja) 2014-04-22 2015-10-29 シャープ株式会社 光学センサシステム、光学式ガスセンサシステム、微粒子センサシステム、発光装置、および画像印刷装置
US20170026588A1 (en) 2014-05-01 2017-01-26 Rebellion Photonics, Inc. Dual-band divided-aperture infra-red spectral imaging system
US9754192B2 (en) 2014-06-30 2017-09-05 Microsoft Technology Licensing, Llc Object detection utilizing geometric information fused with image data
US9753351B2 (en) 2014-06-30 2017-09-05 Quanergy Systems, Inc. Planar beam forming and steering optical phased array chip and method of using same
US9575184B2 (en) 2014-07-03 2017-02-21 Continental Advanced Lidar Solutions Us, Inc. LADAR sensor for a dense environment
US9869753B2 (en) 2014-08-15 2018-01-16 Quanergy Systems, Inc. Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same
JP6789926B2 (ja) 2014-08-15 2020-11-25 エイアイ インコーポレイテッドAEYE, Inc. Ladar伝送のための方法及びシステム
US10709365B2 (en) 2014-08-21 2020-07-14 I. R. Med Ltd. System and method for noninvasive analysis of subcutaneous tissue
EP3002548B1 (de) 2014-10-02 2016-09-14 Sick Ag Beleuchtungseinrichtung und Verfahren zum Erzeugen eines Beleuchtungsfeldes
US9772405B2 (en) 2014-10-06 2017-09-26 The Boeing Company Backfilling clouds of 3D coordinates
US10036803B2 (en) * 2014-10-20 2018-07-31 Quanergy Systems, Inc. Three-dimensional lidar sensor based on two-dimensional scanning of one-dimensional optical emitter and method of using same
JP2016092146A (ja) 2014-10-31 2016-05-23 セイコーエプソン株式会社 量子干渉装置、原子発振器、電子機器および移動体
US10199801B2 (en) 2014-11-10 2019-02-05 Sanhe Laserconn Tech Co., Ltd. High-power semiconductor laser based on VCSEL and optical convergence method therefor
US9330464B1 (en) 2014-12-12 2016-05-03 Microsoft Technology Licensing, Llc Depth camera feedback
EP3045936A1 (de) 2015-01-13 2016-07-20 XenomatiX BVBA Umgebungsabtastsystem mit telezentrischer Optik
EP3045935A1 (de) 2015-01-13 2016-07-20 XenomatiX BVBA Umgebendes Erfassungssystem mit Dome-Filteranordnung
WO2016116733A1 (en) 2015-01-20 2016-07-28 Milan Momcilo Popovich Holographic waveguide lidar
WO2016125165A2 (en) 2015-02-05 2016-08-11 Verifood, Ltd. Spectrometry system with visible aiming beam
US9369689B1 (en) 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
US10215553B2 (en) 2015-03-12 2019-02-26 Apple Inc. Thin PSD for laser-scanning systems
JP6671629B2 (ja) 2015-03-18 2020-03-25 株式会社リコー 物体検出装置、センシング装置、及び移動体装置
US9529079B1 (en) 2015-03-26 2016-12-27 Google Inc. Multiplexed multichannel photodetector
US9651658B2 (en) 2015-03-27 2017-05-16 Google Inc. Methods and systems for LIDAR optics alignment
US9880263B2 (en) 2015-04-06 2018-01-30 Waymo Llc Long range steerable LIDAR system
US9911774B2 (en) 2015-04-14 2018-03-06 Massachusetts Institute Of Technology Photodiode placement for cross talk suppression
US9525863B2 (en) 2015-04-29 2016-12-20 Apple Inc. Time-of-flight depth mapping with flexible scan pattern
EP3091272B1 (de) 2015-05-05 2018-01-03 Sick Ag Lichtgitter
JP6789251B2 (ja) 2015-07-08 2020-11-25 ザ コモンウェルス オブ オーストラリアThe Commonwealth Of Australia Spadアレイ構造及び動作方法
US9992477B2 (en) 2015-09-24 2018-06-05 Ouster, Inc. Optical system for collecting distance information within a field
US10063849B2 (en) * 2015-09-24 2018-08-28 Ouster, Inc. Optical system for collecting distance information within a field
US9866241B2 (en) 2015-09-25 2018-01-09 SK Hynix Inc. Techniques for adaptive LDPC decoding
EP3159711A1 (de) 2015-10-23 2017-04-26 Xenomatix NV System und verfahren zur bestimmung einer distanz zu einem objekt
US10539661B2 (en) 2015-11-25 2020-01-21 Velodyne Lidar, Inc. Three dimensional LIDAR system with targeted field of view
MX2018009265A (es) * 2016-01-29 2019-05-13 Ouster Inc Sistemas y metodos para calibrar un sensor de distancia optico.
US10627490B2 (en) 2016-01-31 2020-04-21 Velodyne Lidar, Inc. Multiple pulse, LIDAR based 3-D imaging
WO2017132704A1 (en) 2016-01-31 2017-08-03 Velodyne Lidar, Inc. Lidar based 3-d imaging with far-field illumination overlap
EP3430428A4 (de) 2016-03-19 2019-11-20 Velodyne Lidar, Inc. Integrierter beleuchtung und detektion für auf lidar basierende 3d-bildgebung
US9983297B2 (en) 2016-03-21 2018-05-29 Veloyne Lidar, Inc. LIDAR based 3-D imaging with varying illumination field density
CA3017819C (en) 2016-03-21 2023-03-14 Velodyne Lidar, Inc. Lidar based 3-d imaging with varying illumination intensity
CN108885263B (zh) 2016-03-21 2024-02-23 威力登激光雷达有限公司 具有可变脉冲重复的基于lidar的3d成像
US10291261B2 (en) 2016-04-25 2019-05-14 SK Hynix Inc. Early selection decoding and automatic tuning
US10393877B2 (en) 2016-06-01 2019-08-27 Velodyne Lidar, Inc. Multiple pixel scanning LIDAR
US20180032396A1 (en) 2016-07-29 2018-02-01 Sandisk Technologies Llc Generalized syndrome weights
SG11201901600WA (en) * 2016-08-24 2019-03-28 Ouster Inc Optical system for collecting distance information within a field
AU2017330180B2 (en) 2016-09-26 2019-06-27 Ouster, Inc. Optical system for collecting distance information within a field
EP3301477A1 (de) 2016-10-03 2018-04-04 Xenomatix NV System zur bestimmung einer distanz zu einem objekt
EP3301478A1 (de) 2016-10-03 2018-04-04 Xenomatix NV System zur bestimmung einer distanz zu einem objekt
EP3301479A1 (de) 2016-10-03 2018-04-04 Xenomatix NV Verfahren zur subtraktion des hintergrundlichts aus einem belichtungswert eines pixels in einem abbildungsarray und pixel zur verwendung darin
EP3301480A1 (de) 2016-10-03 2018-04-04 Xenomatix NV System und verfahren zur bestimmung einer distanz zu einem objekt
EP3316000A1 (de) 2016-10-28 2018-05-02 Xenomatix NV Fahrzeugsystem zum messen des abstands zu einem objekt und installationsverfahren dafür
EP3343246A1 (de) 2016-12-30 2018-07-04 Xenomatix NV System zur charakterisierung der umgebung eines fahrzeugs
US11105925B2 (en) * 2017-03-01 2021-08-31 Ouster, Inc. Accurate photo detector measurements for LIDAR
EP3392674A1 (de) 2017-04-23 2018-10-24 Xenomatix NV Pixelstruktur
WO2018213338A1 (en) * 2017-05-15 2018-11-22 Ouster, Inc. Augmenting panoramic lidar results with color
US11131773B2 (en) 2017-05-15 2021-09-28 Ouster, Inc. Lidar unit with an optical link between controller and photosensor layer
US10444359B2 (en) 2017-07-05 2019-10-15 Ouster, Inc. Light ranging device with electronically scanned emitter array and synchronized sensor array
US10700706B2 (en) 2017-09-22 2020-06-30 SK Hynix Inc. Memory system with decoders and method of operating such memory system and decoders
US10574274B2 (en) 2017-09-29 2020-02-25 Nyquist Semiconductor Limited Systems and methods for decoding error correcting codes
US10481269B2 (en) * 2017-12-07 2019-11-19 Ouster, Inc. Rotating compact light ranging system
US11005503B2 (en) 2018-03-16 2021-05-11 SK Hynix Inc. Memory system with hybrid decoding scheme and method of operating such memory system
US10739189B2 (en) * 2018-08-09 2020-08-11 Ouster, Inc. Multispectral ranging/imaging sensor arrays and systems
US11473970B2 (en) 2018-08-09 2022-10-18 Ouster, Inc. Subpixel apertures for channels in a scanning sensor array
US11585906B2 (en) 2018-12-26 2023-02-21 Ouster, Inc. Solid-state electronic scanning laser array with high-side and low-side switches for increased channels
US11422265B2 (en) * 2019-03-04 2022-08-23 Ouster, Inc. Driver visualization and semantic monitoring of a vehicle using LiDAR data
JP2022546591A (ja) * 2019-09-06 2022-11-04 アウスター インコーポレイテッド Lidar画像の処理
US11695911B2 (en) * 2020-04-27 2023-07-04 Ouster, Inc. Stereoscopic image capturing systems

Also Published As

Publication number Publication date
IL265562A (en) 2019-05-30
KR20190058588A (ko) 2019-05-29
SE1950477A1 (en) 2019-04-17
DE202017007509U1 (de) 2022-03-15
GB2601435B (en) 2022-11-16
JP7214629B2 (ja) 2023-01-30
US20210306609A1 (en) 2021-09-30
US20200036959A1 (en) 2020-01-30
DK201970244A1 (en) 2019-04-30
US20180152691A1 (en) 2018-05-31
IL265562B2 (en) 2023-06-01
US20230319253A1 (en) 2023-10-05
JP2020501109A (ja) 2020-01-16
US9992477B2 (en) 2018-06-05
CN109983312B (zh) 2022-03-22
US11956410B2 (en) 2024-04-09
US20170289524A1 (en) 2017-10-05
CN114624728A (zh) 2022-06-14
GB2601435A (en) 2022-06-01
US11178381B2 (en) 2021-11-16
US11202056B2 (en) 2021-12-14
DK180852B1 (en) 2022-05-19
KR102309478B1 (ko) 2021-10-07
US20220201267A1 (en) 2022-06-23
KR102425304B1 (ko) 2022-07-25
WO2018057084A1 (en) 2018-03-29
US20210274148A1 (en) 2021-09-02
CA3038038A1 (en) 2018-03-29
US11627298B2 (en) 2023-04-11
US11190750B2 (en) 2021-11-30
US11025885B2 (en) 2021-06-01
GB2569749A (en) 2019-06-26
SE544865C2 (en) 2022-12-13
CN109983312A (zh) 2019-07-05
US11196979B2 (en) 2021-12-07
GB2569749B (en) 2022-04-13
US20180359460A1 (en) 2018-12-13
KR20210122905A (ko) 2021-10-12
GB201905868D0 (en) 2019-06-12
GB202202140D0 (en) 2022-04-06

Similar Documents

Publication Publication Date Title
DE112017004806T5 (de) Optisches system zur sammlung von entfernungsinformationen in einem feld
DE202018006696U1 (de) Optischer Bildübertrager mit Helligkeitsverbesserung
EP2387744B1 (de) Vorrichtung zur optischen navigation
EP2149037B1 (de) Vorrichtung zur lichtdetektion in einem scanmikroskop
DE102018109544A1 (de) Optoelektronischer Sensor und Verfahren zur Abstandsbestimmung
DE112011101667T5 (de) Abtastender 3D-Bildgeber
EP2226648A2 (de) 3D -Bilderzeugungssystem mit Multispektralsensor
DE212017000248U1 (de) LiDAR-Vorrichtung
EP3605139B1 (de) Optoelektronischer sensor und verfahren zur erfassung eines objekts
DE112018003135T5 (de) Rückstreudetektionsmodul
DE102016116309A1 (de) Beleuchtungsmodul für winkelselektive Beleuchtung
WO2020114740A1 (de) Lidar-system sowie kraftfahrzeug
WO2005015284A1 (de) Vorrichtung zum nachweis von photonen eines lichtstrahls
DE102022102009A1 (de) Spektralsensormodul
EP1942322B1 (de) Detektor mit Mikrolinsen-Anordnung
AU2017330180B2 (en) Optical system for collecting distance information within a field
DE102010052701A1 (de) Vorrichtung zum Messen einer Ladungsträgerlebensdauer in einem Halbleitersubstrat
DE102019208430A1 (de) Nicht-invasiver optischer Detektor für innere Substanzen
WO2020187537A1 (de) Lidar-system mit holografischer abbildungsoptik
DE112021002310T5 (de) Emitter hinter anzeige

Legal Events

Date Code Title Description
R138 Derivation of utility model

Ref document number: 202017007509

Country of ref document: DE

R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01J0001020000

Ipc: G01S0007486000