DE112017004806T5 - Optisches system zur sammlung von entfernungsinformationen in einem feld - Google Patents
Optisches system zur sammlung von entfernungsinformationen in einem feld Download PDFInfo
- Publication number
- DE112017004806T5 DE112017004806T5 DE112017004806.0T DE112017004806T DE112017004806T5 DE 112017004806 T5 DE112017004806 T5 DE 112017004806T5 DE 112017004806 T DE112017004806 T DE 112017004806T DE 112017004806 T5 DE112017004806 T5 DE 112017004806T5
- Authority
- DE
- Germany
- Prior art keywords
- optical
- aperture
- pixel
- microoptical
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003287 optical effect Effects 0.000 title claims abstract description 194
- 238000005286 illumination Methods 0.000 claims abstract description 82
- 238000003384 imaging method Methods 0.000 claims description 36
- 238000000034 method Methods 0.000 claims description 34
- 239000000463 material Substances 0.000 claims description 11
- 239000011358 absorbing material Substances 0.000 claims description 6
- 239000004065 semiconductor Substances 0.000 claims description 2
- 230000005670 electromagnetic radiation Effects 0.000 description 16
- 238000005259 measurement Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000001514 detection method Methods 0.000 description 8
- 229920000642 polymer Polymers 0.000 description 7
- 125000006850 spacer group Chemical group 0.000 description 6
- 238000005070 sampling Methods 0.000 description 5
- 238000003491 array Methods 0.000 description 4
- PXHVJJICTQNCMI-UHFFFAOYSA-N Nickel Chemical compound [Ni] PXHVJJICTQNCMI-UHFFFAOYSA-N 0.000 description 2
- 239000011248 coating agent Substances 0.000 description 2
- 238000000576 coating method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000000206 photolithography Methods 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 1
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- BQCADISMDOOEFD-UHFFFAOYSA-N Silver Chemical compound [Ag] BQCADISMDOOEFD-UHFFFAOYSA-N 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000004323 axial length Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 229910052759 nickel Inorganic materials 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/029—Multi-channel photometry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/207—Image signal generators using stereoscopic image cameras using a single 2D image sensor
- H04N13/218—Image signal generators using stereoscopic image cameras using a single 2D image sensor using spatial multiplexing
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/04—Optical or mechanical part supplementary adjustable parts
- G01J1/0407—Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
- G01J1/0411—Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using focussing or collimating elements, i.e. lenses or mirrors; Aberration correction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/04—Optical or mechanical part supplementary adjustable parts
- G01J1/0407—Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings
- G01J1/0437—Optical elements not provided otherwise, e.g. manifolds, windows, holograms, gratings using masks, aperture plates, spatial light modulators, spatial filters, e.g. reflective filters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J1/00—Photometry, e.g. photographic exposure meter
- G01J1/02—Details
- G01J1/08—Arrangements of light sources specially adapted for photometry standard sources, also using luminescent or radioactive material
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4814—Constructional features, e.g. arrangements of optical elements of transmitters alone
- G01S7/4815—Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
- G01S7/4816—Constructional features, e.g. arrangements of optical elements of receivers alone
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/42—Diffraction optics, i.e. systems including a diffractive element being designed for providing a diffractive effect
- G02B27/46—Systems using spatial filters
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B3/00—Simple or compound lenses
- G02B3/0006—Arrays
- G02B3/0037—Arrays characterized by the distribution or form of lenses
- G02B3/0056—Arrays characterized by the distribution or form of lenses arranged along two different directions in a plane, e.g. honeycomb arrangement of lenses
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B30/00—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
- G02B30/20—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
- G02B30/26—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
- G02B30/27—Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/005—Diaphragms
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/208—Filters for use with infrared or ultraviolet radiation, e.g. for separating visible light from infrared and/or ultraviolet radiation
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B6/00—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings
- G02B6/0001—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems
- G02B6/0011—Light guides; Structural details of arrangements comprising light guides and other optical elements, e.g. couplings specially adapted for lighting devices or systems the light guides being planar or of plate-like form
- G02B6/0013—Means for improving the coupling-in of light from the light source into the light guide
- G02B6/0015—Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it
- G02B6/002—Means for improving the coupling-in of light from the light source into the light guide provided on the surface of the light guide or in the bulk of it by shaping at least a portion of the light guide, e.g. with collimating, focussing or diverging surfaces
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14625—Optical elements or arrangements associated with the device
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Health & Medical Sciences (AREA)
- Toxicology (AREA)
- Electromagnetism (AREA)
- Power Engineering (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Measurement Of Optical Distance (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Lenses (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Optical Elements Other Than Lenses (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Automatic Focus Adjustment (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Studio Devices (AREA)
- Semiconductor Lasers (AREA)
- Photo Coupler, Interrupter, Optical-To-Optical Conversion Devices (AREA)
- Light Receiving Elements (AREA)
- Photometry And Measurement Of Optical Pulse Characteristics (AREA)
Abstract
Optisches System zum Erfassen von Abstandsinformation in einem Feld. Das optische System kann Linsen zum Sammeln von Photonen aus einem Feld und Linsen zum Verteilen von Photonen auf ein Feld beinhalten. Das optische System kann Linsen umfassen, die Photonen kollimieren, die durch eine Apertur geleitet werden, optische Filter, die normal einfallendes Licht außerhalb der Betriebswellenlänge zurückweisen, und Pixel, die einfallende Photonen erkennen. Das optische System kann ferner Beleuchtungsquellen umfassen, die Photonen bei einer Betriebswellenlänge ausgeben.
Description
- HINTERGRUND DER ERFINDUNG
- GEBIET DER ERFINDUNG
- Diese Erfindung bezieht sich allgemein auf das Gebiet von optischen Sensoren und insbesondere auf ein neues und nützliches optisches System zum Sammeln von Entfernungsinformationen im Felde der optischen Sensoren.
- Figurenliste
-
-
1 ist die schematische Darstellung eines Systems. -
2 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
3 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
4 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
5 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
6 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
7 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
8 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
9 ist ein Flussdiagramm Darstellung in Übereinstimmung mit einer Variation des Systems. -
10 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. -
11 ist eine schematische Darstellung in Übereinstimmung mit einer Variation des Systems. - DETAILLIERTE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
- Die folgende Beschreibung von Ausführungsformen der Erfindung soll die Erfindung nicht auf diese Ausführungsformen beschränken, sondern vielmehr einem Fachmann ermöglichen, diese Erfindung herzustellen und zu verwenden. Variationen, Konfigurationen, Ausführungen, beispielhafte Ausführungen und Beispiele, die hierin beschrieben sind, sind optional und schließen die Variationen, Konfigurationen, Ausführungen, beispielhaften Ausführungen und Beispiele, die sie beschreiben, nicht aus. Die hier beschriebene Erfindung kann jede Kombination aus diesen Variationen, Konfigurationen, Ausführungen, beispielhaften Ausführungen und Beispielen enthalten.
- EINDIMENSIONALES OPTISCHES SYSTEM: APERTURSANORDNUNG
- Wie in
1 dargestellt, umfasst ein eindimensionales optisches Systems100 zum Sammeln von Entfernungsinformationen in einem Feld Folgendes: einen Satz von Beleuchtungsquellen110 entlang einer ersten Achse, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen110 so ausgebildet ist, dass sie einen Beleuchtungsstrahl mit einer Arbeitswellenlänge zu einem diskreten Punkt in dem Bereich vor der Lichtquelle ausschickt; eine Massenbilderfassungsoptik130 , gekennzeichnet durch eine Fokalebene gegenüber dem Feld; eine Aperturschicht140 , die mit der Fokalebene zusammenfällt, und die einen Satz von Aperturen144 in einem Linienarray parallel zur ersten Achse aufweist, und einen Anschlagsbereich146 um den Satz von Aperturen144 festlegt, wobei jede Apertur in dem Satz von Aperturen144 ein Sichtfeld im Feld definiert, dass mit der diskreten Aussendung eines Punktes durch eine entsprechende Beleuchtungsquelle aus dem Satz von Beleuchtungsquellen110 zusammenfällt, und wobei der Anschlagsbereich146 Lichtstrahlen absorbiert, die von Oberflächen im Feld reflektiert werden und außerhalb der Gesichtsfelder liegen, die durch den Satz von Aperturen144 und durch die Massenbilderfasssungsoptik130 fallen; einen Satz aus Linsen150 , wobei jede Linse in dem Satz von Linsen150 durch eine zweite Brennweite gekennzeichnet ist und deren Fokalebene gegenüber der Massenbilderfassungsoptik130 durch die zweite Brennweite unterschiedlich ist, die jeweils auf eine Apertur in dem Satz von Aperturen144 ausgerichtet und so konfiguriert sind, dass sie Lichtstrahlen durch die Apertur kollimieren; einen optischen Filter160 , der neben dem Satz von Linsen150 gegenüber der Aperturschicht140 ausgebildet ist und die Lichtstrahlen der Betriebswellenlänge durchlässt, ein Satz aus Pixeln170 , die neben dem optischen Filter160 gegenüber dem Satz aus Linsen150 liegen und wobei jedes Pixel in dem Satz aus Pixeln170 einer Linse in dem Satz aus Linsen150 entspricht und einen Satzes aus Subpixel entlang einer zweiten Achse umfasst, die nicht parallel zur ersten Achse ist; und einen Diffusor180 zwischen dem optischen Filter160 und dem Satz aus Pixeln170 , der so konfiguriert ist, dass er kollimiertes Licht von jeder Linse aus dem Satz aus Linsen150 über einen Satz von Subpixeln eines entsprechenden Pixels in dem Satz aus Pixeln170 verteilt. - ANWENDUNGEN
- Im Allgemeinen funktioniert das eindimensionale optische System
100 (das „System“) als Bildsensor, der, wenn er um eine Achse parallel zu einer Spalte von Aperturen gedreht wird, dreidimensionale Abstandsdaten eines durch das System belegten Volumens sammelt. Genauer gesagt kann das eindimensionale optische System100 ein Volumen zum Sammeln von dreidimensionalen Entfernungsdaten abtasten; diese Daten können dann rekonstruiert und in eine virtuelle dreidimensionale Darstellung des Volumens überführt werden; es basiert auf den aufgezeichneten Zeiten zwischen der Aussendung der Beleuchtungsstrahlen von den Beleuchtungsquellen und der Detektion von Photonen - wahrscheinlich aus den Beleuchtungsquellen -, die in den Satz aus Pixeln170 einfallen, und auf Phasenmesstechniken oder auf anderen geeigneten Entfernungsmessverfahren. Das System100 umfasst: eine Spalte von versetzten Aperturen hinter einer Massenbilderfassungsoptik130 , die diskrete Sichtfelder in einem Bereich vor der Massenbilderfassungsoptik130 definiert (das heißt nicht überlappende Sichtfelder außerhalb einer Schwellenentfernung vom System); einen Satz aus Beleuchtungsquellen110 , die einzelne Beleuchtungsstrahlen mit einer Arbeitswellenlänge in (und im Wesentlichen nur in) die Sichtfelder, die durch die Aperturen festgelegt sind, aussendet; eine Spalte von Linsen, die Lichtstrahlen kollimierten, welche durch entsprechende Aperturen weitergeleitet werden; und einen optischen Filter160 , der selektiv ein schmales Band von Lichtwellenlängen leitet (d.h., elektromagnetische Strahlung), einschließlich der Betriebswellenlänge; und einen Satz von Pixeln170 zur Erfassung von einfallenden Photonen (die z.B. die Anzahl der einfallenden Photonen zählt und die Zeiten zwischen nacheinander einfallenden Photonen nachverfolgt). Das System kann daher Beleuchtungsstrahlen selektiv in ein vor dem System befindliches Feld gemäß einem Beleuchtungsmuster projizieren, das im Wesentlichen - in Größe und Geometrie über einen Bereich von Entfernungen von dem System - den Sichtfeldern der Aperturen entspricht. Insbesondere sind die Beleuchtungsquellen so konfiguriert, dass sie im Wesentlichen nur Oberflächen im vor dem System liegenden Feld beleuchten, die von Pixeln im System erfasst werden können, so dass eine minimale Leistungsabgabe durch das System (über die Beleuchtungsquellen) durch Beleuchtungsflächen in dem Feld verschwendet wird, für das die Pixel blind sind. Das System kann daher ein relativ hohes Verhältnis zwischen Ausgangssignal (d. h. der Beleuchtungsstrahlleistung) und Eingangssignal (d. h. Photonen, die zu einem Auftreffen auf das Pixelarray geleitet werden) erreichen. Darüber hinaus kann der Satz aus Linsen150 Lichtstrahlen kollimieren, die durch die benachbarten Aperturen gelangen, so dass einfallende Lichtstrahlen auf das optische Filter160 den optischen Filter160 mit einem Einfallswinkel von etwa 0° erreichen, wodurch ein relativ schmales Band von Lichtwellenlängen durch das optische Filter160 gelangt und ein relativ hoher Rauschabstand („SNR“) für die Lichtstrahlen erreicht wird, die den Satz aus Pixeln170 erreichen. - Das System umfasst Pixel, die in einer Spalte angeordnet und passend zu den Aperturen ausgerichtet sind, und jedes Pixel kann eine nicht quadratische Geometrie (z. B. kurz und breit) aufweisen, um den Erfassungsbereich des Systems für eine feste Apertursteigung und Pixelspaltenhöhe zu erweitern. Das System umfasst auch einen Diffusor
180 , der Lichtstrahlen, die von einer Apertur durch das optische Filter160 geleitet werden, über den Bereich eines entsprechenden Pixels verteilt, so dass das Pixel einfallende Photonen über seine volle Breite und Höhe detektieren kann, wodurch der Dynamikbereich des Systems vergrößert wird. - Das System ist hier als Projektion elektromagnetischer Strahlung in ein Feld und Erfassung der reflektierten elektromagnetischen Strahlung von einer Oberfläche aus dem Feld zur Massenbilderfassungsoptik. Die Begriffe „Beleuchtungsstrahl“, „Licht“, „Lichtstrahlen“ und „Photonen“, die hier angeführt sind, beziehen sich auf eine solche elektromagnetische Strahlung. Der Begriff „Kanal“, der hier zitiert wird, bezieht sich auf eine Apertur in der Aperturschicht
140 , eine entsprechende Linse in dem Satz aus Linsen150 und ein entsprechendes Pixel in dem Satz aus Pixeln170 . - MASSENBILDERFASSUNGSOPTIK
- Das System umfasst eine Massenbilderfasssungsoptik
130 , die durch eine dem Feld gegenüberliegende Fokalebene gekennzeichnet ist. Allgemein funktioniert die Massenbilderfassungsoptik130 so, dass sie von außerhalb des Systems einfallende Lichtstrahlen auf die Fokalebene projiziert, wo Lichtstrahlen, die auf einen Stoppbereich146 der Aperturschicht140 fallen, verworfen werden (z.B. Gespiegelt oder absorbiert werden) und wobei Lichtstrahlen, die auf Aperturen in der Aperturschicht140 fallen, in eine Linse fallen, die eine Brennweite und einen Versatz von der Fokalebene um die Brennweite aufweisen. - In einer Verkörperung beinhaltet die Massenbilderfassungsoptik
130 eine Sammellinse, wie eine bikonvexe Linse (in2 dargestellt) oder eine plankonvexe Linse, gekennzeichnet durch eine bestimmte Brennweite bei der Betriebswellenlänge des Systems. Die Massenbilderfassungsoptik130 kann auch mehrere einzelne Linsen beinhalten, die gemeinsam die Lichtstrahlen in Richtung auf die Aperturschicht140 projizieren und sich dadurch auszeichnen, dass sie eine zusammengesetzte Fokalebene gegenüber dem Feld bilden, wie in11 dargestellt ist. Jedoch kann die Massenbilderfassungsoptik130 auch jede andere geeignete Art von Linse oder Kombination von Linsen eines beliebigen anderen Typs oder mit einer beliebigen anderen Geometrie sein. - APERTURSCHICHT
- Wie in den
1 und2 dargestellt, umfasst das System eine Aperturschicht140 , die mit der Fokalebene zusammenfällt und einen Satz aus Aperturen144 in einer Linienanordnung parallel zu den Achsen der Beleuchtungsquellen festlegt, und die einen Stoppbereich146 um den Satz aus Aperturen144 herum festlegt, wobei jede Apertur in dem Satz von Aperturen144 ein Sichtfeld in dem Feld definiert, das mit einer diskreten Punktausstrahlung von einer entsprechenden Beleuchtungsquelle aus dem Satz von Beleuchtungsquellen110 zusammenfällt, und wobei der Stoppbereich146 Lichtstrahlen, die von Oberflächen im Bereich außerhalb der Gesichtsfelder, die durch den Satz von Aperturen144 und durch die Massenbilderfassungsoptik130 festgelegt sind, absorbiert und/oder reflektiert. Allgemein definiert die Aperturschicht140 eine Anordnung der offenen Bereiche (i.e., Aperturen, einschließlich einer Apertur pro Linse) und der geschlossene Bereich („Stoppbereiche“) zwischen benachbarten Aperturen. Jede Apertur in der Aperturschicht140 definiert eine „Lochblende“ und damit ein Sichtfeld für den entsprechenden Messkanal und leitet Licht, das von einer externen Oberfläche innerhalb ihres Sichtfeldes reflektiert wird, in die entsprechende Linse weiter, und jeder Stoppbereich146 kann Lichtstrahlen, die in ausgewählte Bereichen der Fokalebene einfallen, daran hindern, in die Linsenanordnung zu gelangen; siehe hierzu6 . - Die Aperturschicht
140 schließt eine relativ dünne undurchsichtige Struktur ein, die mit der Fokalebene der Massenbilderfassungsoptik130 zusammenfällt (z. B. entlang derselben angeordnet ist), wie in den1 und2 dargestellt. Zum Beispiel kann die Aperturschicht140 eine 10 Mikrometer dicke abgeschiedene Kupfer-, Silber-, oder Nickelschicht (also plattiert) über einer durch Lichteinwirkung aushärtbaren Polymerschicht sein; sie wird dann selektiv geätzt, um die Anordnung der Aperturen herzustellen. In einem ähnlichen Beispiel kann eine reflektierende metallisierte Schicht oder ein lichtabsorbierendes Photopolymer (z.B. ein Photopolymer gemischt mit einem lichtabsorbierenden Farbstoff) auf einen Glaswafer abgeschieden und selektiv mit einer Fotomaske belichtet werden, um die Aperturschicht140 und den Satz aus Aperturen144 zu bilden. Alternativ kann die Aperturschicht140 einen diskreten metallischen Film umfassen, der mechanisch oder chemisch perforiert ist, um die Anordnung von Aperturen zu bilden, mit der Linsenanordnung verbunden und dann über der Massenbilderfassungsoptik130 entlang der Fokalebene installiert werden. Jedoch kann die Aperturschicht140 auch jedes andere reflektierende (z. B. spiegelnde) oder Licht absorbierende Material umfassen, das auf jede andere Weise gebildet wird, um die Anordnung von Aperturen entlang der Fokalebene der Massenbilderfassungsoptik130 zu definieren. - Im eindimensionalen optischen Systems
100 kann die Aperturschicht140 eine einzelne Spalte von mehreren diskreten kreisförmigen Aperturen mit im Wesentlichen einheitlichem Durchmesser definieren, wobei jede Apertur eine Achse definiert, die im Wesentlichen parallel zu einer Linse der Linsenanordnung ist und darauf ausgerichtet ist, wie in3 dargestellt. Benachbarte Aperturen sind um einen Aperturabstand von mehr als dem Durchmesser der Apertur und im Wesentlichen um den Linsenabstand versetzt, und die Aperturschicht140 definiert einen Stoppbereich146 (also einen undurchsichtigen oder reflektierenden Bereich) zwischen benachbarten Aperturen, so dass die Aperturen diskrete, nicht überlappende Sichtfelder für ihre entsprechenden Messkanäle definieren. Bei immer kleiner werdenden Durchmessern bis zu einem beugungsbegrenzten Durchmesser - in Abhängigkeit von der Wellenlänge des einfallenden Lichts und der numerischen Apertur der Massenbilderfassungslinse - definiert eine Apertur ein immer schmaleres Gesichtsfeld (also ein Sichtfeld mit kleinerem Durchmesser) und leitet eine schärferes Signal mit niedrigerer Intensität (gedämpft) von der Massenbilderfassungsoptik130 in die entsprechende Linse. Die Aperturschicht140 kann daher Aperturen definieren, deren Durchmesser: größer als der beugungsbegrenzte Durchmesser für die Wellenlänge von Licht der Lichtquellen ist (z.B. 900 nm); im wesentlich größer ist als die Dicke der Aperturschicht140 ; und kleiner ist als der Aperturabstand, welcher im Wesentlichen gleich dem Linsenabstand und Pixelabstand ist. In einem Beispiel kann die Aperturschicht140 Aperturen mit Durchmessern definieren, die sich dem beugungsbegrenzten Durchmesser nähern, um die geometrische Selektivität des Sichtfeldes jedes einzelnen Erfassungskanals zu maximieren. Alternativ können die Aperturen einen Durchmesser aufweisen, der für die Wellenlänge des von den Beleuchtungsquellen abgegebenen Lichts kleiner als der beugungsbegrenzte Durchmesser ist. In einem Beispiel kann die Aperturschicht140 Aperturen mit Durchmessern definieren, die passend zu einer Leistungsabgabe der Beleuchtungsquellen im System und zur Anzahl und Photonendetektionskapazität der Subpixel-Photodetektoren in jedem Pixel in dem Satz aus Pixeln170 ausgelegt sind, so dass eine Zielanzahl von Photoneneinfällen innerhalb jeder Abtastperiode auf jedem Pixel erreicht wird. In diesem Beispiel kann jede Apertur einen bestimmten Durchmesser definieren, der einen Zieldämpfungsbereich für Pixel definiert, die von einer entsprechenden Lichtquelle stammen und während einer Abtastperiode auf die Massenbilderfasssungsoptik130 einfallen. Da insbesondere eine Apertur in der Aperturschicht140 ein Signal dämpft, das zu ihrer entsprechenden Linse und zu ihrem entsprechenden Pixel geleitet wird, kann der Durchmesser der Apertur an den dynamischen Bereich ihres entsprechenden Pixels angepasst werden. - In einer Ausführung kann eine erste Apertur
141 in der Aperturschicht140 Lichtstrahlen - die von einem bestimmten Bereich einer Oberfläche im Feld (dem Sichtfeld der Messkanals) vor der Massenbildverarbeitungsoptik130 reflektiert werden - in ihre entsprechende Linse durchlassen; ein Stoppbereich146 zwischen der ersten Apertur141 und benachbarten Aperturen in der Aperturschicht140 blockiert Lichtstrahlen - die von einem Bereich der Oberfläche außerhalb des Sichtfeldes der ersten Apertur141 reflektiert werden -, so dass diese nicht in die Linse mit Entsprechung zur ersten Apertur141 fallen. In dem eindimensionalen optischen Systems100 definiert die Aperturschicht140 daher eine Reihe von Aperturen zur Festlegung einer Vielzahl von diskreten, nicht überlappenden Sichtbereichen mit im Wesentlichen unbegrenzter Feldtiefe, wie in2 dargestellt. - In dieser Ausführung definiert eine erste Apertur
141 in der Aperturschicht140 ein Sichtfeld, das verschieden ist und sich mit keinem Sichtfeld überschneidet, das durch eine andere Apertur in der Aperturschicht140 definiert ist, wie in2 dargestellt. Der Satz aus Beleuchtungsquellen110 enthält eine erste Beleuchtungsquelle111 , die mit der ersten Apertur141 gepaart und so konfiguriert ist, dass sie einen Beleuchtungsstrahl projiziert, der im Wesentlichen mit dem Sichtfeld der ersten Apertur141 im Feld vor der Massenbilderfassungsoptik130 zusammenfällt (d. h., sich mit ihm überlappt). Darüber hinaus können die erste Beleuchtungsquelle111 und eine Massensendeoptik120 zusammenwirken und einen Beleuchtungsstrahl mit einem Querschnitt im Wesentlichen gleich (und etwas größer als) dem Querschnitt des Sichtfeldes der ersten Apertur141 bei verschiedenen Entfernungen von der Massenbilderfassungsoptik130 projizieren. Daher kann Licht, das von der ersten Beleuchtungsquelle111 - gepaart mit der ersten Apertur141 - ausgesendet und in das Sichtfeld der ersten Apertur141 projiziert wird, im Wesentlichen außerhalb der Sichtfelder anderer Aperturen in der Aperturschicht140 bleiben. - Allgemein beleuchten Photonen, die von der ersten Beleuchtungsquelle
111 in das Feld geworfen werden, einen bestimmten Bereich einer Oberfläche (oder mehrere Oberflächen) im Feld innerhalb des Sichtfeldes des ersten Messkanals und werden von der Oberfläche bzw. den Oberflächen) reflektiert (z.B. gestreut); mindestens einige von diesen Photonen, die durch einen bestimmten Bereich einer Oberfläche reflektiert wurden, können die Massenbildbearbeitungsoptik130 erreichen, welche diese Photonen auf die Fokalebene leitet. Da diese Photonen von einem Bereich einer Oberfläche innerhalb des Sichtfeldes der ersten Apertur141 reflektiert wurden, kann die Massenbildverarbeitungsoptik130 diese Photonen in die erste Apertur141 projizieren, und die erste Apertur141 kann diese Photonen zur ersten Linse151 weiterleiten (oder eine Teilmenge dieser Photonen, die in einem Winkel relativ zur Achse der ersten Apertur141 unterhalb eines bestimmten Schwellwinkels einfallen). Da jedoch eine zweite Apertur142 in der Aperturschicht140 gegenüber der ersten Apertur141 versetzt ist und da insbesondere der Bereich der Oberfläche im Feld, welcher über die erste Beleuchtungsquelle111 ausgeleuchtet ist, (im Wesentlichen) nicht mit dem Sichtfeld der zweiten Apertur142 zusammenfällt, werden Photonen, die durch den bestimmten Bereich der Oberfläche reflektiert werden und die Massenbildverarbeitungsoptik130 erreichen, auf die zweite Apertur142 projiziert und an eine zweite Linse152 hinter der zweiten Apertur142 weitergeleitet, und umgekehrt, wie in2 dargestellt. Weiterhin kann ein Stoppbereich146 zwischen der ersten und zweiten Apertur142 Photonen blockieren, die in Richtung der Fokalebene zwischen der ersten und der zweiten Apertur142 gerichtet sind, die von der Massenbildverarbeitungsoptik130 reflektiert werden, wodurch das Übersprechen zwischen dem ersten und dem zweiten Messkanal verringert wird. - Für eine erste Apertur
141 in der Aperturschicht140 gepaart mit einer ersten Beleuchtungsquelle111 in dem Satz aus Beleuchtungsquellen110 definiert die erste Apertur141 in der Aperturschicht140 ein erstes Sichtfeld und leitet einfallende Lichtstrahlen, die von einer Oberfläche im Feld ausgehen oder reflektiert werden, die mit diesem ersten Sichtfeld zusammenfällt, in die Linse151 weiter. Da die erste Beleuchtungsquelle111 einen Beleuchtungsstrahl projiziert, dessen Größe im Wesentlichen gleich groß (oder minimal größer als) das Sichtfeld ist, das durch die erste Apertur141 definiert ist (siehe4 ), kann ein Signal, das in die erste Linse151 durch die erste Apertur141 in der Aperturschicht140 gelangt, ein relativ hohes Verhältnis zwischen ausgehenden Lichtstrahlen von der ersten Lichtquelle111 und Lichtstrahlen, die von anderen Lichtquellen im System ausgehen, aufweisen. Da im Allgemeinen verschiedene Lichtquellen im System Beleuchtungsstrahlen mit verschiedenen Frequenzen, Tastverhältnissen und/oder Leistungspegeln etc. zu einer bestimmten Zeit während des Betriebs aussenden können, stellen Lichtstrahlen, die von der Massenbildverarbeitungsoptik130 au ein erstes Pixel171 im Satz aus Pixeln170 geleitet werden, die aber von einer anderen Beleuchtungsquelle stammen als der ersten Beleuchtungsquelle111 , die mit dem ersten Pixel171 gepaart ist, am ersten Pixel171 Signalrauschen dar. Obwohl die relativ kleinen Durchmesser der Aperturen in der Aperturschicht140 ein Gesamtlichtsignal, das von der Massenbildverarbeitungsoptik130 in den Satz aus Linsen150 geleitet wird, abschwächen können, kann jede Apertur in der Aperturschicht140 einen relativ großen Anteil an Photonen mit Ursprung in ihrer entsprechenden Beleuchtungsquelle durchleiten, im Vergleich zu anderen Beleuchtungsquellen im System; denn aufgrund der Geometrie einer bestimmten Apertur und ihrer entsprechenden Beleuchtungsquelle kann eine bestimmte Apertur ein Signal zur ihrer entsprechenden Linse und damit an das entsprechende Pixel weiterleiten, das einen relativ hohen Rauschabstand aufweist. Ferner gilt: je kleiner die Lochdurchmesser in der Aperturschicht140 sind - und damit die Sichtfelder der entsprechenden Messkanäle -, desto weniger kann das System Rauschen durch Sonnenstrahlung oder anderen umgebenden Lichtquellen an dem Satz aus Pixeln170 weiterleiten. - In einer Variation umfasst das System eine zweite Aperturschicht, die zwischen der Linsenanordnung und dem optischen Filter
160 angeordnet ist, wobei die zweite Aperturschicht einen zweiten Satz aus Aperturen144 definiert, die jeweils auf eine entsprechenden Linse in dem Satz aus Linsen150 ausgerichtet sind, wie oben beschrieben. In dieser Variation kann eine Apertur in der zweiten Aperturschicht140 fehlerhafte Lichtstrahlen absorbieren oder reflektieren, die von einer entsprechenden Linse durchlaufen werden, wie oben beschrieben, um das Übersprechen zwischen den Messkanälen weiter zu reduzieren, wodurch der Signal-/Rauschabstand innerhalb des Systems verbessert wird. In gleicher Weise kann das System zusätzlich oder alternativ eine dritte Aperturschicht zwischen dem optischen Filter160 und dem/den Diffusor(en)180 beinhalten, wobei die dritte Aperturschicht einen dritten Satz aus Aperturen144 definiert, die jeweils fluchtend mit einer entsprechenden Linse in dem Satz von Linsen150 liegen, wie oben beschrieben. In dieser Variation kann eine Apertur in der dritten Aperturschicht fehlerhafte Lichtstrahlen absorbieren oder reflektieren, die den Lichtfilter passiert haben, wie oben beschrieben, um das Übersprechen zwischen Messkanälen weiter zu reduzieren, wodurch der Signal-/Rauschabstand innerhalb des Systems verbessert wird. - LINSENANORDNUNG
- Das System umfasst einen Satz aus Linsen
150 , wobei jede Linse in dem Satz aus Linsen150 durch eine zweite Brennweite gekennzeichnet ist, durch die zweite Brennweite versetzt von der Fokalebene gegenüber der Massenbildverarbeitungsoptik130 ist, auf eine entsprechende Apertur im Satz aus Aperturen144 ausgerichtet ist, und so konfiguriert ist, dass sie Lichtstrahlen, die durch die entsprechende Apertur fallen, kollimiert. Im Allgemeinen dient eine Linse in dem Satz aus Linsen150 dazu, Lichtstrahlen zu kollimieren, die durch ihre entsprechende Apertur fallen, und diese kollimierten Lichtstrahlen in das optische Filter160 zu leiten. - In dem eindimensionalen optischen System
100 sind die Linsen in einer einzigen Spalte angeordnet, und benachbarte Linsen sind um einen gleichförmigen Linsenabstand versetzt (d. h. um einen Mittenabstand zwischen benachbarten Pixeln), wie in3 dargestellt. Der Satz aus Linsen150 ist zwischen der Aperturschicht und dem optischen Filter160 angeordnet. Insbesondere kann jede Linse eine Sammellinse umfassen, die durch eine zweite Brennweite gekennzeichnet ist und durch die zweite Brennweite zur Fokalebene der Massenbildverarbeitungsoptik130 - gegenüber der Massenbildverarbeitungsoptik130 - versetzt sein kann, um die Apertur der Massenbildverarbeitungsoptik130 zu erhalten und um Licht, das in die Massenbildverarbeitungsoptik130 und durch eine entsprechende Apertur einfällt, zu kollimieren. Jede Linse in dem Satz aus Linsen kann durch eine relativ kurze Brennweite gekennzeichnet sein (also weniger als eine Brennweite der Massenbildverarbeitungsoptik130 ) und einer relativ großen Randstrahlwinkel (z.B. eine relativ hohe numerische Apertur der Linse), so dass die Linse auch stark abgewinkelte Lichtstrahlen, die von der Massenbildverarbeitungsoptik130 in Richtung der Linse projiziert werden, noch erfassen kann. Das heißt, jede Linse in dem Linsensatz kann durch einen Strahlkegel charakterisiert sein, der im Wesentlichen an einen Strahlkegel der Massenbildverarbeitungsoptik130 angepasst ist. - Linsen in dem Satz aus Linsen
150 können im Wesentlichen ähnlich sein. Eine Linse in dem Satz aus Linsen150 ist zur Kollimation von Lichtstrahlen konfiguriert, die von der Massenbildverarbeitungsoptik130 in ihre entsprechende Apertur fokussiert werden. Beispielsweise kann eine Linse in dem Satz aus Linsen150 eine bikonvexe oder plankonvexe Linse umfassen, die durch eine Brennweite gekennzeichnet ist, welche basierend auf der Größe (z. B. Durchmesser) ihrer entsprechenden Apertur und der Betriebswellenlänge des Systems ausgewählt wird. In diesem Beispiel kann die Brennweite (f) einer Linse in dem Satz aus Linsen150 gemäß der Formel berechnet werden:150 kann daher an die Geometrie einer entsprechenden Apertur in der Aperturschicht angepasst werden, so dass die Linse ein im Wesentlichen scharfes Bild von Lichtstrahlen - bei oder nahe der Betriebswellenlänge - in das optische Filter160 und somit weiter zur Pixelanordnung durchlässt. - Jedoch kann der Satz aus Linsen
150 auch Linsen einer beliebigen anderen Geometrie umfassen und auf irgendeine andere Weise benachbart zur Aperturschicht angeordnet sein. - OPTISCHER FILTER
- Wie in
3 dargestellt, enthält das System einen optischen Filter160 neben dem Satz aus Linsen150 gegenüber der Aperturschicht und ist so konfiguriert, dass es Lichtstrahlen bei der Betriebswellenlänge durchlässt. Allgemein empfängt d optische Filter160 ein Spektrum elektromagnetischer Strahlung von dem Satz aus Linsen150 , leitet ein relativ schmales Band von elektromagnetischer Strahlung - einschließlich der Strahlung mit Betriebswellenlänge - an die Pixelanordnung weiter und blockiert die elektromagnetische Strahlung außerhalb des Bandes. Insbesondere stellt jede andere elektromagnetische Strahlung als die von der Beleuchtungsquelle ausgegebene elektromagnetische Strahlung - wie Umgebungslicht -, die auf ein Pixel im Satz aus Pixeln170 fällt, Rauschen im System dar. Das optische Filter160 arbeitet daher so, dass elektromagnetische Strahlung außerhalb der Arbeitswellenlänge oder allgemeiner außerhalb eines schmalen Wellenlängenbandes zurückgewiesen wird, wodurch Rauschen in dem System reduziert und der Signal-/Rauschabstand erhöht wird. - In einer Ausführung umfasst das optische Filter
160 ein optisches Bandpassfilter, das ein schmales Band elektromagnetischer Strahlung durchlässt, das im Wesentlichen auf die Betriebswellenlänge des Systems zentriert ist. In einem Beispiel geben die Beleuchtungsquellen Licht (überwiegend) bei einer Betriebswellenlänge von 900 nm aus, und das optische Filter160 ist so konfiguriert, dass es Licht zwischen 899,95 nm und 900,05 nm durchlässt und Licht außerhalb dieses Bandes blockiert. - Das optische Filter
160 kann selektiv Lichtwellenlängen als Funktion des Einfallswinkels auf das optische Filter160 weiterleiten und zurückweisen. Allgemein können optische Bandpassfilter Wellenlängen von Licht umgekehrt proportional zu ihrem Einfallswinkel auf das lichtoptische Bandpassfilter weiterleiten. Zum Beispiel, bei einem optischen Filter160 einschließlich einem 0,5 nm breiten optischen Bandpassfilter, kann das optische Filter160 für auf das optische Filter160 einfallende Lichtstrahlen unter einem Einfallswinkel von etwa 0° über 95% der elektromagnetischen Strahlung über ein scharfes Band von 899,75 nm bis 900,25 nm durchlassen und ungefähr 100% der elektromagnetischen Strahlung unter 899,70 nm und oberhalb von 900,30 nm ausfiltern. Jedoch kann in diesem Beispiel das optische Filter160 für Lichtstrahlen, die unter einem Einfallswinkel von etwa 15° in das optische Filter160 einfallen, über 95% der elektromagnetischen Strahlung über ein schmales Band von 899,5 nm bis über 900,00 nm durchlassen und elektromagnetische Strahlung über ein viel breiteres Band unterhalb von 899,50 nm und oberhalb von 900,30 nm zu 100% ausfiltern. Daher kann die Einfallsebene des optischen Filters160 im Wesentlichen senkrecht zu den Achsen der Linsen sein, und der Satz aus Linsen150 kann Lichtstrahlen kollimieren, die durch eine entsprechende Apertur einfallen, und diese Lichtstrahlen im Wesentlichen senkrecht zur Einfallsebene des optischen Filters160 ausgeben (d. h. mit einem Einfallswinkel von ungefähr 0° auf das optische Filter). Insbesondere kann der Satz aus Linsen150 Lichtstrahlen in Richtung des optischen Filters160 aus Einfallswinkeln ausgeben, die sich 0° annähern, so dass im Wesentlichen die gesamte elektromagnetische Strahlung, die durch das optische Filter160 geleitet wird, bei oder sehr nahe an der Betriebswellenlänge des Systems liegt. - In dem eindimensionalen optischen Systems
100 kann das System einen einzelnen optischen Filter160 enthalten, der die Spalte der Linse in dem Satz aus Linsen150 überspannt. Alternativ kann das System mehrere optische Filter160 enthalten, die jeweils benachbart zu einer einzelnen Linse oder einer Teilmenge von Linsen in der Gruppe aus Linsen150 angeordnet sind. Jedoch kann das optische Filter160 jede andere Geometrie festlegen und auf jede andere Weise funktionieren, um nur ein begrenztes Band von Lichtwellenlängen durchzulassen. - PIXELANORDNUNG UND DIFFUSER
- Das System umfasst einen Satz aus Pixeln
170 angrenzend an den optischen Filter160 gegenüber dem Satz aus Linsen150 , wobei jedes Pixel in dem Satz aus Pixeln170 einer Linse in dem Satz aus Linsen150 entspricht und einen Satz aus Subpixeln entlang einer zweiten Achse nicht parallel zu der ersten Achse einschließt. Der Satz aus Pixeln170 ist allgemein gegenüber dem optischen Filter160 gegenüber dem Satz von Linsen150 versetzt, und jedes Pixel in dem Satz aus Pixeln170 übernimmt die Ausgabe eines einzelnen Signals oder eines Signalstroms entsprechend der Anzahl der in einer oder mehreren Abtastperioden auf die Pixel einfallenden Photonen. - Das System umfasst auch einen Diffusor
180 , der zwischen dem optischen Filter160 und dem Satz aus Pixeln170 angeordnet ist und so konfiguriert ist, dass er kollimiertes Licht, das von jeder Linse in dem Satz aus Linsen150 ausgegeben wird, über einen Satz von Subpixeln eines einzelnen entsprechenden Pixels in dem Satz aus Pixeln170 verteilt. Im Allgemeinen funktioniert der Diffusor180 für jede Linse in dem Satz aus Linsen150 so, dass er Lichtstrahlen - die zuvor durch die Linse kollimiert und durch das optische Filter160 durchgelassen wurden - über die Breite und Höhe eines Erfassungsbereichs innerhalb eines entsprechenden Pixels streut. Der Diffusor180 kann als ein einzelnes optisches Element ausgebildet sein, das den Satz von Linsen150 überspannt, oder der Diffusor180 kann mehrere diskrete optische Elemente beinhalten, wie zum Beispiel jeweils einen optischen Diffusor, der auf einen entsprechenden Messkanal ausgerichteten ist. - In einer Ausführung umfasst ein erstes Pixel
171 in dem Satz aus Pixeln170 eine Anordnung von einzelnen Photonenlawinendiodendetektoren (nachfolgend „SPADs“), und der Diffusor180 streut Lichtstrahlen - die vorher durch eine entsprechende erste Apertur141 durchgelassen wurden, durch eine erste Linse151 kollimiert wurden und durch das optische Filter160 durchgegangen sind - über den Bereich des ersten Pixels171 , siehe die3 ,5 , und6 . Im Allgemeinen können angrenzende Aperturen vertikal um einen Aperturabstand ausgerichtet und versetzt werden, angrenzende Linsen können vertikal um einen Linsenabstand ausgerichtet und versetzt werden, der im Wesentlichen identisch mit dem Aperturabstand ist, und benachbarte Pixel können vertikal um einen Pixelabstand ausgerichtet und versetzt werden, der im Wesentlichen identisch mit den Linsen- und Aperturabständen ist. Jedoch kann der Pixelabstand nur eine relativ kleine Anzahl von (z. B. zwei) vertikal gestapelten SPADs aufnehmen. Jedes Pixel in dem Satz von Pixeln170 kann daher ein Seitenverhältnis von mehr als 1:1 definieren, und der Diffusor180 die vom optischen Filter160 durchgelassenen Lichtstrahlen entsprechend der Geometrie eines entsprechenden Pixels verteilen, um einen größeren Erfassungsbereich pro Pixel aufzunehmen. - In einem Beispiel ist jedes Pixel in dem Satz von Pixeln
170 auf einem Bildsensor angeordnet, und ein erstes Pixel171 in dem Satz von Pixeln170 umfasst eine einzelne Reihe von 16 SPADs, die entlang einer Querachse senkrecht zu einer vertikalen Achse verteilt sind, die die Spalte der Aperturen und Linsen halbiert. In diesem Beispiel kann die Höhe eines einzelnen SPAD im ersten Pixel171 geringer sein als die Höhe (z. B. Durchmesser) der ersten Linse151 , aber die Gesamtlänge der 16 SPADs kann größer sein als die Breite (z. B. Durchmesser) der ersten Linse151 ; der Diffusor180 kann daher die von der ersten Linse151 abgegebenen Lichtstrahlen auf eine Höhe konvergieren, die der Höhe eines SPAD in der Ebene des ersten Pixels171 entspricht, und die von der ersten Linse151 abgegebenen Lichtstrahlen auf eine Breite divergieren, die der Breite der 16 SPADs in der Ebene des ersten Pixels171 entspricht. In diesem Beispiel können die verbleibenden Pixel in dem Satz von Pixeln170 ähnliche Reihen von SPADs enthalten, und der Diffusor180 kann gleichermaßen Lichtstrahlen konvergieren und divergieren, die durch entsprechende Aperturen zu entsprechenden Pixeln geleitet werden. - Bei dem vorstehenden Beispiel kann die Aperturschicht eine Spalte von 16 gleichartigen Aperturen beinhalten, der Satz von Linsen
150 kann eine Spalte mit 16 gleichartigen Linsen beinhalten, die hinter der Aperturschicht angeordnet sind, und der Satz von Pixeln170 kann einen Satz von 16 gleichartigen Pixeln beinhalten - jedes mit einer ähnlichen Anordnung von SPADs - die hinter dem Satz von Linsen150 angeordnet sind. Bei einem 6,4 mm breiten, 6,4 mm hohen Bildsensor kann jedes Pixel eine einzelne Reihe von 16 SPADs umfassen, wobei jedes SPAD elektrisch mit einer entfernten analogen Front-End-Verarbeitungselektronik/ Digitalverarbeitungselektronikschaltung240 gekoppelt ist. Jede SPAD kann in einem 400 µm breiten, 400 µm hohen SPAD-Bereich angeordnet sein und kann einen aktiven Erfassungsbereich von bis zu 400 µm Durchmesser definieren. Angrenzende SPADs können um einen SPAD-Abstand von 400 µm versetzt werden. In diesem Beispiel können der Aperturabstand entlang der vertikalen Spalte der Aperturen, der Linsenabstand entlang der vertikalen Spalte der Linsen und der Pixelabstand entlang der vertikalen Spalte der Pixel jeweils etwa 400 µm betragen. Für den ersten Messkanal im System (d. h., die erste Apertur141 , die erste Linse151 , und das erste Pixel171 , etc.), kann ein erster Diffusor180 eine zylindrische Lichtsäule aus Lichtstrahlen divergieren, die von der ersten Linse151 durch das optische Filter160 geleitet wird - wie beispielsweise eine Lichtsäule mit einem Durchmesser von etwa 100 µm für ein Aperturschicht-Bildverhältnis von 1:4 - bis zu einer Höhe von etwa 400 µm, die vertikal mit der Reihe von SPADs im ersten Pixel171 ausgerichtet ist. Der erste Diffusor kann in ähnlicher Weise die zylindrische Säule von Lichtstrahlen, die von der ersten Linse151 durch das optische Filter160 geleitet werden, auf eine Breite von ungefähr 6,4 µm divergieren, die horizontal über die Reihe von SPADs im Pixel171 zentriert ist. Andere Diffusoren180 in dem System können gleichermaßen kollimiertes Licht divergieren (oder konvergieren), das von entsprechenden Linsen über entsprechende Pixel in dem Satz von Pixeln170 geleitet wird. Daher kann das System in diesem Beispiel durch die Verbindung jedes SPAD (oder jedes Pixels) mit einer entfernten analogen Front-End-Verarbeitungselektronik240 und durch die Integration von Diffusoren180 , die das vom optischen Filter160 durchgelassene Licht über die Breiten und Höhen der entsprechenden Pixel verteilen, einen relativ hohen Füllfaktor des Erfassungsbereichs über den Bildsensor erreichen. - Daher können Pixel im eindimensionalen optischen System
100 im Satz von Pixeln170 eine Anordnung von mehreren SPADS beinhalten, die im Verhältnis größer als 1:1 angeordnet sind, und der Diffusor180 kann Lichtstrahlen über entsprechende nichtquadratische Pixel verteilen, wodurch eine relativ große Anzahl von SPADs über ein einzelnes Pixel angezeigt werden kann, um einen größeren dynamischen Bereich über den Bildsensor zu erreichen, als ein Bildsensor mit einem einzelnen SPAD pro Pixel, wie in3 . dargestellt. Insbesondere kann ein erster Messkanal im System durch die Integration mehrerer SPADs pro Pixel (d.h. pro Messkanal) mehrere einfallende Photonen - die von einer Oberfläche in dem durch ein durch die erste Apertur141 definiertes Sichtfeld begrenzten Feld stammen - innerhalb der Spanne der für die SPADs charakteristischen Totzeit erkennen. Der erste Messkanal kann also eine „hellere“ Oberfläche in seinem Blickfeld erfassen. Zusätzlich oder alternativ kann das erste Pixel171 im ersten Messkanal schneller abgetastet werden als die für SPADs im ersten Pixel171 charakteristische Totzeit, denn obwohl eine erste Teilmenge von SPADs im ersten Pixel171 während einer ersten Abtastzeit aufgrund der Sammlung von einfallenden Photonen während der ersten Abtastzeit unten (oder „tot“) sein kann, bleiben andere SPADs im ersten Pixel171 eingeschaltet (oder „lebendig“) und können daher einfallende Photonen während einer nachfolgenden Abtastzeit sammeln. Zudem kann der Bildsensor durch Einbeziehen von Pixeln, die durch relativ hohe Seitenverhältnisse von Fotodetektoren gekennzeichnet sind, Pixel beinhalten, die um einen relativ kleinen Pixelabstand versetzt sind, aber das System100 kann dennoch ein Pixel mit relativ hohem Dynamikbereich erreichen. - Jedoch können Pixel in dem Satz von Pixeln
170 jede andere Anzahl von SPADs umfassen, die in beliebigen anderen Anordnungen angeordnet sind, wie beispielsweise in einer 64x1 Gitteranordnung (wie oben beschrieben), in einer 32x2 Gitteranordnung oder in einer 16x4 Gitteranordnung, und der Diffusor180 kann entsprechende Pixel in anderer geeigneter Weise konvergieren und/oder divergieren. Darüber hinaus kann jedes Pixel in der Pixelmenge170 anstelle der (oder zusätzlich zu den) SPADs eine oder mehrere lineare Lawinenphotodioden, Geiger-Lawinenphotodioden, Photomultiplikatoren, Resonanzkavitätsphotodioden, QUANTUM DOT-Detektoren oder andere Arten von Photodetektoren beinhalten, die wie vorstehend beschrieben angeordnet sind, und der/die Diffusor(en)180 kann/können Signale, die von den optischen Filtern160 über entsprechende Pixel geleitet werden, wie hier beschrieben, ähnlich konvergieren und divergieren. - BELEUCHTUNGSQUELLEN
- Das System enthält einen Satz Beleuchtungsquellen
110 , die entlang einer ersten Achse angeordnet sind, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen110 konfiguriert ist, um einen Beleuchtungsstrahl einer Betriebswellenlänge zu einem diskreten Punkt in einem Feld vor der Beleuchtungsquelle auszugeben. Im Allgemeinen dient jede Beleuchtungsquelle dazu, einen Lichtstrahl auszugeben, der mit einem Sichtfeld übereinstimmt, das durch eine entsprechende Apertur in der Menge der Aperturen144 definiert ist, wie in1 und2 dargestellt. - In einer Implementierung umfasst der Satz von Beleuchtungsquellen
110 eine Bulk-Senderoptik und einen getrennten Emitter pro Lese-Kanal. So kann beispielsweise der Satz von Beleuchtungsquellen110 monolithische VCSEL-Arrays mit einem Satz von getrennten Emittern beinhalten. Bei dieser Implementierung kann die Bulk-Senderoptik im Wesentlichen identisch mit der Bulk-Abbildungsoptik130 in Material, Geometrie (z. B. Brennweite), thermischer Isolierung usw. sein, und die Bulk-Senderoptik ist angrenzend und lateral und/oder vertikal von der Bulk-Abbildungsoptik130 versetzt. In einem ersten Beispiel umfasst der Satz von Beleuchtungsquellen110 eine Laseranordnung mit getrennten Emittern, die in einer Spalte angeordnet sind, wobei angrenzende Emitter um einen Emitterabstand versetzt sind, der im Wesentlichen identisch mit dem Aperturabstand ist. In diesem ersten Beispiel gibt jeder Emitter einen Lichtstrahl aus, dessen Durchmesser im Wesentlichen identisch oder geringfügig größer als der Durchmesser einer entsprechenden Apertur in der Aperturschicht ist, und die Säule der Emitter ist entlang der Fokusebene der Bulk-Senderoptik so angeordnet, dass jeder von der Bulk-Senderoptik in das Feld projizierte Lichtstrahl sich schneidet und im Wesentlichen die gleiche Größe und Geometrie aufweist wie das Sichtfeld des entsprechenden Lesekanals, wie in4 . dargestellt. Daher kann im Wesentlichen die gesamte Ausgangsleistung jedes Emitters in dem Satz von Beleuchtungsquellen110 mit relativ geringem Energieverlust in das Sichtfeld seines entsprechenden Messkanals projiziert werden und die Oberflächen im Feld außerhalb der Sichtfelder der Messkanäle beleuchten. - In einem zweiten Beispiel sind die getrennten Emitter ähnlich in einer Spalte angeordnet, wobei benachbarte Emitter um einen Emitterabstand versetzt sind, der doppelt so groß ist wie der Aperturabstand, wie in
2 . dargestellt. In diesem zweiten Beispiel ist jeder Emitter durch einen leuchtenden aktiven Bereich (oder Apertur) mit einem Durchmesser von etwa (oder etwas größer als) dem doppelten des Durchmessers einer entsprechenden Apertur in der Aperturschicht gekennzeichnet, und die Säule der Emitter ist hinter der Bulk-Senderoptik um das Doppelte der Brennweite der Bulk-Senderoptik versetzt, sodass jeder von der Bulk-Senderoptik in das Feld projizierte Lichtstrahl sich schneidet und von im Wesentlichen der gleichen Größe und Geometrie wie das Sichtfeld des entsprechenden Lesekanals ist, wie oben beschrieben. Zudem kann für dieselbe Beleuchtungsstrahlleistungsdichte ein Beleuchtungsstrahl, der von einem Emitter in diesem zweiten Beispiel ausgegeben wird, die vierfache Leistung eines Beleuchtungsstrahls enthalten, der von einem Emitter in dem ersten oben beschriebenen Beispiel ausgegeben wird. Das System kann daher einen Satz von Emittern beinhalten, die entsprechend einem Emitterneigungsabstand angeordnet sind, der konfiguriert ist, um beleuchtete Strahlen mit einem Durchmesser auszugeben, und hinter der Bulk-Senderoptik um einen Versatzabstand in Abhängigkeit von einem Skalenfaktor (z.B. 2,0 oder 3,0) und 1) dem Aperturabstand in der Aperturschicht, 2) dem Durchmesser der Aperturen in der Aperturschicht und 3) der Brennweite der Bulk-Senderoptik. Das System kann daher ein beleuchtetes Subsystem umfassen, das proportional größer ist als ein entsprechendes Empfängersubsystem, um eine größere Gesamtleistung der Beleuchtung innerhalb der gleichen Strahlwinkel und Sichtfelder der entsprechenden Kanäle im Empfängersubsystem zu erzielen. - Das System kann auch mehrere getrennte Sätze von Lichtquellen umfassen, wobei jeder Satz von Beleuchtungsquellen
110 mit einer getrennten Bulk-Senderoptik neben der Bulk-Abbildungsoptik130 gekoppelt ist. Beispielsweise kann das System eine erste Bulk-Senderoptik, eine zweite Bulk-Senderoptik und eine dritte Bulk-Senderoptik umfassen, die radial um die Bulk-Abbildungsoptik130 in einem gleichmäßigen radialen Abstand von der Mitte der Bulk-Abbildungsoptik130 angeordnet und um einen Winkelabstand von 120° beabstandet ist. In diesem Beispiel kann das System eine Laseranordnung mit einem Emitter - wie oben beschrieben - hinter jeder der ersten, zweiten, und dritten Bulk-Senderoptik beinhalten. Jeder getrennte Laseranordnung und seine entsprechende Bulk-Senderoptik kann somit einen Satz von Beleuchtungsstrahlen in die Sichtfelder projizieren, die durch entsprechende Aperturen in der Aperturschicht definiert sind. Daher können in diesem Beispiel die drei getrennten Laseranordnungen und die drei entsprechenden Bulk-Senderoptiken zusammenarbeiten, um die dreifache Leistung auf die Sichtfelder der Lesekanäle im System zu projizieren, verglichen mit einer einzigen Laseranordnung und einer Bulk-Senderoptik. Zusätzlich oder alternativ kann das System mehrere getrennte Schichtanordnungen und Bulk-Senderoptiken zu beiden umfassen: 1) Erreichen einer Soll-Beleuchtungsleistung, die in das Sichtfeld jedes Abtastkanals im Empfänger-Subsystem mit mehreren Sendern mit geringerer Leistung pro Abtastkanal abgegeben wird; und 2) Verteilung der optischen Energie über einen größeren Bereich im Nahfeld, um eine optische Energiedichte zu erreichen, die kleiner als eine zulässige optische Energiedichte für das menschliche Auge ist. - Das System kann jedoch jede andere Anzahl und Konfiguration von Beleuchtungsquellen und Großsenderoptiken beinhalten, die konfiguriert sind, um die durch die Lesekanäle definierten Sichtfelder zu beleuchten. Der Satz von Beleuchtungsquellen
110 kann auch jeden anderen geeigneten Typ eines optischen Senders umfassen, wie beispielsweise einen 1x16 optischen Splitter, der von einer einzelnen Laserdiode gespeist wird, eine seitlich emittierende Laserdiodenanordnung, eine LED-Anordnung oder eine Quantenpunkt-LED-Anordnung, etc. - FERTIGUNG
- In einer Implementierung werden die Massenempfängerlinse, die Aperturschicht, der Linsensatz
150 , der optische Filter160 und der Diffusor180 hergestellt und dann mit einem Bildsensor ausgerichtet und auf diesem montiert. Zum Beispiel kann das optische Filter160 durch Beschichten eines Quarzglassubstrats hergestellt werden. Das photoaktive optische Polymer kann dann über dem optischen Filter160 abgeschieden werden, und eine Linsenform kann über das photoaktive optische Polymer gelegt und eine UV-Lichtquelle aktiviert werden, um das photoaktive optische Polymer in Form von Linsen zu härten, die über den optischen Filter160 gemustert sind. Abstandshalter können ähnlich geformt oder über den optischen Filter160 mittels PhotolithographieTechniken gebildet werden, und eine Aperturschicht, die durch einen selektiv gehärteten, metallisierten Glaswafer definiert ist, kann dann an die Abstandshalter gebunden oder anderweitig montiert werden, um die Aperturschicht zu bilden. Die Anordnung kann dann umgekehrt werden, und ein Satz getrennter Diffusoren und Abstandshalter kann auf ähnliche Weise auf der gegenüberliegenden Seite des optischen Filters160 hergestellt werden. Ein getrennter Bildsensor kann dann mit den Abstandshaltern ausgerichtet und verbunden werden, und eine Bulk-Abbildungsoptik130 kann auf ähnliche Weise über der Aperturschicht angebracht werden. - Alternativ können Photolithographie- und Wafer-Level-Bonding-Techniken eingesetzt werden, um die Bulk-Imaging-Optik, die Aperturschicht, den Linsensatz
150 , den optischen Filter160 und den Diffusor180 direkt auf den nicht gewürfelten Halbleiterwafer mit den Detektorchips herzustellen, um die Herstellung zu vereinfachen, Kosten zu reduzieren und die optische Stapelhöhe für ein geringeres Pixel-Nebensprechen zu reduzieren. - EINDIMENSIONALES OPTISCHES SYSTEM: LINSENROHR
- Eine Variation des Systems umfasst: einen Satz von Beleuchtungsquellen
110 , die entlang einer ersten Achse angeordnet sind, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen110 konfiguriert ist, um einen Beleuchtungsstrahl einer Betriebswellenlänge in Richtung eines diskreten Punktes in einem Feld vor der Beleuchtungsquelle auszugeben; eine Massenbildoptik130 , die durch eine dem Feld gegenüberliegende Fokusebene gekennzeichnet ist; einen Satz von Linsenrohren210 , die in einer Linienanordnung parallel zur ersten Achse angeordnet sind, wobei jedes Linsenrohr in dem Satz von Linsenrohren210 folgendes beinhaltet: eine Linse, gekennzeichnet durch eine Brennweite, die um die Brennweite von der Brennebene versetzt ist, und konfiguriert ist, um Lichtstrahlen, die in die Massenbildoptik130 reflektiert werden, von einem diskreten Punkt in dem von einer entsprechenden Lichtquelle in dem Satz von Optiken beleuchteten Feld in die Massenbildoptik130 zu kollimieren; und eine zylindrische Wand218 , die sich von der Linse gegenüber der Brennebene erstreckt und eine lange Achse im Wesentlichen senkrecht zur ersten Achse definiert, und konfiguriert ist, um einfallende Lichtstrahlen, die in die Massenbildoptik130 reflektiert werden, aus einem Bereich in dem Feld außerhalb des von der entsprechenden Lichtquelle beleuchteten diskreten Punktes zu absorbieren. Bei dieser Variante umfasst das System auch: ein optisches Filter160 angrenzend an den Satz von Linsenrohren210 gegenüber der Fokusebene und konfiguriert, um Lichtstrahlen bei der Betriebswellenlänge zu leiten; einen Satz von Pixeln170 angrenzend an das optische Filter160 gegenüber dem Satz von Linsen150 , wobei jedes Pixel in dem Satz von Pixeln170 einer Linse in dem Satz von Linsen150 entspricht und einen Satz von Subpixeln beinhaltet, die entlang einer dritten Achse senkrecht zur ersten Achse ausgerichtet sind; und einen Diffusor180 , der zwischen dem optischen Filter160 und dem Satz von Pixeln170 angeordnet ist und konfiguriert ist, um die kollimierte Lichtausgabe von jeder Linse in dem Satz von Linsen150 über einen Satz von Subpixeln eines entsprechenden Pixels in dem Satz von Pixeln170 zu verteilen. - Im Allgemeinen beinhaltet das System bei dieser Variante ein Linsenrohr als Ersatz für (oder zusätzlich zu) jeder der oben beschriebenen Blenden und Linsenpaare. In dieser Variation kann jedes Linsenrohr durch eine zweite (kurze) Brennweite charakterisiert werden und kann von der Brennebene der Massenbildoptik
130 um die zweite Brennweite versetzt werden, um die Apertur der Massenbildoptik130 zu erhalten und einfallendes Licht, das von der Massenbildoptik130 empfangen wird, wie oben beschrieben und in5 und7 dargestellt. - Jedes Linsenrohr definiert auch eine opake zylindrische Wand
218 , die eine Achse senkrecht zur Einfallsebene des benachbarten optischen Filters160 definiert und konfiguriert ist, um einfallende Lichtstrahlen zu absorbieren, wie in5 . dargestellt. Im Allgemeinen kann die zylindrische Wand218 eines Linsenrohrs bei größeren axialen Längen Lichtstrahlen absorbieren, die in geringeren Winkeln zur Achse des Linsenrohrs durch das Linsenrohr hindurchgehen, wodurch das Sichtfeld des Linsenrohrs reduziert wird (was einer Verringerung des Durchmessers einer Apertur in der Aperturschicht bis zum beugungsbegrenzten Durchmesser, wie vorstehend beschrieben, ähnlich sein kann) und ein Ausgangssignal kollimierter Lichtstrahlen ergibt, das näher an der Einfallsebene des optischen Filters160 liegt. Jedes Linsenrohr kann daher eine längliche zylindrische Wand218 einer Länge definieren, die ausreichend ist, um ein Zielblickfeld zu erreichen und kollimierte Lichtstrahlen unter maximalen Winkeln zur Achse des Linsenrohrs kleiner als einen Schwellwinkel zu leiten. In dieser Variation kann ein Linsenrohr somit als ein vorstehend beschriebenes Apertur-Sensor-Paar fungieren, um ein enges Sichtfeld zu definieren und im Wesentlichen kollimiertes Licht an den angrenzenden optischen Filter160 abzugeben. - Die zylindrische Wand
218 eines Linsenrohrs kann eine grobe oder gemusterte undurchsichtige Oberfläche um ein transparentes (oder transluzentes) Linsenmaterial definieren, wie in5 dargestellt, um die Absorption zu erhöhen und die Reflexion von Lichtstrahlen zu verringern, die auf die zylindrische Wand218 fallen. Jedes Linsenrohr (und jede Linse, die oben beschrieben wurde) kann auch mit einer AntiReflex-Beschichtung beschichtet sein. - Wie in
9 dargestellt, kann bei dieser Variation der Satz von Linsenrohren210 durch Implementieren photolithographischer Techniken hergestellt werden, um ein photoaktives optisches Polymer (z. B. SU8) auf das optische Filter160 (z. B. auf einen Siliziumwafer, der das optische Filter definiert) aufzumustern. Ein lichtabsorbierendes Polymer kann dann zwischen die Linsenrohre gegossen und gehärtet werden. Ein Satz von Linsen150 kann dann separat hergestellt (z. B. geformt) und dann mit über die Linsenrohre geklebt werden. Alternativ können die Linsen direkt auf den Linsenrohren durch Photolithographietechniken hergestellt werden. Alternativ kann jedoch auch eine Form für Linsen direkt auf die Linsenrohre durch Einspritzen von Polymer in eine Form gegossen werden, die über den Linsenrohren angeordnet ist. Ein einzelner Diffusor180 oder mehrere getrennte Diffusoren180 können auf ähnliche Weise auf dem optischen Filter160 gegenüber den Linsenrohren hergestellt und/oder montiert werden. Abstandshalter, die sich vom optischen Filter160 erstrecken, können ebenfalls hergestellt oder um den/die Diffusor(en)180 herum installiert werden, und der Bildsensor kann mit den Abstandshaltern gegenüber dem optischen Filter160 ausgerichtet und verbunden werden. Andere optische Elemente innerhalb des Systems (z. B. die Bulk-Abbildungslinse, die Bulk-Transmissionslinse usw.) können gemäß ähnlichen Techniken und mit ähnlichen Materialien hergestellt werden. - ZWEIDIMENSIONALES OPTISCHES SYSTEM
- Eine weitere Variante des Systems beinhaltet: einen Satz von Beleuchtungsquellen
110 , die in einer ersten geradlinigen Gitteranordnung angeordnet sind, wobei jede Beleuchtungsquelle in dem Satz von Beleuchtungsquellen110 konfiguriert ist, um einen Beleuchtungsstrahl mit einer Betriebswellenlänge zu einem diskreten Punkt in einem Feld vor der Beleuchtungsquelle auszugeben; eine Bulk-Abbildungsoptik130 , die durch eine dem Feld gegenüberliegende Fokusebene gekennzeichnet ist; eine Aperturschicht, die mit der Fokusebene übereinstimmt, die einen Satz von Aperturen144 in einem zweiten geradlinigen Gitterarray definiert, das proportional zu dem ersten geradlinigen Gitterarray ist, und einen Stoppbereich146 um den Satz von Aperturen144 definiert, wobei jede Apertur in dem Satz von Aperturen144 ein Sichtfeld in dem Feld definiert, das mit einem diskreten Punkt übereinstimmt, der von einer entsprechenden Lichtquelle in dem Satz von Beleuchtungsquellen110 ausgegeben wird, wobei der Stoppbereich146 Lichtstrahlen absorbiert, die von Oberflächen in dem Feld außerhalb von Sichtfeldern reflektiert werden, die durch den Satz von Aperturen144 definiert sind und durch die Massenbildoptik130 verlaufen; einen Satz von Linsen150 , wobei jede Linse in dem Satz von Linsen150 durch eine zweite Brennweite gekennzeichnet ist, die von der Brennebene gegenüber der Massenbildoptik130 um die zweite Brennweite versetzt ist, mit einer Apertur in dem Satz von Aperturen144 ausgerichtet ist und konfiguriert ist, um von der Apertur durchgelassene Lichtstrahlen zu kollimieren; ein optisches Filter160 angrenzend an den Satz von Linsen150 gegenüber der Aperturschicht und konfiguriert, um Lichtstrahlen bei der Betriebswellenlänge zu leiten; einen Satz von Pixeln170 angrenzend an den optischen Filter160 gegenüber dem Satz von Linsen150 , wobei jedes Pixel im Satz von Pixeln170 mit einem Teilsatz von Linsen im Satz von Linsen150 ausgerichtet ist; und einen Diffusor180 , der zwischen dem optischen Filter160 und dem Satz von Pixeln170 angeordnet ist und konfiguriert ist, um die kollimierte Lichtabgabe von jeder Linse im Satz von Linsen150 über ein entsprechendes Pixel im Satz von Pixeln170 zu verteilen. - Im Allgemeinen enthält das System in dieser Variation ein zweidimensionales Gitterarray von Kanälen (d. h. Apertur-, Linsen- und Pixelsätze oder Linsenrohr- und Pixelsätze) und ist konfiguriert, um ein Volumen, das durch das System eingenommen wird, in zwei Dimensionen abzubilden. Das System kann eindimensionale Abstandsdaten - wie z. B. Zählungen von einfallenden Photonen innerhalb einer Abtastzeit und/oder Zeiten zwischen aufeinanderfolgenden Photonen sammeln, die auf Pixel einer bekannten Position einfallen, die bekannten Sichtfeldern auf dem Feld entsprechen - über ein zweidimensionales Feld. Die eindimensionalen Abstandsdaten können dann mit bekannten Positionen der Sichtfelder für jeden Kanal in dem System zusammengeführt werden, um eine virtuelle dreidimensionale Darstellung des Feldes vor dem System zu rekonstruieren.
- Bei dieser Variation kann die Aperturschicht ein Gitterarray von Aperturen definieren, der Satz von Linsen
150 kann in einem ähnlichen Gitterarray angeordnet sein, wobei eine Linse mit einer Apertur in der Aperturschicht ausgerichtet ist, und der Satz von Pixeln170 kann, wie oben beschrieben, ein Pixel pro Apertur und Linsenpaar umfassen. Die Aperturschicht kann beispielsweise ein 24×24 Gitterarray mit Aperturen von 200 µm Durchmesser definieren, die vertikal und lateral um einen Aperturabstand von 300 µm versetzt sind, und der Satz von Linsen150 kann ebenfalls ein 24×24 Gitterarray von Linsen definieren, das vertikal und lateral um einen Linsenpitchabstand von 300 µm versetzt ist. In diesem Beispiel kann der Satz von Pixeln170 ein 24x24 Gitterarray von 300 µm quadratischen Pixeln beinhalten, wobei jedes Pixel eine 3×3 quadratische Anordnung von neun 100 µm quadratischen SPADs beinhaltet. - Alternativ kann bei dieser Variante der Satz von Pixeln
170 ein Pixel pro Gruppe von mehreren Aperturen- und Linsenpaaren beinhalten. In dem vorstehenden Beispiel kann der Satz von Pixeln170 alternativ ein 12x12 Gitterarray von 600 µm quadratischen Pixeln umfassen, wobei jedes Pixel eine 6x6 quadratische Anordnung von 36 100 µm quadratischen SPADs umfasst und wobei jedes Pixel mit einer Gruppe von vier benachbarten Linsen in einem quadratischen Gitter ausgerichtet ist. In diesem Beispiel kann der Diffusor180 für jede Gruppe von vier angrenzenden Linsen: kollimierte Lichtstrahlen, die von einer Linse in der (1, 1)-Position in dem quadratischen Gitter nach oben und nach rechts abgegeben werden, um Lichtstrahlen, die durch die (1,1)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels verteilen; kann kollimierte Lichtstrahlen, die von einer Linse in der (2,1)-Position in dem quadratischen Gitter nach oben und nach links gerichtet werden, um Lichtstrahlen, die durch die (2,1)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels verteilen; kann kollimierte Lichtstrahlen, die von einer Linse in der (1,2)-Position in dem quadratischen Gitter abgegeben werden, nach unten und rechts vorspannen, um Lichtstrahlen, die durch die (1,2)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels zu verteilen, und kann kollimierte Lichtstrahlen, die von einer Linse in der (2,2)-Position in dem quadratischen Gitter abgegeben werden, nach unten und nach links vorspannen, um Lichtstrahlen, die durch die (2,2)-Linse hindurchgehen, über die volle Breite und Breite des entsprechenden Pixels zu verteilen, wie in8 . dargestellt. - Im vorstehenden Beispiel kann das System für jede Gruppe von vier Beleuchtungsquellen in einem quadratischen Gitter und entsprechend einer Gruppe von vier Linsen in einem quadratischen Raster zu jedem gegebenen Zeitpunkt eine Beleuchtungsquelle in der Gruppe von vier Beleuchtungsquellen betätigen. Insbesondere kann das System für jede Gruppe von vier Beleuchtungsquellen in einem quadratischen Raster, das einem Pixel in dem Satz von Pixeln
170 entspricht, eine erste Beleuchtungsquelle111 in einer (1, 1) Position während einer ersten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine erste Apertur141 definiert ist, die einem Objektiv in der (1,1)-Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der ersten Abtastperiode abtasten. Das System kann dann die erste Beleuchtungsquelle111 abschalten und eine zweite Beleuchtungsquelle112 in einer (1, 2) Position während einer nachfolgenden zweiten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine zweite Apertur142 definiert ist, die einer Linse in der (1,2) Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der zweiten Abtastperiode erfassen. Anschließend kann das System die erste und zweite Beleuchtungsquelle112 abschalten und eine dritte Beleuchtungsquelle in einer (2,1) Position während einer nachfolgenden dritten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine dritte Apertur definiert ist, die einem Objektiv in der (2,1) Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der dritten Abtastperiode erfassen. Schließlich kann das System die erste, zweite und dritte Lichtquelle abschalten und eine vierte Lichtquelle in einer (2,2) Position während einer vierten Abtastperiode betätigen, um ein Sichtfeld zu beleuchten, das durch eine vierte Apertur definiert ist, die einem Objektiv in der (2,2) Position in der entsprechenden Gruppe von vier Linsen entspricht, und das System kann alle 36 SPADs in dem entsprechenden Pixel während der vierten Abtastperiode erfassen. Das System kann diesen Vorgang während des gesamten Betriebs wiederholen. - Daher kann das System im vorstehenden Beispiel einen Satz von Pixeln
170 beinhalten, die über einen Bildsensor mit einer Breite von 7,2 mm und einer Länge von 7,2 mm angeordnet sind, und ein Scanschema implementieren, so dass jeder Kanal im System auf eine Reihe von SPADs zugreifen kann (Lichtstrahlen projizieren kann), die ansonsten einen wesentlich größeren Bildsensor erfordern (z.B. einen 14,4 mm × 14,4 mm Bildsensor). Insbesondere kann das System ein serielles Scanschema pro Gruppe von Beleuchtungsquellen implementieren, um eine exponentielle Zunahme des Dynamikbereichs jedes Kanals im System zu erreichen. Insbesondere bei dieser Variante kann das System die vorgenannten bildgebenden Verfahren implementieren, um die Bildauflösung des Systems zu erhöhen. - In der vorhergehenden Implementierung kann das System auch einen Verschluss
182 zwischen jedem Kanal und dem Bildsensor beinhalten, und das System kann jeden Verschluss182 selektiv öffnen und schließen, wenn die Beleuchtungsquelle für den entsprechenden Kanal aktiviert bzw. deaktiviert wird. Das System kann beispielsweise einen unabhängig bedienbaren elektrochromen Verschluss182 zwischen jeder Linse beinhalten, und das System kann den elektrochromen Verschluss182 über der (1, 1) Linse in der quadratischen Gittergruppe von vier Linsen öffnen und elektrochrome Verschlüsse182 über der (1, 2), (2, 1), und (2, 2) Linse schließen, wenn die (1, 1) Beleuchtungsquelle aktiviert ist, wodurch das Rauschen, das durch die (1, 2), (2, 1), und (2, 2) Linse geht, vor dem Erreichen des entsprechenden Pixels auf dem Bildsensor ausgeschlossen wird. Das System kann daher die Verschlüsse182 zwischen jedem Kanal und dem Bildsensor selektiv öffnen und schließen, um das SNR pro Kanal während des Betriebs zu erhöhen. Alternativ kann das System einen unabhängig bedienbaren elektrochromen Verschluss182 enthalten, der über ausgewählten Regionen jedes Pixels angeordnet ist, wie in8 dargestellt, wobei jeder elektrochrome Verschluss182 mit einem einzelnen Kanal (d. h. mit einer einzelnen Linse in dem Satz von Linsen) ausgerichtet ist. Das System kann alternativ mechanische MEMS-Verschlüsse oder irgendeine andere geeignete Art von Verschluss umfassen, die zwischen dem Satz von Linsen150 und dem Bildsensor angeordnet ist. - Bei dieser Variation kann das System zweidimensionale Gitterarrays von Aperturen, Linsen, Diffusoren und/oder Pixeln definieren, die durch eine erste Teilungsdistanz entlang einer ersten (z. B. X) Achse und eine zweite Teilungsdistanz - die sich von der ersten Teilungsdistanz unterscheidet- entlang einer zweiten (z. B. Y) Achse gekennzeichnet sind. Beispielsweise kann der Bildsensor Pixel umfassen, die um einen horizontalen Abstand von 25 µm und einen vertikalen Abstand von 300 µm versetzt sind, wobei jedes Pixel eine einzelne Reihe von zwölf Subpixeln umfasst.
- Jedoch kann in dieser Variation das zweidimensionale optische System eine Anordnung irgendeiner anderen Anzahl und eines Musters von Kanälen (z. B. Aperturen, Linsen (oder Linsenröhren) und Diffusoren) und Pixel umfassen, und kann jedes andere geeignete Scanschema ausführen, um höhere räumliche Auflösungen pro Kanal als die Rohpixelauflösung des Bildsensors zu erreichen. Das System kann zusätzlich oder alternativ eine konvergierende Optik, eine divergierende Optik und/oder jede andere geeignete Art von optischem Element umfassen, um Lichtrechte zu verteilen, die von einem Kanal über die Breite eines entsprechenden Pixels geleitet werden.
- Wie ein Fachmann aus der vorhergehenden detaillierten Beschreibung und aus den Figuren und Ansprüchen erkennen wird, können Änderungen und Ergänzungen an den Ausführungsformen der Erfindung vorgenommen werden, ohne vom Umfang dieser Erfindung abzuweichen, wie er in den folgenden Ansprüchen definiert ist.
Claims (86)
- Ein mikrooptischer Empfängerkanal, bestehend aus: einer Eingangsaperturschicht; einer optischen Linsenschicht, die an die Eingangsaperturschicht angrenzt; einer optischen Filterschicht, die an die optische Linsenschicht angrenzt; und einer Pixelschicht, die an die optische Filterschicht angrenzt.
- Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die Eingangsaperturschicht eine Apertur umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die Eingangsaperturschicht eine Apertur und ein die Apertur umgebendes Anschlagmaterial umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 3 , wobei das Stoppmaterial ein reflektierendes Material umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 3 , wobei das Stoppmaterial ein lichtabsorbierendes Material umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die optische Linsenschicht eine Kollimatorlinse umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die Eingangsaperturschicht eine Apertur umfasst und wobei die optische Linsenschicht eine Linse umfasst, wobei die Apertur mit der Linse ausgerichtet ist. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , der mit einer zweiten Aperturschicht zwischen der optischen Linsenschicht und der optischen Filterschicht. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die optische Filterschicht einen optischen Bandfilter aufweist. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die Pixelschicht mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die Pixelschicht eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die Pixelschicht mindestens eine resonante Hohlraum-Photodiode umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei die Pixelschicht eine Vielzahl von resonanten Hohlraum-Photodioden umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , wobei das Pixel eine Vielzahl von Subpixeln umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 1 , der ferner einen Diffusor zwischen dem optischen Filter und der Pixelschicht umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 15 , der ferner eine dritte Apertur zwischen dem optischen Filter und dem Diffusor umfasst. - Ein optischer Mikroempfängerkanal, bestehend aus: einer Apertur, die von einem Anschlagbereich umgeben ist; einer optischen Linse angrenzend an die Apertur; einem optischen Filter angrenzend an die optische Linse; und einem an den optischen Filter benachbarter Pixel, wobei die Apertur einen Eingangskegel aus Licht annimmt, der einen breiten Wellenlängenbereich enthält, und der optische Filter alle bis auf ein schmales Band der Wellenlängen herausfiltert, die bei einer Betriebswellenlänge zentriert sind, und wobei das Pixel konfiguriert ist, um Photonen nur innerhalb des schmalen Wellenlängenbereichs zu erfassen.
- Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei der Anschlagbereich ein reflektierendes Material umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei die optische Linse eine Kollimatorlinse umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei die Apertur mit der Linse ausgerichtet ist. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , ferner mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei die optische Filterschicht ein optisches Bandfilter aufweist. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei das Pixel eine Mehrzahl von Resonanzhohlraum-Photodioden umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , wobei das Pixel eine Vielzahl von Subpixeln umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 17 , der ferner einen Diffusor zwischen dem optischen Filter und der Pixelschicht umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 29 , der ferner eine dritte Apertur zwischen dem optischen Filter und dem Diffusor umfasst. - Ein Bildsensor mit: einer Vielzahl von mikrooptischen Empfängerkanälen, jeder mikrooptische Empfängerkanal mit: einer Apertur; einer optischen Linse angrenzend an die Apertur; einen optischem Filter angrenzend an die optische Linse; und ein Pixel angrenzend an den optischen Filter.
- Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei der Anschlagbereich ein reflektierendes Material umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei die optische Linse eine Kollimatorlinse umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei die Apertur mit der Linse ausgerichtet ist. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , ferner mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei die optische Filterschicht ein optisches Bandfilter aufweist. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei das Pixel eine Vielzahl von Resonanzhohlraum-Photodioden umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , wobei das Pixel eine Vielzahl von Subpixeln umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 31 , der ferner einen Diffusor zwischen dem optischen Filter und der Pixelschicht umfasst. - Mikrooptischer Empfängerkanal nach
Anspruch 43 , der ferner eine dritte Apertur zwischen dem optischen Filter und dem Diffusor umfasst. - Ein Verfahren, das Folgendes umfasst: Bereitstellen eines mikrooptischen Empfängerkanals, der folgendes umfasst: Eine Apertur, die von einem Anschlagbereich umgeben ist; Eine optische Linse, angrenzend an die Apertur Ein optischer Filter, angrenzend an die optische Linse; und ein dem optischen Filter benachbartes Pixel, wobei die Apertur einen Eingangslichtkegel annimmt, der einen breiten Wellenlängenbereich enthält, und der optische Filter alle bis auf ein schmales Band der Wellenlängen herausfiltert, die bei einer Betriebswellenlänge zentriert sind, und wobei das Pixel konfiguriert ist, um Photonen nur innerhalb des schmalen Wellenlängenbereichs zu erfassen.
- Verfahren nach
Anspruch 45 , wobei der Anschlagbereich ein reflektierendes Material umfasst. - Verfahren nach
Anspruch 45 , wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst. - Verfahren nach
Anspruch 45 , wobei die optische Linse eine Kollimatorlinse umfasst. - Verfahren nach
Anspruch 45 , wobei die Apertur mit der Linse ausgerichtet ist. - Verfahren nach
Anspruch 45 , zusätzlich mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter. - Verfahren nach
Anspruch 45 , wobei die optische Filterschicht ein optisches Bandpassfilter aufweist. - Verfahren nach
Anspruch 45 , wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst. - Verfahren nach
Anspruch 45 , wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst. - Verfahren nach
Anspruch 45 , wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst. - Verfahren nach
Anspruch 45 , wobei das Pixel eine Mehrzahl von Resonanzhohlraum-Photodioden umfasst. - Verfahren nach
Anspruch 45 , wobei das Pixel eine Vielzahl von Subpixeln umfasst. - Verfahren nach
Anspruch 45 , zusätzlich mit einem Diffusor zwischen dem optischen Filter und der Pixelschicht. - Verfahren nach
Anspruch 57 , zusätzlich mit einer dritten Apertur zwischen dem optischen Filter und dem Diffusor. - Ein Verfahren, das Folgendes umfasst: Verwenden eines mikrooptischen Empfängerkanals, der folgendes umfassend: einer Apertur, die von einem Anschlagbereich umgeben ist; einer optischen Linse angrenzend an die Apertur einen optischen Filter angrenzend an die optische Linse; und ein dem optischen Filter benachbartes Pixel, wobei die Apertur einen Eingangslichtkegel annimmt, der einen breiten Wellenlängenbereich enthält, und der optische Filter alle bis auf ein schmales Band der Wellenlängen herausfiltert, die bei einer Betriebswellenlänge zentriert sind, und wobei das Pixel konfiguriert ist, um Photonen nur innerhalb des schmalen Wellenlängenbereichs zu erfassen.
- Verfahren nach
Anspruch 59 , wobei der Anschlagbereich ein reflektierendes Material umfasst. - Verfahren nach
Anspruch 59 , wobei der Anschlagbereich ein lichtabsorbierendes Material umfasst. - Verfahren nach
Anspruch 59 , wobei die optische Linse eine Kollimatorlinse umfasst. - Verfahren nach
Anspruch 59 , wobei die Apertur mit der Linse ausgerichtet ist. - Verfahren nach
Anspruch 59 , zusätzlich mit einer zweiten Apertur zwischen der optischen Linse und dem optischen Filter. - Verfahren nach
Anspruch 59 , wobei die optische Filterschicht ein optisches Bandpassfilter aufweist. - Verfahren nach
Anspruch 59 , wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst. - Verfahren nach
Anspruch 59 , wobei das Pixel eine Mehrzahl von Einzel-Photonen-Lawinen-Diodendetektoren umfasst. - Verfahren nach
Anspruch 59 , wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst. - Verfahren nach
Anspruch 59 , wobei das Pixel eine Mehrzahl von Resonanzhohlraum-Photodioden umfasst. - Verfahren nach
Anspruch 59 , wobei das Pixel eine Vielzahl von Subpixeln umfasst. - Verfahren nach
Anspruch 59 , zusätzlich mit einem Diffusor zwischen dem optischen Filter und der Pixelschicht. - Verfahren nach
Anspruch 71 , zusätzlich mit einer dritten Apertur zwischen dem optischen Filter und dem Diffusor. - Ein optischer Kanal zum Empfangen von Photonen und zum Detektieren der Photonen, der folgendes umfasst: eine Bulk-Abbildungsoptik; eine Aperturschicht, die sich in einer Bildebene der Bulk-Optik befindet; eine Kollimatorlinsenschicht hinter der Aperturschicht, die durch eine Brennweite der Kollimatorlinsenschicht davon getrennt ist; einen optischen Filter hinter der Kollimatorlinsenschicht; und ein Pixel, das gegenüber der Kollimatorlinsenschicht gegenüber dem optischen Filter versetzt ist und auf Photonen anspricht, die auf das Pixel fallen.
- Optischer Kanal nach
Anspruch 73 , zusätzlich mit einem Diffusor, der von der Aperturschicht durch das optische Filter geleitete Lichtstrahlen über einen Bereich eines entsprechenden Pixels verteilt, wodurch das Pixel einfallende Photonen über seine gesamte Breite und Höhe erfassen kann, um den Dynamikbereich des Systems zu erhöhen. - Optischer Kanal nach
Anspruch 73 , wobei das Pixel mindestens einen Einzel-Photonen-Lawinen-Diodendetektor umfasst. - Optischer Kanal nach
Anspruch 73 , wobei das Pixel mindestens eine Resonanzhohlraum-Photodiode umfasst. - Optischer Kanal nach
Anspruch 63 , wobei die Bulk-Abbildungsoptik telezentrisch ist. - Satz optischer Kanäle nach
Anspruch 73 , wobei der Satz von Pixeln des Satzes optischer Kanäle auf einem einzelnen Bildsensor angeordnet ist. - Satz optischer Kanäle nach
Anspruch 78 , wobei mehrere Sätze optischer Kanäle auf dem gleichen Wafer hergestellt und gewürfelt werden, um mehrere Sätze optischer Kanäle zu erhalten. - Satz optischer Kanäle nach
Anspruch 78 , zusätzlich mit einer Bulk-Abbildungsoptik mit Aperturen in einer Brennebene, die in ein Feld projiziert wird, das Sichtfelder für jeden optischen Kanal definiert. - Satz optischer Kanäle mit der Bulk-Abbildungsoptik nach
Anspruch 80 umfasst zusätzlich eine Bulk-Senderoptik mit einem Satz optischer Emitter in einer Brennebene, die Licht in ein Feld projizieren, das Sichtfelder definiert, die sich mit den Sichtfeldern überlappen, die durch den Satz optischer Kanäle definiert sind, und die mit derselben Wellenlänge arbeitet wie der Satz optischer Kanäle und eine Steuerung, um einen aktiven optischen Beleuchtungssensor zu bilden. - Optischer Sensor für aktive Beleuchtung nach
Anspruch 81 , wobei die Bulk-Abbildungsoptik telezentrisch ist. - Optischer Sensor für aktive Beleuchtung nach
Anspruch 81 , wobei der Satz optischer Emitter auf einem einzelnen Halbleiterchip angeordnet ist. - Optischer Sensor für aktive Beleuchtung nach
Anspruch 81 , wobei der Satz optischer Emitter Laser sind. - Optischer Sensor für aktive Beleuchtung nach
Anspruch 81 , wobei der optische Sensor für aktive Beleuchtung konfiguriert ist, den Abstand zu einem Objekt in der Szene für jedes Sendeempfängerpaar zu messen. - Optischer Sensor für aktive Beleuchtung nach
Anspruch 85 , wobei der optische Sensor für aktive Beleuchtung ein 3D-Tiefensensor ist.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562232222P | 2015-09-24 | 2015-09-24 | |
US15/276,532 | 2016-09-26 | ||
US15/276,532 US9992477B2 (en) | 2015-09-24 | 2016-09-26 | Optical system for collecting distance information within a field |
PCT/US2017/039306 WO2018057084A1 (en) | 2015-09-24 | 2017-06-26 | Optical system for collecting distance information within a field |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112017004806T5 true DE112017004806T5 (de) | 2019-06-19 |
Family
ID=59960008
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112017004806.0T Pending DE112017004806T5 (de) | 2015-09-24 | 2017-06-26 | Optisches system zur sammlung von entfernungsinformationen in einem feld |
DE202017007509.1U Active DE202017007509U1 (de) | 2015-09-24 | 2017-06-26 | Optisches System zur Sammlung von Entfernungsinformationen in einem Feld |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202017007509.1U Active DE202017007509U1 (de) | 2015-09-24 | 2017-06-26 | Optisches System zur Sammlung von Entfernungsinformationen in einem Feld |
Country Status (11)
Country | Link |
---|---|
US (8) | US9992477B2 (de) |
JP (1) | JP7214629B2 (de) |
KR (2) | KR102425304B1 (de) |
CN (2) | CN109983312B (de) |
CA (1) | CA3038038A1 (de) |
DE (2) | DE112017004806T5 (de) |
DK (1) | DK180852B1 (de) |
GB (2) | GB2601435B (de) |
IL (1) | IL265562B2 (de) |
SE (1) | SE544865C2 (de) |
WO (1) | WO2018057084A1 (de) |
Families Citing this family (107)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11609336B1 (en) | 2018-08-21 | 2023-03-21 | Innovusion, Inc. | Refraction compensation for use in LiDAR systems |
US9992477B2 (en) | 2015-09-24 | 2018-06-05 | Ouster, Inc. | Optical system for collecting distance information within a field |
US10063849B2 (en) | 2015-09-24 | 2018-08-28 | Ouster, Inc. | Optical system for collecting distance information within a field |
MX2018009265A (es) | 2016-01-29 | 2019-05-13 | Ouster Inc | Sistemas y metodos para calibrar un sensor de distancia optico. |
US10761195B2 (en) | 2016-04-22 | 2020-09-01 | OPSYS Tech Ltd. | Multi-wavelength LIDAR system |
KR20190035853A (ko) * | 2016-08-04 | 2019-04-03 | 오피르 옵트로닉스 솔루션즈 리미티드 | Led용 광도계 테스트 시스템 |
SG11201901600WA (en) | 2016-08-24 | 2019-03-28 | Ouster Inc | Optical system for collecting distance information within a field |
US11275155B1 (en) * | 2016-11-08 | 2022-03-15 | Lockheed Martin Coherent Technologies, Inc. | Laser-array lidar devices |
US10605984B2 (en) | 2016-12-01 | 2020-03-31 | Waymo Llc | Array of waveguide diffusers for light detection using an aperture |
US10502618B2 (en) * | 2016-12-03 | 2019-12-10 | Waymo Llc | Waveguide diffuser for light detection using an aperture |
US11300683B2 (en) | 2016-12-30 | 2022-04-12 | Innovusion Ireland Limited | Multiwavelength LiDAR design |
US10942257B2 (en) | 2016-12-31 | 2021-03-09 | Innovusion Ireland Limited | 2D scanning high precision LiDAR using combination of rotating concave mirror and beam steering devices |
JP7177065B2 (ja) | 2017-01-05 | 2022-11-22 | イノビュージョン インコーポレイテッド | ライダーを符号化および復号する方法およびシステム |
US11009605B2 (en) | 2017-01-05 | 2021-05-18 | Innovusion Ireland Limited | MEMS beam steering and fisheye receiving lens for LiDAR system |
DE102017101945A1 (de) * | 2017-02-01 | 2018-08-02 | Osram Opto Semiconductors Gmbh | Messanordnung mit einem optischen Sender und einem optischen Empfänger |
EP3596492A4 (de) | 2017-03-13 | 2020-12-16 | Opsys Tech Ltd | Augensicheres abtastendes lidarsystem |
CN110603461B (zh) * | 2017-05-11 | 2021-10-22 | 华为技术有限公司 | 飞行时间设备 |
US11131773B2 (en) | 2017-05-15 | 2021-09-28 | Ouster, Inc. | Lidar unit with an optical link between controller and photosensor layer |
WO2018213338A1 (en) | 2017-05-15 | 2018-11-22 | Ouster, Inc. | Augmenting panoramic lidar results with color |
US10444359B2 (en) * | 2017-07-05 | 2019-10-15 | Ouster, Inc. | Light ranging device with electronically scanned emitter array and synchronized sensor array |
KR20220119769A (ko) | 2017-07-28 | 2022-08-30 | 옵시스 테크 엘티디 | 작은 각도 발산을 갖는 vcsel 어레이 lidar 송신기 |
US10791283B2 (en) * | 2017-09-01 | 2020-09-29 | Facebook Technologies, Llc | Imaging device based on lens assembly with embedded filter |
US10785400B2 (en) | 2017-10-09 | 2020-09-22 | Stmicroelectronics (Research & Development) Limited | Multiple fields of view time of flight sensor |
WO2019079642A1 (en) | 2017-10-19 | 2019-04-25 | Innovusion Ireland Limited | LIDAR WITH EXTENDED DYNAMIC RANGE |
CN111356934B (zh) | 2017-11-15 | 2024-03-12 | 欧普赛斯技术有限公司 | 噪声自适应固态lidar系统 |
JP2019101244A (ja) * | 2017-12-04 | 2019-06-24 | 富士通株式会社 | 光モジュール |
JP7120756B2 (ja) * | 2017-12-05 | 2022-08-17 | シャープ株式会社 | 受光素子、飛行時間測定装置及び光レーダー装置 |
US10481269B2 (en) | 2017-12-07 | 2019-11-19 | Ouster, Inc. | Rotating compact light ranging system |
US11493601B2 (en) | 2017-12-22 | 2022-11-08 | Innovusion, Inc. | High density LIDAR scanning |
WO2019139895A1 (en) | 2018-01-09 | 2019-07-18 | Innovusion Ireland Limited | Lidar detection systems and methods that use multi-plane mirrors |
US11675050B2 (en) | 2018-01-09 | 2023-06-13 | Innovusion, Inc. | LiDAR detection systems and methods |
WO2019165130A1 (en) | 2018-02-21 | 2019-08-29 | Innovusion Ireland Limited | Lidar detection systems and methods with high repetition rate to observe far objects |
US11927696B2 (en) | 2018-02-21 | 2024-03-12 | Innovusion, Inc. | LiDAR systems with fiber optic coupling |
US11988773B2 (en) | 2018-02-23 | 2024-05-21 | Innovusion, Inc. | 2-dimensional steering system for lidar systems |
US11808888B2 (en) | 2018-02-23 | 2023-11-07 | Innovusion, Inc. | Multi-wavelength pulse steering in LiDAR systems |
WO2019165095A1 (en) | 2018-02-23 | 2019-08-29 | Innovusion Ireland Limited | Distributed lidar systems |
US11567182B2 (en) | 2018-03-09 | 2023-01-31 | Innovusion, Inc. | LiDAR safety systems and methods |
KR102604050B1 (ko) | 2018-04-01 | 2023-11-22 | 옵시스 테크 엘티디 | 잡음 적응형 솔리드-스테이트 lidar 시스템 |
US11789132B2 (en) | 2018-04-09 | 2023-10-17 | Innovusion, Inc. | Compensation circuitry for lidar receiver systems and method of use thereof |
US11289873B2 (en) | 2018-04-09 | 2022-03-29 | Innovusion Ireland Limited | LiDAR systems and methods for exercising precise control of a fiber laser |
DE102018109544A1 (de) * | 2018-04-20 | 2019-10-24 | Sick Ag | Optoelektronischer Sensor und Verfahren zur Abstandsbestimmung |
WO2019241396A1 (en) | 2018-06-15 | 2019-12-19 | Innovusion Ireland Limited | Lidar systems and methods for focusing on ranges of interest |
DE102018118653B4 (de) | 2018-08-01 | 2020-07-30 | Sick Ag | Optoelektronischer Sensor und Verfahren zum Erfassen eines Objekts |
KR102398080B1 (ko) * | 2018-08-03 | 2022-05-16 | 옵시스 테크 엘티디 | 분산 모듈형 솔리드-스테이트 광 검출 및 거리 측정 시스템 |
US11473970B2 (en) | 2018-08-09 | 2022-10-18 | Ouster, Inc. | Subpixel apertures for channels in a scanning sensor array |
US10739189B2 (en) | 2018-08-09 | 2020-08-11 | Ouster, Inc. | Multispectral ranging/imaging sensor arrays and systems |
US11579300B1 (en) | 2018-08-21 | 2023-02-14 | Innovusion, Inc. | Dual lens receive path for LiDAR system |
US11860316B1 (en) | 2018-08-21 | 2024-01-02 | Innovusion, Inc. | Systems and method for debris and water obfuscation compensation for use in LiDAR systems |
US11796645B1 (en) | 2018-08-24 | 2023-10-24 | Innovusion, Inc. | Systems and methods for tuning filters for use in lidar systems |
US11614526B1 (en) | 2018-08-24 | 2023-03-28 | Innovusion, Inc. | Virtual windows for LIDAR safety systems and methods |
US11579258B1 (en) | 2018-08-30 | 2023-02-14 | Innovusion, Inc. | Solid state pulse steering in lidar systems |
US20200088512A1 (en) * | 2018-09-18 | 2020-03-19 | Shenzhen GOODIX Technology Co., Ltd. | Depth information construction system, associated electronic device, and method for constructing depth information |
WO2020102406A1 (en) | 2018-11-14 | 2020-05-22 | Innovusion Ireland Limited | Lidar systems and methods that use a multi-facet mirror |
US10852434B1 (en) * | 2018-12-11 | 2020-12-01 | Facebook Technologies, Llc | Depth camera assembly using fringe interferometery via multiple wavelengths |
US11947038B2 (en) | 2018-12-21 | 2024-04-02 | Continental Automotive Systems, Inc. | Wavelength adaptive narrow band optical filter for a LIDAR system |
US11585906B2 (en) | 2018-12-26 | 2023-02-21 | Ouster, Inc. | Solid-state electronic scanning laser array with high-side and low-side switches for increased channels |
CN113302515A (zh) | 2019-01-10 | 2021-08-24 | 图达通爱尔兰有限公司 | 具有光束转向和广角信号检测的lidar系统和方法 |
US11486970B1 (en) | 2019-02-11 | 2022-11-01 | Innovusion, Inc. | Multiple beam generation from a single source beam for use with a LiDAR system |
EP3699640B1 (de) | 2019-02-19 | 2022-01-26 | Sick Ag | Optoelektronischer sensor und verfahren zur erfassung eines objekts |
JP2020154008A (ja) * | 2019-03-18 | 2020-09-24 | キヤノン株式会社 | レンズ装置および撮像装置 |
JP2020153796A (ja) * | 2019-03-19 | 2020-09-24 | 株式会社リコー | 測距装置、及び測距方法 |
US11977185B1 (en) | 2019-04-04 | 2024-05-07 | Seyond, Inc. | Variable angle polygon for use with a LiDAR system |
EP3953727A4 (de) | 2019-04-09 | 2023-01-04 | Opsys Tech Ltd. | Festkörperlidar-sender mit lasersteuerung |
WO2020223589A1 (en) * | 2019-05-01 | 2020-11-05 | Sense Photonics, Inc. | Event driven shared memory pixel |
KR20220006638A (ko) | 2019-05-13 | 2022-01-17 | 아우스터, 인크. | 전자 스캐닝 lidar 시스템을 위한 동기화된 이미지 캡처 |
US11448732B2 (en) | 2019-05-21 | 2022-09-20 | Northrop Grumman Systems Corporation | Frequency modulated scanning LIDAR with 360 degrees field of view |
US11531111B2 (en) | 2019-05-21 | 2022-12-20 | Northrop Grumman Systems Corporation | 360 degrees field of view scanning lidar with no movable parts |
US11555891B2 (en) | 2019-05-21 | 2023-01-17 | Northrop Grumman Systems Corporation | Methods for large angle field of view scanning LIDAR with no movable parts |
WO2020242834A1 (en) | 2019-05-30 | 2020-12-03 | OPSYS Tech Ltd. | Eye-safe long-range lidar system using actuator |
KR102538137B1 (ko) | 2019-06-10 | 2023-05-31 | 옵시스 테크 엘티디 | 눈-안전 장거리 고체 상태 lidar 시스템 |
US10861819B1 (en) * | 2019-07-05 | 2020-12-08 | Asm Technology Singapore Pte Ltd | High-precision bond head positioning method and apparatus |
US10701326B1 (en) * | 2019-07-10 | 2020-06-30 | Lightspace Technologies, SIA | Image display system, method of operating image display system and image projecting device |
KR20210020469A (ko) | 2019-08-14 | 2021-02-24 | 삼성전자주식회사 | 분광 카메라 |
DE102019126982A1 (de) | 2019-10-08 | 2021-04-08 | Sick Ag | Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten |
KR20210046971A (ko) | 2019-10-21 | 2021-04-29 | 삼성전자주식회사 | 복수-입력 폴디드 카메라 및 이를 포함하는 모바일 장치 |
DE102019129986A1 (de) | 2019-11-07 | 2021-05-12 | Sick Ag | Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten |
CN111123239B (zh) * | 2019-12-20 | 2022-08-16 | 深圳市速腾聚创科技有限公司 | 接收装置、收发装置和激光雷达 |
US20230019676A1 (en) * | 2019-12-26 | 2023-01-19 | Ams International Ag | A sensing system |
DE102020102247A1 (de) | 2020-01-30 | 2021-08-05 | Sick Ag | Optoelektronischer Sensor und Verfahren zur Erfassung von Objekten |
CN113472995B (zh) * | 2020-03-31 | 2022-12-06 | 深圳市安思疆科技有限公司 | 一种基于spad传感器接收模组的动态自动对焦系统及方法 |
US11695911B2 (en) | 2020-04-27 | 2023-07-04 | Ouster, Inc. | Stereoscopic image capturing systems |
US11876109B2 (en) * | 2020-05-06 | 2024-01-16 | Semiconductor Components Industries, Llc | Semiconductor devices with single-photon avalanche diodes and light spreading lenses |
DE102020209849A1 (de) | 2020-08-05 | 2022-02-10 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Ermitteln eines optischen Übersprechens eines Lidar-Sensors und Lidar-Sensor |
US11579265B2 (en) | 2020-08-19 | 2023-02-14 | Continental Autonomous Mobility US, LLC | Lidar system with crosstalk reduction comprising a power supply circuit layer stacked between an avalanche-type diode layer and a read-out circuit layer |
US11977169B2 (en) | 2020-08-24 | 2024-05-07 | Innoviz Technologies Ltd. | Multi-beam laser emitter with common optical path |
EP4001866A1 (de) * | 2020-11-20 | 2022-05-25 | STMicroelectronics S.r.l. | Strahlungssensor mit integriertem mechanischem optischem modulator und zugehöriges herstellungsverfahren |
TWI833561B (zh) * | 2020-12-26 | 2024-02-21 | 以色列商趣眼有限公司 | 感測器、校正焦平面陣列中飽和檢測結果的方法及檢測物體深度資訊的方法 |
WO2022144246A1 (en) * | 2021-01-04 | 2022-07-07 | Signify Holding B.V. | A disinfection system comprising an optical arrangement for a far uv light source to filter out undesired wavelengths |
US11422267B1 (en) | 2021-02-18 | 2022-08-23 | Innovusion, Inc. | Dual shaft axial flux motor for optical scanners |
EP4260086A1 (de) | 2021-03-01 | 2023-10-18 | Innovusion, Inc. | Faserbasierte sender- und empfängerkanäle von lichtdetektions- und entfernungsmesssystemen |
CN112965243B (zh) * | 2021-03-10 | 2022-10-04 | 北京航空航天大学 | 一种紧凑型眼纹(巩膜血管)成像装置 |
WO2022195537A1 (en) * | 2021-03-17 | 2022-09-22 | The Trustees Of Princeton University | Microlens amplitude masks for flying pixel removal in time-of-flight imaging |
US20220333911A1 (en) * | 2021-04-20 | 2022-10-20 | Egis Technology Inc. | Distance sensing apparatus |
US11555895B2 (en) | 2021-04-20 | 2023-01-17 | Innovusion, Inc. | Dynamic compensation to polygon and motor tolerance using galvo control profile |
US11614521B2 (en) | 2021-04-21 | 2023-03-28 | Innovusion, Inc. | LiDAR scanner with pivot prism and mirror |
US11662439B2 (en) | 2021-04-22 | 2023-05-30 | Innovusion, Inc. | Compact LiDAR design with high resolution and ultra-wide field of view |
CN113156557B (zh) * | 2021-04-30 | 2023-02-21 | 浙江光珀智能科技有限公司 | 一种光学面罩及光学系统 |
US11624806B2 (en) | 2021-05-12 | 2023-04-11 | Innovusion, Inc. | Systems and apparatuses for mitigating LiDAR noise, vibration, and harshness |
CN117413199A (zh) | 2021-05-21 | 2024-01-16 | 图达通智能美国有限公司 | 使用lidar扫描仪内部的检流计镜进行智能扫描的移动配置文件 |
US11768294B2 (en) | 2021-07-09 | 2023-09-26 | Innovusion, Inc. | Compact lidar systems for vehicle contour fitting |
WO2023018146A1 (ko) * | 2021-08-09 | 2023-02-16 | 주식회사 위멤스 | 스캐닝 미러 기반의 라이다 장치 |
DE102021124430B3 (de) | 2021-09-21 | 2022-11-03 | Sick Ag | Visualisieren von Lidar-Messdaten |
WO2023131509A1 (en) | 2022-01-04 | 2023-07-13 | Signify Holding B.V. | A radiation generating system comprising an optical arrangement for a far uv light source minimizing the impact of unfiltered undesired wavelengths |
WO2023147143A1 (en) * | 2022-01-30 | 2023-08-03 | Ouster, Inc. | Overlapping sub-ranges with power stepping |
US11871130B2 (en) | 2022-03-25 | 2024-01-09 | Innovusion, Inc. | Compact perception device |
US20230375679A1 (en) * | 2022-05-17 | 2023-11-23 | Stmicroelectronics (Research & Development) Limited | Quantum film direct time of flight sensor circuit for low cost short wave infrared operation |
CN115966865B (zh) * | 2022-12-29 | 2024-06-14 | 中国电子科技集团公司第二十六研究所 | 一种基于三维堆叠产生带外零点的mems滤波器及其制作方法 |
Family Cites Families (261)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US672262A (en) * | 1900-11-16 | 1901-04-16 | Charles Hook Adrean | Harness attachment. |
US4358851A (en) | 1980-02-28 | 1982-11-09 | Xerox Corporation | Fiber optic laser device and light emitter utilizing the device |
US4602289A (en) | 1982-05-31 | 1986-07-22 | Tokyo Shibaura Denki Kabushiki Kaisha | Solid state image pick-up device |
JPS58211677A (ja) | 1982-06-02 | 1983-12-09 | Nissan Motor Co Ltd | 光レ−ダ装置 |
DE3426868A1 (de) | 1984-07-20 | 1986-01-30 | LITEF Litton Technische Werke der Hellige GmbH, 7800 Freiburg | Verfahren und einrichtung zur drehratenauslesung mittels eines passiven optischen resonators |
US4676599A (en) | 1985-08-14 | 1987-06-30 | The United States Of America As Represented By The Secretary Of The Air Force | Micro-optical lens holder |
US4744667A (en) | 1986-02-11 | 1988-05-17 | University Of Massachusetts | Microspectrofluorimeter |
US4851664A (en) | 1988-06-27 | 1989-07-25 | United States Of America As Represented By The Secretary Of The Navy | Narrow band and wide angle hemispherical interference optical filter |
JPH036407A (ja) | 1989-06-03 | 1991-01-11 | Daido Steel Co Ltd | 外周形状測定装置 |
NL9100248A (nl) | 1991-02-13 | 1992-09-01 | Philips & Du Pont Optical | Inrichting voor het meten van de reflectie en/of transmissie van een voorwerp. |
US5267016A (en) | 1991-11-27 | 1993-11-30 | United Technologies Corporation | Laser diode distance measurement |
US5188286A (en) | 1991-12-18 | 1993-02-23 | International Business Machines Corporation | Thermoelectric piezoelectric temperature control |
US5288992A (en) | 1992-12-15 | 1994-02-22 | Gte Laboratories Incorporated | Wide angle, narrow band optical filter |
US6133989A (en) | 1993-02-09 | 2000-10-17 | Advanced Scientific Concepts, Inc. | 3D imaging laser radar |
JPH0749417A (ja) | 1993-08-06 | 1995-02-21 | Fujitsu Ltd | 干渉フィルタアセンブリ |
JP3404607B2 (ja) * | 1993-09-30 | 2003-05-12 | 株式会社小松製作所 | 共焦点光学装置 |
WO1995009346A1 (fr) * | 1993-09-30 | 1995-04-06 | Kabushiki Kaisha Komatsu Seisakusho | Appareil optique a foyer commun |
JP2919267B2 (ja) | 1994-05-26 | 1999-07-12 | 松下電工株式会社 | 形状検出方法およびその装置 |
JP3251150B2 (ja) | 1994-12-29 | 2002-01-28 | 日本板硝子株式会社 | 平板マイクロレンズアレイおよびその製造方法 |
JP3350918B2 (ja) * | 1996-03-26 | 2002-11-25 | 株式会社高岳製作所 | 2次元配列型共焦点光学装置 |
US6043873A (en) | 1997-01-10 | 2000-03-28 | Advanced Optical Technologies, Llc | Position tracking system |
JPH09331107A (ja) | 1996-06-11 | 1997-12-22 | Canon Inc | 波長可変光源及びその波長制御方法及び波長多重通信ネットワーク |
GB9618720D0 (en) | 1996-09-07 | 1996-10-16 | Philips Electronics Nv | Electrical device comprising an array of pixels |
JP3816632B2 (ja) | 1997-05-14 | 2006-08-30 | オリンパス株式会社 | 走査型顕微鏡 |
US6362482B1 (en) | 1997-09-16 | 2002-03-26 | Advanced Scientific Concepts, Inc. | High data rate smart sensor technology |
US6721262B1 (en) | 1997-09-22 | 2004-04-13 | Seagate Technology Llc | Aperture stop for a flying optical head |
US5953110A (en) | 1998-04-23 | 1999-09-14 | H.N. Burns Engineering Corporation | Multichannel laser radar |
JP2000138792A (ja) | 1998-10-30 | 2000-05-16 | Sharp Corp | イメージセンサ及びその製造方法 |
US6201293B1 (en) | 1998-11-19 | 2001-03-13 | Xerox Corporation | Electro optical devices with reduced filter thinning on the edge pixel photosites and method of producing same |
EP1159636B1 (de) | 1999-03-18 | 2003-05-28 | Siemens Aktiengesellschaft | Ortsauflösendes abstandsmesssystem |
US6564168B1 (en) | 1999-09-14 | 2003-05-13 | Immersion Corporation | High-resolution optical encoder with phased-array photodetectors |
US6414746B1 (en) | 1999-11-24 | 2002-07-02 | Advanced Scientific Concepts, Inc. | 3-D imaging multiple target laser radar |
TW527518B (en) * | 2000-07-14 | 2003-04-11 | Massachusetts Inst Technology | Method and system for high resolution, ultra fast, 3-D imaging |
US7045833B2 (en) * | 2000-09-29 | 2006-05-16 | Board Of Regents, The University Of Texas System | Avalanche photodiodes with an impact-ionization-engineered multiplication region |
DE10110420A1 (de) | 2001-03-05 | 2002-09-12 | Sick Ag | Vorrichtung zur Bestimmung eines Abstandsprofils |
US6707230B2 (en) | 2001-05-29 | 2004-03-16 | University Of North Carolina At Charlotte | Closed loop control systems employing relaxor ferroelectric actuators |
DE10127204A1 (de) | 2001-06-05 | 2003-03-20 | Ibeo Automobile Sensor Gmbh | Erfassungsverfahren und - vorrichtung |
DE10153977B4 (de) | 2001-11-06 | 2004-08-26 | Martin Spies | System zur Erzeugung eines Entfernungsbildes mit elektromagnetischen Impulsen |
US7091462B2 (en) | 2002-08-26 | 2006-08-15 | Jds Uniphase Corporation | Transmitter with laser monitoring and wavelength stabilization circuit |
DE10244641A1 (de) | 2002-09-25 | 2004-04-08 | Ibeo Automobile Sensor Gmbh | Optoelektronische Erfassungseinrichtung |
WO2004066352A2 (en) | 2003-01-23 | 2004-08-05 | Orbotech Ltd. | System and method for providing high brightness illumination |
JP4427954B2 (ja) | 2003-02-13 | 2010-03-10 | アイシン精機株式会社 | 監視装置 |
US20040223071A1 (en) * | 2003-05-08 | 2004-11-11 | David Wells | Multiple microlens system for image sensors or display units |
WO2005017489A2 (en) | 2003-07-11 | 2005-02-24 | Svt Associates, Inc. | Film mapping system |
US7266248B2 (en) * | 2003-08-08 | 2007-09-04 | Hewlett-Packard Development Company, L.P. | Method and apparatus for generating data representative of an image |
DE10345555A1 (de) * | 2003-09-30 | 2005-05-04 | Osram Opto Semiconductors Gmbh | Strahlungsemittierendes und -empfangendes Halbleiterbauelement und Verfahren zu dessen Herstellung |
US7433042B1 (en) | 2003-12-05 | 2008-10-07 | Surface Optics Corporation | Spatially corrected full-cubed hyperspectral imager |
US7808706B2 (en) | 2004-02-12 | 2010-10-05 | Tredegar Newco, Inc. | Light management films for displays |
DE102004014041B4 (de) | 2004-03-19 | 2006-04-06 | Martin Spies | Sensor zur Hinderniserkennung |
US7738026B2 (en) * | 2005-05-02 | 2010-06-15 | Andrew G. Cartlidge | Increasing fill-factor on pixelated sensors |
US7279764B2 (en) * | 2004-06-01 | 2007-10-09 | Micron Technology, Inc. | Silicon-based resonant cavity photodiode for image sensors |
USD531525S1 (en) | 2004-11-02 | 2006-11-07 | Sick Ag | Optoelectronic sensor |
US20090295910A1 (en) | 2005-03-24 | 2009-12-03 | Jose Mir | Hyperspectral Imaging System and Methods Thereof |
US8355767B2 (en) | 2005-04-27 | 2013-01-15 | Massachusetts Institute Of Technology | Raman spectroscopy for non-invasive glucose measurements |
US8294809B2 (en) | 2005-05-10 | 2012-10-23 | Advanced Scientific Concepts, Inc. | Dimensioning system |
EP2703871A3 (de) | 2005-05-25 | 2014-09-03 | Massachusetts Institute Of Technology | Multifokale Rastermikroskopie-Systeme und -Verfahren |
EP1764835B1 (de) | 2005-09-19 | 2008-01-23 | CRF Societa'Consortile per Azioni | Multifunktioneller optischer Sensor mit einer an Mikrolinsen gekoppelten Matrix von Photodetektoren |
JP4967296B2 (ja) | 2005-10-03 | 2012-07-04 | 株式会社ニコン | 撮像素子、焦点検出装置、および、撮像システム |
US8130367B2 (en) | 2005-12-08 | 2012-03-06 | Roger Stettner | Laser ranging, tracking and designation using 3-D focal planes |
US7421159B2 (en) | 2005-12-13 | 2008-09-02 | Board of Supervisor of Louisiana State University and Agricultural and Mechanical College | Integral pre-aligned micro-optical systems |
WO2007071032A1 (en) | 2005-12-19 | 2007-06-28 | Institut National D'optique | Object-detecting lighting system and method |
DE102006004802B4 (de) | 2006-01-23 | 2008-09-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems |
US7544945B2 (en) | 2006-02-06 | 2009-06-09 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Vertical cavity surface emitting laser (VCSEL) array laser scanner |
US7423821B2 (en) * | 2006-03-24 | 2008-09-09 | Gentex Corporation | Vision system |
GB0608923D0 (en) | 2006-05-05 | 2006-06-14 | Visitech Internat Ltd | 2-d array laser confocal scanning microscope and methods of improving image quality in such microscope |
KR100782470B1 (ko) * | 2006-05-22 | 2007-12-05 | 삼성에스디아이 주식회사 | 레이저 조사장치 및 그를 이용한 유기전계발광소자의제조방법 |
US7873601B1 (en) | 2006-06-29 | 2011-01-18 | Emc Corporation | Backup of incremental metadata in block based backup systems |
CN101688774A (zh) | 2006-07-13 | 2010-03-31 | 威力登音响公司 | 高精确度激光雷达系统 |
US8767190B2 (en) | 2006-07-13 | 2014-07-01 | Velodyne Acoustics, Inc. | High definition LiDAR system |
EP1901093B1 (de) | 2006-09-15 | 2018-11-14 | Triple-IN Holding AG | Aufnahme von Entfernungsbildern |
JP2010512536A (ja) | 2006-12-12 | 2010-04-22 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 温度補償機能を備えるセンサ濃度検出器 |
US7683962B2 (en) | 2007-03-09 | 2010-03-23 | Eastman Kodak Company | Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map |
TWI433052B (zh) | 2007-04-02 | 2014-04-01 | Primesense Ltd | 使用投影圖案之深度製圖 |
EP1978394A1 (de) * | 2007-04-06 | 2008-10-08 | Global Bionic Optics Pty Ltd. | Optisches System zum Vergrößern der Tiefenschärfe |
CA2635155C (en) | 2007-06-18 | 2015-11-24 | Institut National D'optique | Method for detecting objects with visible light |
WO2008155770A2 (en) | 2007-06-19 | 2008-12-24 | Prime Sense Ltd. | Distance-varying illumination and imaging techniques for depth mapping |
CA2710212C (en) | 2007-12-21 | 2014-12-09 | Leddartech Inc. | Detection and ranging methods and systems |
TWI358606B (en) | 2007-12-28 | 2012-02-21 | Ind Tech Res Inst | Method for three-dimension (3d) measurement and an |
US8384997B2 (en) | 2008-01-21 | 2013-02-26 | Primesense Ltd | Optical pattern projection |
ATE543105T1 (de) | 2008-03-20 | 2012-02-15 | Sick Ag | Omnidirektionales lidar system |
EP2283383B1 (de) * | 2008-04-11 | 2013-07-17 | École Polytechnique Fédérale de Lausanne (EPFL) | Auf laufzeit basierendes abbildungssystem, das ein display als beleuchtungsquelle benutzt |
US9041915B2 (en) | 2008-05-09 | 2015-05-26 | Ball Aerospace & Technologies Corp. | Systems and methods of scene and action capture using imaging system incorporating 3D LIDAR |
WO2010006081A1 (en) * | 2008-07-08 | 2010-01-14 | Chiaro Technologies, Inc. | Multiple channel locating |
US8456517B2 (en) | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
CN201298079Y (zh) | 2008-11-17 | 2009-08-26 | 南京德朔实业有限公司 | 激光测距装置 |
JP2010128122A (ja) | 2008-11-27 | 2010-06-10 | Olympus Corp | 撮像装置 |
US20100204964A1 (en) | 2009-02-09 | 2010-08-12 | Utah State University | Lidar-assisted multi-image matching for 3-d model and sensor pose refinement |
US9164689B2 (en) | 2009-03-30 | 2015-10-20 | Oracle America, Inc. | Data storage system and method of processing a data access request |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
US7876456B2 (en) | 2009-05-11 | 2011-01-25 | Mitutoyo Corporation | Intensity compensation for interchangeable chromatic point sensor components |
US8743176B2 (en) | 2009-05-20 | 2014-06-03 | Advanced Scientific Concepts, Inc. | 3-dimensional hybrid camera and production system |
WO2010141631A1 (en) | 2009-06-02 | 2010-12-09 | Velodyne Acoustics, Inc. | Color lidar scanner |
US8504529B1 (en) | 2009-06-19 | 2013-08-06 | Netapp, Inc. | System and method for restoring data to a storage device based on a backup image |
EP2446301B1 (de) * | 2009-06-22 | 2018-08-01 | Toyota Motor Europe | Optischer pulslichtentfernungsmesser |
US8478799B2 (en) | 2009-06-26 | 2013-07-02 | Simplivity Corporation | Namespace file system accessing an object store |
US8803967B2 (en) | 2009-07-31 | 2014-08-12 | Mesa Imaging Ag | Time of flight camera with rectangular field of illumination |
US8330840B2 (en) | 2009-08-06 | 2012-12-11 | Aptina Imaging Corporation | Image sensor with multilayer interference filters |
US7995708B2 (en) | 2009-08-14 | 2011-08-09 | Varian Medical Systems, Inc. | X-ray tube bearing shaft and hub |
CN102006402B (zh) | 2009-08-28 | 2014-02-19 | 鸿富锦精密工业(深圳)有限公司 | 摄像装置及其身份识别方法 |
DE102009049387B4 (de) | 2009-10-14 | 2016-05-25 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung |
US20110116262A1 (en) | 2009-11-13 | 2011-05-19 | Phoseon Technology, Inc. | Economical partially collimating reflective micro optical array |
JP5588310B2 (ja) | 2009-11-15 | 2014-09-10 | プライムセンス リミテッド | ビームモニタ付き光学プロジェクタ |
EP2502115A4 (de) * | 2009-11-20 | 2013-11-06 | Pelican Imaging Corp | Aufnahme und verarbeitung von bildern mittels eines monolithischen kameraarrays mit heterogenem bildwandler |
US20150358601A1 (en) | 2009-12-23 | 2015-12-10 | Mesa Imaging Ag | Optical Filter on Objective Lens for 3D Cameras |
US8605761B2 (en) | 2010-01-18 | 2013-12-10 | Optical Physics Company | Multi-beam laser control system and method |
US8786757B2 (en) | 2010-02-23 | 2014-07-22 | Primesense Ltd. | Wideband ambient light rejection |
US20110242355A1 (en) * | 2010-04-05 | 2011-10-06 | Qualcomm Incorporated | Combining data from multiple image sensors |
US8799414B2 (en) | 2010-05-03 | 2014-08-05 | Panzura, Inc. | Archiving data for a distributed filesystem |
US9811532B2 (en) | 2010-05-03 | 2017-11-07 | Panzura, Inc. | Executing a cloud command for a distributed filesystem |
US8805967B2 (en) | 2010-05-03 | 2014-08-12 | Panzura, Inc. | Providing disaster recovery for a distributed filesystem |
US9742564B2 (en) | 2010-05-14 | 2017-08-22 | Oracle International Corporation | Method and system for encrypting data |
US8612699B2 (en) | 2010-06-25 | 2013-12-17 | International Business Machines Corporation | Deduplication in a hybrid storage environment |
NL2004996C2 (nl) | 2010-06-29 | 2011-12-30 | Cyclomedia Technology B V | Werkwijze voor het vervaardigen van een digitale foto, waarbij ten minste een deel van de beeldelementen positieinformatie omvatten en een dergelijke digitale foto. |
DE102010031535A1 (de) * | 2010-07-19 | 2012-01-19 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Bildaufnahmevorrichtung und Verfahren zum Aufnehmen eines Bildes |
USD659030S1 (en) | 2010-07-30 | 2012-05-08 | Sick Ag | Optoelectronic sensor |
US8736818B2 (en) | 2010-08-16 | 2014-05-27 | Ball Aerospace & Technologies Corp. | Electronically steered flash LIDAR |
WO2012055966A1 (en) | 2010-10-27 | 2012-05-03 | MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. | Protecting data integrity with storage leases |
US8285133B2 (en) | 2010-12-03 | 2012-10-09 | Research In Motion Limited | Dynamic lighting control in hybrid camera-projector device |
US9167138B2 (en) | 2010-12-06 | 2015-10-20 | Apple Inc. | Pattern projection and imaging using lens arrays |
JP2012128270A (ja) | 2010-12-16 | 2012-07-05 | Denso Corp | 干渉フィルタアセンブリ |
EP2469295A1 (de) * | 2010-12-23 | 2012-06-27 | André Borowski | Echtzeit-3D-Landschaft-Bildwandler und entsprechende Bildgebungsverfahren |
EP2469301A1 (de) | 2010-12-23 | 2012-06-27 | André Borowski | Verfahren und Vorrichtungen zur Erzeugung einer Repräsentation einer 3D-Szene bei sehr hoher Geschwindigkeit |
US8717488B2 (en) | 2011-01-18 | 2014-05-06 | Primesense Ltd. | Objective optics with interference filter |
JP2012202776A (ja) | 2011-03-24 | 2012-10-22 | Toyota Central R&D Labs Inc | 距離測定装置 |
US8908159B2 (en) | 2011-05-11 | 2014-12-09 | Leddartech Inc. | Multiple-field-of-view scannerless optical rangefinder in high ambient background light |
WO2012174401A2 (en) | 2011-06-16 | 2012-12-20 | Lenny Lipton | Stereoscopic camera with polarizing apertures |
DE102011107360A1 (de) | 2011-06-29 | 2013-01-03 | Karlsruher Institut für Technologie | Mikrooptisches Element, mikrooptisches Array und optisches Sensorensystem |
US8645810B2 (en) | 2011-07-31 | 2014-02-04 | Sandisk Technologies Inc. | Fast detection of convergence or divergence in iterative decoding |
US8908277B2 (en) * | 2011-08-09 | 2014-12-09 | Apple Inc | Lens array projector |
US8849759B2 (en) | 2012-01-13 | 2014-09-30 | Nexenta Systems, Inc. | Unified local storage supporting file and cloud object access |
DE102011052802B4 (de) | 2011-08-18 | 2014-03-13 | Sick Ag | 3D-Kamera und Verfahren zur Überwachung eines Raumbereichs |
US8797512B2 (en) | 2011-09-15 | 2014-08-05 | Advanced Scientific Concepts, Inc. | Automatic range corrected flash ladar camera |
US20160150963A1 (en) * | 2011-09-26 | 2016-06-02 | Michael Lee Roukes | One-photon integrated neurophotonic systems |
WO2013064507A1 (en) * | 2011-11-04 | 2013-05-10 | Imec | Spectral camera with overlapping segments of image copies interleaved onto sensor array |
US8762798B2 (en) | 2011-11-16 | 2014-06-24 | Stec, Inc. | Dynamic LDPC code rate solution |
US8743923B2 (en) * | 2012-01-31 | 2014-06-03 | Flir Systems Inc. | Multi-wavelength VCSEL array to reduce speckle |
WO2013121267A1 (en) | 2012-02-15 | 2013-08-22 | Mesa Imaging Ag | Time of flight camera with stripe illumination |
CN104160240B (zh) | 2012-02-15 | 2017-02-22 | 苹果公司 | 扫描深度引擎 |
JP2013181912A (ja) | 2012-03-02 | 2013-09-12 | Seiko Epson Corp | 成分分析装置 |
EP2828833B1 (de) | 2012-03-22 | 2017-03-08 | Apple Inc. | Hängende abtastspiegelanordnung |
US9335220B2 (en) | 2012-03-22 | 2016-05-10 | Apple Inc. | Calibration of time-of-flight measurement using stray reflections |
US9195914B2 (en) | 2012-09-05 | 2015-11-24 | Google Inc. | Construction zone sign detection |
US9071763B1 (en) | 2012-09-26 | 2015-06-30 | Google Inc. | Uniform illumination image capture |
US9383753B1 (en) | 2012-09-26 | 2016-07-05 | Google Inc. | Wide-view LIDAR with areas of special attention |
US9398264B2 (en) * | 2012-10-19 | 2016-07-19 | Qualcomm Incorporated | Multi-camera system using folded optics |
US9019267B2 (en) | 2012-10-30 | 2015-04-28 | Apple Inc. | Depth mapping with enhanced resolution |
US9111444B2 (en) | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
US9281841B2 (en) | 2012-10-31 | 2016-03-08 | Avago Technologies General Ip (Singapore) Pte. Ltd. | Load balanced decoding of low-density parity-check codes |
US9648214B2 (en) | 2012-11-21 | 2017-05-09 | Nokia Technologies Oy | Module for plenoptic camera system |
KR102004987B1 (ko) | 2012-12-11 | 2019-07-29 | 삼성전자주식회사 | 광자 계수 검출 장치 및 독출 회로 |
US9823351B2 (en) | 2012-12-18 | 2017-11-21 | Uber Technologies, Inc. | Multi-clad fiber based optical apparatus and methods for light detection and ranging sensors |
CN103048046B (zh) * | 2012-12-21 | 2015-02-25 | 浙江大学 | 双光束光谱仪 |
US20160047901A1 (en) | 2012-12-25 | 2016-02-18 | Quanergy Systems, Inc. | Robust lidar sensor for broad weather, shock and vibration conditions |
WO2014102341A1 (en) | 2012-12-31 | 2014-07-03 | Iee International Electronics & Engineering S.A. | Optical system generating a structured light field from an array of light sources by meand of a refracting or reflecting light structuring element |
US9285477B1 (en) | 2013-01-25 | 2016-03-15 | Apple Inc. | 3D depth point cloud from timing flight of 2D scanned light beam pulses |
US20140211194A1 (en) | 2013-01-27 | 2014-07-31 | Quanergy Systems, Inc. | Cost-effective lidar sensor for multi-signal detection, weak signal detection and signal disambiguation and method of using same |
US9063549B1 (en) | 2013-03-06 | 2015-06-23 | Google Inc. | Light detection and ranging device with oscillating mirror driven by magnetically interactive coil |
US9086273B1 (en) | 2013-03-08 | 2015-07-21 | Google Inc. | Microrod compression of laser beam in combination with transmit lens |
US9470520B2 (en) | 2013-03-14 | 2016-10-18 | Apparate International C.V. | LiDAR scanner |
US9267787B2 (en) | 2013-03-15 | 2016-02-23 | Apple Inc. | Depth scanning with multiple emitters |
WO2014150856A1 (en) | 2013-03-15 | 2014-09-25 | Pelican Imaging Corporation | Array camera implementing quantum dot color filters |
CN103234527B (zh) | 2013-04-07 | 2015-06-24 | 南京理工大学 | 多光谱光场相机的成像方法 |
US9164511B1 (en) | 2013-04-17 | 2015-10-20 | Google Inc. | Use of detected objects for image processing |
US10132928B2 (en) | 2013-05-09 | 2018-11-20 | Quanergy Systems, Inc. | Solid state optical phased array lidar and method of using same |
WO2014203110A1 (en) | 2013-06-19 | 2014-12-24 | Primesense Ltd. | Integrated structured-light projector |
US10078137B2 (en) | 2013-06-21 | 2018-09-18 | Irvine Sensors Corp. | LIDAR device and method for clear and degraded environmental viewing conditions |
US20150002636A1 (en) | 2013-06-28 | 2015-01-01 | Cable Television Laboratories, Inc. | Capturing Full Motion Live Events Using Spatially Distributed Depth Sensing Cameras |
US9551791B2 (en) | 2013-07-09 | 2017-01-24 | Xenomatix Nv | Surround sensing system |
US20150260830A1 (en) | 2013-07-12 | 2015-09-17 | Princeton Optronics Inc. | 2-D Planar VCSEL Source for 3-D Imaging |
US9268012B2 (en) | 2013-07-12 | 2016-02-23 | Princeton Optronics Inc. | 2-D planar VCSEL source for 3-D imaging |
US8742325B1 (en) | 2013-07-31 | 2014-06-03 | Google Inc. | Photodetector array on curved substrate |
CN105593651B (zh) * | 2013-08-02 | 2019-06-07 | 威利食品有限公司 | 光谱测定系统和方法、光谱设备和系统 |
US10126412B2 (en) | 2013-08-19 | 2018-11-13 | Quanergy Systems, Inc. | Optical phased array lidar system and method of using same |
US8836922B1 (en) | 2013-08-20 | 2014-09-16 | Google Inc. | Devices and methods for a rotating LIDAR platform with a shared transmit/receive path |
JP6476658B2 (ja) * | 2013-09-11 | 2019-03-06 | ソニー株式会社 | 画像処理装置および方法 |
JP2015055314A (ja) | 2013-09-12 | 2015-03-23 | 日本精工株式会社 | 電動モータ、電動パワーステアリング装置及び動力伝達機構 |
US9299731B1 (en) | 2013-09-30 | 2016-03-29 | Google Inc. | Systems and methods for selectable photodiode circuits |
US9368936B1 (en) | 2013-09-30 | 2016-06-14 | Google Inc. | Laser diode firing system |
US9425654B2 (en) | 2013-09-30 | 2016-08-23 | Google Inc. | Contactless electrical coupling for a rotatable LIDAR device |
WO2015052616A1 (en) | 2013-10-09 | 2015-04-16 | Koninklijke Philips N.V. | Monolithic led arrays for uniform and high-brightness light sources |
JP6314418B2 (ja) | 2013-10-18 | 2018-04-25 | 株式会社デンソー | レーダ装置 |
TWI533179B (zh) * | 2013-10-25 | 2016-05-11 | 緯創資通股份有限公司 | 光學觸控系統、觸控偵測方法及電腦程式產品 |
US9299732B2 (en) | 2013-10-28 | 2016-03-29 | Omnivision Technologies, Inc. | Stacked chip SPAD image sensor |
US20150124094A1 (en) | 2013-11-05 | 2015-05-07 | Delphi Technologies, Inc. | Multiple imager vehicle optical sensor system |
US10203399B2 (en) | 2013-11-12 | 2019-02-12 | Big Sky Financial Corporation | Methods and apparatus for array based LiDAR systems with reduced interference |
CN106463565B (zh) | 2013-11-22 | 2018-06-01 | 优步技术公司 | 激光雷达扫描仪校准 |
US9733344B2 (en) | 2013-11-25 | 2017-08-15 | Electronics And Telecommunications Research Institute | Laser radar apparatus and method for operating thereof |
JP6292533B2 (ja) | 2013-12-06 | 2018-03-14 | 株式会社リコー | 物体検出装置及びセンシング装置 |
KR101582572B1 (ko) | 2013-12-24 | 2016-01-11 | 엘지전자 주식회사 | 차량 운전 보조 장치 및 이를 구비한 차량 |
US20150186287A1 (en) | 2013-12-30 | 2015-07-02 | Michael Henry Kass | Using Memory System Programming Interfacing |
US20150192677A1 (en) | 2014-01-03 | 2015-07-09 | Quanergy Systems, Inc. | Distributed lidar sensing system for wide field of view three dimensional mapping and method of using same |
US10061111B2 (en) * | 2014-01-17 | 2018-08-28 | The Trustees Of Columbia University In The City Of New York | Systems and methods for three dimensional imaging |
JP2015137987A (ja) | 2014-01-24 | 2015-07-30 | アズビル株式会社 | 距離センサおよび距離計測方法 |
JP5999121B2 (ja) | 2014-02-17 | 2016-09-28 | 横河電機株式会社 | 共焦点光スキャナ |
CN111781583B (zh) | 2014-03-14 | 2024-05-14 | 赫普塔冈微光有限公司 | 可操作以识别虚假反射并补偿由虚假反射导致的误差的光电模块 |
WO2015163074A1 (ja) | 2014-04-22 | 2015-10-29 | シャープ株式会社 | 光学センサシステム、光学式ガスセンサシステム、微粒子センサシステム、発光装置、および画像印刷装置 |
US20170026588A1 (en) | 2014-05-01 | 2017-01-26 | Rebellion Photonics, Inc. | Dual-band divided-aperture infra-red spectral imaging system |
US9754192B2 (en) | 2014-06-30 | 2017-09-05 | Microsoft Technology Licensing, Llc | Object detection utilizing geometric information fused with image data |
US9753351B2 (en) | 2014-06-30 | 2017-09-05 | Quanergy Systems, Inc. | Planar beam forming and steering optical phased array chip and method of using same |
US9575184B2 (en) | 2014-07-03 | 2017-02-21 | Continental Advanced Lidar Solutions Us, Inc. | LADAR sensor for a dense environment |
US9869753B2 (en) | 2014-08-15 | 2018-01-16 | Quanergy Systems, Inc. | Three-dimensional-mapping two-dimensional-scanning lidar based on one-dimensional-steering optical phased arrays and method of using same |
JP6789926B2 (ja) | 2014-08-15 | 2020-11-25 | エイアイ インコーポレイテッドAEYE, Inc. | Ladar伝送のための方法及びシステム |
US10709365B2 (en) | 2014-08-21 | 2020-07-14 | I. R. Med Ltd. | System and method for noninvasive analysis of subcutaneous tissue |
EP3002548B1 (de) | 2014-10-02 | 2016-09-14 | Sick Ag | Beleuchtungseinrichtung und Verfahren zum Erzeugen eines Beleuchtungsfeldes |
US9772405B2 (en) | 2014-10-06 | 2017-09-26 | The Boeing Company | Backfilling clouds of 3D coordinates |
US10036803B2 (en) * | 2014-10-20 | 2018-07-31 | Quanergy Systems, Inc. | Three-dimensional lidar sensor based on two-dimensional scanning of one-dimensional optical emitter and method of using same |
JP2016092146A (ja) | 2014-10-31 | 2016-05-23 | セイコーエプソン株式会社 | 量子干渉装置、原子発振器、電子機器および移動体 |
US10199801B2 (en) | 2014-11-10 | 2019-02-05 | Sanhe Laserconn Tech Co., Ltd. | High-power semiconductor laser based on VCSEL and optical convergence method therefor |
US9330464B1 (en) | 2014-12-12 | 2016-05-03 | Microsoft Technology Licensing, Llc | Depth camera feedback |
EP3045936A1 (de) | 2015-01-13 | 2016-07-20 | XenomatiX BVBA | Umgebungsabtastsystem mit telezentrischer Optik |
EP3045935A1 (de) | 2015-01-13 | 2016-07-20 | XenomatiX BVBA | Umgebendes Erfassungssystem mit Dome-Filteranordnung |
WO2016116733A1 (en) | 2015-01-20 | 2016-07-28 | Milan Momcilo Popovich | Holographic waveguide lidar |
WO2016125165A2 (en) | 2015-02-05 | 2016-08-11 | Verifood, Ltd. | Spectrometry system with visible aiming beam |
US9369689B1 (en) | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
US10215553B2 (en) | 2015-03-12 | 2019-02-26 | Apple Inc. | Thin PSD for laser-scanning systems |
JP6671629B2 (ja) | 2015-03-18 | 2020-03-25 | 株式会社リコー | 物体検出装置、センシング装置、及び移動体装置 |
US9529079B1 (en) | 2015-03-26 | 2016-12-27 | Google Inc. | Multiplexed multichannel photodetector |
US9651658B2 (en) | 2015-03-27 | 2017-05-16 | Google Inc. | Methods and systems for LIDAR optics alignment |
US9880263B2 (en) | 2015-04-06 | 2018-01-30 | Waymo Llc | Long range steerable LIDAR system |
US9911774B2 (en) | 2015-04-14 | 2018-03-06 | Massachusetts Institute Of Technology | Photodiode placement for cross talk suppression |
US9525863B2 (en) | 2015-04-29 | 2016-12-20 | Apple Inc. | Time-of-flight depth mapping with flexible scan pattern |
EP3091272B1 (de) | 2015-05-05 | 2018-01-03 | Sick Ag | Lichtgitter |
JP6789251B2 (ja) | 2015-07-08 | 2020-11-25 | ザ コモンウェルス オブ オーストラリアThe Commonwealth Of Australia | Spadアレイ構造及び動作方法 |
US9992477B2 (en) | 2015-09-24 | 2018-06-05 | Ouster, Inc. | Optical system for collecting distance information within a field |
US10063849B2 (en) * | 2015-09-24 | 2018-08-28 | Ouster, Inc. | Optical system for collecting distance information within a field |
US9866241B2 (en) | 2015-09-25 | 2018-01-09 | SK Hynix Inc. | Techniques for adaptive LDPC decoding |
EP3159711A1 (de) | 2015-10-23 | 2017-04-26 | Xenomatix NV | System und verfahren zur bestimmung einer distanz zu einem objekt |
US10539661B2 (en) | 2015-11-25 | 2020-01-21 | Velodyne Lidar, Inc. | Three dimensional LIDAR system with targeted field of view |
MX2018009265A (es) * | 2016-01-29 | 2019-05-13 | Ouster Inc | Sistemas y metodos para calibrar un sensor de distancia optico. |
US10627490B2 (en) | 2016-01-31 | 2020-04-21 | Velodyne Lidar, Inc. | Multiple pulse, LIDAR based 3-D imaging |
WO2017132704A1 (en) | 2016-01-31 | 2017-08-03 | Velodyne Lidar, Inc. | Lidar based 3-d imaging with far-field illumination overlap |
EP3430428A4 (de) | 2016-03-19 | 2019-11-20 | Velodyne Lidar, Inc. | Integrierter beleuchtung und detektion für auf lidar basierende 3d-bildgebung |
US9983297B2 (en) | 2016-03-21 | 2018-05-29 | Veloyne Lidar, Inc. | LIDAR based 3-D imaging with varying illumination field density |
CA3017819C (en) | 2016-03-21 | 2023-03-14 | Velodyne Lidar, Inc. | Lidar based 3-d imaging with varying illumination intensity |
CN108885263B (zh) | 2016-03-21 | 2024-02-23 | 威力登激光雷达有限公司 | 具有可变脉冲重复的基于lidar的3d成像 |
US10291261B2 (en) | 2016-04-25 | 2019-05-14 | SK Hynix Inc. | Early selection decoding and automatic tuning |
US10393877B2 (en) | 2016-06-01 | 2019-08-27 | Velodyne Lidar, Inc. | Multiple pixel scanning LIDAR |
US20180032396A1 (en) | 2016-07-29 | 2018-02-01 | Sandisk Technologies Llc | Generalized syndrome weights |
SG11201901600WA (en) * | 2016-08-24 | 2019-03-28 | Ouster Inc | Optical system for collecting distance information within a field |
AU2017330180B2 (en) | 2016-09-26 | 2019-06-27 | Ouster, Inc. | Optical system for collecting distance information within a field |
EP3301477A1 (de) | 2016-10-03 | 2018-04-04 | Xenomatix NV | System zur bestimmung einer distanz zu einem objekt |
EP3301478A1 (de) | 2016-10-03 | 2018-04-04 | Xenomatix NV | System zur bestimmung einer distanz zu einem objekt |
EP3301479A1 (de) | 2016-10-03 | 2018-04-04 | Xenomatix NV | Verfahren zur subtraktion des hintergrundlichts aus einem belichtungswert eines pixels in einem abbildungsarray und pixel zur verwendung darin |
EP3301480A1 (de) | 2016-10-03 | 2018-04-04 | Xenomatix NV | System und verfahren zur bestimmung einer distanz zu einem objekt |
EP3316000A1 (de) | 2016-10-28 | 2018-05-02 | Xenomatix NV | Fahrzeugsystem zum messen des abstands zu einem objekt und installationsverfahren dafür |
EP3343246A1 (de) | 2016-12-30 | 2018-07-04 | Xenomatix NV | System zur charakterisierung der umgebung eines fahrzeugs |
US11105925B2 (en) * | 2017-03-01 | 2021-08-31 | Ouster, Inc. | Accurate photo detector measurements for LIDAR |
EP3392674A1 (de) | 2017-04-23 | 2018-10-24 | Xenomatix NV | Pixelstruktur |
WO2018213338A1 (en) * | 2017-05-15 | 2018-11-22 | Ouster, Inc. | Augmenting panoramic lidar results with color |
US11131773B2 (en) | 2017-05-15 | 2021-09-28 | Ouster, Inc. | Lidar unit with an optical link between controller and photosensor layer |
US10444359B2 (en) | 2017-07-05 | 2019-10-15 | Ouster, Inc. | Light ranging device with electronically scanned emitter array and synchronized sensor array |
US10700706B2 (en) | 2017-09-22 | 2020-06-30 | SK Hynix Inc. | Memory system with decoders and method of operating such memory system and decoders |
US10574274B2 (en) | 2017-09-29 | 2020-02-25 | Nyquist Semiconductor Limited | Systems and methods for decoding error correcting codes |
US10481269B2 (en) * | 2017-12-07 | 2019-11-19 | Ouster, Inc. | Rotating compact light ranging system |
US11005503B2 (en) | 2018-03-16 | 2021-05-11 | SK Hynix Inc. | Memory system with hybrid decoding scheme and method of operating such memory system |
US10739189B2 (en) * | 2018-08-09 | 2020-08-11 | Ouster, Inc. | Multispectral ranging/imaging sensor arrays and systems |
US11473970B2 (en) | 2018-08-09 | 2022-10-18 | Ouster, Inc. | Subpixel apertures for channels in a scanning sensor array |
US11585906B2 (en) | 2018-12-26 | 2023-02-21 | Ouster, Inc. | Solid-state electronic scanning laser array with high-side and low-side switches for increased channels |
US11422265B2 (en) * | 2019-03-04 | 2022-08-23 | Ouster, Inc. | Driver visualization and semantic monitoring of a vehicle using LiDAR data |
JP2022546591A (ja) * | 2019-09-06 | 2022-11-04 | アウスター インコーポレイテッド | Lidar画像の処理 |
US11695911B2 (en) * | 2020-04-27 | 2023-07-04 | Ouster, Inc. | Stereoscopic image capturing systems |
-
2016
- 2016-09-26 US US15/276,532 patent/US9992477B2/en active Active
-
2017
- 2017-06-26 DE DE112017004806.0T patent/DE112017004806T5/de active Pending
- 2017-06-26 KR KR1020217031355A patent/KR102425304B1/ko active IP Right Grant
- 2017-06-26 GB GB2202140.6A patent/GB2601435B/en active Active
- 2017-06-26 JP JP2019516177A patent/JP7214629B2/ja active Active
- 2017-06-26 CN CN201780068584.8A patent/CN109983312B/zh active Active
- 2017-06-26 DE DE202017007509.1U patent/DE202017007509U1/de active Active
- 2017-06-26 CN CN202210250381.3A patent/CN114624728A/zh active Pending
- 2017-06-26 CA CA3038038A patent/CA3038038A1/en not_active Abandoned
- 2017-06-26 GB GB1905868.4A patent/GB2569749B/en active Active
- 2017-06-26 KR KR1020197011974A patent/KR102309478B1/ko active IP Right Grant
- 2017-06-26 WO PCT/US2017/039306 patent/WO2018057084A1/en active Application Filing
- 2017-06-26 SE SE1950477A patent/SE544865C2/en unknown
-
2018
- 2018-01-25 US US15/880,491 patent/US11025885B2/en active Active
- 2018-07-26 US US16/046,643 patent/US11190750B2/en active Active
-
2019
- 2019-03-24 IL IL265562A patent/IL265562B2/en unknown
- 2019-04-23 DK DKPA201970244A patent/DK180852B1/en active IP Right Grant
- 2019-09-26 US US16/584,515 patent/US11202056B2/en active Active
-
2021
- 2021-05-11 US US17/317,809 patent/US11196979B2/en active Active
- 2021-05-18 US US17/323,962 patent/US11178381B2/en active Active
- 2021-12-13 US US17/549,675 patent/US11627298B2/en active Active
-
2023
- 2023-03-07 US US18/179,559 patent/US11956410B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112017004806T5 (de) | Optisches system zur sammlung von entfernungsinformationen in einem feld | |
DE202018006696U1 (de) | Optischer Bildübertrager mit Helligkeitsverbesserung | |
EP2387744B1 (de) | Vorrichtung zur optischen navigation | |
EP2149037B1 (de) | Vorrichtung zur lichtdetektion in einem scanmikroskop | |
DE102018109544A1 (de) | Optoelektronischer Sensor und Verfahren zur Abstandsbestimmung | |
DE112011101667T5 (de) | Abtastender 3D-Bildgeber | |
EP2226648A2 (de) | 3D -Bilderzeugungssystem mit Multispektralsensor | |
DE212017000248U1 (de) | LiDAR-Vorrichtung | |
EP3605139B1 (de) | Optoelektronischer sensor und verfahren zur erfassung eines objekts | |
DE112018003135T5 (de) | Rückstreudetektionsmodul | |
DE102016116309A1 (de) | Beleuchtungsmodul für winkelselektive Beleuchtung | |
WO2020114740A1 (de) | Lidar-system sowie kraftfahrzeug | |
WO2005015284A1 (de) | Vorrichtung zum nachweis von photonen eines lichtstrahls | |
DE102022102009A1 (de) | Spektralsensormodul | |
EP1942322B1 (de) | Detektor mit Mikrolinsen-Anordnung | |
AU2017330180B2 (en) | Optical system for collecting distance information within a field | |
DE102010052701A1 (de) | Vorrichtung zum Messen einer Ladungsträgerlebensdauer in einem Halbleitersubstrat | |
DE102019208430A1 (de) | Nicht-invasiver optischer Detektor für innere Substanzen | |
WO2020187537A1 (de) | Lidar-system mit holografischer abbildungsoptik | |
DE112021002310T5 (de) | Emitter hinter anzeige |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R138 | Derivation of utility model |
Ref document number: 202017007509 Country of ref document: DE |
|
R012 | Request for examination validly filed | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G01J0001020000 Ipc: G01S0007486000 |