DE112015005719T5 - Stapelhalbleiterchip-rgbz-sensor - Google Patents
Stapelhalbleiterchip-rgbz-sensor Download PDFInfo
- Publication number
- DE112015005719T5 DE112015005719T5 DE112015005719.6T DE112015005719T DE112015005719T5 DE 112015005719 T5 DE112015005719 T5 DE 112015005719T5 DE 112015005719 T DE112015005719 T DE 112015005719T DE 112015005719 T5 DE112015005719 T5 DE 112015005719T5
- Authority
- DE
- Germany
- Prior art keywords
- pixel matrix
- semiconductor chip
- pixel
- circuits coupled
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 239000004065 semiconductor Substances 0.000 title claims abstract description 69
- 239000011159 matrix material Substances 0.000 claims abstract description 152
- 238000001514 detection method Methods 0.000 claims abstract description 11
- 239000000758 substrate Substances 0.000 claims description 24
- 238000000034 method Methods 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 7
- 238000003491 array Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 239000010410 layer Substances 0.000 description 44
- 238000001465 metallisation Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 13
- 238000005259 measurement Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 239000013307 optical fiber Substances 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 229920002120 photoresistant polymer Polymers 0.000 description 7
- 238000005530 etching Methods 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 230000000873 masking effect Effects 0.000 description 4
- 239000002184 metal Substances 0.000 description 4
- 238000001020 plasma etching Methods 0.000 description 4
- VYPSYNLAJGMNEJ-UHFFFAOYSA-N Silicium dioxide Chemical compound O=[Si]=O VYPSYNLAJGMNEJ-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- FYZYXYLPBWLLGI-AUOPOVQUSA-N Genipin 1-beta-gentiobioside Chemical compound C([C@H]1O[C@H]([C@@H]([C@@H](O)[C@@H]1O)O)O[C@@H]1OC=C([C@@H]2[C@H]1C(=CC2)CO)C(=O)OC)O[C@@H]1O[C@H](CO)[C@@H](O)[C@H](O)[C@H]1O FYZYXYLPBWLLGI-AUOPOVQUSA-N 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 239000011810 insulating material Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000011248 coating agent Substances 0.000 description 1
- 238000000576 coating method Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000000708 deep reactive-ion etching Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000008021 deposition Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 239000000975 dye Substances 0.000 description 1
- 238000004043 dyeing Methods 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 238000010304 firing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000983 mordant dye Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 238000000059 patterning Methods 0.000 description 1
- 239000011241 protective layer Substances 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000000377 silicon dioxide Substances 0.000 description 1
- 235000012239 silicon dioxide Nutrition 0.000 description 1
- 238000007711 solidification Methods 0.000 description 1
- 230000008023 solidification Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L25/00—Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
- H01L25/03—Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes
- H01L25/04—Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers
- H01L25/041—Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L31/00
- H01L25/043—Stacked arrangements of devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/1462—Coatings
- H01L27/14621—Colour filter arrangements
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14625—Optical elements or arrangements associated with the device
- H01L27/14627—Microlenses
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14625—Optical elements or arrangements associated with the device
- H01L27/14629—Reflectors
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14634—Assemblies, i.e. Hybrid structures
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14601—Structural or functional details thereof
- H01L27/14636—Interconnect structures
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14643—Photodiode arrays; MOS imagers
- H01L27/14645—Colour imagers
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14643—Photodiode arrays; MOS imagers
- H01L27/14649—Infrared imagers
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L27/00—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
- H01L27/14—Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
- H01L27/144—Devices controlled by radiation
- H01L27/146—Imager structures
- H01L27/14643—Photodiode arrays; MOS imagers
- H01L27/14649—Infrared imagers
- H01L27/14652—Multispectral infrared imagers, having a stacked pixel-element structure, e.g. npn, npnpn or MQW structures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
- H04N23/11—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
- H04N25/13—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
- H04N25/134—Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/703—SSIS architectures incorporating pixels for producing signals other than image signals
- H04N25/705—Pixels for depth measurement, e.g. RGBZ
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/71—Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
- H04N25/75—Circuitry for providing, modifying or processing image signals from the pixel array
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/70—SSIS architectures; Circuits associated therewith
- H04N25/76—Addressed sensors, e.g. MOS or CMOS sensors
- H04N25/77—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
- H04N25/772—Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L2924/00—Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01L—SEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
- H01L2924/00—Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
- H01L2924/0001—Technical content checked by a classifier
- H01L2924/0002—Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Power Engineering (AREA)
- General Physics & Mathematics (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Electromagnetism (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Solid State Image Pick-Up Elements (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Es wird eine Vorrichtung beschrieben, die einen ersten Halbleiterchip mit einer ersten Pixelmatrix umfasst. Die erste Pixelmatrix weist gegenüber sichtbarem Licht empfindliche Pixel auf. Die Vorrichtung umfasst einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix. Der erste Halbleiterchip ist auf dem zweiten Halbleiterchip derart gestapelt, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet. Die zweite Pixelmatrix weist für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion auf.
Description
- Gebiet der Erfindung
- Das Gebiet der Erfindung betrifft generell elektronische Technik und insbesondere einen Stapelhalbleiterchip-RGBZ-Sensor.
- Allgemeiner Stand der Technik
- Viele existierende Computersysteme umfassen eine oder mehrere traditionelle Bilderfassungskameras als eine integrierte Peripherievorrichtung. Ein gegenwärtiger Trend ist, Computersystembildgebungsvermögen durch Integrieren von Tiefenerfassung in seine Bildgebungskomponenten zu verbessern. Tiefenerfassung kann beispielsweise verwendet werden, um verschiedene intelligente Objekterkennungsfunktionen wie Gesichtserkennung (z. B. zur sicheren Systementsperrung) oder Handbewegungserkennung (z. B. für berührungslose Benutzerschnittstellenfunktionen) auszuführen.
- Eine Herangehensweise zur Tiefeninformationserfassung, die als „Laufzeit-“Bildgebung bezeichnet wird, emittiert Licht von einem System auf ein Objekt und misst für jedes von mehreren Pixeln eines Bildsensors, die Zeit zwischen der Emission des Lichts und dem Empfangen seines Spiegelbildes am Sensor. Das von den Laufzeitpixeln erzeugte Bild entspricht einem dreidimensionalen Profil des Objekts, wie gekennzeichnet, durch eine einzigartige Tiefenmessung (z) an jeder von den unterschiedlichen (x, y) Pixelpositionen.
- Da viele Computersysteme mit Bildgebungsvermögen in ihrer Art mobil sind (z. B. Laptops, Tabletcomputer, Smartphones usw.), stellt die Integration eines Laufzeitbetriebs zusammen mit traditioneller Bilderfassung eine Anzahl an Designherausforderungen dar, wie beispielsweise Herausforderungen bezüglich Kosten und Packaging.
- Kurzdarstellung
- Es wird eine Vorrichtung beschrieben, die einen ersten Halbleiterchip mit einer ersten Pixelmatrix umfasst. Die erste Pixelmatrix weist für sichtbares Licht empfindliche Pixel auf. Die Vorrichtung umfasst einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix. Der erste Halbleiterchip ist auf dem zweiten Halbleiterchip derart gestapelt, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet. Die zweite Pixelmatrix weist für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion auf.
- Es wird eine Vorrichtung beschrieben, die Mittel umfasst, um sichtbares Licht und IR-Licht an einer Fläche einer ersten Pixelmatrix zu empfangen. Die Vorrichtung umfasst zudem Mittel, um das sichtbare Licht, aber nicht das IR-Licht, mit der ersten Pixelmatrix zu erfassen, wobei das IR-Licht durch die erste Pixelmatrix hindurchgeht. Die Vorrichtung umfasst auch das Erfassen von IR-Licht mit einer zweiten Pixelmatrix, die sich unter der ersten Pixelmatrix befindet.
- Figuren
- Die folgende Beschreibung und die begleitenden Zeichnungen werden verwendet, um Ausführungsformen der Erfindung zu veranschaulichen. In den Zeichnungen:
- Die
1a und1b zeigen eine Ausführungsform eines Stapelhalbleiterchip-RGBZ-Sensors; -
2 zeigt eine Darstellung des Betriebs eines Stapelhalbleiterchip-RGBZ-Sensors; - Die
3a bis3i zeigen ein Verfahren zum Herstellen eines Stapelhalbleiterchip-RGBZ-Sensors; - Die
4a bis4d zeigen unterschiedliche Bildsensorschaltungsverteilungen; -
5 zeigt ein durch einen Stapelhalbleiterchip-RGBZ-Sensor ausgeführtes Verfahren; -
6 zeigt eine Ausführungsform eines 2D/3D Kamerasystems. -
7 zeigt eine Ausführungsform eines Computersystems, das ein 2D/3D Kamerasystem aufweist. - Ausführliche Beschreibung
- Ein „RGBZ“-Bildsensor ist eine attraktive Lösung, um sowohl traditionelle Bilderfassung als auch Laufzeittiefenprofilierung innerhalb eines gleichen Kamerapakets zu erreichen. Ein RGBZ-Bildsensor ist ein Bildsensor, der unterschiedliche Pixelarten umfasst, von denen einige gegenüber sichtbarem Licht (die RGB-Pixel) empfindlich sind und andere davon verwendet werden, um Tiefeninformationen zu messen (die Laufzeit- oder „Z“-Pixel).
- Bei einer gewöhnlichen Implementierung sind Laufzeitpixel derart konzipiert, dass diese gegenüber IR-Licht empfindlich sind, da wie vorstehend erwähnt IR-Licht für die Laufzeitmessung verwendet wird, sodass die Laufzeitmessung die traditionellen Bildgebungsfunktionen der RGB-Pixel nicht stört. Die Laufzeitpixel weisen zusätzlich speziell damit verbundene Taktungs- und/oder Timingschaltungen auf, um die Zeit zu messen, zu der Licht am Pixel empfangen wurde. Da die Laufzeitpixel jedoch gegenüber IR-Licht empfindlich sind, ist es jedoch denkbar, dass diese auch (z. B. in einem zweiten Modus) nur als IR-Pixel und nicht als Laufzeitpixel verwendet werden (d. h., IR-Informationen werden erfasst, aber eine Laufzeitmessung wird nicht durchgeführt).
- Das Integrieren von sowohl RGB-Pixeln als auch Z-Pixeln in ein gleiches Paket sollte verglichen mit Lösungen, bei denen die RGB-Pixel und die Z-Pixel in separaten Paketen enthalten sind, sowohl die Größe als auch die Kosten reduzieren. Die
1a und1b zeigen einen „Stapel“-RGBZ-Bildsensor100 , bei dem ein erster Pixelmatrixtyp101 (z. B. eine RGB-Pixelmatrix) oben auf einem zweiten Pixelmatrixtyp102 (z. B. einer IR- oder Z-Pixelmatrix) gestapelt ist. Hier umfasst die Stapelstruktur100 funktionelle Pixel eines ersten Typs107 (RGB) im Gegensatz zu reinen Filtern, die auf einer unteren Schicht funktioneller Pixel eines zweiten Typs108 (Z) gestapelt sind. Wie nachfolgend ausführlicher beschrieben, ist die obere Pixelmatrix101 im Betrieb als eine Rückseitenbeleuchtungspixelmatrix implementiert und die untere Pixelmatrix102 ist als eine Vorderseitenbeleuchtungspixelmatrix implementiert. - Wie in der Ausführungsform der
1a und1b ersichtlich, befinden sich die Rückseitenkopplungsstruktur-Metallisierungsschichtung109 , eine RGB-Filterschicht110 und eine Mikrolinsenmatrix112 an der Rückseite der Halbleiter-Die104 der oberen Pixelmatrix101 . Die Rückseitenmetallisierungsschichtung109 unterstützt die Chip-zu-Chip-Durchkontaktierungen116 zwischen dem Pixelmatrizenpaar101 ,102 . Die RGB-Filterschicht110 umfasst verschiedenfarbige Filter111_1 ,111_2 , um die RGB-Pixel der oberen Pixelmatrix101 zu definieren. Die Mikrolinsenmatrix112 ist zusammen mit den Drahtbondkontaktstellen118 auf einer oberen Fläche der Gesamtstruktur100 gebildet. Drahtbonds, die auf den Drahtbondkontaktstellen116 gebildet sind, können auf einem Paketsubstrat aufsetzen. Bei einigen Ausführungsformen entspricht das untere Substrat114 dem Paketsubstrat, während bei anderen Ausführungsformen das untere Substrat114 einem anderen Halbleiterchip entspricht, der auf dem Paketsubstrat befestigt ist (bei den letzteren Ausführungsformen ist das Paketsubstrat in1b nicht dargestellt). - Die obere Pixelmatrix
101 umfasst zudem die Vorderseitenmetallisierungsschichtung103 , um die Transistorkomponenten (wie Gate- und Source/Drain-Elektroden) und entsprechende Schicht(en) der Kopplungsstruktur zu bilden, die zusammen die Schaltungen bilden, die an der oberen Pixelmatrix101 integriert sind. Insbesondere umfasst die obere Pixelmatrix101 die Substratdurchkontaktierungen115 , die sich durch das Halbleitersubstrat104 der oberen Pixelmatrix101 erstrecken, um Knoten der Metallisierungsschichtung103 mit Knoten der Metallisierungsschicht109 zu verbinden. - Die untere Pixelmatrix
102 umfasst die Vorderseitenkopplungsstrukturmetallisierungsschichtung106 , die der Vorderseitenkopplungsstrukturmetallisierung103 der oberen Pixelmatrix101 gegenübersteht. Die Vorderseitenmetallisierungsschichtung106 wird verwendet, um die Transistorkomponenten (wie Gate- und Source-/Drainelektroden) und entsprechende Schicht(en) der Kopplungsstruktur zu bilden, die zusammen die Schaltungen bilden, die an der unteren Pixelmatrix102 integriert sind. Die Vorderseitenmetallisierungsschichtung106 der unteren Pixelmatrix102 umfasst zudem Knoten, die mit Durchkontaktierungen116 verbunden sind, die mit Knoten der Rückseitenmetallisierungsschichtung109 der oberen Pixelmatrix101 verbinden. Diese Durchkontaktierungen116 , wie die Durchkontaktierungen115 , sind auch als Substratdurchkontaktierungen der oberen Pixelmatrix101 implementiert. - Die Vorderseitenmetallisierungsschicht
106 der unteren Pixelmatrix102 umfasst weiter zusätzliche Knoten, die mit Durchkontaktierungen117 verbunden sind, die mit Bondkontaktstellen118 verbinden. Wie die Durchkontaktierungen115 und116 sind die Durchkontaktierungen117 auch als Substratdurchkontaktierungen der oberen Pixelmatrix101 implementiert. Obwohl1b zeigt, dass die gesamte Eingangs-/Ausgangssignalisierung zu/von der oberen Pixelmatrix101 durch die Vorderseitenmetallisierungsschichtung106 der unteren Pixelmatrix102 hindurchgehen muss, kann bei verschiedenen Ausführungsformen die Rückseitenmetallisierungsschichtung109 der oberen Pixelmatrix101 Durchkontaktierungen unterstützen, die direkt mit den Bondkontaktstellen118 verbinden, und dadurch erlauben, dass Signale zwischen einer Bondkontaktstelle und der oberen Pixelmatrix101 hindurchgehen, ohne durch die Metallisierungsschichtung106 der unteren Pixelmatrix102 hindurchgehen zu müssen. - Zu beachten ist, dass
1b eine Ausführungsform eines Stapel-RGBZ-Bildsensors entlang einem bestimmten Segment zeigt, das eine erste horizontale Achse der RGB-Pixelmatrix zeigt. Wenn beispielsweise eine Darstellung der gleichen Struktur entlang einer nächsten horizontalen Achse gezeigt wäre, die sich näher an oder weiter weg von der GBGB...-Achse von1b befindet, würden die sichtbaren Pixel der oberen Pixelmatrix101 stattdessen z. B. eine GRGR...Struktur anstatt einer GBGB...-Struktur demonstrieren. Es ist auch zu beachten, dass bei der Ausführungsform von1b die Z-Pixel108 größer sind als die RGB-Pixel, da Silizium beispielsweise verglichen mit sichtbarem Licht eine eduzierte Empfindlichkeit für IR-Licht aufweist und/oder die Z-Pixel eine größere Kapazität erfordern. Die Vorderseitenmetallisierungsschichten103 ,106 der oberen und unteren Pixelmatrizen101 ,102 können auch entsprechende Lichtleitstrukturen113 ,114 umfassen, um einfallendes Licht zu koppeln, das sich durch die RGB-Pixel der oberen Pixelmatrix102 in die Z-Pixel der unteren Pixelmatrix102 bewegt. -
2 stellt eine Wirkungsweise der Stapelpixelmatrixstruktur der1a und1b dar. Wie in2 ersichtlich, fällt Licht, das aus sichtbarem Licht und IR-Licht210 besteht, auf die (z. B. Rückseiten-)Fläche der oberen RGB-Pixelmatrix201 ein. Wie auf dem Fachgebiet bekannt enthält bzw. enthalten die RGB-Filterschicht(en)110 , die auf der oberen Pixelmatrix201 gebildet sind, individuelle kachelartige Grün-107_1 und Blau-107_2 -Filter, die typischerweise in einer Struktur wie einer Bayer-Struktur angeordnet sind. Jeder individuelle RGB-Filter lässt nicht nur sichtbares Licht seiner eigenen spezifischen Farbe (z. B. Rot im Fall von einem R-Pixel, Blau im Fall von einem B-Pixel usw.), sondern auch IR-Licht hindurch. Die spezifische Farbe des sichtbaren Lichts und des IR-Lichts trifft auf (z. B. die Rückseite) des Halbleitersubstrats104 der oberen Pixelmatrix201 auf. Die Pixel107_1 ,107_2 der oberen Pixelmatrix201 absorbieren das sichtbare Licht und erzeugen als Reaktion darauf ein entsprechendes Detektionssignal für ihre entsprechenden Farben. - Anders als das sichtbare Licht, das von der oberen Pixelmatrix
201 absorbiert wird, geht im Vergleich dazu das IR-Licht durch die obere Pixelmatrix201 hindurch. Grundlegend in der Physik tendiert hier sichtbares Licht dazu, viel stärker von einem Halbleiter absorbiert zu werden als IR-Licht. Indem die Halbleiter-Die104 der oberen Pixelmatrix-201 -Schicht dünn genug ausgeführt wird, kann die obere Pixelmatrix201 derart ausgeführt werden, dass diese das einfallende sichtbare Licht absorbiert und darauf reagiert und doch gleichzeitig im Wesentlichen das IR-Licht hindurchlässt. - Idealerweise geht daher das IR-Licht
211 , das auf die obere Pixelmatrix201 eingefallen ist, größtenteils durch die obere Pixelmatrix201 zur unteren Pixelmatrix202 hindurch. Bei einer Ausführungsform ist die Halbleiter-Die105 der unteren Pixelmatrix202 dicker ausgeführt als die Halbleiter-Die104 der oberen Pixelmatrix201 , sodass diese anders als die obere Pixelmatrix201 das einfallende IR-Licht211 absorbiert, anstatt es hindurchzulassen. Als solches absorbieren die Pixel der unteren Pixelmatrix202 das IR-Licht und erzeugen als Reaktion darauf ein entsprechendes Detektionssignal. Durch Absorbieren des IR-Lichts wird keine der Schaltungen unterhalb der unteren Pixelmatrix202 (wie beispielsweise, wenn das untere Substrat114 als ein Halbleiterchip implementiert ist) gestört. - Bei verschiedenen Implementierungen führen die Z-Pixel der unteren Pixelmatrix
202 „3D“-Laufzeittiefenmessungen effektiv durch Erzeugen von Ladung als eine Funktion der Zeit zwischen dem „Auf“-leuchten des Lichts eines IR-Beleuchters und dem Empfangen des reflektierten aufleuchtenden Lichts an der unteren Pixelmatrix202 aus. Die Z-Pixel empfangen typischerweisen Taktsignale, von denen jedes eine bekannte Phasenbeziehung mit dem Taktsignal des Beleuchters aufweist. Bei einer Ausführungsform werden vier derartige Taktsignale (z. B. die Quadraturzweige 0°, 90°, 180° und 270°) an jedes Z-Pixel der unteren Pixelmatrix bereitgestellt. - Das Takten eines Z-Pixels mit Takten von unterschiedlicher Phase (z. B. durch 4 sequenzielle Belichtungszeiten) sammelt hier unterschiedliche Mengen an Ladung für ein gleiches Aufleuchten von Licht. Gesammelte Ladungssignale von den unterschiedlichen Takten können kombiniert werden, um einen spezifischen Laufzeitwert für die Region zu erzeugen, wo sich die Knoten befinden. Bei einer Implementierung erfolgt eine derartige Kombination durch einen Bildsignalprozessor (z. B. integriert in einem Hostsystem wie einem Prozessor- oder Anwendungsprozessorhalbleiterchip).
- Es ist zu beachten, dass die Stapelpixelmatrixstruktur von
2 sich naturgemäß gleichzeitig dafür eignet, sichtbare Bilder mit der oberen RGB-Pixelmatrix201 zu detektieren, während IR-Licht für Laufzeitmessungen mit der unteren Z-Pixelmatrix202 detektiert wird. - Die
3a bis3i zeigen einen beispielhaften Prozess zum Herstellen der Stapelpixelmatrixstruktur. Wie in3a ersichtlich, wird die obere Pixelmatrix301 mit der Vorderseitenmetallisierung303 gebildet (z. B. gemäß einem ersten Waferherstellungsverfahren), die entsprechende Lichtleiter114 umfasst, von denen jeder über Gruppen von Pixelregionen mit sichtbarem Licht gebildet ist, die in der Größe zu den Z-Pixeln proportional sind, die mit der unteren Pixelmatrix verbunden sind (z. B. ein Quadrat 4×4 von RGB-Pixeln, das ein Paar von R-Pixeln, ein G-Pixel und ein B-Pixel enthält). - Wie auf dem Fachgebiet bekannt umfasst die Vorderseitenmetallisierung
303 Schichten von leitfähigen Traces303 mit entsprechenden Dielektrikumschichten dazwischen, die über dem Halbleitersubstrat304 gebildet sind. Die elektronischen Kopplungsstrukturmerkmale umfassen typischerweise für jedes Pixel einen oder mehrere Kontakte zu dem darunterliegenden Silizium (z. B., um das Pixel vorzumagnetisieren und/oder um das optisch induzierte elektrische Signal des Pixels aufzunehmen) und die Verdrahtung zu/von anderen Stromkreisen, die sich um den Umfang der aktiven Pixelmatrix befinden und den Betrieb der Pixelmatrix (z. B. Leseverstärker, Zeilendecoder usw.) unterstützen. Transistorelektroden zum Implementieren dieser Stromkreise werden gewöhnlich an der untersten Metallisierungsschicht gebildet. Zur Zeichnungsvereinfachung sind die Transistorelektroden nicht dargestellt. - Beim Layout der Metallisierungsschichtung
303 wird darauf geachtet, dass die leitfähigen Spuren so durchführbar wie möglich entlang den Rändern der Pixelgrenzen verlaufen anstatt über den Pixeln selbst (sodass die Spuren das einfallende Licht nicht blockieren). Eine oder mehrere von den Metallisierungsschichten können verwendet werden, um eine Schutzschicht über den Schaltungen zu bilden, die einfallendes Licht blockiert, sodass es den Betrieb der darunterliegenden Transistoren nicht erreicht und stört. - Bei einer Ausführungsform werden Lichtleiter
314 durch Hindurchätzen durch gestapelte Dielektrikumschichten gebildet, die sich über den entsprechenden Gruppen von RGB-Pixeln befinden, wo individuelle Lichtleiter anzuordnen sind. Die gestapelten Dielektrikumschichten können den normalen Dielektrikumschichten303 ohne irgendwelche Metallspuren entsprechen. Nach dem Ätzen von geeignet angeordneten Gräben werden die Gräben (z. B. durch Abscheidung) mit einem Material mit hohem Brechungsindex gefüllt, das gegenüber IR-Licht transparent ist. Das Füllen der Lichtleiterregion mit Material mit hohem Brechungsindex erzwingt im Wesentlichen eine interne Reflexion des IR-Lichts innerhalb des Lichtleiters und verhindert eine Übertragung von Übersprechen von internem Licht auf benachbarte Lichtwellenleiter und/oder benachbarte Pixel. Andere Herangehensweisen zum Bilden der Lichtleiter umfassen das Ätzen eines „Ringraums“ oder einer ähnlichen Struktur um den Umfang der Lichtleitermerkmalsgrenze herum und das Füllen der Ätzregion mit Metall (um erneut interne Reflexion innerhalb des Lichtleiters zu erzwingen) oder das Hinterlassen der geätzten Region als Luftspalt. - Unter Bezugnahme auf
3b ist ebenfalls die untere Pixelmatrix302 gebildet (z. B. gemäß einem zweiten Waferherstellungsprozess). Die Vorderseitenmetallisierung306 ist in ähnlicher Weise wie die Vorderseitenmetallisierung303 der oberen Pixelmatrix gebildet einschließlich des Bildens von individuellen Lichtleitern313 über jeder der Z-Pixelregionen. Die Vorderseitenmetallisierung306 umfasst zudem zusätzliche periphere Merkmale319 , um über Verbindungen zur oberen Pixelmatrix oder zu den Bondkontaktstellen zu unterstützen. Wie in3b ersichtlich, ist zu beachten, dass die obere Pixelmatrix301 in Bezug auf ihre Darstellung in3a umgedreht ist, um die obere Pixelmatrix301 zur Anordnung auf der unteren Pixelmatrix302 vorzubereiten. - Wie in
3c ersichtlich, ist die invertierte obere Pixelmatrix301 auf die untere Pixelmatrix302 gemäß einem Wafer-auf-Wafer-Halbleiterchipanbringungsprozess oder einem Die-auf-Die-Halbleiterchipanbringungsprozess abgesenkt. - Wie in
3d ersichtlich, ist eine untere Dielektrikumschicht321 der Rückseitenmetallisierungsschichtung109 über der Rückseite der oberen Pixelmatrix301 abgeschieden. Die Dielektrikumschicht321 wird dann geätzt, um Substratdurchkontaktierungen322 durch das Halbleitersubstrat304 der oberen Pixelmatrix zu bilden. Die Substratdurchkontaktierungen322 weisen wie in3d ersichtlich unterschiedliche Tiefen auf. Eine erste Tiefe erstreckt sich nur in die Vorderseitenmetallisierungsschichtung303 der oberen Pixelmatrix. Eine zweite Tiefe erstreckt sich tiefer in die Vorderseitenmetallisierungsschichtung306 der unteren Pixelmatrix. - Bei einer Ausführungsform werden die zwei unterschiedlichen Ätztiefen durch gegenseitiges Ausmaskieren gesteuert. D. h., während eine der Ätztiefen geätzt wird, werden die Regionen, in denen die andere Ätztiefe geätzt werden soll, durch eine Maskierungsschicht abgedeckt. Als solches werden zwei unterschiedliche Maskensequenzen verwendet, um die zwei Ätztiefen zu bilden. Dies ermöglicht unterschiedliche Ätzprozesse (wie z. B. eine längere Ätzdauer für die tiefere Ätzung). Das Ätzen kann z. B. mit einem reaktiven Ionenätzen (RIE) oder einem reaktiven Ionentiefätzen (DRIE) ausgeführt werden.
- Wie in
3e ersichtlich, ist die Rückseitenmetallisierungsschichtung309 der oberen Pixelmatrix301 einschließlich des Füllens der geätzten Regionen mit leitendem Material (z. B. Metall) und des Bildens von Merkmalen323 , welche die oberen und unteren Pixelmatrizen301 ,302 elektrisch miteinander verbinden, abgeschlossen. Bei einer Herangehensweise umfasst das Füllen der geätzten Regionen mit leitendem Material zuerst das Füllen der geätzten Regionen mit Isoliermaterial (z. B. Siliziumdioxid), um eine isolierende Auskleidung innerhalb der Gräben zu bilden, und dann das Ätzen des Isoliermaterials in ähnlicher Weise, in der die Regionen anfänglich geätzt wurden, um Öffnungen zu bilden. Erneut können diese Ätzungen mit unterschiedlichen entsprechenden Masken ausgeführt werden. Nachdem die Regionen erneut geätzt sind, werden sie mit Metall gefüllt. -
3f zeigt das Bilden einer Filterschicht310 über der Rückseitenmetallisierungsschichtung310 . Die Filterschicht kann durch Bilden einer Mordent- oder Transparentschicht über der Rückseitenmetallisierungsschichtung310 gebildet werden. Dann werden sichtbare Lichtfilter eines ersten Typs311_1 (z. B. ein grün gefärbter „G“-Filter) in der Mordent- oder Transparentschicht durch Färben der Schicht mit der geeigneten Farbe (G) in der geeigneten Region gebildet. Das Färben kann durch Wärmeübertragen eines Mordentfarbstoffs durch eine Fotolackmaske hindurch in eine Mordentschicht und dann Ablösen der Maske implementiert werden oder durch Aufsaugen eines Farbstoffs in eine Transparentschicht durch eine Fotolackmaske hindurch und dann Ablösen der Maske. Hier werden der Fotolack und die Maskierung derart strukturiert, dass die Regionen von Interesse (die G-Pixelregionen) freigelegt und die anderen Regionen (die R- und B-Regionen) blockiert werden. Der Prozess wiederholt sich dann für die anderen Regionen und Farben wie geeignet (z. B. R-Region311_2 und B-Region (nicht gezeigt in3f )). - Wie in
3g ersichtlich, wird die Filterschicht310 geätzt, um geätzte Regionen324 zu bilden. Die geätzten Regionen324 können abhängig von der Implementierung alle eine gleiche Tiefe oder unterschiedliche Tiefen aufweisen. Erneut kann individuelles Maskieren verwendet werden, um unterschiedliche Ätztiefen zu bilden. Wie in3g ersichtlich erstrecken sich bei einer Ausführungsform mindestens einige der Ätztiefen durch das obere Pixelmatrixhalbleitersubstrat304 und in die Vorderseitenmetallisierung306 der unteren Pixelmatrix302 . Diese geätzten Regionen unterstützen Substratdurchkontaktierungen, die mit I/O-Bondkontaktstellen der Stapel-RGBZ-Pixelmatrix verbinden, wie sich nachfolgend zeigen wird. Andere Ätztiefen (nicht gezeigt) können sich nur in die Rückseitenmetallisierungsschichtung309 der oberen Pixelmatrix301 erstrecken, sodass I/O-Bondkontaktstellen direkt mit Merkmalen innerhalb dieser Schicht verbunden sein können. -
3h zeigt die Struktur, nachdem die Substratdurchkontaktierungen in den geätzten Regionen324 gebildet und Bondkontaktstellen325 darauf angeordnet sind. Die Durchkontaktierungen können ähnlich den Durchkontaktierungen von3e gebildet sein. -
3i zeigt die abgeschlossene Stapel-RGBZ-Pixelmatrix nach dem Bilden der Mikrolinsenmatrix312 über der Filterschicht310 . Die Mikrolinsen können durch irgendeinen von einer Anzahl von verschiedenen Prozessen gebildet werden wie: 1) Beschichten und Brennen von einer oder mehrerer Fotolackschichten auf der darunterliegenden Struktur, Strukturieren der Fotolackschichten in z. B. Kreise/Zylinder, welche die Mikrolinsenmatrix darstellen, und dann Schmelzen der Fotolackkreise/-zylinder in die Form der Mikrolinsen; 2) Ausführen des vorstehenden Prozesses von 1) auf einer Schicht auf einer Transparentschicht (z. B. Kieselglas) und Verwenden des geschmolzenen Fotolacks als eine Maske für ein RIE-Ätzen in die Transparentschicht (was die Form von volleren Mikrolinsen in die Transparentschicht abschließt); 3) Mikrohervorstoßen von Tröpfchen, die auf die darunterliegende Struktur im Matrixmuster gerichtet sind, und Verfestigen der Tröpfchen. - Die
4a bis4d zeigen unterschiedliche mögliche Architekturen für die vorstehend beschriebene Stapelpixelmatrixstruktur. Zum Verständnis, dass ein Spektrum von unterschiedlichen architektonischen Möglichkeiten existiert, zeigt4a eine Ausführungsform in Richtung auf ein Ende des Spektrums, während4b eine Ausführungsform in Richtung auf ein anderes Ende des Spektrums zeigt. Die Enden der Spektren sind als eine Funktion dessen klassifiziert, wie viel weitere Bildsensorfunktionalität als eine Pixelmatrix auf der Stapelhalbleiter-Die-Struktur integriert ist. - Da Transistoren z. B. am Außenumfang von beiden Pixelmatrizen gebildet sein können, werden derartige Transistoren generell verwendet, um Schaltungen zu bilden, die Bildsensorfunktionalität ausführen. In dem Ausmaß, in dem mehr Bildsensorfunktionalität auf einer der Dies mit einer aktiven Pixelmatrix integriert wird, nimmt die Anzahl an derartigen Transistoren (und des entsprechenden davon verbrauchten Halbleiterflächenbereichs) zu, und in dem Ausmaß, in dem weniger Bildsensorfunktionalität auf einer Die mit einer aktiven Pixelmatrix integriert wird, nimmt die Anzahl an derartigen Transistoren (und der entsprechende davon verbrauchte Halbleiterflächenbereich) ab.
- Wie auf dem Fachgebiet bekannt, können Bildsensoren generell als nicht nur eine aktive Pixelmatrix, sondern auch Pixelmatrixschaltungen, Analog-Digital-Wandlungsschaltungen und Timing- und Steuerschaltungen umfassend angesehen werden. Die Pixelmatrixschaltungen umfassen generell Schaltungen, die direkt zu/von der aktiven Pixelmatrix selbst kommunizieren. Beispiele umfassen Leseverstärker, Reihen- und Spaltenadressdecoder und, im Fall von Z-Pixeln für Laufzeitmessungen, mindestens ein Taktsignal pro Z-Pixel, um die Laufzeitmessung auszuführen. Analog-Digital-Schaltungen sind für das Umwandeln der analogen Signale, die von den einfallenden optischen Signalen detektiert werden, in digitale Werte verantwortlich. Die Timing- und Steuerschaltungen sind für das Bereitstellen der geeigneten Taktungssignale und Steuersignale an die Pixelmatrixschaltungen und die Analog-Digital-Wandler-Schaltungen verantwortlich.
- In Richtung auf ein Ende des Spektrums, das in
4a ersichtlich ist, ist wenig derartige Funktionalität auf jeder der Pixelmatrix-Dies angeordnet, was zur Folge hat, dass der Großteil an derartiger Funktionalität auf dem dritten unteren Substrat, das als ein Halbleiterchip implementiert ist, angeordnet werden muss. In Richtung auf das andere Ende des Spektrums, das in4b ersichtlich ist, sind große Mengen derartiger Funktionalität auf beiden Pixelmatrix-Dies angeordnet. Bei der bestimmten Ausführungsform von4b entspricht die obere Die einem gesamten RGB-Bildsensor und die untere Die entspricht einem gesamten Laufzeitbildsensor. In diesem Fall kann das untere Substrat als ein Paketsubstrat implementiert sein. - Ein großer Bereich von architektonischen Möglichkeiten existiert zwischen diesen zwei spektralen Endregionen. Beispielsweise sind wie in
4c ersichtlich nur die Pixelmatrixschaltungen auf ihren entsprechenden Pixelmatrix-Dies implementiert, was zur Folge hat, dass die Timing- und die Steuerschaltungen und die Analog-Digital-Schaltungen für beide Bildsensoren auf der untersten Halbleiterchip-Die zu implementieren sind. - Als ein weiteres in
4d ersichtliches Beispiel umfasst die untere Pixelmatrix-Die die Timing- und Steuerschaltungen und die ADC-Schaltungen für die oberen als auch die unteren Pixelmatrizen. Zu beachten ist, dass in dem Fall, bei dem die untere Pixelmatrix-Die Schaltungen enthält, welche die obere Pixelmatrix unterstützt, sollte die obere Fläche der unteren Pixelmatrix Kontaktstellen/Kontaktflecken aufweisen, die mit Schaltungen innerhalb der unteren Pixelmatrix-Die verbinden anstatt einer Substratdurchkontaktierung der unteren Pixelmatrix-Die. Aus den4a bis4d wird ein Durchschnittsfachmann erkennen, dass eine große Vielfalt architektonischer Möglichkeiten existiert, bei denen sich die verschiedenen Schaltungen für das Paar von Bildsensoren oder Abschnitte davon potenziell auf jeder von der oberen Pixelmatrix-Die, der unteren Pixelmatrix-Die und dem unteren Substrathalbleiterchip (falls vorhanden) befinden können. -
5 zeigt ein Verfahren, das durch die vorstehend beschriebenen RGBZ-Bildsensorausführungsformen ausgeführt wird. Wie in5 ersichtlich, werden einfallendes sichtbares Licht und einfallendes IR-Licht auf einer Fläche einer ersten Pixelmatrix501 empfangen. Das sichtbare Licht, aber nicht das IR-Licht, wird mit dem ersten Pixel erfasst und das IR-Licht geht durch die erste Pixelmatrix502 hindurch. Das IR-Licht wird mit einer zweiten Pixelmatrix erfasst, die sich unter der ersten Pixelmatrix503 befindet. -
6 zeigt eine integrierte traditionelle Kamera und ein Laufzeitbildgebungssystem600 . Das System600 weist einen Anschluss601 auf, um elektrischen Kontakt, z. B. mit einer größeren System-/Hauptplatine herzustellen, wie beispielsweise der System-/Hauptplatine eines Laptopcomputers, Tabletcomputers oder Smartphones. Abhängig vom Layout und der Implementierung kann der Anschluss601 mit einem flexiblen Kabel verbinden, das z. B. eine tatsächliche Verbindung mit der System-/Hauptplatine herstellt, oder der Anschluss601 kann direkten Kontakt mit der System-/Hauptplatine herstellen. - Der Anschluss
601 ist an einer Grundplatine602 angebracht, die als eine mehrschichtige Struktur von abwechselnden leitenden und isolierenden Schichten implementiert sein kann, wobei die leitenden Schichten strukturiert sind, elektronische Spuren zu bilden, welche die internen elektrischen Verbindungen des Systems600 unterstützen. Durch den Anschluss601 werden Befehle vom größeren Hostsystem wie Konfigurationsbefehle, die Konfigurationsinformationen von/zu Konfigurationsregistern innerhalb des Kamerasystems600 lesen/schreiben, empfangen. - Ein „RGBZ“-Bildsensor, der aus einer RGB-Pixelmatrix besteht, die auf einer ersten Halbleiter-Die implementiert ist, welche auf einer zweiten Halbleiter-Die mit IR-Pixeln gestapelt ist, um z. B. Laufzeitpixel zu implementieren, befindet sich innerhalb eines Halbleiterchippakets
603 , das an der Grundplatine602 befestigt ist. Der Stapel-RGBZ-Bildsensor umfasst eine obere RGB-Pixelmatrix mit unterschiedlichen Pixelarten, die für sichtbares Licht empfindlich sind (speziell eine Untergruppe von R-Pixeln, die gegenüber sichtbarem rotem Licht empfindlich sind, eine Untergruppe von G-Pixeln, die gegenüber sichtbarem grünem Licht empfindlich sind, und eine Untergruppe von B-Pixeln, die gegenüber blauem Licht empfindlich sind). Eine untere Z-Pixelmatrix weist Pixel auf, die gegenüber IR-Licht empfindlich sind. Die RGB-Pixel werden verwendet, um traditionelle Erfassungsfunktionen eines sichtbaren „2D“-Bildes (traditionelle Bilderfassung) zu unterstützen. Die IR-sensiblen Pixel werden verwendet, um 3D-Tiefenprofilbildgebung unter Verwendung von Laufzeittechniken zu unterstützen. Obwohl eine grundlegende Ausführungsform RGB-Pixel für die Erfassung eines sichtbaren Bildes umfasst, können andere Ausführungsformen unterschiedliche gefärbte Pixelschemen (z. B. Cyan, Purpur und Gelb) verwenden. Der RGBZ-Bildsensor kann zudem ADC-Schaltungen und Timing- und Steuerschaltungen für beide Pixelmatrizen umfassen. - Die Grundplatine
602 kann desgleichen Signalspuren umfassen, um digitale Informationen zu transportieren, die durch die ADC-Schaltungen an den Anschluss601 zum Verarbeiten durch eine höhere Endkomponente des Computersystems wie eine Bildsignalverarbeitungspipeline (die z. B. in einem Anwendungsprozessor integriert ist) bereitgestellt werden. Zu beachten ist, dass bei anderen Ausführungsformen eine Bildsignalverarbeitungspipeline oder mindestens eine Form von an dem ADC-Ausgangspixelstrom ausgeführter Digitalsignalverarbeitung mit Digitallogikschaltungen auf einem Halbleiterchip ausgeführt werden kann, der in das Kamerasystem600 integriert ist. - Es ist ein Kameralinsenmodul
604 über den Pixelmatrizen des RGBZ-Bildsensors603 integriert. Das Kameramodul604 enthält ein System von einer oder mehreren Linsen, um durch eine Apertur des RGBZ-Bildsensorpakets603 empfangenes Licht zu bündeln. - Ein Beleuchter
607 , der aus einer Lichtquellenmatrix unter einer Apertur606 besteht, ist ebenfalls auf der Grundplatine602 befestigt. Die Lichtquellenmatrix kann als eine Matrix von VCSELs oder LEDs implementiert sein, die auf einem Halbleiterchip implementiert sind, der an der Grundplatine601 befestigt ist. Alternativ kann eine einzelne Lichtquelle (z. B. ein einzelner VCSEL oder eine LED im Gegensatz zu einer Matrix) verwendet werden. Ein Lichtquellentreiber ist mit der Lichtquellenmatrix gekoppelt, um sie zu veranlassen, Licht mit einer bestimmten Intensität und modulierten Wellenform zu emittieren. - Bei einer Ausführungsform unterstützt das integrierte System
600 von6 drei Betriebsarten: 1) 2D-Modus; 3) 3D-Modus; und 3) 2D/3D-Modus. Im Fall des 2D-Modus verhält sich das System wie eine traditionelle Kamera. Als solches ist der Beleuchter607 deaktiviert und der Bildsensor wird verwendet, um sichtbare Bilder durch seine RGB-Pixel zu empfangen. Im Fall des 3D-Modus erfasst das System Laufzeittiefeninformationen eines Objekts im Sichtfeld des Beleuchters607 und des Kameralinsenmoduls604 . Als solches ist der Beleuchter aktiviert und emittiert IR-Licht (z. B. in einer Ein-Aus-Ein-Aus-...Sequenz) auf das Objekt. Das IR-Licht wird vom Objekt reflektiert, durch das Kameralinsenmodul604 empfangen und durch die Laufzeitpixel des Bildsensors erfasst. Im Fall des 2D/3D-Modus sind die vorstehend beschriebenen 2D- und 3D-Modi gleichzeitig aktiv. -
7 zeigt eine Darstellung eines beispielhaften Computersystems700 wie ein Personalcomputersystem (z. B. Desktop oder Laptop) oder ein mobiles oder handgehaltenes Computersystem wie eine Tabletvorrichtung oder ein Smartphone. Wie in7 ersichtlich kann das grundlegende Computersystem eine Zentraleinheit701 (die z. B. mehrere Universalprozessorkerne umfassen kann) und einen Hauptspeichercontroller717 umfassen, die auf einem Anwendungsprozessor oder Mehrkernprozessor750 angeordnet sind, Systemspeicher702 , ein Display703 (z. B. Touchscreen, Flachpanel), eine lokale verdrahtete Punkt-zu-Punkt-Verbindung704 (z. B. USB), verschiedene Netzwerk-I/O-Funktionen705 (wie eine Ethernetschnittstelle und/oder ein Mobilfunkmodemsubsystem), eine drahtlose lokale Netzwerkverbindung706 (z. B. WiFi), eine drahtlose Punkt-zu-Punkt-Verbindung707 (z. B. Bluetooth) und eine globale Positionsbestimmungssystemverbindung708 , verschiedene Sensoren709_1 bis709_N , eine oder mehrere Kameras710 , eine Batterie711 , eine Leistungsmanagementsteuereinheit712 , einen Lautsprecher und ein Mikrofon713 und einen Audiocodierer/-decodierer714 . - Ein Anwendungsprozessor oder ein Mehrkernprozessor
750 kann einen oder mehrere Universalprozessorkerne715 innerhalb seiner CPU401 , eine oder mehrere Grafikprozessoreinheiten716 , einen Hauptspeichercontroller717 , eine I/O-Steuerungsfunktion718 und eine oder mehrere Bildsignalverarbeitungspipelines719 umfassen. Die Universalprozessorkerne715 führen typischerweise das Betriebssystem und die Anwendungssoftware des Computersystems aus. Die Grafikprozessoren716 führen typischerweise intensive Grafikfunktionen aus, um z. B. Grafikinformationen, die auf dem Display703 dargestellt werden, zu erzeugen. Die Speichersteuerungsfunktion717 ist mit dem Systemspeicher702 verbunden. Die Bildsignalverarbeitungspipelines719 empfangen Bildinformationen von der Kamera und verarbeiten die Rohbildinformationen für nachgeordnete Verwendungen. Die Leistungsmanagementsteuereinheit712 steuert generell die Leistungsaufnahme des Systems700 . - Die Touchscreendisplays
703 , die Kommunikationsschnittstellen704 bis707 , die GPS-Schnittstelle708 , die Sensoren709 , die Kamera710 und die Lautsprecher/Mikrofon-Codecs713 ,714 können jeweils als verschiedene I/O-Formen (Eingabe und/oder Ausgabe) relativ zu dem gesamten Computersystem betrachtet werden einschließlich gegebenenfalls einer integrierten Peripherievorrichtung (wie z. B. die eine oder die mehreren Kameras710 ). - Abhängig von der Implementierung können verschiedene dieser I/O-Komponenten im Anwendungsprozessor/Mehrkernprozessor
750 integriert sein oder können sich außerhalb des Chips oder Pakets des Anwendungsprozessors/Mehrkernprozessors750 befinden. - Bei einer Ausführungsform umfassen eine oder mehrere Kameras
710 eine integrierte traditionelle sichtbare Bilderfassung und ein Laufzeittiefenmessungssystem wie das vorstehend in Bezug auf6 beschriebene System600 . Anwendungssoftware, Betriebssystemsoftware, Gerätetreibersoftware und/oder Firmware, die auf einem Universal-CPU-Kern (oder einem anderen Funktionsblock, der eine Befehlsausführungspipeline aufweist, um Programmcode auszuführen) von einem Anwendungsprozessor oder einem anderen Prozessor ausgeführt wird, kann Befehle an das Kamerasystem richten und Bilddaten davon empfangen. Im Fall von Befehlen können die Befehle den Eintritt in oder das Verlassen von jedem der vorstehend beschriebenen 2D-, 3D- oder 3D/2D-Systemzustände umfassen. - Ausführungsformen der Erfindung können wie vorstehend beschrieben verschiedene Prozesse umfassen. Die Prozesse können in maschinenausführbaren Befehlen verkörpert sein. Die Befehle können verwendet werden, um einen Allzweck- oder Spezialprozessor zu veranlassen, bestimmte Prozesse auszuführen. Alternativ können diese Prozesse durch spezifische Hardwarekomponenten ausgeführt werden, die festverdrahtete Logik enthalten, um die Prozesse auszuführen, oder durch jede Kombination von programmierten Computerkomponenten und benutzerdefinierten Hardwarekomponenten.
- Elemente der vorliegenden Erfindung können ebenfalls als ein maschinenlesbares Medium zum Speichern der maschinenausführbaren Befehle bereitgestellt werden. Das maschinenlesbare Medium kann umfassen, ist aber nicht beschränkt auf, Disketten, optische Disks, CD-ROMs und magnetooptische Disks, FLASH-Speicher, ROMs, RAMs, EPROMs, EEPROMs, magnetische oder optische Karten, Ausbreitungsmedien oder andere Arten von Medien/maschinenlesbaren Medien, die zum Speichern elektronischer Befehle geeignet sind. Die vorliegende Erfindung kann beispielsweise als ein Computerprogramm heruntergeladen werden, das von einem entfernten Computer (z. B. einem Server) an einen anfragenden Computer (z. B. einem Client) mittels Datensignalen übertragen werden kann, die in einem Trägersignal oder anderem Ausbreitungsmedium über einen Kommunikationslink (z. B. ein Modem oder eine Netzwerkverbindung) ausgeführt werden.
- In der vorstehenden Beschreibung wurde die Erfindung unter Bezugnahme auf spezifische beispielhafte Ausführungsformen davon beschrieben. Es ist jedoch offensichtlich, dass verschiedene Modifizierungen und Änderungen daran vorgenommen werden können, ohne vom weiteren Sinn und Umfang der Erfindung, wie in den angehängten Ansprüchen angeführt, abzuweichen. Die Spezifikation und Zeichnungen sind demnach vielmehr als veranschaulichend denn als einschränkend anzusehen.
Claims (21)
- Vorrichtung, umfassend: einen ersten Halbleiterchip mit einer ersten Pixelmatrix, wobei die erste Pixelmatrix für sichtbares Licht empfindliche Pixel aufweist; und, einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix, wobei der erste Halbleiterchip auf dem zweiten Halbleiterchip derart gestapelt ist, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet, und die zweite Pixelmatrix für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion aufweist.
- Vorrichtung nach Anspruch 1, wobei der erste Halbleiterchip dünner ist als der zweite Halbleiterchip.
- Vorrichtung nach Anspruch 1, wobei der zweite Halbleiterchip auf einem dritten Halbleiterchip gestapelt ist.
- Vorrichtung nach Anspruch 3, wobei der dritte Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
- Vorrichtung nach Anspruch 1, wobei der erste Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind.
- Vorrichtung nach Anspruch 1, wobei der zweite Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
- Vorrichtung nach Anspruch 1, wobei der zweite Halbleiterchip auf einem Paketsubstrat befestigt ist.
- Vorrichtung nach Anspruch 1, wobei der erste Halbleiterchip Substratdurchkontaktierungen enthält.
- Vorrichtung nach Anspruch 1, weiter umfassend eine Mikrolinsenmatrix, die auf dem ersten Halbleiterchip gebildet ist.
- Vorrichtung nach Anspruch 9, wobei der zweite Halbleiterchip keine darauf gebildete Mikrolinsenmatrix aufweist.
- Verfahren, umfassend: Empfangen von sichtbarem Licht und IR-Licht an einer Fläche einer ersten Pixelmatrix; Erfassen des sichtbaren Lichts, aber nicht des IR-Lichts, mit der ersten Pixelmatrix, wobei das IR-Licht durch die erste Pixelmatrix hindurchgeht; Erfassen des IR-Lichts mit einer zweiten Pixelmatrix, die sich unter der ersten Pixelmatrix befindet.
- Verfahren nach Anspruch 11, wobei das Erfassen des IR-Lichts weiter das Erfassen von Laufzeittiefeninformationen umfasst.
- Verfahren nach Anspruch 11, wobei das Verfahren weiter das Führen von Signalen zu/von der ersten Pixelmatrix durch das Halbleitersubstrat der zweiten Pixelmatrix umfasst.
- Verfahren nach Anspruch 11, wobei das Erfassen des sichtbaren Lichts und das Erfassen des IR-Lichts gleichzeitig ausgeführt wird.
- Verfahren nach Anspruch 11, weiter umfassend das Ausführen von Analog-Digital-Wandlungs- und/oder Timing- und Steuerfunktionen für eine oder beide von den ersten und zweiten Pixelmatrizen mit einem Halbleiterchip, auf dem der Halbleiterchip des zweiten Pixels gestapelt ist.
- Vorrichtung, umfassend: einen Prozessor mit mehreren Prozessorkernen und einem Speichercontroller, der mit den mehreren Prozessorkernen gekoppelt ist; ein Kamerasystem, das mit dem Anwendungsprozessor gekoppelt ist, wobei das Kamerasystem umfasst: einen ersten Halbleiterchip mit einer ersten Pixelmatrix, wobei die erste Pixelmatrix für sichtbares Licht empfindliche Pixel aufweist; und, einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix, wobei der erste Halbleiterchip auf dem zweiten Halbleiterchip derart gestapelt ist, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet, und die zweite Pixelmatrix für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion aufweist.
- Vorrichtung nach Anspruch 16, wobei der erste Halbleiterchip dünner ist als der zweite Halbleiterchip.
- Vorrichtung nach Anspruch 16, wobei der zweite Halbleiterchip auf einem dritten Halbleiterchip gestapelt ist.
- Vorrichtung nach Anspruch 18, wobei der dritte Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
- Vorrichtung nach Anspruch 18, wobei der erste Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind.
- Vorrichtung nach Anspruch 18, wobei der zweite Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/579,882 | 2014-12-22 | ||
US14/579,882 US9508681B2 (en) | 2014-12-22 | 2014-12-22 | Stacked semiconductor chip RGBZ sensor |
PCT/US2015/057812 WO2016105658A1 (en) | 2014-12-22 | 2015-10-28 | Stacked semiconductor chip rgbz sensor |
Publications (1)
Publication Number | Publication Date |
---|---|
DE112015005719T5 true DE112015005719T5 (de) | 2017-09-14 |
Family
ID=56130339
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE112015005719.6T Ceased DE112015005719T5 (de) | 2014-12-22 | 2015-10-28 | Stapelhalbleiterchip-rgbz-sensor |
Country Status (6)
Country | Link |
---|---|
US (4) | US9508681B2 (de) |
EP (2) | EP3238274B1 (de) |
CN (1) | CN106471621B (de) |
DE (1) | DE112015005719T5 (de) |
GB (1) | GB2548186B (de) |
WO (1) | WO2016105658A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020119941A1 (de) | 2020-07-29 | 2022-02-03 | Valeo Schalter Und Sensoren Gmbh | Optische Detektionsvorrichtung, Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung und Verfahren zum Betreiben einer optischen Detektionsvorrichtung |
US11411036B2 (en) | 2017-04-04 | 2022-08-09 | Sony Semiconductor Solutions Corporation | Solid-state imaging device and electronic apparatus |
US11411037B2 (en) | 2017-04-04 | 2022-08-09 | Sony Semiconductor Solutions Corporation | Solid-state imaging device and electronic apparatus including coupling structures for electrically interconnecting stacked semiconductor substrates |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8906320B1 (en) | 2012-04-16 | 2014-12-09 | Illumina, Inc. | Biosensors for biological or chemical analysis and systems and methods for same |
US20160254300A1 (en) * | 2015-02-26 | 2016-09-01 | Dual Aperture International Co., Ltd. | Sensor for dual-aperture camera |
US10483315B2 (en) | 2015-12-07 | 2019-11-19 | Delta Id, Inc. | Image sensor configured for dual mode operation |
US9749569B2 (en) * | 2015-12-22 | 2017-08-29 | Omnivision Technologies, Inc. | High speed rolling image sensor with ADM architecture and method of implementing thereof |
EP3258493B1 (de) | 2016-06-16 | 2021-01-27 | ams AG | System-auf-chip-kamera mit integriertem(en) lichtsensor(en) und verfahren zur herstellung einer system-auf-chip-kamera |
KR102544782B1 (ko) | 2016-08-04 | 2023-06-20 | 삼성전자주식회사 | 반도체 패키지 및 그 제조 방법 |
FR3056332A1 (fr) * | 2016-09-21 | 2018-03-23 | Stmicroelectronics (Grenoble 2) Sas | Dispositif comportant un capteur d'image 2d et un capteur de profondeur |
US9818791B1 (en) * | 2016-10-04 | 2017-11-14 | Omnivision Technologies, Inc. | Stacked image sensor |
JP2018081946A (ja) * | 2016-11-14 | 2018-05-24 | ソニーセミコンダクタソリューションズ株式会社 | 固体撮像装置およびその製造方法、並びに電子機器 |
CN111966241B (zh) * | 2017-01-11 | 2023-05-30 | 群创光电股份有限公司 | 触控显示装置 |
JP2018137569A (ja) * | 2017-02-21 | 2018-08-30 | ソニーセミコンダクタソリューションズ株式会社 | 測距装置、および測距方法 |
US11037966B2 (en) | 2017-09-22 | 2021-06-15 | Qualcomm Incorporated | Solid state image sensor with on-chip filter and extended spectral response |
CN109756652B (zh) * | 2017-11-01 | 2021-02-05 | 浙江舜宇智能光学技术有限公司 | Tof摄像模组及其制造方法 |
FR3075462B1 (fr) * | 2017-12-19 | 2020-03-27 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Dispositif d'acquisition d'une image 2d et d'une image de profondeur d'une scene |
MY194772A (en) * | 2017-12-26 | 2022-12-15 | Illumina Inc | Sensor System |
US10608642B2 (en) * | 2018-02-01 | 2020-03-31 | iCometrue Company Ltd. | Logic drive using standard commodity programmable logic IC chips comprising non-volatile radom access memory cells |
JP7102159B2 (ja) * | 2018-02-09 | 2022-07-19 | キヤノン株式会社 | 光電変換装置、撮像システム、および、移動体 |
EP3833007B1 (de) * | 2018-07-31 | 2024-03-13 | Sony Semiconductor Solutions Corporation | Schichtartiger lichtempfangssensor und elektronische vorrichtung |
EP3814803A4 (de) * | 2018-08-16 | 2022-03-02 | Sense Photonics, Inc. | Integrierte lidar-bildsensorvorrichtungen und systeme und zugehörige betriebsverfahren |
CN109411492B (zh) * | 2018-09-26 | 2021-01-29 | 上海集成电路研发中心有限公司 | 一种堆叠式图像传感器像素结构与制备方法 |
CN109451252B (zh) * | 2018-10-31 | 2020-12-25 | 中国科学院半导体研究所 | 紧凑型太赫兹波阵列图像传感器芯片 |
CN109635682B (zh) * | 2018-11-26 | 2021-09-14 | 上海集成电路研发中心有限公司 | 一种人脸识别装置和方法 |
FR3093377B1 (fr) * | 2019-03-01 | 2021-02-26 | Isorg | Capteur d'images couleur et infrarouge |
FR3093376B1 (fr) | 2019-03-01 | 2022-09-02 | Isorg | Capteur d'images couleur et infrarouge |
KR20220022483A (ko) * | 2019-06-21 | 2022-02-25 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 광전 변환 소자, 광검출 장치, 광검출 시스템, 전자 기기 및 이동체 |
CN111582196B (zh) * | 2020-02-13 | 2021-05-04 | 牧今科技 | 用于确定相机视场内的遮挡的方法和系统 |
US11006039B1 (en) | 2020-02-13 | 2021-05-11 | Mujin, Inc. | Method and system for determining occlusion within a camera field of view |
KR20210133755A (ko) | 2020-04-29 | 2021-11-08 | 삼성전자주식회사 | 광학 필터, 이미지 센서, 카메라 모듈 및 전자 장치 |
FR3115175B1 (fr) * | 2020-10-08 | 2022-08-26 | Commissariat Energie Atomique | Dispositif d'acquisition d'une image de profondeur d'une scene |
US11624653B2 (en) | 2020-12-03 | 2023-04-11 | Artilux, Inc. | Multi-application optical sensing apparatus and method thereof |
FR3124276B1 (fr) * | 2021-06-21 | 2023-06-02 | Commissariat Energie Atomique | Capteur pour l'acquisition d'une carte de profondeur d'une scène |
FR3124275B1 (fr) * | 2021-06-21 | 2023-06-02 | Commissariat Energie Atomique | Dispositif pour l'acquisition d'une carte de profondeur d'une scène |
US11791320B2 (en) * | 2021-11-22 | 2023-10-17 | Qualcomm Incorporated | Integrated circuit (IC) packages employing a package substrate with a double side embedded trace substrate (ETS), and related fabrication methods |
JP2024079231A (ja) * | 2022-11-30 | 2024-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 光検出装置および電子機器 |
Family Cites Families (63)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030063185A1 (en) | 2001-09-28 | 2003-04-03 | Bell Cynthia S. | Three-dimensional imaging with complementary color filter arrays |
US7154157B2 (en) * | 2002-12-30 | 2006-12-26 | Intel Corporation | Stacked semiconductor radiation sensors having color component and infrared sensing capability |
US7274393B2 (en) | 2003-02-28 | 2007-09-25 | Intel Corporation | Four-color mosaic pattern for depth and image capture |
JP2007526453A (ja) | 2004-01-28 | 2007-09-13 | カネスタ インコーポレイテッド | 単一チップの赤、緑、青、距離(rgb−z)センサー |
US7375803B1 (en) | 2006-05-18 | 2008-05-20 | Canesta, Inc. | RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging |
US8139142B2 (en) | 2006-06-01 | 2012-03-20 | Microsoft Corporation | Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques |
WO2009030980A2 (en) * | 2007-09-06 | 2009-03-12 | Quantum Semiconductor Llc | Photonic via waveguide for pixel arrays |
US7888763B2 (en) * | 2008-02-08 | 2011-02-15 | Omnivision Technologies, Inc. | Backside illuminated imaging sensor with improved infrared sensitivity |
US7781716B2 (en) * | 2008-03-17 | 2010-08-24 | Eastman Kodak Company | Stacked image sensor with shared diffusion regions in respective dropped pixel positions of a pixel array |
KR101475464B1 (ko) * | 2008-05-09 | 2014-12-22 | 삼성전자 주식회사 | 적층형 이미지 센서 |
US7883916B2 (en) * | 2008-05-30 | 2011-02-08 | International Business Machines Corporation | Optical sensor including stacked photosensitive diodes |
US8229255B2 (en) * | 2008-09-04 | 2012-07-24 | Zena Technologies, Inc. | Optical waveguides in image sensors |
KR20100107995A (ko) | 2009-03-27 | 2010-10-06 | 삼성전기주식회사 | 광 픽업용 광 검출기 집적회로의 포토 다이오드 셀 구조 및그 제조방법 |
US8395191B2 (en) * | 2009-10-12 | 2013-03-12 | Monolithic 3D Inc. | Semiconductor device and structure |
US7960242B2 (en) * | 2009-04-14 | 2011-06-14 | Monolithic 3D Inc. | Method for fabrication of a semiconductor device and structure |
CA2666470A1 (en) | 2009-05-21 | 2010-11-21 | Pierre Benoit Boulanger | Multi-spectral color and ir camera based on multi-filter array |
KR20110003696A (ko) | 2009-07-06 | 2011-01-13 | 삼성전자주식회사 | 단일 칩 입체 영상 센서용 광학 필터 배열 및 그 필터 제조 방법 |
FR2947952B1 (fr) * | 2009-07-07 | 2011-11-25 | Commissariat Energie Atomique | Dispositif photo-detecteur et procede de realisation de dispositif photo-detecteur |
KR101044109B1 (ko) | 2009-08-18 | 2011-06-28 | 삼성전기주식회사 | 렌즈 구동 모듈 |
US8411146B2 (en) * | 2009-09-04 | 2013-04-02 | Lockheed Martin Corporation | Single camera color and infrared polarimetric imaging |
KR101044140B1 (ko) | 2009-09-11 | 2011-06-24 | 삼성전기주식회사 | 렌즈 구동 모듈 |
KR101044219B1 (ko) | 2009-10-19 | 2011-06-29 | 삼성전기주식회사 | 렌즈 구동 모듈 |
KR101022938B1 (ko) | 2009-11-10 | 2011-03-16 | 삼성전기주식회사 | 카메라모듈의 손떨림 보정기구 |
KR101608903B1 (ko) | 2009-11-16 | 2016-04-20 | 삼성전자주식회사 | 적외선 이미지 센서 |
KR101156872B1 (ko) | 2009-12-18 | 2012-06-20 | 삼성전기주식회사 | 렌즈 구동 모듈 |
KR101077408B1 (ko) | 2010-02-05 | 2011-10-26 | 서강대학교산학협력단 | Cmos 이미지 센서 |
KR101711061B1 (ko) * | 2010-02-12 | 2017-02-28 | 삼성전자주식회사 | 깊이 추정 장치를 이용한 깊이 정보 추정 방법 |
JP5581116B2 (ja) * | 2010-05-31 | 2014-08-27 | 富士フイルム株式会社 | 光電変換素子、撮像素子及び光電変換素子の駆動方法 |
DE102011079589A1 (de) * | 2010-08-11 | 2012-02-16 | Samsung Electronics Co., Ltd. | Einheitspixel für ein Photodetektionsbauelement |
US8809784B2 (en) * | 2010-10-21 | 2014-08-19 | Raytheon Company | Incident radiation detector packaging |
US8542348B2 (en) | 2010-11-03 | 2013-09-24 | Rockwell Automation Technologies, Inc. | Color sensor insensitive to distance variations |
US8478123B2 (en) * | 2011-01-25 | 2013-07-02 | Aptina Imaging Corporation | Imaging devices having arrays of image sensors and lenses with multiple aperture sizes |
US9595558B2 (en) * | 2013-11-12 | 2017-03-14 | Intrinsix Corporation | Photodiode architectures and image capture methods having a plurality of photodiode with a shared electrode |
US8698084B2 (en) * | 2011-03-10 | 2014-04-15 | Sionyx, Inc. | Three dimensional sensors, systems, and associated methods |
TWI559023B (zh) | 2011-03-25 | 2016-11-21 | 原相科技股份有限公司 | 可同時偵測紅外光和可見光之光學感測裝置 |
US20120249740A1 (en) * | 2011-03-30 | 2012-10-04 | Tae-Yon Lee | Three-dimensional image sensors, cameras, and imaging systems |
KR20120119279A (ko) * | 2011-04-21 | 2012-10-31 | 삼성전자주식회사 | 픽셀 어레이 및 이를 포함하는 3차원 이미지 센서 |
US8274051B1 (en) * | 2011-04-29 | 2012-09-25 | Texas Advanced Optoelectronic Solutions, Inc. | Method and device for optoelectronic sensors with IR blocking filter |
KR101289094B1 (ko) | 2011-07-29 | 2013-07-23 | 삼성전기주식회사 | 선형 모터 |
JP2013070030A (ja) * | 2011-09-06 | 2013-04-18 | Sony Corp | 撮像素子、電子機器、並びに、情報処理装置 |
KR101289142B1 (ko) | 2011-11-28 | 2013-07-23 | 삼성전기주식회사 | 발광다이오드 패키지 모듈 |
US9184194B2 (en) * | 2011-12-21 | 2015-11-10 | Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University | Multiband photodetector utilizing serially connected unipolar and bipolar devices |
KR101696335B1 (ko) * | 2012-01-10 | 2017-01-13 | 소프트키네틱 센서스 엔브이 | 다중 스펙트럼 센서 |
KR20130098042A (ko) * | 2012-02-27 | 2013-09-04 | 삼성전자주식회사 | 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치 |
US8981511B2 (en) * | 2012-02-29 | 2015-03-17 | Semiconductor Components Industries, Llc | Multi-chip package for imaging systems |
KR20140009774A (ko) * | 2012-07-13 | 2014-01-23 | 삼성전자주식회사 | 3d 이미지 센서 및 이를 포함하는 시스템 |
KR101858577B1 (ko) * | 2012-10-10 | 2018-05-16 | 삼성전자주식회사 | 결상 광학계 및 이를 포함하는 3차원 영상 획득 장치 |
US9111832B2 (en) * | 2012-10-29 | 2015-08-18 | Omnivision Technologies,Inc. | Infrared reflection/absorption layer for reducing ghost image of infrared reflection noise and image sensor using the same |
US9124762B2 (en) | 2012-12-20 | 2015-09-01 | Microsoft Technology Licensing, Llc | Privacy camera |
KR102009192B1 (ko) | 2013-02-05 | 2019-08-09 | 삼성전자주식회사 | 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서 |
KR102007279B1 (ko) * | 2013-02-08 | 2019-08-05 | 삼성전자주식회사 | 3차원 이미지 센서의 거리 픽셀, 이를 포함하는 3차원 이미지 센서 및 3차원 이미지 센서의 거리 픽셀의 구동 방법 |
US9407837B2 (en) | 2013-02-28 | 2016-08-02 | Google Inc. | Depth sensor using modulated light projector and image sensor with color and IR sensing |
US9880440B2 (en) * | 2013-03-01 | 2018-01-30 | Alliance For Sustainable Energy, Llc | Electrochromic devices and related products and methods |
KR102007277B1 (ko) * | 2013-03-11 | 2019-08-05 | 삼성전자주식회사 | 3차원 이미지 센서의 거리 픽셀 및 이를 포함하는 3차원 이미지 센서 |
US20140347442A1 (en) | 2013-05-23 | 2014-11-27 | Yibing M. WANG | Rgbz pixel arrays, imaging devices, controllers & methods |
US9190433B2 (en) * | 2013-03-18 | 2015-11-17 | Lite-On Singapore Pte. Ltd. | Ambient light sensing with stacked photodiode structure with dual PN junction |
US9111830B1 (en) * | 2013-05-22 | 2015-08-18 | Sensors Unlimited, Inc. | Perforated blocking layer for enhanced broad band response in a focal plane array |
KR20140147376A (ko) * | 2013-06-19 | 2014-12-30 | 삼성전자주식회사 | 적층형 컬러-깊이 센서 및 이를 채용한 3차원 영상 획득 장치 |
US20150022869A1 (en) * | 2013-07-17 | 2015-01-22 | Samsung Electronics Co., Ltd. | Demosaicing rgbz sensor |
US9749553B2 (en) * | 2013-08-23 | 2017-08-29 | Semiconductor Components Industries, Llc | Imaging systems with stacked image sensors |
CN105683725B (zh) * | 2013-10-31 | 2019-05-14 | 浜松光子学株式会社 | 光检测装置 |
US9182490B2 (en) * | 2013-11-27 | 2015-11-10 | Semiconductor Components Industries, Llc | Video and 3D time-of-flight image sensors |
US20150287766A1 (en) * | 2014-04-02 | 2015-10-08 | Tae-Chan Kim | Unit pixel of an image sensor and image sensor including the same |
-
2014
- 2014-12-22 US US14/579,882 patent/US9508681B2/en active Active
-
2015
- 2015-10-28 EP EP15873895.5A patent/EP3238274B1/de active Active
- 2015-10-28 EP EP18159573.7A patent/EP3399553A1/de active Pending
- 2015-10-28 GB GB1621171.6A patent/GB2548186B/en active Active
- 2015-10-28 WO PCT/US2015/057812 patent/WO2016105658A1/en active Application Filing
- 2015-10-28 CN CN201580035044.0A patent/CN106471621B/zh active Active
- 2015-10-28 DE DE112015005719.6T patent/DE112015005719T5/de not_active Ceased
-
2016
- 2016-11-23 US US15/360,906 patent/US9876050B2/en active Active
-
2017
- 2017-09-01 US US15/693,948 patent/US10141366B2/en active Active
- 2017-09-01 US US15/693,544 patent/US10056422B2/en active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11411036B2 (en) | 2017-04-04 | 2022-08-09 | Sony Semiconductor Solutions Corporation | Solid-state imaging device and electronic apparatus |
US11411037B2 (en) | 2017-04-04 | 2022-08-09 | Sony Semiconductor Solutions Corporation | Solid-state imaging device and electronic apparatus including coupling structures for electrically interconnecting stacked semiconductor substrates |
US11948961B2 (en) | 2017-04-04 | 2024-04-02 | Sony Semiconductor Solutions Corporation | Solid-state imaging device and electronic device including coupling structures for electrically interconnecting stacked semiconductor substrates |
DE102020119941A1 (de) | 2020-07-29 | 2022-02-03 | Valeo Schalter Und Sensoren Gmbh | Optische Detektionsvorrichtung, Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung und Verfahren zum Betreiben einer optischen Detektionsvorrichtung |
Also Published As
Publication number | Publication date |
---|---|
GB2548186A (en) | 2017-09-13 |
US9876050B2 (en) | 2018-01-23 |
EP3399553A1 (de) | 2018-11-07 |
CN106471621A (zh) | 2017-03-01 |
US9508681B2 (en) | 2016-11-29 |
CN106471621B (zh) | 2019-03-15 |
WO2016105658A1 (en) | 2016-06-30 |
US20170373114A1 (en) | 2017-12-28 |
EP3238274A4 (de) | 2018-07-11 |
EP3238274A1 (de) | 2017-11-01 |
GB201621171D0 (en) | 2017-01-25 |
US10056422B2 (en) | 2018-08-21 |
GB2548186B (en) | 2020-04-15 |
US20170373113A1 (en) | 2017-12-28 |
US20160181226A1 (en) | 2016-06-23 |
US10141366B2 (en) | 2018-11-27 |
US20170077168A1 (en) | 2017-03-16 |
EP3238274B1 (de) | 2022-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112015005719T5 (de) | Stapelhalbleiterchip-rgbz-sensor | |
DE112015005713B4 (de) | RGBZ-Pixeleinheitszelle mit ersten und zweiten Z-Transfergates | |
DE102018116043B4 (de) | Bildsensor | |
EP3340306B1 (de) | Physikalisches layout und struktur einer rgbz-pixelzelleneinheit für einen rgbz-bildsensor | |
CN105339834B (zh) | 液晶显示装置 | |
CN105093611B (zh) | 一种阵列基板及其驱动方法、显示面板、显示装置 | |
DE112015004335T5 (de) | Laufzeitkamerasystem mit scanbeleuchter | |
DE102018114073A1 (de) | Anzeigevorrichtung und verfahren zum herstellen derselben | |
CN105518875B (zh) | 光电转换装置及其制造方法 | |
DE102018112753A1 (de) | Anzeigevorrichtung mit integriertem touchscreen und verfahren zur herstellung derselben | |
DE112015004456T5 (de) | Laufzeitbildsensor und Lichtquellentreiber mit Abstandssimulierervermögen | |
DE102018132910A1 (de) | Fingerabdruckerkennungsvorrichtung und Anzeigevorrichtung und mobiles Terminal verwendend eine Fingerabdruckerkennungsvorrichtung | |
DE202016008547U1 (de) | Pixel mit hohem Dynamikbereich unter Verwendung von Lichttrennung | |
DE112005002586T5 (de) | Anzeige mit planarer Lichtquelle | |
DE102013111021A1 (de) | Tiefensensor, Bilderfassungsverfahren und Tiefensensor verwendendes Bildverarbeitungssystem | |
DE102013105525A1 (de) | Gestenerfassung und -erkennung | |
DE112017001139T5 (de) | Mikrovorrichtungsintegration in systemsubstrat | |
CN107314821A (zh) | 一种线列型红外焦平面读出电路及其设计方法 | |
CN107422511A (zh) | 显示面板、显示装置和显示面板的制造方法 | |
DE102018126935A1 (de) | Anzeigevorrichtung mit integriertem Berührungsbildschirm und Verfahren zum Herstellen derselben | |
DE112006000128T5 (de) | Anzeige, die eine Lichtführung und eine Refraktionsidexkontrolle verwendet | |
CN107239752B (zh) | 显示屏 | |
DE112020001591T5 (de) | Optischer sensor mit gerichteter empfindlichkeit | |
CN110248119A (zh) | 图像传感器及图像检测方法 | |
DE102014117317A1 (de) | Display-Vorrichtung, Verfahren zum Herstellen einer Display-Vorrichtung und Verfahren zum Betreiben einer Display-Vorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R081 | Change of applicant/patentee |
Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US |
|
R082 | Change of representative |
Representative=s name: PROCK, THOMAS, DR., GB Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE |
|
R082 | Change of representative |
Representative=s name: PROCK, THOMAS, DR., GB |
|
R082 | Change of representative |
Representative=s name: PROCK, THOMAS, DR., GB |
|
R002 | Refusal decision in examination/registration proceedings | ||
R003 | Refusal decision now final |