DE112015005719T5 - Stapelhalbleiterchip-rgbz-sensor - Google Patents

Stapelhalbleiterchip-rgbz-sensor Download PDF

Info

Publication number
DE112015005719T5
DE112015005719T5 DE112015005719.6T DE112015005719T DE112015005719T5 DE 112015005719 T5 DE112015005719 T5 DE 112015005719T5 DE 112015005719 T DE112015005719 T DE 112015005719T DE 112015005719 T5 DE112015005719 T5 DE 112015005719T5
Authority
DE
Germany
Prior art keywords
pixel matrix
semiconductor chip
pixel
circuits coupled
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE112015005719.6T
Other languages
English (en)
Inventor
Chung Chun Wan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112015005719T5 publication Critical patent/DE112015005719T5/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/03Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes
    • H01L25/04Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers
    • H01L25/041Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L31/00
    • H01L25/043Stacked arrangements of devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • H01L27/14652Multispectral infrared imagers, having a stacked pixel-element structure, e.g. npn, npnpn or MQW structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components
    • H04N25/772Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components comprising A/D, V/T, V/F, I/T or I/F converters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/0001Technical content checked by a classifier
    • H01L2924/0002Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Es wird eine Vorrichtung beschrieben, die einen ersten Halbleiterchip mit einer ersten Pixelmatrix umfasst. Die erste Pixelmatrix weist gegenüber sichtbarem Licht empfindliche Pixel auf. Die Vorrichtung umfasst einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix. Der erste Halbleiterchip ist auf dem zweiten Halbleiterchip derart gestapelt, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet. Die zweite Pixelmatrix weist für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion auf.

Description

  • Gebiet der Erfindung
  • Das Gebiet der Erfindung betrifft generell elektronische Technik und insbesondere einen Stapelhalbleiterchip-RGBZ-Sensor.
  • Allgemeiner Stand der Technik
  • Viele existierende Computersysteme umfassen eine oder mehrere traditionelle Bilderfassungskameras als eine integrierte Peripherievorrichtung. Ein gegenwärtiger Trend ist, Computersystembildgebungsvermögen durch Integrieren von Tiefenerfassung in seine Bildgebungskomponenten zu verbessern. Tiefenerfassung kann beispielsweise verwendet werden, um verschiedene intelligente Objekterkennungsfunktionen wie Gesichtserkennung (z. B. zur sicheren Systementsperrung) oder Handbewegungserkennung (z. B. für berührungslose Benutzerschnittstellenfunktionen) auszuführen.
  • Eine Herangehensweise zur Tiefeninformationserfassung, die als „Laufzeit-“Bildgebung bezeichnet wird, emittiert Licht von einem System auf ein Objekt und misst für jedes von mehreren Pixeln eines Bildsensors, die Zeit zwischen der Emission des Lichts und dem Empfangen seines Spiegelbildes am Sensor. Das von den Laufzeitpixeln erzeugte Bild entspricht einem dreidimensionalen Profil des Objekts, wie gekennzeichnet, durch eine einzigartige Tiefenmessung (z) an jeder von den unterschiedlichen (x, y) Pixelpositionen.
  • Da viele Computersysteme mit Bildgebungsvermögen in ihrer Art mobil sind (z. B. Laptops, Tabletcomputer, Smartphones usw.), stellt die Integration eines Laufzeitbetriebs zusammen mit traditioneller Bilderfassung eine Anzahl an Designherausforderungen dar, wie beispielsweise Herausforderungen bezüglich Kosten und Packaging.
  • Kurzdarstellung
  • Es wird eine Vorrichtung beschrieben, die einen ersten Halbleiterchip mit einer ersten Pixelmatrix umfasst. Die erste Pixelmatrix weist für sichtbares Licht empfindliche Pixel auf. Die Vorrichtung umfasst einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix. Der erste Halbleiterchip ist auf dem zweiten Halbleiterchip derart gestapelt, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet. Die zweite Pixelmatrix weist für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion auf.
  • Es wird eine Vorrichtung beschrieben, die Mittel umfasst, um sichtbares Licht und IR-Licht an einer Fläche einer ersten Pixelmatrix zu empfangen. Die Vorrichtung umfasst zudem Mittel, um das sichtbare Licht, aber nicht das IR-Licht, mit der ersten Pixelmatrix zu erfassen, wobei das IR-Licht durch die erste Pixelmatrix hindurchgeht. Die Vorrichtung umfasst auch das Erfassen von IR-Licht mit einer zweiten Pixelmatrix, die sich unter der ersten Pixelmatrix befindet.
  • Figuren
  • Die folgende Beschreibung und die begleitenden Zeichnungen werden verwendet, um Ausführungsformen der Erfindung zu veranschaulichen. In den Zeichnungen:
  • Die 1a und 1b zeigen eine Ausführungsform eines Stapelhalbleiterchip-RGBZ-Sensors;
  • 2 zeigt eine Darstellung des Betriebs eines Stapelhalbleiterchip-RGBZ-Sensors;
  • Die 3a bis 3i zeigen ein Verfahren zum Herstellen eines Stapelhalbleiterchip-RGBZ-Sensors;
  • Die 4a bis 4d zeigen unterschiedliche Bildsensorschaltungsverteilungen;
  • 5 zeigt ein durch einen Stapelhalbleiterchip-RGBZ-Sensor ausgeführtes Verfahren;
  • 6 zeigt eine Ausführungsform eines 2D/3D Kamerasystems.
  • 7 zeigt eine Ausführungsform eines Computersystems, das ein 2D/3D Kamerasystem aufweist.
  • Ausführliche Beschreibung
  • Ein „RGBZ“-Bildsensor ist eine attraktive Lösung, um sowohl traditionelle Bilderfassung als auch Laufzeittiefenprofilierung innerhalb eines gleichen Kamerapakets zu erreichen. Ein RGBZ-Bildsensor ist ein Bildsensor, der unterschiedliche Pixelarten umfasst, von denen einige gegenüber sichtbarem Licht (die RGB-Pixel) empfindlich sind und andere davon verwendet werden, um Tiefeninformationen zu messen (die Laufzeit- oder „Z“-Pixel).
  • Bei einer gewöhnlichen Implementierung sind Laufzeitpixel derart konzipiert, dass diese gegenüber IR-Licht empfindlich sind, da wie vorstehend erwähnt IR-Licht für die Laufzeitmessung verwendet wird, sodass die Laufzeitmessung die traditionellen Bildgebungsfunktionen der RGB-Pixel nicht stört. Die Laufzeitpixel weisen zusätzlich speziell damit verbundene Taktungs- und/oder Timingschaltungen auf, um die Zeit zu messen, zu der Licht am Pixel empfangen wurde. Da die Laufzeitpixel jedoch gegenüber IR-Licht empfindlich sind, ist es jedoch denkbar, dass diese auch (z. B. in einem zweiten Modus) nur als IR-Pixel und nicht als Laufzeitpixel verwendet werden (d. h., IR-Informationen werden erfasst, aber eine Laufzeitmessung wird nicht durchgeführt).
  • Das Integrieren von sowohl RGB-Pixeln als auch Z-Pixeln in ein gleiches Paket sollte verglichen mit Lösungen, bei denen die RGB-Pixel und die Z-Pixel in separaten Paketen enthalten sind, sowohl die Größe als auch die Kosten reduzieren. Die 1a und 1b zeigen einen „Stapel“-RGBZ-Bildsensor 100, bei dem ein erster Pixelmatrixtyp 101 (z. B. eine RGB-Pixelmatrix) oben auf einem zweiten Pixelmatrixtyp 102 (z. B. einer IR- oder Z-Pixelmatrix) gestapelt ist. Hier umfasst die Stapelstruktur 100 funktionelle Pixel eines ersten Typs 107 (RGB) im Gegensatz zu reinen Filtern, die auf einer unteren Schicht funktioneller Pixel eines zweiten Typs 108 (Z) gestapelt sind. Wie nachfolgend ausführlicher beschrieben, ist die obere Pixelmatrix 101 im Betrieb als eine Rückseitenbeleuchtungspixelmatrix implementiert und die untere Pixelmatrix 102 ist als eine Vorderseitenbeleuchtungspixelmatrix implementiert.
  • Wie in der Ausführungsform der 1a und 1b ersichtlich, befinden sich die Rückseitenkopplungsstruktur-Metallisierungsschichtung 109, eine RGB-Filterschicht 110 und eine Mikrolinsenmatrix 112 an der Rückseite der Halbleiter-Die 104 der oberen Pixelmatrix 101. Die Rückseitenmetallisierungsschichtung 109 unterstützt die Chip-zu-Chip-Durchkontaktierungen 116 zwischen dem Pixelmatrizenpaar 101, 102. Die RGB-Filterschicht 110 umfasst verschiedenfarbige Filter 111_1, 111_2, um die RGB-Pixel der oberen Pixelmatrix 101 zu definieren. Die Mikrolinsenmatrix 112 ist zusammen mit den Drahtbondkontaktstellen 118 auf einer oberen Fläche der Gesamtstruktur 100 gebildet. Drahtbonds, die auf den Drahtbondkontaktstellen 116 gebildet sind, können auf einem Paketsubstrat aufsetzen. Bei einigen Ausführungsformen entspricht das untere Substrat 114 dem Paketsubstrat, während bei anderen Ausführungsformen das untere Substrat 114 einem anderen Halbleiterchip entspricht, der auf dem Paketsubstrat befestigt ist (bei den letzteren Ausführungsformen ist das Paketsubstrat in 1b nicht dargestellt).
  • Die obere Pixelmatrix 101 umfasst zudem die Vorderseitenmetallisierungsschichtung 103, um die Transistorkomponenten (wie Gate- und Source/Drain-Elektroden) und entsprechende Schicht(en) der Kopplungsstruktur zu bilden, die zusammen die Schaltungen bilden, die an der oberen Pixelmatrix 101 integriert sind. Insbesondere umfasst die obere Pixelmatrix 101 die Substratdurchkontaktierungen 115, die sich durch das Halbleitersubstrat 104 der oberen Pixelmatrix 101 erstrecken, um Knoten der Metallisierungsschichtung 103 mit Knoten der Metallisierungsschicht 109 zu verbinden.
  • Die untere Pixelmatrix 102 umfasst die Vorderseitenkopplungsstrukturmetallisierungsschichtung 106, die der Vorderseitenkopplungsstrukturmetallisierung 103 der oberen Pixelmatrix 101 gegenübersteht. Die Vorderseitenmetallisierungsschichtung 106 wird verwendet, um die Transistorkomponenten (wie Gate- und Source-/Drainelektroden) und entsprechende Schicht(en) der Kopplungsstruktur zu bilden, die zusammen die Schaltungen bilden, die an der unteren Pixelmatrix 102 integriert sind. Die Vorderseitenmetallisierungsschichtung 106 der unteren Pixelmatrix 102 umfasst zudem Knoten, die mit Durchkontaktierungen 116 verbunden sind, die mit Knoten der Rückseitenmetallisierungsschichtung 109 der oberen Pixelmatrix 101 verbinden. Diese Durchkontaktierungen 116, wie die Durchkontaktierungen 115, sind auch als Substratdurchkontaktierungen der oberen Pixelmatrix 101 implementiert.
  • Die Vorderseitenmetallisierungsschicht 106 der unteren Pixelmatrix 102 umfasst weiter zusätzliche Knoten, die mit Durchkontaktierungen 117 verbunden sind, die mit Bondkontaktstellen 118 verbinden. Wie die Durchkontaktierungen 115 und 116 sind die Durchkontaktierungen 117 auch als Substratdurchkontaktierungen der oberen Pixelmatrix 101 implementiert. Obwohl 1b zeigt, dass die gesamte Eingangs-/Ausgangssignalisierung zu/von der oberen Pixelmatrix 101 durch die Vorderseitenmetallisierungsschichtung 106 der unteren Pixelmatrix 102 hindurchgehen muss, kann bei verschiedenen Ausführungsformen die Rückseitenmetallisierungsschichtung 109 der oberen Pixelmatrix 101 Durchkontaktierungen unterstützen, die direkt mit den Bondkontaktstellen 118 verbinden, und dadurch erlauben, dass Signale zwischen einer Bondkontaktstelle und der oberen Pixelmatrix 101 hindurchgehen, ohne durch die Metallisierungsschichtung 106 der unteren Pixelmatrix 102 hindurchgehen zu müssen.
  • Zu beachten ist, dass 1b eine Ausführungsform eines Stapel-RGBZ-Bildsensors entlang einem bestimmten Segment zeigt, das eine erste horizontale Achse der RGB-Pixelmatrix zeigt. Wenn beispielsweise eine Darstellung der gleichen Struktur entlang einer nächsten horizontalen Achse gezeigt wäre, die sich näher an oder weiter weg von der GBGB...-Achse von 1b befindet, würden die sichtbaren Pixel der oberen Pixelmatrix 101 stattdessen z. B. eine GRGR...Struktur anstatt einer GBGB...-Struktur demonstrieren. Es ist auch zu beachten, dass bei der Ausführungsform von 1b die Z-Pixel 108 größer sind als die RGB-Pixel, da Silizium beispielsweise verglichen mit sichtbarem Licht eine eduzierte Empfindlichkeit für IR-Licht aufweist und/oder die Z-Pixel eine größere Kapazität erfordern. Die Vorderseitenmetallisierungsschichten 103, 106 der oberen und unteren Pixelmatrizen 101, 102 können auch entsprechende Lichtleitstrukturen 113, 114 umfassen, um einfallendes Licht zu koppeln, das sich durch die RGB-Pixel der oberen Pixelmatrix 102 in die Z-Pixel der unteren Pixelmatrix 102 bewegt.
  • 2 stellt eine Wirkungsweise der Stapelpixelmatrixstruktur der 1a und 1b dar. Wie in 2 ersichtlich, fällt Licht, das aus sichtbarem Licht und IR-Licht 210 besteht, auf die (z. B. Rückseiten-)Fläche der oberen RGB-Pixelmatrix 201 ein. Wie auf dem Fachgebiet bekannt enthält bzw. enthalten die RGB-Filterschicht(en) 110, die auf der oberen Pixelmatrix 201 gebildet sind, individuelle kachelartige Grün- 107_1 und Blau- 107_2 -Filter, die typischerweise in einer Struktur wie einer Bayer-Struktur angeordnet sind. Jeder individuelle RGB-Filter lässt nicht nur sichtbares Licht seiner eigenen spezifischen Farbe (z. B. Rot im Fall von einem R-Pixel, Blau im Fall von einem B-Pixel usw.), sondern auch IR-Licht hindurch. Die spezifische Farbe des sichtbaren Lichts und des IR-Lichts trifft auf (z. B. die Rückseite) des Halbleitersubstrats 104 der oberen Pixelmatrix 201 auf. Die Pixel 107_1, 107_2 der oberen Pixelmatrix 201 absorbieren das sichtbare Licht und erzeugen als Reaktion darauf ein entsprechendes Detektionssignal für ihre entsprechenden Farben.
  • Anders als das sichtbare Licht, das von der oberen Pixelmatrix 201 absorbiert wird, geht im Vergleich dazu das IR-Licht durch die obere Pixelmatrix 201 hindurch. Grundlegend in der Physik tendiert hier sichtbares Licht dazu, viel stärker von einem Halbleiter absorbiert zu werden als IR-Licht. Indem die Halbleiter-Die 104 der oberen Pixelmatrix- 201 -Schicht dünn genug ausgeführt wird, kann die obere Pixelmatrix 201 derart ausgeführt werden, dass diese das einfallende sichtbare Licht absorbiert und darauf reagiert und doch gleichzeitig im Wesentlichen das IR-Licht hindurchlässt.
  • Idealerweise geht daher das IR-Licht 211, das auf die obere Pixelmatrix 201 eingefallen ist, größtenteils durch die obere Pixelmatrix 201 zur unteren Pixelmatrix 202 hindurch. Bei einer Ausführungsform ist die Halbleiter-Die 105 der unteren Pixelmatrix 202 dicker ausgeführt als die Halbleiter-Die 104 der oberen Pixelmatrix 201, sodass diese anders als die obere Pixelmatrix 201 das einfallende IR-Licht 211 absorbiert, anstatt es hindurchzulassen. Als solches absorbieren die Pixel der unteren Pixelmatrix 202 das IR-Licht und erzeugen als Reaktion darauf ein entsprechendes Detektionssignal. Durch Absorbieren des IR-Lichts wird keine der Schaltungen unterhalb der unteren Pixelmatrix 202 (wie beispielsweise, wenn das untere Substrat 114 als ein Halbleiterchip implementiert ist) gestört.
  • Bei verschiedenen Implementierungen führen die Z-Pixel der unteren Pixelmatrix 202 „3D“-Laufzeittiefenmessungen effektiv durch Erzeugen von Ladung als eine Funktion der Zeit zwischen dem „Auf“-leuchten des Lichts eines IR-Beleuchters und dem Empfangen des reflektierten aufleuchtenden Lichts an der unteren Pixelmatrix 202 aus. Die Z-Pixel empfangen typischerweisen Taktsignale, von denen jedes eine bekannte Phasenbeziehung mit dem Taktsignal des Beleuchters aufweist. Bei einer Ausführungsform werden vier derartige Taktsignale (z. B. die Quadraturzweige 0°, 90°, 180° und 270°) an jedes Z-Pixel der unteren Pixelmatrix bereitgestellt.
  • Das Takten eines Z-Pixels mit Takten von unterschiedlicher Phase (z. B. durch 4 sequenzielle Belichtungszeiten) sammelt hier unterschiedliche Mengen an Ladung für ein gleiches Aufleuchten von Licht. Gesammelte Ladungssignale von den unterschiedlichen Takten können kombiniert werden, um einen spezifischen Laufzeitwert für die Region zu erzeugen, wo sich die Knoten befinden. Bei einer Implementierung erfolgt eine derartige Kombination durch einen Bildsignalprozessor (z. B. integriert in einem Hostsystem wie einem Prozessor- oder Anwendungsprozessorhalbleiterchip).
  • Es ist zu beachten, dass die Stapelpixelmatrixstruktur von 2 sich naturgemäß gleichzeitig dafür eignet, sichtbare Bilder mit der oberen RGB-Pixelmatrix 201 zu detektieren, während IR-Licht für Laufzeitmessungen mit der unteren Z-Pixelmatrix 202 detektiert wird.
  • Die 3a bis 3i zeigen einen beispielhaften Prozess zum Herstellen der Stapelpixelmatrixstruktur. Wie in 3a ersichtlich, wird die obere Pixelmatrix 301 mit der Vorderseitenmetallisierung 303 gebildet (z. B. gemäß einem ersten Waferherstellungsverfahren), die entsprechende Lichtleiter 114 umfasst, von denen jeder über Gruppen von Pixelregionen mit sichtbarem Licht gebildet ist, die in der Größe zu den Z-Pixeln proportional sind, die mit der unteren Pixelmatrix verbunden sind (z. B. ein Quadrat 4×4 von RGB-Pixeln, das ein Paar von R-Pixeln, ein G-Pixel und ein B-Pixel enthält).
  • Wie auf dem Fachgebiet bekannt umfasst die Vorderseitenmetallisierung 303 Schichten von leitfähigen Traces 303 mit entsprechenden Dielektrikumschichten dazwischen, die über dem Halbleitersubstrat 304 gebildet sind. Die elektronischen Kopplungsstrukturmerkmale umfassen typischerweise für jedes Pixel einen oder mehrere Kontakte zu dem darunterliegenden Silizium (z. B., um das Pixel vorzumagnetisieren und/oder um das optisch induzierte elektrische Signal des Pixels aufzunehmen) und die Verdrahtung zu/von anderen Stromkreisen, die sich um den Umfang der aktiven Pixelmatrix befinden und den Betrieb der Pixelmatrix (z. B. Leseverstärker, Zeilendecoder usw.) unterstützen. Transistorelektroden zum Implementieren dieser Stromkreise werden gewöhnlich an der untersten Metallisierungsschicht gebildet. Zur Zeichnungsvereinfachung sind die Transistorelektroden nicht dargestellt.
  • Beim Layout der Metallisierungsschichtung 303 wird darauf geachtet, dass die leitfähigen Spuren so durchführbar wie möglich entlang den Rändern der Pixelgrenzen verlaufen anstatt über den Pixeln selbst (sodass die Spuren das einfallende Licht nicht blockieren). Eine oder mehrere von den Metallisierungsschichten können verwendet werden, um eine Schutzschicht über den Schaltungen zu bilden, die einfallendes Licht blockiert, sodass es den Betrieb der darunterliegenden Transistoren nicht erreicht und stört.
  • Bei einer Ausführungsform werden Lichtleiter 314 durch Hindurchätzen durch gestapelte Dielektrikumschichten gebildet, die sich über den entsprechenden Gruppen von RGB-Pixeln befinden, wo individuelle Lichtleiter anzuordnen sind. Die gestapelten Dielektrikumschichten können den normalen Dielektrikumschichten 303 ohne irgendwelche Metallspuren entsprechen. Nach dem Ätzen von geeignet angeordneten Gräben werden die Gräben (z. B. durch Abscheidung) mit einem Material mit hohem Brechungsindex gefüllt, das gegenüber IR-Licht transparent ist. Das Füllen der Lichtleiterregion mit Material mit hohem Brechungsindex erzwingt im Wesentlichen eine interne Reflexion des IR-Lichts innerhalb des Lichtleiters und verhindert eine Übertragung von Übersprechen von internem Licht auf benachbarte Lichtwellenleiter und/oder benachbarte Pixel. Andere Herangehensweisen zum Bilden der Lichtleiter umfassen das Ätzen eines „Ringraums“ oder einer ähnlichen Struktur um den Umfang der Lichtleitermerkmalsgrenze herum und das Füllen der Ätzregion mit Metall (um erneut interne Reflexion innerhalb des Lichtleiters zu erzwingen) oder das Hinterlassen der geätzten Region als Luftspalt.
  • Unter Bezugnahme auf 3b ist ebenfalls die untere Pixelmatrix 302 gebildet (z. B. gemäß einem zweiten Waferherstellungsprozess). Die Vorderseitenmetallisierung 306 ist in ähnlicher Weise wie die Vorderseitenmetallisierung 303 der oberen Pixelmatrix gebildet einschließlich des Bildens von individuellen Lichtleitern 313 über jeder der Z-Pixelregionen. Die Vorderseitenmetallisierung 306 umfasst zudem zusätzliche periphere Merkmale 319, um über Verbindungen zur oberen Pixelmatrix oder zu den Bondkontaktstellen zu unterstützen. Wie in 3b ersichtlich, ist zu beachten, dass die obere Pixelmatrix 301 in Bezug auf ihre Darstellung in 3a umgedreht ist, um die obere Pixelmatrix 301 zur Anordnung auf der unteren Pixelmatrix 302 vorzubereiten.
  • Wie in 3c ersichtlich, ist die invertierte obere Pixelmatrix 301 auf die untere Pixelmatrix 302 gemäß einem Wafer-auf-Wafer-Halbleiterchipanbringungsprozess oder einem Die-auf-Die-Halbleiterchipanbringungsprozess abgesenkt.
  • Wie in 3d ersichtlich, ist eine untere Dielektrikumschicht 321 der Rückseitenmetallisierungsschichtung 109 über der Rückseite der oberen Pixelmatrix 301 abgeschieden. Die Dielektrikumschicht 321 wird dann geätzt, um Substratdurchkontaktierungen 322 durch das Halbleitersubstrat 304 der oberen Pixelmatrix zu bilden. Die Substratdurchkontaktierungen 322 weisen wie in 3d ersichtlich unterschiedliche Tiefen auf. Eine erste Tiefe erstreckt sich nur in die Vorderseitenmetallisierungsschichtung 303 der oberen Pixelmatrix. Eine zweite Tiefe erstreckt sich tiefer in die Vorderseitenmetallisierungsschichtung 306 der unteren Pixelmatrix.
  • Bei einer Ausführungsform werden die zwei unterschiedlichen Ätztiefen durch gegenseitiges Ausmaskieren gesteuert. D. h., während eine der Ätztiefen geätzt wird, werden die Regionen, in denen die andere Ätztiefe geätzt werden soll, durch eine Maskierungsschicht abgedeckt. Als solches werden zwei unterschiedliche Maskensequenzen verwendet, um die zwei Ätztiefen zu bilden. Dies ermöglicht unterschiedliche Ätzprozesse (wie z. B. eine längere Ätzdauer für die tiefere Ätzung). Das Ätzen kann z. B. mit einem reaktiven Ionenätzen (RIE) oder einem reaktiven Ionentiefätzen (DRIE) ausgeführt werden.
  • Wie in 3e ersichtlich, ist die Rückseitenmetallisierungsschichtung 309 der oberen Pixelmatrix 301 einschließlich des Füllens der geätzten Regionen mit leitendem Material (z. B. Metall) und des Bildens von Merkmalen 323, welche die oberen und unteren Pixelmatrizen 301, 302 elektrisch miteinander verbinden, abgeschlossen. Bei einer Herangehensweise umfasst das Füllen der geätzten Regionen mit leitendem Material zuerst das Füllen der geätzten Regionen mit Isoliermaterial (z. B. Siliziumdioxid), um eine isolierende Auskleidung innerhalb der Gräben zu bilden, und dann das Ätzen des Isoliermaterials in ähnlicher Weise, in der die Regionen anfänglich geätzt wurden, um Öffnungen zu bilden. Erneut können diese Ätzungen mit unterschiedlichen entsprechenden Masken ausgeführt werden. Nachdem die Regionen erneut geätzt sind, werden sie mit Metall gefüllt.
  • 3f zeigt das Bilden einer Filterschicht 310 über der Rückseitenmetallisierungsschichtung 310. Die Filterschicht kann durch Bilden einer Mordent- oder Transparentschicht über der Rückseitenmetallisierungsschichtung 310 gebildet werden. Dann werden sichtbare Lichtfilter eines ersten Typs 311_1 (z. B. ein grün gefärbter „G“-Filter) in der Mordent- oder Transparentschicht durch Färben der Schicht mit der geeigneten Farbe (G) in der geeigneten Region gebildet. Das Färben kann durch Wärmeübertragen eines Mordentfarbstoffs durch eine Fotolackmaske hindurch in eine Mordentschicht und dann Ablösen der Maske implementiert werden oder durch Aufsaugen eines Farbstoffs in eine Transparentschicht durch eine Fotolackmaske hindurch und dann Ablösen der Maske. Hier werden der Fotolack und die Maskierung derart strukturiert, dass die Regionen von Interesse (die G-Pixelregionen) freigelegt und die anderen Regionen (die R- und B-Regionen) blockiert werden. Der Prozess wiederholt sich dann für die anderen Regionen und Farben wie geeignet (z. B. R-Region 311_2 und B-Region (nicht gezeigt in 3f)).
  • Wie in 3g ersichtlich, wird die Filterschicht 310 geätzt, um geätzte Regionen 324 zu bilden. Die geätzten Regionen 324 können abhängig von der Implementierung alle eine gleiche Tiefe oder unterschiedliche Tiefen aufweisen. Erneut kann individuelles Maskieren verwendet werden, um unterschiedliche Ätztiefen zu bilden. Wie in 3g ersichtlich erstrecken sich bei einer Ausführungsform mindestens einige der Ätztiefen durch das obere Pixelmatrixhalbleitersubstrat 304 und in die Vorderseitenmetallisierung 306 der unteren Pixelmatrix 302. Diese geätzten Regionen unterstützen Substratdurchkontaktierungen, die mit I/O-Bondkontaktstellen der Stapel-RGBZ-Pixelmatrix verbinden, wie sich nachfolgend zeigen wird. Andere Ätztiefen (nicht gezeigt) können sich nur in die Rückseitenmetallisierungsschichtung 309 der oberen Pixelmatrix 301 erstrecken, sodass I/O-Bondkontaktstellen direkt mit Merkmalen innerhalb dieser Schicht verbunden sein können.
  • 3h zeigt die Struktur, nachdem die Substratdurchkontaktierungen in den geätzten Regionen 324 gebildet und Bondkontaktstellen 325 darauf angeordnet sind. Die Durchkontaktierungen können ähnlich den Durchkontaktierungen von 3e gebildet sein.
  • 3i zeigt die abgeschlossene Stapel-RGBZ-Pixelmatrix nach dem Bilden der Mikrolinsenmatrix 312 über der Filterschicht 310. Die Mikrolinsen können durch irgendeinen von einer Anzahl von verschiedenen Prozessen gebildet werden wie: 1) Beschichten und Brennen von einer oder mehrerer Fotolackschichten auf der darunterliegenden Struktur, Strukturieren der Fotolackschichten in z. B. Kreise/Zylinder, welche die Mikrolinsenmatrix darstellen, und dann Schmelzen der Fotolackkreise/-zylinder in die Form der Mikrolinsen; 2) Ausführen des vorstehenden Prozesses von 1) auf einer Schicht auf einer Transparentschicht (z. B. Kieselglas) und Verwenden des geschmolzenen Fotolacks als eine Maske für ein RIE-Ätzen in die Transparentschicht (was die Form von volleren Mikrolinsen in die Transparentschicht abschließt); 3) Mikrohervorstoßen von Tröpfchen, die auf die darunterliegende Struktur im Matrixmuster gerichtet sind, und Verfestigen der Tröpfchen.
  • Die 4a bis 4d zeigen unterschiedliche mögliche Architekturen für die vorstehend beschriebene Stapelpixelmatrixstruktur. Zum Verständnis, dass ein Spektrum von unterschiedlichen architektonischen Möglichkeiten existiert, zeigt 4a eine Ausführungsform in Richtung auf ein Ende des Spektrums, während 4b eine Ausführungsform in Richtung auf ein anderes Ende des Spektrums zeigt. Die Enden der Spektren sind als eine Funktion dessen klassifiziert, wie viel weitere Bildsensorfunktionalität als eine Pixelmatrix auf der Stapelhalbleiter-Die-Struktur integriert ist.
  • Da Transistoren z. B. am Außenumfang von beiden Pixelmatrizen gebildet sein können, werden derartige Transistoren generell verwendet, um Schaltungen zu bilden, die Bildsensorfunktionalität ausführen. In dem Ausmaß, in dem mehr Bildsensorfunktionalität auf einer der Dies mit einer aktiven Pixelmatrix integriert wird, nimmt die Anzahl an derartigen Transistoren (und des entsprechenden davon verbrauchten Halbleiterflächenbereichs) zu, und in dem Ausmaß, in dem weniger Bildsensorfunktionalität auf einer Die mit einer aktiven Pixelmatrix integriert wird, nimmt die Anzahl an derartigen Transistoren (und der entsprechende davon verbrauchte Halbleiterflächenbereich) ab.
  • Wie auf dem Fachgebiet bekannt, können Bildsensoren generell als nicht nur eine aktive Pixelmatrix, sondern auch Pixelmatrixschaltungen, Analog-Digital-Wandlungsschaltungen und Timing- und Steuerschaltungen umfassend angesehen werden. Die Pixelmatrixschaltungen umfassen generell Schaltungen, die direkt zu/von der aktiven Pixelmatrix selbst kommunizieren. Beispiele umfassen Leseverstärker, Reihen- und Spaltenadressdecoder und, im Fall von Z-Pixeln für Laufzeitmessungen, mindestens ein Taktsignal pro Z-Pixel, um die Laufzeitmessung auszuführen. Analog-Digital-Schaltungen sind für das Umwandeln der analogen Signale, die von den einfallenden optischen Signalen detektiert werden, in digitale Werte verantwortlich. Die Timing- und Steuerschaltungen sind für das Bereitstellen der geeigneten Taktungssignale und Steuersignale an die Pixelmatrixschaltungen und die Analog-Digital-Wandler-Schaltungen verantwortlich.
  • In Richtung auf ein Ende des Spektrums, das in 4a ersichtlich ist, ist wenig derartige Funktionalität auf jeder der Pixelmatrix-Dies angeordnet, was zur Folge hat, dass der Großteil an derartiger Funktionalität auf dem dritten unteren Substrat, das als ein Halbleiterchip implementiert ist, angeordnet werden muss. In Richtung auf das andere Ende des Spektrums, das in 4b ersichtlich ist, sind große Mengen derartiger Funktionalität auf beiden Pixelmatrix-Dies angeordnet. Bei der bestimmten Ausführungsform von 4b entspricht die obere Die einem gesamten RGB-Bildsensor und die untere Die entspricht einem gesamten Laufzeitbildsensor. In diesem Fall kann das untere Substrat als ein Paketsubstrat implementiert sein.
  • Ein großer Bereich von architektonischen Möglichkeiten existiert zwischen diesen zwei spektralen Endregionen. Beispielsweise sind wie in 4c ersichtlich nur die Pixelmatrixschaltungen auf ihren entsprechenden Pixelmatrix-Dies implementiert, was zur Folge hat, dass die Timing- und die Steuerschaltungen und die Analog-Digital-Schaltungen für beide Bildsensoren auf der untersten Halbleiterchip-Die zu implementieren sind.
  • Als ein weiteres in 4d ersichtliches Beispiel umfasst die untere Pixelmatrix-Die die Timing- und Steuerschaltungen und die ADC-Schaltungen für die oberen als auch die unteren Pixelmatrizen. Zu beachten ist, dass in dem Fall, bei dem die untere Pixelmatrix-Die Schaltungen enthält, welche die obere Pixelmatrix unterstützt, sollte die obere Fläche der unteren Pixelmatrix Kontaktstellen/Kontaktflecken aufweisen, die mit Schaltungen innerhalb der unteren Pixelmatrix-Die verbinden anstatt einer Substratdurchkontaktierung der unteren Pixelmatrix-Die. Aus den 4a bis 4d wird ein Durchschnittsfachmann erkennen, dass eine große Vielfalt architektonischer Möglichkeiten existiert, bei denen sich die verschiedenen Schaltungen für das Paar von Bildsensoren oder Abschnitte davon potenziell auf jeder von der oberen Pixelmatrix-Die, der unteren Pixelmatrix-Die und dem unteren Substrathalbleiterchip (falls vorhanden) befinden können.
  • 5 zeigt ein Verfahren, das durch die vorstehend beschriebenen RGBZ-Bildsensorausführungsformen ausgeführt wird. Wie in 5 ersichtlich, werden einfallendes sichtbares Licht und einfallendes IR-Licht auf einer Fläche einer ersten Pixelmatrix 501 empfangen. Das sichtbare Licht, aber nicht das IR-Licht, wird mit dem ersten Pixel erfasst und das IR-Licht geht durch die erste Pixelmatrix 502 hindurch. Das IR-Licht wird mit einer zweiten Pixelmatrix erfasst, die sich unter der ersten Pixelmatrix 503 befindet.
  • 6 zeigt eine integrierte traditionelle Kamera und ein Laufzeitbildgebungssystem 600. Das System 600 weist einen Anschluss 601 auf, um elektrischen Kontakt, z. B. mit einer größeren System-/Hauptplatine herzustellen, wie beispielsweise der System-/Hauptplatine eines Laptopcomputers, Tabletcomputers oder Smartphones. Abhängig vom Layout und der Implementierung kann der Anschluss 601 mit einem flexiblen Kabel verbinden, das z. B. eine tatsächliche Verbindung mit der System-/Hauptplatine herstellt, oder der Anschluss 601 kann direkten Kontakt mit der System-/Hauptplatine herstellen.
  • Der Anschluss 601 ist an einer Grundplatine 602 angebracht, die als eine mehrschichtige Struktur von abwechselnden leitenden und isolierenden Schichten implementiert sein kann, wobei die leitenden Schichten strukturiert sind, elektronische Spuren zu bilden, welche die internen elektrischen Verbindungen des Systems 600 unterstützen. Durch den Anschluss 601 werden Befehle vom größeren Hostsystem wie Konfigurationsbefehle, die Konfigurationsinformationen von/zu Konfigurationsregistern innerhalb des Kamerasystems 600 lesen/schreiben, empfangen.
  • Ein „RGBZ“-Bildsensor, der aus einer RGB-Pixelmatrix besteht, die auf einer ersten Halbleiter-Die implementiert ist, welche auf einer zweiten Halbleiter-Die mit IR-Pixeln gestapelt ist, um z. B. Laufzeitpixel zu implementieren, befindet sich innerhalb eines Halbleiterchippakets 603, das an der Grundplatine 602 befestigt ist. Der Stapel-RGBZ-Bildsensor umfasst eine obere RGB-Pixelmatrix mit unterschiedlichen Pixelarten, die für sichtbares Licht empfindlich sind (speziell eine Untergruppe von R-Pixeln, die gegenüber sichtbarem rotem Licht empfindlich sind, eine Untergruppe von G-Pixeln, die gegenüber sichtbarem grünem Licht empfindlich sind, und eine Untergruppe von B-Pixeln, die gegenüber blauem Licht empfindlich sind). Eine untere Z-Pixelmatrix weist Pixel auf, die gegenüber IR-Licht empfindlich sind. Die RGB-Pixel werden verwendet, um traditionelle Erfassungsfunktionen eines sichtbaren „2D“-Bildes (traditionelle Bilderfassung) zu unterstützen. Die IR-sensiblen Pixel werden verwendet, um 3D-Tiefenprofilbildgebung unter Verwendung von Laufzeittechniken zu unterstützen. Obwohl eine grundlegende Ausführungsform RGB-Pixel für die Erfassung eines sichtbaren Bildes umfasst, können andere Ausführungsformen unterschiedliche gefärbte Pixelschemen (z. B. Cyan, Purpur und Gelb) verwenden. Der RGBZ-Bildsensor kann zudem ADC-Schaltungen und Timing- und Steuerschaltungen für beide Pixelmatrizen umfassen.
  • Die Grundplatine 602 kann desgleichen Signalspuren umfassen, um digitale Informationen zu transportieren, die durch die ADC-Schaltungen an den Anschluss 601 zum Verarbeiten durch eine höhere Endkomponente des Computersystems wie eine Bildsignalverarbeitungspipeline (die z. B. in einem Anwendungsprozessor integriert ist) bereitgestellt werden. Zu beachten ist, dass bei anderen Ausführungsformen eine Bildsignalverarbeitungspipeline oder mindestens eine Form von an dem ADC-Ausgangspixelstrom ausgeführter Digitalsignalverarbeitung mit Digitallogikschaltungen auf einem Halbleiterchip ausgeführt werden kann, der in das Kamerasystem 600 integriert ist.
  • Es ist ein Kameralinsenmodul 604 über den Pixelmatrizen des RGBZ-Bildsensors 603 integriert. Das Kameramodul 604 enthält ein System von einer oder mehreren Linsen, um durch eine Apertur des RGBZ-Bildsensorpakets 603 empfangenes Licht zu bündeln.
  • Ein Beleuchter 607, der aus einer Lichtquellenmatrix unter einer Apertur 606 besteht, ist ebenfalls auf der Grundplatine 602 befestigt. Die Lichtquellenmatrix kann als eine Matrix von VCSELs oder LEDs implementiert sein, die auf einem Halbleiterchip implementiert sind, der an der Grundplatine 601 befestigt ist. Alternativ kann eine einzelne Lichtquelle (z. B. ein einzelner VCSEL oder eine LED im Gegensatz zu einer Matrix) verwendet werden. Ein Lichtquellentreiber ist mit der Lichtquellenmatrix gekoppelt, um sie zu veranlassen, Licht mit einer bestimmten Intensität und modulierten Wellenform zu emittieren.
  • Bei einer Ausführungsform unterstützt das integrierte System 600 von 6 drei Betriebsarten: 1) 2D-Modus; 3) 3D-Modus; und 3) 2D/3D-Modus. Im Fall des 2D-Modus verhält sich das System wie eine traditionelle Kamera. Als solches ist der Beleuchter 607 deaktiviert und der Bildsensor wird verwendet, um sichtbare Bilder durch seine RGB-Pixel zu empfangen. Im Fall des 3D-Modus erfasst das System Laufzeittiefeninformationen eines Objekts im Sichtfeld des Beleuchters 607 und des Kameralinsenmoduls 604. Als solches ist der Beleuchter aktiviert und emittiert IR-Licht (z. B. in einer Ein-Aus-Ein-Aus-...Sequenz) auf das Objekt. Das IR-Licht wird vom Objekt reflektiert, durch das Kameralinsenmodul 604 empfangen und durch die Laufzeitpixel des Bildsensors erfasst. Im Fall des 2D/3D-Modus sind die vorstehend beschriebenen 2D- und 3D-Modi gleichzeitig aktiv.
  • 7 zeigt eine Darstellung eines beispielhaften Computersystems 700 wie ein Personalcomputersystem (z. B. Desktop oder Laptop) oder ein mobiles oder handgehaltenes Computersystem wie eine Tabletvorrichtung oder ein Smartphone. Wie in 7 ersichtlich kann das grundlegende Computersystem eine Zentraleinheit 701 (die z. B. mehrere Universalprozessorkerne umfassen kann) und einen Hauptspeichercontroller 717 umfassen, die auf einem Anwendungsprozessor oder Mehrkernprozessor 750 angeordnet sind, Systemspeicher 702, ein Display 703 (z. B. Touchscreen, Flachpanel), eine lokale verdrahtete Punkt-zu-Punkt-Verbindung 704 (z. B. USB), verschiedene Netzwerk-I/O-Funktionen 705 (wie eine Ethernetschnittstelle und/oder ein Mobilfunkmodemsubsystem), eine drahtlose lokale Netzwerkverbindung 706 (z. B. WiFi), eine drahtlose Punkt-zu-Punkt-Verbindung 707 (z. B. Bluetooth) und eine globale Positionsbestimmungssystemverbindung 708, verschiedene Sensoren 709_1 bis 709_N, eine oder mehrere Kameras 710, eine Batterie 711, eine Leistungsmanagementsteuereinheit 712, einen Lautsprecher und ein Mikrofon 713 und einen Audiocodierer/-decodierer 714.
  • Ein Anwendungsprozessor oder ein Mehrkernprozessor 750 kann einen oder mehrere Universalprozessorkerne 715 innerhalb seiner CPU 401, eine oder mehrere Grafikprozessoreinheiten 716, einen Hauptspeichercontroller 717, eine I/O-Steuerungsfunktion 718 und eine oder mehrere Bildsignalverarbeitungspipelines 719 umfassen. Die Universalprozessorkerne 715 führen typischerweise das Betriebssystem und die Anwendungssoftware des Computersystems aus. Die Grafikprozessoren 716 führen typischerweise intensive Grafikfunktionen aus, um z. B. Grafikinformationen, die auf dem Display 703 dargestellt werden, zu erzeugen. Die Speichersteuerungsfunktion 717 ist mit dem Systemspeicher 702 verbunden. Die Bildsignalverarbeitungspipelines 719 empfangen Bildinformationen von der Kamera und verarbeiten die Rohbildinformationen für nachgeordnete Verwendungen. Die Leistungsmanagementsteuereinheit 712 steuert generell die Leistungsaufnahme des Systems 700.
  • Die Touchscreendisplays 703, die Kommunikationsschnittstellen 704 bis 707, die GPS-Schnittstelle 708, die Sensoren 709, die Kamera 710 und die Lautsprecher/Mikrofon-Codecs 713, 714 können jeweils als verschiedene I/O-Formen (Eingabe und/oder Ausgabe) relativ zu dem gesamten Computersystem betrachtet werden einschließlich gegebenenfalls einer integrierten Peripherievorrichtung (wie z. B. die eine oder die mehreren Kameras 710).
  • Abhängig von der Implementierung können verschiedene dieser I/O-Komponenten im Anwendungsprozessor/Mehrkernprozessor 750 integriert sein oder können sich außerhalb des Chips oder Pakets des Anwendungsprozessors/Mehrkernprozessors 750 befinden.
  • Bei einer Ausführungsform umfassen eine oder mehrere Kameras 710 eine integrierte traditionelle sichtbare Bilderfassung und ein Laufzeittiefenmessungssystem wie das vorstehend in Bezug auf 6 beschriebene System 600. Anwendungssoftware, Betriebssystemsoftware, Gerätetreibersoftware und/oder Firmware, die auf einem Universal-CPU-Kern (oder einem anderen Funktionsblock, der eine Befehlsausführungspipeline aufweist, um Programmcode auszuführen) von einem Anwendungsprozessor oder einem anderen Prozessor ausgeführt wird, kann Befehle an das Kamerasystem richten und Bilddaten davon empfangen. Im Fall von Befehlen können die Befehle den Eintritt in oder das Verlassen von jedem der vorstehend beschriebenen 2D-, 3D- oder 3D/2D-Systemzustände umfassen.
  • Ausführungsformen der Erfindung können wie vorstehend beschrieben verschiedene Prozesse umfassen. Die Prozesse können in maschinenausführbaren Befehlen verkörpert sein. Die Befehle können verwendet werden, um einen Allzweck- oder Spezialprozessor zu veranlassen, bestimmte Prozesse auszuführen. Alternativ können diese Prozesse durch spezifische Hardwarekomponenten ausgeführt werden, die festverdrahtete Logik enthalten, um die Prozesse auszuführen, oder durch jede Kombination von programmierten Computerkomponenten und benutzerdefinierten Hardwarekomponenten.
  • Elemente der vorliegenden Erfindung können ebenfalls als ein maschinenlesbares Medium zum Speichern der maschinenausführbaren Befehle bereitgestellt werden. Das maschinenlesbare Medium kann umfassen, ist aber nicht beschränkt auf, Disketten, optische Disks, CD-ROMs und magnetooptische Disks, FLASH-Speicher, ROMs, RAMs, EPROMs, EEPROMs, magnetische oder optische Karten, Ausbreitungsmedien oder andere Arten von Medien/maschinenlesbaren Medien, die zum Speichern elektronischer Befehle geeignet sind. Die vorliegende Erfindung kann beispielsweise als ein Computerprogramm heruntergeladen werden, das von einem entfernten Computer (z. B. einem Server) an einen anfragenden Computer (z. B. einem Client) mittels Datensignalen übertragen werden kann, die in einem Trägersignal oder anderem Ausbreitungsmedium über einen Kommunikationslink (z. B. ein Modem oder eine Netzwerkverbindung) ausgeführt werden.
  • In der vorstehenden Beschreibung wurde die Erfindung unter Bezugnahme auf spezifische beispielhafte Ausführungsformen davon beschrieben. Es ist jedoch offensichtlich, dass verschiedene Modifizierungen und Änderungen daran vorgenommen werden können, ohne vom weiteren Sinn und Umfang der Erfindung, wie in den angehängten Ansprüchen angeführt, abzuweichen. Die Spezifikation und Zeichnungen sind demnach vielmehr als veranschaulichend denn als einschränkend anzusehen.

Claims (21)

  1. Vorrichtung, umfassend: einen ersten Halbleiterchip mit einer ersten Pixelmatrix, wobei die erste Pixelmatrix für sichtbares Licht empfindliche Pixel aufweist; und, einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix, wobei der erste Halbleiterchip auf dem zweiten Halbleiterchip derart gestapelt ist, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet, und die zweite Pixelmatrix für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion aufweist.
  2. Vorrichtung nach Anspruch 1, wobei der erste Halbleiterchip dünner ist als der zweite Halbleiterchip.
  3. Vorrichtung nach Anspruch 1, wobei der zweite Halbleiterchip auf einem dritten Halbleiterchip gestapelt ist.
  4. Vorrichtung nach Anspruch 3, wobei der dritte Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
  5. Vorrichtung nach Anspruch 1, wobei der erste Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind.
  6. Vorrichtung nach Anspruch 1, wobei der zweite Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
  7. Vorrichtung nach Anspruch 1, wobei der zweite Halbleiterchip auf einem Paketsubstrat befestigt ist.
  8. Vorrichtung nach Anspruch 1, wobei der erste Halbleiterchip Substratdurchkontaktierungen enthält.
  9. Vorrichtung nach Anspruch 1, weiter umfassend eine Mikrolinsenmatrix, die auf dem ersten Halbleiterchip gebildet ist.
  10. Vorrichtung nach Anspruch 9, wobei der zweite Halbleiterchip keine darauf gebildete Mikrolinsenmatrix aufweist.
  11. Verfahren, umfassend: Empfangen von sichtbarem Licht und IR-Licht an einer Fläche einer ersten Pixelmatrix; Erfassen des sichtbaren Lichts, aber nicht des IR-Lichts, mit der ersten Pixelmatrix, wobei das IR-Licht durch die erste Pixelmatrix hindurchgeht; Erfassen des IR-Lichts mit einer zweiten Pixelmatrix, die sich unter der ersten Pixelmatrix befindet.
  12. Verfahren nach Anspruch 11, wobei das Erfassen des IR-Lichts weiter das Erfassen von Laufzeittiefeninformationen umfasst.
  13. Verfahren nach Anspruch 11, wobei das Verfahren weiter das Führen von Signalen zu/von der ersten Pixelmatrix durch das Halbleitersubstrat der zweiten Pixelmatrix umfasst.
  14. Verfahren nach Anspruch 11, wobei das Erfassen des sichtbaren Lichts und das Erfassen des IR-Lichts gleichzeitig ausgeführt wird.
  15. Verfahren nach Anspruch 11, weiter umfassend das Ausführen von Analog-Digital-Wandlungs- und/oder Timing- und Steuerfunktionen für eine oder beide von den ersten und zweiten Pixelmatrizen mit einem Halbleiterchip, auf dem der Halbleiterchip des zweiten Pixels gestapelt ist.
  16. Vorrichtung, umfassend: einen Prozessor mit mehreren Prozessorkernen und einem Speichercontroller, der mit den mehreren Prozessorkernen gekoppelt ist; ein Kamerasystem, das mit dem Anwendungsprozessor gekoppelt ist, wobei das Kamerasystem umfasst: einen ersten Halbleiterchip mit einer ersten Pixelmatrix, wobei die erste Pixelmatrix für sichtbares Licht empfindliche Pixel aufweist; und, einen zweiten Halbleiterchip mit einer zweiten Pixelmatrix, wobei der erste Halbleiterchip auf dem zweiten Halbleiterchip derart gestapelt ist, dass sich die zweite Pixelmatrix unter der ersten Pixelmatrix befindet, und die zweite Pixelmatrix für IR-Licht empfindliche Pixel für laufzeitbasierte Tiefendetektion aufweist.
  17. Vorrichtung nach Anspruch 16, wobei der erste Halbleiterchip dünner ist als der zweite Halbleiterchip.
  18. Vorrichtung nach Anspruch 16, wobei der zweite Halbleiterchip auf einem dritten Halbleiterchip gestapelt ist.
  19. Vorrichtung nach Anspruch 18, wobei der dritte Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
  20. Vorrichtung nach Anspruch 18, wobei der erste Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der ersten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der ersten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der ersten Pixelmatrix gekoppelt sind.
  21. Vorrichtung nach Anspruch 18, wobei der zweite Halbleiterchip eines der Folgenden enthält: Pixelmatrixschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; ADC-Schaltungen, die mit der zweiten Pixelmatrix gekoppelt sind; Timing- und Steuerschaltungen, die mit der zweiten Pixelmatrix gekoppelt sind.
DE112015005719.6T 2014-12-22 2015-10-28 Stapelhalbleiterchip-rgbz-sensor Ceased DE112015005719T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/579,882 2014-12-22
US14/579,882 US9508681B2 (en) 2014-12-22 2014-12-22 Stacked semiconductor chip RGBZ sensor
PCT/US2015/057812 WO2016105658A1 (en) 2014-12-22 2015-10-28 Stacked semiconductor chip rgbz sensor

Publications (1)

Publication Number Publication Date
DE112015005719T5 true DE112015005719T5 (de) 2017-09-14

Family

ID=56130339

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112015005719.6T Ceased DE112015005719T5 (de) 2014-12-22 2015-10-28 Stapelhalbleiterchip-rgbz-sensor

Country Status (6)

Country Link
US (4) US9508681B2 (de)
EP (2) EP3238274B1 (de)
CN (1) CN106471621B (de)
DE (1) DE112015005719T5 (de)
GB (1) GB2548186B (de)
WO (1) WO2016105658A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020119941A1 (de) 2020-07-29 2022-02-03 Valeo Schalter Und Sensoren Gmbh Optische Detektionsvorrichtung, Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung und Verfahren zum Betreiben einer optischen Detektionsvorrichtung
US11411036B2 (en) 2017-04-04 2022-08-09 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus
US11411037B2 (en) 2017-04-04 2022-08-09 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus including coupling structures for electrically interconnecting stacked semiconductor substrates

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8906320B1 (en) 2012-04-16 2014-12-09 Illumina, Inc. Biosensors for biological or chemical analysis and systems and methods for same
US20160254300A1 (en) * 2015-02-26 2016-09-01 Dual Aperture International Co., Ltd. Sensor for dual-aperture camera
US10483315B2 (en) 2015-12-07 2019-11-19 Delta Id, Inc. Image sensor configured for dual mode operation
US9749569B2 (en) * 2015-12-22 2017-08-29 Omnivision Technologies, Inc. High speed rolling image sensor with ADM architecture and method of implementing thereof
EP3258493B1 (de) 2016-06-16 2021-01-27 ams AG System-auf-chip-kamera mit integriertem(en) lichtsensor(en) und verfahren zur herstellung einer system-auf-chip-kamera
KR102544782B1 (ko) 2016-08-04 2023-06-20 삼성전자주식회사 반도체 패키지 및 그 제조 방법
FR3056332A1 (fr) * 2016-09-21 2018-03-23 Stmicroelectronics (Grenoble 2) Sas Dispositif comportant un capteur d'image 2d et un capteur de profondeur
US9818791B1 (en) * 2016-10-04 2017-11-14 Omnivision Technologies, Inc. Stacked image sensor
JP2018081946A (ja) * 2016-11-14 2018-05-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置およびその製造方法、並びに電子機器
CN111966241B (zh) * 2017-01-11 2023-05-30 群创光电股份有限公司 触控显示装置
JP2018137569A (ja) * 2017-02-21 2018-08-30 ソニーセミコンダクタソリューションズ株式会社 測距装置、および測距方法
US11037966B2 (en) 2017-09-22 2021-06-15 Qualcomm Incorporated Solid state image sensor with on-chip filter and extended spectral response
CN109756652B (zh) * 2017-11-01 2021-02-05 浙江舜宇智能光学技术有限公司 Tof摄像模组及其制造方法
FR3075462B1 (fr) * 2017-12-19 2020-03-27 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif d'acquisition d'une image 2d et d'une image de profondeur d'une scene
MY194772A (en) * 2017-12-26 2022-12-15 Illumina Inc Sensor System
US10608642B2 (en) * 2018-02-01 2020-03-31 iCometrue Company Ltd. Logic drive using standard commodity programmable logic IC chips comprising non-volatile radom access memory cells
JP7102159B2 (ja) * 2018-02-09 2022-07-19 キヤノン株式会社 光電変換装置、撮像システム、および、移動体
EP3833007B1 (de) * 2018-07-31 2024-03-13 Sony Semiconductor Solutions Corporation Schichtartiger lichtempfangssensor und elektronische vorrichtung
EP3814803A4 (de) * 2018-08-16 2022-03-02 Sense Photonics, Inc. Integrierte lidar-bildsensorvorrichtungen und systeme und zugehörige betriebsverfahren
CN109411492B (zh) * 2018-09-26 2021-01-29 上海集成电路研发中心有限公司 一种堆叠式图像传感器像素结构与制备方法
CN109451252B (zh) * 2018-10-31 2020-12-25 中国科学院半导体研究所 紧凑型太赫兹波阵列图像传感器芯片
CN109635682B (zh) * 2018-11-26 2021-09-14 上海集成电路研发中心有限公司 一种人脸识别装置和方法
FR3093377B1 (fr) * 2019-03-01 2021-02-26 Isorg Capteur d'images couleur et infrarouge
FR3093376B1 (fr) 2019-03-01 2022-09-02 Isorg Capteur d'images couleur et infrarouge
KR20220022483A (ko) * 2019-06-21 2022-02-25 소니 세미컨덕터 솔루션즈 가부시키가이샤 광전 변환 소자, 광검출 장치, 광검출 시스템, 전자 기기 및 이동체
CN111582196B (zh) * 2020-02-13 2021-05-04 牧今科技 用于确定相机视场内的遮挡的方法和系统
US11006039B1 (en) 2020-02-13 2021-05-11 Mujin, Inc. Method and system for determining occlusion within a camera field of view
KR20210133755A (ko) 2020-04-29 2021-11-08 삼성전자주식회사 광학 필터, 이미지 센서, 카메라 모듈 및 전자 장치
FR3115175B1 (fr) * 2020-10-08 2022-08-26 Commissariat Energie Atomique Dispositif d'acquisition d'une image de profondeur d'une scene
US11624653B2 (en) 2020-12-03 2023-04-11 Artilux, Inc. Multi-application optical sensing apparatus and method thereof
FR3124276B1 (fr) * 2021-06-21 2023-06-02 Commissariat Energie Atomique Capteur pour l'acquisition d'une carte de profondeur d'une scène
FR3124275B1 (fr) * 2021-06-21 2023-06-02 Commissariat Energie Atomique Dispositif pour l'acquisition d'une carte de profondeur d'une scène
US11791320B2 (en) * 2021-11-22 2023-10-17 Qualcomm Incorporated Integrated circuit (IC) packages employing a package substrate with a double side embedded trace substrate (ETS), and related fabrication methods
JP2024079231A (ja) * 2022-11-30 2024-06-11 ソニーセミコンダクタソリューションズ株式会社 光検出装置および電子機器

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030063185A1 (en) 2001-09-28 2003-04-03 Bell Cynthia S. Three-dimensional imaging with complementary color filter arrays
US7154157B2 (en) * 2002-12-30 2006-12-26 Intel Corporation Stacked semiconductor radiation sensors having color component and infrared sensing capability
US7274393B2 (en) 2003-02-28 2007-09-25 Intel Corporation Four-color mosaic pattern for depth and image capture
JP2007526453A (ja) 2004-01-28 2007-09-13 カネスタ インコーポレイテッド 単一チップの赤、緑、青、距離(rgb−z)センサー
US7375803B1 (en) 2006-05-18 2008-05-20 Canesta, Inc. RGBZ (red, green, blue, z-depth) filter system usable with sensor systems, including sensor systems with synthetic mirror enhanced three-dimensional imaging
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
WO2009030980A2 (en) * 2007-09-06 2009-03-12 Quantum Semiconductor Llc Photonic via waveguide for pixel arrays
US7888763B2 (en) * 2008-02-08 2011-02-15 Omnivision Technologies, Inc. Backside illuminated imaging sensor with improved infrared sensitivity
US7781716B2 (en) * 2008-03-17 2010-08-24 Eastman Kodak Company Stacked image sensor with shared diffusion regions in respective dropped pixel positions of a pixel array
KR101475464B1 (ko) * 2008-05-09 2014-12-22 삼성전자 주식회사 적층형 이미지 센서
US7883916B2 (en) * 2008-05-30 2011-02-08 International Business Machines Corporation Optical sensor including stacked photosensitive diodes
US8229255B2 (en) * 2008-09-04 2012-07-24 Zena Technologies, Inc. Optical waveguides in image sensors
KR20100107995A (ko) 2009-03-27 2010-10-06 삼성전기주식회사 광 픽업용 광 검출기 집적회로의 포토 다이오드 셀 구조 및그 제조방법
US8395191B2 (en) * 2009-10-12 2013-03-12 Monolithic 3D Inc. Semiconductor device and structure
US7960242B2 (en) * 2009-04-14 2011-06-14 Monolithic 3D Inc. Method for fabrication of a semiconductor device and structure
CA2666470A1 (en) 2009-05-21 2010-11-21 Pierre Benoit Boulanger Multi-spectral color and ir camera based on multi-filter array
KR20110003696A (ko) 2009-07-06 2011-01-13 삼성전자주식회사 단일 칩 입체 영상 센서용 광학 필터 배열 및 그 필터 제조 방법
FR2947952B1 (fr) * 2009-07-07 2011-11-25 Commissariat Energie Atomique Dispositif photo-detecteur et procede de realisation de dispositif photo-detecteur
KR101044109B1 (ko) 2009-08-18 2011-06-28 삼성전기주식회사 렌즈 구동 모듈
US8411146B2 (en) * 2009-09-04 2013-04-02 Lockheed Martin Corporation Single camera color and infrared polarimetric imaging
KR101044140B1 (ko) 2009-09-11 2011-06-24 삼성전기주식회사 렌즈 구동 모듈
KR101044219B1 (ko) 2009-10-19 2011-06-29 삼성전기주식회사 렌즈 구동 모듈
KR101022938B1 (ko) 2009-11-10 2011-03-16 삼성전기주식회사 카메라모듈의 손떨림 보정기구
KR101608903B1 (ko) 2009-11-16 2016-04-20 삼성전자주식회사 적외선 이미지 센서
KR101156872B1 (ko) 2009-12-18 2012-06-20 삼성전기주식회사 렌즈 구동 모듈
KR101077408B1 (ko) 2010-02-05 2011-10-26 서강대학교산학협력단 Cmos 이미지 센서
KR101711061B1 (ko) * 2010-02-12 2017-02-28 삼성전자주식회사 깊이 추정 장치를 이용한 깊이 정보 추정 방법
JP5581116B2 (ja) * 2010-05-31 2014-08-27 富士フイルム株式会社 光電変換素子、撮像素子及び光電変換素子の駆動方法
DE102011079589A1 (de) * 2010-08-11 2012-02-16 Samsung Electronics Co., Ltd. Einheitspixel für ein Photodetektionsbauelement
US8809784B2 (en) * 2010-10-21 2014-08-19 Raytheon Company Incident radiation detector packaging
US8542348B2 (en) 2010-11-03 2013-09-24 Rockwell Automation Technologies, Inc. Color sensor insensitive to distance variations
US8478123B2 (en) * 2011-01-25 2013-07-02 Aptina Imaging Corporation Imaging devices having arrays of image sensors and lenses with multiple aperture sizes
US9595558B2 (en) * 2013-11-12 2017-03-14 Intrinsix Corporation Photodiode architectures and image capture methods having a plurality of photodiode with a shared electrode
US8698084B2 (en) * 2011-03-10 2014-04-15 Sionyx, Inc. Three dimensional sensors, systems, and associated methods
TWI559023B (zh) 2011-03-25 2016-11-21 原相科技股份有限公司 可同時偵測紅外光和可見光之光學感測裝置
US20120249740A1 (en) * 2011-03-30 2012-10-04 Tae-Yon Lee Three-dimensional image sensors, cameras, and imaging systems
KR20120119279A (ko) * 2011-04-21 2012-10-31 삼성전자주식회사 픽셀 어레이 및 이를 포함하는 3차원 이미지 센서
US8274051B1 (en) * 2011-04-29 2012-09-25 Texas Advanced Optoelectronic Solutions, Inc. Method and device for optoelectronic sensors with IR blocking filter
KR101289094B1 (ko) 2011-07-29 2013-07-23 삼성전기주식회사 선형 모터
JP2013070030A (ja) * 2011-09-06 2013-04-18 Sony Corp 撮像素子、電子機器、並びに、情報処理装置
KR101289142B1 (ko) 2011-11-28 2013-07-23 삼성전기주식회사 발광다이오드 패키지 모듈
US9184194B2 (en) * 2011-12-21 2015-11-10 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University Multiband photodetector utilizing serially connected unipolar and bipolar devices
KR101696335B1 (ko) * 2012-01-10 2017-01-13 소프트키네틱 센서스 엔브이 다중 스펙트럼 센서
KR20130098042A (ko) * 2012-02-27 2013-09-04 삼성전자주식회사 깊이 정보 생성 장치 및 이를 포함하는 촬영 장치
US8981511B2 (en) * 2012-02-29 2015-03-17 Semiconductor Components Industries, Llc Multi-chip package for imaging systems
KR20140009774A (ko) * 2012-07-13 2014-01-23 삼성전자주식회사 3d 이미지 센서 및 이를 포함하는 시스템
KR101858577B1 (ko) * 2012-10-10 2018-05-16 삼성전자주식회사 결상 광학계 및 이를 포함하는 3차원 영상 획득 장치
US9111832B2 (en) * 2012-10-29 2015-08-18 Omnivision Technologies,Inc. Infrared reflection/absorption layer for reducing ghost image of infrared reflection noise and image sensor using the same
US9124762B2 (en) 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
KR102009192B1 (ko) 2013-02-05 2019-08-09 삼성전자주식회사 이미지 센서의 단위 픽셀 및 이를 포함하는 이미지 센서
KR102007279B1 (ko) * 2013-02-08 2019-08-05 삼성전자주식회사 3차원 이미지 센서의 거리 픽셀, 이를 포함하는 3차원 이미지 센서 및 3차원 이미지 센서의 거리 픽셀의 구동 방법
US9407837B2 (en) 2013-02-28 2016-08-02 Google Inc. Depth sensor using modulated light projector and image sensor with color and IR sensing
US9880440B2 (en) * 2013-03-01 2018-01-30 Alliance For Sustainable Energy, Llc Electrochromic devices and related products and methods
KR102007277B1 (ko) * 2013-03-11 2019-08-05 삼성전자주식회사 3차원 이미지 센서의 거리 픽셀 및 이를 포함하는 3차원 이미지 센서
US20140347442A1 (en) 2013-05-23 2014-11-27 Yibing M. WANG Rgbz pixel arrays, imaging devices, controllers & methods
US9190433B2 (en) * 2013-03-18 2015-11-17 Lite-On Singapore Pte. Ltd. Ambient light sensing with stacked photodiode structure with dual PN junction
US9111830B1 (en) * 2013-05-22 2015-08-18 Sensors Unlimited, Inc. Perforated blocking layer for enhanced broad band response in a focal plane array
KR20140147376A (ko) * 2013-06-19 2014-12-30 삼성전자주식회사 적층형 컬러-깊이 센서 및 이를 채용한 3차원 영상 획득 장치
US20150022869A1 (en) * 2013-07-17 2015-01-22 Samsung Electronics Co., Ltd. Demosaicing rgbz sensor
US9749553B2 (en) * 2013-08-23 2017-08-29 Semiconductor Components Industries, Llc Imaging systems with stacked image sensors
CN105683725B (zh) * 2013-10-31 2019-05-14 浜松光子学株式会社 光检测装置
US9182490B2 (en) * 2013-11-27 2015-11-10 Semiconductor Components Industries, Llc Video and 3D time-of-flight image sensors
US20150287766A1 (en) * 2014-04-02 2015-10-08 Tae-Chan Kim Unit pixel of an image sensor and image sensor including the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11411036B2 (en) 2017-04-04 2022-08-09 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus
US11411037B2 (en) 2017-04-04 2022-08-09 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic apparatus including coupling structures for electrically interconnecting stacked semiconductor substrates
US11948961B2 (en) 2017-04-04 2024-04-02 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic device including coupling structures for electrically interconnecting stacked semiconductor substrates
DE102020119941A1 (de) 2020-07-29 2022-02-03 Valeo Schalter Und Sensoren Gmbh Optische Detektionsvorrichtung, Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung und Verfahren zum Betreiben einer optischen Detektionsvorrichtung

Also Published As

Publication number Publication date
GB2548186A (en) 2017-09-13
US9876050B2 (en) 2018-01-23
EP3399553A1 (de) 2018-11-07
CN106471621A (zh) 2017-03-01
US9508681B2 (en) 2016-11-29
CN106471621B (zh) 2019-03-15
WO2016105658A1 (en) 2016-06-30
US20170373114A1 (en) 2017-12-28
EP3238274A4 (de) 2018-07-11
EP3238274A1 (de) 2017-11-01
GB201621171D0 (en) 2017-01-25
US10056422B2 (en) 2018-08-21
GB2548186B (en) 2020-04-15
US20170373113A1 (en) 2017-12-28
US20160181226A1 (en) 2016-06-23
US10141366B2 (en) 2018-11-27
US20170077168A1 (en) 2017-03-16
EP3238274B1 (de) 2022-12-21

Similar Documents

Publication Publication Date Title
DE112015005719T5 (de) Stapelhalbleiterchip-rgbz-sensor
DE112015005713B4 (de) RGBZ-Pixeleinheitszelle mit ersten und zweiten Z-Transfergates
DE102018116043B4 (de) Bildsensor
EP3340306B1 (de) Physikalisches layout und struktur einer rgbz-pixelzelleneinheit für einen rgbz-bildsensor
CN105339834B (zh) 液晶显示装置
CN105093611B (zh) 一种阵列基板及其驱动方法、显示面板、显示装置
DE112015004335T5 (de) Laufzeitkamerasystem mit scanbeleuchter
DE102018114073A1 (de) Anzeigevorrichtung und verfahren zum herstellen derselben
CN105518875B (zh) 光电转换装置及其制造方法
DE102018112753A1 (de) Anzeigevorrichtung mit integriertem touchscreen und verfahren zur herstellung derselben
DE112015004456T5 (de) Laufzeitbildsensor und Lichtquellentreiber mit Abstandssimulierervermögen
DE102018132910A1 (de) Fingerabdruckerkennungsvorrichtung und Anzeigevorrichtung und mobiles Terminal verwendend eine Fingerabdruckerkennungsvorrichtung
DE202016008547U1 (de) Pixel mit hohem Dynamikbereich unter Verwendung von Lichttrennung
DE112005002586T5 (de) Anzeige mit planarer Lichtquelle
DE102013111021A1 (de) Tiefensensor, Bilderfassungsverfahren und Tiefensensor verwendendes Bildverarbeitungssystem
DE102013105525A1 (de) Gestenerfassung und -erkennung
DE112017001139T5 (de) Mikrovorrichtungsintegration in systemsubstrat
CN107314821A (zh) 一种线列型红外焦平面读出电路及其设计方法
CN107422511A (zh) 显示面板、显示装置和显示面板的制造方法
DE102018126935A1 (de) Anzeigevorrichtung mit integriertem Berührungsbildschirm und Verfahren zum Herstellen derselben
DE112006000128T5 (de) Anzeige, die eine Lichtführung und eine Refraktionsidexkontrolle verwendet
CN107239752B (zh) 显示屏
DE112020001591T5 (de) Optischer sensor mit gerichteter empfindlichkeit
CN110248119A (zh) 图像传感器及图像检测方法
DE102014117317A1 (de) Display-Vorrichtung, Verfahren zum Herstellen einer Display-Vorrichtung und Verfahren zum Betreiben einer Display-Vorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: GOOGLE LLC (N.D.GES.D. STAATES DELAWARE), MOUN, US

Free format text: FORMER OWNER: GOOGLE INC., MOUNTAIN VIEW, CALIF., US

R082 Change of representative

Representative=s name: PROCK, THOMAS, DR., GB

Representative=s name: MAIKOWSKI & NINNEMANN PATENTANWAELTE PARTNERSC, DE

R082 Change of representative

Representative=s name: PROCK, THOMAS, DR., GB

R082 Change of representative

Representative=s name: PROCK, THOMAS, DR., GB

R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final