FR3056332A1 - Dispositif comportant un capteur d'image 2d et un capteur de profondeur - Google Patents

Dispositif comportant un capteur d'image 2d et un capteur de profondeur Download PDF

Info

Publication number
FR3056332A1
FR3056332A1 FR1658884A FR1658884A FR3056332A1 FR 3056332 A1 FR3056332 A1 FR 3056332A1 FR 1658884 A FR1658884 A FR 1658884A FR 1658884 A FR1658884 A FR 1658884A FR 3056332 A1 FR3056332 A1 FR 3056332A1
Authority
FR
France
Prior art keywords
pixels
depth
level
sensor
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1658884A
Other languages
English (en)
Inventor
Jerome Chossat
Olivier Le-Briz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STMicroelectronics Grenoble 2 SAS
Original Assignee
STMicroelectronics Grenoble 2 SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by STMicroelectronics Grenoble 2 SAS filed Critical STMicroelectronics Grenoble 2 SAS
Priority to FR1658884A priority Critical patent/FR3056332A1/fr
Priority to US15/467,421 priority patent/US10455213B2/en
Publication of FR3056332A1 publication Critical patent/FR3056332A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/1469Assemblies, i.e. hybrid integration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

L'invention concerne un dispositif 3D comprenant : un premier niveau (102) comportant un capteur d'image 2D comprenant une matrice (106) de premiers pixels (108) ; et un deuxième niveau (104) comportant un capteur de profondeur comprenant une pluralité de deuxièmes pixels (110) sensibles à de la lumière dans la plage de longueurs d'onde du proche infrarouge, le capteur de profondeur étant éclairé à travers le premier niveau (102).

Description

Domaine de 1'invention
La présente description concerne le domaine des dispositifs de capture d'image, et en particulier un dispositif comprenant à la fois un capteur d'image 2D et un capteur de profondeur, et un procédé pour former ce dispositif.
Exposé de l'art, antérieur
Un capteur d'image bidimensionnel (2D) à base de silicium peut capturer une image à partir de lumière ayant des longueurs d'onde dans la plage visible. Pour certaines applications, comme pour la reconnaissance gestuelle, la détection d'un état vivant et/ou la focalisation automatique, il pourrait être souhaitable de capturer en plus des informations de profondeur de la scène image.
Une solution pour capturer à la fois une image 2D et des informations de profondeur serait de prévoir un capteur d'image 2D et un capteur de profondeur séparé pour capturer les informations de profondeur. Toutefois, une telle solution présente des inconvénients en ce qui concerne le coût, l'encombrement, et aussi en raison de la difficulté pour aligner avec précision les
B15263 - 16-GR2-0080 informations de profondeur avec l'image capturée lorsque les champs de vision des capteurs ne sont pas exactement identiques.
Une autre solution pourrait consister à intégrer les pixels du capteur de profondeur pour capturer les informations de profondeur dans le capteur d'image 2D. Toutefois, la technologie utilisée pour mettre en œuvre des pixels d'image 2D et des pixels de profondeur n'est généralement pas la même, et ainsi l'intégration de ces deux types de pixels dans une même matrice conduirait à un procédé de fabrication complexe et coûteux. En outre, il est probable que l'on rencontrerait des problèmes de compatibilité avec les topologies des connexions de ces deux types de capteurs.
On a donc besoin dans la technique d'une solution compacte fournissant un capteur d'image 2D et un capteur de profondeur dans un même dispositif.
Résumé
Un objet de modes de réalisation de la présente description est de répondre au moins partiellement à un ou plusieurs besoins de l'art antérieur.
Selon un aspect, on prévoit un dispositif 3D comprenant : un premier niveau comportant un capteur d'image 2D comprenant une matrice de premiers pixels ; et un deuxième niveau comportant un capteur de profondeur comprenant une pluralité de deuxièmes pixels sensibles à de la lumière dans la plage de longueurs d'onde du proche infrarouge, le capteur de profondeur étant éclairé à travers le premier niveau.
Selon un mode de réalisation, le premier niveau est superposé au deuxième niveau de telle sorte que le capteur d'image 2D chevauche au moins partiellement le capteur de profondeur.
Selon un mode de réalisation, le premier niveau comprend une matrice de photodiodes agencée pour être exposée à une scène image et une première couche d'interconnexion électrique ; et le deuxième niveau comprend une deuxième couche d'interconnexion électrique collée à la première couche d'interconnexion électrique et une autre couche comprenant les deuxièmes pixels.
B15263 - 16-GR2-0080
Selon un mode de réalisation, les première et deuxième couches d'interconnexion électrique ont une densité réduite ou une absence d'interconnexions dans des zones alignées avec chaque deuxième pixel dans la direction d'éclairage du dispositif.
Selon un mode de réalisation, la matrice de premiers pixels du capteur d'image 2D est une matrice continue de pixels sensible à de la lumière dans la plage de longueurs d'onde visible.
Selon un mode de réalisation, la matrice de pixels du capteur d'image 20 comprend des ouvertures dans lesquelles il n'y a pas de premiers pixels présents, les ouvertures étant alignées sur chacun des deuxièmes pixels dans la direction d'éclairage du dispositif.
Selon un mode de réalisation, les premier et deuxième niveaux sont collés ensemble par collage moléculaire.
Selon un mode de réalisation, chacun des premier et deuxième niveaux comprend un substrat de silicium et la profondeur de silicium de chaque deuxième pixel est comprise entre 5 et 20 pm.
Selon un mode de réalisation, la profondeur de silicium de chaque deuxième pixel est comprise entre 10 et 20 μτη.
Selon un mode de réalisation, chaque deuxième pixel comprend un élément parmi : une SPAD (diode à avalanche par photon unique) ; et une photodiode agencée pour échantillonner la lumière reçue pendant trois phases ou plus d'un signal lumineux reçu.
Selon un autre aspect, on prévoit un dispositif de capture d'image comprenant le dispositif 3D susmentionné, et un dispositif de traitement couplé au dispositif 3D et adapté à réaliser un traitement d'image sur des informations de pixels capturées par le capteur d'image 2D et le capteur de profondeur afin de générer des images 2D et des cartes de profondeur.
Selon un mode de réalisation, le dispositif de traitement est agencé pour générer des images 2D sur la base d'informations de pixels capturées par le capteur d'image 2D et d'informations d'intensité lumineuse capturées par les deuxièmes pixels du capteur de profondeur.
B15263 - 16-GR2-0080
Selon un mode de réalisation, le dispositif de traitement est agencé pour générer les cartes de profondeur sur la base d'informations de profondeur déterminées sur la base de signaux fournis par les deuxièmes pixels du capteur de profondeur et d'informations de pixels 2D capturées par le capteur d'image 2D.
Selon un mode de réalisation, le dispositif de traitement est agencé pour ajuster la sensibilité du capteur de profondeur sur la base d'informations de pixels 2D capturées par le capteur d'image 2D.
Selon un autre aspect, on prévoit un procédé de fabrication d'un dispositif 3D comprenant : fabriquer un premier niveau du dispositif 3D dans une première plaquette, le premier niveau comportant un capteur d'image 2D comprenant une matrice de premiers pixels ; fabriquer un deuxième niveau du dispositif 3D dans une deuxième plaquette, le deuxième niveau comportant un capteur de profondeur comprenant une pluralité de deuxièmes pixels sensibles à de la lumière dans la plage de longueurs d'onde du proche infrarouge ; et assembler le dispositif 3D en fixant entre eux les premier et deuxième niveaux, le capteur de profondeur étant éclairé à travers le premier niveau.
Brève description des dessins
Les objets et avantages susmentionnés, et d'autres, apparaîtront clairement avec la description détaillée suivante de modes de réalisation, donnée à titre d'illustration et non de limitation, en faisant référence aux dessins joints, dans lesquels :
la figure IA est une vue en perspective d'un dispositif 3D comprenant un capteur d'image 2D superposé à un capteur IR (infrarouge) selon un exemple de réalisation de la présente description ;
la figure IB est une vue en coupe du dispositif 3D de la figure IA ;
la figure 2A est une vue à plat de la matrice de pixels du dispositif 3D de la figure IA selon un exemple de réalisation ;
B15263 - 16-GR2-0080 la figure 2B est une vue en coupe du dispositif 3D de la figure 2A selon un exemple de réalisation ;
la figure 3 est un graphique illustrant l'absorption de lumière dans du silicium ;
la figure 4 est un graphique représentant un exemple de caractéristiques de filtrage d'un filtre optique du dispositif de la figure 2B selon un exemple de réalisation ;
la figure 5 est une vue en coupe d'un capteur IR du dispositif 3D de la figure 2A selon une variante de réalisation ;
les figures 6Ά et 6B sont des vues en coupe représentant des étapes de fabrication d'un dispositif 3D selon un exemple de réalisation de la présente description ; et la figure 7 illustre schématiquement un dispositif de capture d'image selon un exemple de réalisation de la présente description.
Description détaillée
Dans la description qui suit, le terme connecté est utilisé pour désigner une connexion directe entre des éléments d'un circuit, alors que le terme couplé est utilisé pour désigner une connexion qui peut être directe, ou qui peut se faire par l'intermédiaire d'un ou plusieurs éléments intermédiaires comme des résistances, des condensateurs ou des transistors. Le terme environ est utilisé pour désigner une tolérance de plus ou moins 10 % autour de la valeur en question.
Les termes qui dépendent de l'orientation d'un dispositif, comme vertical, haut, bas, etc., doivent être considérés comme correspondant au cas dans lequel le dispositif est orienté comme cela est illustré dans les figures.
La figure IA est une vue en perspective d'un dispositif 3D 100 comprenant une pluralité de niveaux, chaque niveau correspondant à une couche semiconductrice. Un niveau supérieur 102 comprend un capteur d'image 2D, et un niveau inférieur 104 comprend un capteur de profondeur. Le capteur de profondeur est par exemple éclairé à travers le niveau supérieur 102, et le
B15263 - 16-GR2-0080 . 6 capteur d'image et le capteur de profondeur sont par exemple au moins partiellement en chevauchement.
Dans l'exemple de la figure IA, le capteur d'image 2D comprend une matrice 106 de 180 pixels agencés en 10 rangées et 18 colonnes, bien que dans des variantes de réalisation de nombreux formats différents soient possibles.
Le capteur d'image 2D est par exemple capable de capturer une image en couleur, le dispositif 100 comprenant par exemple un filtre de couleurs (non illustré en figure IA) permettant à chaque pixel de capturer la lumière rouge, verte ou bleue. Dans des variantes de réalisation, le capteur d'image 2D pourrait toutefois capturer une image en niveaux de gris, ou un autre type d'image 2D.
La figure IB est une vue en coupe prise suivant une ligne A-A passant à travers une rangée des pixels de la matrice de capteur d'image 2D 106 et à travers la structure sous-jacente. Des pixels 108 de la matrice de capteur d'image 2D 106 comprennent des régions de photo-génération dans lesquelles une charge est générée par des photons passant à travers la structure. Comme cela est connu de l'homme de l'art, les régions de photo-génération sont par exemple formées par des photodiodes auto-polarisées formées à proximité de la surface du niveau supérieur 102 du dispositif 100. Des pixels de profondeur 110 sont par exemple formés dans le niveau 104, par exemple à intervalles réguliers, mais avec une densité plus faible que les pixels d'image 2D.
Dans certains modes de réalisation, les pixels de profondeur sont basés sur la technologie dite de temps de vol, selon laquelle un signal lumineux est transmis dans la scène image, et les pixels de profondeur peuvent détecter le signal de retour réfléchi par les objets se trouvant dans la scène image. Comme cela est connu de l'homme de l'art, des informations de profondeur sont par exemple calculées par un circuit de détection (non illustré dans les figures) couplé aux pixels de profondeur et permettant de déterminer l'instant d'arrivée ou la phase du signal lumineux renvoyé au niveau de chaque pixel de profondeur à
B15263 - 16-GR2-0080 déterminer, et permettant ainsi d'estimer le temps de vol du signal lumineux. Les pixels de profondeur sont par exemple sensibles à la lumière se trouvant dans la plage de longueurs d'onde du proche infrarouge (NIR), le signal lumineux étant par exemple dans la plage NIR.
Les pixels de profondeur 110 de 1'exemple de la figure IB sont par exemple formés chacun par une photodiode rapide, par exemple ayant des dimensions environ égales à celles des pixels d'image 2D. De telles photodiodes rapides permettent par exemple de détecter la phase du signal lumineux reçu, comme cela est décrit plus en détail dans la publication de R. Lange et P. Seitz intitulée Solid-state TOF range caméra, IEE J. on Quantum Electronics, vol. 37, No.3, mars 2001. Par exemple, le signal lumineux reçu est un signal périodique, comme une onde sinusoïdale, et les photodiodes rapides permettent d'échantillonner la lumière reçue pendant trois phases ou plus de chaque période du signal lumineux reçu.
En variante, les pixels de profondeur 110 pourraient être formés par des SPAD (diodes à avalanche par photon unique), ou selon d'autres technologies de pixels sensibles à la lumière NIR et capables de détecter l'instant d'arrivée et/ou la phase du signal lumineux NIR reçu.
Des couches d'interconnexion métalliques 112, 114 sont par exemple formées dans les niveaux supérieur et inférieur 102 et 104 respectivement. Chaque couche d'interconnexion 112, 114 comprend un ou plusieurs niveaux métalliques. La couche d'interconnexion 112 est par exemple disposée entre la matrice de capteur d'image 106 et une interface 116 entre les niveaux 102, 104. La couche d'interconnexion métallique 114 est par exemple disposée entre les pixels de profondeur 110 constituant le capteur de profondeur et l'interface 116. Les niveaux 102 et 104 sont par exemple fixés entre eux par collage. Des connexions entre les niveaux 102, 104 sont par exemple formées par des plots formés sur les surfaces en contact des niveaux 102, 104, et couplés aux
B15263 - 16-GR2-0080 niveaux d'interconnexion respectifs par des vias, comme cela est décrit plus en détail ci-après.
Les pixels de profondeur 110 dans le niveau 104 sont éclairés par de la lumière de la plage du proche infrarouge passant à travers le niveau 102. Ainsi, la lumière infrarouge passe aussi à travers les couches d'interconnexion métalliques 112, 114 des niveaux 102, 104. Dans certains modes de réalisation, chacune des couches 112, 114 comprend des zones 118 dans lesquelles on ne trouve aucune couche métallique, ou dans lesquelles des couches métalliques sont présentes avec une densité réduite par rapport aux couches métalliques présentes dans le reste des couches 112, 114. Une zone 118 est par exemple alignée avec chaque pixel de profondeur 110 dans la direction d'éclairage du dispositif 100, représentée par des flèches 119 en figure IB.
Chacun des niveaux 102, 104 comprend par exemple un substrat de silicium 120, 122 respectivement, sur lequel les couches d'interconnexion métalliques 112, 114 sont formées. Les zones 118 des couches 112, 114 sont par exemple remplies d'oxyde, ce qui les rend relativement transparentes. De la lumière dans la plage de longueurs d'onde visible, par exemple comprise entre 400 et 700 nm, va pénétrer sur une distance relativement faible dans le silicium. Par contre, la lumière de la plage de longueurs d'onde du proche infrarouge (NIR), par exemple entre environ 800 et 1000 nm, va pénétrer davantage, et ainsi atteindre les capteurs de profondeur 110 en dépit du fait qu'elle traverse le substrat de silicium 120 du niveau 102. Ainsi le positionnement des pixels d'image 2D 108 et des pixels de profondeur 110 dans la structure de silicium du dispositif 100 est tel qu' il va conduire à un filtrage par le dispositif qui est inhérent, les pixels 108 recevant un spectre de lumière large, alors que les pixels 110 reçoivent essentiellement de la lumière de plus grande longueur d'onde se trouvant dans la plage NIR ou au-dessus.
La profondeur de silicium que traverse la lumière NIR pour atteindre les pixels de profondeur est égale à la somme de l'épaisseur 124 du substrat 120 et de la profondeur 126 des pixels
B15263 - 16-GR2-0080 de profondeur 110 dans le substrat 122. Les substrats 120 et 122, et le positionnement des pixels 110, sont par exemple tels que la profondeur de silicium 124+126 est par exemple dans la plage de 5 à 20 pm, et dans certains modes de réalisation égale à au moins 10 pm.
La figure 2Ά est une vue à plat représentant l'agencement des pixels du capteur d'image 2D du dispositif 100 selon un exemple de réalisation dans lequel le capteur d'image 2D comprend des pixels rouges (R) , verts (G) et bleus (B) , et certains pixels dans la matrice de pixels sont remplacés par des pixels de profondeur (Z). En particulier, dans l'exemple de la figure 2A, les pixels d'image 2D sont agencés en groupes de 2 par 2, comprenant chacun un pixel rouge, un pixel bleu et deux pixels verts, les pixels verts étant diagonalement opposés entre eux.
Cependant, certains de ces groupes de 2 par 2 sont remplacés par des pixels de profondeur, qui ont par exemple une surface quatre fois supérieure à celle des pixels d'image 2D. En particulier, les groupes de 2 par 2 sont retirés du capteur d'image 2D pour laisser des ouvertures assurant des passages à travers lesquels la lumière peut venir sur les pixels de profondeur de la matrice sous-jacente.
Les informations d'image 2D manquantes résultant de ces pixels de capture d'image 2D manquants peuvent par exemple être corrigées par un traitement d'image, en utilisant par exemple des techniques d'interpolation basées sur les pixels environnants comme cela est bien connu de l'homme de l'art. En outre, des informations provenant des pixels de profondeur, comme l'intensité du signal reçu par les pixels de profondeur, peuvent aussi être utilisées pour améliorer cette interpolation. En effet, alors que les pixels de profondeur reçoivent de la lumière dans la plage du proche infrarouge, une partie de cette lumière infrarouge va résulter de conditions d'éclairage ambiantes, et peut ainsi fournir des informations concernant l'intensité lumineuge globale au niveau de chaque pixel.
B15263 - 16-GR2-0080
De façon similaire, la carte de profondeur générée sur la base des pixels de profondeur va avoir des informations manquantes au vu des pixels de profondeur manquants là où les pixels de capture d'image 2D sont présents dans la couche susjacente. Ces informations manquantes peuvent par exemple être déduites par interpolation, en utilisant les informations provenant de pixels de profondeur environnants. En outre, l'image 2D capturée par les pixels d'image 2D peut aider à l'interpolation. Par exemple, une détection de zones uniformes dans l'image 2D pourrait être réalisée et des pixels se trouvant dans de telles zones uniformes peuvent être considérés comme correspondant à des profondeurs relatives similaires dans la scène image. En outre, les informations sur l'intensité lumineuse provenant des pixels d'image 2D peuvent être utilisées pour améliorer la détection par le capteur de profondeur en fournissant une estimation des niveaux lumineux ambiants qui peuvent fausser les lectures provenant des pixels de profondeur. Par exemple, ces informations peuvent être utilisées pour altérer la sensibilité de la matrice de pixels de profondeur.
La figure 2B est une vue en coupe du dispositif de la figure 2A prise suivant une ligne B-B passant à travers une rangée de pixels comprenant des pixels de profondeur. Certains éléments dans l'exemple de la figure 2B sont les mêmes que les éléments correspondants en figure IB, et ces éléments portent les mêmes références et ne seront pas décrits de nouveau en détail.
Dans 1' exemple de la figure 2B, les pixels de profondeur 210 sont plus grands que dans l'exemple de la figure 2A, et la matrice de pixels 2D comporte des ouvertures 218 dans lesquelles aucun pixel 108 n'est présent. Les zones 118 des couches d'interconnexion 112, 114 dans lesquelles il n'y a aucune interconnexion présente sont aussi par exemple plus grandes que dans l'exemple de la figure 2A, ces zones ayant par exemple une largeur égale ou supérieure à la largeur des pixels de profondeur 210.
B15263 - 16-GR2-0080
Comme dans le mode de réalisation de la figure IB, l'épaisseur de silicium combinée 124, 126 traversée par la lumière NIR dans le mode de réalisation de la figure 2B est par exemple dans une plage de 3 à 10 μτη.
La figure 3 est un graphique illustrant la profondeur d'absorption (DEPTH) en pm de la lumière dans du silicium en fonction de la longueur d'onde λ en nm, la profondeur d'absorption étant définie comme étant la profondeur à laquelle 37 % de la lumière est absorbée. Comme cela est illustré, une profondeur d'environ 3 pin de silicium va provoquer l'absorption de la lumière ayant une longueur d'onde jusqu'à environ 650 nm, tandis que la lumière NIR ayant une longueur d'onde par exemple d'environ 900 nm n'est pas absorbée avant une profondeur de 10 pm.
En faisant de nouveau référence à la figure 2B, un filtre de couleurs 220 est par exemple positionné sur le niveau 102, audessus des pixels d'image 2D 108, un filtre de couleur individuel étant par exemple disposé sur chaque pixel. Ce filtre 220 est par exemple transparent au-dessus des ouvertures 218 où la lumière NIR peut pénétrer dans le dispositif et atteindre les pixels de profondeur 210.
Dans certains modes de réalisation, en plus ou à la place du filtre de couleurs 220, un filtre optique 226 est prévu au-dessus du dispositif, ce filtre étant par exemple adapté à permettre à la lumière visible, et à la lumière NIR à la longueur d'onde du signal lumineux reçu par les pixels de profondeur 210, de passer à travers. La lumière ayant d'autres longueurs d'onde est éliminée par filtrage.
La figure 4 est un graphique illustrant un exemple de la transmission (TRANSMISSION) du filtre optique 226 en fonction de la longueur d'onde λ. Par exemple, le filtre transmet la lumière jusqu'à une longueur d'onde d'environ 700 nm, et élimine la lumière ayant une longueur d'onde supérieure, excepté la lumière dans la plage d'environ 935 à 945 nm, le signal lumineux dans cet exemple ayant une longueur d'onde de 940 nm.
B15263 - 16-GR2-0080
En faisant de nouveau référence à la figure 2B, dans certains modes de réalisation, une lentille individuelle 222 est disposée au-dessus de chaque pixel d'image 2D 108, les lentilles 222 étant par exemple formées au-dessus du filtre de couleur individuel correspondant de chaque pixel. Chaque lentille 222 focalise par exemple la lumière sur les pixels 108 à une profondeur de quelques pm en dessous des lentilles. En outre, dans certains modes de réalisation, des lentilles supplémentaires 224 sont disposées au-dessus des pixels de profondeur 210, chaque lentille 224 focalisant par exemple la lumière sur les pixels 210 à une profondeur comprise entre 10 et 30 pm en dessous de la lentille.
La figure 5 est une vue en coupe du niveau 104 selon une variante de réalisation par rapport aux figures IB et 2B. Dans l'exemple de la figure 5, les pixels de profondeur 310 ont des largeurs variables, et ainsi des régions de photo-génération de tailles variables. Cela permet par exemple de faire varier la sensibilité du détecteur en activant sélectivement des pixels sur la base du niveau du signal reçu. En plus ou à la place, des pixels ayant des écrans métalliques avec différentes tailles d'ouverture pourraient être prévus de sorte que les pixels aient une sensibilité variable. De telles techniques pour faire varier la sensibilité d'un capteur de profondeur sont par exemple décrites plus en détail dans la demande de brevet US qui revendique la priorité de la demande de brevet français numéro FR 15/52385, déposée le 23 mars 2015 au nom de la demanderesse (référence du conseil B14045US).
On va maintenant décrire un procédé d'assemblage de dispositifs 3D en faisant référence aux figures 6A et 6B.
La figure 6A illustre une plaquette 602 suite à la fabrication de multiples niveaux 102 des dispositifs 3D, et une plaquette 604 suite à la fabrication de multiples niveaux 104 des dispositifs 3D, un seul de chacun des niveaux 102, 104 étant illustré en détail dans la figure.
La figure 6B illustre l'étape d'assemblage, dans laquelle la plaquette 102 est par exemple tournée de telle sorte
B15263 - 16-GR2-0080 que les côtés des plaquettes 102, 104 comportant les couches d'interconnexion soient face-à-face. Ces côtés sont ensuite par exemple collés ensemble en utilisant un collage moléculaire hybride. Au niveau de l'interface 116 entre les plaquettes, des connexions électriques sont par exemple prévues. Par exemple, comme cela est représenté par une vue éclatée 606, un plot de connexion 608 du niveau 102 est aligné sur et en contact avec un plot de connexion 610 du niveau 104. Les plots 608, 610 sont par exemple couplés, en utilisant des vias verticaux respectifs 612, 614, à des niveaux métalliques 616, 618 des couches d'interconnexion de chaque niveau 102, 104.
La figure 7 illustre schématiquement un dispositif de capture d'image 700 comprenant le dispositif 3D 100 de la figure
1. Le dispositif de capture d'image 700 est par exemple un dispositif électronique portable comme un téléphone mobile, un ordinateur portable ou une tablette informatique, une. caméra numérique, etc. Le dispositif 700 comprend par exemple un dispositif de traitement (P) 702 couplé au dispositif 3D 100 et comprenant un ou plusieurs cœurs de traitement sous le contrôle d'instructions de logiciel mémorisées dans une mémoire (MEM) 704. La mémoire 704, ou une autre mémoire (non illustrée en figure 7), mémorise par exemple des images 2D et des cartes de profondeur capturées par le dispositif 100. Le dispositif de traitement 702 est par exemple agencé pour réaliser un traitement d'image sur les informations de pixels fournies par le dispositif 100 afin de générer les images 2D et des cartes de profondeur, comprenant par exemple l'application d'algorithmes d'interpolation comme cela a été décrit précédemment en référence à la figure 2A. En plus ou à la place, le dispositif de traitement 702 est par exemple agencé pour contrôler la sensibilité du capteur de profondeur comme cela a été décrit précédemment sur la base des informations d'image 2D capturées par le capteur d'image 2D. Dans certains modes de réalisation, une partie du traitement d'image et/ou de l'estimation de profondeur peut additionnellement être réalisée par le
B15263 - 16-GR2-0080 dispositif 3D 100, par exemple par des circuits intégrés dans le niveau 104.
Un avantage des modes de réalisation décrits ici est que la structure 3D du dispositif comportant un capteur de profondeur sur le niveau inférieur assure une sensibilité particulièrement bonne pour capturer des longueurs d'onde NIR, et une forte réjection de la lumière visible. En outre, la solution permet d'utiliser des technologies et des topologies de connexion hétérogènes pour chaque capteur, et de les intégrer dans un même dispositif.
En outre, il est possible d'intégrer de la logique de lecture relativement complexe pour les pixels de profondeur dans le niveau inférieur.
Avec la description ainsi faite d'au moins un mode de réalisation illustratif, diverses altérations, modifications et améliorations apparaîtront facilement à l'homme de l'art. Par exemple, bien qu' on ait décrit des exemples dans lesquels les niveaux 102, . 104 sont fixés par collage moléculaire, dans des variantes de réalisation on pourrait utiliser d'autres technologies pour fixer les niveaux 102, 104.
B15263 - 16-GR2-0080

Claims (15)

  1. REVENDICATIONS
    1. Dispositif 3D comprenant :
    un premier niveau (102) comportant un capteur d'image 2D comprenant une matrice (106) de premiers pixels (108) ; et un deuxième niveau (104) comportant un capteur de profondeur comprenant une pluralité de deuxièmes pixels (110, 210, 310) sensibles à de la lumière dans la plage de longueurs d'onde du proche infrarouge, le capteur de profondeur étant éclairé à travers le premier niveau (102) .
  2. 2. Dispositif 3D selon la revendication 1, dans lequel le premier niveau (102) est superposé au deuxième niveau (104) de telle sorte que le capteur d'image 2D chevauche au moins partiellement le capteur de profondeur.
  3. 3. Dispositif 3D selon la revendication 1 ou 2, dans lequel :
    le premier niveau (102) comprend :
    une matrice de photodiodes agencée pour être exposée à une scène image ; et une première couche d'interconnexion électrique (112) ; et le deuxième niveau (104) comprend :
    une deuxième couche d'interconnexion électrique (114) collée à la première couche d'interconnexion électrique (112) ;
    et une autre couche comprenant les deuxièmes pixels (110, 210, 310) .
  4. 4. Dispositif 3D selon la revendication 3, dans lequel les première et deuxième couches d'interconnexion électrique (112, 114) ont une densité réduite ou une absence d'interconnexions dans des zones (118) alignées avec chaque deuxième pixel (110, 210, 310) dans la direction d'éclairage (119) du dispositif.
  5. 5. Dispositif 3D selon l'une quelconque des revendications 1 à 4, dans lequel la matrice de premiers pixels (108) du capteur d'image 2D est une matrice continue de pixels sensible à de la lumière dans la plage de longueurs d'onde visible.
    B15263 - 16-GR2-0080
  6. 6. Dispositif 3D selon l'une quelconque des revendications 1 à 4, dans lequel la matrice de premiers pixels (108) du capteur d'image 2D comprend des ouvertures (218) dans lesquelles il n'y a pas de premiers pixels (108) présents, les ouvertures étant alignées sur chacun des deuxièmes pixels dans la direction d'éclairage (119) du dispositif.
  7. 7. Dispositif 3D selon l'une quelconque des revendications 1 à 6, dans lequel les premier et deuxième niveaux sont collés ensemble par collage moléculaire.
  8. 8. Dispositif 3D selon l'une quelconque des revendications 1 à 7, dans lequel chacun des premier et deuxième niveaux comprend un substrat de silicium (120, 122) et dans lequel la profondeur de silicium de chaque deuxième pixel est comprise entre 5 et 20 pm.
  9. 9. Dispositif 3D selon la revendication 8, dans lequel la profondeur de silicium de chaque deuxième pixel est comprise entre 10 et 20 pm.
  10. 10. Dispositif 3D selon l'une quelconque des revendications 1 à 9, dans lequel chaque pixel de profondeur comprend un élément parmi :
    une SPAD (diode à avalanche par photon unique) ; et une photodiode agencée pour échantillonner la lumière reçue pendant trois phases ou plus d'un signal lumineux reçu.
  11. 11. Dispositif de capture d'image comprenant :
    un dispositif 3D selon l'une quelconque des revendications 1 à 10 ; et un dispositif de traitement (702) couplé au dispositif 3D et adapté à réaliser un traitement d'image sur des informations de pixels capturées par le capteur d'image 2D et le capteur de profondeur afin de générer des images 2D et des cartes de profondeur.
  12. 12. Dispositif de capture d'image selon la revendication 11, dans lequel le dispositif de traitement (702) est agencé pour générer des images 2D sur la base d'informations de pixels capturées par le capteur d'image 2D et d'informations d'intensité
    B15263 - 16-GR2-0080 lumineuse capturées par les deuxièmes pixels du capteur de profondeur.
  13. 13. Dispositif de capture d'image selon la revendication 11 ou 12, dans lequel le dispositif de traitement (702) est agencé pour générer les cartes de profondeur sur la base d'informations de profondeur déterminées sur la base de signaux fournis par les deuxièmes pixels du capteur de profondeur et d'informations de pixels 2D capturées par le capteur d'image 2D.
  14. 14. Dispositif de capteur d'image selon l'une quelconque des revendications 11 à 13, dans lequel le dispositif de traitement (702) est agencé pour ajuster la sensibilité du capteur de profondeur sur la base d'informations de pixels 2D capturées par le capteur d'image 2D.
  15. 15. Procédé de fabrication d'un dispositif 3D comprenant :
    fabriquer un premier niveau (102) du dispositif 3D dans une première plaquette (602), le premier niveau (102) comportant un capteur d'image 2D comprenant une matrice (106) de premiers pixels (108) ;
    fabriquer un deuxième niveau (104) du dispositif 3D dans une deuxième plaquette (604), le deuxième niveau (104) comportant un capteur de profondeur comprenant une pluralité de deuxièmes pixels (110, 210, 310) sensibles à de la lumière dans la plage de longueurs d'onde du proche infrarouge ; et assembler le dispositif 3D en fixant entre eux les premier et deuxième niveaux (102, 104), le capteur de profondeur étant éclairé à travers le premier niveau (102).
    B15263-16-GR2-0080
    1/3
    —_119 -.119 108 108
    .119
    102 120
    116 104 122
FR1658884A 2016-09-21 2016-09-21 Dispositif comportant un capteur d'image 2d et un capteur de profondeur Pending FR3056332A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1658884A FR3056332A1 (fr) 2016-09-21 2016-09-21 Dispositif comportant un capteur d'image 2d et un capteur de profondeur
US15/467,421 US10455213B2 (en) 2016-09-21 2017-03-23 Device having a 2D image sensor and depth sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1658884A FR3056332A1 (fr) 2016-09-21 2016-09-21 Dispositif comportant un capteur d'image 2d et un capteur de profondeur
FR1658884 2016-09-21

Publications (1)

Publication Number Publication Date
FR3056332A1 true FR3056332A1 (fr) 2018-03-23

Family

ID=57485694

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1658884A Pending FR3056332A1 (fr) 2016-09-21 2016-09-21 Dispositif comportant un capteur d'image 2d et un capteur de profondeur

Country Status (2)

Country Link
US (1) US10455213B2 (fr)
FR (1) FR3056332A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161366A1 (fr) 2019-02-07 2020-08-13 Telefonos, Lineas Y Centrales, S.A. Chariot pour l'inspection de paramètres de construction de voies ferrées

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11469265B2 (en) 2015-07-29 2022-10-11 Samsung Electronics Co., Ltd. Imaging apparatus and image sensor including the same
US10790325B2 (en) 2015-07-29 2020-09-29 Samsung Electronics Co., Ltd. Imaging apparatus and image sensor including the same
US10403668B2 (en) * 2015-07-29 2019-09-03 Samsung Electronics Co., Ltd. Imaging apparatus and image sensor including the same
US11089286B2 (en) 2015-07-29 2021-08-10 Samsung Electronics Co., Ltd. Image sensor
CN107505753B (zh) * 2017-09-15 2020-06-05 京东方科技集团股份有限公司 阵列基板及显示装置
FR3075462B1 (fr) * 2017-12-19 2020-03-27 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif d'acquisition d'une image 2d et d'une image de profondeur d'une scene
US10424568B1 (en) * 2018-06-19 2019-09-24 Globalfoundries Singapore Pte. Ltd. Image sensor with stacked SPAD and method for producing the same
WO2020037197A1 (fr) * 2018-08-16 2020-02-20 Sense Photonics, Inc. Dispositifs et systèmes de capteur d'image lidar intégré et procédés d'exploitation associés
FR3091023B1 (fr) * 2018-12-20 2021-01-08 Commissariat Energie Atomique Capteur d'images
US10991667B2 (en) 2019-08-06 2021-04-27 Taiwan Semiconductor Manufacturing Co., Ltd. Isolation structure for bond pad structure
US11217547B2 (en) * 2019-09-03 2022-01-04 Taiwan Semiconductor Manufacturing Company, Ltd. Bond pad structure with reduced step height and increased electrical isolation
FR3124275B1 (fr) * 2021-06-21 2023-06-02 Commissariat Energie Atomique Dispositif pour l'acquisition d'une carte de profondeur d'une scène
WO2023036481A1 (fr) * 2021-09-10 2023-03-16 Isorg Capteur d'images couleur et infrarouge
CN114284306A (zh) * 2021-12-15 2022-04-05 武汉新芯集成电路制造有限公司 深度兼图像传感器器件及制作方法、深度兼图像传感器芯片

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015932A1 (en) * 2012-07-13 2014-01-16 Samsung Electronics Co., Ltd. 3dimension image sensor and system including the same
US20150054962A1 (en) * 2013-08-23 2015-02-26 Aptina Imaging Corporation Imaging systems with stacked image sensors
FR3026227A1 (fr) * 2014-09-18 2016-03-25 Commissariat Energie Atomique Dispositif d'acquisition d'images 3d
US20160181226A1 (en) * 2014-12-22 2016-06-23 Google Inc. Stacked semiconductor chip rgbz sensor

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090212420A1 (en) * 2008-02-22 2009-08-27 Harry Hedler integrated circuit device and method for fabricating same
KR101467509B1 (ko) * 2008-07-25 2014-12-01 삼성전자주식회사 이미지 센서 및 이미지 센서 동작 방법
KR101483462B1 (ko) * 2008-08-27 2015-01-16 삼성전자주식회사 깊이 영상 획득 장치 및 방법
EP2471258B1 (fr) * 2009-08-25 2017-05-24 Dual Aperture International Co. Ltd. Réduction du bruit dans une image en couleurs
US9979941B2 (en) * 2011-01-14 2018-05-22 Sony Corporation Imaging system using a lens unit with longitudinal chromatic aberrations and method of operating
US8478123B2 (en) * 2011-01-25 2013-07-02 Aptina Imaging Corporation Imaging devices having arrays of image sensors and lenses with multiple aperture sizes
FR3005788B1 (fr) * 2013-05-14 2016-10-21 Commissariat Energie Atomique Dispositif optoelectronique et son procede de fabrication
FR3034204A1 (fr) 2015-03-23 2016-09-30 Stmicroelectronics (Grenoble 2) Sas

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140015932A1 (en) * 2012-07-13 2014-01-16 Samsung Electronics Co., Ltd. 3dimension image sensor and system including the same
US20150054962A1 (en) * 2013-08-23 2015-02-26 Aptina Imaging Corporation Imaging systems with stacked image sensors
FR3026227A1 (fr) * 2014-09-18 2016-03-25 Commissariat Energie Atomique Dispositif d'acquisition d'images 3d
US20160181226A1 (en) * 2014-12-22 2016-06-23 Google Inc. Stacked semiconductor chip rgbz sensor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020161366A1 (fr) 2019-02-07 2020-08-13 Telefonos, Lineas Y Centrales, S.A. Chariot pour l'inspection de paramètres de construction de voies ferrées

Also Published As

Publication number Publication date
US20180084238A1 (en) 2018-03-22
US10455213B2 (en) 2019-10-22

Similar Documents

Publication Publication Date Title
FR3056332A1 (fr) Dispositif comportant un capteur d'image 2d et un capteur de profondeur
EP3376544B1 (fr) Dispositif imageur optique
EP3503192B1 (fr) Dispositif d'acquisition d'une image 2d et d'une image de profondeur d'une scène
FR3060250A1 (fr) Capteur d'image pour capter une image en 2d et une profondeur
EP1421623B1 (fr) Capteur d'image couleur a colorimetrie amelioree et procede de fabrication
EP2786412B1 (fr) Bloc detecteur optique
FR2969819A1 (fr) Capteur d'image tridimensionnel
EP2994901B1 (fr) Detecteur compact de presence humaine
FR2974188A1 (fr) Dispositif elementaire d'acquisition ou de restitution d'image
EP2452361B1 (fr) Dispositif photo-détecteur et procédé de réalisation de dispositif photo-détecteur
EP0859412B1 (fr) Détecteur de rayonnement photonique multicolore
KR101557495B1 (ko) 상이한 파장을 균일하게 수광하기 위한 차등 높이 실리콘을 포함하는 이면 조사 센서 패키지
FR2945666A1 (fr) Capteur d'image.
FR3115175A1 (fr) Dispositif d'acquisition d'une image de profondeur d'une scene
WO2004057675A1 (fr) Matrice de detecteurs multispectraux
EP2846357A1 (fr) Dispositif photodétecteur a regions de semi-conducteurs séparées par une barriàre de potentiel
EP3190621B1 (fr) Dispositif hybride de detection multispectrale a base d'elements monolithiques
FR2713017A1 (fr) Détecteur de rayonnements dans deux bandes de longueurs d'ondes et procédé de fabrication de ce détecteur.
FR3113430A1 (fr) Système d'acquisition d'images
FR3026227A1 (fr) Dispositif d'acquisition d'images 3d
WO2022268625A1 (fr) Dispositif pour l'acquisition d'une carte de profondeur d'une scene
FR3076082A1 (fr) Capteur d'image
EP4296650A1 (fr) Systeme de mesure d'un degre de polarisation lineaire estime d'un rayonnement electromagnetique reflechi par une scene
FR3142856A1 (fr) Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène
FR3140990A1 (fr) Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20180323