FR3140990A1 - Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène - Google Patents

Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène Download PDF

Info

Publication number
FR3140990A1
FR3140990A1 FR2210611A FR2210611A FR3140990A1 FR 3140990 A1 FR3140990 A1 FR 3140990A1 FR 2210611 A FR2210611 A FR 2210611A FR 2210611 A FR2210611 A FR 2210611A FR 3140990 A1 FR3140990 A1 FR 3140990A1
Authority
FR
France
Prior art keywords
sensor
pixels
substrate
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2210611A
Other languages
English (en)
Inventor
François Deneuville
Clémence JAMIN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR2210611A priority Critical patent/FR3140990A1/fr
Priority to US18/485,181 priority patent/US20240128297A1/en
Priority to CN202311335672.3A priority patent/CN117896632A/zh
Publication of FR3140990A1 publication Critical patent/FR3140990A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/1469Assemblies, i.e. hybrid integration
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures

Abstract

Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène La présente description concerne un dispositif d’acquisition d’une image 2D et d’une image de profondeur, comprenant : – un premier capteur (C1) formé dans et sur un premier substrat semiconducteur (100) et comprenant des régions (50) en un matériau distinct de celui du substrat situées dans un empilement d’interconnexion (110) à l’aplomb de pixels d’image 2D (P1′) du premier capteur ; et – accolé au premier capteur (C1), un deuxième capteur (C2) formé dans et sur un deuxième substrat semiconducteur (130) et comprenant une pluralité de pixels de profondeur (P2) situés en regard des régions (50) du premier capteur (C1),dans lequel chaque région (50) comprend une première partie (50a) présentant, en vue de dessus, une surface inférieure à celle d’une deuxième partie (50b), le matériau des régions (50) présentant un indice optique supérieur ou égal à celui du matériau du substrat (100). Figure pour l’abrégé : Fig. 1

Description

Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène
La présente demande concerne le domaine des dispositifs d’acquisition d’images, et, plus particulièrement, des dispositifs d’acquisition d’images adaptés à acquérir une image visible 2D et une image de profondeur d’une scène.
Des dispositifs d’acquisition d’images aptes à acquérir des informations de profondeur ont été proposés. Par exemple, des détecteurs de temps de vol (« Time of Flight » - ToF, en anglais) agissent pour émettre un signal lumineux vers une scène, puis pour détecter le signal lumineux en retour réfléchi par des objets de la scène. Par le calcul du temps de vol du signal lumineux, on peut estimer la distance entre le dispositif d’acquisition et des objets de la scène. Il existe par exemple en outre des capteurs basés sur le principe dit de « lumière structurée ». Ces capteurs projettent un motif, par exemple des franges ou une grille, sur des objets de la scène et capturent au moins une image de ce motif déformé par le relief des objets. Le traitement de la ou des images fournit une estimation la distance entre le dispositif d’acquisition et des objets de la scène.
Dans certaines applications, on souhaite pouvoir acquérir simultanément une image visible 2D et une image de profondeur d’une même scène.
Alors qu’une solution pour atteindre cet objectif est d’utiliser des capteurs d’images séparés pour capter l’image 2D et l’image de profondeur, une telle solution n’est pas optimale en raison du fait que ces capteurs ont des points de vue différents de la scène, ce qui conduit à un défaut d’alignement entre les pixels des images correspondantes. En outre, l’utilisation de deux capteurs augmente l’encombrement et le coût du dispositif.
Une autre solution est d’intégrer les pixels de l’image 2D et les pixels de profondeur dans un même réseau de détecteurs. Toutefois, une difficulté est que les pixels de profondeur ont généralement des dimensions notablement plus grandes que les pixels d’image 2D et/ou des tensions d’alimentation notablement plus élevées que les pixels d’image 2D, ce qui rend une telle intégration complexe.
Les demandes de brevet EP 3503192 et US 2021/0305206 précédemment déposées par le demandeur décrivent chacune un dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène, ce dispositif comportant des premier et deuxième capteurs superposés, le premier capteur comportant une pluralité de pixels 2D et une pluralité de fenêtres transmissives, et le deuxième capteur comportant une pluralité de pixels de profondeur disposés respectivement en regard des fenêtres transmissives du premier capteur.
Il serait souhaitable de pouvoir disposer d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène, ce dispositif palliant au moins partiellement un ou plusieurs des inconvénients des dispositifs connus.
Pour cela, un mode de réalisation prévoit un dispositif d’acquisition d’une image 2D et d’une image de profondeur, comprenant :
– un premier capteur formé dans et sur un premier substrat semiconducteur comportant une face avant et une face arrière, le premier capteur comprenant une pluralité de pixels d’image 2D, un empilement d’interconnexion situé du côté de la face avant du premier substrat et dans lequel sont formés des pistes et/ou bornes de connexion électrique, et des régions en un matériau distinct de celui du substrat situées dans l’empilement d’interconnexion à l’aplomb de pixels d’image 2D ; et
– accolé au premier capteur du côté de la face avant du premier substrat, un deuxième capteur formé dans et sur un deuxième substrat semiconducteur et comprenant une pluralité de pixels de profondeur situés en regard des régions du premier capteur,
dans lequel chaque région comprend une première partie s’étendant dans l’empilement d’interconnexion depuis une première face de l’empilement d’interconnexion tournée vers le premier substrat et une deuxième partie s’étendant, depuis une deuxième face de l’empilement d’interconnexion opposée au premier substrat, jusqu’à la première partie, la première partie présentant, en vue de dessus, une surface inférieure à celle de la deuxième partie, le matériau des régions présentant, sur une plage de longueurs d’onde de travail du deuxième capteur, un indice optique supérieur ou égal à celui du matériau du substrat.
Selon un mode de réalisation, le matériau des régions présente en outre un coefficient d’absorption inférieur ou égal à 10-3.
Selon un mode de réalisation, le matériau des régions présente un indice optique supérieur ou égal à 3,5.
Selon un mode de réalisation, le matériau des régions est le silicium amorphe.
Selon un mode de réalisation, les pistes et/ou bornes de connexion électrique pénètrent à l’intérieur de la première partie de chaque région.
Selon un mode de réalisation, chaque région est délimitée latéralement, sur toute sa périphérie et sur toute sa hauteur, par un matériau diélectrique présentant un indice de réfraction inférieur à celui du matériau de la région.
Selon un mode de réalisation, la région s’étend sur une épaisseur sensiblement égale à celle de l’empilement d’interconnexion et affleure la face de l’empilement d’interconnexion opposée au premier substrat semiconducteur.
Selon un mode de réalisation, le premier capteur est un capteur d’image couleur, chaque pixel d’image 2D comprenant un filtre couleur transmettant préférentiellement de la lumière rouge, verte ou bleue.
Selon un mode de réalisation, les régions sont situées uniquement à l’aplomb des pixels d’image 2D comprenant le filtre couleur transmettant préférentiellement de la lumière bleue.
Selon un mode de réalisation, les régions sont situées à l’aplomb de chaque pixel d’image 2D du capteur.
Selon un mode de réalisation, les pixels situés à l’aplomb des régions sont regroupés par groupes de quatre pixels adjacents.
Selon un mode de réalisation, pour chaque groupe de quatre pixels adjacents, la région est commune aux quatre pixels.
Selon un mode de réalisation, le dispositif comprend en outre, entre chaque région du premier capteur et le pixel de profondeur correspondant du deuxième capteur, une alternance de couches diélectriques d’indices de réfraction distincts, formant un empilement antireflet pour des rayons lumineux traversant ladite région en direction dudit pixel de profondeur.
Selon un mode de réalisation, le deuxième capteur comprend, du côté de la face arrière du deuxième substrat semiconducteur, un empilement d’interconnexion dans lequel sont formées des pistes et/ou bornes de connexion électrique.
Selon un mode de réalisation, chaque pixel de profondeur du deuxième capteur comprend une photodiode de type SPAD.
Selon un mode de réalisation, chaque pixel de profondeur du deuxième capteur comprend plusieurs zones mémoire couplées à une même zone de détection, et permet de mesurer un déphasage entre un signal lumineux modulé en amplitude, émis par une source lumineuse du dispositif, et un signal lumineux reçu par la zone de photodétection du pixel, après réflexion sur une scène dont on souhaite acquérir une image.
Selon un mode de réalisation, les premier et deuxième substrats semiconducteurs sont en silicium monocristallin.
Un mode de réalisation prévoit un procédé de fabrication d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur, le procédé comprenant les étapes successives suivantes :
a) former, dans et sur un premier substrat semiconducteur, un premier capteur comportant une face avant et une face arrière, le premier capteur comprenant une pluralité de pixels d’image 2D, un empilement d’interconnexion situé du côté de la face avant du premier substrat et dans lequel sont formés des pistes et/ou bornes de connexion électrique, et des régions en un matériau distinct de celui du substrat situées dans l’empilement d’interconnexion à l’aplomb de pixels d’image 2D ; et
b) former, dans et sur un deuxième substrat semiconducteur, un deuxième capteur comprenant une pluralité de pixels de profondeur situés en regard des régions du premier capteur ; et
c) accoler le deuxième capteur au premier capteur du côté de la face avant du premier substrat,
dans lequel chaque région comprend une première partie s’étendant dans l’empilement d’interconnexion depuis une première face de l’empilement d’interconnexion tournée vers le premier substrat et une deuxième partie s’étendant, depuis une deuxième face de l’empilement d’interconnexion opposée au premier substrat, jusqu’à la première partie, la première partie présentant, en vue de dessus, une surface inférieure à celle de la deuxième partie, le matériau des régions présentant, sur une plage de longueurs d’onde de travail du deuxième capteur, un indice optique supérieur ou égal à celui du matériau du substrat.
Selon un mode de réalisation, le procédé comprend les étapes successives suivantes :
former une première partie de l’empilement d’interconnexion ;
former la première partie de la région ;
former une deuxième partie de l’empilement d’interconnexion ; et
former la deuxième partie de la région.
Selon un mode de réalisation, les première et deuxième parties de la région sont formées après réalisation complète de l’empilement d’interconnexion.
Ces caractéristiques et avantages, ainsi que d’autres, seront exposés en détail dans la description suivante de modes de réalisation particuliers faite à titre non limitatif en relation avec les figures jointes parmi lesquelles :
la est une vue en coupe illustrant, de façon schématique et partielle, un exemple d’un mode de réalisation d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur ;
la est une vue de dessus illustrant, de façon schématique et partielle, une partie du dispositif de la ;
les , , , , , , et sont des vues en coupe illustrant, de façon schématique, des étapes d’un exemple d’un procédé de fabrication d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur du type décrit en relation avec la ;
les et sont des vues en coupe illustrant, de façon schématique, des étapes d’une variante du procédé des figures 3A à 3H ;
la est une vue de dessus, schématique et partielle, représentant un exemple d’agencement des pixels 2D et des pixels de profondeur dans le dispositif de la ;
la est une vue de dessus, schématique et partielle, représentant un autre exemple d’agencement des pixels 2D et des pixels de profondeur dans un exemple d’un mode de réalisation d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur ; et
la est une vue de dessus, schématique et partielle, représentant un groupe de pixels d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur du type décrit en relation avec la .
De mêmes éléments ont été désignés par de mêmes références dans les différentes figures. En particulier, les éléments structurels et/ou fonctionnels communs aux différents modes de réalisation peuvent présenter les mêmes références et peuvent disposer de propriétés structurelles, dimensionnelles et matérielles identiques.
Par souci de clarté, seuls les étapes et éléments utiles à la compréhension des modes de réalisation décrits ont été représentés et sont détaillés. En particulier, la réalisation des photodiodes et des circuits de commande des pixels d’image 2D et des pixels de profondeur n’a pas été détaillée, la réalisation de tels pixels étant à la portée de la personne du métier à partir des indications de la présente description.
Sauf précision contraire, lorsque l’on fait référence à deux éléments connectés entre eux, cela signifie directement connectés sans éléments intermédiaires autres que des conducteurs, et lorsque l’on fait référence à deux éléments reliés (en anglais « coupled ») entre eux, cela signifie que ces deux éléments peuvent être connectés ou être reliés par l’intermédiaire d’un ou plusieurs autres éléments.
Dans la description qui suit, lorsque l’on fait référence à des qualificatifs de position absolue, tels que les termes « avant », « arrière », « haut », « bas », « gauche », « droite », etc., ou relative, tels que les termes « dessus », « dessous », « supérieur », « inférieur », etc., ou à des qualificatifs d’orientation, tels que les termes « horizontal », « vertical », etc., il est fait référence, sauf précision contraire, à l’orientation des figures.
Sauf précision contraire, les expressions « environ », « approximativement », « sensiblement », et « de l’ordre de » signifient à 10 % près, de préférence à 5 % près.
La est une vue en coupe illustrant, de façon schématique et partielle, un exemple d’un mode de réalisation d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène.
Le dispositif de la comprend :
– un premier capteur C1 formé dans et sur un premier substrat semiconducteur 100, par exemple un substrat en silicium monocristallin, le capteur C1 comprenant une pluralité de pixels d’image 2D P1 et P1′ et des régions 50 en un matériau distinct de celui du substrat 100 situées dans un empilement d’interconnexion 110 à l’aplomb de pixels d’image 2D P1′ ; et
– un deuxième capteur C2 formé dans et sur un deuxième substrat semiconducteur 130, par exemple un substrat en silicium monocristallin, le capteur C2 étant accolé à la face avant du capteur C1 et comprenant une pluralité de pixels de profondeur P2 situés en regard des régions 50 du capteur C1, chaque région 50 comprenant une première partie 50a s’étendant dans l’empilement d’interconnexion 110 depuis une première face de l’empilement d’interconnexion 110 tournée vers le premier substrat 100 et une deuxième partie 50b s’étendant, depuis une deuxième face de l’empilement d’interconnexion 110 opposée au premier substrat 100, jusqu’à la première partie 50a.
On notera que, dans la présente description, on entend par face avant d’un substrat la face du substrat sur laquelle est réalisé un empilement d’interconnexion associé à des éléments formés dans le substrat, et par face arrière d’un substrat la face du substrat opposée à sa face avant. Dans l’exemple de la , les faces avant et arrière du substrat 100 sont sa face inférieure et sa face supérieure, respectivement.
En pratique, le dispositif de la est destiné à être utilisé en combinaison avec une source lumineuse émettant dans une gamme de longueur d’onde détectée par les pixels de profondeur du capteur C2, par exemple une source infrarouge.
Par exemple, dans le cas d’une mesure de profondeur par temps de vol, la source lumineuse est par exemple une source laser émettant de la lumière à une longueur d’onde déterminée ou dans une gamme de longueurs d’onde déterminée, de préférence une gamme de longueurs d’onde étroite, par exemple une gamme de largeur à mi-hauteur inférieure à 3 nm, par exemple une source de longueur d’onde centrale d’émission de l’ordre de 940 nm. À titre d’exemple, la gamme de longueurs d’onde d’émission de la source lumineuse est située en dehors du domaine visible, par exemple dans le proche infrarouge, par exemple dans la plage de 700 nm à 1,5 µm. En fonctionnement, le signal lumineux produit par la source lumineuse est émis vers la scène (par exemple par l’intermédiaire d’une ou plusieurs lentilles), sous la forme d’impulsions lumineuses, par exemple des impulsions périodiques. Le signal lumineux retour réfléchi par la scène est capté par les pixels de profondeur P2 du capteur C2, de façon à mesurer le temps de vol du signal lumineux en différents points de la scène et en déduire la distance au dispositif d’acquisition en différents points de la scène. Les pixels P1 et P1′ du capteur C1 sont quant à eux aptes à capter de la lumière visible émise par la scène pour former une image 2D de la scène.
À titre de variante, dans le cas par exemple de mesures de profondeur par lumière structurée, la source lumineuse peut présenter une longueur d’onde centrale d’émission de l’ordre de 940 nm, 1 140 nm ou 1 400 nm.
Dans l’exemple représenté, chaque pixel P1, P1′ du capteur C1 comprend une photodiode 101 comprenant une ou plusieurs régions implantées localisées formées dans le substrat semiconducteur 100. Dans cet exemple, la ou les régions implantées de la photodiode 101 sont disposées du côté de la face avant du substrat 100. Chaque pixel P1, P1′ peut en outre comprendre un ou plusieurs composants supplémentaires (non représentés), par exemple des transistors de contrôle, formés du côté de la face avant du substrat 100, par exemple dans le substrat 100 et sur la face avant du substrat 100. Le capteur C1 comprend en outre l’empilement d’interconnexion 110, constitué de couches diélectriques et conductrices alternées revêtant la face avant du substrat 100, dans lequel sont formées des pistes et/ou bornes de connexion électrique 111 connectant les pixels P1 et P1′ du capteur C1 à un circuit périphérique de commande et d’alimentation, non représenté.
Dans l’exemple représenté, le capteur C1 comprend des murs d’isolation verticaux 103 traversant le substrat 100 sur toute son épaisseur et délimitant des portions de substrat correspondant respectivement aux différents pixels P1 et P1′ du capteur C1. Les murs d’isolation verticaux 103 remplissent notamment une fonction d’isolation optique, et peuvent en outre présenter une fonction d’isolation électrique. À titre d’exemple, les murs d’isolation verticaux 103 sont en un matériau diélectrique, par exemple de l’oxyde de silicium.
Selon un aspect du mode de réalisation de la , l’empilement d’interconnexion 110 est interrompu en vis-à-vis de chaque pixel P1′. Les régions 50 sont situées respectivement dans les zones d’interruption de l’empilement d’interconnexion 110. Chaque région 50 s’étend par exemple sur sensiblement toute l’épaisseur de l’empilement d’interconnexion 110. L’épaisseur de la région 50 est par exemple sensiblement identique à celle de l’empilement d’interconnexion 110, par exemple comprise entre 3 et 15 µm, par exemple entre 5 et 10 µm.
Le matériau de la région 50 présente par exemple un indice optique n supérieur ou égal à celui du silicium, par exemple supérieur ou égal à 3,5 sur la plage de longueurs d’onde de travail du deuxième capteur C2. En outre, le matériau de la région 50 est par exemple non absorbant sur cette plage de longueurs d’onde. Le matériau de la région 50 présente par exemple plus précisément, sur la plage de longueurs d’onde de travail du deuxième capteur C2, un coefficient d’absorption optique k inférieur ou égal à 10-3, par exemple inférieur ou égal à 10-4. Le matériau de la région 50 est par ailleurs choisi pour permettre un remplissage des zones d’interruption de l’empilement d’interconnexion 110. À titre d’exemple, les régions 50 sont en silicium amorphe.
De préférence, la région 50 est en contact, sur toute sa périphérie et sur sensiblement toute sa hauteur, avec un matériau d’indice de réfraction plus faible que celui du matériau de la région 50, par exemple de l’oxyde de silicium lorsque les régions 50 sont en silicium amorphe. Ainsi, la lumière en provenance de la face arrière du substrat 100 est guidée verticalement vers le pixel P2 sous-jacent. Dit autrement, la région 50 agit comme un guide d’onde permettant de transmettre, avec des pertes minimales, la lumière illuminant le dispositif du côté de la face arrière du substrat 100 jusqu’aux pixels P2.
L’épaisseur du substrat 100 est par exemple comprise entre 2 et 10 µm, par exemple entre 3 et 5 µm.
Chaque partie 50b de la région 50 présente par exemple, en vue de dessus, des dimensions sensiblement identiques aux dimensions des pixels P1′ du capteur C1. À titre d’exemple, en vue de dessus, la plus grande dimension de chaque pixel P1′ du capteur C1 est inférieure à 10 µm, par exemple inférieure à 5 µm, par exemple inférieure à 2 µm, par exemple de l’ordre de 1 µm. À titre d’exemple, les pixels P1′ présentent, en vue de dessus, des dimensions sensiblement identiques à celles des pixels P1, aux dispersions de fabrication près.
Dans l’exemple représenté, la face arrière du substrat 100 est revêtue d’une couche de passivation 115, par exemple une couche d’oxyde de silicium, une couche de dioxyde d’hafnium (HfO2), une couche d’alumine (Al2O3), ou un empilement de plusieurs couches de matériaux différents pouvant remplir d’autres fonctions que la seule fonction de passivation (antireflet, filtrage, collage, etc.), s’étendant sur sensiblement toute la surface du capteur. À titre d’exemple, la couche 115 est disposée sur et en contact avec la face arrière du substrat 100.
Dans l’exemple de la , le capteur C1 est un capteur d’image 2D couleur, c’est-à-dire qu’il comprend des pixels P1 et P1′ de différents types, adaptés à mesurer des intensités lumineuses dans des gammes de longueurs d’onde visibles distinctes. Pour cela, chaque pixel P1, P1′ comprend un filtre couleur 118, par exemple une couche de résine colorée, disposé du côté de la face arrière du substrat 100. À titre d’exemple, le capteur C1 comprend trois types de pixels P1. Le capteur C1 comprend par exemple plus précisément des premiers pixels P1 appelés pixels bleus, dont le filtre couleur 118 transmet préférentiellement de la lumière bleue, des deuxièmes pixels P1 appelés pixels rouges, dont le filtre couleur 118 transmet préférentiellement de la lumière rouge, et des troisièmes pixels P1 appelés pixels verts, dont le filtre couleur 118 transmet préférentiellement de la lumière verte. À titre de variante, le capteur C1 comprend uniquement deux types de pixels P1, par exemple des pixels rouges et des pixels verts, ou des pixels bleus et des pixels verts, ou des pixels rouges et des pixels bleus. Sur la , les différents types de pixels P1 ne sont pas différenciés. En outre, le capteur C1 comprend par exemple un seul type de pixels P1′. À titre d’exemple, le filtre couleur 118 des pixels P1′ transmet préférentiellement, outre le rayonnement émis par la source lumineuse associée au dispositif, de la lumière verte, bleue ou rouge, de préférence de la lumière bleue, le capteur C1 comprenant par exemple uniquement des pixels P1 rouges et verts.
Bien que cela n’ait pas été détaillé en , la couche ou l’empilement de couches 115 peut comprendre une couche ou un empilement de couches antireflet en un matériau présentant un indice optique compris entre celui du matériau du substrat 100 et celui du matériau des filtres couleur 118, par exemple l’oxyde de tantale (Ta2O5). En outre, la couche ou l’empilement de couches antireflet peut être structuré, la structuration pouvant par ailleurs varier d’un pixel à l’autre.
Dans l’exemple de la , chaque pixel P1 comprend en outre un filtre coupe-bande infrarouge 120, par exemple une résine infrarouge. Le filtre 120 est par exemple adapté à transmettre la lumière à toutes les longueurs d’onde à l’exception d’une gamme de longueurs d’onde centrée sur la gamme de longueurs d’onde d’émission de la source lumineuse. Dans cet exemple, le filtre 120 est disposé du côté de la face arrière du substrat 100, par exemple sur et en contact avec la face de la couche de passivation 115 opposée au substrat 100, et s’étend sur sensiblement toute la surface de chaque pixel P1. Le filtre couleur 118 est par exemple disposé sur et en contact avec la face avant du filtre 120. Le filtre 120 permet d’éviter que la lumière en provenance de la source lumineuse et réfléchie par la scène ne soit détectée par les pixels P1 et ne vienne dégrader la qualité de l’image 2D acquise par les pixels P1. Le filtre 120 permet plus généralement de bloquer les rayonnements infrarouges pour améliorer le rendu des couleurs de l’image 2D.
On a illustré en un exemple dans lequel, pour chaque pixel P1, le filtre 120 est interposé entre la couche 115 et le filtre couleur 118. Cet exemple n’est toutefois pas limitatif, le filtre couleur 118 pouvant, à titre de variante, être interposé entre la couche 115 et le filtre 120.
Dans l’exemple représenté, chaque pixel P1′ du capteur C1 est, par rapport aux pixels P1, dépourvu du filtre 120. Dans cet exemple, chaque pixel P1′ comporte une région 121 revêtant la face supérieure du filtre couleur 118 du pixel P1′ et affleurant la face supérieure des filtres couleur 118 des pixels P1. Les régions 121 permettent de compenser une différence d’épaisseur, ou de hauteur, entre les pixels P1 et les pixels P1′ du capteur C1.
À titre de variante, le capteur C1 peut être un capteur d’image 2D monochromatique, auquel cas les filtres 118 peuvent être omis.
Chaque pixel P1, P1′ du capteur C1 peut en outre comprendre une microlentille 122 disposée du côté de la face arrière du substrat 100, par exemple sur et en contact avec le filtre couleur 118 du pixel, adaptée à focaliser la lumière incidente sur la photodiode 101 du pixel P1 ou P1′ sous-jacent. À titre d’exemple, les régions 121 des pixels P1′ du capteur C1 sont en le même matériau que les microlentilles 122.
Bien que cela n’ait pas été illustré en , un filtre dit « double bande », par exemple un filtre en résine et/ou un filtre interférentiel, adapté à transmettre la lumière dans la gamme de longueurs d’onde d’émission de la source lumineuse et dans la gamme de longueurs d’onde du spectre visible, peut être prévu du côté de la face arrière du substrat 100, par exemple sur les microlentilles 122. Plus précisément, le filtre double bande est par exemple adapté à transmettre la lumière dans une première bande de longueurs d’onde relativement étroite centrée sur la gamme de longueurs d’onde d’émission de la source lumineuse du système, par exemple une gamme de longueurs d’onde de largeur à mi-hauteur inférieure à 30 nm, par exemple inférieure à 20 nm, par exemple inférieure à 10 nm, et dans une deuxième bande de longueurs d’onde comprise entre 400 et 650 nm. Le filtre double bande permet d’éviter ou de limiter la photo-génération de charges électriques dans la photodiode du pixel P2 sous-jacent sous l’effet d’un rayonnement lumineux ne provenant pas de la source lumineuse du système. Le filtre double bande est par exemple externe au capteur.
Dans cet exemple, le capteur C1 est collé au capteur C2 par collage moléculaire. Pour cela, le capteur C1 comprend une couche 126a, par exemple en oxyde de silicium, située du côté de la face avant du substrat 100. De plus, le capteur C2 comprend une couche 126b de même nature que la couche 126a, par exemple en oxyde de silicium, située du côté de la face arrière du substrat 130. La face de la couche 126a opposée au substrat 100 est mise en contact avec la face de la couche 126b opposée au substrat 130 de façon à réaliser un collage moléculaire du capteur C2 au capteur C1. À titre d’exemple, la couche 126a, respectivement 126b, s’étend de façon continue sur sensiblement toute la surface du capteur C1, respectivement C2.
Dans l’exemple représenté, le capteur C1 comprend en outre, du côté de la face avant du substrat 100, entre l’empilement d’interconnexion 110 et la couche 126a, une couche 128 d’un matériau d’indice de réfraction différent de celui des couches 126a et 126b, par exemple un matériau d’indice de réfraction supérieur à celui des couches 126a et 126b, par exemple du nitrure de silicium. À titre d’exemple, la couche 128 s’étend de façon continue sur sensiblement toute la surface du capteur C1. La couche 126a est par exemple en contact, par sa face tournée vers le substrat 100, avec la couche 128.
De plus, dans cet exemple, le capteur C2 comprend en outre, du côté de la face arrière du substrat 130, entre le substrat 130 et la couche 126b, une couche 132 d’un matériau d’indice de réfraction différent de celui des couches 126a et 126b, par exemple une couche en le même matériau que la couche 128. La couche 132 présente par exemple une fonction de passivation et une fonction antireflet. La couche 132 est par exemple identique ou similaire à la couche 115. La couche 132 est par exemple plus précisément une couche en alumine ou en oxyde de tantale, ou un empilement de plusieurs couches en ces matériaux, la couche ou l’empilement de couches pouvant par ailleurs être structuré. À titre d’exemple, la couche 132 s’étend de façon continue sur sensiblement toute la surface du capteur C2. La couche 126b est par exemple en contact, par sa face tournée vers le substrat 130, avec la couche 132.
Bien que cela n’ait pas été illustré en , des structures de diffraction dites à rendement quantique élevé (« High Quantum Efficiency » - HQE, en anglais) peuvent être prévues dans le substrat 130.
Dans cet exemple, l’empilement des couches 128-126a-126b-132 forme un empilement antireflet favorisant le passage de la lumière de chaque pixel P1′ vers la région photosensible du pixel P2 sous-jacent. L’épaisseur des couches 128, 126a, 126b, 132 peut être choisie en fonction de la longueur d’onde d’émission de la source lumineuse, de façon à favoriser la fonction anti-reflet de l’empilement à la longueur d’onde d’émission de la source lumineuse, par exemple de façon que le coefficient de réflexion de l’empilement à la longueur d’onde d’émission de la source lumineuse soit inférieur à 6 %. À titre d’exemple non limitatif, pour une longueur d’onde de fonctionnement de la source lumineuse de 940 nm et dans le cas où la couche 128 est en nitrure de silicium, où la couche 132 est analogue à la couche 115 et où les couches 126a et 126b sont en oxyde de silicium, les couches 128 et 132 peuvent présenter chacune une épaisseur de l’ordre de 119 nm, et la somme des épaisseurs des couches 126a et 126b peut être de l’ordre de 200 nm.
Chaque pixel P2 du capteur C2 comprend une photodiode 133 formée dans le substrat 130, en vis-à-vis de la région 50 du capteur C1. La photodiode 133 comprend une ou plusieurs régions semiconductrices localisées formées dans le substrat semiconducteur 130. À titre d’exemple, chaque photodiode 133 comprend notamment une région photosensible, de préférence en silicium dans le cas où la source lumineuse présente une longueur d’onde centrale d’émission de l’ordre de 940 nm. À titre de variante, la région photosensible de chaque photodiode 133 peut être à base d’arséniure de gallium-indium (InGaAs), de germanium (Ge) ou d’au moins un matériau semiconducteur organique, par exemple de type polymère. La région photosensible de chaque photodiode 133 peut comprendre des boîtes quantiques (« quantum dots », en anglais), par exemple comprenant des nanocristaux semiconducteurs.
Le pixel de profondeur P2 peut être réalisé dans toute technologie adaptée à la mise en œuvre d’une mesure de distance. À titre d’exemple, la photodiode 133 du pixel P2 peut être de type SPAD (de l’anglais « Single Photon Avalanche Diode » - diode à avalanche à photon unique) ou être une photodiode adaptée à effectuer des mesures de distance par lumière structurée. À titre de variante, le pixel P2 peut être de type « lock-in », tel que décrit dans les demandes de brevet français N°16/62341 et N°16/62340 précédemment déposées par la demanderesse, c’est-à-dire un pixel comprenant plusieurs zones mémoire couplées à une même zone de détection, et permettant de mesurer un déphasage entre un signal lumineux modulé en amplitude, émis par la source lumineuse, et un signal lumineux reçu par la zone de photodétection du pixel, après réflexion sur la scène.
Chaque pixel P2 peut en outre comprendre un ou plusieurs composants supplémentaires (non représentés), par exemple des transistors de contrôle, formés du côté de la face avant du substrat 130, par exemple dans le substrat 130 et sur la face avant du substrat 130. Le capteur C2 comprend en outre un empilement d’interconnexion 140, constitué de couches diélectriques et conductrices alternées revêtant la face avant du substrat 130, dans lequel sont formées des pistes et/ou bornes de connexion électrique 141 connectant les pixels P2 du capteur à un circuit périphérique de commande et d’alimentation, non représenté.
Dans l’exemple représenté, dans chaque pixel P2 du capteur C2, la photodiode 133 du pixel est entièrement entourée par un mur d’isolation vertical 135 traversant le substrat 130 sur toute son épaisseur. Le mur 135 remplit notamment une fonction d’isolation optique, et peut en outre présenter une fonction d’isolation électrique. À titre d’exemple, le mur d’isolation vertical 135 est en un matériau diélectrique, par exemple de l’oxyde de silicium. À titre de variante, le mur d’isolation vertical 135 est un mur multicouche comprenant une couche intérieure en un matériau diélectrique, par exemple de l’oxyde de silicium, une ou plusieurs couches intermédiaires comprenant au moins une couche métallique, et une couche extérieure en un matériau diélectrique, par exemple de l’oxyde de silicium.
Dans l’exemple représenté, les dimensions latérales des zones de détection des pixels P2 (délimitées par les murs 135) sont supérieures aux dimensions latérales des zones de détection des pixels P1′ (délimitées par les murs 103), ce qui permet de relâcher les contraintes d’alignement lors de l’assemblage des capteurs C1 et C2. À titre d’exemple, les pixels P1 et P1′ d’image 2D du capteur C1 présentent un pas inférieur à 2 µm, par exemple de l’ordre de 1 µm, et les pixels P2 de profondeur du capteur C2 présentent un pas inférieur à 4 µm, par exemple sensiblement égal au double du pas des pixels P1 et P1′ d’image 2D, par exemple de l’ordre de 2 µm. Les modes de réalisation décrits ne se limitent toutefois pas à ce cas particulier. À titre de variante, les dimensions latérales des zones de détection des pixels P2 sont sensiblement identiques à celles des pixels P1′. Dans ce cas, le mur d’isolation vertical 135 du pixel P2 peut être situé sensiblement à l’aplomb du mur d’isolation vertical 103 entourant la zone de détection du pixel P1′ sus-jacent.
Les murs 103 et 135, ainsi que le guidage vertical à travers la région 50, permettent de limiter le risque que des rayons lumineux reçus par un pixel P1 voisin du pixel P1′ ne viennent activer la photodiode du pixel P2 correspondant, ce qui pourrait conduire à une mesure de profondeur erronée.
Bien que cela n’ait pas été illustré en , le capteur C2 peut en outre, à titre de variante, comporter un écran métallique revêtant sensiblement toute la face arrière du substrat 130, à l’exception des portions de substrat 130 situées à l’intérieur des murs 135 (correspondant aux zones de photodétection des pixels P2). L’écran métallique est par exemple disposé entre le substrat 130 et la couche diélectrique 132. Là encore, la fonction de l’écran métallique est une fonction d’isolation optique, visant à éviter que des rayons lumineux reçus par un pixel P1 voisin du pixel P1′ ne viennent activer la photodiode du pixel P2 correspondant. À titre de variante, l’écran métallique n’est pas continu mais est constitué d’une pluralité de couronnes disjointes entourant respectivement, en vue de dessus, les zones de photodétection des différents pixels P2 du capteur. Cela permet avantageusement de limiter les réflexions parasites de lumière par l’écran métallique en direction des pixels P1′ du capteur C1.
L’épaisseur du substrat 130 est par exemple comprise entre 5 et 50 µm, par exemple entre 8 et 20 µm.
Dans l’exemple représenté, le capteur C2 est fixé, par sa face avant, sur un substrat de support 150, par exemple un substrat en silicium. À titre de variante, le substrat de support 150 peut être remplacé par un circuit supplémentaire de contrôle et de traitement (non représenté) formé dans et sur un troisième substrat semiconducteur, par exemple tel que décrit en relation avec la de la demande de brevet EP 3503192 susmentionnée.
Un avantage du dispositif de la tient au fait que la matrice de pixels P1 et P1′ du capteur C1 est dépourvue d’ouvertures, ou fenêtres transmissives, par exemple telles que les fenêtres que comportent les dispositifs des demandes de brevet EP 3503192 et US 2021/0305206 susmentionnées. Cela permet de limiter, ou d’éviter, une perte de résolution du capteur C1 malgré la présence du capteur C2.
La est une vue de dessus illustrant, de façon schématique et partielle, une partie du dispositif de la . La correspond par exemple à une vue en coupe selon le plan AA de la .
La illustre plus précisément un pixel P1′, en vue de dessus. Afin de ne pas surcharger le dessin, la microlentille 122, le filtre couleur 118 et le substrat 100 n’ont pas été représentés en , et la photodiode 101 a été symbolisée par un rectangle en pointillé.
Dans l’exemple représenté, des pistes et/ou bornes de connexion électrique 111 de l’empilement d’interconnexion 110 s’étendent sous la photodiode 101 du pixel P1′. Ces pistes et/ou bornes 111 pénètrent à l’intérieur de la partie 50a de la région 50, la partie 50a de la région 50 entourant les pistes et/ou bornes 111. Les pistes et/ou bornes 111 sont par exemple électriquement isolées de la région 50, par exemple par de l’oxyde de silicium revêtant les flancs de la partie 50a de la région 50. Dans l’exemple illustré en , le pixel P1′ comporte trois pistes 111 étant entendu que, en pratique, le pixel P1′ peut comporter un nombre quelconque de pistes et/ou de bornes 111. Dans cet exemple, les pistes 111 du pixel P1′ sont par exemple connectées respectivement au substrat 100, à une grille de transfert et à un nœud de lecture du pixel P1′, non détaillés en .
Selon un mode de réalisation, la partie 50a de la région 50 présente, en vue de dessus, une surface inférieure à celle de la partie 50b de la région 50, la partie 50b de la région 50 présentant, en vue de dessus, une surface sensiblement égale à celle du carré symbolisant le pixel P1′ en . À la différence de la partie 50a de la région 50, aucune piste ou borne 111 de connexion de l’empilement d’interconnexion 110 ne pénètre à l’intérieur de la partie 50b de la région 50. À titre d’exemple, les pistes et/ou bornes 111 de connexion du pixel P1′ sont disposées de sorte à maximiser la surface de la partie 50a de la région 50.
Bien que l’on ait représenté en un cas dans lequel le pixel P1′ présente, en vue de dessus, une forme sensiblement carrée, le pixel P1′ peut, en pratique, présenter une forme quelconque, par exemple rectangulaire, hexagonale ou circulaire.
Les , , , , , , et sont des vues en coupe illustrant, de façon schématique, des étapes d’un exemple d’un procédé de fabrication d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur du type décrit en relation avec la .
Plus précisément, les figures 3A à 3E sont des vues en coupe illustrant un exemple de réalisation du capteur C1 du dispositif de la , les figures 3F et 3G sont des vues en coupe illustrant un exemple de réalisation du capteur C2 du dispositif de la et la est une vue en coupe illustrant une étape de collage du capteur C1 sur le capteur C2.
La illustre une étape de réalisation du capteur d’images 2D C1 du dispositif de la .
Pour réaliser le capteur C1, on part d’un substrat semiconducteur 100 relativement épais, par exemple de plusieurs centaines de micromètres d’épaisseur.
Les régions implantées des photodiodes 101 et des éventuels composants de contrôle des pixels P1 et P1′ du capteur sont formés à partir d’une première face du substrat 100, à savoir sa face supérieure dans l’orientation de la . Les murs d’isolation verticaux 103 délimitant, en vue de dessus, les pixels P1 et P1′ du capteur sont en outre formés depuis la face supérieure du substrat 100.
La illustre une étape ultérieure de formation, sur la face supérieure du substrat 100, d’une partie de l’empilement d’interconnexion 110 du capteur C1.
Dans cet exemple, comme illustré sur la , une couche métallique de l’empilement d’interconnexion 110, par exemple la couche métallique de l’empilement d’interconnexion 110 la plus proche de la face supérieure du substrat 100, est formée du côté de la face supérieure du substrat 100. Dans l’exemple illustré, des pistes et/ou bornes de connexion électrique 111 formées dans la première couche métallique s’étendent en vis-à-vis de la zone de photodétection du pixel P1′. Dans cet exemple, la couche métallique de l’empilement d’interconnexion 110 la plus proche du substrat 100 est interposée entre des couches diélectriques, non détaillées en , formées au cours de cette même étape.
La illustre en outre une étape de formation, depuis la face supérieure de la structure, d’une ouverture 201 traversant verticalement la partie de l’empilement d’interconnexion 110 précédemment formée et débouchant sur la face supérieure du substrat semiconducteur 100. L’ouverture 201 s’étend sur une partie seulement de la surface de la zone de photodétection du pixel P1′. L’ouverture 201 est par exemple réalisée par photolithographie puis gravure.
L’ouverture 201 est ensuite remplie du matériau de la région 50, formant ainsi la partie 50a de la région 50. Dans l’exemple représenté, le matériau de la région 50 comble l’ouverture 201 et affleure la face supérieure de la partie de l’empilement d’interconnexion 110 précédemment réalisée.
La illustre une étape ultérieure de finalisation de l’empilement d’interconnexion 110. Plus précisément, au cours de cette étape, d’autres couches métalliques et d’autres couches diélectriques ne pénétrant pas à l’intérieur des régions 50 de l’empilement d’interconnexion 110 sont formées du côté de la face supérieure de la structure. Dans l’exemple représenté, le matériau constitutif des couches diélectriques de l’empilement 110 revêt les flancs et la face supérieure de la partie 50a de la région 50 et isole électriquement la partie 50a par rapport aux pistes et/ou bornes de connexion électrique 111.
La illustre une étape ultérieure de formation, depuis la face supérieure de la structure, d’une autre ouverture 203 s’étendant verticalement, depuis la face de l’empilement d’interconnexion 110 opposée au substrat 100, jusqu’à la partie 50a de la région 50. Dans l’exemple représenté, la partie 50a de la région 50 affleure le fond de l’ouverture 203. L’ouverture 203 s’étend latéralement sur toute la surface du pixel P1′. L’ouverture 203 est par exemple réalisée par photolithographie puis gravure.
La illustre des étapes ultérieures de remplissage de l’ouverture 203 par le matériau de la région 50, formant ainsi la partie 50b de la région 50. Dans l’exemple représenté, le matériau de la région 50 comble l’ouverture 203 et affleure la face supérieure de l’empilement d’interconnexion 110 précédemment réalisé.
La illustre en outre une étape ultérieure de dépôt de la couche diélectrique 128, suivie d’une étape de dépôt de la couche de collage 126a du capteur C1, sur la face supérieure de l’empilement d’interconnexion 110. Dans cet exemple, chacune des couches 128, 126a s’étend de façon continue sur toute la surface du capteur C1. Plus particulièrement, dans cet exemple, la couche 128 est en contact, par sa face inférieure, avec la face supérieure de l’empilement d’interconnexion 110 et de la région 50. La couche 126a est quant à elle en contact, par sa face inférieure, avec la face supérieure de la couche 128.
La illustre une étape parallèle de réalisation du capteur C2 du dispositif.
Pour réaliser le capteur C2, on part d’un substrat semiconducteur 130 relativement épais, par exemple de plusieurs centaines de micromètres d’épaisseur.
Les régions implantées des photodiodes 133 et des éventuels composants de contrôle des pixels P2 du capteur sont formés à partir d’une première face du substrat, à savoir sa face supérieure dans l’orientation de la . Les murs d’isolation verticaux 135 délimitant latéralement les pixels P2 sont en outre formés depuis la face supérieure du substrat 130.
L’empilement d’interconnexion 140 du capteur C2 est ensuite formé sur la face supérieure du substrat 130.
La illustre une étape ultérieure d’amincissement du substrat 130 du capteur C2, par sa face opposée à l’empilement d’interconnexion 140.
Pour cela, un substrat de support 150 est fixé sur la face de l’empilement d’interconnexion 140 opposée au substrat 130. Le substrat 130 est ensuite aminci, par exemple par meulage et/ou polissage mécano-chimique (« Chemical-Mechanical Polishing » - CMP, en anglais), par sa face opposée à l’empilement d’interconnexion 140, en se servant du substrat de support 150 comme d’une poignée.
On notera que, sur la , l’orientation du capteur C2 est inversée par rapport à la .
L’amincissement est interrompu au niveau de la face des murs d’isolation verticaux 135 opposée à l’empilement d’interconnexion 140. Dans cet exemple, à l’issue de l’étape d’amincissement, les murs 135 affleurent la face du substrat 130 opposée à l’empilement d’interconnexion 140, à savoir la face supérieure du substrat 130 dans l’orientation de la .
La illustre en outre une étape ultérieure de dépôt de la ou des couches de passivation 132, suivie d’une étape de dépôt de la couche de collage 126b du capteur C2, sur la face supérieure du substrat 130 aminci. Dans cet exemple, chacune des couches 132, 126b s’étend de façon continue sur toute la surface du capteur C2. Plus particulièrement, dans cet exemple, la couche 132 est en contact, par sa face inférieure, avec la face supérieure du substrat 130 aminci et des murs d’isolation verticaux 135. La couche 126b est quant à elle en contact, par sa face inférieure, avec la face supérieure de la couche 132.
La illustre une étape ultérieure de report du capteur C1 sur le capteur C2. Le capteur C1 peut être retourné et fixé sur la face supérieure du capteur C2, par collage direct ou collage moléculaire de la face de la couche 126a opposée au substrat 100 sur la face de la couche 126b opposée au substrat 130.
Les étapes suivantes du procédé de fabrication du dispositif n’ont pas été représentées, ces étapes étant à la portée de la personne du métier à partir des indications de la présente description. Le substrat 100 du capteur C1 est par exemple aminci par sa face opposée à l’empilement d’interconnexion 110, par exemple par meulage et/ou CMP, en se servant du substrat de support 150 comme d’une poignée. L’amincissement est par exemple interrompu au niveau de la face des murs d’isolation verticaux 103 opposée à l’empilement d’interconnexion 110, de sorte que, à l’issue de l’étape d’amincissement, les murs 103 affleurent la face du substrat 100 opposée à l’empilement d’interconnexion 110. Les éléments supérieurs du dispositif de la , notamment la couche 115, les filtres 120 et 118, et les microlentilles 122, peuvent ensuite être formés du côté de la face du substrat 100 opposée à l’empilement d’interconnexion 110.
Les et sont des vues en coupe illustrant, de façon schématique, des étapes d’une variante du procédé des figures 3A à 3H.
La illustre plus précisément une étape de réalisation complète de l’empilement d’interconnexion 110 du capteur C1 à partir de la structure précédemment décrite en relation avec la .
La illustre une étape ultérieure de formation d’une ouverture 401 traversante dans l’empilement d’interconnexion 110. L’ouverture 401 présente par exemple une forme analogue à celle des ouvertures 201 et 203 réunies. L’ouverture 401 est par exemple obtenue par la mise en œuvre d’étapes d’un procédé dit de « double damascène ». Plus précisément, une première ouverture s’étendant sur toute la hauteur de l’empilement d’interconnexion 110 et présentant une surface sensiblement égale à celle de la partie 50a de la région 50 est par exemple d’abord formée, par exemple par photolithographie puis gravure. Une deuxième ouverture s’étendant depuis la face de l’empilement d’interconnexion 110 opposée au substrat 100 jusqu’à une profondeur inférieure à la première ouverture est alors par exemple formée, par exemple par photolithographie puis gravure, de sorte à élargir la partie supérieure de la première ouverture pour permettre de former ultérieurement la partie 50b de la région 50.
Les étapes suivantes de la variante du procédé de fabrication du dispositif n’ont pas été représentées, ces étapes étant à la portée de la personne du métier à partir des indications de la présente description. Les ouvertures 401 sont par exemple remplies pour former les régions 50. Une étape ultérieure de planarisation peut ensuite permettre de faire en sorte que la région 50 affleure la face de l’empilement d’interconnexion 110 opposée au substrat 100. La fabrication du dispositif de la peut ensuite se poursuivre comme exposé précédemment en relation avec les figures 3E à 3H.
La est une vue de dessus, schématique et partielle, représentant un exemple d’agencement des pixels 2D P1 et P1′ et des pixels de profondeur P2 dans le dispositif de la .
Dans cet exemple, le capteur C1 est un capteur couleur comprenant uniquement deux types de pixels P1 distincts, à savoir des pixels rouges (R) et des pixels verts (G), et un seul type de pixels P1′ (B+Z), à savoir des pixels P1′ dont le filtre couleur 118 transmet préférentiellement, outre le rayonnement infrarouge émis par la source lumineuse associée au dispositif, de la lumière bleue. À titre de variante, le capteur C1 peut comprendre uniquement des pixels P1 bleus et des pixels P1 verts, le filtre couleur 118 des pixels P1′ transmettant préférentiellement, outre le rayonnement infrarouge, de la lumière rouge. Les pixels P1 et P1′ sont répartis en matrice selon des rangées et des colonnes, par exemple selon un motif de Bayer. Dans l’exemple représenté, un pixel sur deux dans la direction des rangées et un pixel sur deux dans la direction des colonnes est un pixel P1′ surmontant un pixel P2 du capteur C2. Le mur d’isolation vertical 135 délimitant la zone de détection de chaque pixel P2 a été représentée en pointillé sur la . Dans cet exemple, en vue de dessus, les dimensions des zones de détection des pixels P2 du capteur C2 sont supérieures aux dimensions des pixels P1′ du capteur C1. Ceci permet de faciliter l’alignement du capteur C1 par rapport au capteur C2 lors de la réalisation du dispositif.
À titre de variante, le capteur C1 peut être un capteur couleur comprenant trois types de pixels P1 distincts, à savoir des pixels rouges, des pixels bleus et des pixels verts, et un seul type de pixels P1′, à savoir des pixels P1′ dont le filtre couleur 118 transmet préférentiellement, outre le rayonnement infrarouge émis par la source lumineuse associée au dispositif, de la lumière verte.
À titre de variante, le capteur C1 est dépourvu de pixels P1 et comporte uniquement des pixels P1′, plus précisément trois types de pixels P1′ distincts, à savoir des pixels P1′ dont le filtre couleur 118 transmet préférentiellement, outre le rayonnement infrarouge émis par la source lumineuse associée au dispositif, de la lumière verte, de la lumière bleue ou de la lumière rouge.
Toutefois, la présente demande ne se limite pas aux exemples de combinaisons de types de filtres couleur 118 décrites. De manière générale, chaque pixel P1, P1′ du capteur C1 peut indifféremment être associé avec un filtre couleur 118 transmettant préférentiellement de la lumière bleue, verte ou rouge.
Dans le dispositif de la , les pixels P2 de profondeur peuvent être commandés individuellement de façon à produire une image de profondeur de résolution égale au nombre de pixels P2 du capteur C2.
À titre de variante, les pixels P2 peuvent être couplés par blocs de plusieurs pixels voisins, par exemple des blocs de trois par trois pixels P2 voisins de façon à réaliser un photo-multiplieur, par exemple de type SIPM. On prévoit alors de ne retenir que les évènements corrélés au sein de chaque bloc. Autrement dit, seuls les évènements détectés simultanément par plusieurs pixels du bloc seront retenus pour construire l’image de profondeur. La résolution de l’image de profondeur est alors inférieure au nombre de pixels P2 du capteur C2, mais l’immunité au bruit du capteur d’image de profondeur s’en trouve améliorée.
On notera que, selon l’application considérée, la cadence d’acquisition des images 2D par le capteur C1 peut être différente de la cadence d’acquisition des images de profondeur par le capteur C2.
La est une vue de dessus, schématique et partielle, représentant un autre exemple d’agencement des pixels 2D P1 et P1′ et des pixels de profondeur P2 dans un exemple d’un mode de réalisation d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur, par exemple un dispositif analogue au dispositif de la .
Dans cet exemple, le capteur C1 est un capteur couleur comprenant uniquement deux types de pixels P1 distincts, à savoir des pixels rouges (R) et des pixels verts (G), et un seul type de pixels P1′ (B+Z), à savoir des pixels P1′ dont le filtre couleur 118 transmet préférentiellement, outre le rayonnement infrarouge émis par la source lumineuse associée au dispositif, de la lumière bleue. À titre de variante, le capteur C1 peut comprendre uniquement des pixels P1 bleus et des pixels P1 verts, le filtre couleur 118 des pixels P1′ transmettant préférentiellement, outre le rayonnement infrarouge, de la lumière rouge. Les pixels P1 et P1′ sont répartis en matrice selon des rangées et des colonnes, par exemple selon un motif dit « Quad Bayer ». Par rapport à l’agencement de la , l’agencement de la prévoit de regrouper les pixels de chaque type, parmi les pixels P1 verts, les pixels P1 rouges, les pixels P1 verts et les pixels P1′, en groupes de quatre pixels adjacents. À titre d’exemple, chaque groupe de quatre pixels P1 ou P1′ du même type peut partager un même filtre couleur 118 et un même filtre 120. Le mur d’isolation vertical 135 délimitant la zone de détection de chaque pixel P2 a été représenté en pointillé sur la . Dans cet exemple, en vue de dessus, les dimensions des zones de détection des pixels P2 du capteur C2 sont supérieures aux dimensions des groupes de quatre pixels P1′ du capteur C1. Ceci permet de faciliter l’alignement du capteur C1 par rapport au capteur C2 lors de la réalisation du dispositif.
À titre de variante, le capteur C1 peut être un capteur couleur comprenant trois types de pixels P1 distincts, à savoir des pixels rouges, des pixels bleus et des pixels verts, et un seul type de pixels P1′, à savoir des pixels P1′ dont le filtre couleur 118 transmet préférentiellement, outre le rayonnement infrarouge émis par la source lumineuse associée au dispositif, de la lumière verte.
À titre de variante, le capteur C1 est dépourvu de pixels P1 et comporte uniquement des pixels P1′, plus précisément trois types de pixels P1′ distincts, à savoir des pixels P1′ dont le filtre couleur 118 transmet préférentiellement, outre le rayonnement infrarouge émis par la source lumineuse associée au dispositif, de la lumière verte, de la lumière bleue ou de la lumière rouge.
Dans le dispositif de la , les pixels P1 ou P1′ de chaque groupe de quatre pixels du même type peuvent être commandés individuellement ou simultanément, en fonction de l’application visée. À titre d’exemple, les signaux issus des quatre pixels P1 ou P1′ de chaque groupe de pixels du même type peuvent être cumulés. Cela permet par exemple une réduction de bruit par rapport à un capteur dont les pixels occuperaient une surface sensiblement égale à la surface occupée par chaque groupe de quatre pixels P1 ou P1′ du même type. À titre de variante, dans chaque groupe de pixels P1 ou P1′ du même type, deux pixels peuvent être utilisés pour capturer une première image 2D pendant une durée d’exposition courte, les deux autres pixels étant utilisés pour capturer une deuxième image 2D pendant une durée d’exposition longue, supérieure à celle de la première image. Les première et deuxième images sont par exemple capturées simultanément puis combinées de sorte à obtenir une image à grande gamme dynamique (« High Dynamic Range » - HDR, en anglais).
La est une vue de dessus, schématique et partielle, représentant un groupe de quatre pixels P1′ d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur du type décrit en relation avec la . Afin de ne pas surcharger le dessin, la microlentille 122, le filtre couleur 118 et les photodiodes 101 n’ont pas été représentés en . En , les murs d’isolation verticaux 103 délimitant les portions de substrat 100 correspondant respectivement aux différents pixels P1′ du groupe de quatre pixels P1′ ont été représentés.
Dans l’exemple illustré, des pistes et/ou bornes de connexion électrique 111 de l’empilement d’interconnexion 110 s’étendent sous la photodiode 101 de chaque pixel P1′. Ces pistes et/ou bornes 111 pénètrent à l’intérieur de la partie 50a de la région 50, la partie 50a de la région 50 entourant les pistes et/ou bornes 111. Dans l’exemple illustré en , chaque pixel P1′ comporte trois pistes 111 étant entendu que, en pratique, le pixel P1′ peut comporter un nombre quelconque de pistes et/ou de bornes 111. Dans cet exemple, les pistes 111 de chaque pixel P1′ sont par exemple connectées respectivement au substrat 100, à une grille de transfert 701 et à un nœud de lecture (non représenté) du pixel P1′. Les grilles de transfert 701 sont par exemple, comme illustré en , disposées aux quatre coins du carré formé par le groupe de quatre pixels P1′. Les grilles de transfert 701 peuvent être des grilles planaires, s’étendant parallèlement à la face avant du substrat 100, ou des grilles verticales, c’est-à-dire s’étendant verticalement dans l’épaisseur du substrat 100 depuis la face avant du substrat 100.
Dans l’exemple représenté, les quatre pixels P1′ du groupe partagent une région 50 commune. Cela présente pour avantage de limiter les phénomènes de diffraction lors du passage de la lumière dans la région 50. Cela permet par ailleurs de réduire une surface de contact entre les régions 50 et les murs d’isolation verticaux 103, seules deux parois latérales de chaque région 50 étant en contact avec les murs 103, dans l’exemple de la , au lieu de quatre parois latérales, dans l’exemple de la . Il en résulte une diminution de phénomènes de fuite à l’interface entre les régions 50 et les murs 103, donc une augmentation du flux lumineux infrarouge transmis vers le deuxième capteur C2.
Divers modes de réalisation et variantes ont été décrits. La personne du métier comprendra que certaines caractéristiques de ces divers modes de réalisation et variantes pourraient être combinées, et d’autres variantes apparaîtront à la personne du métier. En particulier, on a décrit des exemples de réalisation dans lesquels le capteur C2 est collé, par sa face arrière, à la face avant du capteur C1. À titre de variante, le capteur C2 peut être collé par sa face avant à la face avant du capteur C1. Dans ce cas, des ouvertures peuvent par exemple être formées dans l’empilement d’interconnexion 140 du capteur C2 à l’aplomb des régions 50. Des régions analogues aux régions 50 du capteur C1 pourraient en outre être formées dans l’empilement d’interconnexion 140 du capteur C2.
En outre, bien que l’on ait décrit en relation avec les figures 3A à 3H un exemple de procédé de fabrication d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur comprenant des régions 50 à l’aplomb de certains pixels uniquement, le procédé est adaptable par la personne du métier à un cas où les régions 50 sont formées à l’aplomb de chaque pixel d’image 2D du premier capteur C1.
Enfin, la mise en œuvre pratique des modes de réalisation et variantes décrits est à la portée de la personne du métier à partir des indications fonctionnelles données ci-dessus. En particulier, bien que l’on ait décrit des dispositifs dont le capteur C1 comporte quatre fois plus de pixels P1 que de pixels P1′, la personne du métier est capable de réaliser, à partir des indications de la présente description, des dispositifs dont le capteur C1 comporte une proportion quelconque de pixels P1′ par rapport aux pixels P1.

Claims (20)

  1. Dispositif d’acquisition d’une image 2D et d’une image de profondeur, comprenant :
    – un premier capteur (C1) formé dans et sur un premier substrat semiconducteur (100) comportant une face avant et une face arrière, le premier capteur (C1) comprenant une pluralité de pixels d’image 2D (P1, P1′), un empilement d’interconnexion (110) situé du côté de la face avant du premier substrat (100) et dans lequel sont formés des pistes et/ou bornes de connexion électrique (111), et des régions (50) en un matériau distinct de celui du substrat situées dans l’empilement d’interconnexion (110) à l’aplomb de pixels d’image 2D (P1′) ; et
    – accolé au premier capteur (C1) du côté de la face avant du premier substrat (100), un deuxième capteur (C2) formé dans et sur un deuxième substrat semiconducteur (130) et comprenant une pluralité de pixels de profondeur (P2) situés en regard des régions (50) du premier capteur (C1),
    dans lequel chaque région (50) comprend une première partie (50a) s’étendant dans l’empilement d’interconnexion (110) depuis une première face de l’empilement d’interconnexion (110) tournée vers le premier substrat (100) et une deuxième partie (50b) s’étendant, depuis une deuxième face de l’empilement d’interconnexion (110) opposée au premier substrat (100), jusqu’à la première partie (50a), la première partie (50a) présentant, en vue de dessus, une surface inférieure à celle de la deuxième partie (50b), le matériau des régions (50) présentant, sur une plage de longueurs d’onde de travail du deuxième capteur (C2), un indice optique supérieur ou égal à celui du matériau du substrat (100).
  2. Dispositif selon la revendication 1, dans lequel le matériau des régions (50) présente en outre un coefficient d’absorption inférieur ou égal à 10-3.
  3. Dispositif selon la revendication 1 ou 2, dans lequel le matériau des régions (50) présente un indice optique supérieur ou égal à 3,5.
  4. Dispositif selon l’une quelconque des revendications 1 à 3, dans lequel le matériau des régions (50) est le silicium amorphe.
  5. Dispositif selon l’une quelconque des revendications 1 à 4, dans lequel les pistes et/ou bornes de connexion électrique (111) pénètrent à l’intérieur de la première partie (50a) de chaque région (50).
  6. Dispositif selon l’une quelconque des revendications 1 à 5, dans lequel chaque région (50) est délimitée latéralement, sur toute sa périphérie et sur toute sa hauteur, par un matériau diélectrique présentant un indice de réfraction inférieur à celui du matériau de la région (50).
  7. Dispositif selon l’une quelconque des revendications 1 à 6, dans lequel la région (50) s’étend sur une épaisseur sensiblement égale à celle de l’empilement d’interconnexion (110) et affleure la face de l’empilement d’interconnexion (110) opposée au premier substrat semiconducteur (100).
  8. Dispositif selon l’une quelconque des revendications 1 à 7, dans lequel le premier capteur (C1) est un capteur d’image couleur, chaque pixel d’image 2D (P1, P1′) comprenant un filtre couleur (118) transmettant préférentiellement de la lumière rouge, verte ou bleue.
  9. Dispositif selon la revendication 8, dans lequel les régions (50) sont situées uniquement à l’aplomb des pixels d’image 2D (P1′) comprenant le filtre couleur (118) transmettant préférentiellement de la lumière bleue.
  10. Dispositif selon la revendication 8, dans lequel les régions (50) sont situées à l’aplomb de chaque pixel d’image 2D (P1, P1′) du capteur.
  11. Dispositif selon la revendication 8 ou 9, dans lequel les pixels (P1′) situés à l’aplomb des régions (50) sont regroupés par groupes de quatre pixels (P1′) adjacents.
  12. Dispositif selon la revendication 11, dans lequel, pour chaque groupe de quatre pixels (P1′) adjacents, la région (50) est commune aux quatre pixels (P1′).
  13. Dispositif selon l’une quelconque des revendications 1 à 12, comprenant en outre, entre chaque région (50) du premier capteur (C1) et le pixel de profondeur (P2) correspondant du deuxième capteur (C2), une alternance de couches diélectriques (128, 126a, 126b, 132) d’indices de réfraction distincts, formant un empilement antireflet pour des rayons lumineux traversant ladite région (50) en direction dudit pixel de profondeur (P2).
  14. Dispositif selon l’une quelconque des revendications 1 à 13, dans lequel le deuxième capteur (C2) comprend, du côté de la face arrière du deuxième substrat semiconducteur (130), un empilement d’interconnexion (140) dans lequel sont formées des pistes et/ou bornes de connexion électrique (141).
  15. Dispositif selon l’une quelconque des revendications 1 à 14, dans lequel chaque pixel de profondeur (P2) du deuxième capteur (C2) comprend une photodiode (133) de type SPAD.
  16. Dispositif selon l’une quelconque des revendications 1 à 15, dans lequel chaque pixel de profondeur (P2) du deuxième capteur (C2) comprend plusieurs zones mémoire couplées à une même zone de détection, et permet de mesurer un déphasage entre un signal lumineux modulé en amplitude, émis par une source lumineuse du dispositif, et un signal lumineux reçu par la zone de photodétection du pixel, après réflexion sur une scène dont on souhaite acquérir une image.
  17. Dispositif selon l’une quelconque des revendications 1 à 16, dans lequel les premier et deuxième substrats semiconducteurs (100, 130) sont en silicium monocristallin.
  18. Procédé de fabrication d’un dispositif d’acquisition d’une image 2D et d’une image de profondeur, le procédé comprenant les étapes successives suivantes :
    a) former, dans et sur un premier substrat semiconducteur (100), un premier capteur (C1) comportant une face avant et une face arrière, le premier capteur (C1) comprenant une pluralité de pixels d’image 2D (P1, P1′), un empilement d’interconnexion (110) situé du côté de la face avant du premier substrat (100) et dans lequel sont formés des pistes et/ou bornes de connexion électrique (111), et des régions (50) en un matériau distinct de celui du substrat situées dans l’empilement d’interconnexion (110) à l’aplomb de pixels d’image 2D (P1, P1′) ; et
    b) former, dans et sur un deuxième substrat semiconducteur (130), un deuxième capteur (C2) comprenant une pluralité de pixels de profondeur (P2) situés en regard des régions (50) du premier capteur (C1) ; et
    c) accoler le deuxième capteur (C2) au premier capteur (C1) du côté de la face avant du premier substrat (100),
    dans lequel chaque région (50) comprend une première partie (50a) s’étendant dans l’empilement d’interconnexion (110) depuis une première face de l’empilement d’interconnexion (110) tournée vers le premier substrat (100) et une deuxième partie (50b) s’étendant, depuis une deuxième face de l’empilement d’interconnexion (110) opposée au premier substrat (100), jusqu’à la première partie (50a), la première partie (50a) présentant, en vue de dessus, une surface inférieure à celle de la deuxième partie (50b), le matériau des régions (50) présentant, sur une plage de longueurs d’onde de travail du deuxième capteur (C2), un indice optique supérieur ou égal à celui du matériau du substrat (100).
  19. Procédé selon la revendication 18, comprenant les étapes successives suivantes :
    former une première partie de l’empilement d’interconnexion (110) ;
    former la première partie (50a) de la région (50) ;
    former une deuxième partie de l’empilement d’interconnexion (110) ; et
    former la deuxième partie (50b) de la région (50).
  20. Procédé selon la revendication 19, dans lequel les première et deuxième parties (50a, 50b) de la région (50) sont formées après réalisation complète de l’empilement d’interconnexion (110).
FR2210611A 2022-10-14 2022-10-14 Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène Pending FR3140990A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR2210611A FR3140990A1 (fr) 2022-10-14 2022-10-14 Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène
US18/485,181 US20240128297A1 (en) 2022-10-14 2023-10-11 Device for acquiring a 2d image and a depth image of a scene
CN202311335672.3A CN117896632A (zh) 2022-10-14 2023-10-16 用于采集场景的2d图像和深度图像的设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2210611 2022-10-14
FR2210611A FR3140990A1 (fr) 2022-10-14 2022-10-14 Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène

Publications (1)

Publication Number Publication Date
FR3140990A1 true FR3140990A1 (fr) 2024-04-19

Family

ID=85381089

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2210611A Pending FR3140990A1 (fr) 2022-10-14 2022-10-14 Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène

Country Status (3)

Country Link
US (1) US20240128297A1 (fr)
CN (1) CN117896632A (fr)
FR (1) FR3140990A1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190096932A1 (en) * 2017-09-22 2019-03-28 Qualcomm Incorporated Solid state image sensor with on-chip filter and extended spectral response
FR3108783A1 (fr) * 2020-03-24 2021-10-01 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif d'acquisition d'une image 2D et d'une image de profondeur d'une scène
US20220093656A1 (en) * 2020-09-21 2022-03-24 Commissariat à l'énergie atomique et aux énergies alternatives Image sensor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190096932A1 (en) * 2017-09-22 2019-03-28 Qualcomm Incorporated Solid state image sensor with on-chip filter and extended spectral response
FR3108783A1 (fr) * 2020-03-24 2021-10-01 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif d'acquisition d'une image 2D et d'une image de profondeur d'une scène
US20220093656A1 (en) * 2020-09-21 2022-03-24 Commissariat à l'énergie atomique et aux énergies alternatives Image sensor

Also Published As

Publication number Publication date
CN117896632A (zh) 2024-04-16
US20240128297A1 (en) 2024-04-18

Similar Documents

Publication Publication Date Title
EP3503192B1 (fr) Dispositif d'acquisition d'une image 2d et d'une image de profondeur d'une scène
US20210273120A1 (en) Photodetectors, preparation methods for photodetectors, photodetector arrays, and photodetection terminals
EP2320463A1 (fr) Procédé de formation d'un capteur d'images éclairé par la face arrière
EP2786412B1 (fr) Bloc detecteur optique
EP3836214A1 (fr) Capteur de lumiere
FR3082322A1 (fr) Capteurs d'images comprenant une matrice de filtres interferentiels
FR3108783A1 (fr) Dispositif d'acquisition d'une image 2D et d'une image de profondeur d'une scène
FR2908880A1 (fr) Dispositif de detection d'interferences monolithique integre
FR3091023A1 (fr) Capteur d'images
FR2945666A1 (fr) Capteur d'image.
FR3115175A1 (fr) Dispositif d'acquisition d'une image de profondeur d'une scene
FR3112426A1 (fr) Capteurs d'images comprenant une matrice de filtres interférentiels
FR3140990A1 (fr) Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène
FR3114438A1 (fr) Capteur d'images
CN113206115A (zh) 操作装置的方法、半导体结构以及影像感测器
WO2004057678A1 (fr) Dispositif de detection de lumiere a filtre integre
FR3102633A1 (fr) Capteur d'images
FR3087939A1 (fr) Capteur de lumiere
FR3026227A1 (fr) Dispositif d'acquisition d'images 3d
FR3111421A1 (fr) Capteur de cartes de profondeur
FR3112425A1 (fr) Capteurs d'images comprenant une matrice de filtres interférentiels
EP4296650A1 (fr) Systeme de mesure d'un degre de polarisation lineaire estime d'un rayonnement electromagnetique reflechi par une scene
WO2022194594A1 (fr) Motif des couleurs et des pixels de temps de vol pour un capteur d'images
FR3138847A1 (fr) Capteur d’images polarimétrique
WO2022268625A1 (fr) Dispositif pour l'acquisition d'une carte de profondeur d'une scene

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20240419