FR3111421A1 - Capteur de cartes de profondeur - Google Patents

Capteur de cartes de profondeur Download PDF

Info

Publication number
FR3111421A1
FR3111421A1 FR2006108A FR2006108A FR3111421A1 FR 3111421 A1 FR3111421 A1 FR 3111421A1 FR 2006108 A FR2006108 A FR 2006108A FR 2006108 A FR2006108 A FR 2006108A FR 3111421 A1 FR3111421 A1 FR 3111421A1
Authority
FR
France
Prior art keywords
lenses
pixels
interference filter
detector
optical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR2006108A
Other languages
English (en)
Other versions
FR3111421B1 (fr
Inventor
François Deneuville
Jérôme Vaillant
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Original Assignee
Commissariat a lEnergie Atomique CEA
Commissariat a lEnergie Atomique et aux Energies Alternatives CEA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Commissariat a lEnergie Atomique CEA, Commissariat a lEnergie Atomique et aux Energies Alternatives CEA filed Critical Commissariat a lEnergie Atomique CEA
Priority to FR2006108A priority Critical patent/FR3111421B1/fr
Publication of FR3111421A1 publication Critical patent/FR3111421A1/fr
Application granted granted Critical
Publication of FR3111421B1 publication Critical patent/FR3111421B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Photometry And Measurement Of Optical Pulse Characteristics (AREA)

Abstract

Capteur de cartes de profondeur La présente description concerne un détecteur optique monolithique, comprenant des pixels (132), un filtre interférentiel (260) passe-bande infrarouge recouvrant les pixels, et des lentilles (250) situées entre les pixels et le filtre interférentiel. Figure pour l'abrégé : Fig. 2

Description

Capteur de cartes de profondeur
La présente description concerne de façon générale les dispositifs électroniques, et plus particulièrement les capteurs de cartes de profondeur.
De façon classique, un capteur de cartes de profondeur peut fonctionner, par exemple, par lumière modulée, par lumière structurée, ou encore par mesure de temps de vol. Un capteur de cartes de profondeur comprend un générateur ou source de rayonnement optique et un détecteur optique comprenant plusieurs pixels.
Pour acquérir une carte de profondeur d'une scène, le capteur est placé en vis-à-vis de la scène. Le rayonnement optique est émis par le générateur en direction de la scène et réfléchi par des éléments de la scène. Chaque pixel du détecteur reçoit le rayonnement en provenance d'un élément de la scène situé dans une direction par rapport au capteur. De ce rayonnement optique réfléchi, le capteur déduit, pour chaque pixel, une distance, ou profondeur, entre le capteur et l'élément de scène ayant réfléchi l'impulsion reçue par le pixel. Les profondeurs associées à chacun des pixels constituent la carte de profondeur.
Dans un capteur de cartes de profondeur par lumière modulée, le rayonnement optique est modulé en intensité. Les modulations du rayonnement optique sont typiquement sinusoïdales. Pour chaque pixel, la distance entre le capteur et l'élément de scène concerné est déduit d'une détection, synchronisée à la fréquence des modulations, du rayonnement optique réfléchi.
Dans un capteur de cartes de profondeur par lumière structurée, le rayonnement optique est structuré, c’est-à-dire qu'un ou plusieurs motifs lumineux, tels que des bandes, sont projetés sur la scène. Une image des motifs lumineux réfléchis est acquise par le détecteur, de préférence simultanément pour tous les pixels par une technique de type dite d'obturateur global ("global shutter" en anglais). Les distances entre le capteur et les éléments de la scène sont déduites des déformations apparentes des motifs reçus par le détecteur.
Dans un capteur de cartes de profondeur par temps de vol ou capteur ToF (de l'anglais "Time of Flight"), le rayonnement optique est constitué d'impulsions optiques. Pour chaque pixel, la distance entre le capteur et l'élément de scène concerné est déduit de la durée (c’est-à-dire le temps de vol) entre l'émission de l'impulsion et la réception par le pixel de l'impulsion réfléchie.
Il existe un besoin d'améliorer les capteurs de cartes de profondeur, en particulier d'augmenter la précision et la résolution des cartes de profondeur.
Il existe un besoin d'améliorer, par rapport à des détecteurs optiques connus utilisés dans des capteurs de cartes de profondeur, la distinction entre les rayonnements optiques en provenance du générateur optique qui sont réfléchis par un élément d'une scène et d'autres rayonnements optiques réfléchis et/ou émis par l'élément de la scène.
Il existe un besoin de réduire, par rapport à des détecteurs optiques connus, la détection parasite par chaque pixel de rayonnements optiques réfléchis en direction des pixels voisins.
Il existe un besoin d'améliorer les procédés de fabrication de capteurs, en particulier, de faciliter cette fabrication.
Un mode de réalisation pallie tout ou partie des inconvénients des capteurs de cartes de profondeur connus.
Un mode de réalisation pallie tout ou partie des inconvénients des détecteurs optiques connus.
Un mode de réalisation pallie tout ou partie des inconvénients des procédés de fabrication de détecteurs optiques connus.
Un mode de réalisation améliore, par rapport à des détecteurs optiques connus utilisés dans des capteurs de cartes de profondeur, la distinction entre les rayonnements optiques en provenance du générateur optique qui sont réfléchis par un élément d'une scène et d'autres rayonnements optiques réfléchis et/ou émis par l'élément de la scène.
Un mode de réalisation réduit, par rapport à des détecteurs optiques connus, la détection parasite par chaque pixel de rayonnements optiques réfléchis en direction des pixels voisins.
Un mode de réalisation facilite, par rapport à des capteurs de cartes de profondeur connus, l'alignement d'éléments optiques avec des pixels.
Un mode de réalisation prévoit un détecteur optique monolithique, comprenant des pixels, un filtre interférentiel passe-bande infrarouge recouvrant les pixels, et des lentilles situées entre les pixels et le filtre interférentiel.
Selon un mode de réalisation, une couche transparente, située entre les lentilles et le filtre interférentiel, est en contact adhérent avec les lentilles et le filtre interférentiel et a un indice de réfraction inférieur à celui des lentilles.
Selon un mode de réalisation, le détecteur est de type rétroéclairé et/ou les pixels sont de type SPAD ou à verrouillage ou à obturateur global.
Selon un mode de réalisation, au moins une couche du filtre interférentiel présente au moins une variation en fonction d'une distance à l'un des pixels, parmi :
- une variation d'épaisseur ;
- une variation de composition ; et
- une variation d'une densité d'ouvertures entre des motifs répétés constituant ladite couche du filtre interférentiel.
Selon un mode de réalisation, le détecteur présente, entre l'alignement vertical des pixels et les lentilles associées respectivement aux pixels, un décalage variant en fonction d'une distance à l'un des pixels.
Selon un mode de réalisation, les lentilles sont en silicium.
Selon un mode de réalisation, le détecteur comprend, entre les pixels et les lentilles, une couche anti-reflet.
Selon un mode de réalisation, les lentilles et des régions photosensibles des pixels sont des parties d'un même substrat semiconducteur.
Selon un mode de réalisation, les lentilles qui, parmi lesdites lentilles, sont voisines, sont séparées par des espaces.
Selon un mode de réalisation, des lentilles supplémentaires recouvrent une face du filtre interférentiel tournée du côté opposé aux pixels.
Selon un mode de réalisation :
- les pixels sont disposés régulièrement selon un pas inférieur à 5 µm, de préférence inférieur à 3 µm ; et/ou
- le filtre interférentiel a une épaisseur supérieure à 1,2 µm, de préférence supérieure à 2 µm ; et/ou
- le filtre interférentiel a une bande passante de largeur à mi-hauteur inférieure à 30 nm ; et/ou
- le filtre interférentiel a une longueur d'ondes centrale proche de 940 nm.
Un mode de réalisation prévoit un capteur par temps de vol de cartes de profondeur, comprenant un détecteur tel que défini ci-dessus.
Selon un mode de réalisation, le détecteur comprend une source de rayonnements optiques infrarouges et/ou un élément optique de focalisation sur le détecteur.
Procédé de fabrication d'un détecteur tel que défini ci-dessus.
Selon un mode de réalisation, le procédé comprend la formation d'une couche de planarisation entre et sur les lentilles.
Ces caractéristiques et avantages, ainsi que d'autres, seront exposés en détail dans la description suivante de modes de réalisation particuliers faite à titre non limitatif en relation avec les figures jointes parmi lesquelles :
la figure 1 représente, de manière schématique, un exemple de capteur de cartes de profondeur, d'un type compatible avec les modes de réalisation décrits, situé en vis-à-vis d'un élément d'une scène ;
la figure 2 représente une vue en coupe schématique et partielle d'un exemple d'un mode de réalisation d'un détecteur optique ;
la figure 3 représente une vue en coupe interrompue, schématique et partielle, d'un exemple d'un autre mode de réalisation d'un détecteur optique ;
la figure 4 représente une vue en coupe schématique et partielle d'un exemple d'encore un autre mode de réalisation d'un détecteur optique ; et
la figure 5 représente une vue en coupe schématique et partielle d'un exemple d'encore un autre mode de réalisation d'un détecteur optique.
De mêmes éléments ont été désignés par de mêmes références dans les différentes figures. En particulier, les éléments structurels et/ou fonctionnels communs aux différents modes de réalisation peuvent présenter les mêmes références et peuvent disposer de propriétés structurelles, dimensionnelles et matérielles identiques.
Par souci de clarté, seuls les étapes et éléments utiles à la compréhension des modes de réalisation décrits ont été représentés et sont détaillés. En particulier, des éléments de détecteur optique, tels que des filtres interférentiels, des pixels et couches d'interconnexion, ne sont pas décrits en détails, les modes de réalisation étant compatibles avec de tels éléments usuels.
Sauf précision contraire, lorsque l'on fait référence à deux éléments connectés entre eux, cela signifie directement connectés sans éléments intermédiaires autres que des conducteurs, et lorsque l'on fait référence à deux éléments reliés (en anglais "coupled") entre eux, cela signifie que ces deux éléments peuvent être connectés ou être reliés par l'intermédiaire d'un ou plusieurs autres éléments.
Dans la description qui suit, lorsque l'on fait référence à des qualificatifs de position absolue, tels que les termes "avant", "arrière", "haut", "bas", "gauche", "droite", etc., ou relative, tels que les termes "dessus", "dessous", "supérieur", "inférieur", etc., ou à des qualificatifs d'orientation, tels que les termes "horizontal", "vertical", etc., il est fait référence sauf précision contraire à l'orientation des figures.
Sauf précision contraire, les expressions "environ", "approximativement", "sensiblement", et "de l'ordre de" signifient à 10 % près, de préférence à 5 % près.
La figure 1 représente, de manière schématique, un exemple de capteur 100 de cartes de profondeur, d'un type compatible avec les modes de réalisation décrits, situé en vis-à-vis d'un élément 110 d'une scène.
Le capteur 100 peut comprendre un boîtier 102. Le capteur 100 comprend un générateur de rayonnements optiques 120 (SOURCE) et un détecteur optique 130. Le générateur de rayonnements optiques 120 et le détecteur optique 130 peuvent être situés dans le boîtier 102.
Le générateur de rayonnements optiques 120 est configuré pour émettre des rayonnements optiques, par exemple modulés en intensité et/ou structurés et/ou par impulsions, dans des directions 122 où les éléments de la scène sont situés par rapport au générateur de rayonnements optique 120. Les rayonnements optiques émis par le générateur 120 sont constitués de rayonnements infrarouges, et constituent donc des rayonnements infrarouges.
Pour chaque élément de la scène, une partie 124 des rayonnements infrarouges émis par le générateur 120 est réfléchie en direction du détecteur optique 130.
Le détecteur optique 130 comprend des pixels 132. Le détecteur 130 est ici représenté en vue en coupe, et les pixels 132 sont typiquement disposés en matrice, le plan de coupe passant par une colonne ou par une rangée de la matrice.
Les pixels 132 sont compris dans un substrat 134, constitué typiquement par une portion d'une tranche (en anglais "wafer") semiconductrice. Le substrat 134 est préférentiellement en silicium. Les pixels 132 peuvent être répétés dans deux directions orthogonales entre elles et parallèles aux faces principales (faces supérieure et inférieure dans l'orientation de la figure) du substrat 134, de manière à former une matrice.
Les pixels 132 peuvent être de type dit à diode à avalanche à photon unique SPAD (en anglais "Single Photon Avalanche Diode"), c’est-à-dire comprenant une diode polarisée en inverse dans laquelle un porteur de charge généré par un seul photon peut déclencher un courant d'avalanche. Ce type de pixel permet une sensibilité de détection plus élevée que d'autres types de pixels. Les modes de réalisation sont compatibles avec les types usuels de pixels de type SPAD.
Les pixels 132 peuvent également être de type dit à verrouillage (en anglais "lock-in"), c’est-à-dire configurés pour démoduler l'intensité réfléchie de rayonnements optiques modulés émis par le générateur 120, et à détecter un écart de phase entre le rayonnement réfléchi et le rayonnement émis. Les modes de réalisation sont compatibles avec les types usuels de pixels de type à verrouillage.
Le capteur 100 peut comprendre un élément optique 140 de focalisation, sur le détecteur optique 130, des rayonnements optiques émis par le générateur 120 et réfléchis par des éléments de scène. L'élément optique 140 est situé entre la scène et le détecteur optique 130. L'élément optique 140 peut comprendre, ou être constitué par, une lentille 142.
L'élément optique 140 est positionné de sorte que chaque pixel 132 est le point de focalisation des rayonnements optiques arrivant sur l'élément optique 140 selon une direction. Cette direction dépend du pixel 132.
La partie de rayonnement optique réfléchie par l'élément de scène 110 est focalisée selon un cône 146 vers un pixel 132A (situé sur un axe optique 144 de l'élément optique dans l'exemple représenté). Le pixel 132A est situé au sommet du cône 146, et les génératrices du cône s'appuient sur la périphérie de la pupille de sortie de l'élément optique 140.
Pour les pixels 132 situés en dehors de l'axe optique 144, les rayonnements optiques réfléchis et focalisés parviennent aux pixels 132 selon des rayons principaux 148 ayant des directions inclinées par rapport à celle de l'axe optique 144. Les rayons principaux 148 sont ici définis par des rayons sortant de l'élément optique 140 après être passés par un centre optique de l'élément optique 140. Bien que, dans l'exemple représenté, l'élément optique 140 soit une lentille, la personne du métier est en mesure d'adapter cet exemple à n'importe quel élément optique tel qu'un objectif pouvant comprendre plusieurs lentilles.
La figure 2 représente une vue en coupe schématique et partielle d'un exemple d'un mode de réalisation d'un détecteur optique 230.
Le détecteur optique 230 peut remplacer le détecteur optique 130 d'un capteur du type de celui de la figure 1. Le détecteur optique 230 comprend des pixels 132 du type de ceux du détecteur optique 130 de la figure 1. Ainsi, les pixels 132 sont situés dans un substrat 134, de préférence en silicium, et sont, de préférence, de type SPAD et/ou de type à verrouillage et/ou disposés en matrice et/ou à obturation globale.
Chaque pixel 132 comprend une région photosensible 136. Par photosensible, on entend que la région 136 est susceptible de générer des porteurs de charge lorsqu'elle reçoit un ou des photons. Les régions photosensibles 136 sont typiquement constituées par des régions respectives du substrat 134. Chaque région photosensible 136 peut comprendre des zones dopées définissant une photodiode. Les régions photosensibles 136 des pixels 132 peuvent être de tout type usuel de région photosensible de pixels de détecteur optique. Le pixel 132A peut être situé dans une partie centrale de la matrice de pixels, par exemple au centre ou sensiblement au centre de la matrice de pixels.
Les pixels 132 peuvent en outre comprendre, entre les régions photosensibles 136 des pixels 132 voisins, des zones 138 de stockage des porteurs de charge photo-générés, ou zones mémoire. Les zones mémoire 138 peuvent être de tout type usuel de zone mémoire de pixel de détecteur optique. Les pixels 132 peuvent également comprendre, en complément ou en remplacement des zones mémoire 138, des zones prévues pour des composants électroniques associés aux pixels. Ces composants peuvent être de tout type de composant associé à un pixel de détecteur optique, comme par exemple des transistors.
De préférence, le détecteur optique 230 est de type rétroéclairé BSI (en anglais "Back-Side-Illumination"), c’est-à-dire que :
- le détecteur 230 comprend des circuits électroniques 240 situés dans et sur le substrat 134 du côté d'une face, dite face avant, du substrat 134 (face inférieure dans l'orientation des figures) ; et
- le détecteur 230 est prévu pour que les rayonnements optiques qui parviennent aux régions photosensibles 136 proviennent du côté d'une face arrière du substrat 134 située du côté opposé à la face avant (face supérieure dans l'orientation des figures).
Plus précisément, les circuits électroniques 240 comprennent des éléments usuels non représentés tels que :
- des composants, par exemple des transistors, formés dans et sur le substrat 134 du côté de la face avant ;
- des couches électriquement isolantes, par exemple en oxyde et/ou nitrure de silicium, recouvrant la face avant ; et
- des interconnexions électriquement conductrices, par exemple métalliques, reliant les composants entre eux et à des bornes de connexion à des circuits (non représentés) extérieurs au détecteur 230.
En variante, le détecteur optique 230 peut être de type FSI (en anglais "Front-Side-Illumination"), autrement dit éclairé du côté de la face avant, c’est-à-dire que le détecteur 230 est prévu pour que les rayonnements optiques qui parviennent aux régions photosensibles 136 proviennent du côté de la face avant et passent entre les éléments du circuit.
Le détecteur optique 230 comprend des lentilles 250. Les lentilles 250 sont situées sur les pixels 132 du côté d'arrivée des rayonnements optiques. Ainsi, les lentilles 250 sont préférentiellement situées du côté de la face arrière du substrat 134. Plus précisément, chaque pixel 132 est recouvert d'une lentille 250. Les lentilles 250 se distinguent donc de la lentille 142 (figure 1) par le fait que la lentille 142 concerne l'ensemble des pixels 132. Contrairement à la lentille d'ensemble 142, chaque lentille 250 concerne l'un des pixels 132. Les lentilles 250 ont, de préférence, des dimensions dans des directions parallèles aux faces du substrat 134 (latérales dans l'orientation des figures) égales, ou inférieures à, celles des pixels 132.
Les lentilles 250 ont de préférence des formes identiques, à des tolérances de fabrication près. Les lentilles 250 présentent chacune préférentiellement une face plane du côté du pixel 132 concerné et une face bombée, c’est-à-dire présentant une courbure convexe, tournée vers le côté d'arrivée des rayonnements optiques.
Chaque lentille 250 a pour fonction de collecter la partie des rayonnements optiques qui est réfléchie en direction du pixel 132 concerné, et de focaliser cette partie des rayonnements vers la région photosensible 136 du pixel 132 concerné. L'exemple des lentilles 250 décrites ici n'est pas limitatif, et on peut utiliser tout lentille convergente apte à focaliser cette partie des rayonnements optiques vers la région photosensible 136 du pixel 132. Pour cela, les lentilles 250 ont une distance focale courte, c’est-à-dire de l'ordre de la largeur du pixel 132. Le foyer de chaque lentille 250 peut être situé dans la région photosensible 136 sensiblement à l'interface entre la lentille 250 et la région photosensible 136. Ceci permet d'éviter qu'une partie du rayonnement atteigne les zones mémoire 138 ou des composants du pixel. A titre d'exemple, la distance focale des lentilles 250 est comprise entre 1 µm et 5 µm.
Selon le présent mode de réalisation, les lentilles 250 voisines sont jointives, c’est-à-dire en contact par leurs bords. Ceci permet de réduire ou d'éviter une partie des rayonnements optiques réfléchis qui, avec des lentilles non jointives, ne seraient pas focalisées vers le pixel 132 concerné, et risquerait ainsi de perturber le fonctionnement du détecteur.
Le détecteur optique 230 comprend un filtre interférentiel 260 recouvrant, du côté où les lentilles 250 sont situées, l'ensemble formé par les pixels 132 et les lentilles 250. Autrement dit, les lentilles 250 sont situées entre les pixels 132 et le filtre interférentiel 260.
Un filtre interférentiel consiste en un empilement de plusieurs couches 262 d'indices optiques différents. De préférence, les couches 262 du filtre interférentiel 260 sont parallèles aux faces principales (avant et arrière) du substrat 134. A titre d'exemple, le filtre interférentiel 260 comprend, de préférence consiste en, une alternance de premières et de deuxièmes couches, les premières couches étant en un même matériau, et les deuxièmes couches étant en un même matériau. De préférence, le filtre interférentiel 260 comprend au moins deux, par exemple au moins trois, premières couches et au moins deux, par exemple au moins trois, deuxièmes couches. A titre d'exemple, les premières couches sont diélectriques, et les deuxièmes couches sont diélectriques et/ou sont des couches métalliques suffisamment fines pour être au moins partiellement transparentes aux longueurs d'ondes des rayonnements optiques émis par le générateur 120 (figure 1).
Le filtre interférentiel 260 est de type passe-bande infrarouge. Plus précisément, au moins une partie des longueurs d'ondes des rayonnements optiques émis par le générateur 120 (figure 1) est située dans une bande passante, ou bande de transmission du filtre interférentiel 260. De préférence, les longueurs d'ondes de la bande de transmission sont comprises entre 800 nm et 1500 nm. Plus préférentiellement, le filtre interférentiel 260 présente, dans la bande de transmission, un pic de transmission atteignant un maximum pour une longueur d'ondes, dite longueur d'ondes centrale, proche de 940 nm, par exemple égale à 940 nm. En dehors de la bande de transmission, la transmission peut être nulle ou sensiblement nulle.
Les caractéristiques du filtre interférentiel 260 telles que les nombre, épaisseurs et matériaux des couches 262 peuvent être choisies de toute manière usuelle de choisir ces caractéristiques pour obtenir un filtre interférentiel passe-bande ayant une longueur d'onde centrale donnée.
Le détecteur optique 230 est monolithique. Ceci signifie que les lentilles 250 et le filtre interférentiel 260 sont mécaniquement solidaires de la face du substrat 134 sur laquelle ils sont situés (de préférence, la face arrière). Autrement dit, une liaison mécanique entre cette face, les lentilles 250, et le filtre interférentiel 260 est répartie sur cette face et empêche de bouger les lentilles 250 et le filtre interférentiel 260 par rapport au substrat 134.
Le fait que le détecteur 230 soit monolithique simplifie la fabrication d'un capteur comprenant le détecteur 230. En particulier, ceci permet d'éviter de prévoir des éléments mécaniques de mise en place et de maintien du filtre interférentiel 260 et/ou des lentilles 250.
On peut prévoir de fabriquer plusieurs détecteurs identiques ou similaires dans et sur une même tranche ou plaquette semiconductrice. Les filtres interférentiels des détecteurs sont alors, de préférence, réalisés simultanément. Ceci permet d'utiliser les procédés et les matériaux usuels de fabrication de type métal-oxyde-semiconducteur complémentaire CMOS (en anglais "Complementary Metal-Oxide-Semiconductor"), ainsi que les techniques de dépôt et de gravure usuels en microélectronique.
On prévoit, de préférence, une couche transparente 270 en contact adhérent avec les lentilles 250 et avec le filtre interférentiel 260, située entre les lentilles 250 et le filtre interférentiel 260. Par couche transparente, on entend ici que, pour les longueurs d'ondes des rayonnements optiques concernés, la majorité, de préférence plus de 90 %, plus préférentiellement plus de 95 % d'un rayonnement optique entrant orthogonalement par l'une des faces de la couche atteint l'autre face de la couche après avoir traversé la couche. A titre d'exemple, la couche transparente 270 est en oxyde de silicium. La couche transparente 270 permet d'obtenir, entre les lentilles 250 et le filtre interférentiel 260, la liaison mécanique qui donne son caractère monolithique au détecteur 230. Un avantage de l'oxyde de silicium est qu'il reste stable pendant la fabrication du filtre, lorsque la température est de l'ordre de 350 C à 400 C.
De préférence, le contact adhérent de la couche transparente 270 avec le filtre interférentiel 260 est un contact entre une face plane supérieure de la couche transparente 270 et une face plane inférieure du filtre interférentiel 260. La couche transparente 270 constitue alors une couche de planarisation entre et sur les lentilles 250. Par couche de planarisation, on entend que, à une étape d'un procédé de fabrication, cette couche est déposée pour épouser les formes d'une surface qu'elle recouvre, et pour présenter, du côté opposé à cette surface, une face plane. Le fait de prévoir la couche de planarisation 270 permet, à la fois, d'obtenir que le détecteur 230 est monolithique, et de faciliter la formation du filtre interférentiel 260 à une étape suivante de la fabrication du détecteur 230. On peut alors former la couche transparente 270 par tout procédé usuel de formation d'une couche de planarisation.
En variante, on peut remplacer la couche transparente 270 par toute structure adaptée à former, entre les lentilles 250 et le filtre interférentiel 260, une liaison mécanique répartie sur la surface du détecteur 230.
De préférence, la couche transparente 270 est en un matériau ayant un indice optique, ou indice de réfraction, inférieur à celui du matériau des lentilles 250. Ceci permet, lorsque les lentilles 250 ont des faces bombées tournées du côté de provenance des rayonnements optiques réfléchis par la scène, que les lentilles 250 soient convergentes. De préférence, la différence entre les indices de réfraction des lentilles 250 et de la couche transparente 270 est supérieure à 1, plus préférentiellement supérieur à 1,5. A titre d'exemple, l'indice optique du matériau de la couche transparente 270 est de l'ordre de 1,6.
Ceci n'est pas limitatif, et, en variante, les lentilles 250 peuvent avoir un indice de réfraction inférieur à celui de la couche transparente 270 et une face concave tournée du côté de provenance des rayonnements optiques réfléchis par la scène.
On aurait pu penser prévoir un détecteur optique dépourvu de lentilles entre un filtre interférentiel et des pixels recouverts par le filtre, et dans lequel des lentilles sont situées sur le filtre interférentiel. Par rapport à un tel détecteur, le détecteur optique 230 réduit la détection parasite par chaque pixel de rayonnements optiques réfléchis par la scène en direction des pixels voisins. Ceci résulte du fait que les lentilles 250 sont plus rapprochées des pixels. On limite donc la distance entre chaque lentille 250 et la partie photosensible du pixel concerné, ce qui réduit les détections parasites liées :
- à l'ouverture d'un élément optique tel que l'élément optique 140 (figure 1), qui risquerait, dans le détecteur ayant ses lentilles situées sur le filtre interférentiel, d'être trop grande pour contraindre les rayonnements optiques à rester entre chaque lentille et la partie photosensible du pixel concerné ; et
- à la diffraction par chaque lentille 250.
Plus les pixels 132 sont rapprochés entre eux, plus ces détections parasites sont importantes. Le fait de prévoir que les lentilles 250 soient situées entre les pixels 132 et le filtre interférentiel 260 permet, à titre d'exemple, que les pixels 132 soient disposés selon un pas inférieur à 5 µm, de préférence inférieur à 3 µm. Ce pas peut être identique dans les rangées et les colonnes d'une matrice de pixels 132. Le détecteur peut ainsi être particulièrement compact et/ou avoir une définition, c’est-à-dire un nombre de pixels, particulièrement élevée.
Par rapport à un détecteur optique dans lequel des lentilles sont situées sur un filtre interférentiel 260 et non entre le filtre et des pixels, le fait de prévoir que les lentilles 250 soient situées entre les pixels 132 et le filtre interférentiel 260 permet en outre de réduire la largeur de la bande de transmission du filtre interférentiel 260. Ceci présente l'avantage d'augmenter la sélectivité du filtre interférentiel 260. A titre d'exemple, la bande passante, ou bande de transmission du filtre interférentiel 260, a une largeur à mi-hauteur inférieure à 30 nm, par exemple de comprise entre 10 nm et 20 nm.
Cet avantage de permettre d'augmenter la sélectivité du filtre interférentiel résulte du fait que l'épaisseur du filtre 260 peut être augmentée, et donc le nombre de couches 262 du filtre 260 peut être augmenté, sans augmenter les détections parasites entre pixels voisins. Le filtre interférentiel 260 a, de préférence, une épaisseur supérieure à 1,2 µm, plus préférentiellement supérieure à 2 µm, encore plus préférentiellement supérieure à 5 µm.
Cet avantage de permettre d'augmenter la sélectivité du filtre interférentiel résulte également du fait que les écarts entre les angles des rayons infrarouges situés dans le cône 146 autour du rayon principal 148 sont plus faibles dans un filtre interférentiel lorsque les rayons infrarouges arrivent dans le filtre interférentiel avant d'avoir traversé une lentille que lorsque les rayons infrarouges arrivent dans le filtre interférentiel après avoir traversé la lentille. Les longueurs d'ondes transmises dépendent des angles des rayons infrarouges dans le filtre interférentiel (les déviations dans les couches 262 du filtre 260 ne sont pas représentées). Ainsi, les rayons infrarouges les plus inclinés par rapport au rayon principal 148 contribuent à élargir la bande des longueurs d'ondes transmises par le filtre interférentiel 260. Le fait de réduire les écarts entre les angles des rayons infrarouges permet donc de réduire la largeur de la bande passante du filtre interférentiel.
En pratique, lorsqu'un capteur acquiert une carte de profondeur d'une scène, les objets ou éléments de la scène émettent et/ou réfléchissent, d'autres rayonnements optiques que ceux émis par le générateur. L'augmentation de sélectivité du filtre interférentiel réduit le risque de confusion entre les rayonnements en provenance du générateur réfléchis par la scène et ces autres rayonnements optiques.
Le fait de prévoir que les lentilles 250 soient situées entre les pixels 132 et le filtre interférentiel 260 permet donc à la fois de réduire les détections parasites entre pixels voisins et d'augmenter la sélectivité du filtre interférentiel. Il en résulte que la précision et la résolution des capteurs de cartes de profondeur comprenant le détecteur 230 sont augmentées.
De préférence, les lentilles 250 sont en silicium. Le silicium peut être cristallin, polycristallin ou amorphe. Selon le présent mode de réalisation, chaque lentille 250 est en contact avec la région photosensible 136 du pixel 132 concerné. De préférence, les lentilles 250 sont des parties du substrat 134. Autrement dit, les lentilles 250 et régions photosensibles 136 des pixels 132 sont des parties du même substrat semiconducteur. En d'autres mots, pour chaque pixel, la lentille 250 associée et la région photosensible 136 forment une seule région semiconductrice.
Selon un avantage, le silicium a un indice de réfraction de l'ordre de 3,6. Ceci permet, par rapport à des lentilles en des matériaux à plus faible indice de réfraction, d'obtenir facilement entre les lentilles 250 et la couche transparente 270 un écart d'indice suffisant avec le matériau de la couche transparente 270. Ceci permet en outre de faciliter une réduction de la distance focale des lentilles 250. Il en résulte une réduction supplémentaire des détections parasites entre pixels voisins.
La courbure de la partie bombée des lentilles 250 peut être prévue pour éviter aux rayonnements optiques de pénétrer dans des composants dont le fonctionnement pourrait être perturbé par les rayonnements infrarouges, tels que les zones mémoire 138. Ceci est obtenu plus facilement lorsque les lentilles 250 sont en silicium, que dans des variantes où les lentilles 250 sont en un matériau à indice de réfraction plus faible que celui du silicium.
Selon un autre avantage, le silicium permet, par rapport à d'autres matériaux, de réaliser le filtre interférentiel 260 en des matériaux à budget thermique plus élevé, ce qui simplifie la réalisation du filtre interférentiel et permet, par les choix des matériaux rendus possibles pour les couches 262 du filtre interférentiel 260, d'augmenter encore la sélectivité du filtre interférentiel. A titre d'exemple, les couches 262 du filtre interférentiel 260 peuvent être alternativement en silicium, par exemple amorphe, et en oxyde de silicium.
Bien que les lentilles 250 soient en silicium dans l'exemple décrit ci-dessus, ceci n'est pas limitatif, et les lentilles 250 peuvent être en tout matériau transparent d'indice de réfraction différent de celui du matériau de la couche transparente 270, par exemple en nitrure de silicium.
La figure 3 représente une vue en coupe interrompue, schématique et partielle, d'un exemple d'un autre mode de réalisation d'un détecteur optique 330.
Le détecteur 330 comprend des éléments identiques ou similaires à ceux du détecteur 230 de la figure 2, agencés de manière identique ou similaire. Ces éléments ne sont pas décrits ici à nouveau en détail. Seules les différences sont mises en exergue.
Dans le détecteur 330 de la figure 3, le filtre interférentiel 260 comprend des couches 262 identiques ou similaires aux couches 262 du détecteur 230 de la figure 2. Une ou plusieurs des couches 262 du filtre interférentiel 260 sont remplacées par des couches 262A, 262B présentent chacune au moins une variation parmi :
- une variation d'épaisseur ;
- une variation de composition ; et
- une variation d'une densité d'ouvertures 363 entre des motifs répétés 364 constituant la couche, ou facteur de remplissage de la couche.
De telles variations de densité d'ouvertures dans une couche d'un filtre sont décrites dans la demande de brevet FR2960654.
En particulier, le fait que les lentilles soient situées entre le filtre interférentiel et les pixels permet des variations d'épaisseur des couches 262A, 262B sans prévoir de variation de distance focale des lentilles.
Plus précisément, cette ou ces variations sont en fonction de la valeur d'angle α d'inclinaison qu'ont les rayons principaux 148 (figure 1), par exemple des rayons principaux 148A et 148B, lorsque le détecteur 330 est en place dans un capteur tel que celui de la figure 1. Plus précisément, l'angle d'inclinaison α est l'angle entre une direction orthogonale au filtre interférentiel 260 (verticale dans l'orientation des figures) et le rayon principal 148 avant l'entrée de celui-ci dans le détecteur 330.
A titre d'exemple, on a représenté une partie 330A du détecteur 330 comprenant le pixel 132A situé sur l'axe optique de l'élément optique 140 (figure 1). Autrement dit, le rayon principal 148A associé au pixel 132A est orthogonal au plan du substrat 134 (c’est-à-dire aux faces principales du substrat 134). On a également représenté une partie 330B du détecteur 330, comprenant un pixel 132B. Le rayon principal 148B associé au pixel 132B est incliné. Les déviations du rayon principal 148B après son entrée dans le détecteur 330 ne sont pas représentées.
Dans l'exemple représenté, des couches 262A présentent des ouvertures 363 entre des motifs 364 répétés. Les ouvertures 363 peuvent, par exemple, être remplies d'un même matériau que celui de l'une des couches 262 située contre la couche 262A considérée. Les ouvertures 363 traversent la couche 262A considérée, et les motifs 364 occupent toute l'épaisseur de la couche 262A considérée. A titre d'exemple, les motifs 364 ou les ouvertures 363 ont des formes cylindriques ou parallélépipèdiques.
Dans les couches 262A, les motifs 364 et/ou les ouvertures 363 sont, de préférence, répétés selon un réseau régulier dans un plan parallèle aux faces principales du substrat 134. Les dimensions des ouvertures 363 et/ou des motifs 364, et/ou la présence/l'absence des ouvertures 363 ou des motifs 364, varient en fonction de l'angle α d'inclinaison du rayon principal 148A, 148B.
De préférence, le réseau de répétition des ouvertures 363 a un pas inférieur à la longueur d'onde des rayonnements optiques émis par le générateur 120 (figure 1), de préférence à environ 0,5 fois cette longueur d'ondes , plus préférentiellement, inférieur à 0,25 fois cette longueur d'ondes. La couche 262A présente alors un indice de réfraction moyen, ou indice de réfraction effectif, situé entre l'indice de réfraction du matériau remplissant les ouvertures 363 et celui du matériau des motifs 364. Cet indice de réfraction effectif varie en fonction de la densité d'ouvertures.
Ainsi, les couches 262A présentent des variations d'indice de réfraction effectif en fonction de l'angle d'inclinaison du rayon principal 148A, 148B. Dans chaque couche 262A, la variation d'indice peut également être obtenue par une variation de composition en remplacement ou en complément de la variation de densité d'ouvertures.
Dans l'exemple représenté, les couches 262A ne présentent pas d'ouverture au-dessus du pixel 132A situé sur l'axe optique 144, et présentent des ouvertures 363 au-dessus du pixel 132B pour lequel le rayon principal 148B est incliné. Dans d'autres exemples, l'une ou l'autre des couches 262A présente des ouvertures 363 au-dessus du pixel 132B. Les ouvertures 363 des couches 262A peuvent être superposées, ce qui permet de les réaliser, par exemple, en utilisant un même masque.
Dans l'exemple représenté, une couche 262B est plus épaisse au-dessus du pixel 132B qu'au-dessus du pixel 132A. une ou plusieurs couches peuvent présenter des variations d'épaisseur dans n'importe quel sens de variation entre les pixels 132A et 132B. Dans chaque couche 262B, la variation d'indice peut en outre résulter d'une variation de composition et/ou par une variation de densité d'ouvertures en complément de la variation d'épaisseur.
Les variations d'épaisseur, de composition et/ou de densité d'ouvertures sont choisies pour réduire, par rapport à un filtre interférentiel présentant seulement des couches uniformes, des variations de la longueur d'ondes centrale et/ou de la largeur de la bande de transmission présentées par le filtre interférentiel lorsqu'il est traversé selon le rayon principal. Autrement dit, on réduit les variations de transmission, en fonction de l'angle d'inclinaison du rayon principal, présentées par le filtre interférentiel lorsqu'il reçoit un rayonnement infrarouge dirigé selon le rayon principal.
De préférence, à une même distance du pixel 132A destiné à être situé sur l'axe optique 144 de l'élément optique 140 (figure 1), chaque couche 262A, 262B présente une même épaisseur, une même composition, et une même densité d'ouvertures. Autrement dit, les variations d'épaisseur, de composition et/ou de densité d'ouvertures sont fonction de la distance à l'axe optique 144, c'est dire de la distance au pixel 132A (figure 1). Il en résulte que le filtre interférentiel 260 transmet de la même manière les rayonnements infrarouges suivant les rayons principaux ayant le même angle d'inclinaison.
Selon un avantage, la réduction de variations de transmission en fonction de l'inclinaison du rayon principal 148A, 148B réduit ou évite des variations de sélectivité, en fonction du pixel 132 concerné, entre les rayonnements émis par le générateur 120 (figure 1) et réfléchis par la scène, et d'autres rayonnements. Il en résulte une amélioration supplémentaire de la précision et de la résolution des cartes de profondeur obtenues.
Selon un autre avantage, lors de la fabrication d'un capteur comprenant le détecteur 330, du fait que le détecteur est monolithique, l'alignement du filtre interférentiel 260 par rapport aux pixels 132 est facilité par rapport à un détecteur non monolithique dans lequel un filtre interférentiel ne serait pas mécaniquement solidaire de la face avant du substrat 134.
Ces avantages sont obtenus simultanément à la réduction, mentionnée ci-dessus, des détections parasites entre pixels voisins.
Pour chaque pixel 132, la lentille 250 concernée a un centre optique situé dans une direction 380 par rapport à un centre de la région photosensible 136 du pixel 132. Autrement dit, la direction 380 est définie pour chaque pixel 132 entre un centre du pixel 132 et le centre optique de la lentille 250 associée au pixel 132. Le centre de la région photosensible 136 (définissant le centre du pixel) est défini de la même manière pour tous les pixels 132.
De préférence, la direction 380 varie en fonction du pixel 132, autrement dit, les lentilles présentent un décalage D variable par rapport à leur alignement vertical avec les pixels 250. Par vertical, on entend ici orthogonal aux faces principales du détecteur. Ces variations sont de telle sorte que, pour chaque pixel, les rayonnements en provenance du générateur 120 (figure 1) sont focalisés sensiblement vers l'entrée de la région photosensible 136. Cette entrée est constituée par la face supérieure de la région photosensible 136. Plus préférentiellement, les variations de la direction 380 sont de telle sorte que le décalage D varie en fonction de la distance à l'axe optique 144, c’est-à-dire de la distance au pixel 132A (figure 1).
En variante, la direction entre le centre de chaque pixel 132 et le centre de la lentille 250 associée est la même pour tous les pixels. Par exemple, comme pour le détecteur 230 de la figure 2, cette direction est orthogonale aux couches 262 du filtre interférentiel 260. Par rapport à cette variante, le fait de prévoir que la direction 380 soit variable (c’est-à-dire que les lentilles présentent un décalage variable par rapport à leur alignement vertical avec les pixels) permet aux rayonnements en provenance de la scène d'être focalisées vers l'entrée de la région photosensible 136 de chaque pixel. On diminue ainsi les détections parasites par les pixels voisins et les risques de perturber le fonctionnement de composants tels que les zones mémoire 138.
La figure 4 représente une vue en coupe schématique et partielle d'un exemple d'encore un autre mode de réalisation d'un détecteur optique 430.
Le détecteur 430 comprend des éléments identiques ou similaires à ceux du détecteur 230 de la figure 2, agencés de manière identique ou similaire. Ces éléments ne sont pas décrits ici à nouveau en détail. Seules les différences sont mises en exergue.
Le détecteur 430 de la figure 4 diffère du détecteur 230 de la figure 2 en ce qu'il comprend une couche anti-reflet 410 entre les pixels 132 et les lentilles 250. La couche anti-reflet 410 peut être en oxyde de silicium. La couche anti-reflet 410 constitue une couche de protection de la face supérieure du substrat 134. Au cours de la fabrication du détecteur 430, cette couche 410 permet de protéger les pixels 132 avant formation ou mise en place des lentilles 250 et du filtre interférentiel 260 sur les pixels 135. A titre d'exemple, le foyer de chaque lentille 250 est situé dans la région photosensible 136 sensiblement à l'interface entre la couche 410 et la région photosensible 136.
L'épaisseur de la couche anti-reflet 410 peut être choisie de toute manière usuelle permettant de choisir l'épaisseur d'une couche anti-reflet en fonction de la longueur d'ondes des rayonnements à transmettre. A titre d'exemple, l'épaisseur de la couche anti-reflet 410 est comprise entre 0,1 µm et 0,2 µm, par exemple égale à environ 0,16 µm. Cette épaisseur dépend des indices des matériaux. En variante, on peut prévoir que la couche anti-reflet 410 comprenne plusieurs couches en des matériaux différents.
La figure 5 représente une vue en coupe schématique et partielle d'un exemple d'encore un autre mode de réalisation d'un détecteur optique 530.
Le détecteur 530 comprend des éléments identiques ou similaires à ceux du détecteur 430 de la figure 4, agencés de manière identique ou similaire. Ces éléments ne sont pas décrits ici à nouveau en détail. Seules les différences sont mises en exergue.
Le détecteur 530 de la figure 5 diffère du détecteur 430 de la figure 4 en ce que les lentilles 250 qui sont voisines sont séparées par des espaces 510, et en ce que le détecteur 530 comprend des lentilles supplémentaires 520 situées sur le filtre interférentiel 260. Plus précisément, les lentilles supplémentaires 520 recouvrent la face du filtre interférentiel 260 tournée du côté du filtre opposé aux pixels 132 (face supérieure dans l'orientation de la figure). Autrement dit, le filtre interférentiel 260 est situé entre les lentilles 250 et les lentilles supplémentaires 520.
De préférence, les lentilles supplémentaires 520 sont jointives, en sorte qu'elles collectent tous les rayonnements qui parviennent au détecteur 530 par sa face prévue pour être du côté d'arrivée des rayonnements réfléchis par la scène (face supérieure, de préférence face arrière). Chaque lentille supplémentaire 520 est prévue pour que les rayons infrarouges réfléchis par la scène se dirigent vers l'une des lentilles 250 situées sous le filtre interférentiel 260.
De préférence, on prévoit par exemple que l'ensemble de tous les rayons réfléchis par un élément de scène, qui atteignent l'une des lentilles supplémentaires 520, soit concentrés vers une majeure partie de la surface de la lentille 250 concernée, par exemple plus de 90 % de la surface de la lentille 250. Autrement dit, le faisceau est le moins convergent possible à l'intérieur du filtre. Ceci permet de limiter l'inclinaison des rayons dans le filtre interférentiel 260, et de préserver les avantages décrits ci-dessus. Ceci est, de préférence, obtenu en prévoyant pour les lentilles supplémentaires 520 une distance focale supérieure à la distance entre la lentille supplémentaire 520 et le centre de la région photoréceptrice 136.
Les lentilles supplémentaires 520 permettent d'éviter ou de réduire les parties des rayonnements optiques en provenance de la scène qui, en l'absence des lentilles supplémentaires 520, passeraient dans les espaces 510 entre les lentilles 250. On évite ainsi que ces parties ne soient pas focalisées vers les régions photosensibles et risquent de perturber le fonctionnement du détecteur, tout en bénéficiant de l'avantage des espaces 510 de faciliter la réalisation des lentilles 250 en silicium. On évite en outre que ces parties non focalisées du rayonnement ne soient pas détectées, et on évite ainsi une perte de sensibilité du détecteur optique.
Divers modes de réalisation et variantes ont été décrits. La personne du métier comprendra que certaines caractéristiques de ces divers modes de réalisation et variantes pourraient être combinées, et d’autres variantes apparaîtront à la personne du métier. En particulier, dans le détecteur 530 de la figure 5, les lentilles supplémentaires 520 peuvent, de manière similaire aux lentilles 250 du détecteur 330 de la figure 3, être positionnées de telle sorte que la direction 380 (figure 3), définie entre un centre de chaque pixel 132 et un centre de la lentille supplémentaire 520, varie. Plus précisément, chacune des lentilles supplémentaires 520 est positionnée de telle sorte que le rayon principal 148 associé au pixel 132 concerné (c’est-à-dire passant par le centre du pixel) passe également par le centre optique de la lentille supplémentaire 520.
Un mode de réalisation diffère de celui de la figure 5 en ce que la couche anti-reflet 410 est omise, les lentilles 250 étant, comme celles du détecteur 230 de la figure 2, en contact avec les régions photosensibles 136 ou formées dans le substrat 134. D'autres modes de réalisation diffère de ce mode de réalisation en ce que :
- la direction 380 (figure 3) définie entre un centre de chaque pixel 132 et un centre de la lentille 250 associée au pixel 132 varie de la manière décrite en relation avec la figure 3 ; et/ou
- une ou plusieurs couches du filtre interférentiel 260 présentent des variations d'épaisseur et/ou de composition et/ou de densité d'ouvertures de la même manière que dans le détecteur 330 de la figure 3.
Pour chacun des détecteurs 430 et 530 des figures respectives 4 et 5, un mode de réalisation diffère de ce détecteur 430, 530 en ce que le filtre interférentiel 260 comprend, comme le détecteur 330 de la figure 3, des couches 262A, 262B présentant des variations d'épaisseur et/ou de composition et/ou de densité d'ouvertures. D'autres modes de réalisation diffèrent de ces modes de réalisation en ce que la direction 380 (figure 3) définie entre un centre de chaque pixel 132 et un centre de la lentille 250 associée au pixel 132 peut varier de la manière décrite en relation avec la figure 3.
Pour chacun des détecteurs 230, 430, 530 des figures respectives 2, 4 et 5, d'autres modes de réalisation différent de ce détecteur 230, 430, 530 en ce que la direction 380 (figure 3) définie entre un centre de chaque pixel 132 et un centre de la lentille 250 associée au pixel 132 peut varier de la manière décrite en relation avec la figure 3.
Enfin, la mise en œuvre pratique des modes de réalisation et variantes décrits est à la portée de la personne du métier à partir des indications fonctionnelles données ci-dessus.

Claims (15)

  1. Détecteur optique monolithique, comprenant des pixels (132), un filtre interférentiel (260) passe-bande infrarouge recouvrant les pixels, et des lentilles (250) situées entre les pixels et le filtre interférentiel.
  2. Détecteur selon la revendication 1, dans lequel une couche transparente (270), située entre les lentilles (250) et le filtre interférentiel (260), est en contact adhérent avec les lentilles et le filtre interférentiel et a un indice de réfraction inférieur à celui des lentilles.
  3. Détecteur selon la revendication 1 ou 2, de type rétroéclairé et/ou dans lequel les pixels (132) sont de type SPAD ou à verrouillage ou à obturateur global.
  4. Détecteur selon l'une quelconque des revendications 1 à 3, dans lequel au moins une couche (262A, 262B) du filtre interférentiel (260) présente au moins une variation en fonction d'une distance à l'un des pixels (132A), parmi :
    • une variation d'épaisseur ;
    • une variation de composition ; et
    • une variation d'une densité d'ouvertures (363) entre des motifs (364) répétés constituant ladite couche du filtre interférentiel.
  5. Détecteur selon l'une quelconque des revendications 1 à 4, présentant, entre l'alignement vertical des pixels (132) et les lentilles (250) associées respectivement aux pixels, un décalage (D) variant en fonction d'une distance à l'un des pixels (132A).
  6. Détecteur selon l'une quelconque des revendications 1 à 5, dans lequel les lentilles (250) sont en silicium.
  7. Détecteur selon l'une quelconque des revendications 1 à 6 comprenant, entre les pixels (132) et les lentilles (250), une couche anti-reflet (410).
  8. Détecteur selon l'une quelconque des revendications 1 à 6, dans lequel les lentilles (250) et des régions photosensibles (136) des pixels (132) sont des parties d'un même substrat semiconducteur (134).
  9. Détecteur selon l'une quelconque des revendications 1 à 8, dans lequel les lentilles qui, parmi lesdites lentilles (250), sont voisines, sont séparées par des espaces (510).
  10. Détecteur selon l'une quelconque des revendications 1 à 9, dans lequel des lentilles supplémentaires (520) recouvrent une face du filtre interférentiel (260) tournée du côté opposé aux pixels (132).
  11. Détecteur selon l'une quelconque des revendications 1 à 10, dans lequel :
    • les pixels (132) sont disposés régulièrement selon un pas inférieur à 5 µm, de préférence inférieur à 3 µm ; et/ou
    • le filtre interférentiel (260) a une épaisseur supérieure à 1,2 µm, de préférence supérieure à 2 µm ; et/ou
    • le filtre interférentiel a une bande passante de largeur à mi-hauteur inférieure à 30 nm ; et/ou
    • le filtre interférentiel a une longueur d'ondes centrale proche de 940 nm.
  12. Capteur par temps de vol de cartes de profondeur, comprenant un détecteur selon l'une quelconque des revendications 1 à 11.
  13. Capteur selon la revendication 12, comprenant une source de rayonnements optiques infrarouges et/ou un élément optique (140) de focalisation sur le détecteur.
  14. Procédé de fabrication d'un détecteur selon l'une quelconque des revendications 1 à 13.
  15. Procédé selon la revendication 14, comprenant la formation d'une couche de planarisation (270) entre et sur les lentilles (250).
FR2006108A 2020-06-11 2020-06-11 Capteur de cartes de profondeur Active FR3111421B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2006108A FR3111421B1 (fr) 2020-06-11 2020-06-11 Capteur de cartes de profondeur

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2006108A FR3111421B1 (fr) 2020-06-11 2020-06-11 Capteur de cartes de profondeur
FR2006108 2020-06-11

Publications (2)

Publication Number Publication Date
FR3111421A1 true FR3111421A1 (fr) 2021-12-17
FR3111421B1 FR3111421B1 (fr) 2022-10-07

Family

ID=73138888

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2006108A Active FR3111421B1 (fr) 2020-06-11 2020-06-11 Capteur de cartes de profondeur

Country Status (1)

Country Link
FR (1) FR3111421B1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110032398A1 (en) * 2009-08-06 2011-02-10 Victor Lenchenkov Image sensor with multilayer interference filters
FR2960654A1 (fr) 2010-05-27 2011-12-02 Commissariat Energie Atomique Filtre optique propre a traiter un rayonnement d'incidence variable et detecteur comprenant un tel filtre
US20130154041A1 (en) * 2011-12-20 2013-06-20 Kabushiki Kaisha Toshiba Solid-state image sensor
US20190377109A1 (en) * 2018-06-08 2019-12-12 Commissariat à l'énergie atomique et aux énergies alternatives Image sensor comprising an array of interference filters

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110032398A1 (en) * 2009-08-06 2011-02-10 Victor Lenchenkov Image sensor with multilayer interference filters
FR2960654A1 (fr) 2010-05-27 2011-12-02 Commissariat Energie Atomique Filtre optique propre a traiter un rayonnement d'incidence variable et detecteur comprenant un tel filtre
US20130154041A1 (en) * 2011-12-20 2013-06-20 Kabushiki Kaisha Toshiba Solid-state image sensor
US20190377109A1 (en) * 2018-06-08 2019-12-12 Commissariat à l'énergie atomique et aux énergies alternatives Image sensor comprising an array of interference filters

Also Published As

Publication number Publication date
FR3111421B1 (fr) 2022-10-07

Similar Documents

Publication Publication Date Title
EP3503192B1 (fr) Dispositif d'acquisition d'une image 2d et d'une image de profondeur d'une scène
EP3104421B1 (fr) Photodiode spad couverte d'un réseau
US20210273120A1 (en) Photodetectors, preparation methods for photodetectors, photodetector arrays, and photodetection terminals
FR2969384A1 (fr) Capteur d'image a intermodulation reduite
EP3449228B1 (fr) Dispositif d'imagerie multispectrale
FR2969385A1 (fr) Capteur d'images a taux d'intermodulation réduit
FR2983297A1 (fr) Detecteur infrarouge a base de micro-planches bolometriques suspendues
EP3836214B1 (fr) Capteur de lumiere
FR2829876A1 (fr) Cellule photosensible incorporant un guide de lumiere et matrice composee de telles cellules
FR3091023A1 (fr) Capteur d'images
EP3830535B1 (fr) Capteur d'imagerie multispectrale pourvu de moyens de limitation de la diaphonie
FR3108783A1 (fr) Dispositif d'acquisition d'une image 2D et d'une image de profondeur d'une scène
EP3471151B1 (fr) Photodetecteur a resonateur de helmholtz
FR3112426A1 (fr) Capteurs d'images comprenant une matrice de filtres interférentiels
FR3111421A1 (fr) Capteur de cartes de profondeur
FR3114438A1 (fr) Capteur d'images
FR3087939A1 (fr) Capteur de lumiere
FR3112242A1 (fr) Isolation de photodiodes
FR3102633A1 (fr) Capteur d'images
EP4174950B1 (fr) Filtre pixelisé
FR3140990A1 (fr) Dispositif d’acquisition d’une image 2D et d’une image de profondeur d’une scène
WO2022129791A1 (fr) Photodétecteur multispectral infrarouge
EP4296650A1 (fr) Systeme de mesure d'un degre de polarisation lineaire estime d'un rayonnement electromagnetique reflechi par une scene
FR3112425A1 (fr) Capteurs d'images comprenant une matrice de filtres interférentiels
FR3110706A1 (fr) Dispositif de détection amélioré et système lidar associé

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20211217

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4