FR2969819A1 - Capteur d'image tridimensionnel - Google Patents

Capteur d'image tridimensionnel Download PDF

Info

Publication number
FR2969819A1
FR2969819A1 FR1061073A FR1061073A FR2969819A1 FR 2969819 A1 FR2969819 A1 FR 2969819A1 FR 1061073 A FR1061073 A FR 1061073A FR 1061073 A FR1061073 A FR 1061073A FR 2969819 A1 FR2969819 A1 FR 2969819A1
Authority
FR
France
Prior art keywords
pixels
scene
photodetection
sensor according
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR1061073A
Other languages
English (en)
Inventor
Jerome Vaillant
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
STMicroelectronics Grenoble 2 SAS
Original Assignee
STMicroelectronics Grenoble 2 SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by STMicroelectronics Grenoble 2 SAS filed Critical STMicroelectronics Grenoble 2 SAS
Priority to FR1061073A priority Critical patent/FR2969819A1/fr
Priority to US13/326,951 priority patent/US9048153B2/en
Publication of FR2969819A1 publication Critical patent/FR2969819A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers

Abstract

L'invention concerne un capteur d'image intégré adapté à déterminer la distance à des objets contenus dans une scène comprenant au moins un ensemble de premiers pixels (pl) et un ensemble de deuxièmes pixels (p2), les premiers et deuxièmes pixels étant répartis alternativement dans une matrice, les premiers pixels présentant une ouverture angulaire distincte des deuxièmes pixels.

Description

B10659 - 10-GR2-296 1 CAPTEUR D'IMAGE TRIDIMENSIONNEL
Domaine de l'invention La présente invention concerne un capteur d'image intégré tridimensionnel permettant d'obtenir une information de la distance à des objets contenus dans une scène. Plus particulièrement, la présente invention concerne un tel capteur adapté à détecter des objets à des distances macroscopiques. Exposé de l'art antérieur Par capteur d'image tridimensionnel (3D) macroscopique, on entendra ici des capteurs d'image permettant de mesurer l'éloignement d'objets situés à des distances supérieures à environ un centimètre. De nombreuses techniques d'acquisition d'images tridimensionnelles et d'obtention d'informations de distance à des objets sont connues. Parmi celles-ci, les techniques de stéréovision proposent, pour obtenir un rendu 3D d'une image, de réaliser deux acquisitions d'une même scène à l'aide de deux caméras placées en des points distants. Les deux images acquises par les deux caméras sont ensuite modifiées en leur appliquant par exemple un filtre coloré puis combinées. Pour réaliser la lecture de l'image, on place devant les deux yeux d'une personne deux filtres colorés adaptés chacun à filtrer une des deux images initiales. Le cerveau humain combine les deux images vues B10659 - 10-GR2-296
2 par les deux yeux de la personne et assure la reconstruction de l'image tridimensionnelle initiale. L'utilisation de cette technique pour réaliser une cartographie de distance à des objets contenus dans une scène de façon automatique (méthode stéréoscopique) est relativement complexe. En effet, pour réaliser une telle cartographie, les deux caméras doivent être parfaitement alignées avec les objets contenus dans la scène, et un système de décodage de l'information complexe doit être mis en oeuvre pour obtenir une information de l'éloignement des objets. Ainsi, il n'est pas possible de fabriquer des dispositifs mobiles utilisant ce procédé. Un autre procédé de détermination de la distance à un objet est connu sous l'acronyme TOF (en anglais "rime of Flight"). Ce procédé, notamment utilisé dans l'aéronautique, consiste à envoyer une onde, par exemple lumineuse ou acoustique, en direction d'un objet et à calculer le temps d'aller-retour de cette onde sur l'objet. Cependant, ce procédé n'est pas adapté à la mesure de faibles distances. En effet, dans ce cas, le temps d'aller-retour de l'onde est trop faible pour être facilement détecté par un capteur et ne permet pas de déterminer des distances proches avec précision. De plus, ce procédé n'est pas compatible avec la réalisation d'une cartographie instantanée de distances à des objets. En effet, une telle détermination instantanée nécessiterait que l'onde émise présente une puissance très importante pour atteindre une zone étendue de l'image, ce qui est incompatible avec la réalisation de dispositifs portables. Il est également connu d'utiliser des procédés de triangulation dans lesquels un laser balaye une scène pour obtenir la distance à des objets de cette scène. Cependant, ces procédés sont précis uniquement si la scène est figée : ils impliquent un temps de réponse trop important pour acquérir une information correspondant à une scène en mouvement.
B10659 - 10-GR2-296
3 Ainsi, la plupart des solutions connues nécessitent des systèmes émetteurs-récepteurs qui doivent être alignés de façon précise, une source lumineuse active, et/ou impliquent des temps de réponse importants.
Résumé Un objet d'un mode de réalisation de la présente invention vise un capteur d'image permettant de déterminer la distance à des objets contenus dans une scène, présentant un temps de réponse faible et palliant tout ou partie des inconvénients des capteurs de l'art antérieur. Un autre objet d'un mode de réalisation de la présente invention est de prévoir un capteur d'image permettant en outre de fournir une information de l'image de la scène. Un autre objet d'un mode de réalisation de la présente 15 invention est de prévoir un capteur d'image tridimensionnel couleur. Ainsi, un mode de réalisation de la présente invention prévoit un capteur d'image intégré adapté à déterminer la distance à des objets contenus dans une scène comprenant au 20 moins un ensemble de premiers pixels et un ensemble de deuxièmes pixels, les premiers et deuxièmes pixels étant répartis alternativement dans une matrice, les premiers pixels présentant une ouverture angulaire distincte des deuxièmes pixels. Selon un mode de réalisation de la présente invention, 25 les ouvertures angulaires distinctes des premiers et des deuxièmes pixels sont obtenues en formant, dans les premiers et deuxième pixels, des zones de photodétection de surfaces distinctes. Selon un mode de réalisation de la présente invention, 30 les ouvertures angulaires distinctes des premiers et des deuxièmes pixels sont obtenues en formant, en regard de la périphérie de zones de photodétection formées dans les pixels et entre la scène à analyser et les zones de photodétection, un masque opaque.
B10659 - 10-GR2-296
4 Selon un mode de réalisation de la présente invention, le capteur comprend un substrat semiconducteur sur une face duquel sont formés des zones de photodétection et des éléments de transfert de charges photogénérées surmontés d'un empilement de niveaux d'interconnexion comprenant des pistes métalliques entourées d'un matériau isolant, le capteur étant éclairé par cette face. Selon un mode de réalisation de la présente invention, les ouvertures angulaires distinctes des premiers pixels et des deuxièmes pixels sont obtenues en formant des extensions de pistes métalliques en regard de la périphérie des zones de photodétection. Selon un mode de réalisation de la présente invention, les ouvertures angulaires distinctes des premiers pixels et des deuxièmes pixels sont obtenues en formant des extensions d'éléments de transfert de charges en regard de la périphérie des zones de photodétection. Selon un mode de réalisation de la présente invention, les ouvertures angulaires distinctes des premiers pixels et des deuxièmes pixels sont obtenues en formant des éléments en siliciure isolés sur la périphérie des zones de photodétection. Selon un mode de réalisation de la présente invention, les pixels de la matrice sont associés à des filtres colorés répartis selon un motif de Bayer, des premiers pixels étant associés aux filtres colorés de couleurs bleu et rouge et à des premiers filtres colorés de couleur verte, des deuxièmes pixels étant associés à des deuxièmes filtres colorés de couleur verte du motif. Selon un mode de réalisation de la présente invention, le capteur comprend en outre des moyens de comparaison d'une première sous-image obtenue par l'ensemble de premiers pixels à une deuxième sous-image obtenue par l'ensemble de deuxièmes pixels et des moyens d'analyse adaptés à déterminer la différence de taille entre des objets de la scène contenus dans B10659 - 10-GR2-296
les première et deuxième sous-images et à déduire la distance à ces objets. Un mode de réalisation de la présente invention prévoit en outre un procédé de détermination de la distance à 5 des objets contenus dans une scène à l'aide d'un capteur d'image intégré tel que défini ci-dessus, comprenant les étapes suivantes : réaliser une acquisition d'une scène ; comparer une première sous-image détectée par l'ensemble des premiers pixels à une deuxième sous-image image détectée par l'ensemble des deuxièmes pixels ; déterminer les différences de taille entre des objets correspondants contenus dans la première sous-image et dans la deuxième sous-image ; et comparer les différences de taille des objets à une base de données pour les associer à des distances à des objets de la scène.
Brève description des dessins Ces objets, caractéristiques et avantages, ainsi que d'autres seront exposés en détail dans la description suivante de modes de réalisation particuliers faite à titre non-limitatif en relation avec les figures jointes parmi lesquelles : les figures 1A, 1B, 2A et 2B représentent des systèmes optiques illustrant le principe de fonctionnement d'un capteur d'image selon un mode de réalisation de la présente invention ; les figures 3A et 3B illustrent le fonctionnement d'un capteur d'image selon un mode de réalisation de la présente invention ; les figures 4, 5 et 6 illustrent trois variantes de pixels d'un capteur d'image selon un mode de réalisation de la présente invention ; et la figure 7 illustre un exemple de répartition de filtres colorés formés en regard de cellules élémentaires d'un capteur d'image tridimensionnel couleur selon un mode de réalisation de la présente invention. Par souci de clarté, de mêmes éléments ont été désignés par de mêmes références aux différentes figures et, de plus, comme cela est habituel dans la représentation des B10659 - 10-GR2-296
6 capteurs d'image, les diverses figures ne sont pas tracées à l'échelle. Description détaillée Les figures 1A, 1B, 2A et 2B illustrent le principe de 5 base du fonctionnement d'un capteur d'image selon un mode de réalisation de la présente invention. Dans ces figures est représenté un dispositif optique comprenant une lentille convergente L. Le point focal de la lentille sur son axe optique est appelé F et le plan focal de 10 celle-ci est appelé P1. Un obturateur, placé contre la lentille, est prévu pour limiter l'ouverture angulaire de celle-ci. Dans le cas des figures 1A et 2A, un obturateur M1 qui limite peu l'ouverture angulaire de la lentille est prévu tandis que, dans le cas des figures 1B et 2B, un second obturateur M2, présentant 15 une ouverture plus faible que l'obturateur M1, est prévu. L'ouverture angulaire de la lentille L est définie par l'angle 01 en figure 1A, respectivement l'angle 02 en figure 1B, formé entre deux faisceaux arrivant sur le contour de l'obturateur depuis l'infini, au niveau du point focal F. 20 En figures 1A et 1B, un objet 01 est placé sur l'axe optique de la lentille à une première distance de celle-ci. Si l'on se place dans le plan focal P1 de la lentille, l'objet 01 forme une image floue dont le diamètre varie selon l'ouverture angulaire de la lentille. 25 L'ouverture angulaire 01 du dispositif de la figure 1A étant plus grande que l'ouverture angulaire 02 du dispositif de la figure 1B (l'obturateur M1 présentant une ouverture plus importante que l'obturateur M2), l'image de l'objet 01 dans le plan focal de la lentille L dans le cas de la figure 1A présente 30 un diamètre d1 plus important que le diamètre d1' de l'image de l'objet 02 dans le plan focal de la lentille dans le cas de la figure 1B (les images sont plus ou moins floues). En figures 2A et 2B, un objet 02 est placé sur l'axe optique de la lentille L à une deuxième distance de celle-ci, 35 inférieure à la première distance séparant la lentille et B10659 - 10-GR2-296
7 l'objet 01. L'image formée par l'objet 02 dans le plan focal de la lentille présente un diamètre d2 en figure 2A supérieur au diamètre d1 de l'image de l'objet 01 de la figure 1A. En figure 2B, l'image définie par l'objet 02 associé à l'obturateur M2 présente un diamètre d2' inférieur au diamètre d2 mais supérieur au diamètre d1'. Ainsi, en fonction de la distance entre un objet et la lentille, et en fonction de l'ouverture angulaire de celle-ci, on obtient des images dans le plan focal de la lentille de tailles différentes. Il est ainsi possible d'associer la taille de l'image d'un objet, vue dans un plan de lecture prédéfini, à une distance de l'objet par rapport à la lentille. On peut également lier les deux images du même objet obtenues à l'aide de lentilles présentant des ouvertures angulaires différentes à la distance de l'objet à la lentille. C'est cette dernière idée qui est à la base du capteur d'image proposé ici. On notera que les observations sur les diamètres des images obtenues dans le plan focal de la lentille L dans les différents cas des figures 1A, 1B, 2A et 2B peuvent également être faites si le plan de lecture est un plan P2 distinct du plan focal P1. Il est cependant nécessaire d'adapter le positionnement du plan de lecture en fonction des distances d'objets que l'on souhaite détecter, pour qu'une association de deux images d'un objet obtenues avec des dispositifs optiques d'ouvertures angulaires différentes dans deux plans ne puisse être reliée qu'à une unique distance de l'objet détecté. Par exemple, le capteur proposé ici pourra avoir une structure différente en fonction que les objets à détecter soient à une distance inférieure à quelques mètres (par exemple dans le cas de jeux vidéo où le mouvement d'une personne doit être détecté) ou à une distance susceptible de varier jusqu'à l'infini. On prévoit de tirer profit de ces propriétés pour former un capteur d'image intégré permettant d'obtenir une information de la distance à des objets contenus dans une scène de façon intégrée. Pour cela, on prévoit de réaliser deux B10659 - 10-GR2-296
8 acquisitions, simultanément, d'une même scène à l'aide au moins de deux ensembles de pixels formés sur une matrice de pixels. Les pixels du premier ensemble de pixels et les pixels du deuxième ensemble présentent des ouvertures angulaires diffé- rentes et sont formés alternativement en surface de la matrice de pixels. Ici, on appellera ouverture angulaire d'un pixel l'angle maximal entre deux faisceaux d'incidence non nulle passant par l'axe optique d'une microlentille associée au pixel qui atteignent la zone photosensible du pixel (qui sont effectivement détectés). La formation de pixels présentant des ouvertures angulaires différentes permet de détecter des distances à des objets selon le principe présenté ci-dessus en relation avec les figures 1A, 1B, 2A et 2B. Dans le capteur proposé, l'ouverture angulaire des pixels est modifiée par la structure même de ceux-ci. On compare ensuite les images détectées par chacun des deux ensembles de pixels, appelées par la suite sous-images, et on compare la taille des objets de la scène reportés sur ces sous-images, pour ainsi en déduire l'éloignement de ces objets. On notera que l'on pourra également prévoir de former plus de deux types de pixels alternés présentant des ouvertures angulaires différentes, si une détection plus fine est désirée. Ce principe est illustré en figures 3A et 3B qui représentent un pixel p1 d'un premier ensemble de pixels et un pixel p2 d'un deuxième ensemble de pixels. Les pixels p1 et p2 sont prévus pour être formés l'un à côté de l'autre dans la matrice de pixels, et détectent, dans l'exemple des figures 3A et 3B, des objets situés à l'infini.
Le pixel p1, respectivement p2, illustré en figure 3A, respectivement 3B, comprend une zone photodétectrice pd1, respectivement pd2, formée dans un substrat semiconducteur 10. Le substrat 10 est surmonté de matériau isolant 12, par exemple le matériau isolant de niveaux d'un empilement d'interconnexion.
Un filtre coloré, non représenté, peut être prévu en surface du B10659 - 10-GR2-296
9 matériau isolant 12 si le capteur d'image est un capteur couleur. Une microlentille pli, respectivement pl2, est formée sur le matériau isolant 12 en regard de la zone de photodétection pd1, respectivement pd2. Une lentille principale, LENSE, représentée de façon schématique en figures 3A et 3B, est formée au-dessus de l'ensemble des pixels constituant le capteur d'image. Dans l'exemple représenté, les microlentilles pli et p12 sont placées au point focal de la lentille principale LENSE.
On notera que l'on pourra également placer ces lentilles à une distance plus ou moins importante de la lentille principale LENSE, en fonction de la distance à des objets que l'on souhaite détecter. Le pixel p2 de la figure 3B diffère du pixel p1 de la figure 3A en ce que l'ouverture angulaire a2 de ce pixel est réduite, limitée par un obturateur M prévu directement dans le pixel p2. Lorsque les pixels p1 et p2 sont placés l'un à côté de l'autre, ces pixels reçoivent une information d'une même portion de la scène à acquérir. Cependant, du fait de la modification de l'ouverture angulaire de ces pixels, la sous-image détectée par les zones photodétectrices pd1 et pd2, ou par un ensemble de pixels alternés tels que les pixels pd1 et pd2, n'est pas de même taille, sa taille variant en fonction de l'éloignement de l'objet détecté. Ainsi, en comparant la sous-image acquise par l'ensemble des premiers pixels présentant une première ouverture angulaire a1 (pixels p1) et la sous-image acquise par des deuxième pixels présentant une deuxième ouverture angulaire a2 (pixels p2), on peut déterminer l'éloignement des objets qui sont détectés. Pour cela, on peut comparer, à l'aide de moyens de comparaison adaptés, les différences de taille des sous-images obtenues sur les ensembles des premiers et deuxièmes pixels (le rapport entre ces tailles par exemple) et rapprocher ces différences de tailles, à l'aide de moyens d'analyse, à des B10659 - 10-GR2-296
10 différences de tailles d'images de référence, par exemple stockées dans une mémoire externe. Les différences de tailles d'images de référence, associées à des distances à des objets, dépendent de la structure du capteur d'image, de la distance séparant la lentille principale et les microlentilles, de la distance séparant les microlentilles des zones de photodétection, ainsi que de la plage d'éloignement des objets que l'on souhaite détecter. L'homme de l'art, connaissant la plage d'éloignement d'objets à détecter, adaptera aisément les dispositifs proposés ici pour obtenir un ensemble de mesures de référence. Avantageusement, une comparaison des deux sous-images obtenues par les deux ensembles de pixels à un ensemble de données stockées dans une base de données est peu consommatrice de temps. Ainsi, le procédé proposé ici est compatible avec l'acquisition en temps réel de données 3D d'une scène en mouvement. Pour former des pixels p1 et p2 présentant des ouvertures angulaires a1 et a2 différentes, on propose 20 différentes structures de pixels. Les figures 4, 5 et 6 illustrent différentes associations de premier et deuxième pixels, p1 et p2, présentant des ouvertures angulaires différentes. Dans les différentes figures, l'ouverture angulaire a1 du pixel p1 situé à gauche est 25 maximale, c'est-à-dire que le pixel n'est pas modifié par rapport aux structures de pixels classiques, tandis que l'ouverture angulaire a2 du pixel p2 est réduite. Dans chacune de ces figures, les pixels p1 et p2 comprennent des zones de photodétection pd1 et pd2 formées en 30 surface d'un substrat semiconducteur 10. Sur le substrat 10 sont prévus des éléments de transfert des charges photogénérées 14 et un empilement de niveaux d'interconnexion comprenant des pistes et nias métalliques 16 entourés d'un matériau isolant 12. Dans l'exemple de la figure 4, pour modifier 35 l'ouverture angulaire a2 du pixel p2, on propose de modifier un B10659 - 10-GR2-296
11 niveau d'interconnexion 16 formé au-dessus de la zone photodétectrice pd2 du pixel p2 de façon que des pistes métalliques 16 de ce niveau présentent des extensions 16' qui limitent l'ouverture angulaire du pixel : les extensions 16' (ou des pistes métalliques isolées) sont formées au-dessus de la périphérie de la zone de photodétection pd2. De préférence, les extensions métalliques 16' sont formées au plus près de la zone de photodétection pd2 pour avoir une ouverture angulaire du pixel p2 bien définie.
Dans l'exemple de la figure 5, le pixel p2 présente une ouverture angulaire a2 réduite du fait de la modification des éléments de transfert de charges photogénérées 14 formés en surface du substrat 10. Les éléments de transfert de charge sont généralement des transistors MOS comprenant des grilles en silicium polycristallin et en siliciure. La couche de siliciure est une couche opaque. Ainsi, l'ouverture angulaire a2 réduite du pixel p2 est obtenue en formant des extensions 14' des éléments de transfert de charge 14 en surface du substrat 10, en regard de la périphérie de la zone de photodétection pd2. On peut également prévoir de former des zones opaques en siliciure isolées sur la périphérie de la zone de photodétection, par exemple directement sur le substrat 10. De façon plus générale, l'ouverture angulaire réduite du pixel p2 pourra être obtenue en formant, en regard de la périphérie du pixel et entre la scène à détecter et la zone de photodétection, un masque opaque. Le masque sera de préférence formé aussi près que possible des zones de photodétection pour assurer un masquage efficace. Par exemple, dans le cas d'un capteur d'image éclairé par la face arrière, une couche métallique localisée, ou une résine noire, pourra être formée sur la face arrière du substrat semiconducteur en regard de la périphérie de la zone de photodétection. Dans l'exemple de la figure 6, l'ouverture angulaire a2 du pixel p2 est réduite en formant une zone de photodétection pd2' présentant une surface plus faible que la surface de la B10659 - 10-GR2-296
12 zone de photodétection pd1. Pour optimiser le fonctionnement du dispositif de la figure 6, on pourra prévoir de former des régions d'isolement de part et d'autre de la zone de photo-détection pd2'. Avantageusement, la modification de la taille des zones de photodétection pd2' pour modifier l'ouverture angulaire du pixel correspondant peut être prévue sur tout type de capteur d'image, et est notamment adaptée à la formation de pixels d'un capteur d'image éclairé par la face arrière. Dans le cas où l'on souhaite former un capteur d'image tridimensionnel permettant d'obtenir à la fois une indication de la distance à des objets détectés et une information de l'image en elle-même, l'image de la scène pourra être obtenue en utilisant uniquement l'information détectée par les pixels du capteur d'image dont l'ouverture angulaire est maximale (par l'ensemble des premiers pixels). On pourra également prévoir de former une image tridimensionnelle en couleur à partir de l'information de la distance à des objets et de l'image détectée. Dans ce cas, on pourra former, dans un motif de filtres colorés classique utilisé pour détecter une image en couleur, au moins un pixel présentant une ouverture angulaire maximale et au moins un pixel présentant une ouverture angulaire réduite, ou encore prévoir des premiers motifs élémentaires du capteur d'image couleur (par exemple un motif élémentaire de Bayer) comprenant des pixels présentant une ouverture angulaire maximale, voisins de deuxièmes motifs élémentaires du capteur d'image couleur comprenant des pixels présentant une ouverture angulaire réduite. La figure 7 illustre un exemple d'une configuration telle que ci-dessus dans le cas où le capteur d'image couleur comprend des filtres colorés agencés au-dessus de la matrice de pixels selon un motif de Bayer (c'est-à-dire comprenant, pour chaque association de deux fois deux pixels, deux pixels verts G en diagonale, un pixel bleu B et un pixel rouge R).
B10659 - 10-GR2-296
13 Pour obtenir l'information de la distance à des objets d'une scène, on prévoit de former une structure de filtres colorés répartis selon un motif de Bayer, un des pixels associé à un filtre de couleur verte étant modifié pour présenter une ouverture angulaire réduite par rapport aux pixels adjacents. Ainsi, dans chaque motif élémentaire de Bayer (en figure 7, les pixels d'un même motif élémentaire de Bayer sont référencés par un même indice), on a trois pixels classiques (d'ouverture angulaire maximale) surmontés de filtres colorés de couleur rouge RI, de couleur bleue BI et de couleur verte G1, et un pixel modifié pour présenter une ouverture angulaire plus faible, associé à un filtre coloré de couleur verte GI'. Ainsi, chaque association de quatre pixels d'un motif de Bayer permet d'obtenir une information à la fois de la couleur des objets de la scène et de la distance à ces objets. D'autres configurations de pixels pourront être formées tant qu'une association d'au moins deux ensembles de pixels présentant des ouvertures angulaires différentes est prévue. Des modes de réalisation particuliers de la présente invention ont été décrits. Diverses variantes et modifications apparaîtront à l'homme de l'art. En particulier, la distance entre la lentille principale du capteur d'image et les microlentilles associées aux différents pixels, ainsi que les distances entre microlentilles et zones de photodétection de pixels seront ajustées en fonction de la distance à des objets que l'on souhaite détecter. Par exemple, si on souhaite former un capteur tridimensionnel détectant des distances allant jusqu'à l'infini, les microlentilles pourront être formées dans le plan focal de la lentille principale. Inversement, si on souhaite détecter des distances plus faibles, notamment pour détecter des mouvements d'une personne dans le cas de jeux vidéo, on pourra ajuster ces distances différemment.

Claims (10)

  1. REVENDICATIONS1. Capteur d'image intégré adapté à déterminer la distance à des objets contenus dans une scène comprenant au moins un ensemble de premiers pixels (p1) et un ensemble de deuxièmes pixels (p2), les premiers et deuxièmes pixels étant répartis alternativement dans une matrice, les premiers pixels présentant une ouverture angulaire distincte des deuxièmes pixels.
  2. 2. Capteur selon la revendication 1, dans lequel les ouvertures angulaires distinctes des premiers (p1) et des deuxièmes (p2) pixels sont obtenues en formant, dans les premiers et deuxième pixels, des zones de photodétection (pd1, pd2) de surfaces distinctes.
  3. 3. Capteur selon la revendication 1, dans lequel les ouvertures angulaires distinctes des premiers (p1) et des deuxièmes (p2) pixels sont obtenues en formant, en regard de la périphérie de zones de photodétection formées dans les pixels et entre la scène à analyser et les zones de photodétection, un masque opaque (14', 16').
  4. 4. Capteur selon l'une quelconque des revendications 1 à 3, comprenant un substrat semiconducteur (10) sur une face duquel sont formés des zones de photodétection (pd1, pd2) et des éléments de transfert de charges photogénérées (14) surmontés d'un empilement de niveaux d'interconnexion comprenant des pistes métalliques (16) entourées d'un matériau isolant (12), ledit capteur étant éclairé par ladite face.
  5. 5. Capteur selon la revendication 4, dans lequel les ouvertures angulaires distinctes des premiers pixels (p1) et des deuxièmes pixels (p2) sont obtenues en formant des extensions (16') de pistes métalliques (16) en regard de la périphérie des zones de photodétection (pd1, pd2).
  6. 6. Capteur selon la revendication 4, dans lequel les ouvertures angulaires distinctes des premiers pixels (p1) et des deuxièmes pixels (p2) sont obtenues en formant des extensionsB10659 - 10-GR2-296 15 (14') d'éléments de transfert de charges (14) en regard de la périphérie des zones de photodétection (pd1, pd2).
  7. 7. Capteur selon la revendication 4, dans lequel les ouvertures angulaires distinctes des premiers pixels (p1) et des deuxièmes pixels (p2) sont obtenues en formant des éléments en siliciure isolés en regard de la périphérie des zones de photodétection (pd1, pd2).
  8. 8. Capteur selon l'une quelconque des revendications 1 à 7, dans lequel les pixels de la matrice sont associés à des filtres colorés répartis selon un motif de Bayer, des premiers pixels étant associés aux filtres colorés de couleurs bleu et rouge et à des premiers filtres colorés de couleur verte, des deuxièmes pixels étant associés à des deuxièmes filtres colorés de couleur verte du motif.
  9. 9. Capteur selon l'une quelconque des revendications 1 à 8, comprenant en outre des moyens de comparaison d'une première sous-image obtenue par l'ensemble de premiers pixels (p1) à une deuxième sous-image obtenue par l'ensemble de deuxièmes pixels (p2) et des moyens d'analyse adaptés à déterminer la différence de taille entre des objets de la scène contenus dans les première et deuxième sous-images et à déduire la distance à ces objets.
  10. 10. Procédé de détermination de la distance à des objets contenus dans une scène à l'aide d'un capteur d'image intégré selon l'une quelconque des revendications 1 à 9, comprenant les étapes suivantes : réaliser une acquisition d'une scène ; comparer une première sous-image détectée par l'ensemble des premiers pixels (p1) à une deuxième sous-image image détectée par l'ensemble des deuxièmes pixels (p2) ; déterminer les différences de taille entre des objets correspondants contenus dans la première sous-image et dans la deuxième sous-image ; etB10659 - 10-GR2-296 16 comparer les différences de taille des objets à une base de données pour les associer à des distances à des objets de la scène.
FR1061073A 2010-12-22 2010-12-22 Capteur d'image tridimensionnel Withdrawn FR2969819A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1061073A FR2969819A1 (fr) 2010-12-22 2010-12-22 Capteur d'image tridimensionnel
US13/326,951 US9048153B2 (en) 2010-12-22 2011-12-15 Three-dimensional image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1061073A FR2969819A1 (fr) 2010-12-22 2010-12-22 Capteur d'image tridimensionnel

Publications (1)

Publication Number Publication Date
FR2969819A1 true FR2969819A1 (fr) 2012-06-29

Family

ID=44148610

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1061073A Withdrawn FR2969819A1 (fr) 2010-12-22 2010-12-22 Capteur d'image tridimensionnel

Country Status (2)

Country Link
US (1) US9048153B2 (fr)
FR (1) FR2969819A1 (fr)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2969822A1 (fr) * 2010-12-24 2012-06-29 St Microelectronics Grenoble 2 Capteur d'image tridimensionnel
US8593565B2 (en) 2011-03-25 2013-11-26 Gary S. Shuster Simulated large aperture lens
CN105452895B (zh) 2013-06-13 2018-12-18 巴斯夫欧洲公司 用于光学地检测至少一个对象的检测器
JP6440696B2 (ja) 2013-06-13 2018-12-19 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 少なくとも1つの物体の方位を光学的に検出する検出器
KR101591172B1 (ko) * 2014-04-23 2016-02-03 주식회사 듀얼어퍼처인터네셔널 이미지 센서와 피사체 사이의 거리를 결정하는 방법 및 장치
KR102397527B1 (ko) 2014-07-08 2022-05-13 바스프 에스이 하나 이상의 물체의 위치를 결정하기 위한 검출기
US11125880B2 (en) 2014-12-09 2021-09-21 Basf Se Optical detector
KR102380979B1 (ko) * 2015-01-05 2022-04-01 삼성전자 주식회사 이미지의 메타데이터 관리 방법 및 장치
KR102282218B1 (ko) 2015-01-30 2021-07-26 삼성전자주식회사 3 차원 영상 획득 장치용 결상 광학계 및 이를 포함하는 3 차원 영상 획득 장치
CN107438775B (zh) 2015-01-30 2022-01-21 特里纳米克斯股份有限公司 用于至少一个对象的光学检测的检测器
US10955936B2 (en) 2015-07-17 2021-03-23 Trinamix Gmbh Detector for optically detecting at least one object
KR102539263B1 (ko) * 2015-09-14 2023-06-05 트리나미엑스 게엠베하 적어도 하나의 물체의 적어도 하나의 이미지를 기록하는 카메라
JP2019523562A (ja) 2016-07-29 2019-08-22 トリナミクス ゲゼルシャフト ミット ベシュレンクテル ハフツング 光学的検出のための光センサおよび検出器
WO2018077870A1 (fr) 2016-10-25 2018-05-03 Trinamix Gmbh Détecteur optique infrarouge à filtre intégré
CN109891265B (zh) 2016-10-25 2023-12-01 特里纳米克斯股份有限公司 用于光学检测至少一个对象的检测器
EP3542183A1 (fr) 2016-11-17 2019-09-25 trinamiX GmbH Détecteur destiné à la détection optique d'au moins un objet
US11860292B2 (en) 2016-11-17 2024-01-02 Trinamix Gmbh Detector and methods for authenticating at least one object

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0981245A2 (fr) * 1998-08-20 2000-02-23 Canon Kabushiki Kaisha Dispositif de prise de vue à l'état solide et méthode de contrôle correspondant, structure de base d'une cellule de conversion photoélectrique et support d'enregistrement
US20050285966A1 (en) * 2004-01-28 2005-12-29 Canesta, Inc. Single chip red, green, blue, distance (RGB-Z) sensor
US20090225217A1 (en) * 2008-02-12 2009-09-10 Sony Corporation Image pickup device and image pickup apparatus
US20100033611A1 (en) * 2008-08-06 2010-02-11 Samsung Electronics Co., Ltd. Pixel array of three-dimensional image sensor
US20100059844A1 (en) * 2008-09-05 2010-03-11 Nagataka Tanaka Solid-state imaging device and solid-state imaging device designing method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4394683A (en) * 1980-06-26 1983-07-19 Diffracto Ltd. New photodetector array based optical measurement systems
GB2282505A (en) 1993-09-23 1995-04-05 Sharp Kk Three dimensional imaging apparatus
US6384859B1 (en) * 1995-03-29 2002-05-07 Sanyo Electric Co., Ltd. Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
US6226004B1 (en) * 1997-09-12 2001-05-01 Autodesk, Inc. Modeling system using surface patterns and geometric relationships
NO305728B1 (no) 1997-11-14 1999-07-12 Reidar E Tangen Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme
GB0119176D0 (en) * 2001-08-06 2001-09-26 Ocuity Ltd Optical switching apparatus
GB0304861D0 (en) * 2003-03-04 2003-04-09 Koninkl Philips Electronics Nv Object location
US7697748B2 (en) * 2004-07-06 2010-04-13 Dimsdale Engineering, Llc Method and apparatus for high resolution 3D imaging as a function of camera position, camera trajectory and range
JP4333685B2 (ja) * 2006-03-29 2009-09-16 セイコーエプソン株式会社 カメラ、画像表示方法及びそのプログラム
JP5098259B2 (ja) * 2006-09-04 2012-12-12 株式会社ニコン カメラ
US20080080028A1 (en) * 2006-10-02 2008-04-03 Micron Technology, Inc. Imaging method, apparatus and system having extended depth of field
WO2010010707A1 (fr) 2008-07-23 2010-01-28 パナソニック株式会社 Dispositif de capture d’image et élément de circuit semi-conducteur

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0981245A2 (fr) * 1998-08-20 2000-02-23 Canon Kabushiki Kaisha Dispositif de prise de vue à l'état solide et méthode de contrôle correspondant, structure de base d'une cellule de conversion photoélectrique et support d'enregistrement
US20050285966A1 (en) * 2004-01-28 2005-12-29 Canesta, Inc. Single chip red, green, blue, distance (RGB-Z) sensor
US20090225217A1 (en) * 2008-02-12 2009-09-10 Sony Corporation Image pickup device and image pickup apparatus
US20100033611A1 (en) * 2008-08-06 2010-02-11 Samsung Electronics Co., Ltd. Pixel array of three-dimensional image sensor
US20100059844A1 (en) * 2008-09-05 2010-03-11 Nagataka Tanaka Solid-state imaging device and solid-state imaging device designing method

Also Published As

Publication number Publication date
US9048153B2 (en) 2015-06-02
US20120162410A1 (en) 2012-06-28

Similar Documents

Publication Publication Date Title
FR2969819A1 (fr) Capteur d'image tridimensionnel
EP2518770B1 (fr) Dispositif imageur destiné à evaluer des distances d'éléments dans une image
EP2515335B1 (fr) Circuit integré imageur et dispositif de capture d'images stéréoscopiques
FR3065132B1 (fr) Dispositif et procede d'imagerie multispectrale dans l'infrarouge
EP3198220B1 (fr) Dispositif et procede de profilometrie de surface pour le controle de wafers en cours de process
EP3459051B1 (fr) Procédé de reconstruction tridimensionnelle à l'aide d'une caméra plénoptique
EP3376544A1 (fr) Dispositif imageur optique
EP1224448B1 (fr) Procede et appareil de mesure en transmission de la structure geometrique d'un composant optique
EP2816007A1 (fr) Dispositif afficheur d'image ou dispositif capteur d'image comprenant un filtre spectral nanostructuré
EP2984443B1 (fr) Systeme d'acquisition d'images tridimensionnelles
FR3089286A1 (fr) Procédé et système pour mesurer une surface d’un objet comprenant des structures différentes par interférométrie à faible cohérence
EP2554941B1 (fr) Système optique de mesure d'orientation de casque à coins de cube et optique d'émission télécentrique
CA2701151A1 (fr) Systeme d'imagerie a modification de front d'onde et procede d'augmentation de la profondeur de champ d'un systeme d'imagerie
FR3102007A1 (fr) Capteur d’images
FR2968879A1 (fr) Procede de caracterisation de pixels d'un capteur d'image
FR3026227A1 (fr) Dispositif d'acquisition d'images 3d
FR2940720A1 (fr) Dispositif de saisie d'images comprenant des moyens de correction de mise au point
FR2783930A1 (fr) Appareil de mesure de distance
EP4196905A1 (fr) Dispositif d'acquisition d'images
EP2746830B1 (fr) Mise au point optique d'un instrument de saisie d'image
BE1015708A3 (fr) Procede pour mesurer la hauteur de spheres ou d'hemispheres.
FR3083864A1 (fr) Detecteur optique de particules
FR3041458A1 (fr) Dispositif d'imagerie, vehicule automobile equipe d'un tel dispositif d'imagerie, et procede associe
FR2969822A1 (fr) Capteur d'image tridimensionnel
EP3899458B1 (fr) Instrument a plusieurs voies optiques

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20130830