WO2006069886A1 - Capteur d'image a zones de couleur globalement separees - Google Patents

Capteur d'image a zones de couleur globalement separees Download PDF

Info

Publication number
WO2006069886A1
WO2006069886A1 PCT/EP2005/056376 EP2005056376W WO2006069886A1 WO 2006069886 A1 WO2006069886 A1 WO 2006069886A1 EP 2005056376 W EP2005056376 W EP 2005056376W WO 2006069886 A1 WO2006069886 A1 WO 2006069886A1
Authority
WO
WIPO (PCT)
Prior art keywords
matrices
image
matrix
optical
scene
Prior art date
Application number
PCT/EP2005/056376
Other languages
English (en)
Inventor
Louis Brissot
Original Assignee
E2V Semiconductors
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by E2V Semiconductors filed Critical E2V Semiconductors
Priority to JP2007547434A priority Critical patent/JP2008526062A/ja
Priority to EP05823548A priority patent/EP1829109A1/fr
Priority to CA002590667A priority patent/CA2590667A1/fr
Publication of WO2006069886A1 publication Critical patent/WO2006069886A1/fr

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L2924/00Indexing scheme for arrangements or methods for connecting or disconnecting semiconductor or solid-state bodies as covered by H01L24/00
    • H01L2924/0001Technical content checked by a classifier
    • H01L2924/0002Not covered by any one of groups H01L24/00, H01L24/00 and H01L2224/00

Abstract

L'invention concerne les capteurs d'image électronique en couleur et notamment les capteurs de très petites dimensions permettant de réaliser des appareils photographiques ou caméras miniatures (incorporables par exemple à un téléphone portable). Le capteur est pourvu d'un système optique permettant de projeter l'image d'une scène à observer sur un réseau de zones photosensibles réalisées dans une même puce semiconductrice monolithique solidaire du système optique ; ce système optique comporte plusieurs sous-ensembles optiques (L1, L2, L3, L4) et le réseau de zones photosensibles est divisé en au moins deux matrices (M1, M2, M3, M4) susceptibles d'être lues indépendamment, chaque sous-ensemble optique étant adapté pour projeter sur une matrice respective l'ensemble de la scène à observer, deux filtres uniformes de couleurs différentes (F1, F2, F3, F4) étant disposés respectivement au-dessus des différentes matrices pour laisser passer vers chaque matrice une lumière d'une seule couleur.

Description

CAPTEUR D'IMAGE A ZONES DE COULEUR GLOBALEMENT
SEPAREES
L'invention concerne les capteurs d'image électronique en couleur et notamment les capteurs de très petites dimensions permettant de réaliser des appareils photographiques ou caméras miniatures (incorporables par exemple à un téléphone portable). II est souhaitable de réaliser l'ensemble de la caméra par des procédés les plus économiques possibles tout en respectant des exigences croissantes de résolution, de qualité colorimétrique et de faible encombrement.
Un capteur d'image en couleur peut-être réalisé de la manière suivante : on part d'une tranche de silicium sur la face avant de laquelle on effectue des opérations de masquage, d'implantation d'impuretés, de dépôt de couches de compositions diverses provisoires ou définitives, de gravure de ces couches, de traitements thermiques , etc. ; ces opérations permettent de définir une matrice de points photosensibles et des circuits de traitement de signaux électriques associés à ces points ; puis on dépose sur la face avant de la tranche de silicium des couches de filtrage colorées que l'on grave individuellement pour définir un motif matriciel : la matrice comprend, en ligne et en colonne, des groupes de trois ou de préférence quatre filtres colorés de couleurs différentes pour chaque point d'image du capteur. Chaque filtre élémentaire est situé au-dessus d'une zone photosensible respective recevant la lumière d'une seule couleur. Les filtres immédiatement adjacents, au-dessus de zones photosensibles immédiatement adjacentes, ont des couleurs différentes. Chaque point d'image comprend alors en principe quatre filtres colorés (deux vert, un rouge, un bleu en général) au- dessus de quatre zones photosensibles adjacentes définissant un point d'image.
En raison du fait que la résolution est élevée, les zones adjacentes sont très proches les unes des autres et il y a un risque de diaphotie important, dû soit au fait qu'une partie de la lumière destinée à une zone photosensible vient frapper une zone adjacente, soit au fait qu'une partie des électrons photogénérés dans une zone photosensible sont en fait captés par des zones adjacentes. Il en résulte bien sûr une certaine perte de résolution spatiale, affectant principalement les scènes d'image comportant des fréquences spatiales élevées. Mais surtout, ce phénomène de diaphotie entre zones adjacentes s'avère critique quand on s'intéresse à la colorimétrie : même des zones d'image n'ayant que des fréquences spatiales faibles (par exemple une zone d'image de couleur rouge uniforme) peuvent être affectées : la couleur est détériorée systématiquement puisque les pixels voisins correspondant aux autres couleurs détectent systématiquement des électrons qui ne leur sont pas destinés. L'image électronique produite par une zone uniformément rouge n'est plus rouge mais comporte des composantes vertes et bleues.
Cette diaphotie aboutissant à une détérioration de la colorimétrie est particulièrement sensible en technologie CMOS ; dans cette technologie en effet, la diaphotie résulte de la hauteur importante de couches (plusieurs micromètres) qui sont situées entre les filtres colorés et les zones photosensibles.
D'autres problèmes de colorimétrie existent également dans les capteurs d'image en couleur, notamment des problèmes de moirés résultant des traitements d'interpolation effectués pour donner des valeurs de luminance d'une première couleur aux pixels qui ne correspondent pas à cette couleur mais qui sont situés entre deux points de cette couleur.
On a déjà proposé, dans le brevet FR-A-2 829 289 des structures à substrat aminci réduisant les problèmes de défauts de qualité colorimétrique. La présente invention propose une autre piste d'amélioration de la colorimétrie, applicable aussi bien à des structures classiques qu'à des structures à substrat aminci, et applicable quelle que soit la technologie (CMOS ou non) utilisée.
Selon l'invention, on réalise un capteur d'image en couleurs, pourvu d'un système optique permettant de projeter l'image d'une scène à observer sur un réseau de zones photosensibles réalisées dans une même puce semiconductrice monolithique solidaire du système optique, caractérisé en ce que le réseau de zones photosensibles est divisé en au moins deux matrices susceptibles d'être lues indépendamment et le système optique comporte plusieurs sous-ensembles optiques, chaque sous-ensemble optique étant adapté pour projeter sur une matrice respective l'ensemble de la scène à observer, deux filtres uniformes de couleurs différentes étant disposés respectivement l'un au-dessus de la première matrice et l'autre au- dessus de la deuxième matrice pour laisser passer vers chaque matrice une lumière d'une seule couleur.
Ainsi, au lieu que des pixels adjacents du capteur soient recouverts de filtres colorés différents, ce sont les matrices entières qui sont chacune recouvertes d'un filtre de couleur uniforme différent de celui d'une matrice adjacente. On sait faire aujourd'hui des systèmes optiques à très courte focale capables de projeter l'image focalisée d'une scène sur une matrice de plusieurs centaines de milliers de points d'image faisant quelques millimètres de côté. Ces systèmes peuvent être fabriqués et mis en place sur les capteurs lors de la fabrication collective de ceux-ci, c'est-à-dire sur une tranche de silicium avant division de la tranche en capteurs individuels. Par conséquent on peut réaliser collectivement une plaque de multiples sous- ensembles optiques très précisément positionnés les uns par rapport aux autres, et fabriquer collectivement une tranche de silicium portant différents capteurs dont les matrices sont positionnées très précisément de la même manière que les sous-ensembles optiques, et on peut accoler la plaque et la tranche de manière que chaque sous-ensemble optique soit en regard d'une matrice photosensible respective ; ensuite on divise l'ensemble de la tranche et de la plaque en capteurs individuels comportant chacun plusieurs sous- ensembles optiques et plusieurs matrices capables de recevoir chacune une image complète de la scène à observer, dans une couleur uniforme respective pour chaque matrice.
En pratique, on utilise quatre matrices disposées en carré si les matrices sont carrées, en rectangle si les matrices sont rectangulaires, deux matrices placées selon une diagonale du carré ou du rectangle étant associées à des filtres verts, les deux autres matrices placées selon l'autre diagonale étant associées l'une à un filtre rouge, l'autre à un filtre bleu.
Les signaux des différentes matrices d'une même puce de capteur sont combinés pour fournir une représentation globale de l'image dans ses différentes couleurs. La combinaison consiste simplement à affecter à un même point de l'image électronique colorée (un point comprenant plusieurs composantes de couleur) non pas les luminances reçues par plusieurs zones photosensibles adjacentes d'une même matrice, mais les luminances reçues par plusieurs (quatre) zones situées dans des matrices différentes et à une même position relative à l'intérieur des différentes matrices. La position relative tient compte des imperfections de positionnement qui font qu'un décalage peut exister entre le centre d'un sous-ensemble optique et le centre de la matrice correspondante, ce décalage pouvant être différent pour les différents sous-ensembles optiques.
L'invention permet de résoudre, au moins en partie et dans certains cas, les problèmes de colorimétrie rencontrés dans l'art antérieur. En effet, la diaphotie créée entre zones photosensibles adjacentes ne s'exerce plus qu'entre pixels de même couleur. Comme dans l'art antérieur, cette diaphotie se traduit par une perte de résolution, ce qui est inévitable, avant de se traduire par une colorimétrie dégradée. Cette solution suppose en théorie que l'image de la scène à observer soit projetée exactement de la même manière sur les différentes matrices, c'est-à-dire qu'un même point d'image de la scène à observer soit projeté à la même position relative sur les quatre matrices. Toutefois, si la précision de l'assemblage optique n'est pas suffisante pour assurer cette identité de position relative, on verra plus loin qu'on peut trouver des correctifs électroniques pour compenser au moins en partie ces erreurs de position.
En particulier, on prévoit de préférence que les matrices sont plus grandes que l'image de la scène à observer ; de cette manière, en supposant qu'un point central de la scène à observer ne soit pas exactement projeté au centre des quatre matrices par suite de défauts de positionnement relatif entre les sous-ensembles optiques et les matrices, on peut calibrer les erreurs de positionnement puis décaler électroniquement les signaux issus des différentes matrices dans la mesure de l'erreur constatée, sans perdre de morceaux d'image, la totalité de l'image de la scène restant projetée sur les quatre matrices même si elle n'est plus exactement centrée sur le centre de ces matrices.
On notera que la projection de l'image d'un objet par deux sous- ensembles optiques placés côte à côte sur deux matrices identiques placées également côte à côte n'est centrée de la même manière sur les deux matrices que si la distance de l'objet par rapport au capteur est très grande devant l'écartement des centres des deux sous-ensembles optiques. Si l'objet est placé à une distance non infinie, les images projetées sur les deux matrices tendent à s'écarter l'une de l'autre d'autant plus que l'objet se rapproche. On peut calculer le décalage en fonction de la distance de l'objet (pour un écartement donné des sous-ensembles optiques) et prendre en compte ce décalage pour faire correspondre point à point les images délivrées par les différentes matrices. Le décalage relatif entre les images sur deux matrices voisines est proportionnel à l'écartement des sous- ensembles optiques correspondants et inversement proportionnel à la distance de l'objet.
Selon une caractéristique importante de l'invention, on peut calculer ce décalage dans le cas où le capteur comporte deux matrices pour la couleur verte, une matrice pour la couleur rouge et une matrice pour la couleur bleue. Dans ce cas, si on veut prendre l'image d'objets relativement rapprochés (par exemple à une distance inférieure à N fois la distance focale de la matrice si N est le nombre de pixels d'une ligne de l'image projetée sur la matrice) on utilise le fait que les deux sous-ensembles optiques correspondant aux matrices vertes sont écartés d'une distance qui est la même que celle qui sépare les sous-ensembles associés aux matrices rouge et bleue. On recherche par un algorithme de corrélation d'image quel est le décalage qui superpose au mieux les images des deux matrices vertes, et on en déduit le décalage qu'il faut effectuer sur les différentes matrices vertes, bleue et rouge, pour établir une correspondance d'image entre les pixels des quatre matrices.
Selon une autre caractéristique de l'invention, pour améliorer la colorimétrie, au lieu d'utiliser deux matrices vertes, une matrice rouge et une matrice bleue, on peut prévoir que les quatre matrices sont revêtues de quatre filtres différents, notamment rouge, vert, bleu et cyan.
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description détaillée qui suit et qui est faite en référence aux dessins annexés dans lesquels : - la figure 1 représente en vue de dessus et à titre d'exemple une constitution connue d'un capteur d'image colorée, avec un réseau de zones photosensibles agencées en lignes et en colonne ;
- la figure 2 représente le même capteur à plus petite échelle et en coupe latérale, avec un système optique qui projette globalement une image à observer sur la matrice de zones photosensibles ;
- la figure 3 représente en coupe latérale un capteur selon l'invention, avec plusieurs sous-ensembles optiques projetant la même image sur plusieurs matrices différemment colorées ; - la figure 4 représente une vue de dessus du capteur de la figure
3 ;
- la figure 5 représente un schéma expliquant le décalage intrinsèque dû aux erreurs de positionnement relatif entre les sous- ensembles optiques et les matrices ; - la figure 6 représente une variante dans laquelle les quatre matrices sont les quatre quadrants d'une matrice plus grande ;
- la figure 7 représente un exemple de réalisation avec plusieurs lentilles au-dessus de chaque matrice ;
- la figure 8 représente un schéma expliquant le décalage d'images dû au décentrage de deux sous-ensembles optiques observant un même objet placé à une distance non infinie ;
- la figure 9 représente une réalisation pratique de matrices permettant de définir le positionnement d'une image à un demi-pixel près pour améliorer la résolution à l'aide de deux matrices vertes.
La figure 1 représente en vue de dessus, à titre d'exemple, l'agencement général des pixels d'une matrice photosensible d'un capteur d'image en couleur en technologie CMOS. Seuls quelques pixels sont représentés, étant entendu que la matrice peut comporter plusieurs centaines de milliers de pixels, par exemple 1 ,2 millions de pixels. Les zones photosensibles de ces pixels ont dans cet exemple une forme à peu près octogonale. La commande des pixels s'effectue par des lignes conductrices globalement horizontales et verticales non représentées, qui ne sont pas complètement rectilignes, mais qui suivent plutôt les contours des octogones. Sur la figure 1 , on a représenté en outre l'organisation des couleurs : la lettre R, V, B associée à chaque pixel indique que le pixel correspondant est recouvert d'un filtre individuel de couleur rouge (R) ou vert
(V) ou bleu (B) respectivement. Les pixels voisins sont de couleurs alternées. II y a deux fois plus de pixels verts que de pixels rouges et de pixels bleus.
La figure 2 représente schématiquement en coupe latérale à plus petite échelle que la figure 1 , la manière dont peut être réalisé un capteur d'image en couleur, ici un capteur à silicium aminci, avec
- une embase 10 avec des connections électriques 12, - une matrice de zones photosensibles réalisée dans un substrat de silicium 20 très mince (de l'ordre d'une dizaine de micromètres d'épaisseur),
- une couche matricielle de filtres colorés 30 dans laquelle les pixels voisins sont recouverts par des filtres de couleurs différentes alternées R, V, B comme indiqué sur la figure 1 ,
- et un système optique 40 de formation d'image, apte à projeter sur la matrice photosensible (à travers les filtres colorés) l'image globale d'une scène à observer ; le système optique est composé d'une ou plusieurs plaques transparentes ; ces plaques servent à former une ou plusieurs lentilles de verre ou de matière plastique transparente superposées les unes aux autres ; ici on a représenté une seule lentille L. Le système optique doit être très précisément positionné en hauteur au-dessus de la matrice photosensible pour focaliser sur la surface de la matrice l'image de la scène observée. Une couche de séparation transparente 35, d'épaisseur bien déterminée pour assurer ce positionnement précis, a été représentée sur la figure 2.
La figure 3 représente un capteur selon l'invention vu en coupe latérale, tandis que la figure 4 représente ce capteur en vue de dessus.
La matrice de points photosensibles est divisée en plusieurs matrices formées sur une seule puce de circuit intégré et le système optique est divisé en autant de sous-ensembles optiques. Chaque sous-ensemble optique projette sur une matrice respective une image optique complète de l'ensemble de la scène à observer. Chaque matrice est recouverte d'un seul filtre coloré uniforme. Dans la réalisation préférée, il y a quatre matrices juxtaposées en carré ou en rectangle (deux lignes de deux matrices chacune), désignées par M1 , M2, M3 et M4, recouvertes par des filtres respectifs F1 , F2, F3, F4 et des sous-ensembles optiques respectifs L1 , L2, L3, L4 figurés chacun par une lentille. Les matrices M1 et M4 sont diagonalement opposées, de même que les matrices M2 et M3. De préférence les filtres F1 et F4 de deux des matrices diagonalement opposées, ici M1 et M4, sont verts. Les filtres des deux autres matrices sont respectivement rouge (F2 sur la matrice M2) et bleu (F3 sur la matrice M3). Seuls les filtres F1 et F2, les sous-ensembles optiques L1 et L2, et les matrices M1 et M2 sont visibles sur la figure 3.
Les sous-ensembles optiques projettent substantiellement la même scène visible sur chacune des matrices (à un petit décalage près, comme on le verra, dû au fait que les matrices sont latéralement décalées les unes par rapport aux autres). Les matrices sont représentées comme des matrices carrées ; elles pourraient être rectangulaires pour une prise d'image en format rectangulaire.
Dans une fabrication industrielle de haute précision, réalisée par des techniques de micro-usinages et de micro-assemblages les sous- ensembles optiques peuvent être considérés comme identiques, de même distance focale, correctement et identiquement positionnés en distance par rapport au plan commun des quatre matrices photosensibles.
Dans ce cas, si on suppose que l'image de la scène à observer est tout simplement une mire rectangulaire blanche représentant un contour extérieur théorique de la scène, ce contour extérieur va être projeté sur chacune des matrices selon quatre contours rectangulaires identiques représentés par des rectangles pointillés sur la figure 4. On fait ici l'hypothèse simplificatrice qu'il n'y a pas de distorsion d'image ; s'il y en a, elle est la même pour tous les sous-ensembles optiques. Les rectangles pointillés ne sont pas forcément positionnés exactement de la même manière par rapport à la matrice photosensible sur laquelle ils sont projetés. Cela est dû d'abord au fait que les sous-ensembles optiques ne "voient" pas exactement le rectangle au même endroit puisqu'ils sont décalés latéralement les uns par rapport aux autres, de la même manière que deux personnes placées côte à côte et prenant une photographie dans la même direction voient des images décalées en proportion du décalage des appareils photographiques. Ici le décalage des sous-ensembles optiques est de quelques millimètres et induit un certain décalage des rectangles, égal au décalage des capteurs multiplié par le grandissement ; le grandissement est défini ici comme le rapport entre les dimensions de l'image d'un objet projeté sur la matrice et les dimensions de l'objet lui-même ; le décalage est alors nul pour une scène située à l'infini. D'autre part, les sous-ensembles optiques ne sont pas forcément positionnés latéralement par rapport aux matrices aussi exactement qu'il le faudrait, à cause des limites de précision de fabrication industrielle lors du report des sous-ensembles sur les matrices, de sorte que leur centre ne se situe pas forcément exactement à l'aplomb du centre des matrices. Il y donc d'une part un décalage dû à la proximité plus ou moins grande de l'objet dont on prend l'image, et d'autre part un décalage intrinsèque dû aux imperfections de positionnement relatif des sous-ensembles optiques par rapport aux matrices.
Cependant, la dimension des rectangles projetés est bien la même sur tous les rectangles si les optiques sont identiques et placées à une même distance des surfaces de zones photosensibles sur lesquels ces rectangles sont projetés.
Par conséquent, il est possible de déterminer par calibration en usine ou ultérieurement, au moins le décalage intrinsèque relatif des différentes matrices. Une mire de référence blanche, par exemple le rectangle mentionné ci-dessus, ou la simple image de quelques points blancs, placés à distance suffisante (plus de N fois la distance focale pour une matrice de N lignes de pixels) va donner lieu à une image sur chaque matrice, et on établira à partir des quatre images une relation de correspondance par des vecteurs de translation qui font correspondre ensuite point à point les quatre images de n'importe quelle scène observée à distance suffisante.
La figure 5 représente une vue de dessus de la matrice M1 expliquant le calcul du décalage relatif intrinsèque entre les matrices.
On désigne par O1 le centre optique du sous-ensemble optique surplombant la matrice M1. Ce sous-ensemble projette sur la matrice une image rectangulaire IM1 d'un objet à l'infini centré par rapport à un axe central O du capteur. Le centre de l'image projetée est à l'aplomb du point 01 et donc confondu avec ce point sur la vue de dessus de la figure 5. La matrice M1 peut elle-même être considérée comme ayant un centre C1 qui serait aussi confondu avec le point 01 si l'ajustement de position entre le sous-ensemble optique et la matrice était parfait. Le centre C1 peut être considéré, pour simplifier, comme étant l'intersection de la ligne médiane et de la colonne médiane de la partie utile de la matrice M1. En raison des imperfections, le centre C1 peut être légèrement décalé par rapport au centre 01. On repère, dans un système de coordonnées en lignes et en colonne de pixels de la matrice, la position exacte du rectangle IM1 , donc du centre optique 01 , par rapport au centre C1 de la matrice. Ce repérage est fait lors d'une calibration en usine. Il est fait pour les autres matrices aussi, à partir des images IM2, IM3, IM4 du même rectangle à l'infini, projeté sur les autres matrices. Les différences de position en abscisse et en ordonnée des points
01 et C1 pour la matrice M1 , et des points semblables 02, C2, 03, C3, 04, C4 pour les autres matrices, détermineront les décalages respectifs en ligne et en colonne qu'il faut établir lors de la lecture des signaux électroniques issus de chaque matrice pour faire correspondre à chaque point d'image de la scène observée un point correspondant dans chaque matrice dans l'hypothèse où la scène est à l'infini.
Ces décalages sont stockés dans des registres de calibration ; ces registres contiendront donc une information qui correspond à un décalage relatif entre les centres des sous-ensembles optiques et les centres des différentes matrices ; les signaux électroniques issus des quatre matrices sont combinés ensuite en fonction du contenu de ces registres pour compenser ces décalages et rétablir une correspondance exacte et systématique entre les images issues des différentes matrices.
Les signaux électroniques issus des différentes matrices sont recueillis séparément (mais de préférence de manière synchrone).
La matrice M1 et la matrice M4 fourniront des signaux représentant une composante de couleur verte dans l'image de la scène observée. La matrice M2 et la matrice M3 fourniront respectivement une composante de couleur rouge et une composante de couleur bleue de l'image. Sur la figure 4, on a représenté des matrices disjointes, ce qui permet de loger si on le désire des circuits électroniques de commande dans l'intervalle entre les matrices. Toutefois, on peut préférer, conformément à la figure 6, une disposition dans laquelle les quatre matrices sont accolées et ne forment qu'une seule grande matrice continue M. Cette matrice doit alors être divisée en quatre secteurs pouvant en principe être lus indépendamment. Les circuits de lecture associés à la matrice sont donc de préférence divisés en quatre éléments qu'on a figurés sur la figure 6 sous forme de quatre registres de lecture R1 , R2, R3, R4 associés respectivement aux quatre secteurs de la matrice M.
Que ce soit avec la configuration de la figure 4 ou celle de la figure 6, il est en tous cas souhaitable, pour s'assurer qu'on peut tenir compte des erreurs de positionnement relatif des différents sous-ensembles optiques, de prévoir que la surface active de la matrice est supérieure d'au moins quelques dizaines de lignes et colonnes, à la surface maximale de l'image des scènes à observer ; on peut alors mieux tenir compte des erreurs de positionnement intrinsèques, et plus encore du décalage d'images dues à la proximité de l'objet photographié, sans risquer de perdre une partie de la scène observée par débordement de l'image au-delà de la matrice. En supposant qu'on souhaite une image avec une résolution de
1 ,2 millions de pixels (un pixel correspondant à un point d'image de couleur déterminée) comportant par exemple 1000 lignes de 1200 colonnes de pixels, on va réaliser selon l'invention quatre matrices juxtaposées de couleurs différentes ayant chacune environ 500 lignes de 600 colonnes, les pixels de ces matrices ayant la même dimension et le même pas que les pixels de la matrice trichrome qu'on aurait utilisée dans l'art antérieur.
Etant donné que les matrices de différentes couleurs ont des côtés deux fois plus petits que la matrice globale de l'art antérieur (pour une même résolution et pour une même surface de pixel donc une même sensibilité), les sous-ensembles optiques qui projettent une image ont également des dimensions latérales deux fois plus petites. Il en résulte qu'ils peuvent avoir une longueur focale deux fois plus petite ; ils sont alors non seulement moins épais, mais aussi placés plus près de la surface de la matrice photosensible. L'épaisseur globale du capteur en est d'autant réduite. Or l'épaisseur du capteur est une donnée de plus en plus importante dans la réalisation de capteurs d'image miniature. Le gain apporté par l'invention est très significatif sur ce paramètre.
On utilise un procédé de fabrication collective du capteur ainsi constitué, c'est-à-dire qu'on fabrique non seulement une multiplicité de capteurs d'image sur une même tranche de circuit intégré, mais on rapporte sur cette tranche une plaque comportant de multiples systèmes optiques avant de découper l'ensemble tranche+plaque en capteurs individuels comportant chacun une puce de silicium solidaire d'un système optique.
Les sous-ensembles optiques sont constitués à partir de plaques transparentes sur lesquelles sont formées des lentilles. Ces plaques peuvent être en verre et sont moulées. Les sous-ensembles peuvent comporter une ou plusieurs lentilles superposées ; s'il y en a plusieurs (lentilles convergentes et/ou divergentes), les plaques sont superposées de telle manière que l'espacement entre les lentilles corresponde à la fonction optique à réaliser. Un diaphragme fixe peut être formé de la même manière à partir d'une plaque transparente, moulée ou non en forme de lentille, recouverte d'une couche opaque ouverte autour de l'axe optique de chaque sous-ensemble optique.
La figure 7 représente un capteur d'image dans lequel chaque sous-ensemble optique comporte deux lentilles superposées, formées dans des plaques de verre moulées superposées 41 et 42, séparées par une plaque d'entretoise 43 pour ajuster l'espacement vertical désiré entre les lentilles. L'une des lentilles est recouverte d'une couche opaque 44 (par exemple une couche d'aluminium) ouverte localement en quatre endroits pour définir au-dessus de chaque matrice un diaphragme (fixe) 45 par lequel passe la lumière issue de la scène observée.
Le diaphragme peut être défini aussi sur une plaque supplémentaire au-dessus de la plaque 42 et à distance de celle-ci. Le diaphragme peut avoir une fonction de diaphragme de champ, et dans ce cas il est de préférence de forme rectangulaire (même forme que les matrices) de manière à limiter l'éclairement d'une matrice par une optique associée à une matrice voisine.
Le capteur selon l'invention est particulièrement adapté aux cas où la scène observée est à une distance suffisante du capteur d'image pour que les décalages d'image autres que les décalages intrinsèques dus aux imprécision de fabrication soient négligeables.
Pour des scènes proches aboutissant à des décalages non négligeables devant la taille d'un pixel (par exemple des scènes situées à moins de N fois la distance focale pour une matrice de N lignes), on peut prévoir un réglage du décalage en fonction de la proximité de la scène : le décalage à compenser est proportionnel à l'écartement d des sous- ensembles optiques et inversement proportionnel à la distance du sujet observé. Dans le cas d'un capteur à quatre matrices dont deux matrices vertes, on peut utiliser le fait que les deux matrices vertes devraient voir la même image s'il n'y avait ni décalage intrinsèque ni décalage dû à la proximité du sujet. Le décalage intrinsèque peut, comme on l'a vu, être calibré en usine et pris en compte ultérieurement de manière systématique, de sorte qu'on peut considérer pour la suite des explications qu'il faut seulement corriger le décalage dû à la proximité du sujet. Le centre optique 01 , 02, 03, 04 des sous-ensembles optiques sera donc considéré ci-après comme étant confondu avec le centre C1 , C2, C3, C4 respectivement, des matrices M1 à M4. Lorsque le sujet photographié est à une distance D non infinie, les images de ce sujet, projetées par deux optiques identiques dont les centres sont séparés d'une distance d, sont décalées latéralement, par rapport aux centres des optiques, d'une distance proportionnelle à d/D, plus précisément d'une distance égale à d.F/D si F est la distance focale. Autrement dit, en se référant à la figure 8 :
Sur la figure 8a, on imagine un seul ensemble optique L de centre O qui projette sur la matrice une image (vecteur vs) d'un objet (vecteur VS) situé à une distance D ; l'objet VS et l'image vs sont centrés par rapport à un centre hypothétique C de la matrice lui-même à l'aplomb du centre optique O.
Sur la figure 8b, on remplace l'optique simple par deux optiques L1 et L4 identiques à l'optique L de la figure 8a mais décalées latéralement d'une distance d l'une part rapport à l'autre, c'est-à-dire que leurs centres 01 et 04 sont en quelque sorte décalés latéralement de +d/2 et -d/2 par rapport au centre O de l'optique unique ; elles observent le même sujet qu'à la figure 8a (représenté encore par un vecteur VS) et ce sujet est encore centré par rapport au groupe de deux optiques, c'est-à-dire qu'il reste centré sur le centre O qui représente en quelque sorte un axe général central du capteur d'image comprenant les deux sous-ensembles optiques. Le vecteur VS est donc décentré d'un côté par rapport au centre 01 du premier sous-ensemble optique et décentré de l'autre côté par rapport au centre 04 du deuxième sous-ensemble optique. Un effet d'erreur de parallaxe est introduit par le fait que D n'est pas infini.
Les images vs1 et vs4 données par les deux ensembles optiques sont non seulement décalées l'une par rapport à l'autre d'une distance d puisque les optiques sont décalées d'une distance d, mais elles sont en outre décalées l'une par rapport à l'autre d'une distance supplémentaire dF/D due au fait que le sujet est vu par chaque optique latéralement et non de manière centrée. Si on appelle C1 le centre de la matrice M1 , situé à l'aplomb du centre 01 de l'optique L1 située à gauche, et C4 le centre de la matrice M4 situé à l'aplomb du centre 04 de l'optique située à gauche, les centres C1 et C4 sont décalés d'une distance d, c'est-à-dire que C1 est décalé par rapport à C de +d/2 et C4 est décalé de -612. L'image vs1 donnée par l'optique L1 est décalée à gauche par rapport au centre C1 d'une distance égale à d.F/2D. En d'autres mots, le centre de l'image du sujet, au lieu d'être confondu avec le centre C1 , est décalé à gauche de d.F/2D. De même, l'image vs4 donnée par l'optique L4 est décalée à droite par rapport au centre C4 d'une distance égale à d.F/2D. Avec le système de quatre optiques de projection selon l'invention, on va utiliser le fait que deux matrices vertes placées en diagonale (M1 et M4) sont supposées voir la même scène, cette scène étant cependant décalée sur les deux matrices dès lors que le grandissement n'est pas nul.
Un calcul de corrélation entre une image de la matrice M1 et des images successivement décalées de la matrice M4 permet de rechercher la valeur de décalage qui donne la meilleure corrélation et qui représente donc le décalage global qui existe entre les images projetées sur les deux matrices. En supposant qu'il n'y a pas de décalage intrinsèque dû au mauvais positionnement des optiques, ou en soustrayant du décalage global le calibrage correspondant au décalage intrinsèque, le décalage qui subsiste est le décalage d.F/D dû à la proximité du sujet. Ce décalage est un vecteur orienté dans la direction de la diagonale reliant les centres recalibrés des matrices vertes.
L'algorithme de recherche du décalage est simple puisqu'on connaît la direction du décalage dû à la proximité de l'objet photographié : on prélève dans la matrice M1 et dans la matrice M4 une bande d'image qui contient vraisemblablement le sujet principal observé. Ces bandes d'image sont référencées par rapport au centre de chaque matrice après prise en compte de la calibration, donc elles sont référencées par rapport au centre 01 et 04 des optiques ; la référence est la même pour les deux matrices, c'est-à-dire que si la bande d'image est centrée sur 01 dans la matrice M1 , la bande correspondante de la matrice M4 est centrée sur 04. Les bandes d'image sont des échantillons de l'image globale parce qu'il n'est pas nécessaire d'utiliser la totalité de l'image pour faire la corrélation. On soustrait les bandes d'images de M1 et M4 l'une de l'autre. On détermine et on stocke une valeur d'éclairement représentative de l'image résultant de la soustraction (cette valeur peut être tout simplement l'éclairement moyen de l'image résultant de la soustraction).
On modifie ensuite les échantillons de bande d'image par décalage d'un incrément de distance selon la diagonale reliant les centres des matrices (cela veut dire un décalage d'un pixel en ligne et un pixel en colonne). On prélève donc maintenant deux autres bandes d'image dont les centres sont écartés d'un incrément par rapport aux centres des matrices. On refait la soustraction et on détermine l'éclairement de l'image résultant de la soustraction.
On refait cette opération successivement en incrémentant à chaque fois la position relative des bandes par rapport aux centres des matrices. L'incrémentation se fait dans un sens où on prend successivement deux bandes d'image qui s'éloignent (et non qui se rapprochent) l'une de l'autre dans le sens de la diagonale reliant les centres des matrices. On le comprend en effet en regardant la figure 8b : les images se décalent en s'éloignant vers l'extérieur des diagonales lorsque le sujet photographié se rapproche du capteur d'image ; il est plus commode de partir d'une situation théorique sans décalage, correspondant à un sujet placé à l'infini et de rechercher progressivement la présence d'un décalage de plus en plus grand.
On recherche le décalage qui donne la plus faible valeur d'éclairement de l'image résultant de la soustraction. Ce décalage représente la valeur d.F/2D mentionnée précédemment, car la plus faible valeur d'éclairement est celle qui correspond à des bandes d'image superposables, et on a vu que pour une distance D de l'objet photographié, les images étaient superposables après décalage de d.F/2D de chaque image en sens inverse l'une de l'autre. Une fois trouvée cette valeur dF/2D optimale, il reste à l'utiliser
- d'une part pour déterminer l'image verte normale que fournirait chaque matrice verte si elle était située juste au centre O du capteur et non écartée de d/2 de ce centre ; on décale donc l'image de la matrice M1 en la rapprochant de d.F/2D du centre C1 , et on décale l'image de la matrice M4 en la rapprochant de d.F/2D du centre C4.
- d'autre part pour en déduire le décalage nécessaire pour les matrices bleue et rouge. En effet, le décalage dû à la proximité de l'objet photographié est le même qu'entre les deux matrices vertes et il suffit de décaler l'image rouge de la matrice M2 d'une valeur dF/2D dans le sens de la diagonale entre les centres des matrices M2 et M3, et l'image bleue de la matrice M3 de la même valeur dans le sens de cette diagonale. Les décalages dF/2D pour les matrices rouge et bleue sont en sens inverse le long de la diagonale, et dans un sens qui tend à rapprocher les images vers le centre de chaque matrice, puisque la disposition des optiques tend à les en éloigner.
Les décalages calculés pour chaque matrice, vertes, bleue et rouge, permettent de déterminer ensuite le séquencement de recombinaison qui fait correspondre à chaque point d'image un point respectif dans chaque matrice pour aboutir à une image en couleurs complète. Dans l'algorithme de recherche de la meilleure valeur de décalage, on peut effectuer des incrémentations plus fines, par exemple une incrémentation d'un pixel pour une seule des deux bandes d'image, puis une incrémentation d'un pixel pour l'autre. On peut aussi incrémenter d'un pixel en ligne mais pas en colonne et attendre l'incrémentation suivante pour incrémenter en colonne et pas en ligne. On a ainsi décrit un capteur d'image en couleurs à colorimétrie améliorée qui peut donner une image correcte même pour des sujets rapprochés.
Il est possible également d'améliorer la résolution apparente du capteur grâce à la présence des deux matrices vertes. Pour cela, on peut positionner très précisément les matrices vertes l'une par rapport à l'autre avec un demi-pixel de décalage relatif entre les images projetées sur l'une et l'autre matrice (en supposant déjà pris en compte et corrigé, pour simplifier l'explication, le décalage intrinsèque dû au positionnement imparfait des centres des optiques qui surmontent les matrices). On a alors un échantillonnage accru sur la voie verte. Le décalage est d'un demi-pixel en ligne et un demi-pixel en colonne. Les images projetées doivent aussi être décalées d'un demi-pixel, en diagonale l'une par rapport à l'autre.
Une possibilité pour positionner les deux images à un demi-pixel près consiste à utiliser une matrice de pixels de dimension et pas deux fois plus petits que la taille de pixel désirée pour la matrice, et à effectuer une sommation des charges des pixels voisins pour reconstituer un pixel de taille normale. Cette sommation s'effectue au niveau de chaque pixel avant lecture, et ceci que ce soit en technologie CCD ou CMOS. Selon les pixels plus petits voisins qui sont sommés, on constitue des pixels de taille normale centrés à un demi-pixel près, et les deux matrices peuvent avoir des commandes différentes pour qu'il y ait effectivement un décalage d'un demi- pixel entre elles.
En technologie CCD, la sommation (également appelée "binning") se fait dans les registres de lecture par commande des grilles de transfert à quatre phases.
En technologie CMOS, la sommation se fait dans un nœud de stockage de charges qui est associé à quatre petites photodiodes voisines, et qui est séparé de ces photodiodes par des grilles de transfert, de sorte qu'une commande appropriée de ces grilles permet de choisir lesquelles des photodiodes voisines voient leurs charges transférées dans un nœud de stockage déterminé. A partir de neuf photodiodes voisines organisées en lignes et colonnes, on peut grouper les photodiodes par ensembles de quatre photodiodes voisines, avec un nœud de stockage de charges placé au centre de chaque groupe. Il y a quatre groupes possibles, et ces groupes constituent des pixels plus grands, séparés les uns des autres par un demi- pas de pixel soit en ligne soit en colonne soit en diagonale.
Par conséquent, si une matrice a ses pixels groupés d'une certaine manière, l'autre matrice peut avoir ses pixels groupés d'une autre manière telle que le décalage entre les deux matrices soit d'un demi-pixel en diagonale.
La figure 9 représente un exemple de réalisation concrète, montrant les photodiodes octogonales de surface globalement égale à un quart de la taille de la photodiode qu'on aurait pour un pas de pixel désiré. Les flèches montrent le déversement de quatre photodiodes à la fois dans un nœud de stockage entouré par ces quatre photodiodes. Le choix des grilles de transfert actionnées pour une photodiode détermine le nœud de stockage dans laquelle elle va se déverser. A la figure 9a, les grilles de transfert sont actionnées pour grouper quatre diodes d'une certaine manière, et à la figure 9b les grilles de transfert sont actionnées pour grouper les diodes différemment, autour d'un nœud de stockage. Les nœuds de stockage utilisés à la figure 9a (première matrice verte) sont décalés tous d'un demi- pixel par rapport aux nœuds de stockage utilisés à la figure 9b (deuxième matrice verte). Si la colorimétrie est un paramètre plus important que la résolution et que l'exactitude de superposition des images ou si on se contente d'observer des images de scènes planes lointaines qui se superposent de toutes façons correctement, on peut prévoir que le capteur comporte quatre matrices revêtues de quatre filtres de couleurs différentes, notamment rouge, vert, bleu et cyan associés chacun à une matrice. On ne peut évidemment alors plus traiter l'image issue de deux matrices pour déterminer et corriger l'erreur de parallaxe et on doit donc se limiter à l'observation de scènes lointaines.

Claims

REVENDICATIONS
1. Capteur d'image en couleurs, pourvu d'un système optique permettant de projeter l'image d'une scène à observer sur un réseau de zones photosensibles réalisées dans une même puce semiconductrice monolithique solidaire du système optique, caractérisé en ce que le système optique comporte plusieurs sous-ensembles optiques (L1 , l_2, L3, L4) et le réseau de zones photosensibles est divisé en au moins deux matrices (M1 , M2, M3, M4) susceptibles d'être lues indépendamment, chaque sous- ensemble optique étant adapté pour projeter sur une matrice respective l'ensemble de la scène à observer, deux filtres uniformes de couleurs différentes (F&, F2, F3, F4) étant disposés respectivement au-dessus des différentes matrices pour laisser passer vers chaque matrice une lumière d'une seule couleur.
2. Capteur d'image selon la revendication 1 , caractérisé en ce que le réseau de zones photosensibles est divisé en quatre matrices disposées en carré, deux matrices placées selon une diagonale du carré étant associées à des filtres verts, les deux autres matrices placées selon l'autre diagonale étant associées l'une à un filtre rouge, l'autre à un filtre bleu.
3. Capteur d'image selon l'une des revendications 1 et 2, caractérisé en ce qu'il comporte au moins un registre de calibration contenant un décalage relatif entre les centres des sous-ensembles optiques et les centres des matrices.
4. Capteur d'image selon l'une des revendications précédentes, caractérisé en ce que les matrices sont plus grandes que l'image de la scène à observer, afin de pouvoir tenir compte de défauts de positionnement relatif entre sous-ensembles optiques et matrices sans perdre de morceaux d'image, la totalité de l'image de la scène à observer restant projetée sur les quatre matrices même si elle n'est plus exactement centrée sur le centre de ces matrices.
5. Capteur d'image selon l'une des revendications 1 à 4, caractérisé en ce qu'il comporte des moyens pour faire correspondre point à point les images des différentes matrices en fonction de la distance d'un objet dans une scène à observer, par décalage relatif des images de deux matrices voisines d'une distance proportionnelle à l'écartement des sous- ensembles optiques correspondants et inversement proportionnelle à la distance de l'objet.
6. Capteur d'image selon la revendication 2, caractérisé en ce qu'il comporte des moyens pour rechercher, par un algorithme de corrélation d'image quel est le décalage qui superpose au mieux les images des deux matrices vertes, et on en déduit le décalage qu'il faut effectuer sur les différentes matrices vertes, bleue et rouge, pour établir une correspondance d'image entre les pixels des quatre matrices.
7. Capteur d'image selon la revendication 1 , caractérisé en ce qu'il comporte quatre matrices recouvertes de quatre filtres colorés différents, notamment rouge, vert, bleu et cyan.
PCT/EP2005/056376 2004-12-24 2005-12-01 Capteur d'image a zones de couleur globalement separees WO2006069886A1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007547434A JP2008526062A (ja) 2004-12-24 2005-12-01 全体的に分離したカラーゾーンを有するイメージセンサー
EP05823548A EP1829109A1 (fr) 2004-12-24 2005-12-01 Capteur d'image a zones de couleur globalement separees
CA002590667A CA2590667A1 (fr) 2004-12-24 2005-12-01 Capteur d'image a zones de couleur globalement separees

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR04/13961 2004-12-24
FR0413961A FR2880194B1 (fr) 2004-12-24 2004-12-24 Capteur d'image a zones de couleur globalement separees

Publications (1)

Publication Number Publication Date
WO2006069886A1 true WO2006069886A1 (fr) 2006-07-06

Family

ID=34955061

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/056376 WO2006069886A1 (fr) 2004-12-24 2005-12-01 Capteur d'image a zones de couleur globalement separees

Country Status (6)

Country Link
EP (1) EP1829109A1 (fr)
JP (1) JP2008526062A (fr)
CN (1) CN101088163A (fr)
CA (1) CA2590667A1 (fr)
FR (1) FR2880194B1 (fr)
WO (1) WO2006069886A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9055181B2 (en) 2011-07-15 2015-06-09 Kabushiki Kaisha Toshiba Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100976886B1 (ko) 2006-12-22 2010-08-18 크로스텍 캐피탈, 엘엘씨 부동 베이스 판독 개념을 갖는 cmos 이미지 센서
JP5233897B2 (ja) * 2009-07-31 2013-07-10 ソニー株式会社 画像処理装置および方法
WO2013049948A1 (fr) * 2011-10-06 2013-04-11 Heptagon Micro Optics Pte. Ltd. Procédé de fabrication d'objets au niveau de tranches, et produits semi-finis correspondants

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1133148A2 (fr) * 2000-02-10 2001-09-12 Fuji Photo Film Co., Ltd. Dispositif de prise de vues à l'état solide
EP1148712A2 (fr) * 2000-04-13 2001-10-24 Sony Corporation Dispositif de prise de vues à l'état solide
FR2819941A1 (fr) * 2001-01-25 2002-07-26 Get Int Element photoelectrique a tres grande dynamique de fonctionnement
US20040099792A1 (en) * 2000-11-17 2004-05-27 Thierry Ducourant Photosensitive device and method for controlling same
US20040251477A1 (en) * 2001-08-31 2004-12-16 Eric Pourquier Colour image sensor with enhanced calorimetry and method for making same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1133148A2 (fr) * 2000-02-10 2001-09-12 Fuji Photo Film Co., Ltd. Dispositif de prise de vues à l'état solide
EP1148712A2 (fr) * 2000-04-13 2001-10-24 Sony Corporation Dispositif de prise de vues à l'état solide
US20040099792A1 (en) * 2000-11-17 2004-05-27 Thierry Ducourant Photosensitive device and method for controlling same
FR2819941A1 (fr) * 2001-01-25 2002-07-26 Get Int Element photoelectrique a tres grande dynamique de fonctionnement
US20040251477A1 (en) * 2001-08-31 2004-12-16 Eric Pourquier Colour image sensor with enhanced calorimetry and method for making same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9055181B2 (en) 2011-07-15 2015-06-09 Kabushiki Kaisha Toshiba Solid-state imaging device, image processing apparatus, and a camera module having an image synthesizer configured to synthesize color information

Also Published As

Publication number Publication date
CN101088163A (zh) 2007-12-12
EP1829109A1 (fr) 2007-09-05
JP2008526062A (ja) 2008-07-17
CA2590667A1 (fr) 2006-07-06
FR2880194A1 (fr) 2006-06-30
FR2880194B1 (fr) 2007-06-01

Similar Documents

Publication Publication Date Title
EP2515335B1 (fr) Circuit integré imageur et dispositif de capture d'images stéréoscopiques
TWI549273B (zh) 用於具彩色濾光片之分割影像感測器之鏡片陣列
EP2065743B1 (fr) Dispositif d'imagerie visible à filtre coloré
CN102348051B (zh) 摄像装置
EP3376544A1 (fr) Dispositif imageur optique
FR2902530A1 (fr) Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme
JP2996958B2 (ja) 半導体光電素子に対して、合焦及びカラーフィルタリングする構造およびその構造の製造方法
EP2735901B1 (fr) Appareil d'imagerie à plusieurs ensembles de détection disposés dans un plan focal
EP0697118B1 (fr) Dispositif de formation d'image autostereoscopique
CN111800560B (zh) 使用晶圆级集成工艺的光场相机及方法
WO2006069886A1 (fr) Capteur d'image a zones de couleur globalement separees
CA3025687C (fr) Procede de limitation de la diaphonie dans un capteur d'imagerie
EP2872027B1 (fr) Dispositif comportant un ensemble de detecteurs sensibles a une radiation electromagnetique et arrangement d'un ensemble de tels dispositifs
EP2846357A1 (fr) Dispositif photodétecteur a regions de semi-conducteurs séparées par une barriàre de potentiel
CA2460394C (fr) Capteur d'image avec creusement des couches de planarisation et procede de fabrication
FR2929478A1 (fr) Capteur d'image a sensibilite amelioree
FR2940720A1 (fr) Dispositif de saisie d'images comprenant des moyens de correction de mise au point
EP1870936A1 (fr) Procédé de fabrication de lentilles, notamment pour imageur intégré
FR2880137A1 (fr) Capteur d'image pour prise d'image en relief
FR3026227A1 (fr) Dispositif d'acquisition d'images 3d
EP3679604B1 (fr) Procede de fabrication d'un dispositif d'affichage emissif a led
FR2860119A1 (fr) Dispositif et procede pour produire la representation d'une scene objet
CN116893523A (zh) 用于自动聚焦像素结构的对称偏振滤光器
JPH023990A (ja) 固体撮像素子
FR2968877A1 (fr) Pixel d'un capteur d'image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2005823548

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2590667

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 2007547434

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 200580044324.4

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 2005823548

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2005823548

Country of ref document: EP