FR2941067A1 - Controle de defauts optiques dans un systeme de capture d'images - Google Patents

Controle de defauts optiques dans un systeme de capture d'images Download PDF

Info

Publication number
FR2941067A1
FR2941067A1 FR0950192A FR0950192A FR2941067A1 FR 2941067 A1 FR2941067 A1 FR 2941067A1 FR 0950192 A FR0950192 A FR 0950192A FR 0950192 A FR0950192 A FR 0950192A FR 2941067 A1 FR2941067 A1 FR 2941067A1
Authority
FR
France
Prior art keywords
sensor
photosensitive elements
responses
image
image capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0950192A
Other languages
English (en)
Other versions
FR2941067B1 (fr
Inventor
Cesar Douady
Frederic Guichard
Imene Tarchouna
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dxo Labs SA
Original Assignee
Dxo Labs SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dxo Labs SA filed Critical Dxo Labs SA
Priority to FR0950192A priority Critical patent/FR2941067B1/fr
Priority to US13/144,293 priority patent/US8634004B2/en
Priority to PCT/FR2010/050034 priority patent/WO2010081982A1/fr
Priority to EP10706293A priority patent/EP2377306A1/fr
Publication of FR2941067A1 publication Critical patent/FR2941067A1/fr
Application granted granted Critical
Publication of FR2941067B1 publication Critical patent/FR2941067B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)

Abstract

La présente invention concerne un procédé de contrôle d'un système de capture d'image (1) comportant un capteur (C) comprenant une pluralité d'éléments photosensibles (Z ,Z ,Z ) et un dispositif optique (L) pour focaliser vers le capteur la lumière émise depuis une scène. Ce procédé comprend une étape d'obtention (100) de réponses respectives de certains au moins des éléments photosensibles (E ,E ',P ,P ) du capteur à une exposition du système de capture d'images à une scène (S) quelconque, suivie d'une étape de détermination (200) d'au moins un écart (Δ) entre au moins une grandeur déduite (G) des réponses obtenues et au moins une grandeur de référence (Gref). Ces étapes peuvent être suivies par une étape d'estimation (300) d'un défaut optique du système de capture d'images (1) à partir dudit écart (Δ) déterminé et par une étape de mise en oeuvre d'une action apte à compenser (400) au moins partiellement le défaut optique estimé. La présente invention concerne également un système pour la mise en oeuvre d'un tel procédé.

Description

Contrôle de défauts optiques dans un système de capture d'images
La présente invention concerne le domaine des systèmes numériques de capture d'images.
Un tel système de capture d'images (fixes ou animées selon les cas) peut par exemple être un module apte à être utilisé dans un appareil photo numérique, un appareil reflex, un scanner, un fax, un endoscope, une caméra, un caméscope, une caméra de surveillance, un jouet, un appareil photo intégré io ou relié à un téléphone, à un assistant personnel ou à un ordinateur, une caméra thermique, un appareil d'échographie, un appareil d'imagerie IRM (résonance magnétique), un appareil de radiographie à rayons X, etc.
Un tel système comprend classiquement un capteur incluant une pluralité is d'éléments photosensibles (par exemple des pixels) qui transforme une quantité de lumière reçue en valeurs numériques, et un dispositif optique comprenant une ou plusieurs lentilles pour focaliser la lumière vers le capteur. L'ensemble de ces deux éléments est appelé couramment module capteur-optique . 20 Le capteur peut être par exemple un détecteur à transfert de charge CCD (Charged Coupled Device), un CMOS (Complementary Metal Oxyde Semiconductor), un CID (Charge Induced Device), un 1RCCD (Infra-Red CCD), un ICCD (Intensified CCD), un EBCCD (Electron Bombarded CCD), un 25 MIS (Metal Insulator Semiconductor), un APS (Active Pixel Sensor), un QWIP (Quantum Weil Infrared Photodetectors), un MPQ (Multi-Puits Quantiques), ou autre. Il peut éventuellement être associé à un filtre de Bayer afin d'obtenir une image couleur.
30 Lors de la fabrication d'un système de capture d'images, une étape de montage optique est nécessaire, pour chaque module capteur-optique, afin de positionner le capteur par rapport à son dispositif optique associé. Idéalement, ces deux éléments doivent être centrés l'un par rapport à l'autre et se présenter dans des plans parallèles, afin d'obtenir en sortie du module l'image la mieux restituée possible. Cependant, dans la réalité, le capteur et le dispositif optique peuvent ne pas être positionnés de façon optimale lors de cette étape de montage.
Les figures 1A-1C montrent des exemples d'un premier défaut de positionnement dû à un défaut d'inclinaison dans un module capteur-optique. io Le module capteur-optique présenté dans ces figures comprend un dispositif optique L et un capteur C, comme indiqué précédemment. Un boîtier B reçoit le capteur C et présente un support d'optique H (couramment appelé holder en anglais) servant à positionner le dispositif optique L par rapport au boîtier 15 B, grâce à un pas de vis par exemple.
Dans le cas de la figure 1A, les différents éléments du module capteur-optique sont correctement montés. En d'autres termes, le capteur C et le dispositif optique L sont parallèles entre eux, ce qui représente un bon montage optique. 20 L'exemple de la figure 1B illustre un premier exemple de défaut d'inclinaison relatif entre un capteur C et un dispositif optique L. On voit ici que le capteur C est monté de façon inclinée dans le boîtier B de ce module. Ceci entraîne une modification asymétrique de la netteté de l'image rendue par le capteur C. On 25 parle alors de défaut d'ortho-frontalité de ce capteur, ou de façon équivalente de tilt capteur .
L'exemple de la figure 1C illustre un autre exemple de défaut d'inclinaison relatif entre un capteur C et un dispositif optique L. Cette fois-ci, c'est le 30 support d'optique H qui est positionné de façon inclinée, ce qui entraîne un non-parallélisme du dispositif optique L par rapport au capteur C. Un tel défaut de verticalité du support d'optique H peut être appelé tilt holder et entraîne de la même façon une modification asymétrique de la netteté de l'image rendue par le capteur C.
Il est à noter que ces deux types de défauts d'inclinaison peuvent apparaître séparément, voire en même temps. La conséquence directe d'un tel défaut d'inclinaison relatif consiste en un phénomène de flou dit asymétrique sur l'image, qui constitue un défaut optique et qu'il convient de traiter afin d'obtenir une image nette. Ce flou évolue dans la direction du défaut d'inclinaison. On to est ici, par exemple, en présence d'un défaut d'inclinaison suivant l'axe horizontal du capteur, l'optique étant inclinée vers la droite de cet axe. Le flou est dit de nature asymétrique, car la distance entre le capteur et l'optique diffère entre la partie droite et la partie gauche, ce qui correspond à une focalisation variable dans l'image. Ici, la partie droite de l'image reçue sera 15 nette tandis que la partie gauche de l'image sera floue.
Un module capteur-optique peut présenter d'autre part un défaut de décentrement relatif, illustré par les figures 2A-2D.
20 La figure 2A présente le module capteur-optique d'un système de capture d'images, comprenant un dispositif optique circulaire L, de centre Ob projetant la lumière qu'il reçoit sur un capteur C selon une zone d'éclairement circulaire I centrée en O. Le présent capteur C comporte une zone centrale Z comprenant un certain nombre de pixels dédiés à la capture de l'image et 25 entourée d'une zone périphérique P. Dans cette figure 2A, le dispositif optique L est parfaitement centré avec cette zone centrale Z, c'est-à-dire que le centre OZ de la zone centrale Z, situé à l'intersection de ses diagonales, est confondu avec le centre O, de la zone d'éclairement 1, ce qui assure un éclairement optimal de la zone centrale Z et donc une certaine homogénéité en luminance 30 au centre de l'image, illustré par la figure 2B.
La figure 2B présente une image de référence, constituée d'une série de points espacés régulièrement, telle que reçue par un module capteur-optique selon la figure 2A. Une telle image présente un effet dit de vignetage sur ses bords, ceux-ci étant moins lumineux en périphérie de la zone illuminée du capteur. De plus, un effet de vignetage dit coloré peut également apparaître sur les bords de l'image, ceci étant dû au vignetage tel que défini ci-avant, dépendant du plan couleur, ce qui se traduit par l'apparition de certaines couleurs dans certaines régions du bord de l'image. Le vignetage, dans le cas du module de la figure 2A, est centré et ne concernera donc ~o seulement que les éléments photosensibles situés en périphérie de l'image. Un tel vignetage peut être corrigé par un traitement numérique en aval du module capteur-optique.
La figure 2C présente le même module capteur-optique dans lequel, cette fois- 15 ci, le dispositif optique L est décentré par rapport à la zone centrale Z de capture d'image du capteur C. On voit que la partie droite de la zone centrale Z se trouve cette fois-ci au centre de la zone d'éclairement I et sera donc plus éclairée que la partie gauche de la zone centrale Z qui recevra des niveaux de lumière beaucoup plus faibles, voire plus aucune lumière si le décentrement 20 devient trop important. La figure 2D illustre les conséquences de ce décentrage sur une image de référence identique à celle employée à la figure 2B, mais reçue cette fois-ci par le module capteur-optique décentré de la figure 2C. L'effet de vignetage, décentré vers la droite, constitue un défaut optique qui ne pourra plus être corrigé avec le même traitement numérique 25 ajusté pour corriger un vignetage centré tel qu'illustré à la figure 2A.
Dans la pratique, les modules optique-capteur peuvent présenter, en production, un décalage du centre OL du dispositif optique par rapport au centre OZ de la zone active Z du capteur pouvant aller jusqu'à 200 pm, ce qui 30 peut avoir un impact négatif conséquent sur la correction de l'effet de vignetage.
De plus, un module capteur-optique peut présenter un défaut de défocalisation de l'optique par rapport au capteur, qui constitue un autre type de défaut optique, illustré aux figures 3A et 3B. En effet, pour que la mise au point dans s l'image soit optimale, comme dans le cas de la figure 3A, le capteur C et le dispositif optique L d'un module doivent être séparés d'une certaine distance F, typiquement une distance permettant la focalisation de l'image sur le capteur C. Le cercle d'éclairement I présente alors un rayon R,.
io Cependant, si le holder est mal fixé, si le taraudage du holder est abimé ou du fait de variations de température entre autres, la distance F' séparant ces deux éléments peut être différente de la distance optimale F, comme illustré sur la figure 3B. On parle alors d'un défaut de défocalisation, qui se traduit par une image floue au niveau du capteur C. Dans l'exemple de 15 la figure 3B, cela se traduit aussi par un agrandissement du cercle d'éclairement, dont le rayon devient R,'.
Tous les défauts optiques présentés précédemment entraînent une dégradation de la qualité de l'image. L'étape de montage optique d'un module 20 est donc habituellement suivie d'une étape de caractérisation du module monté, pendant laquelle il est déterminé si la qualité du montage est suffisamment acceptable ou pas.
Quand un montage est jugé inacceptable, le module en question peut être 25 jeté, ce qui peut impliquer une grande perte de productivité.
Une alternative consiste à corriger le montage lui-même, en réajustant mécaniquement le positionnement relatif de ses différents composants. Cette solution est extrêmement coûteuse, et souvent difficile à mettre en oeuvre. 30 La solution généralement adoptée consiste à caractériser un ou plusieurs défauts optiques d'un module capteur-optique, et à en corriger l'effet par un traitement numérique, lorsque cela est possible.
Cette solution est habituellement effectuée en soumettant une scène de référence, comme une mire par exemple, au module capteur-optique afin d'observer en sortie de ce module l'image obtenue. La scène de référence, ainsi que les conditions de prise de vue sont choisies bien spécifiquement afin de tester certaines propriétés du module. Elles peuvent différer en fonction du to défaut qu'on cherche à caractériser, ce qui rend l'étape de validation longue et coûteuse.
Une fois l'image acquise, la caractérisation d'un défaut peut être réalisée de plusieurs façons. On peut effectuer une mesure sur l'image. On peut aussi 1s comparer l'image acquise par le module à caractériser à une image de référence représentant la même scène prise dans les mêmes conditions.
Cette étape de caractérisation permet de détecter les modules inutilisables, en utilisant par exemple un critère de qualité applicable sur l'image en sortie du 20 module. Elle permet aussi de catégoriser les modules en fonction de la qualité de leur montage optique. Elle permet enfin de corriger l'effet d'un défaut de positionnement de chaque module par un calibrage individuel de la chaine de traitement d'images associée au module correspondant. On parle alors d'une calibration à l'unité. 25 Cette solution de calibrage à l'unité, réalisée pour chaque module capteur-optique en phase de production, est extrêmement coûteuse en temps et en argent, si l'on considère les volumes importants de modules capteur-optique à produire pour des marchés grand public. 30 De plus, si une fois monté dans un appareil quelconque, le module capteur-optique subit un choc comme lors de la chute de l'appareil, ce qui est fréquent avec des appareils photo numériques par exemple, le positionnement relatif du capteur et du dispositif optique va être déréglé, ce qui entraînera une dégradation de la qualité des photographies.
Un but de la présente invention est de proposer un système de capture d'images ne nécessitant pas une étape de calibration telle que décrite plus haut, mais qui peut s'auto-calibrer. L'auto-calibrage d'un tel système peut être ~o utile sur la chaîne de production, mais également postérieurement à son assemblage et en dehors de l'usine de montage, notamment après un choc, sans qu'il ne soit besoin d'une intervention externe.
Elle propose à cet effet un procédé de contrôle d'un système de capture 15 d'images comprenant un capteur incluant une pluralité d'éléments photosensibles et un dispositif optique pour focaliser vers le capteur la lumière émise depuis une scène, le procédé comprenant une étape d'obtention de réponses respectives de certains au moins des éléments photosensibles du capteur à une exposition du système de capture d'images à une scène 20 quelconque, suivie d'une étape de détermination d'au moins un écart entre au moins une grandeur déduite des réponses obtenues et au moins une grandeur de référence.
L'exposition du système de capture d'images à une scène quelconque permet 25 de s'affranchir de la calibration initiale de l'art antérieur qui requiert l'acquisition, dans des conditions maîtrisées, et l'analyse d'une scène de référence, comme une mire. Elle permet aussi de pouvoir effectuer un contrôle du système de capture d'images à tout moment et en tout lieu.
30 Elle propose aussi un procédé de contrôle comprenant, outre les étapes précédemment décrites dans le paragraphe ci-dessus, une étape d'estimation d'un défaut optique du système de capture d'images à partir dudit écart déterminé, ainsi qu'une étape de mise en oeuvre d'une action apte à compenser au moins partiellement le défaut optique estimé.
Dans une réalisation préférée, les réponses obtenues comprennent les réponses d'éléments photosensibles sensibles au moins à une bande spectrale commune. Ceci permet d'utiliser des réponses relativement homogènes spectralement, sans avoir besoin de faire un traitement égalisateur spécifique à chaque bande spectrale. On peut ainsi détecter io indirectement un défaut d'inclinaison entre le capteur et son dispositif optique associé.
De préférence, les réponses obtenues comprennent les réponses d'éléments photosensibles sensibles au moins à la bande spectrale du vert. Ceci permet 1s d'utiliser n'importe quel type de scène pour pouvoir détecter un défaut du module capteur-optique, en plus d'offrir une réponse plus sensible.
Avantageusement, la grandeur déduite des réponses obtenues comprend une comparaison mathématique entre certaines au moins des réponses obtenues. 20 Une telle comparaison mathématique permet de s'affranchir des composantes de la réponse lié au contenu de l'image en tant que tel, et fait ressortir plus distinctement la composante liée au défaut à détecter.
De préférence, certains au moins des éléments photosensibles dont les 25 réponses respectives sont obtenues sont voisins de premier ou de second ordre sur le capteur. Avec une telle proximité, la zone de l'image observée présente une très grande homogénéité, ce qui permettra de s'affranchir des composantes de la réponse lié au contenu de l'image, quelque soit celui-ci.
30 Avantageusement, les réponses obtenues comprennent les réponses d'une pluralité de paires d'éléments photosensibles dans lequel on détermine, pour chacune desdites paires d'éléments photosensibles, un écart entre une grandeur déduite des réponses des éléments photosensibles appartenant à ladite paire et une grandeur de référence. Ceci permet d'obtenir un écart global qui sera moins sensible aux transitions locales sur une zone particulière de l'image à acquérir.
De préférence, cette pluralité de paires d'éléments photosensibles est positionnée dans une région sélectionnée du capteur. Ainsi, une région du capteur recevant une partie de l'image non soumise à des variations de haute fréquence peut être choisie, ce qui donnera une détermination de défaut plus fiable.
Dans une autre réalisation préférée de l'invention, les réponses obtenues comprennent les réponses d'éléments photosensibles situés en périphérie du capteur. Une telle configuration permet de détecter par exemple un défaut de décentrement optique, ou une information sur l'état de défocalisation de la lentille.
Avantageusement, le capteur comprend une zone centrale de capture d'image et une zone périphérique ne participant pas à la capture d'images, et dans lequel lesdits éléments photosensibles situés en périphérie du capteur appartiennent à ladite zone périphérique. Ceci permet de détecter un défaut de positionnement optique avant que celui-ci n'ait un impact sur la zone centrale du capteur.
Préférentiellement, les réponses obtenues comprennent les réponses d'au moins deux éléments photosensibles positionnés sur un premier axe traversant la zone centrale de capture d'image, de part et d'autre de cette zone centrale. On peut obtenir ainsi une indication sur la direction et le sens du décentrement. 2941067 lo Avantageusement, les réponses obtenues comprennent en outre les réponses d'au moins deux autres éléments photosensibles positionnés sur un deuxième axe, traversant la zone centrale de capture d'image et sensiblement orthogonal au premier axe, de part et d'autre de la zone centrale de capture 5 d'image. Cela permet de caractériser un défaut optique tel qu'un décentrement dans les deux dimensions du capteur.
De préférence, les réponses obtenues comprennent les réponses d'au moins une première pluralité d'éléments photosensibles, positionnés sur un premier Io axe traversant la zone centrale de capture d'images, appartenant à une première région secondaire du capteur et étant séparés consécutivement les uns des autres d'une distance déterminée, et une deuxième pluralité d'éléments photosensibles, positionnés sur un deuxième axe traversant la zone centrale de capture d'images et sensiblement orthogonal audit premier 15 axe, appartenant à une deuxième région secondaire du capteur distincte de ladite première région secondaire et étant séparés consécutivement les uns des autres d'une distance déterminée. On obtient alors une quantification d'un défaut optique tel qu'un décentrement, dans les deux dimensions du capteur, ce qui permet d'effectuer plus précisément une éventuelle compensation ou de 20 se ramener précisément à un cas permettant une éventuelle compensation.
La présente invention vise par ailleurs un système de capture d'images comportant des moyens pour mettre en oeuvre le procédé ci-avant. Ainsi, le système de capture d'images comprend : 25 - un capteur incluant une pluralité d'éléments photosensibles ; - un dispositif optique pour focaliser sur le capteur la lumière émise depuis une scène; - un moyen de détermination d'au moins un écart entre au moins une grandeur, déduite de réponses respectives de certains au moins des éléments 30 photosensibles du capteur à une exposition du système de capture d'images à une scène quelconque, et au moins une grandeur de référence.
La présente invention vise aussi un appareil photo numérique comportant un système de capture d'images ci-avant.
D'autres caractéristiques et avantages de l'invention apparaîtront dans la description ci-après d'exemples de réalisation non limitatifs, en référence aux dessins, dans lesquels : - les figures 1A-1C, déjà commentées, illustrent un défaut d'inclinaison optique dans un module capteur-optique ; w - les figures 2A-2D, déjà commentées, illustrent un défaut de décentrement dans un module capteur-optique ; - les figures 3A-3B, déjà commentées, illustrent un défaut de défocalisation dans un module capteur-optique ; - la figure 4 est un schéma synoptique représentant un système de capture 15 d'images selon le principe de la présente invention ; - la figure 5 est un organigramme illustrant un procédé de contrôle d'un système de capture d'images selon le principe de la présente invention ; - les figures 6A et 6B illustrent un premier mode de réalisation de l'invention visant à détecter un défaut d'inclinaison optique du module ; 20 - la figure 7 illustre la notion de voisinage de premier, deuxième et troisième ordres pour des éléments photosensibles d'un capteur ; - la figure 8 montre un exemple particulier de module capteur-optique comprenant un capteur avec un filtre coloré dit de Bayer ; - la figure 9 illustre la notion de champ d'image dans un capteur rectangulaire 25 usuel ; - la figure 10A montre une courbe de caractérisation de l'angle de rayon moyen d'une optique en fonction de la position dans le champ image ; - la figure 10B monte une courbe de différence d'intensité reçue entre un élément Gr et Gb en fonction de l'angle d'attaque des rayons lumineux, pour 30 des éléments photosensibles Gr et Gb positionnés à 60% du champ de l'image ; - la figure 10C montre une courbe de caractérisation d'une différence d'intensité reçue entre des éléments Gr et Gb d'un filtre Bayer dans le champ image d'un capteur, selon l'axe X de celui-ci ; - les figures 11A-11C montrent un premier exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ; - la figure 12 montre un deuxième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ; - la figure 13 montre un troisième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ; ~o - la figure 14 montre un quatrième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention ; et - les figures 15A-15C montrent un cinquième exemple de capteur d'un système de capture d'image selon un second mode de réalisation de l'invention. 15 La figure 4 est un schéma synoptique représentant un exemple de système de capture d'images selon le principe de la présente invention.
Dans cette figure 4, le système de capture d'images 1 reçoit de la lumière en 20 provenance d'une scène S quelconque à capturer. Le système 1 comprend un dispositif optique L ainsi qu'un capteur C, le dispositif optique L servant à focaliser vers le capteur la lumière émise depuis la scène S pour les focaliser sur le capteur C. Le dispositif optique L et le capteur C forment ce qu'on appelle couramment un module capteur-optique. 25 Le capteur C comprend une pluralité d'éléments photosensibles (par exemple des pixels), chaque élément photosensible, en réponse à une quantité de lumière qu'il reçoit, peut délivrer une intensité électrique pouvant se traduire par une certaine valeur numérique. Ainsi le capteur C transforme la lumière 30 reçue du dispositif optique L en une série de valeurs numériques correspondant à une image sous forme numérique. Cette image numérique brute peut être affectée par certains défauts optiques, dont ceux présentés plus haut.
Pour détecter de tels défauts, le système 1 de la présente invention comprend en outre un moyen de détermination d'au moins un écart DET. Ce moyen de détermination DET, qui peut par exemple prendre la forme d'un module de calcul, au sein d'un processeur par exemple, va recevoir les réponses respectives de certains éléments photosensibles du capteur C à une exposition du système de capture d'images à la scène S, comme expliqué ci- après, et va déduire au moins une grandeur G à partir de ces réponses. Dans certains cas, cette grandeur G pourra être représentative d'un état de positionnement relatif du dispositif optique L par rapport au capteur C.
Le moyen de détermination DET dispose par ailleurs d'au moins une grandeur ts de référence Gref. Cette grandeur Gref correspond par exemple à une situation où le dispositif optique L et le capteur C seraient positionnés correctement. Elle va servir de mesure étalon à laquelle sera comparée la grandeur G par la suite.
20 Une telle grandeur de référence Gref peut aussi être définie, entre autres, par caractérisation initiale du capteur C dans différentes conditions, sous plusieurs angles d'éclairement par exemple. Une telle caractérisation ne sera effectuée qu'une seule fois pour un type de capteur, et non pas systématiquement pour chaque montage d'un dispositif optique avec un capteur, par exemple. Une 25 grandeur G obtenue par la suite, lors de l'utilisation courante du système 1, peut alors être calculée à partir d'une prise de vue quelconque, ne nécessitant pas l'utilisation d'une scène spéciale.
Un écart 0 entre la grandeur G et la grandeur de référence Gref est alors 30 calculé par le moyen de détermination DET. Cet écart 0 donne par exemple une indication sur l'état de positionnement du dispositif optique L par rapport au capteur C. Cet écart A peut être par exemple proportionnel à la différence G-Gref entre ces deux grandeurs, ou au rapport G/Gref entre celles-ci. Cet écart A peut aussi prendre n'importe quelle autre forme permettant la comparaison mathématique des deux grandeurs G et Gref. Cet écart peut enfin prendre la forme d'un index dans une table de correspondance entre des données de référence, et des données prédéterminées.
Ainsi, avec le système 1 tel qu'introduit ci-avant, il est possible de détecter un défaut optique du module capteur-optique. A partir de cette détection, le système 1 peut avantageusement être calibré de nouveau chez un réparateur ou en usine, par exemple.
Avantageusement, le système 1 comprend en outre un moyen d'estimation DEF d'un défaut optique et un moyen de compensation COMP du défaut optique estimé. Le moyen DEF reçoit l'écart A déterminé par le moyen de détermination DET, et estime en fonction de cet écart A le type de défaut optique incriminé ainsi que son amplitude. Le moyen DEF envoie alors ces informations au moyen de compensation COMP. Ce moyen de compensation COMP reçoit par ailleurs du capteur C l'image numérique brute affectée par les défauts optiques. En tenant compte des informations provenant du moyen d'estimation DEF, le moyen de compensation COMP va pouvoir compenser le défaut optique déterminé, soit totalement, soit partiellement.
Dans ce cas, la compensation peut se faire sans intervention humaine, par exemple à intervalles de temps périodiques, ou suite à l'apparition de certains événements, comme de chocs subis par le système 1. Une telle autocalibration est donc bien plus souple que la calibration de l'art antérieur mentionnée en introduction.
Lorsque le système de capture d'images 1 fait partie d'un appareil de capture numérique utilisant des moyens de traitement numérique en aval du système de capture 1, la compensation réalisée par le moyen de compensation COMP du système 1 peut être partielle et se borner à modifier l'image reçue pour la ramener à une image présentant un certain degré de défaut pouvant être corrigé ensuite par lesdits moyens de traitement numérique situés en aval. Elle peut aussi consister à changer les paramètres du modèle utilisé dans les moyens de traitement situés en aval, sans pour autant affecter l'image.
La figure 5 est un organigramme illustrant un procédé de contrôle d'un système de capture d'images selon le principe de la présente invention, tel que décrit par exemple dans la figure 4.
Lors d'une première étape 100, le moyen de détermination DET obtient des réponses respectives de certains éléments photosensibles du capteur C du système de capture d'images 1. Ces différents éléments photosensibles sont au moins au nombre de 2.
A la suite de cette étape, le moyen de détermination DET détermine, lors d'une deuxième étape 200, l'écart A entre une grandeur G, déduite des réponses obtenues lors de l'étape 100, et une grandeur de référence Gref, déterminée comme expliqué ci-avant. Cet écart permet de détecter un éventuel défaut optique du système de capture, comme par exemple un mauvais positionnement dans le module capteur-optique.
Avantageusement, le procédé comprend en outre une étape 300, pendant 25 laquelle le moyen d'estimation DEF estime le défaut optique du système de capture 1 à partir de l'écart A déterminé lors de la deuxième étape 200.
Il devient alors possible, lors d'une quatrième étape 400, de mettre en oeuvre une compensation totale ou partielle du défaut optique estimé au cours de 30 l'étape 300, par le moyen de compensation COMP.
Différents modes de réalisation vont maintenant être présentés afin d'illustrer la présente invention.
Les figures 6A et 6B illustrent le module capteur-optique d'un système de s capture d'images selon un premier mode de réalisation de l'invention, visant à détecter par exemple un défaut optique lié à une inclinaison relative entre le capteur et le dispositif optique tel que présenté ci-avant aux figures 1A-1C.
Sur ces figures 6A et 6B sont représentées le dispositif optique L et le capteur 10 C du système de capture d'images, sans le boîtier, ni le support d'optique qui peuvent éventuellement le composer, ces derniers éléments n'étant pas essentiels à la compréhension du présent mode de réalisation. Est représenté en outre le moyen de détermination d'un écart DET recevant la réponse de certains éléments du capteur C. 15 Le capteur C selon l'invention comporte une zone Z dans laquelle est située une pluralité d'éléments photosensibles Z1,Z2,...,Zn. Chacun de ces éléments photosensibles est sensible à une bande spectrale particulière. Parmi tous ces éléments photosensibles, certains peuvent être sensibles à des bandes 20 spectrales dont une partie au moins est commune. Il est aussi possible d'avoir, parmi les éléments photosensibles du capteur C, des éléments photosensibles identiques et donc sensibles à une même bande spectrale.
Le capteur C présente, parmi la pluralité d'éléments photosensibles 25 Z1,Z2,...,Zn, au moins deux éléments photosensibles E1 et E1', situés à des endroits différents du capteur et sensibles au moins à une bande spectrale commune. Du fait de leurs positions différentes, la lumière atteignant ces éléments va provenir d'un angle différent, et par conséquent leurs réponses respectives, en termes d'intensités I(E1) et I(E1') représentatives de la quantité 30 de lumière reçue respectivement par chacun de ces deux éléments, vont être différentes. Cette différence de réponse en intensité peut être formulée sous la forme d'un paramètre G, correspondant à la grandeur présentée précédemment, qui est fonction des réponses en intensités électriques I(E1) et I(E1').
Lorsque le capteur C et le dispositif optique L sont parfaitement positionnés, comme c'est le cas sur la figure 6A, c'est-à-dire lorsqu'ils ne sont pas inclinés l'un par rapport à l'autre mais se situent dans des plans parallèles, le paramètre G calculé selon l'une des formules précédentes prendra une valeur de référence Gref, correspondant au positionnement optimal en termes de io parallélisme du module capteur-optique. Le paramètre de référence Gref peut aussi être calculé à partir de mesures de réponses faites sous éclairage initial du capteur seul, sous certaines conditions particulières, comme par exemple sous des angles d'éclairage particuliers. Une telle valeur de référence Gref peut alors être mémorisée dans le moyen de détermination DET, par exemple. 15 Lorsque le capteur C et le dispositif optique L ne sont plus parfaitement positionnés, comme c'est le cas sur la figure 6B, c'est-à-dire lorsqu'ils présentent une inclinaison relative l'un par rapport à l'autre d'un angle a, le paramètre G prendra une autre valeur, différente de Gref, qui reflétera 20 indirectement ce défaut d'inclinaison. La comparaison relative de cette valeur G avec la valeur de référence Gref fournira un écart A représentant un éventuel défaut d'inclinaison et permettant de détecter ce défaut. Il sera alors possible de faire réparer le système optique par la suite ou, éventuellement de déterminer ce défaut optique et de l'estimer, afin d'entreprendre une action 25 compensatrice dans le système de capture lui-même.
Dans un premier exemple, les éléments E1 et E1', dont la réponse est utilisée par le moyen de détermination DET, peuvent être choisis parmi n'importe lesquels des éléments photosensibles Z; du capteur C, du moment qu'ils sont 30 sensibles au moins à une bande spectrale commune. Ainsi, leurs réponses en intensité auront une forte probabilité d'être substantiellement homogènes en termes de contenu d'image, et peuvent être comparées directement, sans qu'il ne se soit besoin de faire un traitement égalisateur entre des bandes spectrales différentes ayant une réponse spectrale plus ou moins sensible.
Avantageusement, la grandeur G déduite de la réponse en intensité des éléments E1 et E1' est fonction d'une comparaison mathématique de ces réponses, comme par exemple une simple fonction de différence G=I(E1)-I(E1'), une différence par rapport à la moyenne G=(I(E1)-I(E1'))/(I(E1)+I(E1')) ou bien un rapport d'intensités G=I(E1)/I(E1'). D'autres fonctions peuvent être to utilisées dans la mesure où elles sont indicatives d'une différence d'intensité lumineuse reçue par ces deux éléments. Cela permet de s'affranchir, par comparaison mathématique, de la composante d'intensité commune aux deux éléments E1 et E1', correspondant au contenu de l'image acquise dans la bande spectrale commune. On pourra alors plus facilement distinguer la 15 composante d'intensité liée à l'angle d'inclinaison a.
Avantageusement, les deux éléments E1 et E1' dont la réponse est utilisée par le moyen DET sont choisis au voisinage proche l'un de l'autre. Ils sont soit voisins de premier ordre, c'est-à-dire qu'ils sont adjacents l'un à l'autre, soit 20 voisins de second ordre, c'est-à-dire qu'ils ne sont pas adjacents l'un à l'autre mais qu'il existe au moins un autre élément photosensible auquel ils sont tous deux adjacents, par exemple, sans que cet exemple ne soit limitatif. Ce concept de voisinage plus ou moins proche est illustré à la figure 7.
25 La figure 7 présente un capteur usuel C', vu de dessus, et comprenant une pluralité d'éléments photosensibles. Pour des raisons pratiques et d'efficacité, les éléments photosensibles d'un capteur sont habituellement agencés selon un quadrillage en deux directions. Si l'on part d'un premier élément photosensible Vo, les éléments voisins de premier ordre de celui-ci sont ceux 30 qui sont adjacents à vo selon l'une des deux directions du quadrillage. Ces éléments voisins de premier ordre sont les éléments V1 de la figure 7. Par extension, les éléments voisins V2 de deuxième ordre de Vo sont les éléments voisins de premier ordre des éléments voisins V1 de premier ordre de l'élément Vo, cet élément Vo étant lui-même exclu. Par extension, les éléments voisins V3 de troisième ordre de Vo sont les éléments voisins de premier ordre des éléments voisins V2 de deuxième ordre de l'élément Vo, en excluant les éléments V1, et ainsi de suite.
Lorsque l'on utilise des éléments E1 et E1' voisins d'un ordre faible pour obtenir la réponse servant à calculer la grandeur G, la probabilité d'avoir des to variations de contenu, lors de l'acquisition d'une scène ne contenant pas de forte transition (autrement dit de hautes fréquences), est très faible et la composante de l'intensité reçue qui est liée au contenu de l'image en tant que tel est sensiblement la même sur les deux éléments E1 et E1'.
15 Dans le cas typique d'un capteur comprenant une répétition régulière d'un motif de base comprenant au moins deux éléments E1 et E1' sensibles au moins à une bande spectrale commune, ceci se traduit par le fait de choisir ces deux éléments E1 et E1' dans le même motif de base, par exemple.
20 Cette caractéristique avantageuse permet d'obtenir une mesure plus fiable, dans la mesure où l'image acquise peut présenter des zones plus ou moins sombres à différents endroits. Dans un tel cas, comparer l'intensité reçue d'un premier élément situé dans une zone sombre à l'intensité reçue d'un deuxième élément situé dans une zone lumineuse fausserait la mesure de l'angle 25 d'inclinaison a. Si l'on choisit les deux éléments dans une région de taille restreinte, ils vont recevoir une information lumineuse relativement homogène, et donc la comparaison de leurs intensités respectives éliminera de façon plus efficace la composante d'intensité inutile ici, ce qui fera mieux ressortir la composante liée à l'angle a. 30 L'invention ne se limite pas à utiliser la réponse d'éléments voisins de premier ou de deuxième ordre. On peut imaginer utiliser la réponse d'éléments voisins d'ordres supérieurs, tant que cela permet d'obtenir des réponses relativement homogènes par rapport au contenu spectral de l'image qui est reçu par le capteur C.
Avantageusement, le raisonnement qui vient d'être fait ci-avant avec seulement deux éléments photosensibles El et El' peut être fait avec une pluralité de paires d'éléments photosensibles (E1,E1'), avantageusement Io sensibles à une même bande spectrale commune. Le fait d'augmenter le nombre d'éléments utilisés pour donner une réponse permet de s'affranchir d'éventuelles zones de transition de l'image, dans lequel le procédé ne marcherait plus avec seulement deux éléments, si ces éléments venaient à se trouver de part et d'autre de cette zone de transition. Cela permet en outre de 15 réduire l'effet du bruit sur la mesure.
Dans ce cas, quand le capteur C et le dispositif optique L sont parfaitement parallèles comme sur la figure 6A, au lieu d'obtenir un seul paramètre de référence Gref, on va obtenir une série de paramètres particuliers de 20 références Gref; déterminés pour chaque paire d'éléments photosensibles (E;,E;'), en fonction de leur position dans le champ image. De tels paramètres particuliers peuvent être déterminés initialement, par exemple par éclairage du capteur sous différents angles, et mémorisés dans une mémoire associée au système de capture 1 pour effectuer ultérieurement la comparaison. Cette 25 série de paramètres particuliers peut être mémorisée dans le moyen de détermination DET.
Ainsi, quand le capteur C et le dispositif optique L sont inclinés l'un par rapport à l'autre comme sur la figure 6B, on détermine alors, pour chaque paire 30 d'éléments photosensibles (E;,E;') utilisée, des une grandeur (G;) déduite des réponses des éléments photosensibles appartenant à ladite paire en fonction des réponses en intensité I(E;),I(E;') des deux éléments photosensibles E; et E;' constituant cette paire. Pour chaque paire (Ei,Ei'), on compare alors la valeur de la grandeur G; obtenue avec la grandeur de référence correspondante Gref;, afin d'obtenir un écart A; particulier à cette paire. Une série d'écarts A; particuliers à chaque paire est alors obtenue.
Un écart global AG peut éventuellement être calculé à partir de ces écarts particuliers A. Cet écart global AG peut être par exemple la moyenne de tous les écarts particuliers A;, ou leur valeur médiane, ou toute autre valeur permettant de caractériser globalement l'ensemble de ces écarts particuliers A. Une éventuelle estimation postérieure d'un défaut optique du système de capture d'images peut se fonder sur un écart global AG. En variante, elle peut se baser sur tout ou partie des écarts particuliers A.
1s Par exemple, dans le cas illustré aux figures 6A et 6B où deux paires (E1,E1'), (E2,E2') sont utilisées, on obtient 2 écarts particuliers Al et A2, où A1=G1-Gref1, avec G1=I(E1)-I(E1') et A2 =G2-Gref2, avec G2=I(E2)-I(E2') par exemple. On peut alors déterminer un écart global AG=(01+A2)/2 correspondant à la moyenne des deux écarts particuliers de chaque paire, à titre d'exemple non limitatif. 20 Le calcul d'un écart global AG de la façon indiquée précédemment est particulièrement avantageux dans le cas où les différentes paires d'éléments photosensibles (E;,E;') dont la réponse est utilisée sont substantiellement voisines les unes des autres. Dans la mesure où la grandeur de référence 25 change en fonction du champ image, on peut aussi envisager, dans le cas où les différentes paires d'éléments photosensibles (E;,E;') dont la réponse est utilisée ne sont pas voisines les unes des autres, de calculer des angles particuliers a; pour chacune des paires afin d'obtenir de ceux-ci un angle d'inclinaison global aG, correspondant par exemple à la moyenne des angles 30 particuliers a;.
Ceci est particulièrement avantageux dans le cas où le capteur C reçoit une image présentant une transition importante, indiquée dans les figures 6A et 6B par une bordure T, entre une zone de faible luminosité à gauche de cet axe T et une zone de forte luminosité à droite de cet axe T. L'utilisation de la seule paire (E1,E1') donnerait une mesure faussée, car ces deux éléments étant de chaque côté de la transition, ils présentent des réponses en intensité très contrastées. Le paramètre particulier G1=I(E1)-I(E1') et par conséquent l'écart particulier 01 peuvent alors prendre des valeurs exagérées ne reflétant pas le degré de l'angle d'inclinaison a, qui peut être relativement faible en i0 comparaison.
Si maintenant on inclut aussi dans le calcul la deuxième paire (E2,E2'), on voit ici que ces deux éléments se trouvant du même côté de la transition dans l'image, leur mesure sera beaucoup plus homogène et donnera un paramètre 15 G2 et un écart particulier A2 bien plus fiable, qui viendra pondérer l'écart faussé Al dans le calcul d'un écart global AG moyen de ces deux écarts particuliers.
Cet exemple à deux paires d'éléments n'est bien sûr pas limitatif. On peut par exemple prendre la réponse d'un groupe quelconque d'éléments 20 photosensibles E; appartenant à un voisinage d'ordre n (c'est-à-dire que tout élément E; de ce groupe est voisin d'un ordre inférieur ou égal à n de tout autre élément E; de ce groupe). On peut alors vérifier que ce groupe d'éléments E; est associé à une zone homogène de l'image. Si c'est le cas, on peut alors calculer une grandeur G fiable, et en déduire un écart A qui 25 permettra de détecter et d'estimer l'angle d'inclinaison a. Si ce groupe n'est pas associé à une zone homogène de l'image, on renonce à l'utiliser pour en choisir un autre, et ainsi de suite.
Avantageusement, lorsque le moyen de détermination DET utilise les 30 réponses d'une pluralité de paires (E;,E;'), ces paires appartiennent à une région E sélectionnée du capteur C. Cette région E, qui représente une sous- partie de la surface du capteur, peut être choisie pour recevoir une zone homogène de l'image excluant les zones de hautes fréquences, synonymes de transitions et donc d'erreurs de mesure potentielles. Une telle zone peut être déterminée par des méthodes connues de l'homme de l'art, comme par exemple en utilisant les courbes de bruit du capteur, ou bien en utilisant les informations sur d'autres canaux, situés dans d'autres bandes spectrales que celle des éléments photosensibles utilisés.
Un exemple plus spécifique de ce premier mode de réalisation va être w maintenant décrit en détail.
La figure 8 illustre partiellement un système de capture d'images présentant un capteur exemplaire comprenant un exemple répandu de filtre coloré, appelé filtre de Bayer, couramment répandu parmi les appareils de capture 15 d'image numérique actuels.
Dans le système de capture d'images de la figure 8, similaire au système des figures 6A et 6B mais où sont représentés seulement certains éléments spécifiques, le capteur C est formé par la superposition d'un filtre coloré FIL et 20 d'un substrat SUB sensible à la lumière. La lumière, provenant d'une source S et traversant un dispositif optique L tel que décrit précédemment, illumine le filtre coloré F. Celui-ci filtre spatialement la lumière selon différentes bandes spectrales et décompose celle-ci en différents faisceaux lumineux de couleurs différentes, qui vont impacter le substrat SUB en différents endroits. Un tel 25 agencement permet de décomposer la lumière en différentes composantes selon un motif défini, par exemple un quadrillage, ce qui permet un traitement et une transmission d'information plus adaptés.
Il est courant, par exemple, d'utiliser un filtre coloré FIL décomposant la 30 lumière filtrée dans ses trois composantes vert, bleu et rouge. Cela permettra de recevoir, en différents points du substrat, des intensités correspondant à ces différentes composantes afin de les utiliser pour restituer ultérieurement l'image.
Dans le cas présent, le filtre dit de Bayer est constitué par la répétition, en deux dimensions, d'un motif de base Mb de 2x2 éléments filtrants, un élément B filtrant le bleu, un élément R filtrant le rouge, et deux éléments Gr et Gb filtrant le vert. La bande spectrale du vert étant la bande centrale du spectre lumineux, cette bande contiendra en général plus d'informations que les autres, et comme de plus l'ceil humain est plus sensible à cette bande, le choix to d'avoir deux éléments Gr et Gb détectant le vert a été fait avec ce type de filtre.
Un défaut typique touchant ce genre de filtre est ce qu'on appelle le crosstalk . II se traduit ici par le fait que, quand des photons arrivent sur un 15 élément photosensible, ils se trouvent partiellement déviés vers d'autres éléments photosensibles avoisinants. La présente invention utilise un tel phénomène, normalement délétère, dans un sens positif, afin de mieux détecter un défaut optique.
20 Pour cela, la comparaison des réponses en intensités I(E1) et I(E1'), telle qu'expliquée précédemment, va être appliquée aux réponses en intensités de deux éléments Gr et Gb d'un même motif de base Mb d'un filtre de Bayer. Comme ces deux éléments sont proches, ils subissent un phénomène de cross-talk et leur réponse contient donc une composante d'information 25 corrélée, qui pourra être d'autant plus facilement supprimée par la comparaison de leurs deux intensités, ce qui va améliorer l'observation de l'angle d'inclinaison a. Dans le cas présent, la grandeur G telle que définie précédemment va donc être issue de la comparaison de l'intensité I(Gr) reçue par un élément Gr et de l'intensité I(Gb) reçue par un élément Gb d'un même 30 motif de base. Encore une fois, cette comparaison peut être faite par différence, rapport ou différence par rapport à la moyenne entre les deux valeurs d'intensité respectives, entre autres. Dans l'exemple présent, on appelera différence la mesure utilisé pour la comparaison entre ces deux valeurs I(Gr) et I(Gb), exprimée en pourcents.
Afin d'exprimer des valeurs d'intensité en fonction de la position d'éléments photosensibles dans un capteur, la notion de champ d'image est introduite ci-après, car elle permet de mieux comprendre l'exemple abordé. La figure 9 illustre cette notion de champ image.
lo Le capteur présenté dans l'exemple de cette figure 9 a une forme rectangulaire 4:3 , c'est-à-dire que sa largeur d'image h équivaut à 4/3 fois sa hauteur d'image v.
Ici, la notion de champ image sert à indiquer la distance par rapport au is centre du capteur de la figure 9. Par exemple, une position à 100% du champ image correspond à une position sur l'un des sommets du capteur rectangulaire, ce qui correspond à une distance d maximale par rapport au centre égale à la diagonale du rectangle. Si on se place sur un des côtés, on est soit à 80%, soit à 60% du champ image en valeur absolue, le signe 20 indiquant de quel côté par rapport au centre. Enfin, quand on se situe au centre du capteur, on est à 0% du champ image.
La figure 10A montre une courbe représentant l'angle de rayon moyen ( CRA en anglais) caractéristique d'une optique, en fonction de leur position 25 dans le champ image. Une telle courbe est une caractérisation du dispositif optique associé au capteur, et ne dépend pas du capteur. Par exemple, à une position de 60% du champ image, l'angle de rayon moyen est de 20°.
La figure 10B montre une courbe de caractérisation de la différence entre des 30 éléments photosensibles Gr et Gb, exprimée en pourcents, pour un capteur donné, en fonction de l'angle d'attaque des rayons sur ceux-ci, pour une position donnée dans le champ image. Dans cet exemple, la position donnée correspond à 60% du champ sur l'axe X du capteur. Cette courbe ne dépend pas du dispositif optique associé au capteur.
Si maintenant on considère un dispositif optique caractérisée par son CRA représenté dans la figure 10A, montée sur un capteur caractérisé par le crosstalk à 60% du champ donné par la figure 10B, on s'attend alors à avoir, à 60% du champ image, une différence de 0% entre Gr et Gb. On obtient alors la grandeur de référence Gref pour cette position, telle qu'expliquée io précédemment, servant à déterminer l'écart A selon l'étape 200 du premier mode de réalisation.
Pour un module constitué du dispositif optique monté sur le capteur, tels que décrits dans le paragraphe précédent, la figure 10C montre un relevé de la 15 différence, en pourcents, entre les intensités reçues par des éléments photosensibles Gr et Gb appartenant au même motif de base, ceci en fonction de la position suivant un axe horizontal X d'un capteur rectangulaire. Les abscisses sont exprimées en champ image, comme expliqué précédemment.
20 Pour obtenir une telle courbe, on peut par exemple éclairer un capteur tel que décrit à la figure 8 lors d'une phase initiale et observer la réponse de deux éléments Gr et Gb d'un même motif en différents endroits le long de l'axe horizontal X. Le pourcentage de différence entre les deux intensités sera mesuré pour chaque valeur de position dans le champ de l'image, ce qui 25 donne la courbe de caractérisation de la figure 10C.
On remarque sur cette courbe que plus on s'éloigne du centre, plus la différence entre les éléments Gr et Gb est importante. Ceci est directement lié à l'angle moyen du dispositif optique, croissant en fonction de la position dans 30 le champ image.
A partir de la figure 10C, on peut remarquer que pour une paire d'éléments photosensibles situés à environ 60% du champ, une différence entre l'élément Gr et l'élément Gb de l'ordre de -5% est mesurée. Cette mesure correspond à un angle d'attaque de rayon de 30% d'après la courbe de la figure 10B. Or, il apparait d'après la courbe de référence de la figure 10C qu'à 60% du champ, l'angle d'attaque du rayon devrait être de 20% pour un positionnement normal. On en déduit donc que l'angle d'inclinaison a vaut 30-20=10°.
De la même façon que précédemment, on peut aussi obtenir la réponse des to éléments Gr et Gb appartenant à des motifs de base voisins Mb, Mbl, Mb2 et Mb3 dans une région définie du capteur. On va alors obtenir une série de valeurs permettant de moyenner la mesure et donc de s'affranchir de phénomènes de transition éventuels. Plus on augmente le nombre de motifs de bases utilisés, plus on aura une mesure moyennée, et donc affranchie du 15 bruit, en augmentant toutefois la probabilité de rencontrer une zone inhomogène de l'image.
II est à noter qu'une telle estimation de la différence entre les intensités reçues par les éléments photosensibles Gr et Gb d'un module peut être réalisée à 20 partir d'une image, à partir d'une zone de l'image ou à partir d'un ensemble de zones de l'image. De plus, une telle estimation de la différence entre les intensités des éléments Gr et Gb est aussi possible sur un flux vidéo, sur une version sous échantillonnée de l'image.
25 De préférence, l'estimation peut se faire avec une connaissance préalable du modèle de variation du cross talk entre éléments Gr et Gb, telle qu'illustrée à la figure 10C. Les mesures effectuées sur l'image servent donc à s'adapter à un modèle paramétrique, ce qui permet de diminuer les erreurs dues aux mesures, et d'avoir des applications plus poussées à partir de ces estimations. 30 Dans l'exemple cité ici, on a utilisé des éléments photosensibles sensibles à la couleur verte pour mesurer le défaut d'inclinaison, car le filtre de Bayer présente la particularité d'avoir une microstructure avec deux éléments verts décalés. L'utilisation de cette bande spectrale particulière est avantageuse, car d'une part, la réponse spectrale dans cette bande est plus sensible, notamment celle de l'ceil humain. D'autre part, cette bande spectrale se situant au milieu du spectre optique, la plupart des images auront des composantes dans cette bande, en tout cas beaucoup plus qu'avec les autre bandes spectrales rouge et bleue. Ainsi, n'importe quelle image peut être utilisée ici to pour détecter un angle d'inclinaison relatif, sans qu'on n'ait besoin de faire un choix spécifique d'un certain type d'image pour réaliser la mesure. Cependant, l'invention ne se limite pas à cet exemple, et n'importe quels éléments sensibles à une autre couleur peuvent être utilisés.
is D'autres exemples de module capteur-optique d'un système de capture d'images, selon un deuxième mode de réalisation de l'invention visant à détecter un défaut de décentrement ou de défocalisation de ce module, vont être présentés maintenant.
20 La figure 11A présente une vue de dessus d'un capteur C appartenant à un module capteur-optique similaire à ceux présentés ci-avant. Un tel capteur présente avantageusement une zone centrale de capture d'images Z, comprenant un certain nombre d'éléments photosensibles Z; dédiés à la capture des photons incidents pour en restituer une image, entourée d'une 25 zone périphérique P qui ne comprend pas de pixels dédiés spécifiquement à la capture d'images et ne participant donc pas à la capture d'images. La zone centrale Z est décrite dans cet exemple comme étant rectangulaire, avec un centre OZ situé à l'intersection de ses diagonales, c'est-à-dire à l'intersection de ses deux axes de symétrie orthogonaux X et Y. Cependant, toute autre 30 forme de zone de capture d'images peut être envisagée ici, comme une forme circulaire par exemple.
Le dispositif optique L, associé au capteur C dans le système de capture d'image de la présente invention et non représenté sur cette vue de dessus, va éclairer le capteur C avec la lumière provenant de la source S, et ceci selon une zone d'éclairement dont la forme dépendra de la forme du dispositif L lui-même. Dans l'exemple présent, le dispositif optique L est de forme circulaire et va donc présenter un cercle d'éclairement Iref sur le capteur C, l'intensité lumineuse reçue en dehors de ce cercle d'éclairement Iref étant quasi nulle. La taille de ce cercle dépendra de la distance séparant le dispositif optique L et le to capteur C, comme illustré sur les figures 3A et 3B ci-avant.
L'exemple de la figure 11 A représente le cas où le dispositif optique L est centré sur le capteur C, c'est-à-dire le cas où le centre du cercle d'éclairement Iref et le centre OZ de la zone centrale Z coïncident, et où une distance de is focalisation F optimale sépare le dispositif optique L et le capteur C. Le cercle d'éclairement Iref présente alors un rayon Rlref et constitue un cercle d'éclairement de référence, correspondant à un positionnement optimal du dispositif optique L en termes de décentrement et de focalisation par rapport au capteur C. 20 En plus des éléments photosensibles Z; dédiés spécifiquement à la capture d'images, le capteur C présente un certain nombre d'éléments photosensibles P;, situés dans la zone périphérique P du capteur C et dont la réponse va permettre de détecter un défaut de décentrement ou de défocalisation tels 25 qu'illustrés respectivement aux figures 2A-2D et 3A-3B ci-avant. Ces éléments photosensibles P; peuvent par exemple présenter une réponse numérique binaire, c'est-à-dire fournir une réponse 0 quand l'intensité lumineuse reçue est inférieure à un premier seuil et fournir une réponse 1 quand l'intensité lumineuse reçue est supérieure à un deuxième seuil, supérieur au 30 premier seuil. L'invention ne se limite cependant pas à ce type d'élément photosensible, et tout type d'élément permettant de distinguer un niveau de haute intensité lumineuse d'un niveau de basse intensité lumineuse peut être employé ici.
Dans l'exemple présent, le capteur C présente un premier élément photosensible P1 situé à l'intérieur du cercle d'éclairement de référence lref, ainsi qu'un deuxième élément photosensible P2 situé à l'extérieur du cercle d'éclairement de référence Iref. La réponse de ces deux éléments P1 et P2 peut servir à déterminer une grandeur de référence Gref, par exemple par la somme des intensités lumineuses reçues par P1 et P2 suivant la formule lo Gref=l(P1)+I(P2). Dans le cas présent, en considérant qu'un élément photosensible P; reçoit soit une intensité non nulle quand il se situe dans le cercle d'éclairement, soit une intensité proche de zéro quand il se situe en dehors de celui-ci, et en utilisant des éléments photosensibles P; avec une réponse binaire, la valeur de Gref sera non nulle. 15 La figure 11 B illustre deux cas où le dispositif optique L est décentré par rapport au capteur C selon la direction de son axe X.
Dans un premier cas où le dispositif optique L est décalé vers la droite du 20 capteur C, il va projeter un cercle d'éclairement I1 de centre 011 sur le capteur C. Dans ce cas, les deux éléments P1 et P2 appartiennent au cercle d'éclairement I1 et la grandeur G, déterminée à partir de leur réponse en intensité de façon identique à la grandeur de référence Gref, aura une valeur égale à 2. En déterminant alors un écart L1 entre cette grandeur G et la 25 grandeur de référence Gref, par un calcul tel que décrit précédemment, le fait que cet écart A soit substantiel sera indicatif d'un défaut de décentrement. Si par exemple, l'écart A correspond à la différence entre G et Gref, A n'est plus nul mais prend ici la valeur 1 , indicative d'un défaut de positionnement optique. 30 Dans un deuxième cas où le dispositif optique L est décalé cette fois-ci vers la gauche du capteur C, celui-ci va projeter un cercle d'éclairement 12 de centre 012 sur le capteur C. Dans ce cas, les deux éléments P, et P2 n'appartiennent plus au cercle d'éclairement 12 et la grandeur G, déterminée toujours de façon identique à la grandeur de référence Gref, aura une valeur nulle. Encore une fois, la détermination d'un écart A substantiel entre cette grandeur G et la grandeur de référence Gref (ici par exemple, A=G-Gref=-1) sera indicatif d'un défaut de positionnement optique.
Io La figure 11C illustre deux autres cas où le dispositif optique L est cette fois-ci défocalisé par rapport au capteur C.
Dans un premier cas où la distance entre le dispositif optique L et le capteur C est plus grande que la distance de focalisation optimale F, le cercle 1s d'éclairement 13 projeté sur le capteur C sera plus grand que le cercle d'éclairement de référence Iref. Dans ce cas, les deux éléments P1 et P2 appartiennent au cercle d'éclairement 13, similairement au cas du décentrement du dispositif optique L vers la droite du capteur C présenté précédemment à la figure 11B et la grandeur G, déterminée similaire aux cas 20 précédents, aura une valeur 2 . La détermination d'un écart A entre cette grandeur G et la grandeur de référence Gref (par exemple Li=G-Gref=1) sera donc indicative d'un défaut de positionnement optique.
Dans un deuxième cas où la distance entre le dispositif optique L et le capteur 25 C est plus petite que la distance de focalisation optimale, le cercle d'éclairement 14 projeté sur le capteur C sera cette fois-ci plus petit que le cercle d'éclairement de référence Iref. Dans ce cas, les deux éléments P, et P2 n'appartiennent plus au cercle d'éclairement 14, similairement au cas du décentrement du dispositif optique L vers la gauche du capteur C présenté 30 précédemment à la figure 11 B et la grandeur G, déterminée à partir de leur réponse en intensité de façon identique à la grandeur de référence Gref, aura une valeur nulle. La détermination d'un écart A entre cette grandeur G et la grandeur de référence Gref (par exemple A=G-Gref=-1) sera donc encore une fois indicative d'un défaut de positionnement optique.
s Avec le premier exemple de capteur présenté ci-dessus, un défaut optique de type décentrement ou défocalisation peut donc être détecté, sans pouvoir nécessairement être distingué. Les exemples suivants de capteur permettent avantageusement de distinguer le type défaut optique incriminé.
io Un deuxième exemple de capteur C est représenté vu de dessus, sur la figure 12. Ce capteur C est similaire à celui-ci présenté aux figures 11A-11C, à la différence qu'il présente deux éléments photosensibles P3 et P4, situés dans la zone périphérique P, par exemple à l'intérieur du cercle d'éclairement Iref, et sur un axe Y passant par le centre OZ de la zone rectangulaire centrale Z, 15 avantageusement à égale distance du centre OZ de celle-ci, afin d'obtenir une information plus concrète. Cet axe Y peut par exemple être un axe de symétrie de la zone Z. La grandeur de référence Gref peut correspondre à la somme des réponses des deux éléments P3 et P4, par exemple, ce qui donne ici une valeur de 2 . 20 Si maintenant, dans un premier cas, le dispositif optique L se décentre le long de l'axe Y, vers le bas par exemple, l'élément P3 ne sera plus éclairé tandis que l'élément P4 le restera. La grandeur G n'aura plus alors qu'une valeur de 1 . Si dans un deuxième cas, le dispositif optique L se rapproche du 25 capteur C, le cercle d'éclairement va se rétrécir au point où les deux éléments P3 et P4 ne seront plus éclairés. La grandeur G prendra alors une valeur nulle. A contrario, avec des éléments P3 et P4 situés à l'extérieur du cercle d'éclairement Iref, on peut détecter de la même façon un éloignement du dispositif optique L par rapport au capteur C. 30 La détermination de l'écart A entre la grandeur G obtenue et la grandeur de référence Gref permet alors de distinguer le type défaut optique incriminé. En effet, si l'on considère par exemple que l'écart A correspond à la différence entre G et Gref, alors cet écart A sera 1 en valeur absolue quand il y a un décentrement, et la 2 en valeur absolue quand il y a rapprochement du dispositif optique L et du capteur C. L'écart A est donc bien indicatif du type de défaut.
Dans ce deuxième exemple de la figure 12, un décentrement selon l'axe Y de w la zone Z peut être détecté et discriminé d'un défaut lié au rapprochement trop important du dispositif optique L par rapport au capteur C.
Un troisième exemple, illustré à la figure 13, consiste à extrapoler l'exemple de la figure 12 en utilisant en outre la réponse de deux autres éléments 15 photosensibles P5 et P6, toujours situés dans la zone périphérique P, à l'intérieur du cercle d'éclairement Iref et sur l'axe X de symétrie de la zone rectangulaire centrale Z, à égale distance du centre OZ de celle-ci. La grandeur de référence Gref peut alors correspondre à une paire de grandeur de référence relative (Gref1, Gref2) correspondant respectivement à la somme des 20 réponses des éléments P3 et P4, ainsi que des éléments P5 et P6, par exemple. La grandeur de référence Gref prendra ici la valeur (2,2).
Avec l'exemple de la figure 13, il est maintenant possible de détecter et de discriminer aussi bien un décentrement le long de l'axe X que de l'axe Y, en 25 déterminant un écart A correspondant par exemple aux différences respectives des grandeurs relatives G1 et G2 associées respectivement aux paires d'éléments (P3,P4) et (P5,P6), et de leurs grandeurs de références Gref1 et Gref2 associées.
30 Par exemple, si la grandeur G prend la valeur (1,2), avec G1=1 et G2=2, l'écart A, calculé comme (G1-Gref1,G2-Gref2) prend alors la valeur (1,0), ce qui indique un décentrement selon l'axe Y. Si la grandeur G prend la valeur (2,1), l'écart A prend alors la valeur (0,1), ce qui indique un décentrement selon l'axe X. Enfin, si la grandeur G prend la valeur (0,0), l'écart A prend alors la valeur (2,2), ce qui indique un défaut de focalisation du au rapprochement du dispositif optique L par rapport au capteur C.
Dans ce troisième exemple de la figure 13, un décentrement selon l'axe Y ou l'axe X de la zone Z peut être détecté et discriminé d'un défaut lié au rapprochement trop important du dispositif optique L par rapport au capteur C. i0 Un quatrième exemple, illustré à la figure 14, consiste à extrapoler l'exemple de la figure 13 en utilisant en outre la réponse de quatre autres éléments photosensibles P3', P4', P5'et P6' situés dans la zone périphérique P, à l'extérieur du cercle d'éclairement Iref, sur les axe X et Y de la zone is rectangulaire centrale Z, à égale distance du centre OZ de celle-ci. La grandeur de référence Gref peut alors correspondre à une série de quatre grandeurs Gref, de référence relatives à chacune des paires d'éléments (P;, P;'), correspondant par exemple à la somme des réponses des éléments P; et P;' associés. La grandeur de référence globale Gref prendra ici la valeur (1,1,1,1). 20 Avec l'exemple de la figure 14, il devient maintenant possible de détecter et de discriminer non seulement un décentrement le long de l'axe X ou de l'axe Y, mais aussi un défaut de focalisation dû aussi bien au rapprochement qu'à l'éloignement relatif du dispositif optique L par rapport au capteur C. Ceci est 25 obtenu en déterminant un écart A correspondant par exemple à la série des différences respectives des grandeurs relatives G; aux paires éléments (P;, P;') et des grandeurs de références relatives Gref; à ces mêmes paires (P;, P;').
Par exemple, si la grandeur globale G prend la valeur (0,0,0,0), c'est-à-dire si 30 plus aucun élément n'est éclairé, l'écart A prend alors la valeur (-1,-1,-1,-1), indiquant ainsi un défaut de focalisation dû au rapprochement du dispositif optique L par rapport au capteur C. A l'inverse, si la grandeur globale G prend la valeur (2,2,2,2), c'est-à-dire si tous les éléments sont éclairés, l'écart A prend alors la valeur (1,1,1,1), indiquant ainsi un défaut de focalisation dû cette fois à l'éloignement du dispositif optique L par rapport au capteur C. Avec les exemples présentés aux figures 12 à 14, il est possible de détecter et discriminer un défaut optique de type décentrement ou défocalisation. Le cinquième exemple suivant permet en outre d'estimer l'amplitude du défaut détecté, afin de pouvoir effectuer éventuellement une action compensatrice. 10 La figure 15A présente une vue de dessus d'un capteur C similaire à celui présenté aux figures 12-14 précédentes. Un tel capteur présente des régions secondaires Pa, Pb, Pc et Pd, appartenant à la région périphérique P, dans lesquelles se trouvent respectivement un certain nombre d'éléments 15 photosensibles Pa;, Pb;, Pc; et Pd; situés sur les axes de symétrie X ou Y de la zone centrale Z. Dans l'exemple présent, chaque région secondaire comprend quatre éléments photosensibles, mais la présente invention n'est pas limitée à un tel nombre. De même, la définition d'un nombre différents de régions secondaires est également envisageable. A titre d'exemple, seules les régions 20 secondaires Pa et Pb pourraient être exploitées.
Dans une région secondaire, comme la région Pa par exemple, les quatre éléments photosensibles Pa; sont espacés consécutivement les uns les autres d'une distance déterminée E. On peut utiliser cette distance d'espacement 25 dans toutes les régions secondaires, ou bien chaque région peut disposer de sa propre distance d'espacement entre les éléments photosensibles.
Le capteur de la figure 15A est illuminé par un cercle d'éclairement Iref identique à celui de la figure 11A, c'est-à-dire correspondant au 30 positionnement optimal du dispositif optique L par rapport au capteur C en termes de focalisation et de décentrement. Dans le cas présent, le cercle5 d'éclairement Iref traverse toutes les régions secondaires. Par exemple, dans le cas de la région Pa, le cercle d'éclairement Iref passe entre les éléments Pa2 et Pa3, ce qui implique que les éléments Pa, et Pa2 sont substantiellement bien éclairés tandis que les éléments Pa3 et Pa4 le sont peu, voire pas du tout. On s peut définir une grandeur de référence Grefa relative à la région Pa, correspondant à l'éclairement de la région Pa par un dispositif optique L correctement positionné. Une telle grandeur peut par exemple être la somme des intensités reçues par les éléments photosensibles de la région Pa. Ici, cette somme équivaut à la valeur 2 et reflète le fait que le cercle 10 d'éclairement passe entre les éléments Pa2 et Pa3. Un calcul similaire peut être fait pour chacune des autres régions secondaires.
La figure 15B illustre maintenant le cas où le dispositif optique L est décentré par rapport au capteur C selon la direction de son axe X. 15 Dans ce cas, et en l'absence de modification de la distance entre le dispositif L et le capteur C, le cercle d'éclairement 15 de centre 015 passe cette fois-ci entre les éléments photosensibles Pc3 et Pc4 de la région secondaire Pc, ainsi qu'entre les éléments photosensibles Pd2 et Pd, de la région secondaire Pd. 20 La grandeur Gd relative à la région Pd va donc diminuer par rapport au cas optimal et prendre la valeur 1 dans l'exemple présent, tandis que la grandeur Gd relative à la région Pc va augmenter par rapport au cas optimal et prendre la valeur 3 .
25 Par l'écart entre les grandeurs relatives aux régions Pa-Pd (prenant ici les respectivement valeurs 2 , 2 , 3 , 1 ) et les grandeurs de références relatives à ces mêmes régions (qui ont toutes la valeur 2 dans le cas présent), on a l'information d'un décentrement du dispositif optique L vers la droite du capteur C ainsi que son niveau d'amplitude avec une 3o incertitude correspondant à la distance E entre les éléments photosensibles d'une même région. On peut par ailleurs vérifier ici, par la détermination du point de passage du cercle d'éclairement dans les différentes régions secondaires, la taille du cercle d'éclairement, et donc son éventuelle défocalisation. Dans le cas présent, l'écart déterminé permet de conclure que la distance de focalisation n'est pas modifiée. La figure 15C illustre deux autres cas où cette fois-ci le dispositif optique L est défocalisé par rapport au capteur C, en l'absence de décentrement entre le dispositif L et le capteur C
~o Dans un premier cas, le cercle d'éclairement 16 passe cette fois-ci entre les premiers et les deuxièmes éléments photosensibles de chaque région secondaire. Les grandeurs G; relatives à chaque région vont donc diminuer par rapport au cas optimal et prendre la valeur 1 dans l'exemple présent. La comparaison de ces grandeurs G; relatives avec les grandeurs relatives de 15 référence Gref1, qui ont la valeur 2 dans l'exemple présent, va indiquer une diminution du rayon du cercle d'éclairement, et donc une diminution de la distance séparant le capteur C du dispositif optique L. Le fait que les grandeurs relatives aux régions secondaires opposées diminuent simultanément d'un même ordre signifie qu'il n'y a pas de défaut de 20 décentrement.
La connaissance des points de passage du cercle d'éclairement 16 dans les régions secondaires permet de calculer son rayon R16 avec une incertitude correspondant à deux fois la distance E entre deux éléments photosensibles 25 consécutifs d'une même région secondaire. A partir de ce rayon, et connaissant l'angle solide d'éclairement e, on peut déduire la distance F16 séparant ici le capteur C du dispositif optique L par la relation tan(e)= R16/F16. On obtient alors une mesure du degré de défocalisation du module capteur-optique. 30 Dans un deuxième cas, le cercle d'éclairement 17 passe cette fois-ci entre les deuxièmes et les troisièmes éléments photosensibles de chaque région secondaire. Les grandeurs G; relatives à chaque région vont donc augmenter par rapport au cas optimal et prendre la valeur 3 dans l'exemple présent.
La comparaison de ces grandeurs G; relatives avec les grandeurs relatives de référence Gref;, qui ont toujours la valeur 2 dans l'exemple présent, va indiquer une augmentation du rayon du cercle d'éclairement, et donc une augmentation de la distance séparant le capteur C du dispositif optique L. Encore une fois, le fait que les grandeurs relatives aux régions secondaires w opposées augmentent simultanément dans les mêmes proportions signifie qu'il n'y a pas de défaut de décentrement.
Similairement au cas précédent, la connaissance des points de passage du cercle d'éclairement 17 dans les régions secondaires permet de calculer son ts rayon R17 avec une incertitude correspondant à deux fois la distance e entre deux éléments photosensibles consécutifs d'une même région secondaire. A partir de ce rayon, et connaissant l'angle solide d'éclairement e, on peut déduire la distance F17 séparant ici le capteur C du dispositif optique L par la relation tan(e)= R,7/F17. On obtient alors une mesure du degré de défocalisation 20 du module capteur-optique.
Dans les exemples des figures 11 A à 15C, chaque défaut optique a été présenté séparément dans un souci de simplification. Il est évident cependant qu'un défaut de décentrement peut se produire simultanément à un défaut de 25 focalisation. Le module capteur-optique présenté aux figures 15A-15C, de par sa configuration, sera à même de détecter et d'estimer chacun des défauts indépendamment l'un de l'autre.
Les deux modes de réalisation précédents ont été présentés séparément. Il 30 est cependant bien évident qu'un système selon l'invention peut combiner ces deux modes de réalisation et utiliser simultanément la réponse de certains éléments photosensibles dédiés à la capture d'images, dans l'esprit de ce qui est fait aux figures 6A et 6B, ainsi que la réponse de certains éléments photosensibles situés dans une zone périphérique P du capteur, dans l'esprit de ce qui est fait aux figures 11A ou 15A. Un tel système permet alors de détecter, et éventuellement compenser, aussi bien un défaut d'inclinaison qu'un défaut de décentrement ou un défaut de focalisation du module capteur-optique.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation ci- Io dessus décrits et représentés, à partir desquels on pourra prévoir d'autres modes et d'autres formes de réalisation, sans pour autant sortir du cadre de l'invention.
En particulier, lorsque le contrôle du système de capture d'images inclut 15 l'estimation d'un défaut optique, à des fins de compensation, ce dernier peut être l'un des défauts optiques mentionnés plus haut, ou bien tout autre défaut optique envisageable et détectable à partir de réponses respectives de certains au moins des éléments photosensibles du capteur. 30

Claims (16)

  1. Revendications1. Procédé de contrôle d'un système de capture d'images (1) comprenant un capteur (C) incluant une pluralité d'éléments photosensibles (Z1, Z2, Zn) et un dispositif optique (L) pour focaliser vers le capteur la lumière émise depuis une scène (S), le procédé comprenant les étapes suivantes : /1/ obtention (100) de réponses respectives de certains au moins des to éléments photosensibles (E1, E1', P1, P2) du capteur à une exposition du système de capture d'images à une scène (S) quelconque ; et /2/ détermination (200) d'au moins un écart (A) entre au moins une grandeur (G) déduite des réponses obtenues et au moins une grandeur de référence (Gref). 15
  2. 2. Procédé de contrôle selon la revendication 1, comprenant en outre les étapes suivantes : /3/ estimation (300) d'un défaut optique du système de capture d'images (1) à partir dudit écart (A) déterminé ; et 20 /4/ mise en oeuvre d'une action apte à compenser (400) au moins partiellement le défaut optique estimé.
  3. 3. Procédé de contrôle selon l'une des revendications 1 ou 2, dans lequel les réponses obtenues comprennent les réponses d'éléments photosensibles 25 (E1, E1') sensibles au moins à une bande spectrale commune.
  4. 4. Procédé de contrôle selon la revendication 3, dans lequel les réponses obtenues comprennent les réponses d'éléments photosensibles (E1, E1') sensibles au moins à la bande spectrale du vert.
  5. 5. Procédé de contrôle selon l'une quelconque des revendications précédentes, dans lequel la grandeur (G) déduite des réponses obtenuescomprend une comparaison mathématique entre certaines au moins desdites réponses obtenues.
  6. 6. Procédé de contrôle selon l'une quelconque des revendications précédentes, dans lequel certains au moins des éléments photosensibles dont les réponses respectives sont obtenues sont voisins de premier ou de second ordre sur le capteur (C).
  7. 7. Procédé de contrôle selon l'une quelconque des revendications Io précédentes, dans lequel lesdites réponses obtenues comprennent les réponses d'une pluralité de paires d'éléments photosensibles ((E1, E1'),((E2, E2')), dans lequel on détermine, pour chacune desdites paires d'éléments photosensibles (E;, E;'), un écart (A) entre une grandeur (G;) déduite des réponses des éléments photosensibles appartenant à ladite paire et une 15 grandeur de référence (Gref;).
  8. 8. Procédé de contrôle selon la revendication 7, dans lequel ladite pluralité de paires d'éléments photosensibles ((E1, E1'),(E2, E2')) est positionnée dans une région (E) sélectionnée du capteur (C).
  9. 9. Procédé de contrôle selon l'une des revendications précédentes, dans lequel les réponses obtenues comprennent les réponses d'éléments photosensibles (P1, P2) situés en périphérie du capteur (C). 25
  10. 10. Procédé de contrôle selon la revendication 9, dans lequel le capteur (C) comprend une zone centrale (Z) de capture d'images et une zone périphérique (P) ne participant pas à la capture d'images, et dans lequel lesdits éléments photosensibles (P1,P2) situés en périphérie du capteur appartiennent à ladite 30 zone périphérique (P). 20
  11. 11. Procédé de contrôle selon la revendication 9 ou 10, dans lequel les réponses obtenues comprennent les réponses d'au moins deux éléments photosensibles (P3,P4) positionnés sur un premier axe (Y) traversant la zone centrale (Z) de capture d'images, de part et d'autre de ladite zone centrale (Z).
  12. 12. Procédé de contrôle selon la revendication 11, dans lequel les réponses obtenues comprennent en outre les réponses d'au moins deux autres éléments photosensibles (P5,P6) positionnés sur un deuxième axe (X), traversant la zone centrale (Z) de capture d'images et sensiblement orthogonal ~o audit premier axe (Y), de part et d'autre de ladite zone centrale (Z).
  13. 13. Procédé de contrôle selon l'une quelconque des revendications 10 à 11, dans lequel les réponses obtenues comprennent les réponses d'au moins une première pluralité d'éléments photosensibles (Pa1,Pa2), positionnés sur un 15 premier axe (Y) traversant la zone centrale (Z) de capture d'images, appartenant à une première région secondaire (Pa) du capteur et étant séparés consécutivement les uns des autres d'une distance déterminée, et une deuxième pluralité d'éléments photosensibles (Pc1,Pc2), positionnés sur un deuxième axe (X) traversant la zone centrale (Z) de capture d'images et 20 sensiblement orthogonal audit premier axe (Y), appartenant à une deuxième région secondaire (Pc) du capteur distincte de ladite première région secondaire et étant séparés consécutivement les uns des autres d'une distance déterminée. 25
  14. 14. Système de capture d'images pour la mise en oeuvre du procédé selon l'une des revendications précédentes, comprenant : - un capteur (C) incluant une pluralité d'éléments photosensibles (Z1, Z2, Zn); - un dispositif optique (L) pour focaliser sur le capteur la lumière émise depuis une scène; 30 - un moyen (DET) de détermination d'au moins un écart (A) entre au moins une grandeur (G), déduite de réponses respectives de certains au moins deséléments photosensibles (E1,E1',P1,P2) du capteur à une exposition du système de capture d'images à une scène (S) quelconque, et au moins une grandeur de référence (Gref).
  15. 15. Système de capture d'images selon la revendication 14, comprenant en outre un moyen d'estimation (DEF) d'un défaut optique du système de capture d'images à partir dudit écart déterminé, ainsi qu'un moyen de compensation (COMP) au moins partielle du défaut optique estimé. l0
  16. 16. Appareil photo numérique comprenant un système de capture d'images selon la revendication 14 ou 15.
FR0950192A 2009-01-14 2009-01-14 Controle de defauts optiques dans un systeme de capture d'images Expired - Fee Related FR2941067B1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR0950192A FR2941067B1 (fr) 2009-01-14 2009-01-14 Controle de defauts optiques dans un systeme de capture d'images
US13/144,293 US8634004B2 (en) 2009-01-14 2010-01-11 Monitoring of optical defects in an image capture system
PCT/FR2010/050034 WO2010081982A1 (fr) 2009-01-14 2010-01-11 Controle de defauts optiques dans un systeme de capture d'images
EP10706293A EP2377306A1 (fr) 2009-01-14 2010-01-11 Controle de defauts optiques dans un systeme de capture d'images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0950192A FR2941067B1 (fr) 2009-01-14 2009-01-14 Controle de defauts optiques dans un systeme de capture d'images

Publications (2)

Publication Number Publication Date
FR2941067A1 true FR2941067A1 (fr) 2010-07-16
FR2941067B1 FR2941067B1 (fr) 2011-10-28

Family

ID=40532679

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0950192A Expired - Fee Related FR2941067B1 (fr) 2009-01-14 2009-01-14 Controle de defauts optiques dans un systeme de capture d'images

Country Status (4)

Country Link
US (1) US8634004B2 (fr)
EP (1) EP2377306A1 (fr)
FR (1) FR2941067B1 (fr)
WO (1) WO2010081982A1 (fr)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010055809A1 (fr) * 2008-11-12 2010-05-20 コニカミノルタオプト株式会社 Procédé de réglage de dispositif d'imagerie et dispositif d'imagerie
US8350934B2 (en) * 2010-10-21 2013-01-08 Taiwan Semiconductor Manufacturing Co., Ltd. Color image sensor array with color crosstalk test patterns
US8924168B2 (en) 2011-01-27 2014-12-30 General Electric Company Method and system to detect actuation of a switch using vibrations or vibration signatures
TW201326738A (zh) * 2011-12-16 2013-07-01 Hon Hai Prec Ind Co Ltd 相機模組檢測裝置及檢測方法
JP2019009653A (ja) * 2017-06-26 2019-01-17 アイホン株式会社 インターホン機器におけるカメラモジュールの調整方法
EP3853593A4 (fr) 2018-09-20 2021-11-17 Siemens Healthcare Diagnostics, Inc. Systèmes, procédés et appareil de vérification de diagnostic autonome de composants optiques de systèmes d'inspection fondés sur la vision
US11277544B2 (en) 2019-08-07 2022-03-15 Microsoft Technology Licensing, Llc Camera-specific distortion correction
US11663704B2 (en) 2021-04-28 2023-05-30 Microsoft Technology Licensing, Llc Distortion correction via modified analytical projection
CN117529926A (zh) * 2021-08-02 2024-02-06 谷歌有限责任公司 用于增强的包裹检测的非对称相机传感器定位

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000079784A1 (fr) * 1999-06-04 2000-12-28 The Trustees Of Columbia University In The City Of New York Procede et dispositif d'imagerie a plage dynamique haute par utilisation d'expositions variant spatialement
WO2003043308A2 (fr) * 2001-11-13 2003-05-22 Koninklijke Philips Electronics N.V. Procede de derivation d'un calibrage et procede de traitement des images
WO2007055179A1 (fr) * 2005-11-09 2007-05-18 Sharp Kabushiki Kaisha Dispositif de correction de quantité de lumière ambiante, procédé de correction de quantité de lumière ambiante, appareil d’informations électroniques, programme de commande et support d’enregistrement lisible
US20070165119A1 (en) * 2005-11-01 2007-07-19 Olympus Corporation Image processing apparatus for correcting defect pixel in consideration of distortion aberration
US20080218607A1 (en) * 2007-03-08 2008-09-11 Pentax Corporation Distortion correction for photographing device

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3405302B2 (ja) * 1999-12-24 2003-05-12 株式会社豊田自動織機 画像歪補正装置
US20060125945A1 (en) * 2001-08-07 2006-06-15 Satoshi Suzuki Solid-state imaging device and electronic camera and shading compensaton method
US7032472B2 (en) * 2002-05-10 2006-04-25 Caterpillar Inc. Counterbalance for linkage assembly
US7071966B2 (en) * 2003-06-13 2006-07-04 Benq Corporation Method of aligning lens and sensor of camera
TWI232349B (en) * 2003-07-07 2005-05-11 Benq Corp Method for adjusting relative position of lens module by using uniform light source
US7961973B2 (en) * 2004-09-02 2011-06-14 Qualcomm Incorporated Lens roll-off correction method and apparatus
US20070133893A1 (en) * 2005-12-14 2007-06-14 Micron Technology, Inc. Method and apparatus for image noise reduction
KR100808493B1 (ko) * 2005-12-28 2008-03-03 엠텍비젼 주식회사 렌즈 셰이딩 보상 장치, 보상 방법 및 이를 이용한 이미지프로세서
US20080111912A1 (en) * 2006-11-09 2008-05-15 Mei-Ju Chen Methods and apparatuses for generating information regarding spatial relationship between a lens and an image sensor of a digital imaging apparatus and related assembling methods
US8405711B2 (en) * 2007-01-09 2013-03-26 Capso Vision, Inc. Methods to compensate manufacturing variations and design imperfections in a capsule camera
KR100911378B1 (ko) * 2007-02-23 2009-08-10 삼성전자주식회사 렌즈 교정 방법 및 렌즈 교정 장치
EP2018047A1 (fr) * 2007-06-15 2009-01-21 IEE INTERNATIONAL ELECTRONICS & ENGINEERING S.A. Procédé de détection de contamination dans une caméra de portée TOF
US7907185B2 (en) * 2007-07-16 2011-03-15 Aptina Imaging Corporation Lens correction logic for image sensors
US8085391B2 (en) * 2007-08-02 2011-12-27 Aptina Imaging Corporation Integrated optical characteristic measurements in a CMOS image sensor
JP2009205479A (ja) * 2008-02-28 2009-09-10 Kddi Corp 撮像装置のキャリブレーション装置、方法及びプログラム
US8970744B2 (en) * 2009-07-02 2015-03-03 Imagination Technologies Limited Two-dimensional lens shading correction
CN102035988A (zh) * 2009-09-29 2011-04-27 深圳富泰宏精密工业有限公司 手机摄像头拍照效果测试系统及方法
CN102096307A (zh) * 2009-12-14 2011-06-15 鸿富锦精密工业(深圳)有限公司 测试相机镜头偏转角度的方法和装置
US8477195B2 (en) * 2010-06-21 2013-07-02 Omnivision Technologies, Inc. Optical alignment structures and associated methods
JP2012070046A (ja) * 2010-09-21 2012-04-05 Sony Corp 収差補正装置、収差補正方法、および、プログラム
TWI417640B (zh) * 2010-12-31 2013-12-01 Altek Corp 鏡頭校準系統
US8659689B2 (en) * 2011-05-17 2014-02-25 Rpx Corporation Fast measurement of alignment data of a camera system
US8786737B2 (en) * 2011-08-26 2014-07-22 Novatek Microelectronics Corp. Image correction device and image correction method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000079784A1 (fr) * 1999-06-04 2000-12-28 The Trustees Of Columbia University In The City Of New York Procede et dispositif d'imagerie a plage dynamique haute par utilisation d'expositions variant spatialement
WO2003043308A2 (fr) * 2001-11-13 2003-05-22 Koninklijke Philips Electronics N.V. Procede de derivation d'un calibrage et procede de traitement des images
US20070165119A1 (en) * 2005-11-01 2007-07-19 Olympus Corporation Image processing apparatus for correcting defect pixel in consideration of distortion aberration
WO2007055179A1 (fr) * 2005-11-09 2007-05-18 Sharp Kabushiki Kaisha Dispositif de correction de quantité de lumière ambiante, procédé de correction de quantité de lumière ambiante, appareil d’informations électroniques, programme de commande et support d’enregistrement lisible
US20080218607A1 (en) * 2007-03-08 2008-09-11 Pentax Corporation Distortion correction for photographing device

Also Published As

Publication number Publication date
EP2377306A1 (fr) 2011-10-19
FR2941067B1 (fr) 2011-10-28
US20110273569A1 (en) 2011-11-10
WO2010081982A1 (fr) 2010-07-22
US8634004B2 (en) 2014-01-21

Similar Documents

Publication Publication Date Title
FR2941067A1 (fr) Controle de defauts optiques dans un systeme de capture d'images
EP2457379B1 (fr) Procédé d'estimation d'un défaut d'un système de capture d'images et systèmes associés
EP2465255A1 (fr) Système et procédé de capture d'images avec deux modes de fonctionnement
FR2982678A1 (fr) Procede et systeme de capture de sequence d'images avec compensation des variations de grandissement
EP2374270A1 (fr) Système de capture d'images et utilisation associée pour améliorer la qualité des images acquises
FR2833743A1 (fr) Procede et dispositif a faible resolution d'acquisition pour le controle d'un ecran d'affichage
WO2018143340A1 (fr) Appareil photo spectroscopique, procédé de capture d'image, programme et support d'enregistrement
US11696043B2 (en) White balance compensation using a spectral sensor system
JP5920608B2 (ja) 画像の鮮明度を評価する撮像システムおよび方法
CA2976931A1 (fr) Procede et dispositif de caracterisation des aberrations d'un systeme optique
CA3119232C (fr) Appareil et procede pour observer une scene comportant une cible
FR2999729A1 (fr) Mise au point optique d'un instrument de saisie d'image
FR3102845A1 (fr) Détermination d'au moins un paramètre optique d'une lentille optique
FR3113165A1 (fr) Procédé et système pour imager une scène dans l’espace
FR3078427A1 (fr) Detection dynamique de lumiere parasite dans une image numerique
FR3130060A1 (fr) procédé et dispositif de caractérisation de distorsions dans une caméra plénoptique
EP4090012B1 (fr) Systeme de videoconference permettant de reduire un effet de parallaxe associe a la direction du regard d'un utilisateur
BE1015708A3 (fr) Procede pour mesurer la hauteur de spheres ou d'hemispheres.
US20220244103A1 (en) Detection of light source distortion in an imaging system
EP0561674B1 (fr) Procédé de correction des défauts d'uniformité des pixels d'un senseur à l'état solide, et dispositif pour la mise en oeuvre du procédé
WO2023187170A1 (fr) Procédé de correction d'aberrations optiques introduites par un objectif optique dans une image, appareil et système mettant en œuvre un tel procédé
WO2003023715A2 (fr) Procede de determination d'image de reference de capteur d'images
Jang et al. Color fringe correction based on image fusion
JP2020038319A (ja) 撮像装置及びその制御方法
FR3050060A1 (fr) Mesures de parametres de projection cinematographique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

ST Notification of lapse

Effective date: 20190906