FR2827459A1 - Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image - Google Patents

Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image Download PDF

Info

Publication number
FR2827459A1
FR2827459A1 FR0109291A FR0109291A FR2827459A1 FR 2827459 A1 FR2827459 A1 FR 2827459A1 FR 0109291 A FR0109291 A FR 0109291A FR 0109291 A FR0109291 A FR 0109291A FR 2827459 A1 FR2827459 A1 FR 2827459A1
Authority
FR
France
Prior art keywords
image
images
restitution
formatted information
image capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR0109291A
Other languages
English (en)
Other versions
FR2827459B1 (fr
Inventor
Bruno Liege
Frederic Guichard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lens Correction Technologies SAS
Original Assignee
Poseidon SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Poseidon SA filed Critical Poseidon SA
Priority to FR0109291A priority Critical patent/FR2827459B1/fr
Priority to CNB028139550A priority patent/CN100371950C/zh
Priority to PCT/FR2002/001909 priority patent/WO2003007239A1/fr
Priority to CNB028139518A priority patent/CN1305006C/zh
Priority to ES02747506T priority patent/ES2253542T3/es
Priority to EP02748933A priority patent/EP1415275B1/fr
Priority to US10/483,494 priority patent/US7792378B2/en
Priority to CA2453423A priority patent/CA2453423C/fr
Priority to US10/483,253 priority patent/US7463293B2/en
Priority to KR1020047000413A priority patent/KR100957878B1/ko
Priority to PCT/FR2002/001913 priority patent/WO2003007592A1/fr
Priority to EP02743349A priority patent/EP1410326B1/fr
Priority to CNB028139577A priority patent/CN1305010C/zh
Priority to CNB028139585A priority patent/CN100346633C/zh
Priority to AU2002317902A priority patent/AU2002317902A1/en
Priority to DE60234207T priority patent/DE60234207D1/de
Priority to PCT/FR2002/001906 priority patent/WO2003007237A1/fr
Priority to PCT/FR2002/001910 priority patent/WO2003007236A2/fr
Priority to AT02743349T priority patent/ATE497224T1/de
Priority to EP02748934.3A priority patent/EP1421777B1/fr
Priority to ES02747503T priority patent/ES2324817T3/es
Priority to CNB028139569A priority patent/CN1316427C/zh
Priority to JP2003512928A priority patent/JP4020262B2/ja
Priority to AT02743348T priority patent/ATE354837T1/de
Priority to EP02745485.9A priority patent/EP1410331B1/fr
Priority to JP2003512931A priority patent/JP4452497B2/ja
Priority to US10/483,495 priority patent/US7346221B2/en
Priority to JP2003513230A priority patent/JP4378168B2/ja
Priority to AU2002317900A priority patent/AU2002317900A1/en
Priority to PCT/FR2002/001908 priority patent/WO2003007243A2/fr
Priority to DE60207417T priority patent/DE60207417T2/de
Priority to US10/483,497 priority patent/US7724977B2/en
Priority to US10/483,252 priority patent/US7356198B2/en
Priority to EP02747503A priority patent/EP1523730B1/fr
Priority to EP02751241.7A priority patent/EP1442425B1/fr
Priority to US10/482,413 priority patent/US8675980B2/en
Priority to EP02747504A priority patent/EP1444651B1/fr
Priority to JP2003512927A priority patent/JP4295612B2/ja
Priority to JP2003512929A priority patent/JP4295613B2/ja
Priority to PCT/FR2002/001915 priority patent/WO2003007242A2/fr
Priority to KR1020047000417A priority patent/KR100940148B1/ko
Priority to AT02747503T priority patent/ATE426868T1/de
Priority to US10/483,322 priority patent/US7760955B2/en
Priority to CNB028139593A priority patent/CN100345158C/zh
Priority to DE60231752T priority patent/DE60231752D1/de
Priority to JP2003512925A priority patent/JP4630547B2/ja
Priority to ES02748933T priority patent/ES2311061T3/es
Priority to CNB028139542A priority patent/CN1273931C/zh
Priority to JP2003512930A priority patent/JP4367757B2/ja
Priority to DE60218317T priority patent/DE60218317T2/de
Priority to PCT/FR2002/001914 priority patent/WO2003007241A1/fr
Priority to US10/483,496 priority patent/US7343040B2/en
Priority to KR1020047000414A priority patent/KR100940147B1/ko
Priority to US10/482,419 priority patent/US7532766B2/en
Priority to EP08100657.9A priority patent/EP2015247B1/fr
Priority to EP02747506A priority patent/EP1410327B1/fr
Priority to KR1020047000412A priority patent/KR100879832B1/ko
Priority to CNB028139534A priority patent/CN100361153C/zh
Priority to AT02748933T priority patent/ATE400040T1/de
Priority to DE60239061T priority patent/DE60239061D1/de
Priority to ES02747504T priority patent/ES2353057T3/es
Priority to AT02747506T priority patent/ATE310284T1/de
Priority to AT02747504T priority patent/ATE447216T1/de
Priority to EP02743348A priority patent/EP1412918B1/fr
Priority to JP2003512926A priority patent/JP4159986B2/ja
Priority to KR1020047000416A priority patent/KR100940149B1/ko
Priority to ES02743348T priority patent/ES2282429T3/es
Priority to PCT/FR2002/001907 priority patent/WO2003007238A1/fr
Priority to PCT/FR2002/001911 priority patent/WO2003007240A1/fr
Priority to DE60227374T priority patent/DE60227374D1/de
Priority to AU2002317219A priority patent/AU2002317219A1/en
Priority to CNB028139526A priority patent/CN1316426C/zh
Priority to JP2003512924A priority patent/JP4614657B2/ja
Publication of FR2827459A1 publication Critical patent/FR2827459A1/fr
Application granted granted Critical
Publication of FR2827459B1 publication Critical patent/FR2827459B1/fr
Priority to US12/838,198 priority patent/US8559743B2/en
Priority to US12/838,184 priority patent/US20100278415A1/en
Priority to US13/489,892 priority patent/US20120308160A1/en
Priority to US14/021,235 priority patent/US9536284B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

La présente invention concerne un procédé pour fournir à des logiciels de traitement d'image (4) des informations formatées (15) liées aux caractéristiques des appareils de capture d'image (1) et/ ou des moyens de restitution d'image.Le procédé comprend l'étape de produire des données relatives aux caractéristiques techniques intrinsèques de l'appareil de capture d'image (1) et/ ou relatives aux caractéristiques techniques de l'appareil de capture d'image (1) au moment de la capture d'image.Ces données sont ci-après dénommées les informations formatées (15).Le procédé comprend en outre les étapes :- d'associer l'image (103) aux informations formatées (15). - de transmettre l'image (103) et les informations formatées (15) audits logiciels de traitement d'image (4).Il est ainsi possible de corriger les défauts de l'appareil de capture d'image (1) existant au moment de la capture.

Description

<Desc/Clms Page number 1>
Figure img00010001
1. 1 PROCÉDÉ ET SYSTEME POUR FOURNIR À DES LOGICIELS DE TRAITEMENT
D'IMAGE DES INFORMATIONS FORMATÉES LIÉES AUX CARACTÉRISTIQUES DES APPAREILS DE CAPTURE D'IMAGE ET/OU DES MOYENS DE RESTITUTION
D'IMAGE.
L'invention concerne un procédé et un système pour fournir à des logiciels de traitement d'image des informations formatées liées aux caractéristiques des appareils de capture d'image, lesdites informations incluant en particulier les défauts.
Grâce à ces informations formatées, lesdits logiciels de traitement d'image peuvent : - effectuer des calculs ou transformations plus précis sur l'image, et/ou - améliorer la qualité de l'image, et/ou - permettre, dans des appareils de capture d'image, l'utilisation d'objectifs de moindre qualité et de moindre coût.
Un problème connexe consiste à fournir également des informations formatées liées aux caractéristiques des moyens de restitution d'image.
Procédé
L'invention concerne un procédé pour fournir à des logiciels de traitement d'image des informations formatées liées aux caractéristiques des appareils de capture d'image. Les
<Desc/Clms Page number 2>
appareils de capture d'image sont utilisés par des utilisateurs pour capturer des images de scènes, notamment de scènes animées.
Le procédé comprend l'étape de produire : des données relatives aux caractéristiques techniques intrinsèques de l'appareil, notamment les caractéristiques de distorsion, et/ou des données relatives aux caractéristiques techniques de l'appareil au moment de la capture d'image, notamment le temps de pose.
Lesdites données sont ci-après dénommées les informations formatées.
Le procédé comprend en outre l'étape d'associer l'image avec les informations formatées. Le procédé comprend en outre l'étape de transmettre l'image et les informations formatées aux logiciels de traitement d'image. Il est ainsi possible de corriger les défauts de l'appareil de capture d'image existant au moment de la capture d'image.
De préférence, selon l'invention le procédé comprend en outre l'étape de produire des données relatives aux préférences de l'utilisateur, notamment le facteur de zoom.
Lesdites informations formatées comprennent également les données relatives aux préférences de l'utilisateur.
De préférence, selon l'invention, en réalisant une classe d'image de synthèse par projections mathématiques déterminées, d'au moins une scène de référence, sur une surface, - en capturant au moins une image de référence de chaque scène de référence au moyen de 1'appareil de capture d'image, - en choisissant dans un ensemble de modèles de transformation paramétrables celui permettant de transformer ladite image de référence en une image transformée proche de ladite classe d'images de synthèse de ladite scène de référence.
Ladite image transformée présentant un écart avec ladite classe d'images de synthèse. Lesdites informations formatées sont au moins en partie composées des références et
<Desc/Clms Page number 3>
des paramètres des modèles de transformation paramétrables choisis.
De préférence, selon l'invention le procédé comprend en outre : - l'étape de calculer les écarts entre ladite image transformée et ladite classe d'images de synthèse, - l'étape d'associer les écarts audites informations formatées.
Il résulte de la combinaison des traits techniques qu'il est ainsi possible de déduire des informations étalonnées sur lesdites scènes en trois dimensions. De sorte qu'il est possible de combiner plusieurs images obtenues à partir de plusieurs appareils ayant fait l'objet d'un même processus de formatage.
De préférence, selon une variante de réalisation de l'invention le procédé est destiné en outre à fournir à des logiciels de traitement d'image des informations formatées liées aux caractéristiques des moyens de restitution des images capturées par l'appareil de capture d'image, notamment une imprimante, un écran de visualisation.
Dans le cas de cette variante de réalisation, le procédé comprend en outre l'étape de produire : - des données relatives aux caractéristiques techniques intrinsèques des moyens de restitution des images, notamment les caractéristiques de distorsion, et/ou - des données relatives aux caractéristiques techniques des moyens de restitution des images au moment de la restitution des images, notamment la résolution.
Dans ce cas, les informations formatées comprennent également les données relatives aux caractéristiques techniques intrinsèques des moyens de restitution et aux caractéristiques des moyens de restitution au moment de la restitution des images.
De préférence, selon l'invention le procédé comprend en outre l'étape de produire des données relatives aux
<Desc/Clms Page number 4>
préférences de l'utilisateur au moment de la restitution des images, notamment la température de couleur.
Système
L'invention concerne un système pour fournir à des logiciels de traitement d'image des informations formatées liées aux caractéristiques des appareils de capture d'image. Les appareils de capture d'image sont utilisés par des utilisateurs pour capturer des images de scènes, notamment de scènes animées.
Le système comprend une base de données contenant : des données relatives aux caractéristiques techniques intrinsèques de l'appareil, notamment les caractéristiques de distorsion, et/ou des données relatives aux caractéristiques techniques de l'appareil au moment de la capture d'image, notamment le temps de pose.
Lesdites données sont ci-après dénommées les informations formatées.
Le système comprend en outre une zone mémoire contenant les données relatives aux images capturées au moyen de 1'appareil. Lesdites données sont ci-après dénommées les données d'image.
Le système comprend en outre : - des moyens de calcul comportant les logiciels de traitement d'image : - des moyens de transmission pour transmettre, aux moyens de calcul, les données contenues dans la base de données ainsi que les données contenues dans ladite zone mémoire.
De préférence, selon l'invention le système est tel que ladite base de données contient en outre des données relatives aux préférences de l'utilisateur, notamment le facteur de zoom.
De préférence, selon l'invention le système comprend en outre des moyens de restitution des images capturées par l'appareil de capture d'image, notamment une imprimante, un écran de visualisation. Le système est en outre destiné à
<Desc/Clms Page number 5>
fournir aux logiciels de traitement d'image des informations formatées liées aux caractéristiques des moyens de restitution des images. Ladite base de données contenant en outre : des données relatives aux caractéristiques techniques intrinsèques des moyens de restitution des images, notamment les caractéristiques de distorsion, et/ou - des données relatives aux caractéristiques techniques des moyens de restitution des images au moment de la restitution des images, notamment la résolution.
Lesdites données sont ci-après dénommées les informations formatées relatives aux moyens de restitution des images.
Le système comprend en outre des moyens de transmission pour transmettre aux moyens de calcul les informations formatées contenues dans ladite base de données.
Les moyens de calcul comprennent des logiciels de traitement d'image traitant lesdites données d'images en tenant compte des informations formatées provenant de ladite base de données. Le système comprend en outre des moyens de transmission pour transmettre, aux moyens de restitutions des images, les données d'images traitées par les moyens de calcul.
De préférence, selon l'invention le système est tel que ladite base de données contient en outre des données relatives aux préférences de l'utilisateur au moment de la restitution des images, notamment la température de couleurs.
Nomenclature des figures et brève description de celles-ci.
On va maintenant dresser la liste des figures et brièvement décrire leur contenu. Les définitions des termes techniques employés seront ci-après précisée.
Les figures représentent respectivement : figure 1 : une vue schématique d'une capture d'image, - figure 2 : une vue schématique d'une restitution d'image,
<Desc/Clms Page number 6>
- figure 3 : une vue schématique des pixels d'une image, - figures 4a et 4b : deux vues schématiques d'une scène de référence, - figure 5 : l'organigramme de la méthode permettant de calculer la différence entre l'image mathématique et l'image corrigée, - figure 6 : l'organigramme de la méthode permettant d'obtenir la meilleure transformation de restitution pour un moyen de restitution d'image, - figure 7 : une vue schématique des éléments composant le système selon l'invention, - figure 8 : une vue schématique des champs des informations formatées, - figure 9a : une vue schématique de face d'un point mathématique, - figure 9b : une vue schématique de face d'un point réel d'une image, - figure 9c : une vue schématique de profil d'un point mathématique, - figure 9d : une vue schématique de profil d'un point réel d'une image, - figure 10 : une vue schématique d'une grille de points caractéristiques, - figure 11 : l'organigramme de la méthode permettant d'obtenir les informations formatées, - figure 12 : l'organigramme de la méthode permettant d'obtenir la meilleure transformation pour un appareil de capture d'image,
Sur la figure 1, on a représenté : une scène 3 comportant un objet 107, un capteur 101 et la surface du capteur 110, un centre optique 111, un point d'observation 105 sur une surface du capteur 110, une direction d'observation 106 passant par le point d'observation 105, le centre optique 111, la scène
<Desc/Clms Page number 7>
3, une surface 10 géométriquement associée à la surface du capteur 110.
Sur la figure 2, on a représenté une image 103, un moyen de restitution d'image 19 et une image restituée 191 obtenue sur le support de restitution 190.
Sur la figure 3 on a représenté une scène 3, un appareil de capture d'image 1 et une image 103 constituée de pixels 104.
Sur les figures 4a et 4b, on a représenté deux variantes d'une scène de référence 9.
Sur la figure 5 on a représenté un organigramme mettant en oeuvre une scène 3, une projection mathématique 8 donnant une image mathématique 70 de la scène 3, une projection réelle 72 donnant une image 103 de la scène 3 pour les caractéristiques utilisées 74, un modèle de transformation paramétrable 12 donnant une image corrigée 71 de l'image 103, l'image corrigée 71 présentant une différence 73 avec l'image mathématique 70.
Sur la figure 6 on a représenté un organigramme mettant en oeuvre une image 103, une projection réelle de restitution 90 donnant une image restituée 191 de l'image 103 pour les caractéristiques de restitution utilisées 95, un modèle de transformation paramétrable de restitution 97 donnant une image corrigée de restitution 94 de l'image 103, une projection mathématique de restitution 96 donnant une image mathématique de restitution 92 de l'image corrigée de restitution 94 et présentant une différence de restitution 93 avec l'image restituée 191.
Sur la figure 7 on a représenté un système comprenant un appareil de capture d'image 1 constitué d'une optique 100, d'un capteur 101 et d'une électronique 102. Sur la figure 7 on a également représenté une zone mémoire 16 contenant une image 103, une base de données 22 contenant des informations formatées 15, des moyens de transmission 18 de l'image complétée 120 constituée de l'image 103 et des informations formatées 15 vers
<Desc/Clms Page number 8>
des moyens de calcul 17 contenant des logiciels de traitement d'image 4.
Sur la figure 8 on a représenté des informations formatées 15 constituées de champs 90.
Sur les figures 9a à 9d on a représenté une image mathématique 70, une image 103, la position mathématique 40 d'un point, la forme mathématique 41 d'un point, comparés à la position réelle 50 et à la forme réelle 51 du point correspondant de l'image.
Sur la figure 10 on a représenté une grille 80 de points caractéristiques.
Sur la figure 11 on a représenté un organigramme mettant en oeuvre une image 103, des caractéristiques utilisées 74, une base de données de caractéristiques 22. Les informations formatées 15 sont obtenues à partir des caractéristiques utilisées 74 et stockées dans la base de données 22. L'image complétée 120 est obtenue à partie de l'image 103 et des informations formatées 15.
Sur la figure 12 on a représenté un organigramme mettant en oeuvre une scène de référence 9, une projection mathématique 8 donnant une classe d'image de synthèse 7 de la scène de référence 9, une projection réelle 72 donnant une image de référence 11 de la scène de référence 9 pour les caractéristiques utilisées 74. Cet organigramme met également en oeuvre un modèle de transformation paramétrable 12 donnant une image transformée 13 de l'image de référence 11. L'image transformée 13 présente un écart 14 avec la classe d'image de synthèse 7.
Définitions et description détaillée
D'autres caractéristiques et avantages de l'invention
Figure img00080001

apparaîtront à la lecture : apparai - des définitions, ci-après explicitées, des termes techniques employés illustrées en se référant aux exemples indicatifs et non limitatifs des figures 1 à 12, - de la description des figures 1 à 12.
<Desc/Clms Page number 9>
Scène
On appelle scène 3 un lieu dans l'espace à trois dimensions, qui comprend des objets 107 éclairés par des sources lumineuses.
Appareil de capture d'image, Image, Capture d'image
On va maintenant décrire en se référant aux figures 3 et 7, ce que l'on entend par appareil de capture d'image 1 et image 103. On appelle appareil de capture d'image 1, un appareil constitué d'une optique 100, d'un ou de plusieurs capteurs 101, d'une électronique 102, d'une zone mémoire 16. Ledit appareil de capture d'image 1 permet à partir d'une scène 3 d'obtenir des images numériques fixes 103 ou animées enregistrées dans la zone mémoire 16 ou transmises à un dispositif externe. Des images animées sont constituées d'une succession dans le temps, d'images fixes 103. Ledit appareil de capture d'image 1 peut prendre la forme notamment d'un appareil photo, d'un caméscope, d'une caméra reliée ou intégrée à un PC, d'une caméra reliée ou intégrée à un assistant personnel, d'une caméra reliée ou intégrée à un téléphone, d'un appareil de visioconférence ou d'une caméra ou appareil de mesure sensible à d'autres longueurs d'onde que celles de la lumière visible comme par exemple une caméra thermique.
On appelle capture d'image le procédé consistant en le calcul de l'image 103 par l'appareil de capture d'image 1.
Dans le cas où un appareil comporte plusieurs sousensembles interchangeables, en particulier une optique 100, on appelle appareil de capture d'image 1, une configuration particulière de l'appareil.
Moyen de restitution d'image, Image restituée, Restitution d'image
On va maintenant décrire en se référant à la figure 2 ce que l'on entend par moyen de restitution d'image 19. Un tel moyen de restitution d'image 19 peut prendre la forme notamment d'un écran de visualisation, d'un téléviseur, d'un écran plat,
<Desc/Clms Page number 10>
d'un projecteur, de lunettes de réalité virtuelle, d'une imprimant.
Un tel moyen de restitution d'image 19 comprend : - une électronique, - une ou plusieurs sources de lumière, d'électrons ou d'encre, - un ou plusieurs modulateurs : dispositifs de modulation de lumière, d'électrons ou d'encre, - un dispositif de focalisation, se présentant notamment sous la forme d'une optique dans le cas d'un projecteur lumineux, ou sous la forme de bobines de focalisation de faisceau électronique dans le cas d'un écran à tube cathodique, ou sous la forme de filtres dans le cas d'un écran plat, - d'un support de restitution 190 se présentant notamment sous la forme d'un écran dans le cas d'un écran à tube cathodique, d'un écran plat ou d'un projecteur, sous la forme d'un support d'impression sur lequel l'impression est effectuée dans le cas d'une imprimante, ou sous la forme d'une surface virtuelle dans l'espace dans le cas d'un projecteur à image virtuelle.
Ledit moyen de restitution d'image 19 permet à partir d'une image 103 d'obtenir une image restituée 191 sur le support de restitution 190.
Des images animées sont constituées d'une succession dans le temps, d'images fixes.
On appelle restitution d'image le procédé consistant en l'affichage ou l'impression de l'image par le moyen de restitution d'image 19.
Dans le cas où un moyen de restitution 19 comporte plusieurs sous-ensembles interchangeables ou pouvant se déplacer relativement l'un par rapport à l'autre, en particulier le support de restitution 190, on appelle moyen de restitution d'image 19 une configuration particulière.
Surface du capteur, Centre optique, Distance focale
<Desc/Clms Page number 11>
On va maintenant décrire en se référant à la figure 1 ce que l'on appelle surface du capteur 110.
On appelle surface du capteur 110, la forme dans l'espace dessinée par la surface sensible du capteur 101 de l'appareil de capture d'image 1 au moment de la capture d'image.
Cette surface est généralement plane.
On appelle centre optique 111 un point dans l'espace associé à l'image 103 au moment de la capture d'image. On appelle distance focale la distance entre ce point 111 et le plan 110, dans le cas où la surface du capteur 110 est plane.
Pixel, Valeur de pixel, Temps de pose.
On va maintenant décrire, en se référant à la figure 3, ce que l'on entend par pixel 104 et valeur de pixel.
On appelle pixel 104, une zone élémentaire de la surface du capteur 110 obtenue en créant un pavage généralement régulier, de ladite surface du capteur 110. On appelle valeur de pixel, un nombre associé à ce pixel 104.
Une capture d'image consiste à déterminer la valeur de chaque pixel 104. L'ensemble de ces valeurs constitue l'image 103.
Lors d'une capture d'image, la valeur de pixel est obtenue par l'intégration sur la surface du pixel 104, pendant une période de temps appelée temps de pose, d'une partie du flux lumineux provenant de la scène 3 à travers l'optique 100 et par conversion du résultat de cette intégration en valeur numérique.
L'intégration du flux lumineux et/ou la conversion du résultat de cette intégration en valeur numérique sont effectuées au moyen de l'électronique 102.
Cette définition de la notion de valeur de pixel s'applique au cas des images 103 en noir et blanc ou en couleur, qu'elles soient fixes ou animées.
Cependant, selon les cas, la partie du flux lumineux concernée est obtenue de diverses façons : a) Dans le cas d'une image 103 en couleurs, la surface du capteur 110 comporte généralement plusieurs types de pixels
<Desc/Clms Page number 12>
104, respectivement associés à des flux lumineux de longueurs d'onde différentes, tels que par exemple des pixels rouges, verts et bleus. b) Dans le cas d'une image 103 en couleurs, il peut également y avoir plusieurs capteurs 101 juxtaposés qui reçoivent chacun une partie du flux lumineux. c) Dans le cas d'une image 103 en couleurs, les couleurs utilisées peuvent être différentes de rouge, vert et bleu, comme par exemple pour la télévision NTSC américaine, et peuvent être en nombre supérieur à trois. d) Enfin, dans le cas d'une caméra de télévision à balayage dit entrelacé, les images animées produites sont constituées d'une alternance d'images 103 comportant les lignes paires, et d'images 103 comportant les lignes impaires.
Configuration utilisée, Réglages utilisés, Caractéristiques utilisées.
On appelle configuration utilisée la liste des sousensembles amovibles de l'appareil de capture d'image 1, par exemple l'optique 100 effectivement montée sur l'appareil de capture d'image 1 si elle est interchangeable. La configuration utilisée est caractérisée notamment par : - le type de l'optique 100, - le numéro de série de l'optique 100 ou toute autre désignation.
On appelle réglages utilisés : - la configuration utilisée telle que définie cidessus, ainsi que - la valeur des réglages manuels ou automatiques disponibles dans la configuration utilisée et ayant un impact sur le contenu de l'image 103. Ces réglages peuvent être effectués par l'utilisateur, notamment à l'aide de boutons, ou calculés par l'appareil de capture d'image 1. Ces réglages peuvent être stockés dans l'appareil, notamment sur un support amovible, ou sur tout dispositif connecté à l'appareil. Ces réglages peuvent inclure notamment les réglages de focalisation,
<Desc/Clms Page number 13>
de diaphragme, et de focale de l'optique 100, les réglages de temps de pose, les réglages de balance des blancs, les réglages de traitement d'image intégrés comme le zoom numérique, la compression, le contraste,
On appelle caractéristiques utilisées 74 ou jeu de caractéristiques utilisées 74 : a) Des paramètres liés aux caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, déterminées au moment de la conception de l'appareil de capture d'image 1. Par exemple, ces paramètres peuvent comprendre la formule de l'optique 100 de la configuration utilisée impactant les défauts géométriques et le piqué des images capturées ; la formule de l'optique 100 de la configuration utilisée inclut notamment la forme, la disposition et le matériau des lentilles de l'optique 100.
Ces paramètres peuvent en outre comprendre : - la géométrie du capteur 101, à savoir la surface du capteur 110 ainsi que la forme et la disposition relative des pixels 104 sur cette surface, - le bruit généré par l'électronique 102, - la loi de conversion flux lumineux en valeur de pixel. b) Des paramètres liés aux caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, déterminées au moment de la fabrication de l'appareil de capture d'image 1, et notamment : - le positionnement exact des lentilles dans l'optique 100 de la configuration utilisée, - le positionnement exact de l'optique 100 par rapport au capteur 101. c) Des paramètres liés aux caractéristiques techniques de l'appareil de capture d'image 1, déterminées au moment de la capture de l'image 103 et notamment : - la position et l'orientation de la surface du capteur 110 par rapport à la scène 3,
<Desc/Clms Page number 14>
- les réglages utilisés, - les facteurs extérieurs, tels que la température, s'ils ont une influence. d) Les préférences de l'utilisateur, notamment la température de couleur à utiliser pour la restitution d'images.
Ces préférences sont par exemple sélectionnées par l'utilisateur à l'aide de boutons.
Point d'observation, direction d'observation
On va maintenant décrire en se référant à la figure 1 ce que l'on entend par point d'observation 105 et direction d'observation 106.
On appelle surface mathématique 10 une surface géométriquement associée à la surface du capteur 110. Par exemple, si la surface du capteur est plane, la surface mathématique 10 pourra être confondue avec celle du capteur.
On appelle direction d'observation 106 une droite passant par au moins un point de la scène 3 et par le centre optique 111. On appelle point d'observation 105 l'intersection de la direction d'observation 106 et de la surface 10.
Couleur observée, Intensité observée
On va maintenant décrire en se référant à la figure 1 ce que l'on entend par couleur observée et intensité observée.
On appelle couleur observée la couleur de la lumière émise, transmise ou réfléchie par ladite scène 3 dans ladite direction d'observation 106 à un instant donné, et observée depuis ledit point d'observation 105. On appelle intensité observée l'intensité de la lumière émise par ladite scène 3 dans ladite direction d'observation 106 au même instant, et observée depuis ledit point d'observation 105.
La couleur peut être notamment caractérisée par une intensité lumineuse fonction d'une longueur d'onde, ou encore par deux valeurs telles que mesurées par un colorimètre.
L'intensité peut être caractérisée par une valeur telle que mesurée avec un photomètre.
<Desc/Clms Page number 15>
Ladite couleur observée et ladite intensité observée dépendent notamment de la position relative des objets 107 dans la scène 3 et des sources d'éclairage présentes ainsi que des caractéristiques de transparence et de réflexion des objets 107 au moment de l'observation.
Projection mathématique, Image mathématique, Point mathématique, Couleur mathématique d'un point, Intensité mathématique d'un point, Forme mathématique d'un point, Position mathématique d'un point.
On va ci-après décrire en se référant notamment aux figures 1, 5,9a, 9b, 9c et 9d les notions de projection mathématique 8, image mathématique 70, point mathématique, couleur mathématique d'un point, intensité mathématique d'un point, forme mathématique 41 d'un point, position mathématique 40 d'un point.
On va maintenant décrire en se référant à la figure 5 comment on réalise une image mathématique 70 par projection mathématique déterminée 8 d'au moins une scène 3 sur la surface mathématique 10.
Préalablement, on va décrire ce que l'on entend par projection mathématique déterminée 8.
Une projection mathématique déterminée 8 associe : - à une scène 3 au moment de la capture d'une image 103, - et aux caractéristiques utilisées 74, une image mathématique 70.
Une projection mathématique déterminée 8 est une transformation qui permet de déterminer les caractéristiques de chaque point de l'image mathématique 70 à partir de la scène 3 au moment de la capture d'image et des caractéristiques utilisées 74.
De manière préférentielle, la projection mathématique 8 est définie de la façon qui sera ci-après décrite.
<Desc/Clms Page number 16>
On appelle position mathématique 40 du point la position du point d'observation 105 sur la surface mathématique 10.
On appelle forme mathématique 41 du point la forme géométrique, ponctuelle, du point d'observation 105.
On appelle couleur mathématique du point la couleur observée.
On appelle intensité mathématique du point l'intensité observée.
On appelle point mathématique l'association de la position mathématique 40, de la forme mathématique 41, de la couleur mathématique et de l'intensité mathématique pour le point d'observation 105 considéré. L'image mathématique 70 est constituée de l'ensemble desdits point mathématiques.
La projection mathématique 8 de la scène 3 est l'image mathématique 70.
Projection réelle, Point réel, couleur réelle d'un point, intensité réelle d'un point, forme réelle d'un point, position réelle d'un point
On va ci-après décrire en se référant notamment aux figures 3,5, 9a, 9b, 9c et 9d les notions de projection réelle 72, point réel, couleur réelle d'un point, intensité réelle d'un point, forme réelle 51 d'un point, position réelle 50 d'un point.
Lors d'une capture d'image, l'appareil de capture d'image 1 associé aux caractéristiques utilisées 74 produit une image 103 de la scène 3. La lumière provenant de la scène 3 selon une direction d'observation 106, traverse l'optique 100 et arrive sur la surface du capteur 110.
On obtient alors pour ladite direction d'observation ce que l'on appelle un point réel qui présente des différences par rapport au point mathématique.
En se référant aux figures 9a à 9d, on va maintenant décrire les différences entre le point réel et le point mathématique.
<Desc/Clms Page number 17>
La forme réelle 51 associée à ladite direction d'observation 106 n'est pas un point sur la surface du capteur, mais a une forme de nuage dans l'espace à trois dimensions, qui a une intersection avec un ou plusieurs pixels 104. Ces différences ont en particulier pour origine le coma, l'aberration sphérique, l'astigmatisme, le regroupement en pixels 104, l'aberration chromatique, la profondeur de champ, la diffraction, les réflexions parasites, la courbure de champ de l'appareil de capture d'image 1. Elles donnent une impression de flou, de manque de piqué de l'image 103.
En outre, la position réelle 50 associée à ladite direction d'observation 106 présente une différence par rapport à la position mathématique 40 d'un point. Cette différence a en particulier pour origine la distorsion géométrique, qui donne une impression de déformation : par exemple, les murs verticaux paraissent courbes. Elle tient aussi au fait que le nombre de pixels 104 est limité et que par conséquent la position réelle 50 ne peut prendre qu'un nombre fini de valeurs.
En outre, l'intensité réelle associée à ladite direction d'observation 106 présente des différences par rapport à l'intensité mathématique d'un point. Ces différences ont en particulier pour origine le gamma et le vignettage : par exemple les bords de l'image 103 paraissent plus sombres. En outre du bruit peut s'ajouter au signal.
Enfin, la couleur réelle associée à ladite direction d'observation 106 présente des différences par rapport à la couleur mathématique d'un point. Ces différences ont en particulier pour origine le gamma et la dominante colorée. En outre du bruit peut s'ajouter au signal.
On appelle point réel l'association de la position réelle 50, de la forme réelle 51, de la couleur réelle et de l'intensité réelle pour la direction d'observation 106 considérée.
La projection réelle 72 de la scène 3 est constituée par l'ensemble des points réels.
<Desc/Clms Page number 18>
Modèle de transformation paramétrable, Paramètres, Image corrigée
On appelle modèle de transformation paramétrable 12 (ou de manière condensée, transformation paramétrable 12), une transformation mathématique permettant d'obtenir à partir d'une image 103, et de la valeur de paramètres une image corrigée 71.
Lesdits paramètres pouvant notamment être calculés à partir des caractéristiques utilisées 74 comme il est indiqué ci-après.
Ladite transformation permet en particulier de déterminer pour chaque point réel de l'image 103, la position corrigée dudit point réel, la couleur corrigée dudit point réel, l'intensité corrigée dudit point réel, la forme corrigée dudit point réel, à partir de la valeur des paramètres, de la position réelle dudit point réel et des valeurs des pixels de l'image 103. La position corrigée peut être par exemple calculée à l'aide de polynômes de degré fixé en fonction de la position réelle, les coefficients des polynômes dépendant de la valeur des paramètres. La couleur corrigée et l'intensité corrigée peuvent être par exemple des sommes pondérées des valeurs des pixels, les coefficients dépendant de la valeur des paramètres et de la position réelle, ou encore des fonctions non linéaires des valeurs des pixels de l'image 103.
Les paramètres peuvent inclure notamment : la focale de l'optique 100 de la configuration utilisée ou une valeur liée telle que la position d'un groupe de lentilles, la focalisation de l'optique 100 de la configuration utilisée ou une valeur liée telle que la position d'un groupe de lentilles, l'ouverture de l'optique 100 de la configuration utilisée ou une valeur liée telle que la position du diaphragme.
Différence entre l'image mathématique et l'image corrigée
En se référant à la figure 5, on appelle différence 73 entre l'image mathématique 70 et l'image corrigée 71 pour une scène 3 donnée et des caractéristiques utilisées 74 données, une ou plusieurs valeurs déterminées à partir des nombres
<Desc/Clms Page number 19>
caractérisant la position, la couleur, l'intensité, la forme de tout ou partie des points corrigés et de tout ou partie des points mathématiques.
Par exemple, la différence 73 entre l'image mathématique 70 et l'image corrigée 71 pour une scène 3 donnée et des caractéristiques utilisées 74 données peut être déterminée de la façon suivante : - On choisit des points caractéristiques qui peuvent être par exemple les points d'une grille orthogonale 80 de points disposés régulièrement comme présenté sur la figure 10.
- On calcule la différence 73 par exemple en effectuant la somme pour chaque point caractéristique des valeurs absolues des différences entre chaque nombre caractérisant la position, la couleur, l'intensité, la forme respectivement pour le point corrigé et pour le point mathématique. La fonction somme des valeurs absolues des différences peut être remplacée par une autre fonction comme la moyenne, la somme des carrés ou toute autre fonction permettant de combiner les nombres.
Scène de référence
On appelle scène de référence 9 une scène 3 dont certaines caractéristiques sont connues. A titre d'exemple, la figure 4a présente une scène de référence 9 constituée d'une feuille de papier comportant des cercles remplis de noir et disposés régulièrement. La figure 4b présente une autre feuille de papier comportant les mêmes cercles auxquels s'ajoutent des traits et des surfaces colorées. Les cercles servent à mesurer la position réelle 50 d'un point, les traits la forme réelle 51 d'un point, les surfaces colorées la couleur réelle d'un point et l'intensité réelle d'un point. Cette scène de référence 9 peut être constituée d'un autre matériau que le papier.
Image de référence
En se référant à la figure 12, on va maintenant définir la notion d'image de référence 11. On appelle image de référence 11, une image de la scène de référence 9 obtenue avec l'appareil de capture d'image 1.
<Desc/Clms Page number 20>
Image de synthèse, Classe d'images de synthèse
En se référant à la figure 12, on va maintenant définir la notion d'image de synthèse et de classe d'images de synthèse 7. On appelle image de synthèse, une image mathématique 70 obtenue par projection mathématique 8 d'une scène de référence 9. On appelle classe d'images de synthèse 7, un ensemble d'images mathématiques 70 obtenues par projection mathématique 8 d'une ou plusieurs scènes de référence 9, ce pour un ou plusieurs jeux de caractéristiques utilisées 74. Dans le
Figure img00200001

1 cas où il n'y a qu'une scène de référence 9 et qu'un jeu de caractéristiques utilisées 74, la classe d'images de synthèse 7 ne comprend qu'une image de synthèse.
Image transformée
En se référant à la figure 12, on va maintenant définir la notion d'image transformée 13. On appelle image transformée 13, l'image corrigée obtenue par application d'un modèle de transformation paramétrable 12 à une image de référence 11.
Image transformée proche d'une classe d'images de synthèse, Écart.
On va maintenant décrire, en se référant à la figure 12, la notion d'image transformée 13 proche d'une classe d'images de synthèse 7 et la notion d'écart 14.
On définit la différence entre une image transformée 13 et une classe d'images de synthèse 7 comme la plus faible différence entre ladite image transformée 13 et l'une quelconque des images de synthèse de ladite classe d'images de synthèse.
Ensuite, on va décrire comment on choisit parmi les modèles de transformation paramétrables 12 celui permettant de transformer chaque image de référence 11 en une image transformée 13 proche de la classe d'images de synthèse 7 de la scène de référence 9 correspondant à ladite image de référence 11, et ce dans différents cas de scènes de référence 9 et caractéristiques utilisées 74.
<Desc/Clms Page number 21>
- Dans le cas d'une scène de référence 9 donnée associée à un jeu de caractéristiques utilisées 74 données, on choisit la transformation paramétrable 12 (et ses paramètres) qui permet de transformer l'image de référence 11 en l'image transformée 13 qui présente la plus faible différence avec la classe d'images de synthèse 7. La classe d'image de synthèse 7 et l'image transformée 13 sont alors dites proches. On appelle écart 14 ladite différence.
- Dans le cas d'un groupe de scènes de référence données associées à des jeux de caractéristiques utilisées 74 donnés, on choisit la transformation paramétrable 12 (et ses paramètres) en fonction des différences entre l'image transformée 13 de chaque scène de référence 9 et la classe d'images de synthèse 7 de chaque scène de référence 9 considérée. On choisit la transformation paramétrable 12 (et ses paramètres) qui permet de transformer les images de référence 11 en des images transformées 13 telle que la somme desdites différences soit la plus faible. La fonction somme peut être remplacée par une autre fonction comme le produit. La classe d'image de synthèse 7 et les images transformées 13 sont alors dites proches. On appelle écart 14 une valeur obtenue à partir desdites différences, par exemple en en calculant la moyenne.
- Dans le cas où certaines caractéristiques utilisées 74 sont inconnues, il est possible de les déterminer à partir de la capture de plusieurs images de référence 11 d'au moins une scène de référence 9. Dans ce cas, on détermine simultanément les caractéristiques inconnues et la transformation paramétrable 12 (et ses paramètres) qui permet de transformer les images de référence 11 en des images transformées 13 telles que la somme desdites différences soit la plus faible, notamment par calcul itératif ou par résolution d'équations concernant la somme desdites différences et/ou leur produit et/ou toute autre combinaison appropriée desdites différences. La classe d'image de synthèse 7 et les images transformées 13 sont alors dites proches. Les caractéristiques inconnues peuvent par exemple être
<Desc/Clms Page number 22>
les positions et les orientation relatives de la surface du capteur 110 et de chaque scène de référence 9 considérée. On appelle écart 14 une valeur obtenue à partir desdites différences, par exemple en en calculant la moyenne.
Meilleure transformation
On appelle meilleure transformation la transformation qui, parmi les modèles de transformation paramétrables 12, permet de transformer chaque image de référence 11 en une image transformée 13 proche de la classe d'images de synthèse 7 de la
Figure img00220001

scène de référence 9 correspondant à ladite image de référence 11.
Calibrage
On appelle calibrage un procédé qui permet d'obtenir des données relatives aux caractéristiques intrinsèques de l'appareil de capture d'image 1, ce pour une ou plusieurs configurations utilisées constituées chacune d'une optique 100 associée à un appareil de capture d'image 1.
Cas 1 : dans le cas où il n'y a qu'une configuration, ledit procédé comprend les étapes suivantes : - l'étape de monter ladite optique 100 sur ledit appareil de capture d'image 1, - l'étape de choisir une ou plusieurs scènes de référence 9, - l'étape de choisir plusieurs caractéristiques utilisées 74, - l'étape de capturer des image desdites scènes de référence 9 pour lesdites caractéristiques utilisées, - l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées 74.
Cas 2 : dans le cas où on considère toutes les configurations correspondant à un appareil de capture d'image 1 donné et à toutes les optiques 100 d'un même type, ledit procédé comprend les étapes suivantes :
<Desc/Clms Page number 23>
- l'étape de choisir une ou plusieurs scènes de référence 9,
Figure img00230001

- l'étape de choisir plusieurs caractéristiques utilisées 74, - l'étape de calculer des images 103 à partir des caractéristiques utilisées 74 et notamment des formules de l'optique 100 de la configuration utilisée et des valeurs de paramètres, ce par exemple à l'aide d'un logiciel de calcul d'optique par tracé de rayons, - l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées.
Cas 3 : dans le cas où on considère toutes les configurations correspondant à une optique 100 donnée et à tous les appareils de capture d'image 1 d'un même type, ledit procédé comprend les étapes suivantes : - l'étape de monter ladite optique 100 sur un appareil de capture d'image 1 du type considéré, - l'étape de choisir une ou plusieurs scènes de référence 9, - l'étape de choisir plusieurs caractéristiques utilisées 74, - l'étape de capturer des images desdites scènes de référence 9 pour lesdites caractéristiques utilisées, - l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées.
Le calibrage peut être effectué, de manière préférentielle, par le constructeur de l'appareil de capture d'image 1, ce pour chaque appareil et configuration dans le cas 1. Cette méthode est plus précise mais plus contraignante et bien adaptée dans le cas ou l'optique 100 n'est pas interchangeable.
Le calibrage peut alternativement être effectué par le constructeur de l'appareil de capture d'image 1, ce pour chaque
<Desc/Clms Page number 24>
type et configuration d'appareil dans le cas 2. Cette méthode est moins précise mais plus simple.
Le calibrage peut alternativement être effectué par le constructeur de l'appareil de capture d'image 1, ce pour chaque optique 100 et type d'appareil dans la cas 3. Cette méthode est un compromis permettant d'utiliser une optique 100 sur tous les appareils de capture d'image 1 d'un type sans refaire le calibrage pour chaque combinaison d'appareil de capture d'image 1 et d'optique 100.
Le calibrage peut alternativement être effectué par le revendeur ou installateur de l'appareil, ce pour chaque appareil de capture d'image 1 et configuration dans le cas 1.
Le calibrage peut alternativement être effectué par le revendeur ou installateur de l'appareil, ce pour chaque optique 100 et type d'appareil dans le cas 3.
Le calibrage peut alternativement être effectué par l'utilisateur de l'appareil, ce pour chaque appareil et configuration dans le cas 1.
Le calibrage peut alternativement être effectué par l'utilisateur de l'appareil, ce pour chaque optique 100 et type d'appareil dans le cas 3.
Conception d'optique numérique
On appelle conception d'optique numérique, un procédé pour diminuer le coût de l'optique 100, consistant à : - concevoir ou choisir dans un catalogue une optique 100 ayant des défauts, notamment de positionnement des points réels, - diminuer le nombre de lentilles, et/ou - simplifier la forme des lentilles, et/ou - utiliser des matériaux, traitements ou procédés de fabrication moins coûteux.
Ledit procédé comprend les étapes suivantes : - l'étape de choisir une différence (au sens ci-dessus défini) acceptable,
<Desc/Clms Page number 25>
- l'étape de choisir une ou plusieurs scènes de référence 9, - l'étape de choisir plusieurs caractéristiques utilisées 74.
Ledit procédé comprend en outre l'itération des étapes suivantes : - l'étape de choisir une formule optique comprenant notamment la forme, le matériau et la disposition des lentilles, - l'étape de calculer des images 103 à partir des caractéristiques utilisées 74 et notamment des formules de l'optique 100 de la configuration utilisée, en mettant en oeuvre, par exemple, un logiciel de calcul d'optique par tracé de rayons, ou en effectuant des mesures sur un prototype, - l'étape de calculer la meilleure transformation pour chaque groupe de scènes de référence 9 correspondant aux mêmes caractéristiques utilisées 74, - l'étape de vérifier si la différence est acceptable, jusqu'à ce que la différence soit acceptable.
Informations formatées
On appelle informations formatées 15 associées à l'image 103 ou informations formatées 15, tout ou partie des données suivantes : des données relatives aux caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, notamment les caractéristiques de distorsion, et/ou des données relatives aux caractéristiques techniques de l'appareil de capture d'image 1 au moment de la capture d'image, notamment le temps de pose, et/ou des données relatives aux préférences dudit utilisateur, notamment la température de couleurs, et/ou - des données relatives aux écarts 14.
Base de données de caractéristiques
On appelle base de données de caractéristiques 22, une base de données comprenant, pour un ou plusieurs appareils de
<Desc/Clms Page number 26>
capture d'image 1 et pour une ou plusieurs images 103, des informations formatées 15.
Ladite base de donnée de caractéristiques 22 peut être stockée de manière centralisée ou répartie, et peut être notamment : - intégrée dans l'appareil de capture d'image 1, - intégrée dans l'optique 100, - intégrée sur un dispositif de stockage amovible, - intégrée dans un PC ou autre ordinateur relié aux autres éléments pendant la capture d'image, - intégrée dans un PC ou autre ordinateur relié aux autres éléments après la capture d'image, - intégrée dans un PC ou autre ordinateur capable de lire un support de stockage commun avec l'appareil de capture d'image 1, - intégrée dans un serveur distant relié à un PC ou autre ordinateur lui-même relié aux autre éléments de la capture d'image.
Champs
On va maintenant définir la notion de champs 90 en se référant à la figure 8. Les informations formatées 15 associées à l'image 103 peuvent être enregistrées sous plusieurs formes et structurées en une ou plusieurs tables mais elles correspondent logiquement à tout ou partie des champs 90, comprenant : (a) la distance focale, (b) la profondeur de champ, (c) les défauts géométriques.
Lesdits défauts géométriques comprennent les défauts de géométrie de l'image 103 caractérisés par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue.
Lesdits paramètres et ladite transformation paramétrable permettent de calculer la position corrigée d'un point de l'image 103.
<Desc/Clms Page number 27>
Lesdits défauts géométriques comprennent en outre le vignetage caractérisé par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et ladite transformation paramétrable permettent de calculer l'intensité corrigée d'un point de l'image 103.
Lesdits défauts géométriques comprennent en outre la dominante colorée caractérisée par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et ladite transformation paramétrable permettent de calculer la couleur corrigée d'un point de l'image 103.
Lesdits champs 90 comprennent en outre (d) le piqué de l'image 103.
Ledit piqué comprend le flou de résolution de l'image 103 caractérisé par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et ladite transformation paramétrable permettent de calculer la forme corrigée d'un point de l'image 103. Le flou couvre en particulier le coma, l'aberration sphérique, l'astigmatisme, le regroupement en pixels 104, l'aberration chromatique, la profondeur de champ, la diffraction, les réflexions parasites, la courbure de champ.
Ledit piqué comprend en outre le flou de profondeur de champ, notamment les aberrations sphériques, le coma, l'astigmatisme. Ledit flou dépend de la distance des points de la scène 3 par rapport à l'appareil de capture d'image 1 et est caractérisé par les paramètres associés aux caractéristiques de la prise de vue 74 et une transformation paramétrable représentant les caractéristiques de l'appareil de capture d'image 1 au moment de la prise de vue. Lesdits paramètres et
<Desc/Clms Page number 28>
ladite transformation paramétrable permettent de calculer la forme corrigée d'un point de l'image 103.
Lesdits champs 90 comprennent en outre (e) des paramètres de la méthode de quantification. Lesdits paramètres dépendent de la géométrie et la physique du capteur 101, de l'architecture de l'électronique 102 et d'éventuels logiciels de traitement.
Lesdits paramètres comprennent une fonction représentant les variations de l'intensité d'un pixel 104 en fonction de la longueur d'onde et du flux lumineux provenant de ladite scène 3. Ladite fonction comprend notamment les information de gamma.
Figure img00280001
Lesdits paramètres comprennent en outre : - la géométrie dudit capteur 101, notamment la forme, la position relative et le nombre des éléments sensibles dudit capteur 101, - une fonction représentant la distribution spatiale et temporelle du bruit de l'appareil de capture d'image 1, - une valeur représentant le temps de pose de la capture d'image.
Lesdits champs 90 comprennent en outre (f) des paramètres des traitements numériques effectués par l'appareil de capture d'image 1, notamment le zoom numérique, la compression. Ces paramètres dépendent du logiciel de traitement de l'appareil de capture d'image 1 et des réglages de l'utilisateur.
Lesdits champs 90 comprennent en outre : (g) des paramètres représentant les préférences de l'utilisateur, notamment en ce qui concerne le degré de flou, la résolution de l'image 103.
(h) les écarts 14.
Calcul des informations formatées
Les informations formatées 15 peuvent être calculées et enregistrées dans la base de données 22 en plusieurs étapes.
<Desc/Clms Page number 29>
a) Une étape à l'issue de la conception de l'appareil de capture d'image 1.
Cette étape permet d'obtenir des caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, et notamment : - la distribution spatiale et temporelle du bruit généré par l'électronique 102, - la loi de conversion flux lumineux en valeur de pixel, - la géométrie du capteur 101. b) Une étape à l'issue du calibrage ou conception d'optique numérique.
Cette étape permet d'obtenir d'autres caractéristiques techniques intrinsèques de l'appareil de capture d'image 1, et notamment, pour un certain nombre de valeurs de caractéristiques utilisées, la meilleure transformation associée et l'écart 14 associé. c) Une étape de choix des préférences de l'utilisateur à l'aide de boutons, menus ou support amovible ou connexion à un autre dispositif. d) Une étape de capture d'image.
Cette étape (d) permet d'obtenir des caractéristiques techniques de l'appareil de capture d'image 1 au moment de la capture d'image, et notamment le temps de pose, déterminé par les réglages manuels ou automatiques effectués.
L'étape (d) permet en outre d'obtenir la distance focale. La distance focale est calculée à partir : - d'une mesure de la position du groupe de lentilles de focale variable de l'optique 100 de la configuration utilisée, ou - d'une consigne donnée au moteur de positionnement, ou - d'une donnée constructeur si la focale est fixe.
Ladite distance focale peut enfin être déterminée par l'analyse du contenu de l'image 103.
<Desc/Clms Page number 30>
L'étape (d) permet en outre d'obtenir la profondeur de champ. La profondeur de champ est calculée à partir : - d'une mesure de la position du groupe de lentilles de focalisation de l'optique 100 de la configuration utilisée, ou - d'une consigne donnée au moteur de positionnement, ou - d'une donnée constructeur si la profondeur de champ est fixe.
L'étape (d) permet en outre d'obtenir les défauts de géométrie et de piqué. Les défauts de géométrie et de piqué correspondent à une transformation calculée à l'aide d'une combinaison des transformations de la base de données de caractéristiques 22 obtenues à l'issue de l'étape (b). Cette combinaison est choisie pour représenter les valeurs de paramètres correspondant aux caractéristiques utilisées 74, notamment la distance focale.
L'étape (d) permet en outre d'obtenir les paramètres de traitement numériques effectués par l'appareil de capture d'image 1. Ces paramètres sont déterminés par les réglages manuels ou automatiques effectués.
Le calcul des informations formatées 15 selon les étapes (a) à (d) peut être réalisé par : - un dispositif ou logiciel intégré à l'appareil de capture d'image 1, et/ou - un logiciel pilote dans un PC ou autre ordinateur, et/ou - un logiciel dans un PC ou autre ordinateur, et/ou - une combinaison des trois.
Les transformations ci-dessus mentionnées à l'étape (b) et à l'étape (d) peuvent être stockées sous la forme : - d'une formule mathématique générale, - d'une formule mathématique pour chaque point, - d'une formule mathématique pour certains points caractéristiques.
<Desc/Clms Page number 31>
Les formules mathématiques peuvent être décrites par : - une liste de coefficients, - une liste de coefficients et de coordonnées.
Ces différentes méthodes permettent de faire un compromis entre la taille de la mémoire disponible pour stocker les formules et la puissance de calcul disponible pour calculer les images corrigées 71.
En outre, afin de retrouver les données, des identifiants associés aux données sont enregistrés dans la base de données 22. Ces identifiants comprennent notamment : - un identifiant du type et de la référence de l'appareil de capture d'image 1, - un identifiant du type et de la référence de l'optique 100 si elle est amovible, - un identifiant du type et de la référence de tout autre élément amovible ayant un lien avec les informations stockées, - un identifiant de l'image 103, - un identifiant de l'information formatée 15.
Image complétée
Comme décrit par la figure 11, on appelle image complétée 120, l'image 103 associée aux informations formatées 15. Cette image complétée 120 peut prendre la forme, de manière préférentielle, d'un fichier. L'image complétée 120 peut également être répartie dans plusieurs fichiers.
L'image complétée 120 peut être calculée par l'appareil de capture d'image 1. Elle peut être également calculée par un dispositif de calcul externe, par exemple un ordinateur.
Logiciel de traitement d'image
On appelle logiciel de traitement d'image 4, un logiciel qui prend en entrée une ou plusieurs images complétées 120 et qui effectue des traitements sur ces images. Ces traitements peuvent comprendre, notamment : - de calculer d'une image corrigée 71,
<Desc/Clms Page number 32>
- d'effectuer des mesures dans le monde réel, - de combiner plusieurs images,
Figure img00320001

- d'améliorer la fidélité des images par rapport au monde réel, - d'améliorer la qualité subjective des images, - de détecter des objets ou personnes 107 dans une scène 3, - d'ajouter des objets ou personnes 107 dans une scène 3, - de remplacer ou modifier des objets ou personnes 107 dans une scène 3,
Figure img00320002

- de retirer les ombres d'une scène 3, - d'ajouter des ombres dans une scène 3, - de rechercher des objets dans une base d'images.
Ledit logiciel de traitement d'image peut être : - intégré à l'appareil de capture d'image 1, - exécuté sur des moyens de calcul 17 reliés à l'appareil de capture d'image 1 par des moyens de transmission 18.
Optique numérique
On appelle optique numérique, la combinaison d'un appareil de capture d'image 1, d'une base de données de
Figure img00320003

caractéristiques 22 et d'un moyen de calcul 17 permettant : - la capture d'image d'une image 103, - le calcul de l'image complétée, - le calcul de l'image corrigée 71.
De manière préférentielle, l'utilisateur obtient directement l'image corrigée 71. S'il le souhaite, l'utilisateur peut demander la suppression de la correction automatique.
La base de données de caractéristiques 22 peut être : - intégrée dans l'appareil de capture d'image 1, - intégrée dans un PC ou autre ordinateur relié aux autres éléments pendant la capture d'image, - intégrée dans un PC ou autre ordinateur relié aux autres éléments après la capture d'image,
<Desc/Clms Page number 33>
- intégrée dans un PC ou autre ordinateur capable de lire un support de stockage commun avec l'appareil de capture d'image 1, - intégrée dans un serveur distant relié à un PC ou autre ordinateur lui-même relié aux autre éléments de la capture d'image.
Le moyen de calcul 17 peut être : - intégré sur un composant avec le capteur 101, - intégré sur un composant avec une partie de l'électronique 102, - intégré dans l'appareil de capture d'image 1, - intégré dans un PC ou autre ordinateur relié aux autres éléments pendant la capture d'image, - intégré dans un PC ou autre ordinateur relié aux autres éléments après la capture d'image, - intégré dans un PC ou autre ordinateur capable de lire un support de stockage commun avec l'appareil de capture d'image 1, - intégré dans un serveur distant relié à un PC ou autre ordinateur lui même relié aux autres éléments de la capture d'image.
Traitement de la chaîne complète
Dans les précédents paragraphes, on a essentiellement précisé les concepts et la description du procédé et du système selon l'invention pour fournir à des logiciels de traitement d'images 4 des informations formatées 15 liées aux caractéristiques des appareils de capture d'image 1.
Dans les paragraphes qui suivent, on va élargir la définition des concepts et compléter la description du procédé et du système selon l'invention pour fournir à des logiciels de traitement d'images 4 des informations formatées 15 liées aux caractéristiques des moyens de restitution d'image 19. On aura ainsi exposé le traitement d'une chaîne complète.
Le traitement de la chaîne complète permet :
<Desc/Clms Page number 34>
- d'améliorer la qualité de l'image 103 d'un bout à l'autre de la chaîne, pour obtenir une image restituée 191 corrigeant les défauts de l'appareil de capture d'image 1 et du moyen de restitution d'image 19, et/ou - d'utiliser des optiques de moindre qualité et de moindre coût dans un projecteur vidéo en combinaison avec un logiciel d'amélioration de la qualité des images.
Définitions liées aux moyens de restitution d'image.
En s'appuyant sur les figures 2 et 6, on va maintenant décrire la prise en compte dans les informations formatées 15 des caractéristiques d'un moyen de restitution d'images 19 tel qu'une imprimante, un écran de visualisation ou un projecteur.
Les compléments ou modifications à apporter aux définitions dans le cas d'un moyen de restitution d'image 19 peuvent être extrapolées mutatis mutandis par un homme de métier à partir des définitions fournies dans le cas d'un appareil de capture d'image 1. Toutefois, afin d'illustrer cette méthode, on va maintenant décrire en se référant notamment à la figure 6 les principaux compléments ou modifications.
On désigne par caractéristiques de restitution utilisées 95 les caractéristiques intrinsèques des moyens de restitution d'image 19, les caractéristiques du moyen de restitution d'image 19 au moment de la restitution d'image, et les préférences de l'utilisateur au moment de la restitution des images. Notamment dans le cas d'un projecteur, les caractéristiques de restitution utilisées 95 comprennent la forme et la position de l'écran utilisé.
On désigne par modèle de transformation paramétrable de restitution 97 (ou de manière condensée, transformation paramétrable de restitution 97) une transformation mathématique similaire au modèle de transformation paramétrable 12.
On désigne par image corrigée de restitution 94 l'image obtenue par application de la transformation paramétrable de restitution 97 à l'image 103.
<Desc/Clms Page number 35>
On désigne par projection mathématique de restitution 96 une projection mathématique qui associe à une image corrigée de restitution 94, une image mathématique de restitution 92 sur la surface mathématique de restitution géométriquement associée à la surface du support de restitution 190. Les points mathématiques de restitution de la surface mathématique de restitution ont une forme, position, couleur et intensité calculées à partir de l'image corrigée de restitution 94.
On désigne par projection réelle de restitution 90 une projection associant à une image 103 une image restituée 191.
Les valeurs de pixels de l'image 103 sont converties par l'électronique des moyens de restitution 19 en un signal qui pilote le modulateur des moyens de restitution 19. On obtient des points réels de restitution sur le support de restitution 190. Lesdits points réels de restitution sont dotés d'une forme, couleur, intensité et position. Le phénomène de regroupement en pixels 104 précédemment décrit dans le cas d'un appareil de capture d'image 1 ne se produit pas dans le cas d'un moyen de restitution d'image. En revanche, un phénomène inverse se produit qui fait notamment apparaître des droites comme des marches d'escalier.
On désigne par différence de restitution 93 la différence entre l'image restituée 191 et l'image mathématique de restitution 92. Cette différence de restitution 93 est obtenue mutatis mutandis comme la différence 73.
On désigne par référence de restitution une image 103 dont les valeurs des pixels 104 sont connues.
On désigne par meilleure transformation de restitution pour une référence de restitution et des caractéristiques utilisées de restitution 95, celle qui permet de transformer l'image 103 en une image corrigée de restitution 94 telle que sa projection mathématique de restitution 92, présente la plus faible différence de restitution 93 avec l'image restituée 191.
Les procédés de calibrage de restitution et de conception d'optique numérique de restitution sont comparables
<Desc/Clms Page number 36>
aux procédés de calibrage et de conception d'optique numérique dans le cas d'un appareil de capture d'image 1. Certaines étapes comportent cependant des différences, et notamment les étapes suivantes : - l'étape de choisir une référence de restitution ; - l'étape d'effectuer la restitution de ladite référence de restitution ; - l'étape de calculer la meilleure transformation de restitution.
Les informations formatées 15 liées à un appareil de capture d'image 1 et celles liées à un moyen de restitution d'image 19 peuvent être mises bout à bout pour une même image.
On a précédemment décrit la notion de champ dans le cas d'un appareil de capture d'image 1. Cette notion s'applique également mutatis mutandis dans le cas de moyens de restitution d'image 19. Toutefois, aux paramètres de la méthode de quantification on substitue les paramètres de la méthode de reconstitution du signal, à savoir : la géométrie du support de restitution 190 et sa position, une fonction représentant la distribution spatiale et temporelle du bruit du moyen de restitution d'images 19.
Généralisation des concepts
Les traits techniques composant l'invention et figurant dans les revendications ont été définis, décrits, illustrés en se référant essentiellement à des appareils de capture d'image de type numérique, c'est-à-dire produisant des images numériques. On conçoit aisément que les mêmes traits techniques s'appliquent dans le cas d'appareils de capture d'image qui seraient la combinaison d'un appareil argentique (un appareil photographique ou cinématographique utilisant des pellicules sensibles argentiques, négatives ou inversibles) et d'un scanner produisant une image numérique à partir des pellicules sensibles développées. Certes, il y a lieu dans ce cas d'adapter au moins certaines des définitions utilisées. Ces adaptations sont à la portée de l'homme de métier. Afin de
<Desc/Clms Page number 37>
mettre en évidence le caractère évident de telles adaptations, on se bornera à mentionner que les notions de pixel et de valeur de pixel illustrées en se référant à la figure 3 doivent, dans le cas de la combinaison d'un appareil argentique et d'un scanner, s'appliquer à une zone élémentaire de la surface de la pellicule après que celle-ci ait été numérisée au moyen du scanner. De telles transpositions des définitions vont de soi et peuvent être étendues à la notion de configuration utilisée. A la liste des sous-ensembles amovibles de l'appareil de capture d'image 1 composant la configuration utilisée, on peut par exemple ajouter le type de pellicule photographique effectivement utilisée dans l'appareil argentique.

Claims (10)

REVENDICATIONS
1. Procédé pour fournir à des logiciels de traitement d'image des informations formatées liées aux caractéristiques des appareils de capture d'image (1) ; lesdits appareils de capture d'image (1) étant utilisés par des utilisateurs pour capturer des images (103) de scènes (3), notamment de scènes (3) animées ; ledit procédé comprenant les étapes suivantes : - l'étape de produire : o des données relatives aux caractéristiques techniques intrinsèques de l'appareil de capture d'image (1), notamment les caractéristiques de distorsion, et/ou o des données relatives aux caractéristiques techniques de l'appareil de capture d'image (1) au moment de la capture d'image (103), notamment le temps de pose ; lesdites données étant ci-après dénommées les informations formatées (15) ;
Figure img00380001
ledit procédé comprenant en outre : - l'étape d'associer l'image (103) avec les informations formatées (15) ; ledit procédé comprenant en outre : - l'étape de transmettre l'image (103) et les informations formatées (15) audits logiciels de traitement d'image (4) ; de sorte qu'il est ainsi possible de corriger les défauts de l'appareil de capture d'image (1) existant au moment de la capture d'image (103).
2. Procédé selon la revendication 1 ; ledit procédé comprenant en outre l'étape de produire des données relatives aux préférences dudit utilisateur, notamment le facteur de zoom ; lesdites informations formatées (15) comprenant également les données relatives aux préférences de l'utilisateur.
<Desc/Clms Page number 39>
3. Procédé selon l'une quelconque des revendications 1 ou 2 ; ledit procédé comprenant - l'étape de calculer lesdites informations formatées (15) : o en réalisant une classe d'images de synthèse (7) par projections mathématiques (8) déterminées, d'au moins une scène de référence (9), sur une surface (10), o en capturant au moins une image de référence (11) de chaque scène de référence (9) au moyen dudit appareil de capture d'image (1), o en choisissant dans un ensemble de modèles de transformation paramétrables (12) celui permettant de transformer ladite image de référence (11) en une image transformée (13) proche de ladite classe d'images de synthèse (7) de ladite scène de référence (9) ; ladite image transformée (13) présentant un écart avec ladite classe d'images de synthèse (7) ; lesdites informations formatées (15) étant au moins en partie composées des références et des paramètres desdits modèles de transformation paramétrables (12) choisis.
4. Procédé selon la revendication 3 ; ledit procédé comprenant en outre : - l'étape de calculer lesdits écarts (14) entre ladite image transformée (13) et ladite classe d'images de synthèse (7), - l'étape d'associer lesdits écarts (14) audites informations formatées (15) ; de sorte qu'il est possible de déduire des informations étalonnées sur lesdites scènes (3) en trois dimensions ; de sorte qu'il est possible de combiner plusieurs images (103) obtenues à partir de plusieurs appareils de capture d'image (1) ayant fait l'objet d'un même processus de formatage.
5. Procédé selon l'une quelconque des revendications 1 à 4, ledit procédé étant destiné en outre à fournir à des
<Desc/Clms Page number 40>
logiciels de traitement d'image (4) des informations formatées (15) liées aux caractéristiques des moyens de restitution (19) des images (103) capturées par ledit appareil de capture d'image (1), notamment une imprimante, un écran de visualisation ; ledit procédé comprenant en outre l'étape de produire : o des données relatives aux caractéristiques techniques intrinsèques des moyens de restitution (19) des images (103), notamment les caractéristiques de distorsion, et/ou o des données relatives aux caractéristiques techniques des moyens de restitution (19) des images (103) au moment de la restitution des images (103), notamment la résolution ; lesdites informations formatées (15) comprenant également les données relatives aux caractéristiques techniques intrinsèques des moyens de restitution (19) et aux caractéristiques des moyens de restitution (19) au moment de la restitution des images (103).
6. Procédé selon la revendication 5 ; ledit procédé comprenant en outre l'étape de produire des données relatives aux préférences dudit utilisateur au moment de la restitution des images (103), notamment la température de couleur.
7. Système pour fournir à des logiciels de traitement d'image (4) des informations formatées (15) liées aux caractéristiques des appareils de capture d'image (1) ; lesdits appareils de capture d'image (1) étant utilisés par des utilisateurs pour capturer des images (103) de scènes (3), notamment de scènes (3) animées ; ledit système comprenant une base de données (22) contenant : o des données relatives aux caractéristiques techniques intrinsèques de l'appareil de capture d'image (1), notamment les caractéristiques de distorsion, et/ou
<Desc/Clms Page number 41>
o des données relatives aux caractéristiques techniques de l'appareil de capture d'image (1) au moment de la capture d'image (103), notamment le temps de pose ; lesdites données étant ci-après dénommées les informations formatées (15) ; ledit système comprenant en outre une zone mémoire (16) contenant les données relatives aux images (103) capturées au moyen dudit appareil de capture d'image (1) ; lesdites données étant ci-après dénommées les données d'image ; ledit système comprenant en outre : - des moyens de calcul (17) comportant lesdits logiciels de traitement d'image (4) : - des moyens de transmission (18) pour transmettre, audits moyens de calcul (17), les données contenues dans la base de données (22) ainsi que les données contenues dans ladite zone mémoire (16).
8. Système selon la revendication 7 ; ledit système étant tel que ladite base de données (22) contient en outre des données relatives aux préférences dudit utilisateur, notamment le facteur de zoom.
9. Système selon l'une quelconque des revendications 7 ou 8 ledit système comprenant en outre des moyens de restitution (19) des images (103) capturées par ledit appareil de capture d'image (1), notamment une imprimante, un écran de visualisation ; ledit système étant en outre destiné à fournir audits logiciels de traitement d'image (4) des informations formatées (15) liées aux caractéristiques des moyens de restitution (19) des images (103) ; ladite base de données (22) contenant en outre :
0 des données relatives aux caractéristiques techniques intrinsèques des moyens de restitution (19) des images (103), notamment les caractéristiques de distorsion, et/ou
<Desc/Clms Page number 42>
o des données relatives aux caractéristiques techniques des moyens de restitution (19) des images (103) au moment de la restitution des images (103), notamment la résolution ; lesdites données étant ci-après dénommées les informations formatées (15) relatives aux moyens de restitution (19) des images (103) ; ledit système comprenant en outre : - des moyens de transmission (18) pour transmettre audits moyens de calcul (17) les informations formatées (15) contenues dans ladite base de données (22) ; lesdits moyens de calcul (17) comprenant lesdits logiciels de traitement d'image (4) traitant lesdites données d'images en tenant compte des informations formatées (15) provenant de ladite base de données (22) ; ledit système comprenant en outre des moyens de transmission (18) pour transmettre, audits moyens de restitution (19) des images (103), les données d'images traitées par lesdits moyens de calcul (17).
10. Système selon la revendication 9 ; ledit système étant tel que ladite base de données (22) contient en outre des données relatives aux préférences dudit utilisateur-au moment de la restitution des images (103), notamment la température de couleurs.
FR0109291A 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image Expired - Fee Related FR2827459B1 (fr)

Priority Applications (77)

Application Number Priority Date Filing Date Title
FR0109291A FR2827459B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image
CNB028139550A CN100371950C (zh) 2001-07-12 2002-06-05 由数字图象计算转换图象的方法和系统
PCT/FR2002/001909 WO2003007239A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour fournir des informations formatees a des moyens de traitement d'images
CNB028139518A CN1305006C (zh) 2001-07-12 2002-06-05 向图象处理装置提供格式化信息的方法和系统
ES02747506T ES2253542T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso.
EP02748933A EP1415275B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour fournir des informations formatees a des moyens de traitement d'images
US10/483,494 US7792378B2 (en) 2001-07-12 2002-06-05 Method and system for modifying image quality
CA2453423A CA2453423C (fr) 2001-07-12 2002-06-05 Procede et systeme pour fournir des informations formatees a des moyens de traitement d'images
US10/483,253 US7463293B2 (en) 2001-07-12 2002-06-05 Method and system for correcting chromatic aberrations of a color image produced by an optical system
KR1020047000413A KR100957878B1 (ko) 2001-07-12 2002-06-05 화상 처리 수단의 업데이트 빈도를 감소시키기 위한 방법및 시스템
PCT/FR2002/001913 WO2003007592A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour corriger les aberrations chromatiques d'une image couleur realisee au moyen d'un systeme optique
EP02743349A EP1410326B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier la qualite d'image
CNB028139577A CN1305010C (zh) 2001-07-12 2002-06-05 在考虑其噪声的情况下改变数字图像的方法和系统
CNB028139585A CN100346633C (zh) 2001-07-12 2002-06-05 校正由光学系统产生的彩色图像的色差的方法和系统
AU2002317902A AU2002317902A1 (en) 2001-07-12 2002-06-05 Method and system for producing formatted data related to defects
DE60234207T DE60234207D1 (de) 2001-07-12 2002-06-05 Verfahren und system zur verringerung der aktualisierungs-häufigkeit
PCT/FR2002/001906 WO2003007237A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux distorsions geometriques
PCT/FR2002/001910 WO2003007236A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire la frequence des mises a jour de moyens
AT02743349T ATE497224T1 (de) 2001-07-12 2002-06-05 Verfahren und system zur qualitätsverbesserung von bildern
EP02748934.3A EP1421777B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour corriger les aberrations chromatiques d'une image couleur realisee au moyen d'un systeme optique
ES02747503T ES2324817T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para calcular una imagen transformada a partir de una imagen digital.
CNB028139569A CN1316427C (zh) 2001-07-12 2002-06-05 产生与装置链的装置的缺陷相关的格式化信息的方法和系统
JP2003512928A JP4020262B2 (ja) 2001-07-12 2002-06-05 イメージの品質を修正する方法およびシステム
AT02743348T ATE354837T1 (de) 2001-07-12 2002-06-05 Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen
EP02745485.9A EP1410331B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier une image numerique en prenant en compte son bruit
JP2003512931A JP4452497B2 (ja) 2001-07-12 2002-06-05 ノイズを考慮してデジタルイメージを修正する方法およびシステム
US10/483,495 US7346221B2 (en) 2001-07-12 2002-06-05 Method and system for producing formatted data related to defects of at least an appliance of a set, in particular, related to blurring
JP2003513230A JP4378168B2 (ja) 2001-07-12 2002-06-05 光学系を使用して出力されたカラーイメージの色収差を補正する方法およびシステム
AU2002317900A AU2002317900A1 (en) 2001-07-12 2002-06-05 Method and system for producing update frequency of means
PCT/FR2002/001908 WO2003007243A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier une image numerique en prenant en compte son bruit
DE60207417T DE60207417T2 (de) 2001-07-12 2002-06-05 Verfahren und vorrichtung zur erzeugung formatierter information, die mit den fehlern zumindest eines geräts einer kette verbunden ist, insbesondere der bildschärfeverzerrung
US10/483,497 US7724977B2 (en) 2001-07-12 2002-06-05 Method and system for providing formatted data to image processing means in accordance with a standard format
US10/483,252 US7356198B2 (en) 2001-07-12 2002-06-05 Method and system for calculating a transformed image from a digital image
EP02747503A EP1523730B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour calculer une image transformee a partir d'une image numerique
EP02751241.7A EP1442425B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts des appareils
US10/482,413 US8675980B2 (en) 2001-07-12 2002-06-05 Method and system for reducing update frequency of image-processing means
EP02747504A EP1444651B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour reduire la frequence des mises a jour de moyens
JP2003512927A JP4295612B2 (ja) 2001-07-12 2002-06-05 書式付き情報をイメージ処理手段に供給する方法およびシステム
JP2003512929A JP4295613B2 (ja) 2001-07-12 2002-06-05 機器の欠陥に関係する情報を出力する方法およびシステム
PCT/FR2002/001915 WO2003007242A2 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts
KR1020047000417A KR100940148B1 (ko) 2001-07-12 2002-06-05 디지털 영상을 그 잡음을 고려하여 수정하기 위한 방법 및시스템
AT02747503T ATE426868T1 (de) 2001-07-12 2002-06-05 Verfahren und system zur umsetzung eines bildes aus einem digitalen bild
US10/483,322 US7760955B2 (en) 2001-07-12 2002-06-05 Method and system for producing formatted information related to defects of appliances
CNB028139593A CN100345158C (zh) 2001-07-12 2002-06-05 用于产生涉及几何失真的格式化信息的方法和系统
DE60231752T DE60231752D1 (de) 2001-07-12 2002-06-05 Verfahren und system zur umsetzung eines bildes aus einem digitalen bild
JP2003512925A JP4630547B2 (ja) 2001-07-12 2002-06-05 幾何学的歪みに関係するフォーマットされた情報を出力する方法およびシステム
ES02748933T ES2311061T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes.
CNB028139542A CN1273931C (zh) 2001-07-12 2002-06-05 改进图象质量的方法和系统
JP2003512930A JP4367757B2 (ja) 2001-07-12 2002-06-05 連鎖の1つの機器の欠陥に関係する、特にスミアリングに関係する書式付き情報出力する方法とシステム
DE60218317T DE60218317T2 (de) 2001-07-12 2002-06-05 Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen
PCT/FR2002/001914 WO2003007241A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts des appareils
US10/483,496 US7343040B2 (en) 2001-07-12 2002-06-05 Method and system for modifying a digital image taking into account it's noise
KR1020047000414A KR100940147B1 (ko) 2001-07-12 2002-06-05 화질 변경 방법 및 시스템
US10/482,419 US7532766B2 (en) 2001-07-12 2002-06-05 Method and system for producing formatted data related to geometric distortions
EP08100657.9A EP2015247B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour fournir des informations formatees a de moyens de traitement d'images
EP02747506A EP1410327B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux defauts d'au moins un appareil d'une chaine, notamment au flou
KR1020047000412A KR100879832B1 (ko) 2001-07-12 2002-06-05 영상 처리 수단에 포맷화된 데이터를 표준 포맷에 따라제공하는 방법 및 시스템
CNB028139534A CN100361153C (zh) 2001-07-12 2002-06-05 用于产生与装置的缺陷相关的信息的方法和系统
AT02748933T ATE400040T1 (de) 2001-07-12 2002-06-05 Verfahren und system zur bereitstellung formatierter informationen für bildverarbeitungsvorrichtungen
DE60239061T DE60239061D1 (de) 2001-07-12 2002-06-05 Verfahren und system zur qualitätsverbesserung von bildern
ES02747504T ES2353057T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para reducir la frecuencia de las actualizaciones de medios.
AT02747506T ATE310284T1 (de) 2001-07-12 2002-06-05 Verfahren und vorrichtung zur erzeugung formatierter information, die mit den fehlern zumindest eines geräts einer kette verbunden ist, insbesondere der bildschärfeverzerrung
AT02747504T ATE447216T1 (de) 2001-07-12 2002-06-05 Verfahren und system zur verringerung der aktualisierungs-häufigkeit
EP02743348A EP1412918B1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour produire des informations formatees liees aux distorsions geometriques
JP2003512926A JP4159986B2 (ja) 2001-07-12 2002-06-05 デジタル画像から変換された画像を計算するための方法およびシステム
KR1020047000416A KR100940149B1 (ko) 2001-07-12 2002-06-05 광학 시스템에 의해 생성된 컬러 영상의 색수차를정정하는 방법 및 시스템
ES02743348T ES2282429T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas.
PCT/FR2002/001907 WO2003007238A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour calculer une image transformee a partir d'une image numerique
PCT/FR2002/001911 WO2003007240A1 (fr) 2001-07-12 2002-06-05 Procede et systeme pour modifier la qualite d'image
DE60227374T DE60227374D1 (de) 2001-07-12 2002-06-05 Verfahren und System zur Bereitstellung formatierter Informationen für Bildverarbeitungsvorrichtungen
AU2002317219A AU2002317219A1 (en) 2001-07-12 2002-06-05 Method and system for modifying a digital image taking into account its noise
CNB028139526A CN1316426C (zh) 2001-07-12 2002-06-05 降低图像处理装置的更新频率的方法和系统
JP2003512924A JP4614657B2 (ja) 2001-07-12 2002-06-05 イメージ処理手段の更新頻度を減らす方法およびシステム
US12/838,198 US8559743B2 (en) 2001-07-12 2010-07-16 Method and system for modifying image quality
US12/838,184 US20100278415A1 (en) 2001-07-12 2010-07-16 Method and system for producing formatted information related to defects of appliances
US13/489,892 US20120308160A1 (en) 2001-07-12 2012-06-06 Method and system for producing formatted information related to defects of appliances
US14/021,235 US9536284B2 (en) 2001-07-12 2013-09-09 Method and system for modifying image quality of an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0109291A FR2827459B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image

Publications (2)

Publication Number Publication Date
FR2827459A1 true FR2827459A1 (fr) 2003-01-17
FR2827459B1 FR2827459B1 (fr) 2004-10-29

Family

ID=8865424

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0109291A Expired - Fee Related FR2827459B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image

Country Status (3)

Country Link
US (1) US7463293B2 (fr)
ES (1) ES2353057T3 (fr)
FR (1) FR2827459B1 (fr)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE310284T1 (de) * 2001-07-12 2005-12-15 Do Labs Verfahren und vorrichtung zur erzeugung formatierter information, die mit den fehlern zumindest eines geräts einer kette verbunden ist, insbesondere der bildschärfeverzerrung
JP2004234379A (ja) * 2003-01-30 2004-08-19 Sony Corp 画像処理方法、画像処理装置及び画像処理方法を適用した撮像装置、表示装置
JP4010254B2 (ja) * 2003-02-06 2007-11-21 ソニー株式会社 画像記録再生装置、画像撮影装置及び色収差補正方法
US8471852B1 (en) 2003-05-30 2013-06-25 Nvidia Corporation Method and system for tessellation of subdivision surfaces
US7683950B2 (en) * 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US8571346B2 (en) 2005-10-26 2013-10-29 Nvidia Corporation Methods and devices for defective pixel detection
US7750956B2 (en) * 2005-11-09 2010-07-06 Nvidia Corporation Using a graphics processing unit to correct video and audio data
US8588542B1 (en) 2005-12-13 2013-11-19 Nvidia Corporation Configurable and compact pixel processing apparatus
FR2895104A1 (fr) * 2005-12-19 2007-06-22 Dxo Labs Sa Procede pour fournir des donnees a un moyen de traitement numerique
FR2895102B1 (fr) * 2005-12-19 2012-12-07 Dxo Labs Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede
FR2895103B1 (fr) * 2005-12-19 2008-02-22 Dxo Labs Sa Procede et systeme de traitement de donnees numeriques
US8737832B1 (en) * 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
US7835592B2 (en) * 2006-10-17 2010-11-16 Seiko Epson Corporation Calibration technique for heads up display system
DE102007001010A1 (de) * 2007-01-02 2008-07-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Bilderfassungssystem zur achromatisierten Bildaufnahme von Objekten
US8055070B2 (en) * 2007-01-05 2011-11-08 Geo Semiconductor Inc. Color and geometry distortion correction system and method
US8442316B2 (en) 2007-01-05 2013-05-14 Geo Semiconductor Inc. System and method for improving color and brightness uniformity of backlit LCD displays
US8723969B2 (en) * 2007-03-20 2014-05-13 Nvidia Corporation Compensating for undesirable camera shakes during video capture
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
WO2009112309A2 (fr) * 2008-03-12 2009-09-17 Thomson Licensing Procédé et système destinés à la correction des aberrations d’objectif
US9379156B2 (en) * 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
GB2460241A (en) * 2008-05-20 2009-11-25 Univ Dublin City Correction of optical lateral chromatic aberration
US8373718B2 (en) 2008-12-10 2013-02-12 Nvidia Corporation Method and system for color enhancement with color volume adjustment and variable shift along luminance axis
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
US8328365B2 (en) 2009-04-30 2012-12-11 Hewlett-Packard Development Company, L.P. Mesh for mapping domains based on regularized fiducial marks
JP4796666B2 (ja) * 2009-10-27 2011-10-19 パナソニック株式会社 撮像装置およびそれを用いた測距装置
US8698918B2 (en) 2009-10-27 2014-04-15 Nvidia Corporation Automatic white balancing for photography
JP2013219705A (ja) * 2012-04-12 2013-10-24 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
DE102013012988A1 (de) * 2013-08-03 2015-02-05 Carl Zeiss Microscopy Gmbh Verfahren zur Kalibrierung eines digitalen optischen Abbildungssystems, Verfahren zur Korrektur von Abbildungsfehlern in einem digitalen optischen Abbildungssystem, sowie digitales optisches Abblildungssystem

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5353392A (en) * 1990-04-11 1994-10-04 Multi Media Techniques Method and device for modifying a zone in successive images
EP0867690A1 (fr) * 1997-03-27 1998-09-30 Nippon Telegraph And Telephone Corporation Dispositif et système d'étiquetage des images digitales
EP0964353A2 (fr) * 1998-06-12 1999-12-15 Canon Kabushiki Kaisha Appareil de traitement d'images et mémoire adressable par ordinateur
US6100925A (en) * 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2256989B (en) * 1991-06-21 1995-02-08 Sony Broadcast & Communication Video image capture apparatus
US5353056A (en) 1992-10-27 1994-10-04 Panasonic Technologies, Inc. System and method for modifying aberration and registration of images
US5369450A (en) * 1993-06-01 1994-11-29 The Walt Disney Company Electronic and computational correction of chromatic aberration associated with an optical system used to view a color video display
DE69526635T2 (de) * 1994-12-29 2002-12-05 Koninkl Philips Electronics Nv Bilderzeugungsgerät und Verfahren zur Verbesserung geometrischer optischer Bildverzerrungen
US5751863A (en) * 1996-06-18 1998-05-12 Hewlett Packard Company Method and system having relaxed front end distortion requirements
JPH10164326A (ja) * 1996-11-28 1998-06-19 Minolta Co Ltd 画像取り込み装置
EP0878970A3 (fr) 1997-05-16 1999-08-18 Matsushita Electric Industrial Co., Ltd. Système de mesure de l'erreur d'alignement et de l'aberration chromatique d'un capteur d'image pour une caméra vidéo
JPH10319517A (ja) * 1997-05-21 1998-12-04 Konica Corp 画像形成装置、及びレンズ付きフィルムユニットの製造方法
US6603885B1 (en) * 1998-04-30 2003-08-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
US6538691B1 (en) * 1999-01-21 2003-03-25 Intel Corporation Software correction of image distortion in digital cameras
US6819333B1 (en) * 2000-05-12 2004-11-16 Silicon Graphics, Inc. System and method for displaying an image using display distortion correction
US6816625B2 (en) * 2000-08-16 2004-11-09 Lewis Jr Clarence A Distortion free image capture system and method
US7127125B2 (en) * 2002-01-04 2006-10-24 Warner Bros. Entertainment Inc. Registration of separations
US7683950B2 (en) * 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5353392A (en) * 1990-04-11 1994-10-04 Multi Media Techniques Method and device for modifying a zone in successive images
US6100925A (en) * 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
EP0867690A1 (fr) * 1997-03-27 1998-09-30 Nippon Telegraph And Telephone Corporation Dispositif et système d'étiquetage des images digitales
EP0964353A2 (fr) * 1998-06-12 1999-12-15 Canon Kabushiki Kaisha Appareil de traitement d'images et mémoire adressable par ordinateur

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CLUNIE, D.: "Medical image format FAQ - Part 3. Proprietary formats", NONAME, 3 June 2001 (2001-06-03), XP002178669, Retrieved from the Internet <URL:http://www.dclunie.com/medical-image-faq/html/part3.html> [retrieved on 20010927] *
WATANABE M ET AL: "AN IMAGE DATA FILE FORMAT FOR DIGITAL STILL CAMERA", FINAL PROGRAM AND ADVANCE PRINTING OF PAPERS. ANNUAL CONFERENCE. IMAGING ON THE INFORMATION SUPERHIGHWAY, XX, XX, 1995, pages 421 - 424, XP000618775 *

Also Published As

Publication number Publication date
US20040218071A1 (en) 2004-11-04
ES2353057T3 (es) 2011-02-25
FR2827459B1 (fr) 2004-10-29
US7463293B2 (en) 2008-12-09

Similar Documents

Publication Publication Date Title
FR2827459A1 (fr) Procede et systeme pour fournir a des logiciels de traitement d&#39;image des informations formatees liees aux caracteristiques des appareils de capture d&#39;image et/ou des moyens de restitution d&#39;image
EP1442425B1 (fr) Procede et systeme pour produire des informations formatees liees aux defauts des appareils
EP1412918B1 (fr) Procede et systeme pour produire des informations formatees liees aux distorsions geometriques
EP2011329B1 (fr) Procédé de traitement d&#39;un phénomène d&#39;éclairement relatif sur une image numérique et système de traitement associé
FR2827460A1 (fr) Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d&#39;images des informations liees aux caracteristiques des appareils de capture d&#39;image et/ou des moyens de resti
RU2785988C1 (ru) Система формирования изображений и способ обработки изображений
WO2023218073A1 (fr) Procédé de correction globale de la netteté d&#39;une image, et systeme associe
FR3134196A1 (fr) Procédé de correction d’aberrations optiques introduites par un objectif optique dans une image, appareil et système mettant en œuvre un tel procédé.

Legal Events

Date Code Title Description
TP Transmission of property
CD Change of name or company name
PLFP Fee payment

Year of fee payment: 16

PLFP Fee payment

Year of fee payment: 17

PLFP Fee payment

Year of fee payment: 18

TP Transmission of property

Owner name: LENS CORRECTION TECHNOLOGIES, FR

Effective date: 20190722

ST Notification of lapse

Effective date: 20200306