FR3088468A1 - Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie - Google Patents

Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie Download PDF

Info

Publication number
FR3088468A1
FR3088468A1 FR1860447A FR1860447A FR3088468A1 FR 3088468 A1 FR3088468 A1 FR 3088468A1 FR 1860447 A FR1860447 A FR 1860447A FR 1860447 A FR1860447 A FR 1860447A FR 3088468 A1 FR3088468 A1 FR 3088468A1
Authority
FR
France
Prior art keywords
image
acquired
gradient
imaging system
test pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1860447A
Other languages
English (en)
Other versions
FR3088468B1 (fr
Inventor
Mokrane Malek
Aldo Maalouf
Jean Beaudet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR1860447A priority Critical patent/FR3088468B1/fr
Publication of FR3088468A1 publication Critical patent/FR3088468A1/fr
Application granted granted Critical
Publication of FR3088468B1 publication Critical patent/FR3088468B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Abstract

Procédé de détermination d'une fonction d'étalement de point d'un système d'imagerie comprenant : obtenir (30) une image d'une mire, dite image acquise, représentant une mire positionnée dans un champ optique du système d'imagerie ; obtenir (32) des paramètres intrinsèques du système d'imagerie ; déterminer (33) des paramètres d'une transformation géométrique, dits paramètres extrinsèques, permettant de passer d'un modèle numérique de la mire à la mire représentée dans l'image acquise; obtenir (34) une image, dite image synthétique, de la mire en appliquant audit modèle numérique, une transformation géométrique basée sur les paramètres extrinsèques et intrinsèques ; appliquer (35) un traitement à chaque image, parmi les images acquise et synthétique, comprenant une combinaison d'un calcul de gradient en chaque pixel de ladite image et d'un filtrage réducteur de bruit afin d'obtenir respectivement une image, dite image de gradient acquise, et une image, dite image de gradient synthétique; et, estimer (36) la fonction d'étalement de point en utilisant l'image de gradient acquise et l'image de gradient synthétique.

Description

L’invention concerne un procédé de détermination d’une fonction d’étalement de point d’un système d’imagerie, un procédé d’amélioration d’image acquise par un système d’imagerie et un dispositif mettant en œuvre au moins un desdits procédés.
Contexte de l’invention
Une fonction d’étalement du point («Point Spread Function (PSF) » en terminologie anglo-saxonne), appelée également réponse impulsionnelle optique (RIO), est une fonction mathématique décrivant une réponse d’un système d’imagerie à une source ponctuelle. La PSF modélise comment un point est imagé par un système d’imagerie et reflète des déformations optiques du système d’imagerie. On considère qu’une image d’un objet issue d’un système optique est le fruit d’une convolution entre un signal issu de l’objet (i.e. une image issue d’un système d’imagerie parfait sans déformation optique) et la PSF modélisant le système d’imagerie. Lorsque cette fonction est connue, il est possible de déconvoluer (i.e. appliquer une convolution inverse) l’image issue du système d’imagerie par la PSF pour obtenir une image améliorée de l’objet.
Il existe diverses méthodes pour caractériser un système d’imagerie. On connaît par exemple la méthode dite des bords obliques (« Slanted Edge » en terminologie anglo-saxonne) comprise dans la norme ISO 12333 :2014, Photography — Electronic still picture imaging — Resolution and spatial frequency responses. Cette méthode permet de déterminer une fonction de transfert de modulation (« Modulation Transfert Function (MTF) » en terminologie anglo-saxonne) permettant d’évaluer des capacités d’un système d’imagerie à restituer fidèlement un signal. En optique, la MTF est la fonction qui définit un contraste en fonction d’une finesse des détails à restituer, i.e. en fonction de fréquences spatiales. La MTF correspond à un module d’une fonction de transfert optique (« Optical Transfert Function (OTF) » en terminologie anglo-saxonne) qui correspond elle-même à une transformée de Fourier de la PSF.
La méthode décrite dans le document US20160080737A1 permet de déterminer une PSF d’un système de lentilles. Cette méthode utilise une mire, sous forme de grille de test, pour déterminer la PSF. Cette mire est placée en face du système de lentilles, à une position correspondant à une distance focale dudit système, cette distance focale dépendant de la taille de la grille de test. Cette méthode est particulièrement adaptée au cas où la mire est perpendiculaire à un axe optique du système de lentille mais est moins performante lorsque la mire n’est pas perpendiculaire audit axe. Par ailleurs, la mire doit se situer à la distance focale du système de lentilles.
Il est souhaitable de pallier ces inconvénients de l’état de la technique. Il est notamment souhaitable de proposer un procédé et un dispositif qui permettent de déterminer une PSF y compris lorsque la mire n’est pas perpendiculaire à l’axe optique. Par ailleurs, ce procédé doit être simple à mettre en œuvre.
EXPOSE DE L’INVENTION
Selon un premier aspect de l’invention, l’invention concerne un procédé de détermination d’une fonction d’étalement de point d’un système d’imagerie, comprenant :
obtenir une image d’une mire, dite image acquise, représentant une zone englobant intégralement ou partiellement la mire, ladite zone étant positionnée dans un champ optique du système d’imagerie ; obtenir des paramètres intrinsèques du système d’imagerie ; déterminer des paramètres d’une transformation géométrique, dits paramètres extrinsèques, permettant de passer d’une zone d’un modèle numérique de la mire à la zone de la mire représentée dans l’image acquise, la zone du modèle numérique de la mire correspondant à la zone de la mire représentée dans l’image acquise ; obtenir une image, dite image synthétique, de la mire en appliquant à la zone du modèle numérique de la mire, une transformation géométrique basée sur les paramètres extrinsèques et une transformation géométrique basée sur les paramètres intrinsèques afin de recaler la zone du modèle numérique de la mire sur la zone de la mire représentée dans l’image acquise ; appliquer un traitement à chaque image, parmi les images acquise et synthétique, afin d’obtenir respectivement une image, dite image de gradient acquise, et une image, dite image de gradient synthétique, le traitement appliqué à chaque image comprenant un calcul de gradient en chaque pixel de ladite image et d’un filtrage réducteur de bruit pour au moins l’image acquise ; et, estimer la fonction d’étalement de point en utilisant l’image de gradient acquise et l’image de gradient synthétique.
Le procédé permet donc de déterminer une PSF améliorée en prenant en compte les paramètres intrinsèques du système optique.
Selon un mode de réalisation, les paramètres intrinsèques comprennent : une longueur focale et un point principal correspondant à une intersection entre un axe optique du système d’imagerie et un plan des images acquises par le système d’imagerie.
Selon un mode de réalisation, lors de l’application du traitement sur une image acquise, le calcul du gradient en chaque pixel de ladite image acquise se fait avant ou après l’application du filtrage réducteur de bruit à ladite image acquise et lors de l’application du traitement sur une image synthétique, le calcul du gradient en chaque pixel de ladite image synthétique se fait avant l’application du filtrage réducteur de bruit à ladite image synthétique.
Selon un mode de réalisation, lors de l’application du traitement à une image synthétique, suite au calcul du gradient en chaque pixel de ladite image synthétique, le gradient en un pixel prenant la forme d’un vecteur, dit vecteur gradient, représenté par une direction du gradient et une amplitude, le filtrage réducteur de bruit consiste à remplacer chaque vecteur gradient, dit vecteur gradient courant, de l’image synthétique obtenue suite au calcul du gradient en chaque pixel de ladite image par un vecteur gradient moyen calculé en utilisant les deux plus proches vecteurs gradients du vecteur gradient courant.
Selon un mode de réalisation, l’estimation de la fonction d’étalement de point comprend : déterminer la fonction d’étalement de point minimisant une fonction de coût comprenant un premier terme correspondant à une différence entre l’image de gradient acquise et un produit de convolution entre la fonction d’étalement de point à estimer et l’image de gradient synthétique.
Selon un mode de réalisation, la fonction de coût à minimiser s’écrit de la manière suivante :
f(h) = \\h * Δ0 — ΔΙ\\2 + Y\\h\\2 + β\\ύ\\γ où f (h) est la fonction de coût à minimiser, h est une matrice représentative de la fonction d’étalement de point recherchée, JO est l’image de gradient synthétique, Δ1 est l’image de gradient acquise, ||. ||2 représente une norme L2au carré, ||. ||i représente une norme L1, * est un opérateur de convolution, y||/i||2 est un premier terme de régularisation utilisé pour accélérer la minimisation, β ||/i|| t est un deuxième terme de régularisation utilisé pour obtenir une fonction d’étalement de point dérivable sur toute une image acquise par le système d’imagerie, y et /? sont des constantes prédéterminées.
Selon un mode de réalisation, lorsque la zone de la mire représentée dans l’image acquise englobe intégralement la mire, lors de l’estimation de la fonction d’étalement de point, le procédé comprend obtenir une sous-partie de l’image de gradient acquise correspondant à une portion prédéfinie de la mire et une sous-partie correspondante à ladite sous-partie dans l’image de gradient synthétique, l’estimation de la fonction d’étalement de point se faisant en utilisant exclusivement des pixels contenus dans ladite sous-partie de l’image de gradient acquise et dans la sous-partie correspondante à ladite sous-partie dans l’image de gradient synthétique.
Selon un deuxième aspect de l’invention, l’invention concerne un procédé de détermination d’une pluralité de fonctions d’étalement de point d’un système d’imagerie, comprenant : obtenir une pluralité d’images d’une mire, chaque image représentant une zone englobant partiellement la mire, chaque zone étant positionnée à une position différente dans un champ optique du système d’imagerie ; pour chaque image obtenue, appliquer le procédé selon le premier aspect afin d’obtenir une fonction d’étalement de point correspondant à la position dans un champ optique du système d’imagerie de la zone.
Selon un troisième aspect, l’invention concerne un procédé de détermination d’une pluralité de fonctions d’étalement de point d’un système d’imagerie, comprenant: obtenir une image d’une mire représentant intégralement la mire, la mire étant positionnée dans un champ optique du système d’imagerie ; obtenir une pluralité de sous-parties de l’image de gradient acquise correspondant chacune à une portion prédéfinie différente de la mire ; pour chaque sous-partie, appliquer le procédé selon le premier aspect afin d’obtenir une fonction d’étalement de point correspondant à la portion prédéfinie correspondante de la mire. Selon un quatrième aspect de l’invention, l’invention concerne un procédé d’amélioration d’une image acquise par un système d’imagerie, ladite image représentant un objet positionné dans un champ optique du système d’imagerie, caractérisé en ce qu’il comprend : obtenir au moins une fonction d’étalement de point du système d’imagerie correspondant à une position de l’objet dans le champ optique du système d’imagerie en appliquant le procédé selon le premier aspect ; puis, pour chaque fonction d’étalement de point, appliquer une convolution inverse entre la fonction d’étalement de point ainsi obtenue et une zone de l’image acquise par le système d’imagerie correspondant à ladite fonction d’étalement de point.
Selon un cinquième aspect de l’invention, l’invention concerne un dispositif de détermination d’une fonction d’étalement de point d’un système d’imagerie, comprenant : des moyens d’obtention pour obtenir une image d’une mire, dite image acquise, représentant une zone englobant intégralement ou partiellement la mire, ladite zone étant positionnée dans un champ optique du système d’imagerie ; des moyens d’obtention pour obtenir des paramètres intrinsèques du système d’imagerie ; des moyens de détermination pour déterminer des paramètres d’une transformation géométrique, dits paramètres extrinsèques, permettant de passer d’une zone d’un modèle numérique de la mire à la zone de la mire représentée dans l’image acquise, la zone du modèle numérique de la mire correspondant à la zone de la mire représentée dans l’image acquise ; des moyens d’obtention pour obtenir une image, dite image synthétique, de la mire en appliquant à la zone du modèle numérique de la mire, une transformation géométrique basée sur les paramètres extrinsèques et une transformation géométrique basée sur les paramètres intrinsèques afin de recaler la zone du modèle numérique de la mire sur la zone de la mire représentée dans l’image acquise ; des moyens d’application pour appliquer un traitement à chaque image, parmi les images acquise et synthétique, afin d’obtenir respectivement une image, dite image de gradient acquise, et une image, dite image de gradient synthétique, le traitement appliqué à chaque image comprenant un calcul de gradient en chaque pixel de ladite image et, pour au moins l’image acquise, un filtrage réducteur de bruit ; et, des moyens d’estimation pour estimer la fonction d’étalement de point en utilisant l’image de gradient acquise et l’image de gradient synthétique.
Selon un sixième aspect de l’invention, l’invention concerne un programme d’ordinateur, comprenant des instructions pour mettre en œuvre, par un dispositif, le procédé selon le premier ou le deuxième ou le troisième ou le quatrième aspect, lorsque ledit programme est exécuté par un processeur dudit dispositif.
Selon un septième aspect, l’invention concerne des moyens de stockage, stockant un programme d’ordinateur comprenant des instructions pour mettre en œuvre, par un dispositif, le procédé selon le premier ou le deuxième ou le troisième ou le quatrième aspect lorsque ledit programme est exécuté par un processeur dudit dispositif.
BREVE DESCRIPTION DES DESSINS
Les caractéristiques de l’invention mentionnées ci-dessus, ainsi que d’autres, apparaîtront plus clairement à la lecture de la description suivante d’un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels :
- la Fig. 1 décrit schématiquement un système d’imagerie pour lequel on détermine une PSF en utilisant le procédé selon l’invention ;
- la Fig. 2 illustre schématiquement un exemple d’architecture matérielle d’un module de traitement mettant en œuvre le procédé de détermination d’une PSF selon l’invention ;
- la Fig. 3 illustre schématiquement un exemple de procédé de détermination d’une PSF selon l’invention ;
- la Fig. 4 illustre schématiquement un exemple de procédé d’amélioration d’images comprenant le procédé de détermination d’une PSF selon l’invention ;
- la Fig. 5 illustre schématiquement un exemple de mire adaptée au procédé selon l’invention ;
- la Fig. 6 représente une image de la mire acquise par le système d’imagerie ;
- la Fig. 7 représente l’image de la mire acquise par le système d’imagerie dans laquelle ont été détectés des points particuliers ;
- la Fig. 8 représente schématiquement une application d’une méthode de filtrage de bruit à une image de gradient ;
- la Fig. 9A représente une portion d’une image de gradient avant filtrage réducteur de bruit ;
- la Fig. 9B représente une portion d’une image de gradient après filtrage réducteur de bruit ;
- la Fig. 10A représente un exemple de zone de la mire définie dans l’image de la mire acquise par le système d’imagerie ;
- la Fig. 10B représente une zone d’une image synthétique de la mire correspondant à la zone définie dans l’image de la mire acquise par le système d’imagerie ;
- les Figs. 11A et 12A représentent des images d’un même objet acquises par le système d’imagerie ; et,
- les Figs. 11B et 12B représentent un résultat de traitement par le procédé d’amélioration d’images de l’invention.
DESCRIPTION DETAILLEE DE DIVERS MODES DE REALISATION
La description qui suit détaille plus particulièrement un mode de réalisation de la présente invention dans un contexte où le système d’imagerie comprend un système d’acquisition d’images tel qu’une caméra numérique comprenant un objectif comprenant un réseau de lentilles, pas de système de mise au point (tel qu’un système d’autofocus) ou un système de mise au point peu efficace et un capteur d’images tel qu’un capteur d’images CCD (dispositif de transfert de charge, « Charged Couple device » en terminologie anglo-saxonne) ou CMOS (semiconducteur metal-oxyde complementaire, « complementary metal-oxide semiconductor » en terminologie anglo-saxonne). Le procédé est toutefois adapté à d’autres types de systèmes d’imagerie produisant des images pouvant être traitées numériquement, tels que des caméras analogiques, des objectifs, etc.
La Fig· 1 décrit schématiquement un système d’imagerie 1 pour lequel on détermine une PSF en utilisant le procédé selon l’invention.
Le système d’imagerie 1 de la Fig. 1 comprend une caméra numérique 10. La caméra numérique comprend un système optique, comprenant une pluralité de lentilles, permettant de faire converger un signal lumineux vers un capteur d’images. Le capteur d’images fournit des images sous forme d’une grille de pixels. Chaque pixel de la grille peut être identifié par une coordonnée x suivant un axe horizontal X et une coordonnée y suivant un axe vertical Y d’un repère de la grille de pixels fournie par le capteur d’images.
La caméra 10 est connectée à un module de traitement 14 mettant en œuvre le procédé selon l’invention. Devant la caméra 10 se trouve un objet 12, ici un objet plan, comprenant une mire 120. Dans un mode de réalisation, l’objet 12 est placé de sorte que le centre de la mire 120 soit sur un axe optique de la caméra 10 à une distance ZL d’une limite extérieure du système optique, la distance ZL étant variable.
Le système d’imagerie 1 comprend en outre un système d’éclairage 11 éclairant l’objet 12.
Dans un mode de réalisation, l’objet 12 pourrait être placé de sorte que le centre de la mire 120 soit dans le champ optique de la caméra 10, i.e. à un endroit visible par la caméra 10, mais sans être sur l’axe optique de la caméra 10.
Dans un mode de réalisation, le système d’imagerie 1 comprend des moyens 15 permettant de déterminer la position de l’objet 12 (et donc de la mire 120) dans le champ optique du système d’imagerie 1 tel que, par exemple, un module de télémétrie ou fournie au système d’imagerie 1 par un utilisateur ayant déterminé cette position par exemple par triangulation ou par rapport à une ou plusieurs positions de référence connues.
La Fig. 2 illustre schématiquement un exemple d’architecture matérielle du module de traitement 14.
Selon l’exemple d’architecture matérielle représenté à la Fig. 2, le module de traitement 14 comprend alors, reliés par un bus de communication 140 : un processeur ou CPU («Central Processing Unit» en anglais) 141 ; une mémoire vive RAM (« Random Access Memory » en anglais) 142 ; une mémoire morte ROM (« Read Only Memory » en anglais) 143 ; une unité de stockage telle qu’un disque dur ou un lecteur de support de stockage, tel qu’un lecteur de cartes SD (« Secure Digital » en anglais) 144 ; au moins une interface de communication 145 permettant au module de traitement 14 de communiquer avec la caméra 10 pour recevoir les images acquises par ladite caméra 10 et de contrôler des acquisitions d’images par la caméra 10 et de communiquer avec le module de télémétrie 15 pour recevoir les mesures de distance Z£.
Le processeur 141 est capable d’exécuter des instructions chargées dans la RAM 142 à partir de la ROM 143, d’une mémoire externe (non représentée), d’un support de stockage (tel qu’une carte SD), ou d’un réseau de communication. Lorsque le module d’analyse 14 est mis sous tension, le processeur 141 est capable de lire de la RAM 142 des instructions et de les exécuter. Ces instructions forment un programme d’ordinateur causant la mise en œuvre, par le processeur 141, du procédé décrit en relation avec la Fig. 3 ou la Fig. 4.
Les procédés décrits en relation avec les Figs. 3 ou 4 peuvent être implémentés sous forme logicielle par exécution d’un ensemble d’instructions par une machine programmable, par exemple un DSP (« Digital Signal Processor » en anglais), un microcontrôleur ou un GPU (processeur graphique, « Graphies Processing Unit » en terminologie anglo-saxonne), ou être implémentés sous forme matérielle par une machine ou un composant dédié, par exemple un FPGA (« Field-Programmable Gate Array » en anglais) ou un ASIC (« Application-Specific Integrated Circuit » en anglais).
On note que le module de traitement 14 et/ou le module de télémétrie 15 auraient tout aussi bien pu être compris dans la caméra 10.
La Fig. 3 illustre schématiquement un exemple de procédé de détermination d’une PSF selon l’invention.
Comme nous l’avons vu plus haut en relation avec la Fig. 1, la mire 120 est positionnée dans le champ optique du système d’imagerie 1, par exemple sur l’axe optique du système d’imagerie 1 à une distance Zj.
La Fig· 5 illustre schématiquement un exemple d’une mire 120 adaptée au procédé selon l’invention.
Dans un mode de réalisation, la mire 120 comprend des objets (des formes géométriques) ayant de forts gradients spatiaux dans une pluralité de directions différentes. Dans l’exemple de la Fig. 5, la mire 120 possède une forme de damier. Douze cases du damier comprennent quatre portions d’anneaux, les anneaux étant centrés sur un centre de la case qui les contient. Les cases blanches comprennent des portions d’anneau noires et les cases noires comprennent des portions d’anneau blanches.
Le procédé de la Fig. 3 débute par une étape 30 au cours de laquelle le module de traitement 14 obtient une image de la mire 120. La Fig. 6 représente une image, dite image acquise, de la mire 120 acquise par le système d’imagerie 1 lors de l’étape 30. La Fig. 5 représente un modèle numérique de la mire 120 qui peut être considérée comme une image idéale de la mire 120 acquise de face à une distance prédéfinie par un système d’imagerie idéale ne déformant pas la mire 120. L’image de la mire 120 de la Fig. 6 est, quant à elle, acquise par un système d’imagerie réel, i.e. le système d’imagerie 1. La mire 120 de l’image acquise apparaît déformée. La mire 120 de l’image acquise apparaît en effet en perspective et légèrement floue par rapport à la mire 120 de l’image idéale.
Dans une étape 32, le module de traitement 14 obtient des paramètres intrinsèques (ou paramètres de calibration) du système d’imagerie 1. Dans un mode de réalisation, le système d’imagerie 1 est caractérisé par les paramètres intrinsèques suivants :
• une longueur focale Fc représentée sous forme de coordonnées x et y dans le repère de la grille de pixels du capteur d’images ;
• un point principal Cc correspondant à une intersection entre l’axe optique du système d’imagerie 1 et un plan des images acquises par le système d’imagerie. Ce point est là aussi représenté sous forme de coordonnées x et y dans le repère de la grille de pixels du capteur d’images ;
• un coefficient d’inclinaison ac (« skew coefficient » en terminologie anglo-saxonne) représentatif d’un angle entre les axes X et Y du repère de la grille de pixels du capteur d’images ;
• une distorsion Kc correspondant à un vecteur à cinq paramètres représentant des distorsions radiales et tangentielles du système d’imagerie 1.
D’autres paramètres intrinsèques pourraient toutefois être utilisés. Les paramètres intrinsèques sont soit connus du module de traitement 14, soit déterminés par le module de traitement 14 en utilisant la méthode décrite dans la page web (http://www.vision.caltech.edu/bouguetj/calib_doc/htmls/parameters.html) ou la méthode décrite dans le document « Heikki Ici, J. & Silvén, O. (1997) A Four-step Camera Calibration Procedure with Implicit Image Correction. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'97), San Juan, Puerto Rico, p. 1106-1112 ».
Dans une étape 33, le module de traitement 14 détermine des paramètres d’une transformation géométrique, dits paramètres extrinsèques, permettant de passer de la mire 120 dans l’image idéale à la mire 120 dans l’image acquise. Cette détermination comprend une détection des points particuliers (ou points d’intérêt) dans l’image acquise. La détermination des points particuliers dans l’image acquise est facilitée par la forme de la mire 120. En effet, chaque coin reliant quatre cases de la mire 120 constitue un point particulier facile à identifier. Dans un mode de réalisation, le module de traitement 14 applique une méthode décrite dans l’article «SURF : Speeded Up Robust Features, Bay, Tuytelaars, Van Gool, 2006 » ou une méthode décrite dans l’article « SUSurE : Speeded Up Surround Extrema Feature Detector and Descriptor for realtime time applications, Ebrahimi, Cuevas, 2008 » pour détecter les points particuliers dans l’image acquise. A l’issue de l’étape 33, le module de traitement 14 obtient des coordonnées dans l’image acquise de chaque point particulier détecté dans l’image acquise.
Chaque coordonnée dans l’image idéale de chaque point particulier de l’image idéale est connue du module de traitement 14.
La Fig. 7 représente la mire 120 dans l’image acquise dans laquelle ont été détectés des points particuliers. Dans la Fig. 7, les points particuliers sont entourés d’un cercle noir.
A partir des coordonnées des points particuliers dans l’image acquise et dans l’image idéale, le module de traitement 14 détermine les paramètres extrinsèques du système d’acquisition d’images 1.
Suite à l’obtention des coordonnées des points particuliers dans l’image acquise et dans l’image idéale, le module de traitement 14 met en correspondance les points particuliers de l’image idéale avec les points particuliers de l’image acquise.
Dans un mode de réalisation, on suppose que l’image acquise représente une mire peu déformée par rapport à la mire de l’image idéale. Par conséquent, pour un point particulier donné, les coordonnées dudit point particulier dans l’image acquise sont peu différentes des coordonnées dudit point particulier dans l’image idéale. Dans ce mode de réalisation, chaque point particulier de l’image acquise est mis en correspondance avec le point particulier de l’image idéale ayant les coordonnées les plus proches des coordonnées dudit point particulier de l’image acquise.
Dans un mode de réalisation particulièrement à la mire 120 de la Fig. 5, on prend en compte la forme de la mire 120 et notamment une position relative de chaque point particulier de la mire 120 par rapport aux autres points particuliers de la mire 120. On suppose de plus que la déformation subie par la mire 120 dans l’image acquise ne modifie pas les positions relatives des points particuliers. Ainsi, par exemple, un point particulier qui se trouve en z.ème position (z étant un entier naturel) dans une ligne de points particuliers dans l’image idéale et en z.ième position (/ étant un entier naturel) dans une colonne de points particuliers dans l’image idéale, se trouve toujours en z.ème position dans une ligne de points particuliers dans l’image acquise et en z.ième position dans un colonne de points particuliers dans l’image acquise. Connaissant ces positions relatives, il est très simple de mettre en correspondance les points particuliers de l’image idéale avec les points particuliers de l’image acquise.
Dans un mode de réalisation, lorsque des déformations importantes de la mire 120 de l’image acquise par rapport à la mire 120 de l’image idéale sont envisagées, chaque point particulier de la mire 120 est associé à un marqueur spécifique, tel qu’un code barre, dans son voisinage. En d’autres termes un marqueur spécifique placé à côté de chaque point particulier permet de distinguer ce point spécifique des autres points spécifiques. Il suffit alors de retrouver ce marqueur dans l’image acquise pour mettre en correspondance les points particuliers.
Suite à la mise en correspondance des points particuliers de l’image idéale avec ceux de l’image acquise, le module de traitement 14 calcule une transformation géométrique permettant de recaler les points particuliers de l’image idéale sur les points particuliers de l’image acquise. Pour ce faire, le module de traitement 14 calcule un modèle de déformation géométrique de la mire de la Fig. 6 (de l’image acquise), dite mire acquise, par rapport à la mire de la Fig. 5 (de l’image idéale), dite mire idéale. Un tel modèle de déformation géométrique peut être par exemple un modèle affine déterminant une application affine reliant des points particuliers de la mire acquise aux points particuliers de la mire idéale tel qu’une translation, une rotation ou une homothétie. Dans un espace à trois dimensions, dit espace 3D, une transformation affine peut être représentée par une matrice 3x3.
Dans un mode de réalisation, le module de traitement 14 calcule une combinaison de différents modèles avec une estimation locale de modèles de déformation. L’utilisation d’une telle combinaison de modèles permet de modéliser des déformations plus complexes qu’avec un seul modèle. Par exemple un modèle de déformation géométrique peut être une combinaison d’une translation, représentée par une matrice 3 x 3 T, et/ou d’une rotation, représentée par une matrice 3 x 3 R, et/ou d’une homothétie, représentée par une matrice 3 X 3 H. La transformation affine résultant d’au moins une translation et/ou une rotation et/ou une homothétie est représentée par la suite par une matrice 3 x 3 A.
Dans une étape 34, le module de traitement 14 obtient une image, dite image synthétique, de la mire 120 en appliquant à la mire 120 de l’image idéale, une transformation géométrique basée sur les paramètres extrinsèques trouvés lors de l’étape 33 (i.e. en appliquant à chaque pixel de l’image idéal par exemple la transformation géométrique représentée par la matrice 3 x 3 A) trouvés lors de l’étape 33) et une transformation géométrique basée sur les paramètres intrinsèques obtenus lors de l’étape 32.
La transformation géométrique basée sur les paramètres intrinsèques peut elle aussi se mettre sous forme d’une matrice 3x3 que nous appelons K par la suite.
(a b c\ d e f\ g h i/
Chaque coefficient de la matrice est obtenu à partir des paramètres intrinsèques.
• Les coefficients a et e sont calculés à partir de la longueur focale Fc et d’une taille de pixels sur le capteur d’images du système d’imagerie 1.
• Les coefficients c et f sont les coordonnées du point principal Cc.
• Le coefficient i est égal à « 1 ».
Dans un mode de réalisation, les coefficients b, d,g et h sont nuis.
Lors de l’étape 34, chaque pixel de l’image synthétique est obtenu en appliquant une opération matricielle à chaque pixel de l’image idéale en utilisant les matrices A et K.
Les traitements permettant d’obtenir l’image synthétique effectués lors de l’étape 34 correspondent à un recalage de la mire idéale sur la mire acquise. Cette opération de recalage est similaire à une projection des pixels de l’image idéale situés dans le plan de l’image idéale dans le plan des images acquises par le système d’imagerie 1, c’està-dire le plan du capteur d’images du système d’imagerie 1.
Dans une étape 35, le module de traitement 14 applique un traitement à chaque image, parmi les images acquise et synthétique, afin d’obtenir respectivement une image ΔΙ, dite image de gradient acquise, et une image ΔΟ, dite image de gradient synthétique. Le traitement appliqué à chaque image comprend une combinaison d’un calcul de gradient en chaque pixel de ladite image et d’un filtrage réducteur de bruit. Notons qu’un gradient en un pixel prend la forme d’un vecteur représenté par une direction du gradient et une amplitude. Les pixels d’une image situés à une position où il n’y a pas de gradient sont associés à un vecteur nul.
Dans un mode de réalisation de l’étape 35, dit mode avec pré-filtrage, le module de traitement 14 applique un filtre réducteur de bruit à l’image acquise et calcule l’image de gradient acquise ΔΙ à partir de l’image acquise filtrée. Il n’est pas nécessaire d’appliquer un filtrage à l’image synthétique puisque cette image est en principe sans bruit. Dans ce mode de réalisation, le filtre réducteur de bruit est par exemple un filtre bilatéral tel que décrit dans le document « Tomasi, C; Manduchi, R (1998). Bilateral filtering for gray and color images. Sixth International Conference on Computer Vision. Bombay, pp. 839--846 ».
L’image résultant de l’application d’un opérateur de gradient en chaque pixel de l’image synthétique peut générer des vecteurs de gradient entachés d’erreurs liés à une résolution de l’image idéale une fois projetée dans le plan de l’image acquise. Pour pallier cela, dans un mode de réalisation, dit mode avec post-filtrage, le module de traitement 14 calcule une première image de gradient intermédiaire en appliquant un opérateur de gradient en chaque pixel de l’image synthétique puis applique un filtre réducteur de bruit à l’image de gradient obtenue afin d’obtenir l’image de gradient synthétique ΔΟ. Dans ce mode de réalisation, le filtrage réducteur de bruit consiste à remplacer chaque vecteur gradient, dit vecteur gradient courant, de l’image synthétique par un vecteur gradient moyen calculé en utilisant les deux plus proches vecteurs gradients du vecteur gradient courant :
v1-1 + v* + vi+1 vfiit - 3 où V^ilt est le vecteur gradient moyen résultant du filtrage réducteur de bruit, V1 est le vecteur gradient courant et Vl_1 et Vl+1 sont les deux vecteurs gradients plus proches voisins du vecteur gradient courant V1.
La Fig. 8 représente schématiquement une application de la méthode de filtrage de bruit précédente à une image de gradient.
La partie gauche de la Fig. 8 représente une sous-partie de l’image synthétique correspondant à une portion d’anneau. Dans cette partie gauche, on aperçoit un contour d’anneau sur lequel sont disposés des vecteurs gradients. La partie droite de la Fig. 8 représente un détail de la partie gauche correspondant au coin en haut à gauche de la portion d’anneau représentée dans la partie gauche. Les vecteurs gradients gris clair sont les vecteurs gradients originaux obtenus après l’application de l’opérateur de gradient à l’image synthétique. Les vecteurs gradients gris foncé sont les vecteurs gradients obtenus après l’application du filtrage réducteur de bruit. Par exemple, dans l’image de gradient synthétique ΔΟ le vecteur gradient V^M en haut à gauche remplace le vecteur gradient V1.
Dans le mode avec post-filtrage, le module de traitement 14 calcule une seconde image de gradient intermédiaire en appliquant un opérateur de gradient en chaque pixel de l’image acquise puis applique un filtre réducteur de bruit à l’image de gradient obtenue afin d’obtenir l’image de gradient synthétique ΔΟ. Dans ce mode de réalisation, le filtrage réducteur de bruit est un filtre bilatéral.
La Fig. 9A représente une portion de la seconde image de gradient intermédiaire issue de l’image acquise avant filtrage réducteur de bruit.
La portion de la seconde image de gradient intermédiaire correspond à une case comprenant des portions d’anneau. On se rend compte qu’avant filtrage, des gradients sont identifiés dans toute l’image acquise.
La Fig. 9B représente une portion de la seconde image de gradient intermédiaire issue de l’image acquise après filtrage réducteur de bruit.
La portion de la seconde image de gradient intermédiaire de la Fig. 9B correspond à la portion de la Fig. 9A. On se rend compte qu’après filtrage, seuls des gradients situés sur les contours de portions d’anneau subsistent. Dans une étape 36, le module de traitement 14 estime la PSF du système d’imagerie 1 en utilisant l’image de gradient acquise ΔΙ et l’image de gradient synthétique ΔΟ.
Le module de traitement 14 détermine une PSF minimisant une fonction de coût /(h) comprenant un premier terme correspondant à une différence entre l’image de gradient acquise ΔΙ et un produit de convolution entre la PSF du système d’imagerie 1 à estimer et l’image de gradient synthétique JO.
La fonction de coût /(h) peut s’écrire de la manière suivante : f(h) = \\h * Δ0 — ΔΙ\\2 + Y\\h\\2 + β\\Ε\\γ où h est une matrice représentative de la PSF recherchée, ||. ||2 représente une norme L2au carré, ||. ||i représente une norme L1, * est un opérateur de convolution. Le terme y H/illi est un premier terme de régularisation que le module de traitement 14 utilise optionnellement pour accélérer la convergence de la minimisation. Le terme β HhJli est un deuxième terme de régularisation que le module de traitement 14 utilise optionnellement pour obtenir une PSF dérivable sur toute l’image, c’est-à-dire, ayant une forme lissée, γ et β sont des constantes prédéterminées. Dans un mode de réalisation, la constante y est déterminée en effectuant plusieurs minimisations sur une base d’images en faisant varier la constante y à chaque image de la base. A la fin de chaque minimisation, une information représentative d’un niveau de netteté de l’image obtenue par déconvolution par la PSF est calculée et on garde la constante y permettant d’obtenir le meilleur niveau de netteté. La constante β est obtenue de manière similaire.
Il existe diverses méthodes de minimisation connues applicables à la minimisation de la fonction de coût f (h).
Dans un mode de réalisation, la fonction de coût f(h) est minimisée par une méthode de gradient conjugué ou par une méthode des multiplicateurs de Lagrange. La PSF minimisant la fonction de coût f(h) est notée hmin.
La méthode décrite en relation avec la Fig. 3 permet de déterminer une PSF caractérisant le système d’imagerie 1. Toutefois cette PSF correspond à une position de la cible 120 dans le champ optique du système d’imagerie 1. Cette PSF serait valide pour un objet situé à cette position par rapport au système d’imagerie 1, mais serait moins efficace, voire inefficace pour un objet situé à une autre position. Pour caractériser le système d’imagerie 1 pour d’autres positions, dans un mode de réalisation, le procédé de la Fig. 3 est exécuté par le module de traitement 14 pour une pluralité de positions de la mire 120 dans le champ optique du système d’imagerie 1. On obtient alors une PSF pour chaque position différente de la mire 120.
Dans un mode de réalisation, la pluralité de positions est obtenue en faisant varier la distance Z£. Ce mode de réalisation permet de traiter des objets qui seraient plus ou moins éloignés du système d’imagerie 1.
Jusque-là, le procédé de la Fig. 3 a été appliqué sur toute l’image acquise. Dans ce cas, tout se passe comme si le module de traitement 14 obtenait lors de l’étape 30, une image acquise représentant une zone englobant intégralement la mire. Dans un mode de réalisation, dit premier mode de réalisation par zone, le procédé de la Fig. 3 comprend une étape 31 comprise entre l’étape 30 et l’étape 32. Au cours de l’étape 31, le module de traitement 14 obtient une zone de l’image acquise comprenant une portion de la mire 120. Suite à l’étape 31, tout se passe donc comme si le module de traitement 14 obtenait une image acquise représentant une zone englobant partiellement la mire. Cette zone peut par exemple être définie par un opérateur ou être prédéfinie en fonction de la forme de la mire. Par exemple, la zone de l’image acquise est une case de la mire 120 telle que représentée dans la Fig. 10A. Les étapes 33 d’obtention des paramètres extrinsèques, 34 de recalage, 35 de filtrage réducteur de bruit et 36 d’estimation de la PSF sont ensuite appliquées en remplaçant l’image acquise représentant une zone englobant intégralement la mire par une image acquise englobant partiellement la mire. Lors de l’étape 33, la mise en correspondance des points particuliers permet de retrouver dans l’image idéale, une zone correspondant à la zone de la mire représentée dans l’image acquise. C’est alors cette zone de l’image idéale qui est recalée sur la zone représentée dans l’image acquise pour former l’image synthétique et non l’image idéale entière. La Fig. 10A représente un exemple de zone de la mire 120 de l’image acquise correspondant à une case. La Fig. 10B représente une zone de la mire 120 de l’image synthétique correspondant à la zone définie dans l’image acquise.
Dans un autre mode de réalisation, dit deuxième mode de réalisation par zone, les étapes 30, 32, 33, 34 et 35 sont exécutées par le module de traitement 14 comme décrit ci-dessus en relation avec la Fig. 3. L’étape 31, n’est pas exécutée. Lors de l’étape 36, le module de traitement 14 obtient une zone de l’image de gradient acquise ΔΙ et une zone correspondante de l’image de gradient synthétique ΔΟ et estime la PSF du système d’imagerie 1 en utilisant ces zones. Comme dans le mode de réalisation précédent, cette zone peut par exemple être définie par un opérateur ou être prédéfinie en fonction de la forme de la mire. Par exemple, la zone de l’image de gradient acquise ΔΙ correspond à une case de la mire 120 telle que représentée dans la Fig. 9B.
La PSF obtenue lors de l’étape 36 est donc valide pour la position dans le champ optique du système d’imagerie 1 de la zone obtenue lors de l’étape 31 ou lors de l’étape 36. La pluralité de positions peut alors être augmentée en faisant varier la distance Z; et en définissant une pluralité de zones différentes dans l’image acquise dans le premier mode de réalisation par zone ou dans l’image de gradient acquise ΔΙ dans le deuxième mode de réalisation par zone. Ainsi, on obtient une pluralité d’images de la mire (120), chaque image représentant une zone englobant intégralement ou partiellement la mire (120), chaque zone étant positionnée à une position différente dans le champ optique du système d’imagerie 1. Pour chaque image obtenue, le module de traitement 14 applique le procédé de la Fig. 3 afin d’obtenir une PSF correspondant à la position dans le champ optique du système d’imagerie de la zone correspondant à ladite image. Ce mode de réalisation est particulièrement intéressant lorsque le système d’imagerie 1 provoque des déformations variables en fonction d’une position dans un plan parallèle au plan du capteur d’images du système d’imagerie 1.
La Fig· 4 illustre schématiquement un exemple de procédé d’amélioration d’images comprenant le procédé selon l’invention.
Le procédé de la Fig. 4 est exécuté par le module de traitement 14 à chaque acquisition d’une image d’un objet par le système d’imagerie 1.
Dans une étape 41, qu’on pourrait qualifier d’étape de configuration, préalablement à l’acquisition d’une image d’un objet par le système d’imagerie 1, le module de traitement 14 exécute le procédé décrit en relation avec la Fig. 3. Lors de cette exécution, le module de traitement 14 obtient une pluralité de PSF caractérisant le système d’imagerie 1.
Dans une étape 42, le module de traitement 14 obtient une image d’un objet acquise par le système d’imagerie 1. Lors de l’étape 42, le module de traitement 14 obtient une position de l’objet par rapport au système d’imagerie 1. Par exemple, la position de l’objet est donnée par le module de télémétrie 15.
Dans une étape 43, le module de traitement 14 applique une convolution inverse (Le. une déconvolution) à l’image de l’objet obtenue par une PSF de la pluralité de PSF correspondant à la position de l’objet par rapport au système d’imagerie 1. Dans un mode de réalisation, le module de traitement 14 applique une déconvolution de Wiener à l’image de l’objet.
Suite à l’étape 43, le module de traitement 14 se met en attente d’une nouvelle image d’un objet acquise par le système d’imagerie 1 et retourne à l’étape 42 dès qu’il obtient une nouvelle image.
Les Figs. 11A et 12A représentent des images d’un même objet acquises par le 5 système d’imagerie 1, l’objet étant situé à des positions différentes par rapport au système d’imagerie 1.
L’objet est un document comprenant du texte et des dessins. Dans l’image de la Fig.
11 A, l’objet apparaît plus proche que dans l’image de la Fig.
12A. Dans chaque image, l’objet apparaît flou (légèrement flou dans l’image de la Fig.
11A et très flou 10 dans l’image de la Fig.
12A). L’image de la Fig.
11B (respectivement 12B) correspond à un résultat de l’étape 43 appliqué à l’image de la Fig.
11A (respectivement 12A). Puisque les deux objets ne sont pas à la même position par rapport au système d’imagerie 1, deux PSF différentes ont été utilisées, chacune correspondant à une position dudit objet.

Claims (13)

  1. REVENDICATIONS
    1) Procédé de détermination d’une fonction d’étalement de point d’un système d’imagerie (1), caractérisé en ce qu’il comprend :
    obtenir (30, 31) une image d’une mire (120), dite image acquise, représentant une zone englobant intégralement ou partiellement la mire, ladite zone étant positionnée dans un champ optique du système d’imagerie ;
    obtenir (32) des paramètres intrinsèques du système d’imagerie ;
    déterminer (33) des paramètres d’une transformation géométrique, dits paramètres extrinsèques, permettant de passer d’une zone d’un modèle numérique de la mire à la zone de la mire représentée dans l’image acquise, la zone du modèle numérique de la mire correspondant à la zone de la mire représentée dans l’image acquise ;
    obtenir (34) une image, dite image synthétique, de la mire en appliquant à la zone du modèle numérique de la mire, une transformation géométrique basée sur les paramètres extrinsèques et une transformation géométrique basée sur les paramètres intrinsèques afin de recaler la zone du modèle numérique de la mire sur la zone de la mire représentée dans l’image acquise ;
    appliquer (35) un traitement à chaque image, parmi les images acquise et synthétique, afin d’obtenir respectivement une image, dite image de gradient acquise, et une image, dite image de gradient synthétique, le traitement appliqué à chaque image comprenant un calcul de gradient en chaque pixel de ladite image et un filtrage réducteur de bruit pour au moins l’image acquise ; et, estimer (36) la fonction d’étalement de point en utilisant l’image de gradient acquise et l’image de gradient synthétique.
  2. 2) Procédé selon la revendication 1, caractérisé en ce que les paramètres intrinsèques comprennent : une longueur focale et un point principal correspondant à une intersection entre un axe optique du système d’imagerie et un plan des images acquises par le système d’imagerie.
  3. 3) Procédé selon la revendication 1 ou 2, caractérisé en ce que, lors de l’application du traitement sur une image acquise, le calcul du gradient en chaque pixel de ladite image acquise se fait avant ou après l’application du filtrage réducteur de bruit à ladite image acquise et lors de l’application du traitement sur une image synthétique, le calcul du gradient en chaque pixel de ladite image synthétique se fait avant l’application du filtrage réducteur de bruit à ladite image synthétique.
  4. 4) Procédé selon la revendication 3, caractérisé en ce que, lors de l’application du traitement à une image synthétique, suite au calcul du gradient en chaque pixel de ladite image synthétique, le gradient en un pixel prenant la forme d’un vecteur, dit vecteur gradient, représenté par une direction du gradient et une amplitude, le filtrage réducteur de bruit consiste à remplacer chaque vecteur gradient, dit vecteur gradient courant, de l’image synthétique obtenue suite au calcul du gradient en chaque pixel de ladite image par un vecteur gradient moyen calculé en utilisant les deux plus proches vecteurs gradients du vecteur gradient courant.
  5. 5) Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’estimation de la fonction d’étalement de point comprend :
    déterminer la fonction d’étalement de point minimisant une fonction de coût comprenant un premier terme correspondant à une différence entre l’image de gradient acquise et un produit de convolution entre la fonction d’étalement de point à estimer et l’image de gradient synthétique.
  6. 6) Procédé selon la revendication 5, caractérisé en ce que la fonction de coût à minimiser s’écrit de la manière suivante :
    f(h) = \\h * δο — δι\\1 + yWhWl + β\\β\\1 où f (II) est la fonction de coût à minimiser, h est une matrice représentative de la fonction d’étalement de point recherchée, JO est l’image de gradient synthétique, Δ1 est l’image de gradient acquise, ||. ||2 représente une norme L2au carré, ||. ||i représente une norme L1, * est un opérateur de convolution, y||/i||2 est un premier terme de régularisation utilisé pour accélérer la minimisation, β ||/i|| t est un deuxième terme de régularisation utilisé pour obtenir une fonction d’étalement de point dérivable sur toute une image acquise par le système d’imagerie, y et /? sont des constantes prédéterminées. 7
  7. 7) Procédé selon la revendication 1, caractérisé en ce que, lorsque la zone de la mire représentée dans l’image acquise englobe intégralement la mire, lors de l’estimation de la fonction d’étalement de point, le procédé comprend obtenir une sous21 partie de l’image de gradient acquise correspondant à une portion prédéfinie de la mire et une sous-partie correspondante à ladite sous-partie dans l’image de gradient synthétique, l’estimation de la fonction d’étalement de point se faisant en utilisant exclusivement des pixels contenus dans ladite sous-partie de l’image de gradient acquise et dans la sous-partie correspondante à ladite sous-partie dans l’image de gradient synthétique.
  8. 8) Procédé de détermination d’une pluralité de fonctions d’étalement de point d’un système d’imagerie (1), caractérisé en ce qu’il comprend :
    obtenir une pluralité d’images d’une mire (120), chaque image représentant une zone englobant partiellement la mire, chaque zone étant positionnée à une position différente dans un champ optique du système d’imagerie ; et, pour chaque image obtenue, appliquer le procédé selon l’une quelconque des revendications 1 à 6 afin d’obtenir une fonction d’étalement de point correspondant à la position de la zone dans le champ optique du système d’imagerie correspondant à ladite image.
  9. 9) Procédé de détermination d’une pluralité de fonctions d’étalement de point d’un système d’imagerie (1), caractérisé en ce qu’il comprend :
    obtenir une image d’une mire (120) représentant intégralement la mire, la mire étant positionnée dans un champ optique du système d’imagerie ;
    obtenir une pluralité de sous-parties de l’image de gradient acquise correspondant chacune à une portion prédéfinie différente de la mire ;
    pour chaque sous-partie, appliquer le procédé selon la revendication 7 afin d’obtenir une fonction d’étalement de point correspondant à la portion prédéfinie correspondante de la mire.
  10. 10) Procédé d’amélioration d’une image acquise par un système d’imagerie, ladite image représentant un objet positionné dans un champ optique du système d’imagerie, caractérisé en ce qu’il comprend :
    obtenir (41) au moins une fonction d’étalement de point du système d’imagerie correspondant à une position de l’objet dans le champ optique du système d’imagerie en appliquant le procédé selon l’une quelconque des revendications 1 à 7 ; puis, pour chaque fonction d’étalement de point, appliquer (43) une convolution inverse entre la fonction d’étalement de point ainsi obtenue et une zone de l’image acquise par le système d’imagerie correspondant à ladite fonction d’étalement de point.
  11. 11) Dispositif de détermination d’une fonction d’étalement de point d’un système d’imagerie (1), caractérisé en ce qu’il comprend :
    des moyens d’obtention (30, 31) pour obtenir une image d’une mire (120), dite image acquise, représentant une zone englobant intégralement ou partiellement la mire, ladite zone étant positionnée dans un champ optique du système d’imagerie ;
    des moyens d’obtention (32) pour obtenir des paramètres intrinsèques du système d’imagerie ;
    des moyens de détermination (33) pour déterminer des paramètres d’une transformation géométrique, dits paramètres extrinsèques, permettant de passer d’une zone d’un modèle numérique de la mire à la zone de la mire représentée dans l’image acquise, la zone du modèle numérique de la mire correspondant à la zone de la mire représentée dans l’image acquise ;
    des moyens d’obtention (34) pour obtenir une image, dite image synthétique, de la mire en appliquant à la zone du modèle numérique de la mire, une transformation géométrique basée sur les paramètres extrinsèques et une transformation géométrique basée sur les paramètres intrinsèques afin de recaler la zone du modèle numérique de la mire sur la zone de la mire représentée dans l’image acquise ;
    des moyens d’application (35) pour appliquer un traitement à chaque image, parmi les images acquise et synthétique, afin d’obtenir respectivement une image, dite image de gradient acquise, et une image, dite image de gradient synthétique, le traitement appliqué à chaque image comprenant un calcul de gradient en chaque pixel de ladite image et, pour au moins l’image acquise, un filtrage réducteur de bruit ; et, des moyens d’estimation (36) pour estimer la fonction d’étalement de point en utilisant l’image de gradient acquise et l’image de gradient synthétique.
  12. 12) Programme d’ordinateur, caractérisé en ce qu’il comprend des instructions pour mettre en œuvre, par un dispositif (14), le procédé selon l’une quelconque des revendications 1 à 10, lorsque ledit programme est exécuté par un processeur (141) dudit dispositif.
  13. 13) Moyens de stockage, caractérisés en ce qu’ils stockent un programme d’ordinateur comprenant des instructions pour mettre en œuvre, par un dispositif (14), le procédé selon l’une quelconque des revendications 1 à 10, lorsque ledit programme est exécuté par un processeur (141) dudit dispositif.
FR1860447A 2018-11-13 2018-11-13 Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie Active FR3088468B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1860447A FR3088468B1 (fr) 2018-11-13 2018-11-13 Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1860447A FR3088468B1 (fr) 2018-11-13 2018-11-13 Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie

Publications (2)

Publication Number Publication Date
FR3088468A1 true FR3088468A1 (fr) 2020-05-15
FR3088468B1 FR3088468B1 (fr) 2021-01-01

Family

ID=65685730

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1860447A Active FR3088468B1 (fr) 2018-11-13 2018-11-13 Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie

Country Status (1)

Country Link
FR (1) FR3088468B1 (fr)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160080737A1 (en) 2013-09-30 2016-03-17 Nikon Corporation Point spread function estimation of optics blur

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160080737A1 (en) 2013-09-30 2016-03-17 Nikon Corporation Point spread function estimation of optics blur

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
BAY; TUYTELAARS; VAN GOOL, SURF: SPEEDED UP ROBUST FEATURES, 2006
EBRAHIMI; CUEVAS, SUSURE : SPEEDED UP SURROUND EXTREMA FEATURE DETECTOR AND DESCRIPTOR FOR REALTIME TIME APPLICATIONS, 2008
ERIC KEE ET AL: "Modeling and removing spatially-varying optical blur", COMPUTATIONAL PHOTOGRAPHY (ICCP), 2011 IEEE INTERNATIONAL CONFERENCE ON, IEEE, 8 April 2011 (2011-04-08), pages 1 - 8, XP031943265, ISBN: 978-1-61284-707-8, DOI: 10.1109/ICCPHOT.2011.5753120 *
HEIKKILCI, J &; SILVÉN, O.: "A Four-step Camera Calibration Procédure with Implicit Image Correction", IEEE COMPUTER SOCIETY CONFÉRENCE ON COMPUTER VISION AND PATTERN RÉCOGNITION (CVPR'97), 1997, pages 1106 - 1112, XP010237491, DOI: doi:10.1109/CVPR.1997.609468
MANNAN FAHIM ET AL: "Blur Calibration for Depth from Defocus", 2016 13TH CONFERENCE ON COMPUTER AND ROBOT VISION (CRV), IEEE, 1 June 2016 (2016-06-01), pages 281 - 288, XP033033015, DOI: 10.1109/CRV.2016.62 *
NEEL JOSHI ET AL: "PSF estimation using sharp edge prediction", COMPUTER VISION AND PATTERN RECOGNITION, 2008. CVPR 2008. IEEE CONFERENCE ON, 1 June 2008 (2008-06-01), Piscataway, NJ, USA, pages 1 - 8, XP055598860, ISBN: 978-1-4244-2242-5, DOI: 10.1109/CVPR.2008.4587834 *
TOMASI, C; MANDUCHI, R: "Bilatéral filteringfor gray and color images", SIXTH INTERNATIONAL CONFÉRENCE ON COMPUTER VISION, 1998, pages 839 - 846, XP000926378

Also Published As

Publication number Publication date
FR3088468B1 (fr) 2021-01-01

Similar Documents

Publication Publication Date Title
Rim et al. Real-world blur dataset for learning and benchmarking deblurring algorithms
US10762606B2 (en) Image processing apparatus and method for generating high quality image
FR3071344B1 (fr) Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie
Joshi et al. PSF estimation using sharp edge prediction
EP1523730B1 (fr) Procede et systeme pour calculer une image transformee a partir d'une image numerique
Wanner et al. Generating EPI representations of 4D light fields with a single lens focused plenoptic camera
Whyte et al. Non-uniform deblurring for shaken images
US8582820B2 (en) Coded aperture camera with adaptive image processing
EP2174289B1 (fr) Procede de traitement d'objet numerique et systeme associe.
Cho et al. Registration Based Non‐uniform Motion Deblurring
EP2465255B1 (fr) Système et procédé de capture d'images avec deux modes de fonctionnement
EP2866202A2 (fr) Traitement de champs lumineux par transformation en espace d'échelle et de profondeur
US20130271616A1 (en) Method of analyzing motion blur using double discrete wavelet transform
FR3060180A1 (fr) Procede de traitement d’image numerique
Haro et al. Photographing paintings by image fusion
US20190107627A1 (en) Optoelectronic Systems
Shyam et al. Lightweight hdr camera isp for robust perception in dynamic illumination conditions via fourier adversarial networks
FR3088468A1 (fr) Procede de determination d'une fonction d'etalement de point d'un systeme d'imagerie
FR3047832B1 (fr) Procede de determination d'une valeur de couleur d'un objet dans une image
FR3024539A1 (fr) Procede d'estimation de la distance d'un objet a un systeme d'imagerie
Takeuchi et al. Low-light scene color imaging based on luminance estimation from near-infrared flash image
EP2590137B1 (fr) Procède et dispositif pour optimiser la quantité d'information contenue dans une image traitée
WO2019081587A1 (fr) Procede de restauration d'images
Moisan Modeling and image processing
van Zwanenberg et al. Camera system performance derived from natural scenes

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200515

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6