FR2986641A1 - Procede de detection d'un objet et systeme correspondant - Google Patents
Procede de detection d'un objet et systeme correspondant Download PDFInfo
- Publication number
- FR2986641A1 FR2986641A1 FR1257675A FR1257675A FR2986641A1 FR 2986641 A1 FR2986641 A1 FR 2986641A1 FR 1257675 A FR1257675 A FR 1257675A FR 1257675 A FR1257675 A FR 1257675A FR 2986641 A1 FR2986641 A1 FR 2986641A1
- Authority
- FR
- France
- Prior art keywords
- image
- histograms
- histogram
- parts
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000009466 transformation Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 15
- 238000010606 normalization Methods 0.000 claims description 7
- 230000001131 transforming effect Effects 0.000 claims description 5
- 238000009826 distribution Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 3
- 238000003786 synthesis reaction Methods 0.000 description 3
- 241000405217 Viola <butterfly> Species 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000011282 treatment Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10141—Special mode during image acquisition
- G06T2207/10144—Varying exposure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
L'invention concerne un procédé de détection d'un objet d'une image, l'objet comprenant au moins une première partie et au moins une deuxième partie, comprenant les étapes de : - capture d'images (20 à 24) comprenant l'objet, chaque image ayant une dynamique associée particulière obtenue par le réglage d'un paramètre de capture, - détection d'au moins un premier ensemble de premières parties (201, 211, 221, 231, 241) et d'au moins un deuxième ensemble de deuxièmes d'objet (202, 212, 222, 232, 242) sur ladite pluralité d'images, - sélection d'une première partie d'objet (231) et d'une deuxième partie d'objet (202) en fonction d'histogrammes associés à chaque première et deuxième parties d'objet détectées, - reconstruction d'une image représentant l'objet à partir des première et deuxième parties d'objet sélectionnées. L'invention concerne également le dispositif de détection correspondant.
Description
PROCEDE DE DETECTION D'UN OBJET ET SYSTEME CORRESPONDANT 1. Domaine de l'invention. L'invention se rapporte au domaine de la détection d'un objet dans une image et plus particulièrement à la reconstruction d'un objet à partir de parties formant l'objet, par exemple un visage à partir de deux demi-visages. 2. Etat de l'art. Selon l'état de la technique, il est connu plusieurs méthodes de détection et/ou de reconnaissance d'objets dans une image ou dans une séquence vidéo comprenant plusieurs images. Il est par exemple connu de détecter un objet dans une image en utilisant une technique d'apprentissage automatique (en anglais « machine learning»), largement utilisée pour de nombreuses applications de détection et de classification en vision par ordinateur, par exemple pour la détection de visages dans les images ou vidéos. Selon cette technique, l'image contenant l'objet à détecter est comparée à un grand nombre d'images d'une base de connaissance comprenant un large ensemble d'images représentant l'objet à détecter (dites images positives) et à un grand nombre d'images d'une base de connaissance comprenant un large ensemble d'images ne représentant pas l'objet à détecter (dites aussi images négatives). A partir de cette comparaison, des attributs discriminants sont calculés pour l'image traitée, ces attributs étant choisis parmi une famille de descripteurs d'images ou de régions de l'image traitée. Un critère associant des plages de valeurs de ces attributs discriminants à la catégorie des images représentant l'objet est déterminé hors-ligne par un algorithme d'apprentissage automatique, par exemple l'algorithme AdaBoost. Si, sur l'image traitée, ce critère est satisfait, alors l'image traitée est interprétée comme étant une image dont le contenu est représentatif de l'objet. Dans le cas contraire, l'image traitée est associée à une image de la base de connaissance comprenant les images négatives et l'image traitée est interprétée comme n'étant pas une image dont le contenu est représentatif de l'objet.
Lorsque l'éclairage de l'objet n'est pas uniforme, c'est-à-dire lorsqu'une partie de l'objet se trouve surexposée ou sous-exposée, il s'avère difficile de détecter et/ou de reconnaître l'objet selon les méthodes connues.
Par exemple, en se référant à la technique d'apprentissage automatique mentionnée ci-dessus, pour reconnaitre un objet dont une partie est surexposée ou sous-exposée, il faudrait que la base d'images à laquelle est comparée l'image à traiter contiennent des images de l'objet selon toutes les conditions d'éclairage possibles, ce qui s'avère quasiment impossible, la quantité de données à collecter étant alors extrêmement importante et les temps de comparaison entre l'image à traiter et la collection d'images positives et négatives extrêmement long. 3. Résumé de l'invention. L'invention a pour but de pallier au moins un de ces inconvénients de l'art antérieur. Plus particulièrement, l'invention a notamment pour objectif de reconstruire un objet avec un éclairage uniforme à partir de plusieurs parties 15 d'objets dont une au moins est surexposée ou sous-exposée. L'invention concerne un procédé de détection d'un objet d'une image, l'objet comprenant au moins une première partie d'objet et au moins une deuxième partie d'objet, le procédé comprenant les étapes de : - capture d'une pluralité d'images comprenant l'objet, chaque image de 20 la pluralité ayant une dynamique associée particulière obtenue par le réglage d'un paramètre de capture, - détection d'au moins un premier ensemble de premières parties d'objet et d'au moins un deuxième ensemble de deuxièmes parties d'objet sur la pluralité d'images, 25 - sélection d'une première partie d'objet dans le au moins un premier ensemble et d'une deuxième partie d'objet dans le au moins un deuxième ensemble en fonction d'histogrammes associés à chaque première et deuxième parties d'objet détectée, - reconstruction d'une image représentant l'objet à partir de la au moins 30 une première partie d'objet sélectionnée et de la au moins une deuxième partie d'objet sélectionnée. Avantageusement, la reconstruction de l'image représentant l'objet comprend une étape de transformation d'au moins un des histogrammes associés aux première et deuxième parties d'objet 35 sélectionnées.
Selon une caractéristique particulière, la transformation correspond à une égalisation des histogrammes associés aux première et deuxième parties d'objet sélectionnées. Selon une caractéristique spécifique, l'égalisation est réalisée en prenant comme référence l'histogramme ayant la plus grande variance parmi les histogrammes associés aux première et deuxième parties d'objet sélectionnées. De manière avantageuse, la transformation correspond à une normalisation d'au moins un des histogrammes associés aux première et deuxième parties d'objet sélectionnées. Selon une autre caractéristique, le paramètre de capture appartient à un ensemble de paramètres comprenant : - durée d'exposition ; et - ouverture relative.
Avantageusement, la première partie d'objet sélectionnée correspond à la première partie d'objet du premier ensemble dont l'histogramme associé possède la plus grande variance et la deuxième partie d'objet sélectionnée correspond à la deuxième partie d'objet du deuxième ensemble dont l'histogramme associé possède la plus grande variance.
Selon une caractéristique particulière, la première partie d'objet sélectionnée correspond à la première partie d'objet du premier ensemble dont l'histogramme associé est le mieux centré et la deuxième partie d'objet sélectionnée correspond à la deuxième partie d'objet du deuxième ensemble dont l'histogramme associé est le mieux centré.
Selon une autre caractéristique, le procédé comprend une étape de vérification de la cohérence spatiale d'une première boîte englobante comprenant une première partie d'objet détectée et d'une deuxième boîte englobante comprenant une deuxième partie d'objet détectée. L'invention concerne également une unité de traitement configurée pour la détection d'un objet dans une image, l'objet comprenant au moins une première partie d'objet et au moins une deuxième partie d'objet, l'unité comprenant : - des moyens de capture d'une pluralité d'images comprenant l'objet, chaque image de la pluralité ayant une dynamique associée particulière obtenue par le réglage d'un paramètre de capture ; - des moyens de détection d'au moins un premier ensemble de premières parties d'objet et d'au moins un deuxième ensemble de deuxièmes parties d'objet sur la pluralité d'images, - des moyens de sélection d'une première partie d'objet dans le au moins un premier ensemble et d'une deuxième partie d'objet dans le au moins un deuxième ensemble en fonction d'histogrammes associés à chaque première et deuxième parties d'objet détectée, - des moyens de reconstruction d'une image représentant l'objet à partir de la au moins une première partie d'objet sélectionnée et de la au moins une deuxième partie d'objet sélectionnée. Selon une caractéristique particulière, l'unité de traitement comprend en outre des moyens de transformation d'au moins un des histogrammes associés aux première et deuxième parties d'objet sélectionnées. 4. Liste des figures. L'invention sera mieux comprise, et d'autres particularités et avantages apparaîtront à la lecture de la description qui va suivre, la description faisant référence aux dessins annexés parmi lesquels : - la figure 1 illustre une image 1 représentant un objet dont une première partie est surexposée et une deuxième partie sous-exposée, selon un mode de réalisation particulier de l'invention ; - la figure 2 illustre une pluralité de représentations de l'objet de la figure 1 acquises selon différents paramètres de capture, selon un mode de réalisation particulier de l'invention ; - les figures 3A à 3C illustrent différents histogrammes associées à différentes représentations de parties de l'objet de la figure 1, selon un mode de réalisation particulier de l'invention ; - les figures 4A et 4B illustrent des histogrammes associés à différentes représentations de parties de l'objet de la figure 1 et la figure 4C illustre l'histogramme de la figure 4B auquel a été appliquée une transformation, selon un mode de réalisation particulier de l'invention ; - la figure 5 illustre schématiquement la structure d'un système pour la mise en oeuvre de l'invention, selon un mode de réalisation particulier de l'invention ; et - la figure 6 illustre un procédé de détection d'un objet de la figure 1 mis en oeuvre dans un système de la figure 5, selon un mode de réalisation particulier de l'invention. 5. Description détaillée de modes de réalisation de l'invention. La figure 1 illustre une image représentant un objet 1, à savoir un visage, comprenant deux parties 11 et 12 qui le composent. La première partie 11 du visage (correspondant par exemple à un premier demi-visage, en l'occurrence le demi-visage gauche) est surexposée, c'est-à-dire que la première partie 11 manque de détail dans les hautes lumières, ou dit autrement, l'histogramme associé à la première partie 11 est décalé à droite. La deuxième partie 12 du visage (correspondant par exemple à un deuxième demi-visage, en l'occurrence le demi-visage droit) est sous-exposée, c'est-à- dire que la deuxième partie 11 manque de détail dans les ombres, ou dit autrement, l'histogramme associé à la deuxième partie 12 est décalé à gauche. Cela arrive par exemple lorsque le visage est éclairé latéralement par une source de lumière, par exemple la fenêtre d'une pièce. Selon l'exemple de la figure 1, le visage 1 est éclairée sur sa gauche, la première partie gauche étant alors fortement éclairée et faisant de l'ombre à la deuxième partie droite qui est sombre. Ce cas de figure est particulièrement lorsqu'on cherche à détecter la présence d'un visage dans une image ou dans une vidée par toute méthode de traitement d'image ad hoc, la disparité de l'éclairage du visage réduisant fortement la reconnaissance du visage selon les méthodes de détection et de reconnaissance traditionnelles. Bien entendu, le visage illustré en figure 1 n'est qu'un exemple d'objet à détecter et l'invention ne se limite pas à la détection ou à la reconnaissance de visage, mais s'étend à la détection ou à la reconnaissance de tout type d'objet, mobile ou immobile dans une séquence vidéo, par exemple une voiture, un édifice tel qu'un immeuble ou une oeuvre architecturale, le corps d'une personne ou d'un animal, etc. De la même manière, la composition de l'objet ne se limite pas à deux parties mais s'étend à tout nombre de parties, par exemple 4, 6, 8 ou 10 parties, selon par exemple le type et la taille de l'objet et/ou encore selon le nombre de sources d'éclairage de l'objet. Pour reprendre l'exemple de la 2 9 8664 1 6 figure 1, à savoir le visage 1, ce dernier peut comprendre par exemple 4 parties, par exemple lorsqu'une première source de lumière (par exemple une source de lumière directive de type spot) éclaire le visage de bas en haut à droite et qu'une deuxième source de lumière éclaire le visage de haut 5 en bas à gauche. Ainsi, une première partie inférieure droite (égale à environ un premier quart du visage) sera surexposée, une deuxième partie supérieure droite (égale à environ un deuxième quart du visage) sera sous-exposée, une troisième partie inférieure gauche (égale à environ un troisième quart du visage) sera sous-exposée et une quatrième partie 10 supérieure gauche (égale à environ un quatrième quart du visage) sera surexposée. Le reste de la description, et notamment les parties relatives aux descriptions des figures 2, 3A à 3C, 4A à 4C, 5 et 6, fera référence à l'exemple de mise en particulier de la figure 1, à savoir un objet (notamment 15 un visage) comprenant deux parties, sans toutefois s'y limiter d'une aucune manière. La figure 2 illustre une pluralité de représentations de l'objet 1 de la figure 1 acquises selon différents paramètres de capture, selon un mode 20 de réalisation particulier et non limitatif de l'invention. La figure 2 comprend 5 illustrations schématiques de l'objet 1 représenté dans 5 images 20, 21, 22, 23 et 24. Les images 20 à 24 sont capturées à l'aide d'un dispositif d'acquisition tel qu'une webcam, une caméra vidéo ou un appareil photo numérique. Chaque image 20 à 24 est capturée avec un réglage spécifique 25 d'un ou plusieurs paramètre de capture du dispositif d'acquisition, tels que la durée d'exposition du capteur et/ou l'ouverture relative de l'objectif, de manière à obtenir une dynamique particulière associée à chaque image 20 à 24. La dynamique associée à une image correspond par exemple à la 30 différence entre la valeur d'intensité lumineuse maximale et la valeur d'intensité lumineuse minimale associées aux pixels de l'image ou au rapport de la valeur d'intensité lumineuse maximale et de la valeur d'intensité lumineuse minimale associées aux pixels de l'image. Pour une image codée sur 24 bits par exemple (8 bits pour chaque couleur, par exemple rouge (R), 35 vert (G) et bleu (B)), l'intensité lumineuse associée à un pixel de l'image peut prendre toute valeur comprise entre 0 et 255. Pour une image codée sur 30 bits par exemple (10 bits par couleur), l'intensité lumineuse associée à un pixel de l'image peut prendre toute valeur comprise entre 0 et 1023. En d'autres termes, la dynamique associée à l'image correspond à la variance de l'histogramme associé à l'image, l'histogramme d'une image représentant le nombre de pixels en fonction du niveau de gris (ou de l'intensité lumineuse) (dans une image codée sur 8 bits par couleur, il y a 256 niveaux de gris (ou niveaux d'intensité lumineuse) allant de 0 à 255 ou dans une image codée sur 10 bits par couleur, il y a 1024 niveaux de gris allant de 0 à 1023), ou autrement dit, l'histogramme d'une image correspond à la fonction qui associe à chaque valeur de niveau de gris (ou d'intensité lumineuse) le nombre de pixels dans l'image ayant cette valeur. L'image 22 correspond avantageusement à l'image de référence acquise avec un paramètre de capture de référence, c'est-à-dire avec une durée d'ouverture de référence et/ou une ouverture relative de référence. L'objet 1 compris dans l'image 22 comprend une première partie 221 surexposée et une deuxième partie 222 sous-exposée. L'image 21 est une capture de l'objet 1 avec un paramètre de capture différent de celui de l'image 22, à savoir avec une durée d'ouverture supérieure à la durée d'ouverture de référence et/ou une ouverture relative supérieure à l'ouverture relative de référence. La première partie 211 et la deuxième partie 212 de l'objet 1 de l'image 21 sont ainsi globalement plus claires que respectivement la première partie 221 et la deuxième partie 222 de l'objet 1 de l'image 22. Cela revient à dire que l'histogramme associé à l'image 21 est décalé plus vers la gauche (vers le niveau de gris 0) que l'histogramme associé à l'image 22.
L'image 20 est une capture de l'objet 1 avec un paramètre de capture différent de ceux des images 21 et 22, à savoir avec une durée d'ouverture supérieure à la durée d'ouverture de l'image 21 et/ou une ouverture relative supérieure à l'ouverture relative de l'image 21. La première partie 201 et la deuxième partie 202 de l'objet 1 de l'image 20 sont ainsi globalement plus claires que respectivement la première partie 211 et la deuxième partie 212 de l'objet 1 de l'image 21. Cela revient à dire que l'histogramme associé à l'image 20 est décalé plus vers la gauche (vers le niveau de gris 0) que l'histogramme associé à l'image 21. L'image 23 est une capture de l'objet 1 avec un paramètre de capture différent de celui des images 20 à 22, à savoir avec une durée d'ouverture inférieure à la durée d'ouverture de référence et/ou une ouverture relative inférieure à l'ouverture relative de référence. La première partie 231 et la deuxième partie 232 de l'objet 1 de l'image 23 sont ainsi globalement plus foncées que respectivement la première partie 221 et la deuxième partie 222 de l'objet 1 de l'image 22. Cela revient à dire que l'histogramme associé à l'image 23 est décalé plus vers la droite (vers par exemple le niveau de gris 255 ou 1023 selon le codage utilisé) que l'histogramme associé à l'image 22. L'image 24 est une capture de l'objet 1 avec un paramètre de capture différent de celui des images 20 à 23, à savoir avec une durée d'ouverture inférieure à la durée d'ouverture de l'image 23 et/ou une ouverture relative inférieure à l'ouverture relative de l'image 23. La première partie 241 et la deuxième partie 242 de l'objet 1 de l'image 24 sont ainsi globalement plus foncées que respectivement la première partie 231 et la deuxième partie 232 de l'objet 1 de l'image 23. Cela revient à dire que l'histogramme associé à l'image 24 est décalé plus vers la droite (vers par exemple le niveau de gris 255 ou 1023 selon le codage utilisé) que l'histogramme associé à l'image 23. Les premières et deuxièmes parties d'objet présentes sur les images 20 à 24 ainsi capturées sont recherchées selon toutes méthodes de détection connues de l'homme du métier. Un exemple de méthode de détection appliquée à chacune des images 20 à 24 est la méthode dite de Viola et Jones (« Robust Real-time Object Detection », publié dans « International Journal of Computer Vision » le 13 juillet 2001). Selon cette méthode, un grand nombre de caractéristiques sont calculées et associées à des rectangles de l'image (l'image étant décomposée en rectangles de par exemple 24x24 pixels), ces caractéristiques calculées étant comparées aux caractéristiques d'un objet (par exemple un visage) à l'aide de classifieurs, les classifieurs ayant été entrainés au préalable par apprentissage. La méthode se résume en deux étapes principales, à savoir une première étape d'apprentissage du/des classifieur(s) basé sur un grand nombre d'exemples positifs (c'est-à-dire les objets d'intérêt, par exemple des visages) et d'exemples négatifs, et une deuxième étape de détection par application de ce/ces classifieur(s) à des images inconnues (par exemple les images 20 à 24) comprenant les parties d'objet à détecter. Une fois la méthode de détection appliquée aux images 20-24, on obtient en sortie des boîtes englobantes 200, 210, 230 et 240 comprenant chaque première partie d'objet 201, 211, 221, 231 et 241 détectée et chaque deuxième partie d'objet 202, 212, 222, 232 et 242 détectée. Une fois les premières et deuxièmes parties 2 9 8664 1 9 d'objet détectées, les histogrammes associées à chacune de ces parties d'objet (un histogramme par partie d'objet, par exemple un histogramme par boite englobante entourant une première ou une deuxième partie d'objet) sont calculés et avantageusement stockés en mémoire. Des exemples 5 d'histogrammes sont illustrés sur les figures 3A à 3C. Bien entendu, le nombre d'images capturées avec des réglages spécifiques pour chacune d'elle d'un ou plusieurs paramètres de capture du dispositif d'acquisition n'est pas limité à 5 et s'étend à tout nombre supérieur ou égal à 2, par exemple 3, 5, 7, 10 ou 20. L'acquisition d'un grand nombre 10 d'images (par exemple 7, 9 ou 11 ou plus) offre l'avantage d'avoir un grand nombre de parties d'objet acquises selon plusieurs paramètres de capture et permet par la suite d'avoir un grand choix dans la sélection des parties d'objet les plus adaptées à la reconstruction finale de l'objet. L'acquisition d'un nombre plus réduit d'images (par exemple 3 ou 5) offre l'avantage de 15 limiter les traitements nécessaires à la détection et la sélection des parties d'objet pour reconstruire l'objet, ce qui permet de limiter les calculs nécessaires et d'accélérer la reconstruction finale de l'objet, ce qui peut s'avérer utile dans les traitements avec des contraintes de temps réel. De manière avantageuse, le nombre d'images acquises est prédéterminé et les 20 paramètres de capture associés à chaque image sont également prédéterminés. La pluralité d'images est avantageusement acquise en rafale, de manière automatique, l'intervalle de temps entre chaque acquisition étant réduit à un minimum pour s'assurer que les conditions d'acquisition soient sensiblement les mêmes pour toutes les images. Selon une variante, le 25 nombre d'images acquises et/ou les paramètres de capture associée sont déterminés au cas par cas, pas exemple de manière manuelle par un utilisateur via une interface utilisateur adaptée. Les figures 3A à 3C illustrent différents histogrammes associées 30 à différentes parties de l'objet représentées sur différentes images 20 à 24, selon un mode de réalisation particulier et non limitatif de l'invention. La figure 3A illustre l'histogramme 31 d'une partie d'objet sous-exposée, l'histogramme étant décalé vers la gauche, c'est-à-dire décalé vers le niveau de gris de valeur 0. Si l'on considère que les images 20 à 24 sont 35 codées sur 8 bits, l'échelle de niveau de gris d'un histogramme associé à une image ou à une partie d'image comprenant une partie d'objet s'étend de 0 à 255 (en abscisse de l'histogramme, l'ordonnée de l'histogramme représentant le nombre de pixels). Dans un histogramme décalé à gauche, le nombre de pixels ayant un niveau de gris associé dont la valeur est inférieure à 128 est supérieur au nombre de pixels ayant un niveau de gris associé dont la valeur est supérieure à 128, c'est-à-dire que la valeur médiane des niveaux de gris associés aux pixels d'une boîte englobante entourant une partie d'objet est inférieur à 128, par exemple inférieur à 128-25%x128 ou inférieur à 128-30%x128, 128 correspondant au milieu du segment [0-255]. En d'autres termes, le nombre de pixels « sombres » (niveau de gris inférieur à 128) est supérieur au nombre de pixels « clairs » (niveau de gris supérieur à 128). L'histogramme 31 correspond par exemple à l'histogramme associé aux deuxièmes parties d'objet 232 ou 242. La figure 3B illustre l'histogramme 32 d'une partie d'objet surexposée, l'histogramme étant décalé vers la droite, c'est-à-dire décalé vers le niveau de gris de valeur 255. Dans un histogramme décalé à droite, le nombre de pixels ayant un niveau de gris associé dont la valeur est inférieure à 128 est inférieur au nombre de pixels ayant un niveau de gris associé dont la valeur est supérieure à 128, c'est-à-dire que la valeur médiane des niveaux de gris associés aux pixels d'une boîte englobante entourant une partie d'objet est supérieur à 128, par exemple supérieur à 128+25%x128 ou supérieur à 128+30%x128. En d'autres termes, le nombre de pixels « sombres » (niveau de gris inférieur à 128) est inférieur au nombre de pixels « clairs » (niveau de gris supérieur à 128) et la partie d'image comprenant la partie d'objet surexposée est globalement « claire ». L'histogramme 32 correspond par exemple à l'histogramme associé aux premières parties d'objet 201 ou 211. La figure 3C illustre l'histogramme 33 d'une partie d'objet ni surexposée ni sous-exposée, l'histogramme étant globalement centré sur le niveau de gris 128. Dans un histogramme centré, le nombre de pixels ayant un niveau de gris associé dont la valeur est inférieure à 128 est approximativement égal au nombre de pixels ayant un niveau de gris associé dont la valeur est supérieure à 128, c'est-à-dire que la valeur médiane des niveaux de gris associés aux pixels d'une boîte englobante entourant une partie d'objet est proche de 128, c'est-à-dire égale à 128 plus ou moins une marge d'erreur égale à un pourcentage de 128, par exemple un pourcentage compris entre 0 et 20 % (valeur par exemple comprise dans un intervalle de valeur dont les bornes sont égales à 128-10% et 128+10% ou encore 12820% et 128+20%). En d'autres termes, le nombre de pixels « sombres » (niveau de gris inférieur à 128) est sensiblement égal au nombre de pixels « clairs » (niveau de gris supérieur à 128), à la marge d'erreur près, et la partie d'image comprenant la partie d'objet surexposée est éclairée de manière équilibrée. L'histogramme 33 correspond par exemple à l'histogramme associé à la première partie d'image 231 ou à la deuxième partie d'image 212. Une fois les histogrammes associés à chaque première et chaque deuxième partie d'objet des images 20 à 24 calculés, il est possible de sélectionner une première partie d'objet parmi la pluralité de premières parties d'objets détectées 201, 211, 221, 231 et 241 ainsi qu'une deuxième partie d'objet parmi la pluralité de deuxièmes parties d'objets détectées 202, 212, 222, 232 et 242 en fonction des histogrammes associés à ces pluralités de premières 201, 211, 221, 231 et 241 et deuxièmes 202, 212, 222, 232 et 242 parties d'objet des images 20 à 24.
Les figures 4A et 4B illustrent les histogrammes associés à respectivement la première partie d'objet sélectionné et la deuxième partie d'objet sélectionnée et la figure 4C illustre l'histogramme de la figure 4B auquel a été appliquée une transformation, selon un mode de réalisation particulier et non limitatif de l'invention. La sélection d'une première partie d'objet et d'une deuxième partie d'objet parmi la pluralité de premières et deuxièmes parties d'objet est avantageusement basée sur l'analyse des histogrammes associés à chacune des premières et deuxièmes parties d'objet de la pluralité. Ainsi, la première partie d'objet sélectionnée parmi la pluralité de premières parties d'objet est celle dont l'histogramme est le plus étalé et/ou le plus centré des histogrammes associés aux différentes premières parties d'objet détectées. Cet histogramme 41 est représentée en figure 4A. On entend par histogramme le plus étalé celui ayant la plus grande variance, c'est-à-dire celui pour lequel l'écart entre la valeur maximale 412 de niveau de gris et la valeurs minimale 411 de niveau de gris associées aux pixels représentant la première partie d'objet est la plus importante. On entend par histogramme le plus centré celui pour lequel la valeur médiane de niveau de gris est la plus proche de la moitié de la dynamique de codage, la dynamique de codage correspondant à l'échelle de gris utilisée pour la représentation d'une image ou d'une partie d'objet (par exemple dynamique de 256 niveaux de gris pour un codage sur 8 bits, dynamique de 512 niveaux de gris pour un codage sur 9 bits ou dynamique de 1024 niveaux de gris pour un codage sur 10 bits). La première partie d'objet sélectionnée correspond par exemple à la première partie 231 de l'image 23. De la même manière, la deuxième partie d'objet sélectionnée parmi la pluralité de deuxièmes parties d'objet est celle dont l'histogramme est le plus étalé et/ou le plus centré des histogrammes associés aux différentes deuxièmes parties d'objet détectées. Cet histogramme 42 est représentée en figure 4B. La variance de l'histogramme 42 correspond à la valeur niveau de gris maximal 422 moins niveau de gris minimal 421. La deuxième partie d'objet sélectionnée correspond par exemple à la deuxième partie 202 de l'image 20. Une fois la première partie d'objet 231 sélectionnée et la deuxième partie d'objet 202 sélectionnée, l'objet final 1 est recomposée en accolant les images représentant ces premières et deuxièmes parties de l'objet par synthèse d'image. L'objet ainsi recomposé ne présente plus de partie surexposée ou de partie sous-exposée facilitant l'exploitation qui pourrait en être faite par la suite (par exemple détection des expressions faciales ou reconnaissance d'une personne pour de la vidéo surveillance lorsque l'objet correspond à un visage).
De manière avantageuse, les première 231 et deuxième 202 parties d'objet sélectionnées sont celles dont les histogrammes associés vérifient les deux critères, à savoir les deux histogrammes les mieux étalés et les mieux centrés. Baser la sélection sur les deux critères permet de sélectionner la meilleure représentation d'une partie d'objet parmi la pluralité de représentations. Selon une variante, les histogrammes associés aux parties d'objet sélectionnées ne respectent qu'un seul de ces critère, par exemple l'histogramme le plus étalé seulement parmi la pluralité d'histogrammes ou l'histogramme le mieux centré. Baser la sélection sur un seul critère permet d'accélérer les calculs en simplifiant les comparaisons, ce qui peut s'avérer utile dans les traitements ayant des contraintes de temps réel. Par ailleurs, un utilisateur peut faire le choix de ne baser la sélection que sur un seul des critères pour des raisons de performance et/ou de choix de représentation de l'objet. La figure 4C illustre le résultat de l'application d'une transformation à l'histogramme 42. Un objectif de cette transformation est d'homogénéiser les deux histogrammes 41 et 42 pour les rendre plus uniformes avant de reconstituer l'objet 1 à partir des deux parties d'objet auxquelles sont associés les deux histogrammes 41 et 42. L'histogramme 42 auquel est appliquée la transformation correspond avantageusement à l'histogramme le moins étalé des deux histogrammes 41 et 42, c'est-à-dire à l'histogramme ayant la plus petite variance des deux histogrammes 41 et 42.
La transformation appliquée à l'histogramme 42 correspond avantageusement à une normalisation de la dynamique en prenant comme référence l'histogramme 41 ayant la plus grande variance. La normalisation d'histogramme (dite aussi expansion de dynamique) correspond à une transformation affine du niveau de gris des pixels de telle sorte que l'image utilise toute la dynamique de représentation. Lorsque la normalisation se fait en prenant comme référence l'histogramme ayant la plus grande variance, cela revient à étaler l'histogramme 42 à transformer pour qu'il ait une variance identique à l'histogramme de référence. Le résultat de l'histogramme 42 normalisé est l'histogramme 43 dont la variance (différence entre les valeurs maximale 432 et minimale 431 de niveaux de gris) est sensiblement ou exactement la même que la variance de l'histogramme 41 de référence. Selon une variante, la transformation appliquée à l'histogramme 42 correspond à une égalisation d'histogramme en prenant comme référence l'histogramme 41 ayant la plus grande variance. L'égalisation d'histogramme correspond à une transformation des niveaux de gris dont le principe est d'équilibrer le mieux possible la distribution des pixels dans la dynamique. Lorsque l'égalisation se fait en prenant comme référence l'histogramme ayant la plus grande variance, cela revient à équilibrer l'histogramme 42 à transformer pour qu'il ait une distribution identique à l'histogramme de référence. Le résultat de l'histogramme 42 normalisé est l'histogramme 43 dont la distribution des pixels par niveau de gris est sensiblement identique à la distribution des pixels par niveau de gris de l'histogramme 41 de référence.
Selon une autre variance, une transformation est appliquée à chacun des histogrammes 41 et 42 sans référence à l'un ou à l'autre afin de normaliser les deux histogrammes avec une même variance ou d'égaliser les deux histogrammes. Selon cette variance, les fonctions appliquées à chacun des histogrammes sont différentes, à moins que les deux histogrammes 41 et 42 soient identiques (même variance, même distribution, même valeur médiane).
La transformation (normalisation et/ou égalisation) appliquée à l'un des histogrammes en référence à l'autre ou les transformations appliquées aux deux histogrammes permettent d'homogénéiser les niveaux de gris des première et deuxième parties formant l'objet, le rendu de l'objet final obtenu par la synthèse des deux parties étant plus uniforme et plus réaliste. Bien entendu, lorsque les deux histogrammes 41 et 42 associées aux deux parties de l'objet sont quasiment identique (variances proches et/ou distributions proches et/ou valeurs médianes proches), aucune transformation n'est alors appliquée à ces histogrammes. La première partie d'objet 231 et la deuxième partie d'objet 202 sont alors combinées sans transformation de leurs histogrammes associés pour former l'objet final 1. La figure 5 illustre schématiquement la structure d'une unité de traitement 5 configurée pour la mise en oeuvre d'un procédé de détection ou de reconnaissance d'objet, selon un mode de réalisation particulier et non limitatif de l'invention. L'unité de traitement 5 prend par exemple la forme d'un circuit logique programmable de type FPGA (de l'anglais « Field-Programmable Gate Array » ou en français « Réseau de portes programmables ») par exemple, ASIC (de l'anglais « Application-Specific Integrated Circuit » ou en français « Circuit intégré à application spécifique ») ou d'un DSP (de l'anglais « Digital Signal Processor » ou en français « Processeur de signal numérique »). L'unité de traitement 5 comprend avantageusement : - des moyens d'acquisition 51 des images 20 à 24, tels 25 que par exemple des capteurs CMOS dont le mode de fonctionnement permet l'obtention d'une fréquence d'acquisition élevée ; - une mémoire 52 pour mémoriser les images acquises, les histogrammes calculés et associés aux images acquises, les paramètres de capture, 30 - un circuit de traitement d'image 53 pour calculer et analyser les histogrammes associés aux parties d'image comprenant les parties d'objet, pour sélectionner les parties d'images utilisées pour reconstituer l'objet final, pour transformer si besoin un ou plusieurs des histogrammes associées aux parties d'objets sélectionner et pour générer 35 une image de l'objet recomposé à partir des parties d'objets, et - des moyens de contrôle 54 pour l'ensemble des moyens du dispositif.
Les moyens de contrôle 54 contrôlent plus particulièrement la mémoire pour associer les histogrammes calculés aux parties d'objet et associer les parties d'objet sélectionnées pour synthétiser l'objet final recomposé.
De manière avantageuse et selon un mode de réalisation particulier, le circuit de traitement 53 comprend une carte graphique comprenant plusieurs processeurs de traitement graphique (ou GPUs) et une mémoire vive de type GRAM (de l'anglais « Graphical Random Access Memory »). Selon cet exemple particulier, les algorithmes mettant en oeuvre les étapes du procédé propres à l'invention et décrits ci-après sont stockés dans la mémoire GRAM de la carte graphique. Les instructions de ces algorithmes sont exécutées sous la forme de microprogrammes du type « shader » utilisant le langage HLSL (de l'anglais « High Level Shader Language » ou en français « Langage de programmation « shader » de haut niveau »), le langage GLSL (de l'anglais « OpenGL Shading language » ou en français « Langage de shaders OpenGL ») par exemple. Les différents éléments de l'unité de traitement 5 sont avantageusement reliés entre eux par des bus de données. L'image de l'objet 1 générée par le circuit de traitement 53 est ensuite transmise vers un afficheur 50, avantageusement externe au système 5. Selon une variante, les moyens d'acquisition sont externes à l'unité de traitement 5 et sont reliés à cette dernière par une liaison filaire ou sans fil. Selon une autre variante, les moyens d'acquisition sont externes à l'unité de traitement 5 et ne sont pas reliés à cette dernière. Les images acquises sont transférées à l'unité de traitement via tout support ad hoc, par exemple par l'utilisation d'une clé USB ou d'une carte mémoire. La figure 6 illustre un procédé de détection d'un objet 1 mis en oeuvre dans une unité de traitement 5, selon un mode de réalisation particulier et non limitatif de l'invention. Au cours d'une étape d'initialisation 60, les différents paramètres de l'unité de traitement 5 sont mis à jour. Ensuite, au cours d'une étape 61, plusieurs images représentant un objet sont acquises au moyen de tout dispositif d'acquisition, chaque image de la pluralité étant acquise avec un réglage particulier d'un paramètre de capture du dispositif d'acquisition afin d'obtenir une dynamique particulière pour chaque image. Le paramètre de capture appartient à un ensemble de paramètres permettant de modifier la dynamique d'une image saisie en utilisant ce paramètre, l'ensemble comprenant notamment la durée d'exposition et l'ouverture relative. Selon une variante, plusieurs paramètres de capture sont modifiées pour l'acquisition de chaque image de la pluralité d'image. Selon une autre variante, plusieurs paramètres de capture sont modifiées pour l'acquisition de chaque image d'une partie de la pluralité des images et un seul paramètre de capture est modifiée pour chaque image du reste de la pluralité d'images représentant l'objet. Ensuite, au cours d'une étape 62, une pluralité de parties de l'objet sont détectées sur chaque image de la pluralité d'images acquises, par exemple au moins une première partie d'objet et au moins une deuxième partie d'objet sont détectées sur chaque image capturée. On obtient ainsi pour l'ensemble d'images capturées une pluralité d'ensembles de parties d'objet, le nombre d'ensemble correspondant aux nombres de parties formant l'objet. Au moins un premier ensemble de premières parties d'objet et au moins un deuxième ensemble de deuxièmes parties d'objet sont détectés selon toute méthode connue de l'homme du métier, par exemple en utilisant la méthode dite de Viola et Jones. Les images ayant été capturés avec des paramètres de capture différents, les histogrammes associés à chacune de ces images sont différents et les histogrammes associés à chaque partie d'image comprenant et représentant une partie de l'objet sont également différents (variance et/ou distribution et/ou valeur médiane différentes). Ensuite, au cours d'une étape 63, une première partie d'objet est sélectionnée parmi la pluralité de premières parties d'objet du premier ensemble de premières parties d'objet en fonction des histogrammes associés à chaque première partie d'objet. La première partie d'objet sélectionnée est par exemple celle dont l'histogramme associé est le plus étalé et/ou est le mieux centré et/ou présente la distribution des pixels par niveau de gris la mieux répartie. De la même manière, une deuxième partie d'objet est sélectionnée parmi la pluralité de deuxièmes parties d'objet du deuxième ensemble de deuxièmes parties d'objet en fonction des histogrammes associés à chaque deuxième partie d'objet. La deuxième partie d'objet sélectionnée est par exemple celle dont l'histogramme associé est le plus étalé et/ou est le mieux centré et/ou présente la distribution des pixels par niveau de gris la mieux répartie.
Enfin, au cours d'une étape 64, une image représentant l'objet est reconstruite par synthèse d'image à partir des première et deuxième parties d'objet sélectionnées parmi la pluralité de premières parties et de deuxièmes parties. En fonction des histogrammes associés aux première et deuxième parties utilisées pour reconstruire l'objet et lorsque ces histogrammes sont notablement différents (variances différentes et/ou valeurs médiane différentes et/ou distributions différentes), une transformation est appliquée à l'un et/ou à l'autre de ces histogrammes pour les rendre plus homogènes afin de rendre l'image recomposée plus uniforme et avec moins de disparité au niveau des niveaux de gris de chaque partie composant l'image reconstituée. La transformation appliquée est par exemple une égalisation des deux histogrammes ou une égalisation de l'un des histogrammes en référence à l'autre des deux histogrammes. Selon un autre exemple, la transformation appliquée est une normalisation des deux histogrammes ou de l'un des deux histogrammes en référence à l'autre des deux histogrammes. Dans le cas où la transformation est appliquée à l'un des histogrammes en référence à un autre histogramme, l'histogramme de référence est choisie comme étant celui ayant la plus grande variance (c'est-à-dire le plus étalé) et/ou celui le mieux centré (c'est-à-dire ayant la valeur médiane de l'histogramme la plus proche du milieu de la plage de niveaux de gris associée au codage utilisé pour représenter l'image). Selon une variante optionnelle, la cohérence spatiale des boîtes englobantes comprenant chaque première partie d'objet dans les images capturées d'une part et des boîtes englobantes comprenant chaque deuxième partie d'objet dans les images capturées d'autre part est vérifiée. Cette vérification est notamment utile lorsque les images capturées comprennent plusieurs objets de même type (par exemple plusieurs visages). Lorsque dans ce type d'image on cherche à détecter un des objets parmi la pluralité d'objets de même type, vérifier la cohérence spatiale des boîtes englobante comprenant la première partie et la deuxième partie de l'objet permet d'éviter de reconstruire un objet en utilisant une première partie qui le compose avec une deuxième partie d'un autre objet. La cohérence spatiale est vérifiée en comparant par exemple les coordonnées de un ou plusieurs pixels du coin inférieur droit de la boite englobante comprenant le deuxième partie de l'objet avec les coordonnées de un ou plusieurs pixels du coin inférieur gauche de la boite englobante comprenant la première partie de l'objet. Si les coordonnées de ces pixels des différentes boites englobantes sont proches, cela signifie que les parties d'objet qu'elles comprennent se réfèrent au même objet. Quand les images capturées ne contiennent qu'un seul objet à reconstruire, cette étape n'est pas mise en oeuvre.
Bien entendu, l'invention ne se limite pas aux modes de réalisation décrits précédemment. En particulier, l'invention n'est pas limitée à un procédé de détection d'un objet dans une image mais s'étend également à tout dispositif mettant en oeuvre le procédé. L'invention s'étend également à un procédé de reconnaissance d'un objet dans une image ou une série d'images.
Claims (11)
- REVENDICATIONS1. Procédé de détection d'un objet (1) d'une image, ledit objet (1) comprenant au moins une première partie d'objet (11) et au moins une deuxième partie d'objet (12), caractérisé en ce que le procédé comprend les étapes de : - capture (61) d'une pluralité d'images (20 à 24) comprenant ledit objet (1), chaque image de ladite pluralité (20 à 24) ayant une dynamique associée particulière obtenue par le réglage d'un paramètre de capture, - détection (62) d'au moins un premier ensemble de premières parties d'objet (201, 211, 221, 231, 241) et d'au moins un deuxième ensemble de deuxièmes parties d'objet (202, 212, 222, 232, 242) sur ladite pluralité d'images (20 à 24), - sélection (63) d'une première partie d'objet (231) dans ledit au moins un premier ensemble (201, 211, 221, 231, 241) et d'une deuxième partie d'objet (202) dans ledit au moins un deuxième ensemble (202, 212, 222, 232, 242) en fonction d'histogrammes (41, 42) associés à chaque première (231) et deuxième (202) parties d'objet détectée, - reconstruction d'une image représentant l'objet à partir de la au moins une première partie d'objet (231) sélectionnée et de la au moins une deuxième partie d'objet (202) sélectionnée.
- 2. Procédé selon la revendication 1, caractérisé en ce que la reconstruction de l'image représentant ledit objet comprend une étape de transformation d'au moins un des histogrammes (42) associés aux première (231) et deuxième (202) parties d'objet sélectionnées.
- 3. Procédé selon la revendication 2, caractérisé en ce que ladite transformation correspond à une égalisation des histogrammes associés aux première et deuxième parties d'objet sélectionnées.
- 4. Procédé selon la revendication 3, caractérisé en ce que ladite égalisation est réalisée en prenant comme référence l'histogramme (41) ayant la plus grande variance parmi les histogrammes (41, 42) associés aux première (231) et deuxième (202) parties d'objet sélectionnées.
- 5. Procédé selon la revendication 2, caractérisé en ce que ladite transformation correspond à une normalisation d'au moins un (42) des histogrammes (41, 42) associés aux première (231) et deuxième (202) parties d'objet sélectionnées.
- 6. Procédé selon l'une quelconque des revendications 1 à 5, caractérisé en ce que ledit paramètre de capture appartient à un ensemble de paramètres comprenant : - durée d'exposition ; et - ouverture relative.
- 7. Procédé selon l'une quelconque des revendications 1 à 6, caractérisé en ce que la première partie d'objet sélectionnée (231) correspond à la première partie d'objet du premier ensemble dont l'histogramme associé (41) possède la plus grande variance et la deuxième partie d'objet sélectionnée (202) correspond à la deuxième partie d'objet du deuxième ensemble dont l'histogramme associé (42) possède la plus grande variance.
- 8. Procédé selon l'une quelconque des revendications 1 à 7, caractérisé en ce que la première partie d'objet sélectionnée (231) correspond à la première partie d'objet du premier ensemble dont l'histogramme associé (41) est le mieux centré et la deuxième partie d'objet sélectionnée (202) correspond à la deuxième partie d'objet du deuxième ensemble dont l'histogramme associé (42) est le mieux centré.
- 9. Procédé selon l'une quelconque des revendications 1 à 8, caractérisé en ce que le procédé comprend une étape de vérification de la cohérence spatiale d'une première boîte englobante (230) comprenant une première partie d'objet détectée et d'une deuxième boîte englobante (200) comprenant une deuxième partie d'objet détectée.
- 10. Unité de traitement (5) configurée pour la détection d'un objet (1) dans une image, ledit objet (1) comprenant au moins une première partie d'objet (11) et au moins une deuxième partie d'objet (12), caractérisé en ce que l'unité de traitement comprend :- des moyens de capture (51) d'une pluralité d'images comprenant ledit objet, chaque image de ladite pluralité ayant une dynamique associée particulière obtenue par le réglage d'un paramètre de capture ; - des moyens de détection (53) d'au moins un premier ensemble de premières parties d'objet et d'au moins un deuxième ensemble de deuxièmes parties d'objet sur ladite pluralité d'images, - des moyens de sélection (53) d'une première partie d'objet dans ledit au moins un premier ensemble et d'une deuxième partie d'objet dans ledit au moins un deuxième ensemble en fonction d'histogrammes associés à chaque première et deuxième parties d'objet détectée, - des moyens de reconstruction (53) d'une image représentant l'objet à partir de la au moins une première partie d'objet sélectionnée et de la au moins une deuxième partie d'objet sélectionnée.
- 11. Unité de traitement selon la revendication 10, comprenant en outre des moyens de transformation (53) d'au moins un des histogrammes associés aux première et deuxième parties d'objet sélectionnées.20
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1257675A FR2986641A1 (fr) | 2012-08-07 | 2012-08-07 | Procede de detection d'un objet et systeme correspondant |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1257675A FR2986641A1 (fr) | 2012-08-07 | 2012-08-07 | Procede de detection d'un objet et systeme correspondant |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2986641A1 true FR2986641A1 (fr) | 2013-08-09 |
Family
ID=47594872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1257675A Pending FR2986641A1 (fr) | 2012-08-07 | 2012-08-07 | Procede de detection d'un objet et systeme correspondant |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR2986641A1 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110913147A (zh) * | 2018-09-14 | 2020-03-24 | 浙江宇视科技有限公司 | 曝光调节方法、装置及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5450502A (en) * | 1993-10-07 | 1995-09-12 | Xerox Corporation | Image-dependent luminance enhancement |
US20040190789A1 (en) * | 2003-03-26 | 2004-09-30 | Microsoft Corporation | Automatic analysis and adjustment of digital images with exposure problems |
-
2012
- 2012-08-07 FR FR1257675A patent/FR2986641A1/fr active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5450502A (en) * | 1993-10-07 | 1995-09-12 | Xerox Corporation | Image-dependent luminance enhancement |
US20040190789A1 (en) * | 2003-03-26 | 2004-09-30 | Microsoft Corporation | Automatic analysis and adjustment of digital images with exposure problems |
Non-Patent Citations (1)
Title |
---|
GOSHTASBY ET AL: "Fusion of multi-exposure images", IMAGE AND VISION COMPUTING, ELSEVIER, GUILDFORD, GB, vol. 23, no. 6, 1 June 2005 (2005-06-01), pages 611 - 618, XP027617890, ISSN: 0262-8856, [retrieved on 20050601] * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110913147A (zh) * | 2018-09-14 | 2020-03-24 | 浙江宇视科技有限公司 | 曝光调节方法、装置及电子设备 |
CN110913147B (zh) * | 2018-09-14 | 2021-06-22 | 浙江宇视科技有限公司 | 曝光调节方法、装置及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11854167B2 (en) | Photographic underexposure correction using a neural network | |
US20200143519A1 (en) | Bright Spot Removal Using A Neural Network | |
CA2957774C (fr) | Procede de securisation et de verification d'un document | |
EP3832535A1 (fr) | Procédé de détection d'au moins un élément d'intérêt visible dans une image d'entrée au moyen d'un réseau de neurones à convolution | |
WO2013098512A1 (fr) | Procédé et dispositif de détection et de quantification de signes cutanés sur une zone de peau | |
FR3088467A1 (fr) | Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution | |
CA3043090C (fr) | Procede de reconnaissance de caracteres | |
US11568634B2 (en) | Machine learning pipeline for document image quality detection and correction | |
EP3866064A1 (fr) | Procede d'authentification ou d'identification d'un individu | |
FR3088755A1 (fr) | Procede de defloutage d’une image | |
EP3608835A1 (fr) | Procede de traitement d'images d'empreintes | |
EP3428841B1 (fr) | Procédé de détection de fraude lors d`une reconnaissance d'iris | |
FR2795205A1 (fr) | Procede pour binariser des images numeriques a plusieurs niveaux de gris | |
FR2986641A1 (fr) | Procede de detection d'un objet et systeme correspondant | |
TWI425429B (zh) | 影像紋理信號的萃取方法、影像識別方法與影像識別系統 | |
WO2019166720A1 (fr) | Détection dynamique de lumière parasite dans une image numérique | |
EP3966739B1 (fr) | Procédé d'analyse automatique d'images pour reconnaître automatiquement au moins une caractéristique rare | |
EP2756483A1 (fr) | Procédé et système d'acquisition et de traitement d'images pour la détection du mouvement | |
FR3127602A1 (fr) | procédé de génération d’une image augmentée et dispositif associé | |
FR3066633A1 (fr) | Procede de defloutage d'une image | |
CN112766205B (zh) | 一种基于颜色模态图像的鲁棒性静默活体检测方法 | |
EP3428851A1 (fr) | Procédé de traitement d'une image | |
EP4439484A1 (fr) | Procédé de classification de données multidimensionnelles fortement résolues | |
EP1973336B1 (fr) | Procédé de détection et de correction automatique des yeux rouges visibles sur une image | |
EP4411666A1 (fr) | Système d'acquisition d'une image couleur et d'une image infrarouge d'une scène |