FR2857481A1 - Procede et dispositif de detection de visages dans une image couleur - Google Patents
Procede et dispositif de detection de visages dans une image couleur Download PDFInfo
- Publication number
- FR2857481A1 FR2857481A1 FR0308359A FR0308359A FR2857481A1 FR 2857481 A1 FR2857481 A1 FR 2857481A1 FR 0308359 A FR0308359 A FR 0308359A FR 0308359 A FR0308359 A FR 0308359A FR 2857481 A1 FR2857481 A1 FR 2857481A1
- Authority
- FR
- France
- Prior art keywords
- regions
- color
- flesh
- image
- pixels
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
L'invention concerne un dispositif et un procédé de détection de visages dans une image couleur. Le procédé est tel qu'il comporte les étapes de :- détection des pixels de couleur chair dans l'image,- segmentation de l'image en régions (Ri) de couleur homogène,- sélection, parmi les régions (Ri) de couleur homogène, des régions (Ri) comportant un nombre de pixels de couleur chair supérieur à un premier seuil prédéterminé, les régions sélectionnées étant dites régions (Ri) de couleur chair,- fusion des régions (Ri) voisines de couleur chair jusqu'à ce que le coût de fusion atteigne un second seuil prédéterminé, le coût de fusion pondérant de façon linéaire un coût de fusion sur la forme des régions (Ri) et un coût de fusion sur la couleur des régions (Ri),- exclusion des faux positifs.
Description
2857481 1
L'invention concerne un dispositif et une méthode de détection de visages dans une image.
La détection de visage est un problème qui se pose dans beaucoup d'applications vidéo et notamment dans les systèmes d'indexation d'images, dans les systèmes de vidéo-téléphonie afin d'améliorer la qualité de la transmission.
D'autre part, la détection de visages est un préalable à leur reconnaissance automatique. La reconnaissance de visages ayant beaucoup 10 progressé ces dernières années, la détection devient de plus en plus attendue.
- Dans un contexte multimédia, une technique couplant détection et reconnaissance de visages permettrait des requêtes poussées sur des bases de photos personnelles en permettant de trouver toutes les photos où apparaît telle ou telle personne par exemple.
- Une telle technique serait également très utile à des entreprises de cinématographie ou de télévision afin d'archiver automatiquement des vidéos sur des critères fins.
Plus simplement, un algorithme de détection de visages permet de 20 classer des photos personnelles en plusieurs catégories; sans visage, avec 1 visage, avec peu de visages...
Il existe pour le problème de la détection de visages deux types d'approches: les approches basées modèle et les approches basées 25 apparence.
Les approches modèles cherchent à définir de manière simple l'objet recherché, en terme de silhouette, couleur, variation de lumière, texture.
L'inconvénient de ces méthodes est qu'il est difficile de définir un objet en terme de règles. Si les règles adoptées sont trop strictes, les objets sortant un tant soit peu de la norme ne sont pas détectés. Au contraire, si les règles sont trop vagues, le système détecte beaucoup d'objets non désirés...DTD: Les approches apparence reposent quant à elles sur des méthodes de décisions (ou classificateurs) non paramétriques telle que les réseaux de 2857481 2 neurones. Les règles définissant l'objet à détecter ne sont pas clairement édictées, mais elles sont apprises sur un ensemble d'apprentissage. On effectue sur les images des mesures, les descripteurs (couleur moyenne, couleurs des pixels, transformée en ondelettes...). Le classificateur pondère alors les descripteurs de l'ensemble d'apprentissage de manière à définir ce qu'est l'objet à détecter. Les règles sont alors des moyennes statistiques sur les descripteurs.
Le principe de telles solutions est de découper l'image d'entrée en petits morceaux, de soumettre chacun de ces morceaux à un classificateur qui décide si tel ou tel morceau est un visage. Le problème est de décider la taille que doivent avoir lesdits morceaux. Sur une image de type photo d'identité ou sur une photo de groupe, les visages n'ont absolument pas la même taille. Il faut alors faire sur toute image d'entrée un découpage multirésolutions, c'est-à-dire que l'on va soumettre au classificateur chaque quart de l'image, puis chaque huitième, etc. C'est ce qui rend de tels systèmes très lourds en temps de calcul.
L'invention propose une méthode simple consistant à utiliser un modèle assez souple pour donner un ensemble réduit de candidat à un système de décision non paramétrique permettant de supprimer le découpage multirésolutions.
A cet effet, l'invention propose un procédé de détection de visages dans une image, l'image étant composée d'une pluralité de pixels. 25 Selon l'invention, le procédé comporte les étapes de - détection des pixels de couleur chair dans l'image, - segmentation de l'image en régions de couleur homogène, - sélection, parmi les régions de couleur homogène, des régions comportant un nombre de pixels de couleur chair supérieur à un premier seuil prédéterminé, les régions sélectionnées étant dites régions de couleur chair, - fusion des régions voisines de couleur chair jusqu'à ce que le coût de fusion atteigne un second seuil prédéterminé, le coût de 2857481 3 fusion pondérant de façon linéaire un coût de fusion sur la forme des régions et un coût de fusion sur la couleur des régions, exclusion des faux positifs.
En effectuant la segmentation de l'image sur l'image d'entrée et non pas sur la carte de probabilité obtenue à l'issue de l'étape de détection des pixels de couleur chair, on peut rendre possible une meilleure précision en limite.
De plus, le calcul du coût de fusion se basant à la fois sur la forme et 10 sur la couleur des régions permet une approche rapide et efficace des régions potentiellement candidates comme étant des visages.
Selon un mode préféré de réalisation, l'étape de fusion comporte les sousétapes de - calcul du coût de fusion sur la couleur des régions en calculant la différence de couleur moyenne entre des régions voisines, calcul du coût de fusion sur la forme en calculant - le recouvrement entre l'aire de la région et l'aire d'une ellipse ayant même centre de gravité que ladite région et 20 la recouvrant au mieux, - le caractère elliptique de chaque région par calcul du rapport de la somme du nombre de pixels de la région en dehors de l'ellipse et du nombre de pixels de l'ellipse hors de la région par le nombre de pixels de l'ellipse.
- la différence entre le maximum des mesures de caractère elliptique des deux régions voisines et la mesure de caractère elliptique de la région fusionnée.
Préférentiellement, l'étape de détection des pixels de couleur chair consiste à définir un modèle de couleur de visage sous la forme d'une loi de probabilité gaussienne bidimensionnelle dans un plan de chrominance.
2857481 4 Selon un mode préféré de réalisation, l'étape d'exclusion des faux positifs consiste à comparer les propriétés des régions fusionnées à certaines propriétés d'un visage et à exclure les régions dont les propriétés sont trop éloignées de celles d'un visage.
Selon un mode préféré de réalisation, les propriétés sont choisies parmi la taille de la région, la forme de la région, la couleur moyenne, la variance de la luminance le long de l'axe majeur et une combinaison quelconque de ces propriétés.
Selon un mode de réalisation préféré, l'étape d'exclusion des faux 15 positifs comprend les sous-étapes de - calcul d'au moins un descripteur visuel sur les régions fusionnées, - détermination d'un hyperplan optimal dans l'espace des descripteurs entre des images exemple comportant un visage et des images exemple ne comportant pas de visage, - exclusion des régions dont le descripteur ne se situe pas du bon côté de l'hyperplan.
Avantageusement, le descripteur est calculé en effectuant une transformation en ondelettes d'un rectangle minimal englobant l'ellipse 25 fusionnée et en affectant au descripteur les variances des coefficients d'ondelettes dans douze images de détail obtenues par décomposition hiérarchique de l'image.
L'invention concerne également un dispositif de détection de visages 30 dans une image l'image étant composée d'une pluralité de pixels. Selon l'invention le dispositif comporte: - des moyens de détection des pixels de couleur chair dans l'image, - des moyens de segmentation de l'image en régions de couleur homogène, - des moyens de sélection, parmi les régions de couleur homogène, des régions comportant un nombre de pixels de couleur chair supérieur à un premier seuil prédéterminé, les régions sélectionnées étant dites régions de couleur chair, - des moyens de fusion des régions voisines de couleur chair jusqu'à ce que le coût de fusion atteigne un second seuil prédéterminé, le coût de fusion pondérant de façon linéaire un coût de fusion sur la forme des régions et un coût de fusion sur la couleur des régions, - des moyens d'exclusion des faux positifs.
L'invention est également relative à un produit programme d'ordinateur 15 comprenant des instructions de codes de programme pour l'exécution des étapes du procédé de détection de visages selon l'invention, lorsque ledit programme est exécuté sur un ordinateur.
L'invention sera mieux comprise et illustrée au moyen d'exemples de modes de réalisation et de mise en oeuvre avantageux, nullement limitatifs, en référence aux figures annexées sur lesquelles: La figure 1 représente la loi de probabilité de couleur chair dans le plan (Cb, Cr).
Le procédé comporte une étape de détection des pixels de couleur chair dans l'image.
L'espace de couleur utilisé est l'espace (Y, Cb, Cr) qui sépare une composante Y de luminance de deux composantes décrivant les couleurs 30 bleues (Cb) et rouges (Cr).
Quelle que soit l'ethnie d'un humain, la couleur de sa peau se trouve dans une portion précise du plan de chrominance.
Plusieurs méthodes peuvent être proposées pour construire un modèle de couleur de peau.
2857481 6 Dans le mode de réalisation préféré, conformément à l'hypothèse que la couleur de peau se trouve dans un plan précis du plan de chrominance, on définit un modèle de couleur de peau sous la forme d'une loi de probabilité gaussienne bidimensionnelle dans le plan de chrominance (Cb, Cr) selon la figure 1. Les paramètres de cette loi de probabilité gaussienne sont déterminés par apprentissage.
Dans d'autres modes de réalisation, il est possible de se baser sur des approches non paramétriques. Un pixel étant classé comme ayant une couleur chair si l'histogramme de couleur h(r,g), r représentant la couleur rouge et g représentant la couleur verte, est supérieur à un seuil sélectionné de façon empirique à partir de visages exemples.
Lorsque les pixels de couleur chair sont identifiés, l'image est segmentée en régions afin d'identifier non plus des pixels mais des régions de couleur homogène.
Plusieurs procédés de segmentation peuvent être appliqués.
La segmentation s'effectue sur l'image d'entrée et non pas sur la carte de probabilité obtenue à l'issue de l'étape de détection des pixels de couleur chair. Ceci permet en particulier d'obtenir une meilleure précision aux frontières.
La segmentation peut être effectuée en regroupant les pixels sur un critère d'homogénéité de couleur ou par une détection de contour, en utilisant 25 pour ceci des méthodes connues de l'homme du métier.
Ainsi, une première étape détermine les pixels de couleur chair et une seconde étape, pouvant éventuellement être effectuée en parallèle de la première étape, segmente l'image d'entrée en région de couleurs homogènes.
Ensuite, à l'issue de ces deux étapes, les régions dont un certain pourcentage (par exemple plus de la moitié) de pixels sont de couleur chair sont dites régions de couleur chair et sont conservées pour la suite de la recherche des visages.
2857481 7 Lorsque des régions ont été détectées comme étant de couleur chair, il est souhaitable de prendre en compte la forme de ces régions.
L'hypothèse de départ est qu'un visage est plutôt de forme elliptique. L'étape suivante consiste donc à favoriser la fusion de macro régions 5 de couleur chair et de forme elliptique.
De façon préférée, cette étape consiste à appliquer un procédé de fusion de régions RSST (acronyme anglais de recursive shortest spanning tree ) . Le document utilization of the recursive shortest spanning tree algorithm for video-object segmentation by 2-D affine motion modeling" de Ertem Tuncel et Levent Onutal paru dans le document IEEE transation CSVT, volume 10, 2000 illustre un tel procédé de fusion.
La liste des liens entre régions voisines est maintenue à jour et triée par coût de fusion croissant. Les deux régions dont le coût de fusion est le 15 plus faible sont fusionnées itérativement jusqu'à ce qu'un coût de fusion maximal prédéterminé soit atteint.
La fusion prend en compte les informations de couleur et de forme.
Une fonction de coût C pondérant de façon linéaire un coût de fusion 20 sur la couleur Ccoweur et un coût de fusion sur la forme Cforme est appliquée: C = acc x Ccouleur + a J x C Jbrme Le poids af donné à la forme est par exemple le double du poids donné à la couleur ac.
Le coût de fusion effectué sur la couleur est obtenu en effectuant la différence de couleur moyenne entre les régions fusionables. De cette manière, la région fusionnée possède une homogénéité de couleur.
Dans l'équation ci-après, (17I,Cb1,Cr1) et (Y2,Cb2,Cr2) sont les vecteurs de couleur moyenne dans l'espace YCbCr de deux régions voisines donc fusionable R1 et R2. Le dénominateur est là pour normaliser le coût entre les valeurs 0 et 1, si les composantes de couleurs sont codées entre 0 et 255.
= 3 *12552 [(Y, - YZ /2 + (C-b1 Cb2)2 + (Cr, Cr2 J2] Pour définir le coût de fusion sur la forme, on définit d'abord une 5 mesure de caractère elliptique sur les régions.
A cette fin, on détermine comme indiqué en figure 2, les caractéristiques d'une ellipse ayant même centre de gravité que la région.
Cette ellipse a une aire au moins égale à la surface de la région et la recouvre au mieux. La méthode dite des moments connue de l'homme du métier 10 peut être, à titre illustratif, utilisée pour déterminer cette ellipse.
A chaque région R; est associée une ellipe E. On détermine ainsi le caractère elliptique Er; de la région R; en mesurant le recouvrement mutuel de la région et de son ellipse associée: tous les points de la région hors ellipse ainsi que tous les points à l'intérieur de l'ellipse hors région sont comptés et leur somme est normalisée par l'aire de l'ellipse; plus cette valeur est grande et moins la région est elliptique.
Le coût de fusion sur la forme de deux régions voisines RI et R2 est la différence entre le minimum des mesures de caractère elliptique des deux régions fusionables Et-1 et Erg et la mesure de caractère elliptique de la région fusionnée R1vR2. Ce coût est d'autant plus faible que la région fusionnée est plus elliptique que ses parties. Le coût de fusion sur la forme peut par exemple être donné par la formule suivante: C forme = 2 (1 + Max (Erl, Er2) Er, v Er, On a à l'issu de cette étape, un certain nombre de régions de forme elliptique et de couleur chair qui sont candidates pour être des visages.
Parmi ces régions, certaines ne sont pas des visages et sont dites faux positifs . Il est donc important d'exclure ces régions.
Plusieurs méthodes d'exclusion des faux positifs existent.
2857481 9 Deux méthodes sont décrites, une méthode basée sur une approche paramétrique et une méthode basée sur l'apprentissage d'un classifieur.
Approche paramétrique Différentes propriétés des régions fusionnées de forme elliptique et de couleur chair sont mesurées.
Ces propriétés sont communes à des visages.
On peut citer: - la forme ne doit être ni trop grande ni trop petite, ni trop étirée, l'axe majeur n'est pas trop éloigné de la verticale, la couleur moyenne est chair la variance de la luminance le long de l'axe majeur n'est pas trop forte.
Dans d'autres modes de réalisation, d'autres paramètres peuvent être pris en compte.
Approche basée sur l'apprentissage.
Dans cette alternative, on calcule des descripteurs visuels pour chacune des ellipses candidates.
Un classifieur supervisé permet de distinguer les visages des non-visages.
Dans le mode préféré de réalisation, un classifieur de type SVM 25 (signifiant machine à vecteur de support ) est utilisé.
Ce classifieur détermine, au cours d'une phase d'apprentissage où on lui fournit une base d'exemples et de contre-exemples, un hyperplan optimal dans l'espace des descripteurs, entre visages et non-visages. Cette phase d'apprentissage est effectuée en différé. Une fois cette phase d'apprentissage effectuée, le classifieur est capable de décider en temps réel si un candidat issu de la phase de détection décrite plus haut est un visage ou un non-visage.
2857481 10 Dans d'autres modes de réalisation, des classifieurs de type kmeans ou réseaux de neurones peuvent être utilisés.
Plusieurs descripteurs peuvent être utilisés.
Dans le mode préféré de réalisation le descripteur utilisé est issu de la transformation en ondelettes (ou sous-bandes) d'un rectangle qui englobe l'ellipse candidate détectée à l'étape précédente comme étant candidate comme indiqué en figure 3.
Le descripteur est issu des variances des coefficients d'ondelettes dans les 12 images de détail obtenues par décomposition hiérarchique de l'image comme indiqué sur la figure 4, les douze images de détail étant les images de détail représentées à l'exclusion de la région hachurée.
Le circuit pour décomposer les images en sous-bandes est un ensemble de filtres qui filtrent l'image dans les deux directions en sous- bandes basses et hautes fréquences.
Le circuit comporte quatre niveaux successifs de décomposition pour décomposer l'image en sous-bandes selon quatre niveaux de résolution.
La sous-bande ni comporte les composantes ou coefficients de basse fréquence dans les deux directions du signal image. La sous-bande LH1 comporte les coefficients basse fréquence dans une première direction et haute fréquence dans l'autre direction. La sous-bande HL, comporte les coefficients haute fréquence dans la première direction et basse fréquence dans la seconde direction. Finalement, la sous-bande HH1 comporte les coefficients haute fréquence dans les deux directions.
La sous-bande LL1 est ensuite décomposée selon le même principe que décrit ci-dessus en sous-bandes LL2, LH2, HL2, HH2.
La sous-bande LL2 est ensuite décomposée selon le même principe que décrit ci-dessus en sous-bandes LL3, LH3, HL3, HH3.
La sous-bande LL3 est ensuite décomposée selon le même principe 30 que décrit ci-dessus en sous-bandes LL4, LH4, HL4, HH4.
Ce descripteur permet de capturer les propriétés particulières de texture des visages.
2857481 11 Dans d'autres modes de réalisation, un descripteur représentant la variance de la luminance le long de l'axe majeur de l'ellipse peut être utilisé.
Claims (1)
12 Revendications
1. Procédé de détection de visages dans une image, l'image étant composée d'une pluralité de pixels, caractérisé en ce qu'il comporte les étapes de - détection des pixels de couleur chair dans l'image, - segmentation de l'image en régions (R;) de couleur homogène, sélection, parmi les régions (R;) de couleur homogène, des régions comportant un nombre de pixels de couleur chair supérieur à un premier seuil prédéterminé, les régions sélectionnées étant dites régions de couleur chair, - fusion des régions (R;) voisines de couleur chair jusqu'à ce que le coût de fusion atteigne un second seuil prédéterminé, le coût de fusiôn pondérant de façon linéaire un coût de fusion sur la forme des régions (R; ) et un coût de fusion sur la couleur des régions (R;), - exclusion des faux positifs.
2. Procédé selon la revendication 1 caractérisé en ce que l'étape de fusion comporte les sous-étapes de calcul du coût de fusion sur la couleur des régions (R;) en calculant la différence de couleur moyenne entre des régions (R;) voisines, calcul du coût de fusion sur la forme en calculant - le recouvrement entre l'aire de la région (R;) et l'aire d'une ellipse (E;) ayant même centre de gravité que ladite région (R;) et la recouvrant au mieux, - le caractère elliptique de chaque région par calcul du rapport de la somme du nombre de pixels de la région en dehors de l'ellipse (E;) et du nombre de pixels de l'ellipse (E;) hors de la région (R;) par le nombre de pixels de l'ellipse (E;).
- la différence entre le maximum des mesures de caractère elliptique des deux régions (R;) voisines et la 2857481 13 mesure de caractère elliptique de la région (R;) fusionnée.
3. Procédé selon l'une des revendications précédentes caractérisé en ce que l'étape de détection des pixels de couleur chair consiste à définir un modèle de couleur de visage sous la forme d'une loi de probabilité gaussienne bidimensionnelle dans un plan de chrominance.
4. Procédé selon l'une des revendications précédentes caractérisé en ce que l'étape d'exclusion des faux positifs consiste à comparer les propriétés des régions (Ri) fusionnées à certaines propriétés d'un visage et à exclure les régions dont les propriétés sont trop éloignées de celles d'un visage.
5. Procédé selon la revendication 4 caractérisé en ce que les propriétés sont choisies parmi - la taille de la région, la forme de la région, la couleur moyenne, la variance de la luminance le long de l'axe majeur et une combinaison quelconque de ces propriétés.
6. Procédé selon l'une des revendications 1 à 3 caractérisé en ce que l'étape d'exclusion des faux positifs comprend les sous-étapes de - calcul d'au moins un descripteur visuel sur les régions (R;) fusionnées, détermination d'un hyperplan optimal dans l'espace des descripteurs entre des images exemple comportant un visage et des images exemple ne comportant pas de visage, - exclusion des régions (R;) dont le descripteur ne se situe pas du bon côté 30 de l'hyperplan.
7. Procédé selon la revendication 6 caractérisé en ce que le descripteur est calculé en effectuant une transformation en ondelettes d'un rectangle minimal englobant l'ellipse fusionnée et en affectant au 2857481 14 descripteur les variances des coefficients d'ondelettes dans douze images de détail obtenues par décomposition hiérarchique de l'image.
8. Dispositif de détection de visages dans une image l'image étant composée d'une pluralité de pixels, caractérisé en ce qu'il comporte: des moyens de détection des pixels de couleur chair dans l'image, - des moyens de segmentation de l'image en régions (R;) de couleur homogène, des moyens de sélection, parmi les régions (R;) de couleur homogène, des régions (R;) comportant un nombre de pixels de couleur chair supérieur à un premier seuil prédéterminé, les régions sélectionnées étant dites régions de couleur chair, - des moyens de fusion des régions (R;) voisines de couleur chair jusqu'à ce que le coût de fusion atteigne un second seuil prédéterminé, le coût de fusion pondérant de façon linéaire un coût de fusion sur la forme des régions (R;) et un coût de fusion sur la couleur des régions (Ri), - des moyens d'exclusion des faux positifs.
9. Produit programme d'ordinateur comprenant des instructions de codes de programme pour l'exécution des étapes du procédé de détection de visages selon l'une des revendications 1 à 7, lorsque ledit programme est exécuté sur un ordinateur.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0308359A FR2857481A1 (fr) | 2003-07-08 | 2003-07-08 | Procede et dispositif de detection de visages dans une image couleur |
EP04015455A EP1496465A1 (fr) | 2003-07-08 | 2004-07-01 | Procédé et dispositif pour détecter des visages dans une image couleur |
JP2004200663A JP4658532B2 (ja) | 2003-07-08 | 2004-07-07 | 顔を検出する処理方法及び画像中の顔の検出装置 |
CNB2004100637586A CN100409248C (zh) | 2003-07-08 | 2004-07-07 | 用于检测彩色图像中的脸部的方法和设备 |
US10/887,973 US7551756B2 (en) | 2003-07-08 | 2004-07-08 | Process and device for detecting faces in a colour image |
KR1020040053147A KR101048582B1 (ko) | 2003-07-08 | 2004-07-08 | 칼라 이미지에서 얼굴들을 검출하기 위한 방법 및 디바이스 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0308359A FR2857481A1 (fr) | 2003-07-08 | 2003-07-08 | Procede et dispositif de detection de visages dans une image couleur |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2857481A1 true FR2857481A1 (fr) | 2005-01-14 |
Family
ID=33443249
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0308359A Pending FR2857481A1 (fr) | 2003-07-08 | 2003-07-08 | Procede et dispositif de detection de visages dans une image couleur |
Country Status (6)
Country | Link |
---|---|
US (1) | US7551756B2 (fr) |
EP (1) | EP1496465A1 (fr) |
JP (1) | JP4658532B2 (fr) |
KR (1) | KR101048582B1 (fr) |
CN (1) | CN100409248C (fr) |
FR (1) | FR2857481A1 (fr) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101120379B (zh) * | 2005-02-17 | 2010-12-08 | 富士通株式会社 | 图像处理方法和图像处理系统 |
CN100378752C (zh) * | 2005-06-03 | 2008-04-02 | 中国科学院自动化研究所 | 鲁棒的自然图像分割方法 |
EP1956548A4 (fr) * | 2005-12-01 | 2009-04-15 | Shiseido Co Ltd | Méthode de classement de visage, dispositif de classement de visage, carte de classement, programme de classement de visage, support d'enregistrement sur lequel ce programme est enregistré |
US20070140551A1 (en) * | 2005-12-16 | 2007-06-21 | Chao He | Banknote validation |
US8031936B2 (en) * | 2006-03-20 | 2011-10-04 | Accenture Global Services Limited | Image processing system for skin detection and localization |
TW200809700A (en) * | 2006-08-15 | 2008-02-16 | Compal Electronics Inc | Method for recognizing face area |
KR100863882B1 (ko) | 2006-09-27 | 2008-10-15 | 김종헌 | 얼굴인식 보안 감시 방법과 이에 적용되는 얼굴인식장치 |
JP4315215B2 (ja) * | 2007-05-18 | 2009-08-19 | カシオ計算機株式会社 | 撮像装置、及び顔検出方法、顔検出制御プログラム |
KR100815291B1 (ko) | 2007-07-31 | 2008-03-25 | (주)올라웍스 | 사용자의 피드백을 이용하여, 얼굴 인식기 또는 얼굴검출기의 파라미터를 최적화하는 방법 및 시스템 |
JP4983962B2 (ja) * | 2009-07-23 | 2012-07-25 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
CN103218781B (zh) * | 2013-04-07 | 2018-07-31 | 小米科技有限责任公司 | 一种对图像进行空间滤波处理的方法和装置 |
KR101518751B1 (ko) * | 2013-11-21 | 2015-05-11 | 연세대학교 산학협력단 | 다중 대조도 자기공명영상에서 잡음 제거 방법 및 장치 |
CN104702907B (zh) * | 2014-03-20 | 2019-05-10 | 杭州海康威视数字技术股份有限公司 | 一种视频拼接的实现方法和系统 |
JP5695257B1 (ja) * | 2014-07-25 | 2015-04-01 | 楽天株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
CN106529437B (zh) * | 2016-10-25 | 2020-03-03 | 广州酷狗计算机科技有限公司 | 一种人脸检测的方法和装置 |
CN108322788B (zh) * | 2018-02-09 | 2021-03-16 | 武汉斗鱼网络科技有限公司 | 一种视频直播中的广告展示方法及装置 |
CN109712104A (zh) * | 2018-11-26 | 2019-05-03 | 深圳艺达文化传媒有限公司 | 自拍视频卡通头像外露方法及相关产品 |
CN110248141B (zh) * | 2019-06-10 | 2021-06-04 | 广州视源电子科技股份有限公司 | 一种视频画面亮度调节方法、装置、设备及可读存储介质 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5012522A (en) * | 1988-12-08 | 1991-04-30 | The United States Of America As Represented By The Secretary Of The Air Force | Autonomous face recognition machine |
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
US5659625A (en) * | 1992-06-04 | 1997-08-19 | Marquardt; Stephen R. | Method and apparatus for analyzing facial configurations and components |
JP3298072B2 (ja) * | 1992-07-10 | 2002-07-02 | ソニー株式会社 | ビデオカメラシステム |
US5781650A (en) * | 1994-02-18 | 1998-07-14 | University Of Central Florida | Automatic feature detection and age classification of human faces in digital images |
US6252976B1 (en) * | 1997-08-29 | 2001-06-26 | Eastman Kodak Company | Computer program product for redeye detection |
JP3657463B2 (ja) * | 1999-06-29 | 2005-06-08 | シャープ株式会社 | 動作認識システムおよび動作認識プログラムを記録した記録媒体 |
JP2002015319A (ja) * | 2000-06-29 | 2002-01-18 | Sharp Corp | 画像認識システム、画像認識方法および画像認識プログラムを記録した記録媒体 |
JP4275304B2 (ja) * | 2000-11-09 | 2009-06-10 | シャープ株式会社 | インターフェース装置およびインターフェース処理プログラムを記録した記録媒体 |
US6670963B2 (en) * | 2001-01-17 | 2003-12-30 | Tektronix, Inc. | Visual attention model |
JP2002218480A (ja) * | 2001-01-23 | 2002-08-02 | Minolta Co Ltd | 画像撮影装置 |
US7343028B2 (en) * | 2003-05-19 | 2008-03-11 | Fujifilm Corporation | Method and apparatus for red-eye detection |
-
2003
- 2003-07-08 FR FR0308359A patent/FR2857481A1/fr active Pending
-
2004
- 2004-07-01 EP EP04015455A patent/EP1496465A1/fr not_active Withdrawn
- 2004-07-07 CN CNB2004100637586A patent/CN100409248C/zh not_active Expired - Fee Related
- 2004-07-07 JP JP2004200663A patent/JP4658532B2/ja not_active Expired - Fee Related
- 2004-07-08 US US10/887,973 patent/US7551756B2/en active Active
- 2004-07-08 KR KR1020040053147A patent/KR101048582B1/ko not_active IP Right Cessation
Non-Patent Citations (7)
Title |
---|
CHUPEAU B ET AL: "HUMAN FACE DETECTION FOR AUTOMATIC CLASSIFICATION AND ANNOTATION OF PERSONAL PHOTO COLLECTIONS", PROCEEDINGS OF THE SPIE, SPIE, BELLINGHAM, VA, US, vol. 5150, 8 July 2003 (2003-07-08), pages 1848 - 1856, XP008029710, ISSN: 0277-786X * |
DAI Y ET AL: "Face-texture model based on SGLD and its application in face detection in a color scene", PATTERN RECOGNITION, PERGAMON PRESS INC. ELMSFORD, N.Y, US, vol. 29, no. 6, 1 June 1996 (1996-06-01), pages 1007 - 1017, XP004007084, ISSN: 0031-3203 * |
GARCIA C ET AL: "Face detection using quantized skin color regions merging and wavelet packet analysis", IEEE TRANS. MULTIMED. (USA), IEEE TRANSACTIONS ON MULTIMEDIA, SEPT. 1999, IEEE, USA, vol. 1, no. 3, September 1999 (1999-09-01), pages 264 - 277, XP001191136, ISSN: 1520-9210 * |
HJELMAS E ET AL: "Face Detection: A Survey", COMPUTER VISION AND IMAGE UNDERSTANDING, ACADEMIC PRESS, SAN DIEGO, CA, US, vol. 83, no. 3, September 2001 (2001-09-01), pages 236 - 274, XP004434095, ISSN: 1077-3142 * |
KAPFER M ET AL: "Detection of human faces in color image sequences with arbitrary motions for very low bit-rate videophone coding", PATTERN RECOGNITION LETTERS, NORTH-HOLLAND PUBL. AMSTERDAM, NL, vol. 18, no. 14, 1 December 1997 (1997-12-01), pages 1503 - 1518, XP004131780, ISSN: 0167-8655 * |
MING-HSUAN YANG ET AL: "Detecting human faces in color images", IMAGE PROCESSING, 1998. ICIP 98. PROCEEDINGS. 1998 INTERNATIONAL CONFERENCE ON CHICAGO, IL, USA 4-7 OCT. 1998, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, 4 October 1998 (1998-10-04), pages 127 - 130, XP010308774, ISBN: 0-8186-8821-1 * |
SCHNEIDERMAN H ET AL: "A statistical method for 3D object detection applied to faces and cars", 2000, LOS ALAMITOS, CA, USA, IEEE COMPUT. SOC, USA, September 2001 (2001-09-01), pages 746 - 751 vol.1, XP001191131, ISBN: 0-7695-0662-3 * |
Also Published As
Publication number | Publication date |
---|---|
KR20050006089A (ko) | 2005-01-15 |
JP2005032250A (ja) | 2005-02-03 |
CN100409248C (zh) | 2008-08-06 |
US7551756B2 (en) | 2009-06-23 |
KR101048582B1 (ko) | 2011-07-12 |
US20050041868A1 (en) | 2005-02-24 |
JP4658532B2 (ja) | 2011-03-23 |
EP1496465A1 (fr) | 2005-01-12 |
CN1577380A (zh) | 2005-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2857481A1 (fr) | Procede et dispositif de detection de visages dans une image couleur | |
Bianco et al. | On the use of deep learning for blind image quality assessment | |
Li et al. | Multi-scale single image dehazing using Laplacian and Gaussian pyramids | |
Chen et al. | Visual depth guided color image rain streaks removal using sparse coding | |
US6738494B1 (en) | Method for varying an image processing path based on image emphasis and appeal | |
Nishiyama et al. | Facial deblur inference using subspace analysis for recognition of blurred faces | |
Phung et al. | Adaptive skin segmentation in color images | |
EP3707676B1 (fr) | Procédé d'estimation de pose d'une caméra dans le référentiel d'une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d'ordinateur associé | |
US20020136450A1 (en) | Red-eye detection based on red region detection with eye confirmation | |
Liu et al. | Exposing splicing forgery in realistic scenes using deep fusion network | |
US20080317358A1 (en) | Class-based image enhancement system | |
US20110243461A1 (en) | Methods, Systems, and Media for Automatically Classifying Face Images | |
JP2002158870A (ja) | 画像の顕著性及びアピール性に基づいて写真印画の数、寸法、及び、倍率を変更する方法 | |
Sahu et al. | Trends and prospects of techniques for haze removal from degraded images: A survey | |
Das et al. | A comparative study of single image fog removal methods | |
Kim et al. | Adaptive patch based convolutional neural network for robust dehazing | |
Nizami et al. | No-reference image quality assessment using bag-of-features with feature selection | |
Golchubian et al. | Photo quality classification using deep learning | |
Guo et al. | Single remote-sensing image dehazing in HSI color space | |
Carvajal-Gámez et al. | Photo-id of blue whale by means of the dorsal fin using clustering algorithms and color local complexity estimation for mobile devices | |
Ahn et al. | CODEN: combined optimization-based decomposition and learning-based enhancement network for Retinex-based brightness and contrast enhancement | |
Sun et al. | Single-image dehazing based on dark channel prior and fast weighted guided filtering | |
Liu et al. | Salient object detection fusing global and local information based on nonsubsampled contourlet transform | |
Kumar et al. | Orthogonal transform based generative adversarial network for image dehazing | |
FR3118243A1 (fr) | Procede d’extraction d’une signature d’une empreinte digitale et dispositif mettant en oeuvre ledit procede |