FR3100074A1 - Procédé d'analyse d'une caractéristique faciale d'un visage - Google Patents

Procédé d'analyse d'une caractéristique faciale d'un visage Download PDF

Info

Publication number
FR3100074A1
FR3100074A1 FR1909321A FR1909321A FR3100074A1 FR 3100074 A1 FR3100074 A1 FR 3100074A1 FR 1909321 A FR1909321 A FR 1909321A FR 1909321 A FR1909321 A FR 1909321A FR 3100074 A1 FR3100074 A1 FR 3100074A1
Authority
FR
France
Prior art keywords
image
face
variation
facial
facial characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1909321A
Other languages
English (en)
Other versions
FR3100074B1 (fr
Inventor
Julien Doublet
Jean Beaudet
Maxime Thiebaut
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR1909321A priority Critical patent/FR3100074B1/fr
Priority to US16/990,223 priority patent/US20210056291A1/en
Publication of FR3100074A1 publication Critical patent/FR3100074A1/fr
Application granted granted Critical
Publication of FR3100074B1 publication Critical patent/FR3100074B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Ophthalmology & Optometry (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Collating Specific Patterns (AREA)

Abstract

Procédé d'analyse d'une caractéristique faciale d'un visage présenté (2) dans un champ d'acquisition d'un imageur (3), comprenant les étapes suivantes : - l'imageur (3) acquiert une première image d'un visage, puis acquiert une seconde image du visage, - à partir de la première image et de la seconde image, une unité de traitement détermine une variation d'une caractéristique faciale entre la première image et la seconde image, sans déterminer une valeur quantifiant un état absolu de la caractéristique faciale dans la première image et/ou dans la seconde image, - à partir de la variation de la caractéristique faciale, l'unité de traitement détermine un état du visage présenté (2) dans le champ d'acquisition d'un imageur (3) et effectue une action en fonction de l'état du visage présenté . Figure pour l'abrégé : Fig. 2

Description

Procédé d'analyse d'une caractéristique faciale d'un visage
La présente invention appartient au domaine de la biométrie, et porte plus précisément sur l'exploitation d'une variation d'une caractéristique faciale apparaissant dans au moins deux images d'un visage pour déterminer un état du visage présenté dans le champ d'acquisition d'un imageur.
Notamment, le procédé peut viser à mettre en œuvre une méthode de surveillance d'un conducteur, par lequel il est déterminé si le conducteur d'un véhicule porte une attention sur la route. En cas de défaut d'attention (éventuellement combiné avec d'autres conditions), le système peut avertir le conducteur, par exemple par un signal lumineux ou sonore. D'autres actions peuvent être entreprise, comme par exemple un freinage d'urgence si une situation dangereuse est détectée sans que l'attention du conducteur ne se soit portée sur la route. Une telle méthode de surveillance d'un conducteur se base sur l'analyse du visage du conducteur pour détecter des signes de manque d'attention (comme par exemple un regard non en direction de la route) et requiert donc une analyse fiable et précise du visage.
Le procédé peut notamment être un procédé biométrique d'authentification impliquant une détection de fraude. Certains procédés d'identification ou de vérification d'identité nécessite d'acquérir une image du visage de la personne souhaitant se prévaloir d'une identité. Il peut s'agir par exemple de procédés biométriques d'identification, basés sur l'analyse d'éléments du visage pour procéder à une identification. Il peut s'agir également de comparer le visage de la personne avec des photographies l'identifiant, notamment lors de la soumission de documents d'identité tels qu'un passeport. Enfin, des procédés de contrôle d'accès basés sur la reconnaissance faciale ont récemment fait leur apparition, notamment pour déverrouiller un téléphone portable intelligent, comme dans le brevet US9477829.
Or, la mise en œuvre de ces procédés requiert de se prémunir contre des fraudes consistant à présenter à l'imageur acquérant l'image du visage une reproduction du visage, telle qu'une photographie. A cet effet ont été développés des procédés pour authentifier le visage, c'est-à-dire pour détecter d'éventuelles fraudes. La plupart de ces procédés reposent sur l'analyse d'un mouvement imposé, ce qu'on appelle généralement un défi. Ainsi, il est demandé par exemple à la personne dont le visage est présenté à l'imageur d'effectuer des actions précises telles que cligner des yeux, sourire ou hocher la tête. Toutefois, de tels procédés se sont révélés vulnérables à des fraudes basées sur la présentation de vidéos dans lesquelles un visage effectue le défi demandé.
La demande de brevet US 2017/0124385 A1 décrit un procédé d'authentification d'un utilisateur basé sur un défi, c'est-à-dire que l'utilisateur doit exécuter une séquence de mouvement imposés. Plus précisément, le système demande à l'utilisateur de se tenir d'abord dans une position de repos face caméra, où il acquiert une première signature du visage, puis lui demande de se tourner pour acquérir une seconde signature du visage. L'authentification se fait en comparant les signatures pour détecter une incohérence représentative d'une fraude. La robustesse à la fraude d'une telle approche n'est cependant pas parfaite.
Les procédés biométriques exploitant le visage nécessitent de quantifier de façon absolue une caractéristique faciale extraite d'une image, et de comparer la valeur obtenue à une valeur attendue. Or, la quantification absolue d'une caractéristique faciale peut être difficile et imprécise. Par exemple, le procédé peut comprendre la détermination d'une pose exacte du visage dans une image. Une pose du visage correspond à son orientation. Ainsi qu'illustré sur la figure 1, l'orientation du visage peut être décrite par trois angles traduisant des rotations autour d'axes définis par la configuration commune des visages. En effet, un visage comporte un bas (en direction du cou), un haut (le front/les cheveux), une face où sont visibles entièrement la bouche et les yeux, et deux côtés où se trouvent les oreilles. Les différents éléments composant un visage se répartissent selon des critères géométriques évidents dans une vue de face : la bouche est en dessous du nez, les yeux sont sur une même ligne horizontale, les oreilles sont également sur une même ligne horizontale, les sourcils sont au-dessus des yeux, etc….
La figure 1 montre un exemple typique de repérage de l'orientation d'un visage en fonction de trois angles autour de trois axes orthogonaux : un angle de lacet autour d'un axe vertical 20, un angle d'assiette (ou tangage) autour d'un premier axe horizontal 21, et un angle de gîte autour d'un second axe horizontal 22. S'agissant de visages, on utilise généralement la terminologie anglaise correspondante : "yaw" pour l'angle de lacet, "pitch" pour l'angle d'assiette ou de tangage, et "roll" pour l'angle de gîte. La rotation autour de l'axe vertical 20 correspond à la rotation de la tête de gauche à droite, et inversement. Le premier axe horizontal 21 correspond à un axe horizontal autour duquel tourne la tête lors d'un hochement de tête, et peut par exemple être grossièrement défini par une ligne reliant les deux oreilles du visage. Le second axe horizontal 22 correspond à un axe horizontal compris dans un plan de symétrie du visage, coupant le nez et la bouche et séparant les yeux. La rotation autour de ce second axe horizontal 22 correspond à un penchement de tête à gauche ou à droite.
De nombreux procédés de détermination de la pose absolue d'un visage ont été proposés. La pose absolue peut être déterminée à partir d'une image du visage par une reconnaissance développé à partir d'un apprentissage profond (voir par exemple la thèse "Head Pose Estimation using Deep Learning" par Ines Sophia Rieger, de l'Université de Bamberg), ou déterminée à partir de points caractéristiques définis sur le visage (voir par exemple l'article "Head Pose Estimation Based On Detecting Facial Features" de Hiyam Hatem et al., International Journal of Multimedia and Ubiquitous Engineering, Vol. 10, No. 3 (2015), pp. 311-322). Des approches statistiques se basant sur la symétrie du visage (par exemple l'article "Head Pose Estimation Based on Face Symmetry Analysis" par Afifa Dahmane et al. Signal, Image and Video Processing, Springer Verlag, 2015, 9 (8), pp.1871-1880) ont également été proposé, ainsi que plus anciennement des approches basées sur des approches de corrélation de caractéristiques permettaient d’avoir une approximation de la pose absolue.
Toutefois, il peut être difficile de déterminer, à partir d'une image, une pose absolue du visage. La pose absolue du visage correspond à une description (par les valeurs des angles de gîte, assiette, et lacet) de l'orientation du visage apparaissant dans l'image par rapport à un référentiel de pose correspondant à une vue de face. Or, les visages humains présentent une grande variété de formes, qui peuvent conduire à déterminer des poses erronées. En particulier, les asymétries de visage peuvent conduire à des erreurs. Par exemple, le nez d'une personne peut être plus ou moins tordu, ce qui conduira à déterminer une pose erronée car le nez est un élément essentiel dans la détermination de la pose absolue d'un visage. Par ailleurs, les conditions d'éclairage peuvent altérer la détermination d'une pose absolue correcte. Il en résulte que la détermination de la pose absolue du visage est imprécise ou entachée d'erreur. Or, les mouvements de la tête sont d'amplitudes limitées, notamment pour ne pas générer d'inconfort à l'utilisateur en lui imposant des mouvements trop amples, qui pourraient même être impossibles à effectuer pour certaines personnes. Les plages de variation des angles de poses sont donc généralement limitées de ±10° à ±20° par rapport à une vue de face, considérée comme pose de référence. Dès lors, une incertitude de quelques degrés sur les angles de pose devient problématique. Il en résulte une grande tolérance pour les défis basés sur les poses absolues du visage, réduisant ainsi la fiabilité de la détection des fraudes.
Il en va de même concernant la quantification absolue d'autres caractéristiques faciales à partir d'une image. Par exemple, il peut être difficile d'exploiter la quantification de l'ouverture d'une paupière peut être difficile à quantifier exactement. En particulier, la présence ou l'absence d'un pli épicanthique ou plus simplement la variabilité de la forme des yeux, peut engendrer des résultats erronés. Ainsi, un œil ouvert pourra être considéré comme entrouvert, et inversement.
Présentation de l'invention
L'invention a pour but de remédier au moins en partie à ces inconvénients et préférentiellement à tous, et vise notamment à proposer un procédé d'analyse d'un visage présenté à un terminal permettant le suivi d'une caractéristique faciale permettant de mettre en œuvre une méthode de surveillance de conducteur ou de détecter les fraudes dans le cadre d'un procédé d'identification biométrique, qui soit à la fois simple, robuste, et qui présente une fiabilité améliorée par rapport aux procédés basés sur une quantification absolue d'une caractéristique faciale du visage.
A cet effet, il est proposé un procédé d'analyse d'un visage présenté dans un champ d'acquisition d'un imageur, comprenant les étapes suivantes :
- l'imageur acquiert une première image d'un visage présenté dans son champ d'acquisition, puis l'imageur acquiert une seconde image du visage présenté dans son champ d'acquisition, une caractéristique faciale du visage présenté apparaissant dans la première image et dans la seconde image, la caractéristique faciale correspondant à une caractéristique intrinsèque du visage présenté susceptible d'être modifiée volontairement par une personne présentant son visage,
- à partir de la première image et de la seconde image, une unité de traitement détermine une variation de la caractéristique faciale entre la première image et la seconde image, sans déterminer une valeur quantifiant un état absolu de la caractéristique faciale dans la première image et/ou dans la seconde image,
- à partir de la variation de la caractéristique faciale, l'unité de traitement détermine un état du visage présenté dans le champ d'acquisition d'un imageur et effectue une action en fonction de l'état du visage présenté.
Le procédé est avantageusement complété par les caractéristiques suivantes, prises seules ou en quelconque de leurs combinaisons techniquement possibles :
- la variation de la caractéristique faciale correspond à une variation de la géométrie tridimensionnelle du visage présenté ;
- la variation de la caractéristique faciale est une rotation, et/ou une déformation, et/ou un déplacement de la caractéristique faciale entre la première image et la seconde image ;
- la variation de la caractéristique faciale est une variation de la pose du visage, et/ou une variation d'une pose d'au moins un œil, et/ou une variation d'ouverture d'au moins une paupière, et/ou une variation de forme d'une bouche du visage et/ou une variation de forme d'un sourcil ;
- la variation de la caractéristique faciale est une variation de la pose du visage définie par une variation d'angle représentatif de l'orientation du visage, et dans lequel l'au moins un angle représentatif de l'orientation du visage est un angle de lacet autour d'un axe vertical, et/ou un angle d'assiette autour d'un premier axe horizontal, et/ou un angle de gîte autour d'un second axe horizontal ;
- le procédé comprend une étape de détection du visage dans chacune de la première image et la seconde image préalablement à la détermination de la variation de la caractéristique faciale entre la première image et la seconde image, ladite étape de détection du visage comprenant la détermination d'une région d'intérêt dans une image correspondant à la localisation du visage dans ladite image, la variation de la caractéristique faciale entre la première image et la seconde image étant déterminée à partir d'une première région d'intérêt dans la première image et une seconde région d'intérêt dans la seconde image ;
- la variation de la caractéristique faciale entre la première image et la seconde image fait intervenir un modèle de calcul prenant en entrée la première image et la seconde image ou des régions d'intérêt de celles-ci, ou une différence entre la première image et la seconde image ou des régions d'intérêt de celles-ci, le modèle de calcul ayant pour sortie au moins une rotation et/ou une différence d'une valeur représentative de la variation de la caractéristique faciale ;
- le modèle de calcul est un réseau de neurone, une machine à vecteur de support ou un arbre de décision ;
- le modèle de calcul est paramétré lors d'une phase d'apprentissage supervisé utilisant une base de données d'images présentant des visages présentant différents états de la caractéristique faciale, les valeurs quantifiant les états de de la caractéristique faciale étant renseignés, les données d'images étant augmentées par des détériorations d'image et/ou des défauts de positionnement de la région d'intérêt ;
- la première image et la seconde image appartiennent à une séquence d'images acquises par l'imageur, et l'unité de traitement met en œuvre un suivi de l'état absolu de la caractéristique faciale à partir des images de la séquence acquise en utilisant un filtre récursif combinant des informations sur l'état absolu de la caractéristique faciale d'une image de la séquence d'images et une variation de la caractéristique faciale entre des images successives de la séquence d'images ;
- l'état du visage présenté est un état d'attention, et dans lequel l'action effectuée par l'unité de traitement est une mise en œuvre d'une méthode de surveillance d'un conducteur ;
- l'état du visage présenté est une authenticité ou non du visage présenté, et l'action effectuée par l'unité de traitement est une mise en œuvre d'une méthode de détection de fraude à partir de la variation de la caractéristique faciale entre la première image et la seconde image, l'unité de traitement authentifiant ou non le visage présenté dans le champ d'acquisition de l'imageur en fonction du résultat de la méthode de détection de fraude ;
- la méthode de détection de fraude met en œuvre un défi, et l'authentification est basée sur la comparaison entre d'une part la variation de la caractéristique faciale entre la première image et la seconde image et d'autre part une variation de la caractéristique faciale attendue en réponse au défi ;
- la variation de la caractéristique faciale est une variation de pose du visage, et la méthode de détection de fraude met en œuvre une technique de structure acquise à partir d'un mouvement, SfM, et l'authentification se base sur la géométrie tridimensionnelle du visage présenté, la mise en œuvre de la technique de SfM étant conditionnée au fait que la variation de pose du visage entre la première image et la seconde image soit supérieure à un seuil.
L'invention concerne également un produit programme d'ordinateur comprenant des instructions de code de programme enregistrées sur un support non transitoire utilisable dans un ordinateur pour l’exécution des étapes d'un procédé selon l'invention lorsque ledit programme est exécuté sur un ordinateur utilisant ledit support non transitoire.
L'invention concerne enfin un terminal comprenant un imageur et une unité de traitement, ledit terminal étant configuré pour mettre en œuvre un procédé selon l'invention.
Présentation des figures
L'invention sera mieux comprise, grâce à la description ci-après, qui se rapporte à des modes de réalisations et des variantes selon la présente invention, donnés à titre d'exemples non limitatifs et expliqués avec référence aux dessins schématiques annexés, dans lesquels :
la figure 1 montre schématiquement les angles définissant la pose d'un visage,
la figure 2 montre de façon schématique une personne présentant son visage à un terminal lors de la mise en œuvre du procédé selon un mode de réalisation possible de l'invention,
la figure 3 montre un schéma de principe d'étapes mises en œuvre dans le procédé d'authentification, selon un mode de réalisation possible de l'invention.
Description détaillée
L'invention concerne un procédé d'analyse du visage impliquant la détermination d'une variation d'une caractéristique faciale entre deux images, et être utilisé dans diverses application. Notamment, l'invention peut viser à mettre en œuvre une méthode de surveillance d'un conducteur, ou à mettre en œuvre une détection de fraude dans le cadre d'une authentification biométrique. Dans tous les cas, une variation d'une caractéristique faciale apparaissant dans au moins deux images d'un visage est exploitée pour déterminer un état du visage présenté dans le champ d'acquisition d'un imageur. Pour des raisons de simplicité et de façon illustrative et non limitative, l'invention sera ci-dessous présentée dans le cadre d'un procédé biométrique d'authentification d'un visage, mais les enseignements peuvent être utilisés pour toute application impliquant l'analyse d'un visage. Dans ce cadre, l'état du visage présenté est une authenticité ou non du visage présenté, et l'action effectuée par l'unité de traitement est une mise en œuvre d'une méthode de détection de fraude à partir de la variation de la caractéristique faciale entre la première image et la seconde image.
Le procédé biométrique d'authentification d'un visage présenté à un imageur met en œuvre une méthode de détection de fraude à partir de la variation d'une caractéristique faciale entre deux images. La caractéristique faciale correspond à un trait du visage, susceptible de variation dans un temps court (typiquement moins de cinq secondes), de préférence volontairement de la part de la personne présentant son visage. La variation de la caractéristique faciale peut par exemple être une variation de la pose du visage, et/ou une variation d'une pose d'un œil, et/ou une variation d'ouverture d'au moins une paupière, et/ou une variation d'une forme d'une bouche du visage et/ou une variation de forme d'un sourcil, ou une combinaison de celles-ci. De fait, la personne présentant son visage peut volontairement bouger sa tête pour faire varier la pose de son visage, fermer ou ouvrir les paupières, ou suivre un objet du regard. Typiquement, la variation de la caractéristique faciale correspond à une variation de la géométrie tridimensionnelle du visage présenté. Plus spécifiquement, la variation de la caractéristique faciale est une rotation, et/ou une déformation, et/ou un déplacement de la caractéristique faciale entre la première image et la seconde image.
En revanche, des caractéristiques faciales telles que la largeur du front, la couleur de la peau ou l'écartement des yeux, ne sont pas des caractéristiques faciales prises en compte pour la méthode de détection de fraude. En outre, la caractéristique faciale est une caractéristique intrinsèque du visage présenté, c'est-à-dire qu'elle est relative au visage présenté et non à la seule représentation de ce visage dans l'image acquise. Ainsi, les caractéristiques de netteté de l'image ou de luminosité, liées aux conditions d'acquisition ou aux réglages de l'imageur, ne sont pas des caractéristiques intrinsèques du visage présenté.
A des fins d'illustrations non-limitatives, une variation de la pose du visage, définie comme plus haut par au moins une variation d'angle (rotation ou différence d'angle) représentatif de l'orientation du visage, est utilisée en tant qu'exemple principal d'une variation d'une caractéristique faciale. Les enseignements liés à l'utilisation de la variation de la pose du visage peuvent facilement être transposés par un homme du métier à l'utilisation d'autres variations de caractéristiques faciales.
En référence à la figure 2, le procédé d'authentification peut être mis en œuvre au moyen d'un terminal 1 auquel un visage 2 d'un utilisateur est présenté. Le terminal 1 comprend une unité de traitement et un imageur 3 adapté pour acquérir des images d'objets présentés dans son champ d'acquisition 4. De préférence, le terminal 1 comprend également un écran 5 capable d'afficher des images à l'utilisateur, et est configuré de sorte que l'utilisateur puisse simultanément présenter son visage 2 dans le champ d'acquisition 4 de l'imageur 3, et regarder l'écran 5. Le terminal 1 peut ainsi être par exemple un terminal de poche type "smartphone", qui présente typiquement une configuration adéquate entre l'imageur 3 et l'écran 5. Le terminal 1 peut néanmoins être tout type de terminal informatisé, et peut en particulier être une borne fixe dédiée aux contrôles d'identité, par exemple installée dans un aéroport. Le terminal 1 peut encore être un dispositif électronique embarqué dans un véhicule formant un système de surveillance du conducteur. L'unité de traitement comprend au moins un processeur et une mémoire, et permet d'exécuter un programme informatique pour la mise en œuvre du procédé.
L'utilisateur présente son visage 2 dans le champ d'acquisition 4 de l'imageur 3. L'imageur 3 acquiert au moins une première image initiale du visage 2 (étape S01). L'imageur acquiert ensuite (étape S02) une seconde image du visage présenté dans son champ d'acquisition 4. La première image et la seconde image peuvent faire partie d'une séquence d'images, par exemple constituant une vidéo acquise par l'imageur 3. La première image et la seconde image peuvent être des images temporellement successives de la séquence d'images, ou peuvent être des images temporellement séparées par des images intermédiaires. La première image et la seconde image peuvent également être des images prises isolément l'une après l'autre. Typiquement, le procédé d'analyse est mis en œuvre sur la séquence d'images acquises, et la première image et de la seconde image sont continuellement renouvelée. De préférence, la première image d'une itération est la seconde image de l'itération précédente.
Du fait que l'acquisition de la première image et l'acquisition de la seconde image ne soient pas simultanées, une caractéristique faciale du visage dans la seconde image diffère de la même caractéristique faciale du visage dans la première image, rendant compte d'une modification de l'apparence du visage 2 présenté à l'imageur 3. Par exemple, en prenant la pose du visage en tant que caractéristique faciale, le visage dans la seconde image présente une pose différente de la pose du visage dans la première image, rendant compte d'un mouvement du visage 2 présenté. En référence à la figure 1, le visage a pu pivoter autour de l'axe vertical 20, modifiant l'angle de lacet de la pose, et/ou autour du premier axe horizontal 21, modifiant l'angle d'assiette de la pose. La variation de la caractéristique faciale, par exemple due au mouvement du visage, peut être effectuée par la personne présentant son visage 2 à l'imageur dans le but de répondre à un défi impliquant d'effectuer des mouvements imposés.
Le procédé peut ensuite comprendre une étape de détection du visage (étape S03) dans chacune de la première image et la seconde image. L'étape de détection du visage comprend la détermination d'une région d'intérêt dans une image correspondant à la localisation du visage dans ladite image. La région d'intérêt est typiquement une zone rectangulaire (ou boîte) englobant le visage afin d'isoler le visage de son environnement apparaissant dans l'arrière-plan de l'image. D'autres types de régions d'intérêt peuvent être utilisée. La région d'intérêt peut par exemple être définie par un contour entre la peau et l'arrière-plan, délimitant le visage par rapport à son arrière-plan.
La région d'intérêt peut être déterminée au moyen de plusieurs approches. Une approche est par exemple d'analyser l'image pour en détecter des particularités physiques tels que les yeux. Dans la mesure où les visages sont constitués d'éléments similaires (yeux, nez, bouches, etc.) spatialement organisés de manière similaire, la détection de ces éléments est facilitée. Une autre approche est par exemple d'utiliser un modèle de calcul tel qu'un réseau de neurone, une machine à vecteur de support ou un arbre de décision, préalablement entraîné par sur une base d'apprentissage d'images présentant des visages variés.
Cette étape de détection du visage peut être mise en œuvre par l'unité de traitement sur la première image et la seconde image transmise par l'imageur 3. Il est également possible que cette étape de détection du visage soit mise en œuvre par un autre élément que l'unité de traitement, comme par exemple l'imageur 3, et que l'unité de traitement ne reçoive que les régions d'intérêt plutôt que les images complètes.
L'unité de traitement détermine ensuite une variation d'une caractéristique faciale du visage entre la première image et la seconde image (étape S04). Dans le cas d'une variation de pose, cette variation de pose est définie par au moins une variation d'angle représentatif de l'orientation du visage. Comme indiqué plus haut, cette variation d'angle peut par exemple être une rotation ou une différence d'angle. La variation de la pose peut être exprimée par des valeurs d'angles de rotation, ou des différences d'angles. Typiquement, une variation d'une caractéristique faciale telle que la pose du visage peut être exprimée selon des angles par rapport à des axes du visage, et notamment comme expliqué plus haut une différence d'angle de lacet, d'angle d'assiette ou d'angle de gîte. Il est cependant possible (et plus aisé) d'utiliser des angles par rapport aux axes de l'imageur 3, puisque le traitement est effectué sur des images acquises par l'imageur 3. Pour des raisons de simplicité, l'exemple utilise ici des différences angles par rapport à des axes du visage.
L'unité de traitement peut ainsi déterminer une différence d'angle de lacet autour de l'axe vertical 20 entre le visage de la première image et le visage de la seconde image, et/ou une différence d'angle d'assiette (ou tangage) autour d'un premier axe horizontal 21 entre le visage de la première image et le visage de la seconde image, et/ou une différence d'angle de gîte autour d'un second axe horizontal 22 entre le visage de la première image et le visage de la seconde image. Il est possible de déterminer les trois différences d'angle, seulement deux différences d'angles, ou bien une seule différence d'angle. Par exemple, il n'est pas toujours nécessaire de déterminer l'angle de gîte. En effet, une variation de l'angle de gîte correspond un penchement de tête à gauche ou à droite. En raison de la faible amplitude de rotation d'un visage dans cette direction, et de l'inconfort que cette rotation peut procurer si elle est imposée à une personne, cette différence d'angle de gîte peut ne pas être exploitée. Ainsi, la différence d'angle est de préférence une différence d'angle de lacet ou une différence d'angle d'assiette.
Bien entendu, d'autres variations d'une caractéristique faciale peuvent être déterminée. Il est par exemple possible de déterminer une variation de la direction du regard, qui peut être exprimée comme une pose d'au moins un œil, et donc être déterminée de façon très similaire à la variation de la pose du visage. Il est également possible de déterminer une variation d'ouverture d'au moins une paupière. La variation de l'ouverture d'une paupière peut par exemple être exprimée par une modification du rapport largeur sur hauteur de l'espace d'un œil laissé découvert par la paupière. La variation d'une forme de bouche peut par exemple être exprimée comme la modification des paramètres d'un polynôme (dans le cas le plus simplifié, d'une parabole) définissant une courbe de séparation entre les deux lèvres de la bouche. Il en va de même pour la variation d'une forme de sourcil, avec la variation de forme exprimée par les paramètres d'un polynôme définissant une courbe médiane du sourcil. La variation de la forme de la bouche peut également être exprimée par la variation de son ouverture (par exemple pour détecter un bâillement), selon les mêmes modalités que la variation de l'ouverture de la paupière.
Les variations de plusieurs caractéristiques faciales peuvent correspondre à des variations de la géométrie tridimensionnelle du visage. Il est par exemple possible de déterminer, à partir de chacune des deux images, un modèle tridimensionnel de la surface du visage, typiquement un maillage de point, et par exemple le modèle de 68 points remarquable du visage (68 Point Face Landmark Model). Il est possible alors de déterminer une variation (rotation ou différence de position) pour des points du maillage.
La variation de la caractéristique faciale entre la première image et la seconde image est déterminée directement par l'unité de traitement, c'est-à-dire sans quantifier un état de la caractéristique faciale dans la première image et/ou quantifier un état de la caractéristique faciale dans la seconde image, c’est-à-dire sans déterminer une valeur quantifiant un état absolu de la caractéristique faciale.
Par exemple, le procédé ne détermine pas une pose absolue du visage dans la première image et/ou une pose absolue du visage dans la seconde image. Une pose absolue du visage est définie par au moins un angle représentatif de l'orientation du visage par rapport à un référentiel, typiquement de face. Ainsi qu'expliqué plus haut, il peut être difficile de déterminer une pose absolue du visage, ce qui se traduit par des imprécisions ou des erreurs dans les poses absolues déterminées. En déterminant directement la variation de pose du visage entre les deux images, le procédé ne prend donc en compte que la variation de cette pose intervenue entre les deux images. Or, la détermination de la variation d'une pose est plus précise que la détermination d'une pose absolue.
Par exemple, un nez tordu pourra entraîner des erreurs dans la détermination de la pose absolue. Alors que les yeux semblent de face, le nez tordu peut donner l'impression d'une inclinaison de tête. La détermination de la pose absolue pourra alors fluctuer entre une pose de face ou inclinée, par exemple en raison de légers déplacements du visage ou de variations lumineuses qui peuvent intervenir dans le résultat de la détermination. Dans le cas du traitement d'un flux d'image, il peut alors en résulter une instabilité de la pose absolue déterminée. En revanche, l'aspect tordu du nez n'affecte pas la variation de pose qui peut être déduit des images. En effet, quel que soit l'aspect inhabituel de l'alignement du nez et des yeux, cet alignement pivote avec les mouvements de la tête modifiant la pose du visage. La détermination de la différence d'angle de pose n'est donc pas affectée par ce nez tordu.
Il en va de mêmes pour d'autres caractéristiques faciales. La détermination de la direction du regard, et donc la pose des yeux, peut être difficile. Par exemple, un défaut de parallélisme des axes visuels des yeux (strabisme) peut fausser la détermination de la pose absolue des yeux. Par ailleurs, des troubles tels que l'anisocorie peuvent rendre difficile la détermination de la pose absolue des yeux. En revanche, la variation de la pose des yeux lors du suivi d'un objet est nettement plus fiable, malgré par exemple la présence d'un strabisme. Concernant l'ouverture des paupières, il peut être difficile de déterminer et d'exploiter une quantification absolue de l'ouverture des paupières telle que le rapport largeur sur hauteur en raison de l'importante diversité de la structure des paupières (comme par exemple la présence ou l'absence de pli épicanthique) ou de la forme des yeux, il est en revanche plus fiable de déterminer la variation de l'ouverture des paupières.
La variation de la caractéristique faciale entre la première image et la seconde image est déterminée à partir de la première image et la seconde image, sous la forme d'images complètes ou de régions d'intérêt de ces images. Notamment, lorsqu'une étape de détection du visage dans chacune de la première image et la seconde image est mise en œuvre préalablement à la détermination de la variation de la caractéristique faciale, la variation de la caractéristique faciale entre la première image et la seconde image peut être déterminée à partir d'une première région d'intérêt dans la première image et d'une seconde région d'intérêt dans la seconde image, la région d'intérêt dans une image correspondant à la localisation du visage dans ladite image. Typiquement, la première image et la seconde image peuvent être transmises par l'imageur 3 à l'unité de traitement (directement ou indirectement). Il est également possible que l'unité de traitement ne reçoive que les régions d'intérêt de chacune des images.
Afin de déterminer la variation de la caractéristique faciale entre la première image et la seconde image, l'unité de traitement peut utiliser un modèle de calcul prenant en entrée la première image et la seconde image ou des régions d'intérêt de celles-ci. Il est également possible que le modèle de calcul prenne en entrée une différence entre la première image et la seconde image ou une différence entre des régions d'intérêt de celles-ci. Le modèle de calcul a pour sortie au moins une rotation ou une valeur représentative de la variation de la caractéristique faciale. Par exemple, dans le cas de la variation de la pose du visage, il peut s'agir d'une différence d'angle représentatif de l'orientation d'un visage, qui définit la différence de pose du visage entre la première image et la seconde image. De préférence, le modèle de calcul a pour sortie au moins deux différences d'angle, et plus précisément une différence d'angle de lacet et une différence d'angle d'assiette.
Typiquement, le modèle de calcul est un réseau de neurone, une machine à vecteur de support ou un arbre de décision, résultant d'un processus d'apprentissage automatique. Le modèle de calcul peut notamment être paramétré lors d'une phase d'apprentissage supervisé utilisant une base de données d'images présentant des visages avec différents états de la caractéristique faciale(par exemple plusieurs poses différentes du visage). Dans la base de données d'images, les valeurs quantifiant les états de la caractéristique faciale (par exemple différentes poses absolues exprimées par des valeurs d'angles) des visages de la base de données d'images sont renseignées. Ainsi, à chaque visage d'une image de la base de données est associé une valeur quantifiant un état absolu de la caractéristique faciale, par exemple une pose absolue exprimée en termes d'angles par rapport à un référentiel. Ces états de la caractéristique faciale peuvent par exemple être déterminées par les méthodes mentionnées plus haut. Dans la base de données, un même visage est présent sur au moins deux images, avec des états différents de la caractéristique faciale, et ces deux images sont présentées en entrée au modèle de calcul selon les modalités de son utilisation ultérieure (par exemple présentation ou non sous forme des seules régions d'intérêt). Les sorties du modèle de calcul prennent la forme de quantité de variation de la caractéristique faciale (par exemple des différences d'angles de pose) et sont comparées avec les quantités de variation entre les états absolus (par exemple différences entre les poses absolues) associés aux images du même visage dans la base de données. Afin de renforcer la robustesse du modèle de calcul, il est possible d'augmenter les données d'images par des détériorations d'image et/ou des défauts de positionnement de la région d'intérêt. L'augmentation des données lors de l'apprentissage permet au modèle de calcul de mieux fonctionner en condition réelles, lorsque les images acquises présentent des défauts.
En fonction des modalités de l'acquisition des images, la détermination de la variation de la caractéristique faciale peut être faite itérativement. Il est alors possible de ne modifier qu'une image parmi la première image et la seconde image du visage entre deux itérations. Typiquement, seule la seconde image est modifiée lors de chacune de plusieurs itérations. Ainsi, dans le cas de l'acquisition d'images sous la forme d'un flux vidéo, une première image constituant une référence peut rester inchangée pendant plusieurs déterminations de variations de la la caractéristique faciale, tandis que la seconde image est modifiée en permanence pour rendre compte de l'évolution de la caractéristique faciale du visage dans le flux vidéo. Cette approche a pour avantage de réduire les traitements d'image puisqu'il alors pas nécessaire de refaire à chaque fois pour la première image des traitements tels que la détection de visage. De plus, en gardant une même image pendant plusieurs itérations, il est possible de mettre en évidence des changements de la caractéristique faciale plus importants, et qui peuvent par exemple dépasser un seuil prédéterminé, enclenchant la réalisation d'une action déterminée. De préférence toutefois, les deux images sont gardées relativement proche temporellement parlant (par exemple 1 secondes d'écart au maximum) de sorte qu'une même image n'est conservée qu'un nombre restreint d'itérations.
A l'inverse, l'utilisation de deux images temporellement proches et toujours renouvelées, résulte en la détection de tous les changements de la caractéristique faciale, en ne couvrant qu'une période de comparaison restreinte à l'intervalle temporel entre les deux images, qui peut être faible. Pour détecter un grand changement de la caractéristique faciale, s'étalant sur plusieurs images, il est alors nécessaire d'intégrer les valeurs quantifiant les variations de la caractéristique faciale déterminées à chaque itération, comme par exemple les différences d'angles lorsque la caractéristique faciale est la pose du visage.
Lorsque la variation de la caractéristique faciale a été déterminée, ou plus typiquement lorsqu'une pluralité de variations de la caractéristique faciale ont été déterminées, l'unité de traitement détermine un état du visage présenté 2 dans le champ d'acquisition d'un imageur 3 et effectue une action en fonction de l'état du visage présenté. Un état du visage présenté peut être une caractéristique variable du visage telle qu'une expression du visage traduisant une émotion ou une attention (regard dirigé vers la route, yeux ouverts, etc.) ou une caractéristique intrinsèque du visage, comme par exemple son aspect authentique ou non. Dans le cadre de l'exemple d'un procédé d'authentification biométrique, l'état du visage présenté est une authenticité ou non du visage présenté, et l'action effectuée par l'unité de traitement est une mise en œuvre d'une méthode de détection de fraude à partir de la variation de la caractéristique faciale entre la première image et la seconde image. L'unité de traitement met donc en œuvre une méthode de détection de fraude (étape S05) à partir de la variation de la caractéristique faciale entre la première image et la seconde image. L'unité de traitement authentifie ou non (étape S06) le visage présenté 2 dans le champ d'acquisition de l'imageur 3 en fonction du résultat de la méthode de détection de fraude.
La méthode de détection de fraude peut mettre en œuvre un défi. A cet effet, la personne qui présente son visage 2 dans le champ d'acquisition de l'imageur 3 a pu recevoir une instruction, typiquement par un message s'affichant sur l'écran 5, lui demandant de modifier sur son visage la caractéristique faciale dont la variation est exploitée, en accord avec une consigne.
Par exemple, lorsque la variation de la caractéristique faciale est une variation de pose du visage, l'écran 5 peut afficher une image affichée comprenant au moins un repère visuel d'orientation dont la position est fonction de la pose du visage, et une cible visuelle à une position cible, la personne devant modifier la pose de son visage pour déplacer le repère visuel jusqu'à la position cible. La première image et la seconde image sont acquises pour rendre compte de la modification de la pose du visage qu'effectue la personne pour exécuter la consigne.
L'authentification peut alors être basée sur la comparaison entre d'une part la de la caractéristique faciale du visage entre la première image et la seconde image et d'autre part une variation de la caractéristique faciale attendue en réponse au défi. Si la variation de la caractéristique faciale du visage entre la première image et la seconde image correspond suffisamment à variation de la caractéristique faciale attendue, le visage 2 présenté dans le champ d'acquisition de l'imageur 3 est alors considéré comme authentique. A l'inverse, si la variation de la caractéristique faciale du visage entre la première image et la seconde image diffère trop de la variation de la caractéristique faciale attendue, le visage 2 présenté dans le champ d'acquisition de l'imageur 3 est considéré comme une fraude. Il s'agit en effet probablement d'une fraude basée sur la présentation d'une vidéo dans laquelle un visage ne présente pas de variation de la caractéristique faciale correspondant au défi proposé.
La méthode de détection de fraude peut met en œuvre une technique de structure acquise à partir d'un mouvement, ou SfM pour l'anglais "Structure from Motion", et l'authentification se base sur la géométrie tridimensionnelle du visage présenté. Une telle technique permet de détecter les fraudes basées sur la présentation de vidéos ou de photographies, pour lesquelles le visage apparaît comme plat. Si la technique de structure acquise à partir d'un mouvement fait apparaître un visage considéré comme plat, le visage 2 présenté dans le champ d'acquisition de l'imageur 3 est considéré comme une fraude. Sinon, le visage est considéré comme authentique. La mise en œuvre de la technique de structure acquise à partir d'un mouvement peut être conditionnée au fait que la variation de pose du visage entre la première image et la seconde image est supérieure à un seuil. Ce seuil peut par exemple être une différence de 5° à 10° pour au moins un des angles définissant la pose du visage.
Il est en effet trop coûteux, en termes de ressources de calcul et/ou de temps de calcul de mettre en œuvre cette technique sur toutes les images acquises par l'imageur 3, alors même que seules des paires d'images présentant des poses de visage suffisamment différentes permettent de mettre en œuvre cette technique efficacement. La détermination de la variation de pose du visage entre la première image et la seconde image selon le procédé décrit plus haut permet de déterminer si la variation de pose du visage est suffisante pour la mise en œuvre de la technique de structure acquise à partir d'un mouvement, de façon beaucoup moins lourde. Ainsi, la technique de structure acquise à partir d'un mouvement n'est mise en œuvre que pour des paires d'images qui donneront un résultat efficace.
Comme évoqué plus haut, les enseignements mentionnés dans le cadre d'un procédé biométrique d'authentification sont transposables à d'autres applications. Ainsi, l'état du visage présenté peut être un état d'attention du conducteur, et l'action effectuée par l'unité de traitement peut être une mise en œuvre d'une méthode de surveillance d'un conducteur.
Comme évoqué plus haut, l'unité de traitement détermine une variation de la caractéristique faciale entre la première image et la seconde image, sans déterminer une valeur quantifiant un état absolu de la caractéristique faciale dans la première image et/ou dans la seconde image. Il est toutefois possible, parallèlement à la détermination de la variation de la caractéristique faciale (détermination relative), de déterminer un état absolu de la caractéristique faciale dans une image (de préférence autre que la première et la seconde image). La détermination d'un état absolu de la caractéristique faciale permet de disposer d'un point de départ pour effectuer un suivi de la caractéristique faciale. Les variations de la caractéristique faciale, déterminées comme expliqué ci-dessus, sont utilisées pour mettre à jour l'état absolu de la caractéristique faciale, de façon itérative en utilisant des premières et secondes images acquises au fil du temps. Cela permet donc d'effectuer un suivi de l'état de la caractéristique faciale, sans bruit temporel qui serait inhérent à une estimation absolue image par image de l'état absolu de la caractéristique faciale.
Typiquement, en disposant d'une séquence d'images acquises à laquelle appartiennent la première image et la seconde image, l'unité de traitement peut mettre en œuvre un suivi de l'état absolu de la caractéristique faciale à partir des images de la séquence d'images acquises en utilisant un filtre récursif combinant des informations sur l'état absolu de la caractéristique faciale d'une image de la séquence d'images et une variation de la caractéristique faciale entre des images successives de la séquence d'images. En effet, un filtre récursif tel qu'un filtre de Kalman permet de combiner des informations relatives et absolues relatives à la caractéristique faciale dans une séquence d'images acquises. Ainsi, à chaque image (ou seulement à pour des images distantes d'un nombre donné d'images entre-elles, i.e. chaque k-ième image) peut être associée une information concernant l'état absolu de la caractéristique faciale pour cette image ("information de position"), et à chaque image peut être associée une variation de la caractéristique faciale par rapport à l'image précédente ("information de vitesse").
Une image initiale de la séquence d'images acquises peut être utilisée pour déterminer un état initial de la caractéristique faciale, puis les images suivantes sont utilisées pour déterminer la variation de cette caractéristique faciale, et l'état de la caractéristique faciale est modifié au moyen de la variation déterminée, en utilisant un filtre récursif (par exemple un filtre de Kalman en discret), où la variation de la caractéristique faciale entre la première image et la seconde image est utilisée pour mettre à jour l'état de la caractéristique faciale.
L'invention n'est pas limitée au mode de réalisation décrit et représenté aux figures annexées. Des modifications restent possibles, notamment du point de vue de la constitution des divers caractéristiques techniques ou par substitution d'équivalents techniques, sans sortir pour autant du domaine de protection de l'invention. Notamment, d'autres méthodes de détection de fraude peuvent être mises en œuvre, dès lors qu'elles exploitent la variation d'une caractéristique faciale entre deux images.

Claims (16)

  1. Procédé d'analyse d'une caractéristique faciale d'un visage présenté (2) dans un champ d'acquisition d'un imageur (3), comprenant les étapes suivantes :
    - l'imageur (3) acquiert (S01) une première image d'un visage présenté dans son champ d'acquisition (4), puis l'imageur (3) acquiert (S02) une seconde image du visage présenté dans son champ d'acquisition (4), une caractéristique faciale du visage présenté apparaissant dans la première image et dans la seconde image, la caractéristique faciale correspondant à une caractéristique intrinsèque du visage présenté susceptible d'être modifiée volontairement par une personne présentant son visage,
    - à partir de la première image et de la seconde image, une unité de traitement détermine une variation de la caractéristique faciale entre la première image et la seconde image, sans déterminer une valeur quantifiant un état absolu de la caractéristique faciale dans la première image et/ou dans la seconde image,
    - à partir de la variation de la caractéristique faciale, l'unité de traitement détermine un état du visage présenté (2) dans le champ d'acquisition d'un imageur (3) et effectue une action en fonction de l'état du visage présenté.
  2. Procédé selon la revendication 1, dans lequel la variation de la caractéristique faciale correspond à une variation de la géométrie tridimensionnelle du visage présenté.
  3. Procédé selon l'un des revendications précédentes, dans lequel la variation de la caractéristique faciale est une rotation, et/ou une déformation, et/ou un déplacement de la caractéristique faciale entre la première image et la seconde image.
  4. Procédé selon l'une des revendications précédentes, dans lequel la variation de la caractéristique faciale est :
    - une variation de la pose du visage, et/ou
    - une variation d'une pose d'au moins un œil, et/ou
    - une variation d'ouverture d'au moins une paupière, et/ou
    - une variation de la forme de la bouche et/ou une variation de forme d'un sourcil.
  5. Procédé selon l'une des revendications précédentes, dans lequel la variation de la caractéristique faciale est une variation de la pose du visage définie par une variation d'angle représentatif de l'orientation du visage, et dans lequel l'au moins un angle représentatif de l'orientation du visage est un angle de lacet autour d'un axe vertical, et/ou un angle d'assiette autour d'un premier axe horizontal, et/ou un angle de gîte autour d'un second axe horizontal.
  6. Procédé selon l'une quelconque des revendications précédentes, comprenant une étape de détection du visage dans chacune de la première image et la seconde image préalablement à la détermination de la variation de la caractéristique faciale entre la première image et la seconde image, ladite étape de détection du visage comprenant la détermination d'une région d'intérêt dans une image correspondant à la localisation du visage dans ladite image, la variation de la caractéristique faciale entre la première image et la seconde image étant déterminée à partir d'une première région d'intérêt dans la première image et une seconde région d'intérêt dans la seconde image.
  7. Procédé selon l'une quelconque des revendications précédentes, dans lequel la variation de la caractéristique faciale entre la première image et la seconde image fait intervenir un modèle de calcul prenant en entrée la première image et la seconde image ou des régions d'intérêt de celles-ci, ou une différence entre la première image et la seconde image ou des régions d'intérêt de celles-ci, le modèle de calcul ayant pour sortie au moins une rotation et/ou une différence d'une valeur représentative de la variation de la caractéristique faciale.
  8. Procédé selon la revendication précédente, dans lequel le modèle de calcul est un réseau de neurone, une machine à vecteur de support ou un arbre de décision.
  9. Procédé selon l'une quelconque des deux revendications précédentes, dans lequel le modèle de calcul est paramétré lors d'une phase d'apprentissage supervisé utilisant une base de données d'images présentant des visages présentant différents états de la caractéristique faciale, les valeurs quantifiant les états de de la caractéristique faciale étant renseignés, les données d'images étant augmentées par des détériorations d'image et/ou des défauts de positionnement de la région d'intérêt.
  10. Procédé selon l'une quelconque des revendications précédentes, dans lequel la première image et la seconde image appartiennent à une séquence d'images acquises par l'imageur, et l'unité de traitement met en œuvre un suivi de l'état absolu de la caractéristique faciale à partir des images de la séquence acquise en utilisant un filtre récursif combinant des informations sur l'état absolu de la caractéristique faciale d'une image de la séquence d'images et une variation de la caractéristique faciale entre des images successives de la séquence d'images.
  11. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'état du visage présenté (2) est un état d'attention, et dans lequel l'action effectuée par l'unité de traitement est une mise en œuvre d'une méthode de surveillance d'un conducteur.
  12. Procédé selon l'une quelconque des revendications précédentes, dans lequel le procédé est un procédé biométrique d'authentification, et l'état du visage présenté (2) est une authenticité ou non du visage présenté, et l'action effectuée par l'unité de traitement est une mise en œuvre d'une méthode de détection de fraude à partir de la variation de la caractéristique faciale entre la première image et la seconde image, l'unité de traitement authentifiant ou non le visage présenté (2) dans le champ d'acquisition de l'imageur (3) en fonction du résultat de la méthode de détection de fraude.
  13. Procédé selon la revendication précédente, dans lequel la méthode de détection de fraude met en œuvre un défi, et l'authentification est basée sur la comparaison entre d'une part la variation de la caractéristique faciale entre la première image et la seconde image et d'autre part une variation de la caractéristique faciale attendue en réponse au défi.
  14. Procédé selon l'une quelconque des revendications 12 à 13 , dans lequel la variation de la caractéristique faciale est une variation de pose du visage, et la méthode de détection de fraude met en œuvre une technique de structure acquise à partir d'un mouvement, SfM, et l'authentification se base sur la géométrie tridimensionnelle du visage présenté, la mise en œuvre de la technique de SfM étant conditionnée au fait que la variation de pose du visage entre la première image et la seconde image soit supérieure à un seuil.
  15. Produit programme d'ordinateur comprenant des instructions de code de programme enregistrées sur un support non transitoire utilisable dans un ordinateur pour l’exécution des étapes d'un procédé selon l'une des revendications précédentes lorsque ledit programme est exécuté sur un ordinateur utilisant ledit support non transitoire.
  16. Terminal (1) comprenant un imageur (3), et une unité de traitement, ledit terminal étant configuré pour mettre en œuvre un procédé selon l'une des revendications 1 à 14.
FR1909321A 2019-08-21 2019-08-21 Procédé d'analyse d'une caractéristique faciale d'un visage Active FR3100074B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1909321A FR3100074B1 (fr) 2019-08-21 2019-08-21 Procédé d'analyse d'une caractéristique faciale d'un visage
US16/990,223 US20210056291A1 (en) 2019-08-21 2020-08-11 Method for analysis of an intrinsic facial feature of a face

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1909321A FR3100074B1 (fr) 2019-08-21 2019-08-21 Procédé d'analyse d'une caractéristique faciale d'un visage
FR1909321 2019-08-21

Publications (2)

Publication Number Publication Date
FR3100074A1 true FR3100074A1 (fr) 2021-02-26
FR3100074B1 FR3100074B1 (fr) 2022-01-28

Family

ID=68807081

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1909321A Active FR3100074B1 (fr) 2019-08-21 2019-08-21 Procédé d'analyse d'une caractéristique faciale d'un visage

Country Status (2)

Country Link
US (1) US20210056291A1 (fr)
FR (1) FR3100074B1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093783B2 (en) * 2018-12-05 2021-08-17 Subaru Corporation Vehicle detection apparatus
WO2022205063A1 (fr) * 2021-03-31 2022-10-06 Paypal, Inc. Détection de falsification d'image par estimation de pose de tête
US20230029505A1 (en) * 2021-08-02 2023-02-02 Fujitsu Limited Image synthesis for personalized facial expression classification
US20230102851A1 (en) * 2021-09-24 2023-03-30 Gn Hearing A/S Triggering a head-pose dependent action

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140204193A1 (en) * 2013-01-18 2014-07-24 Carnegie Mellon University Driver gaze detection system
US9477829B2 (en) 2011-03-16 2016-10-25 Apple Inc. Locking and unlocking a mobile device using facial recognition
US20170124385A1 (en) 2007-12-31 2017-05-04 Applied Recognition Inc. Face authentication to mitigate spoofing

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170124385A1 (en) 2007-12-31 2017-05-04 Applied Recognition Inc. Face authentication to mitigate spoofing
US9477829B2 (en) 2011-03-16 2016-10-25 Apple Inc. Locking and unlocking a mobile device using facial recognition
US20140204193A1 (en) * 2013-01-18 2014-07-24 Carnegie Mellon University Driver gaze detection system

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AFIFA DAHMANE ET AL.: "Signal, Image and Video Processing", vol. 9, 2015, SPRINGER VERLAG, article "Head Pose Estimation Based on Face Symmetry Analysis", pages: 1871 - 1880
CONNOR SHORTEN ET AL: "A survey on Image Data Augmentation for Deep Learning | SpringerLink", JOURNAL OF BIG DATA 6, ARTICLE NUMBER: 60, 6 July 2019 (2019-07-06), XP055689463, Retrieved from the Internet <URL:https://link.springer.com/article/10.1186/s40537-019-0197-0> [retrieved on 20200427] *
HIYAM HATEM ET AL.: "Head Pose Estimation Based On Detecting Facial Features", INTERNATIONAL JOURNAL OF MULTIMEDIA AND UBIQUITOUS ENGINEERING, vol. 10, no. 3, 2015, pages 311 - 322
WEI BAO ET AL: "A liveness detection method for face recognition based on optical flow field", IMAGE ANALYSIS AND SIGNAL PROCESSING, 2009. IASP 2009. INTERNATIONAL CONFERENCE ON, IEEE, PISCATAWAY, NJ, USA, 11 April 2009 (2009-04-11), pages 233 - 236, XP031468476, ISBN: 978-1-4244-3987-4 *

Also Published As

Publication number Publication date
US20210056291A1 (en) 2021-02-25
FR3100074B1 (fr) 2022-01-28

Similar Documents

Publication Publication Date Title
FR3100074A1 (fr) Procédé d&#39;analyse d&#39;une caractéristique faciale d&#39;un visage
KR101356358B1 (ko) 눈의 이미지에 기초한 바이오메트릭 인증을 위한 기기 및 컴퓨터 구현 방법
KR101495430B1 (ko) 바이오메트릭 인증을 위한 품질 메트릭
EP2455916B1 (fr) Interface homme-machine basée sur le suivi non-rigide
US10380418B2 (en) Iris recognition based on three-dimensional signatures
FR2900482A1 (fr) Procede d&#39;identification d&#39;une personne par analyse des cara cteristiques de ses cils
EP2751739B1 (fr) Detection de fraude pour systeme de controle d&#39;acces de type biometrique
FR2915301A1 (fr) Procede de comparaison d&#39;images d&#39;une biometrie entre au moi ns une image de reference et au moins une image de test dont on cherche a evaluer un degre de correlation avec l&#39;image d e reference
EP3901794A1 (fr) Procédé d&#39;authentification ou d&#39;identification d&#39;un individu
EP3866064A1 (fr) Procede d&#39;authentification ou d&#39;identification d&#39;un individu
EP3522053B1 (fr) Procédé d&#39;authentification d&#39;un visage
EP3888000A1 (fr) Dispositif et procede d&#39;authentification d&#39;un individu
EP3929809A1 (fr) Procédé de détection d&#39;au moins un trait biométrique visible sur une image d entrée au moyen d&#39;un réseau de neurones à convolution
WO2020099400A1 (fr) Procede de detection automatique de l&#39;usurpation de visage
EP4099200A1 (fr) Procede et dispositif d&#39;identification et/ou d&#39;authentification biometrique
FR3105479A1 (fr) Procédé et système pour une identification et une authentification biométrique avec template audiovisuel
FR3128039A1 (fr) Procédé d’authentification d’une prise de vue capturée dans un habitacle d’un véhicule automobile.

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210226

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5