FR3078793A1 - Procede d'authentification d'un visage base sur la reflectance - Google Patents

Procede d'authentification d'un visage base sur la reflectance Download PDF

Info

Publication number
FR3078793A1
FR3078793A1 FR1852041A FR1852041A FR3078793A1 FR 3078793 A1 FR3078793 A1 FR 3078793A1 FR 1852041 A FR1852041 A FR 1852041A FR 1852041 A FR1852041 A FR 1852041A FR 3078793 A1 FR3078793 A1 FR 3078793A1
Authority
FR
France
Prior art keywords
face
point
time
indicator
reflectance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1852041A
Other languages
English (en)
Other versions
FR3078793B1 (fr
Inventor
Jean Beaudet
Joel-Yann Fourre
Baptiste CHU
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR1852041A priority Critical patent/FR3078793B1/fr
Publication of FR3078793A1 publication Critical patent/FR3078793A1/fr
Application granted granted Critical
Publication of FR3078793B1 publication Critical patent/FR3078793B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L9/00Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols
    • H04L9/32Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials
    • H04L9/3226Cryptographic mechanisms or cryptographic arrangements for secret or secure communications; Network security protocols including means for verifying the identity or authority of a user of the system or for message authentication, e.g. authorization, entity authentication, data integrity or data verification, non-repudiation, key authentication or verification of credentials using a predetermined code, e.g. password, passphrase or PIN
    • H04L9/3231Biological data, e.g. fingerprint, voice or retina
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras

Abstract

L'invention concerne un procédé d'authentification d'un visage présenté à un caméra temps de vol, comprenant les étapes dans lesquelles : - la caméra temps de vol acquiert (S02) une image et des informations spatiales d'un visage, les informations spatiales comprenant pour chaque pixel au moins une position dans l'espace d'un point correspondant du visage par rapport à la caméra temps-de-vol, l'image comprenant pour chaque pixel au moins une intensité lumineuse reçue, - à partir de l'intensité lumineuse reçue et des informations spatiales relatives à une zone d'intérêt regroupant au moins un point du visage, une unité de traitement détermine (S04) au moins un indicateur de réflectance locale, les informations spatiales comprenant une orientation correspondante du visage, - l'unité de traitement compare (S05) cet indicateur de réflectance locale à au moins un indicateur de référence, et authentifie le visage ou détecte une fraude.

Description

PROCEDE D'AUTHENTIFICATION D'UN VISAGE BASE SUR LA REFLECTANCE
CONTEXTE ET ARRIERE-PLAN TECHNOLOGIQUE
La présente invention appartient au domaine de la biométrie, et porte plus précisément sur un procédé de détection de fraude et d'authentification d'un visage.
Certains procédés d'identification ou de vérification d'identité nécessite d'acquérir une image du visage de la personne souhaitant se prévaloir d'une identité. Il peut s'agir par exemple de procédés biométriques d'identification, basés sur l'analyse d'éléments du visage pour procéder à une identification. Il peut s'agir également de comparer le visage de la personne avec des photographies l'identifiant, notamment lors de la soumission de documents d'identité tels qu'un passeport.
Or, la mise en œuvre de ces procédés requiert de se prémunir contre des fraudes consistant à présenter à l'imageur acquérant l'image du visage une reproduction du visage, telle qu'une photographie ou un masque. A cet effet ont été développés des procédés pour authentifier le visage, c'est-à-dire pour détecter d'éventuelles fraudes. La plupart de ces procédés repose sur l'analyse d'un mouvement imposé, ce qu'on appelle généralement un défi. Ainsi, il est demandé par exemple à la personne dont le visage est présenté à l'imageur d'effectuer des actions précises telles que cligner des yeux, sourire ou hocher la tête. Toutefois, de tels procédés se sont révélés vulnérables à des fraudes basées sur la présentation de vidéos dans lesquelles un visage effectue le défi demandé.
Une autre approche consiste à détecter dans l'image acquise des caractéristiques ne correspondant pas à celles d'images de visages authentiques, mais plutôt à des matériaux typiques de fraudes, tels que papier, silicone ou gel. Ainsi, l'article Masked fake face détection using radiance measurements Y. Kim, J. Na, S. Yoon, J. Yi, Journal of the Optical Society of America A (2009) 760-766, propose d'utiliser des mesures de luminance dans la zone frontale afin de détecter les masques. Les mesures doivent toutefois être menées à une distance précise de 30 cm, et uniquement sur la région frontale. Il s'agit de contraintes fortes car en utilisation réelle, il est malaisé de s'assurer d'une distance précise du visage. Par ailleurs, le fait que le seul front soit exploitable en réduit l'intérêt car cette zone du visage peut être couverte, par exemple par des cheveux, et ne constitue pas une zone d'intérêt pour une fonction d'identification biométrique ultérieure, celle pour laquelle la détection de fraude est mise en œuvre.
PRESENTATION DE L'INVENTION
L'invention a pour but de remédier au moins en partie à ces inconvénients et préférentiellement à tous, et vise notamment à proposer un procédé de détection de fraude et d'authentification d'un visage présenté à un imageur permettant de détecter les fraudes, qui soit à la fois simple, robuste, et efficace. Plus précisément, l'invention prend en compte des informations géométriques pour exploiter la réflectance afin de détecter les fraudes.
A cet effet, il est proposé un procédé d'authentification d'un visage présenté à une caméra temps de vol, comprenant les étapes dans lesquelles :
- la caméra temps de vol acquiert au moins une image et des informations spatiales d'un visage présenté dans son champ d'acquisition, ladite caméra temps de vol comprenant un imageur et une source lumineuse éclairant ledit visage avec une intensité donnée, les informations spatiales comprenant pour chaque pixel au moins une position dans l'espace d'un point correspondant du visage par rapport à la caméra temps-de-vol, l'image comprenant pour chaque pixel au moins une intensité lumineuse reçue résultant de l'intensité lumineuse renvoyée par le point du visage correspondant audit pixel,
- à partir de l'intensité lumineuse reçue et des informations spatiales relatives à une zone d'intérêt regroupant au moins un point du visage, une unité de traitement détermine au moins un indicateur de réflectance locale, les informations spatiales comprenant pour chaque point de la zone d'intérêt une orientation correspondante du visage par rapport à la caméra temps de vol,
- l'unité de traitement compare cet indicateur de réflectance locale à au moins un indicateur de référence, et
- l'unité de traitement authentifie le visage ou détecte une fraude en fonction du résultat de la comparaison.
L'utilisation d'informations spatiales regroupant au moins une position dans l'espace d'un point correspondant du visage par rapport à la caméra temps-de-vol, et une orientation correspondante du visage par rapport à la caméra temps de vol, permet d'exploiter des zones d'intérêt diverses du visage, choisies pour leur pertinence, et non contraintes par la technique.
Le procédé est avantageusement complété par les caractéristiques suivantes, prises seules ou en quelconque de leurs combinaisons techniquement possibles :
- l'orientation correspondante du visage par rapport à la caméra temps de vol est une direction normale à un point du visage déterminée à partir de la position dans l'espace dudit point du visage et des positions dans l'espace de points du visage adjacents audit point du visage ;
- pour déterminer l'indicateur de réflectance locale, l'unité de traitement prend en compte un angle entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage pour ce point du visage ;
- les points du visage pour lesquels l'angle entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage est inférieur à un angle minimal ne sont pas pris en compte pour déterminer l'indicateur de réflectance locale ;
- l'unité de traitement, afin de déterminer l'indicateur de réflectance locale, détermine une réflectance pour chacun des points du visage de ladite zone d'intérêt au moyen d'une relation liant l'intensité lumineuse reçue, les informations spatiales et la réflectance ;
- la relation prend la forme :
/R(y) = x 0(ll*ll) χ /?(χ,λ,0) avec lR l'intensité lumineuse reçue par un pixel y, lE une fonction dépendant des caractéristiques d'acquisition de la caméra temps de vol avec y un pixel et t le temps, g(||x||) est une fonction de la distance du point du visage x à la caméra temps de vol, et R(x, À) est la réflectance au point du visage x pour la longueur d'onde À pour l'angle Θ entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage ;
- la relation prend la forme :
/„ = /I(y,t)xS.1±[X JpXfifx) avec n le vecteur de la direction normale au point du visage x, et x la position dans l'espace du point du visage x par rapport à la caméra temps de vol ;
- l'indicateur de réflectance locale est représentatif d'une distribution des réflectances des points de la zone d'intérêt ;
- l'indicateur de réflectance locale est une mesure d'une tendance centrale de la distribution des réflectances des points de la zone d'intérêt.
L'invention concerne également un produit programme d'ordinateur comprenant des instructions de code de programme enregistrées sur un support non transitoire utilisable dans un ordinateur pour l’exécution des étapes d'un procédé selon l'invention lorsque ledit programme est exécuté sur un ordinateur utilisant ledit support non transitoire.
L'invention concerne également un ensemble comprenant une caméra temps de vol et une unité de traitement, ledit ensemble étant configuré pour mettre en œuvre le procédé selon l'invention.
PRESENTATION DES FIGURES
L'invention sera mieux comprise, grâce à la description ci-après, qui se rapporte à des modes de réalisations et des variantes selon la présente invention, donnés à titre d'exemples non limitatifs et expliqués avec référence aux dessins schématiques annexés, dans lesquels :
- la figure 1 illustre de façon schématique l'acquisition d'une image et d'informations spatiales d'un visage présenté à une caméra temps de vol, selon un mode de réalisation possible de l'invention ;
- la figure 2 illustre schématiquement un exemple de configurations des informations spatiales acquises, selon un mode de réalisation possible de l'invention ;
- la figure 3 est un diagramme illustrant schématiquement le déroulement du procédé selon un mode de réalisation possible de l'invention.
DESCRIPTION DETAILLEE
En référence aux figures 1 à 3, un visage 2 est présenté à une caméra temps de vol 1 (étape S01). Plus précisément, le visage 2 est placé dans le champ d'acquisition 3 de la caméra temps de vol 1. Une caméra temps de vol, également connu en anglais time of flight caméra, ou TOF caméra, est un appareil de prise de vues capable d'acquérir à la fois une image d'une scène, c'est-à-dire les caractéristiques lumineuses de celle-ci, mais également d'acquérir des informations spatiales concernant cette scène. Pour ce faire, la caméra temps de vol 1 illumine la scène de son champ d'acquisition 3, et calcule le temps pris par la lumière pour effectuer le trajet aller-retour entre la caméra temps de vol et les différentes surfaces du visage présenté 2. Le temps de vol de trajet est directement proportionnel à la distance entre la caméra et le visage 2 présenté.
La caméra temps de vol 1 comprend ainsi un imageur 5 et une source lumineuse 6 éclairant le champ d'acquisition 3. L'imageur 5 est un capteur capable d'acquérir pour chaque pixel la luminosité et les informations spatiales. La source lumineuse 6 est utilisée pour émettre de la lumière variant rapidement, avec par exemple des modulations lumineuses de 5 à 80 MHz, afin d'éclairer le visage 2. Une démodulation correspondante de la lumière reçue permet de supprimer l'influence de la lumière ambiante.
La source lumineuse 6 est de préférence de faible étendue, et peut avantageusement être un laser divergent. La source lumineuse 6 peut être monochrome ou couvrir une certaine plage spectrale. Il est possible que la lumière émise par la source lumineuse 6 comprenne au moins deux longueurs d'onde distinctes, et que le procédé soit mis en œuvre sur chacune d'entre elles.
En référence à la figure 2, la source lumineuse 6 de la caméra temps de vol 1 émet un rayon lumineux qui se propage vers le visage 2, et atteint celui-ci en un point x. Une partie de la lumière reçue par le point x est renvoyée vers un pixel y de l'imageur 5. On note x le vecteur représentatif de la position dans l'espace du point du visage x par rapport à la caméra temps de vol 1. La surface du visage 2 présente une certaine orientation locale. On note nx le vecteur de la direction normale au point x du visage 2.
La réception par le pixel y de la lumière renvoyée par le visage 2 permet de déterminer l'intensité lumineuse lR reçue par le pixel y, et en déterminant le temps de vol, de déterminer la distance entre la caméra temps de vol 1 et le point x du visage 2. A partir des distances respectives de points du visage 2 adjacents au point x, il est possible de déterminer la direction normale à surface du visage 2 à ce point x, et donc le vecteur rÇ . Les informations spatiales comprennent ainsi pour chaque pixel au moins une position dans l'espace d'un point correspondant du visage par rapport à la caméra temps de vol.
La caméra temps de vol 1 acquiert donc au moins une image et des informations spatiales d'un visage présenté dans son champ d'acquisition (étape S02), données qui sont transmises à une unité de traitement 4. L'unité de traitement 4 comprend au moins un processeur et une mémoire, et constitue un système de traitement automatisé de données tel qu'un ordinateur.
L'unité de traitement 4 analyse l'image, et y identifie la présence du visage ainsi qu'éventuellement la position dans l'image des éléments constitutifs de ce visage 2 (yeux, bouche, nez, etc...). L'unité de traitement 4 peut alors définir dans l'image une ou plusieurs zones d'intérêt regroupant chacune au moins un pixel correspondant à un point du visage 2. L'utilisation de zones d'intérêt permet de restreindre le traitement au seul visage 2, en excluant l'arrière-plan. De plus, les zones d'intérêt peuvent être choisies pour ne traiter que certaines parties du visage 2 sélectionnées pour leur intérêt dans le procédé de détection de fraude, comme par exemple le nez. Il est cependant possible de traiter l'ensemble du visage.
L'utilisation d'informations spatiales regroupant au moins une position dans l'espace d'un point du visage par rapport à la caméra temps-de-vol 1, et une orientation correspondante du visage par rapport à la caméra temps de vol 1, permet d'exploiter des zones d'intérêt diverses du visage, choisies pour leur pertinence, et non contraintes par la technique. Ainsi, il est possible d'exploiter la représentation du nez du visage, ou de la bouche, dont les aspérités les rendaient auparavant inexploitables, alors même qu'il s'agit de zones essentielles pour la reconnaissance faciale.
A partir de l'intensité lumineuse reçue et des informations spatiales relatives à une zone d'intérêt regroupant au moins un point du visage, l'unité de traitement 4 détermine au moins un indicateur de réflectance locale qui est utilisé pour authentifier le visage ou détecter une fraude. Dans ce but, l'unité de traitement 4 détermine une réflectance (étape S03) pour chacun des points d'une zone d'intérêt au moyen d'une relation liant l'intensité lumineuse reçue, les informations spatiales et la réflectance.
Outre la position dans l'espace de chaque point de la zone d'intérêt par rapport à la caméra temps-de-vol 1, les informations spatiales comprennent également pour chaque point de la zone d'intérêt une orientation correspondante du visage 2 par rapport à la caméra temps de vol 1. Cette orientation peut être déterminée directement par la caméra temps de vol 1 à partir des positions dans l'espace des points de la zone d'intérêt, ou bien être déterminée par l'unité de traitement 4 à partir des positions dans l'espace des points du visage 2 de la zone d'intérêt.
Typiquement, l'orientation du visage au niveau d'un point x de ce visage par rapport à la caméra temps de vol 1 se traduit par la direction normale (repérée par le vecteur rÇ) à la surface du visage 2 audit point du visage, déterminée à partir de la position dans l'espace dudit point du visage et des positions dans l'espace de points du visage adjacents audit point du visage. L'unité de traitement 4 prend ainsi en compte l'orientation du visage 2 en un point du visage pour déterminer la réflectance de ce point du visage. Plus précisément, l'unité de traitement 4 prend en compte un angle entre la direction x d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage 2 pour ce point du visage, c'est-à-dire la direction normale repérée par le vecteur îÇ, avec x exprimé dans un repère centré sur la caméra temps de vol 1.
Il est à noter que cette orientation du visage 2 en un point du visage peut être utilisée pour ne pas prendre en compte certains points du visage. En particulier, les points du visage appartenant à des surfaces perpendiculaires à la direction de l'éclairage peuvent présenter des réflexions spéculaires de la lumière émise par la source lumineuse 6 de la caméra temps de vol 1, dont les difficultés de modélisation et de prise en compte peuvent être nuisibles à la mise en œuvre du procédé. Comme l'imageur 5 et la source lumineuse 6 sont très proches (relativement à la distance imageur/visage), il est possible d'approximer la direction de l'éclairage d'un point x par la direction x du point du visage par rapport à l'imageur 5. Par conséquent, il est possible de ne pas prendre en compte les points du visage pour lesquels l'angle Θ entre la direction x du point du visage et l'orientation correspondante du visage 2 est inférieur à un angle minimal. Par exemple, lorsque l'angle Θ entre x et rÇ est, en valeur absolue, inférieur à 5°.
La relation utilisée par l'unité de traitement 4 modélise l'intensité reçue par un pixel y de l'imageur 5 et prend la forme :
/R(y) = x 0(ll*ll) χ R(x,x,e) avec lR l'intensité lumineuse reçue par un pixel y, lE(y,t) une fonction dépendant des caractéristiques d'acquisition de la caméra temps de vol 1 avec y un pixel et t le temps, g(||x||) une fonction de la distance du point du visage x à la caméra temps de vol, et R(x, λ, Θ) la réflectance au point x du visage pour la longueur d'onde À pour l'angle Θ entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage 2.
Il est possible que la dépendance de la réflectance à l'angle Θ puisse être factorisée par une fonction f(d) dépendant de l'angle Θ entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage 2.
La fonction lE(y,t) exprime notamment la non-uniformité de l'éclairage par la source lumineuse 6, et la non-uniformité de la réponse spatiale de l'imageur 5, mais prend également en compte la puissance d'éclairage et la sensibilité de l'imageur 5. Cette fonction lE peut se simplifier. La dépendance au temps t peut s'exprimer de façon linéaire selon lE(y,t)= C(t)* lE(y), avec C(t) une fonction du temps. Cette dépendance peut également ne pas être linéaire. Elle peut ne pas dépendre du temps, auquel cas elle devient lE(y). De plus, si les références utilisées plus loin dans le procédé sont fondées sur le même matériel, il est possible d'omettre certains paramètres, tel que la puissance d'éclairage.
Plus précisément, lorsque la source lumineuse 6 est considérée comme ponctuelle et qu'on utilise un modèle lambertien (le point x du visage est considéré comme une source orthotrope), la relation prend la forme :
avec n le vecteur de la direction normale au point du visage x, et x la position dans l'espace du point du visage x par rapport à la caméra temps de vol 1.
D'autres relations peuvent être utilisées pour lier l'intensité lumineuse reçue, les informations spatiales et la réflectance, en changeant de modélisation. On peut par exemple utiliser un modèle de Phong.
Dans tous les cas, puisque l'intensité lumineuse reçue et les informations spatiales sont connues, ou en tout cas déterminables, il est possible d'en déduire la réflectance du visage au point x. Or, cette réflectance dépend essentiellement du matériau constituant le point x du visage 2. Par conséquent, en exploitant cette réflectance, l'unité de traitement peut authentifier le visage ou détecter une fraude.
Pour ce faire, l'unité de traitement 4 détermine un indicateur de réflectance locale (étape S04) dérivé des réflectances des points du visage d'au moins une zone d'intérêt. Cet indicateur de réflectance est représentatif des réflectances des points du visage d'au moins une zone d'intérêt. De préférence, l'indicateur de réflectance locale est représentatif d'une distribution des réflectances des points de la zone d'intérêt. Notamment, l'indicateur de réflectance locale peut être une mesure d'une tendance centrale de la distribution des réflectances des points de la zone d'intérêt, comme par exemple une médiane, une moyenne, ou encore le mode des réflectances. De préférence, l'indicateur de réflectance locale est la médiane, qui est plus robuste que la moyenne à la présence d'éventuelles valeurs aberrantes de réflectance. L'indicateur de réflectance peut alors être une valeur, désignée comme score de réflectance. Il est également possible que l'indicateur de réflectance locale prenne la forme d'un ensemble de données tel qu'un histogramme de réflectance.
L'unité de traitement 4 compare ensuite (étape S05) cet indicateur de réflectance locale à au moins un indicateur de référence. L'indicateur de référence peut être un simple seuil, ou une pluralité de valeurs stockées dans une base de données. De préférence, plusieurs indicateurs de référence sont utilisés.
Pour comparer l'indicateur de réflectance locale à un indicateur de référence, l'unité de traitement 4 peut simplement déterminer si l'indicateur de réflectance locale dépasse ou est en deçà d'un indicateur de référence. On peut par exemple prévoir une plage bornée par deux indicateurs de référence correspondant à des valeurs extrêmes admissibles pour que l'indicateur de réflectance locale soit considéré comme correspondant à un visage authentique. Il est également possible de définir des plages bornées par des indicateurs de référence correspondant à des fraudes pour détecter une fraude lorsque l'indicateur de réflectance locale se trouve dans une de ces plages.
Il est également possible de calculer la distance entre l'indicateur de réflectance locale et un indicateur de référence, et d'en déduire l'authenticité ou non du visage
2. La comparaison est adaptée à la nature de l'indicateur de réflectance local. Par exemple, si l'indicateur de réflectance local et l'indicateur de référence sont des histogrammes, on peut comparer statistiquement ceux-ci, par exemple en utilisant la distance de Bhattacharyya, ou en dériver des courbes qui sont ensuite comparées.
Un indicateur de référence peut être absolu, c'est-à-dire être le même pour chaque mise en œuvre du procédé, notamment pour un indicateur de référence représentatif de la présence d'un matériau typique d'une fraude, tel que papier, silicone ou gel. D'autres indicateurs de référence peuvent dépendre de données propres à l'utilisateur, typiquement définie lors d'un processus d'enrôlement préalable. L'utilisation d'indicateurs de référence adaptée à l'utilisateur dont on veut contrôler l'authenticité du visage 2 permet de détecter plus finement les éventuelles fraudes. On peut à cet effet utiliser un procédé biométrique de reconnaissance faciale pour identifier l'utilisateur à partir du visage 2 dont l'image est acquise.
Ainsi, l'unité de traitement 4 peut authentifier (étape S07) le visage 2 ou détecter (étape S06) une fraude en fonction du résultat de la comparaison. Lorsqu'une fraude est détectée, une alarme peut être déclenchée afin d'avertir un opérateur de la tentative de fraude. A l'inverse, lorsque le visage 2 est authentifié, un procédé biométrique de reconnaissance faciale peut être mené, ou son résultat être validé.
L'invention n'est pas limitée au mode de réalisation décrit et représenté aux figures annexées. Des modifications restent possibles, notamment du point de vue de la constitution des divers caractéristiques techniques ou par substitution d'équivalents techniques, sans sortir pour autant du domaine de protection de l'invention.

Claims (11)

1. Procédé d'authentification d'un visage (2) présenté à une caméra temps de vol (1), comprenant les étapes dans lesquelles :
- la caméra temps de vol (1) acquiert (S02) au moins une image et des informations spatiales d'un visage présenté dans son champ d'acquisition (3), ladite caméra temps de vol (1) comprenant un imageur (5) et une source lumineuse (6) éclairant ledit visage (2) avec une intensité donnée, les informations spatiales comprenant pour chaque pixel au moins une position dans l'espace d'un point correspondant du visage par rapport à la caméra temps-de-vol (1), l'image comprenant pour chaque pixel au moins une intensité lumineuse reçue résultant de l'intensité lumineuse renvoyée par le point du visage correspondant audit pixel,
- à partir de l'intensité lumineuse reçue et des informations spatiales relatives à une zone d'intérêt regroupant au moins un point du visage, une unité de traitement (4) détermine au moins un indicateur de réflectance locale (S04), les informations spatiales comprenant pour chaque point de la zone d'intérêt une orientation correspondante du visage par rapport à la caméra temps de vol,
- l'unité de traitement compare (S05) cet indicateur de réflectance locale à au moins un indicateur de référence, et
- l'unité de traitement authentifie (S07) le visage ou détecte une fraude (S06) en fonction du résultat de la comparaison.
2. Procédé selon la revendication 1, dans lequel l'orientation correspondante du visage par rapport à la caméra temps de vol est une direction normale à un point du visage déterminée à partir de la position dans l'espace dudit point du visage et des positions dans l'espace de points du visage adjacents audit point du visage.
3. Procédé selon l'une des revendications précédentes 1 à 2, dans lequel pour déterminer l'indicateur de réflectance locale, l'unité de traitement prend en compte un angle entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage pour ce point du visage.
4. Procédé selon la revendication précédente, dans lequel les points du visage pour lesquels l'angle entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage est inférieur à un angle minimal ne sont pas pris en compte pour déterminer l'indicateur de réflectance locale.
5. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'unité de traitement, afin de déterminer l'indicateur de réflectance locale, détermine une réflectance pour chacun des points du visage de ladite zone d'intérêt au moyen d'une relation liant l'intensité lumineuse reçue, les informations spatiales et la réflectance.
6. Procédé selon la revendication précédente, dans lequel la relation prend la forme :
U(y) = x #(||χ||) χ «(χ,λ,θ) avec lR l'intensité lumineuse reçue par un pixel y, lE une fonction dépendant des caractéristiques d'acquisition de la caméra temps de vol avec y un pixel et t le temps, ,g(||x|l) est une fonction de la distance du point du visage x à la caméra temps de vol, et R(x, À) est la réflectance au point du visage x pour la longueur d'onde À pour l'angle Θ entre une direction d'un point du visage défini par la position dans l'espace dudit point du visage et l'orientation correspondante du visage.
7. Procédé selon la revendication précédente, dans lequel la relation prend la forme :
avec n le vecteur de la direction normale au point du visage x, et x la position dans l'espace du point du visage x par rapport à la caméra temps de vol.
8. Procédé selon l'une quelconque des revendications précédentes, dans lequel l'indicateur de réflectance locale est représentatif d'une distribution des réflectances des points de la zone d'intérêt.
9. Procédé selon la revendication précédente, dans lequel l'indicateur de réflectance locale est une mesure d'une tendance centrale de la distribution des réflectances des points de la zone d'intérêt.
10. Produit programme d'ordinateur comprenant des instructions de code de programme enregistrées sur un support non transitoire utilisable dans un ordinateur pour l’exécution des étapes d'un procédé selon l'une des revendications précédentes, lorsque ledit programme est exécuté sur un
10 ordinateur utilisant ledit support non transitoire.
11. Ensemble comprenant une caméra temps de vol (1 ) et une unité de traitement (4), ledit ensemble étant configuré pour mettre en œuvre le procédé selon l'une des revendications 1 à 9.
FR1852041A 2018-03-09 2018-03-09 Procede d'authentification d'un visage base sur la reflectance Active FR3078793B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1852041A FR3078793B1 (fr) 2018-03-09 2018-03-09 Procede d'authentification d'un visage base sur la reflectance

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1852041 2018-03-09
FR1852041A FR3078793B1 (fr) 2018-03-09 2018-03-09 Procede d'authentification d'un visage base sur la reflectance

Publications (2)

Publication Number Publication Date
FR3078793A1 true FR3078793A1 (fr) 2019-09-13
FR3078793B1 FR3078793B1 (fr) 2021-03-19

Family

ID=63143191

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1852041A Active FR3078793B1 (fr) 2018-03-09 2018-03-09 Procede d'authentification d'un visage base sur la reflectance

Country Status (1)

Country Link
FR (1) FR3078793B1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443527B2 (en) 2021-01-13 2022-09-13 Ford Global Technologies, Llc Material spectroscopy
US11657589B2 (en) 2021-01-13 2023-05-23 Ford Global Technologies, Llc Material spectroscopy
US11741747B2 (en) 2021-01-13 2023-08-29 Ford Global Technologies, Llc Material spectroscopy

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140049373A1 (en) * 2012-08-17 2014-02-20 Flashscan3D, Llc System and method for structured light illumination with spoofing detection
US20140230046A1 (en) * 2011-12-27 2014-08-14 Intel Corporation Turing test based user authentication and user presence verification system, device, and method
US20150161434A1 (en) * 2013-12-09 2015-06-11 Google Inc. Differentiating real faces from representations
FR3037690A1 (fr) * 2015-06-17 2016-12-23 Morpho Procede de detection de fraude par determination de la brdf d'un objet
US20170323167A1 (en) * 2016-01-12 2017-11-09 Princeton Identity, Inc. Systems And Methods Of Biometric Analysis With A Specularity Characteristic

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140230046A1 (en) * 2011-12-27 2014-08-14 Intel Corporation Turing test based user authentication and user presence verification system, device, and method
US20140049373A1 (en) * 2012-08-17 2014-02-20 Flashscan3D, Llc System and method for structured light illumination with spoofing detection
US20150161434A1 (en) * 2013-12-09 2015-06-11 Google Inc. Differentiating real faces from representations
FR3037690A1 (fr) * 2015-06-17 2016-12-23 Morpho Procede de detection de fraude par determination de la brdf d'un objet
US20170323167A1 (en) * 2016-01-12 2017-11-09 Princeton Identity, Inc. Systems And Methods Of Biometric Analysis With A Specularity Characteristic

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11443527B2 (en) 2021-01-13 2022-09-13 Ford Global Technologies, Llc Material spectroscopy
US11657589B2 (en) 2021-01-13 2023-05-23 Ford Global Technologies, Llc Material spectroscopy
US11741747B2 (en) 2021-01-13 2023-08-29 Ford Global Technologies, Llc Material spectroscopy

Also Published As

Publication number Publication date
FR3078793B1 (fr) 2021-03-19

Similar Documents

Publication Publication Date Title
US10043055B2 (en) System and method for object authenticity detection
US9008375B2 (en) Security improvements for iris recognition systems
EP3044729B1 (fr) Procédé de validation destiné à valider qu'un élément est recouvert d'une vraie peau
FR3078793A1 (fr) Procede d'authentification d'un visage base sur la reflectance
CA3000153A1 (fr) Procede d'analyse d'un document structure susceptible d'etre deforme
EP3139307B1 (fr) Procede de caracterisation d'un materiau par analyse de tavelures
US10380408B2 (en) Method of detecting fraud
EP3413233A1 (fr) Procede de detection d'une fausse empreinte
EP3401837B1 (fr) Dispositif de capture d'empreintes
WO2016102854A1 (fr) Procédé et système d'acquisition et d'analyse d'empreintes avec détection de fraude
EP3264331A1 (fr) Procede de detection de fraude d`un systeme de reconnaissance d'iris
EP3149655B1 (fr) Procede de validation de l'authenticite d'un element du corps humain
EP3073441B1 (fr) Procédé de correction d'une image d'au moins un objet présenté à distance devant un imageur et éclairé par un système d'éclairage et système de prise de vues pour la mise en oeuvre dudit procédé
WO2014198847A1 (fr) Dispositif de décision prévu pour décider si une surface est un tissu vivant ou non
EP3888000A1 (fr) Dispositif et procede d'authentification d'un individu
EP3264329A1 (fr) Procede et dispositif de detection de fraude par examen a deux focales distinctes lors d'une reconnaissance automatique d'un visage
EP3471016B1 (fr) Procédé de détection d'une présence d'une partie corporelle porteuse d'une empreinte digitale sur un capteur d empreintes digitales
FR3037690A1 (fr) Procede de detection de fraude par determination de la brdf d'un objet
FR3094113A1 (fr) Dispositif et procédé d'acquisition et de traitement biométrique
EP3182333B1 (fr) Procédé de detection de fraude pour authentifier un doigt
WO2017029455A1 (fr) Capteur biometrique avec au moins deux sources lumineuses a tailles apparentes differentes
EP3614305B1 (fr) Authentification par indice optique
EP3567521B1 (fr) Procédé de reconnaissance biométrique à partir des iris
US20230386260A1 (en) Detecting spoof images using patterned light
FR3123739A1 (fr) Procede et dispositif d’identification et/ou d’authentification biometrique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20190913

CA Change of address

Effective date: 20191205

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7