FR3110010A1 - Process for acquiring a biometric trait of an individual, for authentication or identification of said individual - Google Patents

Process for acquiring a biometric trait of an individual, for authentication or identification of said individual Download PDF

Info

Publication number
FR3110010A1
FR3110010A1 FR2004490A FR2004490A FR3110010A1 FR 3110010 A1 FR3110010 A1 FR 3110010A1 FR 2004490 A FR2004490 A FR 2004490A FR 2004490 A FR2004490 A FR 2004490A FR 3110010 A1 FR3110010 A1 FR 3110010A1
Authority
FR
France
Prior art keywords
image
individual
biometric
background
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2004490A
Other languages
French (fr)
Inventor
Jean Beaudet
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR2004490A priority Critical patent/FR3110010A1/en
Publication of FR3110010A1 publication Critical patent/FR3110010A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

La présente invention concerne un procédé d’acquisition d’un trait biométrique d’un individu, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données (11) d’un terminal (1) des étapes suivantes : Obtention, depuis des premiers moyens d’acquisition optique (14a) du terminal (1), d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ; Génération, d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ; Affichage de ladite deuxième image sur une interface (13) dudit terminal (1) de sorte à éclairer l’individu avec ledit fond lumineux. Figure de l’abrégé : Fig. 1The present invention relates to a method for acquiring a biometric trait of an individual, characterized in that it comprises the implementation by data processing means (11) of a terminal (1) of the following steps : Obtaining, from first optical acquisition means (14a) of the terminal (1), a first image of said individual representing said biometric trait on a background; Generation of a second image, representing said biometric feature of the first image on a bright background; Display of said second image on an interface (13) of said terminal (1) so as to illuminate the individual with said luminous background. Abstract figure: Fig. 1

Description

Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individuMethod for acquiring a biometric trait of an individual, with a view to authentication or identification of said individual

DOMAINE TECHNIQUE GENERALGENERAL TECHNICAL AREA

La présente invention concerne le domaine de l’authentification et l’identification biométrique, en particulier par reconnaissance de visage ou d’iris.The present invention relates to the field of authentication and biometric identification, in particular by face or iris recognition.

ETAT DE L’ARTSTATE OF THE ART

On connait des terminaux de contrôle d’accès biométrique, en particulier basés sur de la reconnaissance optique : un utilisateur autorisé place un trait biométrique (son visage, son iris, etc.), devant le terminal, ce dernier est reconnu, et un accès par exemple est déverrouillé.Biometric access control terminals are known, in particular based on optical recognition: an authorized user places a biometric feature (his face, his iris, etc.), in front of the terminal, the latter is recognized, and an access for example is unlocked.

Aujourd’hui cette technologie est embarquée sur des terminaux mobiles personnels de type smartphone : au moyen d’une camera avant du terminal, le trait biométrique de l’utilisateur peut être reconnu, en particulier pour déverrouiller le terminal ou accéder à un service sensible (par exemple une application bancaire).Today this technology is embedded in personal mobile terminals of the smartphone type: by means of a front camera of the terminal, the biometric trait of the user can be recognized, in particular to unlock the terminal or access a sensitive service ( for example a banking application).

La difficulté qui se pose est l’acquisition en environnement sombre (la nuit, en intérieur, etc.). En effet, le terminal mobile étant un équipement nomade, il doit pouvoir être utilisé partout et pas nécessairement dans un environnement standardisé. Il est connu de « régler » la caméra pour adapter l’exposition en fonction de la luminosité observée, mais en environnement trop sombre la surexposition cause une image bruitée qui rend difficile la reconnaissance et/ou la détection de fraudes.The difficulty that arises is acquisition in a dark environment (at night, indoors, etc.). Indeed, the mobile terminal being a nomadic device, it must be able to be used everywhere and not necessarily in a standardized environment. It is known to “adjust” the camera to adapt the exposure according to the luminosity observed, but in too dark an environment, overexposure causes a noisy image which makes it difficult to recognize and/or detect fraud.

La solution la plus naturelle est d’éclairer le visage de l’utilisateur au moyen d’une source lumineuse. Cependant, si la plupart des smartphones ont un flash sur la face arrière, peu en ont sur la face avant, de sorte qu’il est nécessaire de trouver une méthode plus universelle.The most natural solution is to illuminate the user's face with a light source. However, while most smartphones have a flash on the back side, few have on the front side, so a more universal method is needed.

Il a ainsi été proposé d’utiliser l’écran du terminal comme une source lumineuse, premièrement en affichant un écran entièrement blanc pour un temps court. Toutefois, cette solution est peu ergonomique, car elle coupe le retour vidéo, c’est-à-dire la possibilité pour l’utilisateur d’observer l’image acquise de sorte à bien positionner son visage. On peut éventuellement enchaîner des phases d’acquisition où l’écran est blanc et des phases de vérification où l’on affiche l’image acquise, mais cela reste peu pratique et même agressif pour les yeux.It has thus been proposed to use the terminal screen as a light source, firstly by displaying an entirely white screen for a short time. However, this solution is not very ergonomic, because it cuts off the video feedback, that is to say the possibility for the user to observe the acquired image so as to position his face correctly. It is possible to chain acquisition phases where the screen is white and verification phases where the acquired image is displayed, but this remains impractical and even aggressive for the eyes.

Pour avoir un retour vidéo en continu tout en bénéficiant de l’éclairage de l’écran, il a alors été proposé d’afficher un « bandeau » ou un « pourtour » blanc, superposé au retour vidéo à la manière d’un cadre. Cependant, la luminosité apportée est limitée car la superficie de la zone blanche est faible, et en plus le retour vidéo est de petite taille ou rogné, ce qui empêche l’utilisateur de l’utiliser convenablement.To have continuous video feedback while benefiting from screen lighting, it was then proposed to display a white “band” or “outline”, superimposed on the video feedback like a frame. However, the brightness provided is limited because the area of the white zone is small, and in addition the video feedback is small or cropped, which prevents the user from using it properly.

Il serait par conséquent souhaitable de disposer d’une nouvelle solution simple, fiable et efficace quelles que soient les conditions d’éclairement, d’acquisition d’un trait biométrique, en vue d’une authentification ou identification biométrique.It would therefore be desirable to have a new solution that is simple, reliable and effective whatever the lighting conditions, for the acquisition of a biometric trait, with a view to authentication or biometric identification.

PRESENTATION DE L’INVENTIONPRESENTATION OF THE INVENTION

Selon un premier aspect, la présente invention concerne un procédé d’acquisition d’un trait biométrique d’un individu, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données d’un terminal des étapes suivantes :According to a first aspect, the present invention relates to a method for acquiring a biometric trait of an individual, characterized in that it comprises the implementation by data processing means of a terminal of the following steps:

  1. Obtention, depuis des premiers moyens d’acquisition optique du terminal, d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;Obtaining, from first optical acquisition means of the terminal, a first image of said individual representing said biometric trait on a background;
  2. Génération, d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;Generation, of a second image, representing said biometric feature of the first image on a luminous background;
  3. Affichage de ladite deuxième image sur une interface dudit terminal de sorte à éclairer l’individu avec ledit fond lumineux.Display of said second image on an interface of said terminal so as to illuminate the individual with said luminous background.

Selon d’autres caractéristiques avantageuses et non limitatives :According to other advantageous and non-limiting characteristics:

Le procédé comprend une nouvelle occurrence de l’étape (a) pendant que la deuxième image est affichée sur l’interface.The method includes a new occurrence of step (a) while the second image is displayed on the interface.

La deuxième image correspond à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux, en particulier entièrement remplacé par ledit fond lumineux.The second image corresponds to the first image in which the background has been at least partially replaced by said luminous background, in particular entirely replaced by said luminous background.

L’étape (b) comprend l’extraction préalable d’une région d’intérêt de la première image contenant le trait biométrique, la deuxième image étant générée à partir de la région d’intérêt extraite.Step (b) includes the prior extraction of a region of interest from the first image containing the biometric feature, the second image being generated from the extracted region of interest.

Ladite extraction d’une région d’intérêt de la première image contenant le trait biométrique comprend la détection du trait biométrique de l’individu dans la première image, en particulier par segmentation de la première image.Said extraction of a region of interest from the first image containing the biometric feature comprises the detection of the biometric feature of the individual in the first image, in particular by segmentation of the first image.

L’étape (b) comprend en outre l’adaptation de l’exposition de la première image par rapport au trait biométrique détecté avant l’extraction de la région d’intérêt.Step (b) further includes adapting the exposure of the first image to the detected biometric feature before extracting the region of interest.

Le procédé comprend en outre une étape (d) d’authentification ou identification dudit individu sur la base du trait biométrique détecté.The method further comprises a step (d) of authentication or identification of said individual on the basis of the detected biometric trait.

L’étape (d) comprend la comparaison du trait biométrique détecté avec des données biométriques de référence stockées sur des moyens de stockage de données.Step (d) comprises comparing the detected biometric trait with reference biometric data stored on data storage means.

L’étape (d) comprend la mise en œuvre d’un contrôle d’accès en fonction du résultat de ladite identification ou authentification biométrique.Step (d) includes implementing access control based on the result of said biometric identification or authentication.

Ledit fond lumineux est un fond uni clair, préférentiellement blanc.Said luminous background is a light plain background, preferably white.

Ledit trait biométrique de l’individu est choisi parmi un visage et un iris de l’individu.Said biometric trait of the individual is selected from a face and an iris of the individual.

Ladite première image est une image visible.Said first image is a visible image.

Selon un deuxième aspect, la présente invention concerne un terminal comprenant des moyens de traitement de données configurés pour implémenter :According to a second aspect, the present invention relates to a terminal comprising data processing means configured to implement:

  • L’obtention, depuis des premiers moyens d’acquisition optique du terminal, d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;Obtaining, from first optical acquisition means of the terminal, a first image of said individual representing said biometric trait on a background;
  • La génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;The generation of a second image, representing said biometric feature of the first image on a luminous background;
  • L’affichage de ladite deuxième image sur une interface dudit terminal de sorte à éclairer l’individu avec ledit fond lumineux.The display of said second image on an interface of said terminal so as to illuminate the individual with said luminous background.

Selon un troisième et un quatrième aspect, l’invention propose un produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon le premier aspect d’acquisition d’un trait biométrique d’un individu ; et un moyen de stockage lisible par un équipement informatique sur lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon le premier aspect d’acquisition d’un trait biométrique d’un individu.According to a third and a fourth aspect, the invention proposes a computer program product comprising code instructions for the execution of a method according to the first aspect of acquiring a biometric trait of an individual; and a computer-readable storage medium on which a computer program product includes code instructions for performing a method according to the first aspect of acquiring a biometric trait of an individual.

PRESENTATION DES FIGURESPRESENTATION OF FIGURES

D’autres caractéristiques et avantages de la présente invention apparaîtront à la lecture de la description qui va suivre d’un mode de réalisation préférentiel. Cette description sera donnée en référence aux dessins annexés dans lesquels :Other characteristics and advantages of the present invention will appear on reading the following description of a preferred embodiment. This description will be given with reference to the appended drawings in which:

  • [Fig. 1]la figure 1 représente de façon générale un terminal pour la mise en œuvre du procédé d’acquisition d’un trait biométrique d’un individu selon l’invention ;[Fig. 1] FIG. 1 generally represents a terminal for implementing the method for acquiring a biometric trait of an individual according to the invention;
  • [Fig. 2]la figure 2 représente schématiquement les étapes d’un mode de réalisation du procédé d’acquisition d’un trait biométrique d’un individu selon l’invention ;[Fig. 2] FIG. 2 schematically represents the steps of an embodiment of the method for acquiring a biometric trait of an individual according to the invention;
  • [Fig. 3a]la figure 3a représente un exemple de première image utilisée dans le procédé selon l’invention ;[Fig. 3a] FIG. 3a represents an example of a first image used in the method according to the invention;
  • [Fig. 3b]la figure 3b représente un exemple de deuxième image utilisée dans le procédé selon l’invention.[Fig. 3b] FIG. 3b represents an example of a second image used in the method according to the invention.

DESCRIPTION DETAILLEEDETAILED DESCRIPTION

ArchitectureArchitecture

En référence à la , est proposé un terminal 1 pour la mise en œuvre d’un procédé d’acquisition d’un trait biométrique d’un individu. De manière préférée ce procédé d’acquisition fait partie d’un procédé d’authentification ou d’identification dudit individu, c’est-à-dire visant à déterminer ou vérifier l’identité de l’individu se présentant devant le terminal 1, pour le cas échéant autoriser un accès à cet individu. Comme on le verra, il s’agit typiquement de biométrie du visage (reconnaissance faciale ou d’iris), dans laquelle l’utilisateur doit approcher son visage, mais également de biométrie d’empreinte (digitale ou palmaire) à distance dans laquelle l’utilisateur approche sa main.With reference to the , a terminal 1 is proposed for the implementation of a method for acquiring a biometric trait of an individual. Preferably, this acquisition process is part of a process for authenticating or identifying said individual, that is to say aimed at determining or verifying the identity of the individual appearing in front of the terminal 1, to authorize access to this individual, if necessary. As we will see, this is typically facial biometrics (facial or iris recognition), in which the user must approach their face, but also remote fingerprint biometrics (digital or palm) in which the user approaches his hand.

Le terminal 1 est typiquement un terminal mobile personnel à un individu, comme par exemple un téléphone portable ou « smartphone », une tablette électronique, un ordinateur personnel, etc.The terminal 1 is typically a mobile terminal personal to an individual, such as for example a portable telephone or “smartphone”, an electronic tablet, a personal computer, etc.

Dans la suite de la présente description on prendra l’exemple préféré d’un terminal de type smartphone, le présent procédé étant alors utilisé généralement pour autoriser un accès logiciel sur le terminal 1 (par exemple déverrouiller le terminal 1, accéder à des données personnelles ou une application, mettre en œuvre une transaction, etc.), mais on notera que le présent procédé reste utilisable dans de très nombreuses situations telles que l’authentification préalable d’un individu souhaitant embarquer dans un avion, l’ouverture d’un portail verrouillé, etc.In the remainder of this description, the preferred example of a smartphone type terminal will be taken, the present method then being generally used to authorize software access to the terminal 1 (for example unlocking the terminal 1, accessing personal data or an application, implement a transaction, etc.), but it will be noted that the present method remains usable in very many situations such as the prior authentication of an individual wishing to board an aircraft, the opening of a locked gate, etc.

Le terminal 1 comprend des moyens de traitement de données 11, typiquement de type processeur, gérant le fonctionnement du terminal 1, et contrôlant ses divers composants, le plus souvent dans un boitier 10 protégeant ses divers composants.The terminal 1 comprises data processing means 11, typically of the processor type, managing the operation of the terminal 1, and controlling its various components, usually in a box 10 protecting its various components.

De manière préférée, le terminal 1 comprend des premiers moyens d’acquisition optique 14a, typiquement disposés de sorte à observer un espace généralement situé « devant » le terminal 1 (i.e. sur la face avant) et acquérir des données, en particulier des images d’un trait biométrique tel que le visage ou l’iris d’un individu. Comme l’on verra, les premiers moyens d’acquisition optique 14a sont avantageusement disposés au voisinage d’une interface 13 du terminal 1 (le plus souvent de type écran tactile), de sorte à pouvoir observer le visage d’un individu prenant en main le terminal 1 et regardant l’interface 13. En effet, comme l’on verra le présent procédé met en œuvre un « retour vidéo » des données acquises via les premiers moyens d’acquisition optique 14a, de sorte que l’utilisateur doit pouvoir simultanément observer l’interface 13 et être observé par les premiers moyens d’acquisition optique 14a. Typiquement, dans le cas d’un smartphone, les premiers moyens d’acquisition optique 14a sont disposés juste au-dessus de ladite interface 13.Preferably, the terminal 1 comprises first optical acquisition means 14a, typically arranged so as to observe a space generally located "in front" of the terminal 1 (i.e. on the front face) and to acquire data, in particular images of a biometric trait such as an individual's face or iris. As will be seen, the first optical acquisition means 14a are advantageously arranged in the vicinity of an interface 13 of the terminal 1 (most often of the touch screen type), so as to be able to observe the face of an individual taking hand the terminal 1 and looking at the interface 13. Indeed, as we will see the present method implements a "video return" of the data acquired via the first optical acquisition means 14a, so that the user must to be able to simultaneously observe the interface 13 and be observed by the first optical acquisition means 14a. Typically, in the case of a smartphone, the first optical acquisition means 14a are arranged just above said interface 13.

Comme l’on verra, l’interface 13 joue le rôle de moyens d’éclairage adaptés pour éclairer ledit espace en regard desdits premiers moyens d’acquisition optique 14a (c’est-à-dire qu’ils vont pouvoir éclairer les sujets observables par les moyens d’acquisition optique 14a, dans la mesure où l’utilisateur « regarde » vers l’interface 13 et donc tourne son visage vers cette interface 13). On comprend ainsi que la lumière émise par l’interface 13 est reçue et réémise par le sujet vers le terminal 1, ce qui permet que les moyens d’acquisition optique 14a puissent acquérir des données de qualité correcte et augmenter la fiabilité de l’éventuel traitement biométrique subséquent. En effet, un visage dans la pénombre sera par exemple plus difficile à reconnaître. Également, on constate que des techniques de « spoofing » (en français « usurpation » ou « mystification ») dans lesquels un individu essaye de tromper frauduleusement un terminal de contrôle d’accès au moyen d’accessoires tel qu’un masque ou une prothèse sont plus facilement repérables sous éclairage adéquat.As will be seen, the interface 13 plays the role of lighting means adapted to illuminate said space facing said first optical acquisition means 14a (that is to say that they will be able to illuminate the observable subjects by the optical acquisition means 14a, insofar as the user "looks" towards the interface 13 and therefore turns his face towards this interface 13). It is thus understood that the light emitted by the interface 13 is received and re-emitted by the subject to the terminal 1, which allows the optical acquisition means 14a to be able to acquire data of correct quality and increase the reliability of any subsequent biometric processing. Indeed, a face in the dark will be more difficult to recognize, for example. Also, we note that "spoofing" techniques (in French "usurpation" or "mystification") in which an individual tries to fraudulently deceive an access control terminal by means of accessories such as a mask or a prosthesis are easier to spot under adequate lighting.

On note qu’il peut tout à fait y avoir des deuxièmes moyens d’acquisition optique 14b qui observeraient un autre espace (et qui ne sont pas impliqués dans le fonctionnement biométrique souhaité) : les terminaux mobiles de type smartphone ont généralement à la fois des caméras sur la face avant et sur la face arrière, et alors les deuxièmes moyens d’acquisition optique 14b sont typiquement ceux situés sur la face arrière, i.e. de manière opposée aux premiers moyens d’acquisition optique 14a.Note that there may well be second optical acquisition means 14b which would observe another space (and which are not involved in the desired biometric operation): mobile terminals of the smartphone type generally have both cameras on the front face and on the rear face, and then the second optical acquisition means 14b are typically those located on the rear face, i.e. opposite to the first optical acquisition means 14a.

On se focalisera dans la suite de la présente description sur l’espace situé « en regard » des moyens d’acquisition optique 14a, c’est-à-dire celui situé « en face » des moyens d’acquisition optique 14a, qui est donc observable et dans lequel on souhaite faire l’identification ou de l’authentification biométrique.In the remainder of this description, the focus will be on the space located "facing" the optical acquisition means 14a, that is to say that located "opposite" the optical acquisition means 14a, which is therefore observable and in which one wishes to make biometric identification or authentication.

Les premiers moyens d’acquisition optique 14a sont typiquement des capteurs permettant l’acquisition d’une image « de radiation », c’est-à-dire une image classique dans laquelle chaque pixel reflète l’apparence réelle de la scène observée, i.e. où chaque pixel présente une valeur correspondant à la quantité de rayonnement électromagnétique reçu dans une partie du spectre électromagnétique donnée. Le plus souvent, ladite image de radiation est comme on le voit sur la une image visible (généralement une image couleur - type RGB - pour laquelle la valeur d’un pixel définit sa couleur, mais également une image en niveaux de gris voire en noir et blanc – pour laquelle la valeur d’un pixel définit sa luminosité), i.e. l’image telle que l’œil humain peut la voir (le spectre électromagnétique concerné est le spectre visible – bande de 380 à 780 nm), mais ce peut être alternativement une image IR (infrarouge – pour laquelle le spectre électromagnétique concerné est celui de longueur d’onde au-delà de 700 nm, en particulier de l’ordre de 700 à 2000 nm pour la bande « proche infrarouge », NIR), voire des images liées à d’autres parties du spectre.The first optical acquisition means 14a are typically sensors allowing the acquisition of a “radiation” image, that is to say a conventional image in which each pixel reflects the real appearance of the observed scene, ie where each pixel has a value corresponding to the amount of electromagnetic radiation received in a given part of the electromagnetic spectrum. Most often, said radiation picture is as seen in the a visible image (generally a color image - RGB type - for which the value of a pixel defines its color, but also a grayscale or even black and white image - for which the value of a pixel defines its luminosity) , ie the image as the human eye can see it (the electromagnetic spectrum concerned is the visible spectrum – band from 380 to 780 nm), but it can alternatively be an IR (infrared) image – for which the electromagnetic spectrum concerned is that of wavelength beyond 700 nm, in particular of the order of 700 to 2000 nm for the “near infrared” band, NIR), or even images linked to other parts of the spectrum.

On note que le présent procédé peut utiliser plusieurs images de radiation en parallèle, en particulier dans différentes parties de spectre électromagnétique, le cas échéant respectivement acquises via plusieurs premiers moyens d’acquisition optique 14a différents. Par exemple, on peut utiliser une image visible et une image IR. Dans la suite de la présente description, on prendra l’exemple d’une image visible.It should be noted that the present method can use several radiation images in parallel, in particular in different parts of the electromagnetic spectrum, where appropriate respectively acquired via several different first optical acquisition means 14a. For example, a visible image and an IR image can be used. In the remainder of this description, the example of a visible image will be taken.

Enfin, les moyens de traitement de données 11 sont souvent connectés à des moyens de stockage de données 12 stockant une base de données biométriques de référence, préférentiellement des images de visages (faces) ou d’iris, de sorte à permettre la comparaison d’un trait biométrique de l’individu apparaissant sur l’image de radiation avec les données biométriques de référence. Les moyens 12 peuvent être ceux d’un serveur distant auquel le terminal 1 est connecté, mais avantageusement il s’agit de moyens 12 locaux, i.e. inclus dans le terminal 1 (en d’autres termes le terminal 1 comprends les moyens de stockage 12), de sorte à éviter tout transfert de données biométriques sur le réseau et limiter des risques d’interception ou de fraude.Finally, the data processing means 11 are often connected to data storage means 12 storing a reference biometric database, preferably images of faces (faces) or irises, so as to allow the comparison of a biometric feature of the individual appearing on the radiation image with the reference biometric data. The means 12 can be those of a remote server to which the terminal 1 is connected, but advantageously they are local means 12, i.e. included in the terminal 1 (in other words the terminal 1 includes the storage means 12 ), so as to avoid any transfer of biometric data over the network and limit the risk of interception or fraud.

ProcédéProcess

En référence à la , le présent procédé, mis en œuvre par les moyens de traitement de données 11 du terminal 1, commence par une étape (a) d’obtention d’une image sur laquelle apparait un trait biométrique dudit individu, dite première image. Plus précisément, la première image est une image dudit individu représentant (au moins partiellement) ledit trait biométrique, sur un arrière-plan.With reference to the , the present method, implemented by the data processing means 11 of the terminal 1, begins with a step (a) of obtaining an image on which appears a biometric feature of said individual, referred to as the first image. More precisely, the first image is an image of said individual representing (at least partially) said biometric trait, on a background.

Généralement, cette étape comprend l’acquisition de données de la part de ces moyens 14a et l’obtention de la première image à partir des données acquises par les premiers moyens d’acquisition optique 14a.Generally, this step includes the acquisition of data from these means 14a and the obtaining of the first image from the data acquired by the first optical acquisition means 14a.

Par arrière-plan de l’image, on entend un fond généralement « complexe » sur lequel se surimprime le trait biométrique, souvent l’aspect de l’endroit où se trouve l’individu : typiquement le visage de l’individu apparait « devant » cet arrière-plan. Cet arrière-plan peut être très sombre, notamment si l’individu est dans une petite pièce mal éclairée ou dehors alors que le soleil est couché. Par commodité, dans la présente description on définit comme étant l’arrière-plan « tout ce qui n’est pas le trait biométrique » et donc potentiellement y compris le corps de l’individu si le trait est son visage (voire même tout le reste du visage si le trait est un œil).By background of the image, we mean a generally "complex" background on which the biometric feature is superimposed, often the aspect of the place where the individual is located: typically the face of the individual appears "in front of this background. This background can be very dark, especially if the individual is in a small, poorly lit room or outside when the sun is down. For convenience, in the present description, the background is defined as "everything that is not the biometric trait" and therefore potentially including the body of the individual if the trait is his face (or even all the rest of the face if the feature is an eye).

Le présent procédé se distingue en ce qu’il comprend une étape (b) de génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux. La représente un exemple deuxième image correspondant à la première image de la figure 3a.The present method is distinguished in that it comprises a step (b) of generating a second image, representing said biometric feature of the first image on a luminous background. There represents an example second image corresponding to the first image of FIG. 3a.

Cette deuxième image peut alors être affichée (en lieu et place de la première image) sur l’interface 13 comme retour vidéo dans une étape (c), de sorte à éclairer l’individu avec ledit fond lumineux.This second image can then be displayed (instead of the first image) on the interface 13 as video feedback in a step (c), so as to illuminate the individual with said luminous background.

On comprend que la deuxième image représente tout le trait biométrique, et le représente de manière identique à la première image, c’est-à-dire ne vient modifier que l’arrière-plan, lequel ne comprend pas d’information utile pour une application biométrique et peut donc être altéré. Ainsi :It is understood that the second image represents the entire biometric trait, and represents it in an identical manner to the first image, that is to say only modifies the background, which does not include useful information for a biometric application and can therefore be tampered with. So :

  • Le retour vidéo peut être mis en œuvre en permanence ;Video feedback can be implemented permanently;
  • La taille ou la surface du trait biométrique n’est pas diminuée, ce qui présente un confort maximal pour l’utilisateur lors du retour vidéo ;The size or area of the biometric line is not reduced, which provides maximum comfort for the user during video feedback;
  • On dispose d’une grande surface pouvant être utilisée comme source lumineuse pour une prochaine occurrence de l’étape (a) de sorte qu’on n’a pas de problème d’éclairement.We have a large surface that can be used as a light source for a next occurrence of step (a) so that we do not have an illumination problem.

Plus précisément, une nouvelle occurrence de l’étape (a) est avantageusement mise en œuvre pendant que la deuxième image est affichée sur l’interface 13 de sorte que lors de l’acquisition d’une nouvelle première image l’individu soit éclairé par le fond lumineux de la deuxième image, i.e. les étapes (a) à (c) sont mises en œuvre de manière cyclique.More precisely, a new occurrence of step (a) is advantageously implemented while the second image is displayed on the interface 13 so that during the acquisition of a new first image the individual is illuminated by the luminous background of the second image, i.e. steps (a) to (c) are implemented cyclically.

Ainsi, préférentiellement à l’étape (a) on obtient un premier flux de premières images avec notamment une acquisition de données à une fréquence prédéterminée, par exemple 15Hz, chaque première image est traitée à la volée de sorte à générer à l’étape (b) un deuxième flux de deuxièmes images, et afficher ce deuxième flux à l’étape (c) : cela permet d’avoir les étapes (a) et (c) mises en œuvre simultanément de sorte à avoir un éclairement constant de l’individu et des premières images « améliorées » et ainsi de bonne qualité. On comprend naturellement que l’amélioration de la première image impacte légèrement la deuxième image, et ainsi de suite la prochaine première image, mais en quelques images (et donc une fraction de seconde) on atteint un état stable.Thus, preferably in step (a), a first stream of first images is obtained with in particular data acquisition at a predetermined frequency, for example 15Hz, each first image is processed on the fly so as to generate in step ( b) a second stream of second images, and displaying this second stream in step (c): this makes it possible to have steps (a) and (c) implemented simultaneously so as to have constant illumination of the individual and the first "improved" and thus good quality images. We naturally understand that the improvement of the first image slightly impacts the second image, and so on the next first image, but in a few images (and therefore a fraction of a second) we reach a stable state.

Par « fond lumineux », on entend tout fond présentant une luminosité suffisante pour les besoins d’éclairement de l’individu, généralement un fond uni clair, préférentiellement blanc, mais on comprend qu’il peut s’agir par exemple du même arrière-plan mais avec une luminosité sensiblement rehaussée (de manière décorrélée du trait biométrique). Comme l’on verra, la qualité de lumière produite par le fond lumineux peut être adaptée dynamiquement, notamment soit en faisant varier sa couleur, soit en ajustant le taux de l’arrière-plan qui est remplacé par le fond lumineux (avantageusement tout l’arrière-plan), voire en jouant sur le zoom pour ajuster le taux de la première image qui est occupé par le trait biométrique.By "bright background" is meant any background having sufficient luminosity for the lighting requirements of the individual, generally a clear plain background, preferably white, but it is understood that it may be for example the same background plane but with a significantly enhanced luminosity (decorrelated from the biometric feature). As we will see, the quality of light produced by the luminous background can be dynamically adapted, in particular either by varying its color, or by adjusting the rate of the background which is replaced by the luminous background (advantageously the whole background), or even playing on the zoom to adjust the rate of the first image which is occupied by the biometric feature.

L’idée de l’étape (b) est d’isoler le trait biométrique (ou du moins une « région d’intérêt » contenant le trait biométrique) de la première image et de l’utiliser comme base à la deuxième image, i.e. que la deuxième image corresponde à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux.The idea of step (b) is to isolate the biometric trait (or at least a “region of interest” containing the biometric trait) from the first image and use it as a basis for the second image, i.e. that the second image corresponds to the first image in which the background has been at least partially replaced by said luminous background.

Par région d’intérêt on entend une zone spatiale sémantiquement plus intéressante et contenant le trait biométrique, typiquement tout le corps si le trait biométrique est le visage, ou tout le visage si le trait biométrique est l’iris.By region of interest is meant a semantically more interesting spatial zone containing the biometric trait, typically the whole body if the biometric trait is the face, or the whole face if the biometric trait is the iris.

Ici, le remplacement est préférentiellement « total », i.e. que ladite zone d’intérêt coïncide avec le trait biométrique, mais comme expliqué on comprend que l’on peut garder des zones qui font stricto sensu partie de l’arrière-plan, notamment le reste de la personne comme c’est le cas dans l’exemple de la figure 3b : si le trait biométrique est seulement le visage, le cou et le buste de l’individu font techniquement partie de l’arrière-plan, mais pour des questions esthétiques il peut être intéressant de ne pas représenter le visage flottant seul dans la deuxième image et donc de garder également le corps (qui dans cet exemple est la région d’intérêt). Par commodité, dans la suite de la présente description on prendra l’exemple dans lequel la région d’intérêt coïncide avec le trait biométrique, mais on pourra rester un peu moins spécifique et avoir une région d’intérêt allant un peu au-delà du seul trait biométrique (dans tous les cas la région d’intérêt doit contenir le trait biométrique).Here, the replacement is preferentially "total", i.e. that said zone of interest coincides with the biometric line, but as explained it is understood that it is possible to keep zones which strictly speaking form part of the background, in particular the rest of the person as is the case in the example of figure 3b: if the biometric feature is only the face, the neck and the chest of the individual are technically part of the background, but for aesthetic issues it may be interesting not to represent the floating face alone in the second image and therefore to also keep the body (which in this example is the region of interest). For convenience, in the remainder of this description, the example will be taken in which the region of interest coincides with the biometric trait, but it is possible to remain a little less specific and have a region of interest going a little beyond the single biometric trait (in all cases the region of interest must contain the biometric trait).

L’étape (b) comprend ainsi avantageusement deux sous-parties, à savoir tout d’abord l’extraction du trait biométrique (ou du moins de la région d’intérêt) de la première image, puis la génération de la deuxième image à partir du trait biométrique extrait.Step (b) thus advantageously comprises two sub-parts, namely first of all the extraction of the biometric feature (or at least of the region of interest) from the first image, then the generation of the second image at from the extracted biometric trait.

Pour ce faire, on commence avantageusement par la détection préalable du trait biométrique de l’individu dans la première image en vue de le localiser, et plus précisément la segmentation dite « sémantique » de la première image, c’est-à-dire la séparation du trait biométrique (ou du moins de la région d’intérêt) et de l’arrière-plan par analyse d’image. Plus précisément, la segmentation sémantique permet de « détourer » le trait biométrique/la région d’intérêt.To do this, one advantageously begins with the prior detection of the biometric trait of the individual in the first image with a view to locating it, and more precisely the so-called "semantic" segmentation of the first image, that is to say the separation of the biometric feature (or at least the region of interest) and the background by image analysis. More precisely, the semantic segmentation makes it possible to “clip” the biometric feature/the region of interest.

Comme expliqué il reste possible de séparer seulement une « région d’intérêt » contenant le trait biométrique du reste de l’image, par exemple toute la personne. Dans ce cas, la détection portera toujours sur le trait biométrique, mais alors la segmentation tiendra compte de la région d’intérêt. Plus précisément, la segmentation peut en pratique distinguer plusieurs zones de la première image, dont le trait biométrique et des parties de la région d’intérêt, il suffit alors de sélectionner les zones correspondantes pour reconstituer la région d’intérêt.As explained, it is still possible to separate only a “region of interest” containing the biometric feature from the rest of the image, for example the whole person. In this case, the detection will always relate to the biometric trait, but then the segmentation will take into account the region of interest. More precisely, the segmentation can in practice distinguish several zones of the first image, including the biometric feature and parts of the region of interest, it is then sufficient to select the corresponding zones to reconstitute the region of interest.

De manière préférée, la détection du trait biométrique et l’extraction de la région d’intérêt sont directement mise en œuvre en une seule action grâce à la segmentation, mais il reste tout à fait possible de détecter initialement le trait biométrique, puis dans un deuxième temps de déterminer la région d’intérêt associée à ce trait biométrique et l’extraire.Preferably, the detection of the biometric trait and the extraction of the region of interest are directly implemented in a single action thanks to the segmentation, but it remains entirely possible to initially detect the biometric trait, then in a second step to determine the region of interest associated with this biometric trait and extract it.

La détection du trait biométrique consiste en pratique en la génération d’une ou plusieurs « annotations » quelconques qui localisent dans la première image la zone qui contient ledit trait biométrique, par exemple un boite l’englobant, dite boite de détection, en anglais « box » (définie par sa taille et sa position). On comprend que la boite de détection est assez grossière et comprend le plus souvent des pixels faisant clairement partie de l’arrière-plan.The detection of the biometric trait consists in practice in the generation of one or more "annotations" which locate in the first image the zone which contains said biometric trait, for example a box surrounding it, called detection box, in English " box” (defined by its size and position). We understand that the detection box is quite coarse and most often includes pixels that are clearly part of the background.

Dans le cas préféré où la détection est plus particulièrement une « segmentation », l’annotation finale générée est typiquement un « masque de segmentation » (ou carte de segmentation) de la première image, c’est-à-dire une image binaire de même taille que l’image initiale. Plus précisément, les pixels de la première image ayant un pixel correspondant « blanc » dans le masque de segmentation sont considérés comme des pixels du trait biométrique/de la région d’intérêt, et les pixels de la première image ayant un pixel correspondant « noir » dans le masque de segmentation sont considérés comme des pixels de l’arrière-plan.In the preferred case where the detection is more particularly a "segmentation", the final annotation generated is typically a "segmentation mask" (or segmentation map) of the first image, that is to say a binary image of same size as the original image. Specifically, pixels in the first image with a matching "white" pixel in the segmentation mask are considered biometric feature/ROI pixels, and pixels in the first image with a matching "black" pixel in the segmentation mask are considered background pixels.

Ensuite, l’application du masque sur la première image permet d’isoler le trait biométrique biométrique/la région d’intérêt qui y est représenté, de la même façon qu’un utilisateur l’entourerait à la main, et ainsi de l’extraire.Then, applying the mask to the first image isolates the biometric biometric feature/region of interest represented therein, in the same way that a user would circle it by hand, and so extract.

On suppose que l’utilisateur place son visage de manière adaptée en face des premiers moyens d’acquisition 14a (en particulier grâce au guidage offert par le retour vidéo) pour qu’il n’y ait qu’un trait biométrique détectable et/ou que l’algorithme de détection est apte à choisir un unique trait biométrique « candidat » comme celui de l’utilisateur du terminal 1, même si d’autres visage seraient visibles à l’arrière-plan (ces derniers seraient donc considérés comme faisant partie de l’arrière-plan).It is assumed that the user places his face in an appropriate manner in front of the first acquisition means 14a (in particular thanks to the guidance offered by the video feedback) so that there is only one detectable biometric feature and/or that the detection algorithm is able to choose a single "candidate" biometric trait like that of the user of the terminal 1, even if other faces would be visible in the background (these would therefore be considered as part of of the background).

De nombreuses techniques de détection/segmentation adaptées pour séparer le trait biométrique/la région d’intérêt de l’arrière-plan sont connues de l’homme du métier. On connait par exemple des réseaux de neurones à convolution adaptés, tels que U-Net, DeepLab, mask RCNN, YOLO, Inception, etc. qui peuvent être entraînés pour cette tâche. On pourra aussi se référer au document Li, H., Ngan, K. N., & Liu, Q. (2008). FaceSeg: automatic face segmentation for real-time video. IEEE Transactions on Multimedia, 11(1), 77-88.Many detection/segmentation techniques suitable for separating the biometric feature/region of interest from the background are known to those skilled in the art. For example, suitable convolutional neural networks are known, such as U-Net, DeepLab, mask RCNN, YOLO, Inception, etc. who can be trained for this task. Reference may also be made to the document Li, H., Ngan, K. N., & Liu, Q. (2008). FaceSeg: automatic face segmentation for real-time video. IEEE Transactions on Multimedia, 11(1), 77-88.

Alternativement à la segmentation sémantique, on peut obtenir et utiliser une image de profondeur représentant également ledit individu représentant ledit trait biométrique, par exemple si les premiers moyens d’acquisition 14a présentent au moins deux caméras juxtaposées et consistent une « caméra 3D » permettant donc de faire de la stéréovision.Alternatively to semantic segmentation, it is possible to obtain and use a depth image also representing said individual representing said biometric trait, for example if the first acquisition means 14a have at least two juxtaposed cameras and consist of a "3D camera" thus making it possible to make stereovision.

Par « image de profondeur » ou « carte de profondeur », on entend une image dont la valeur des pixels est la distance selon l’axe optique entre le centre optique du capteur et le point observé. Une image de profondeur est parfois représentée (afin d’être visuellement appréhendable), comme une image en niveaux de gris ou de couleur dont la luminance de chaque point est fonction de la valeur de distance (plus un point est près, plus il est clair) mais on comprendra qu’il s’agit d’une image artificielle par opposition à la première image qui est une image de radiation tel que définie ci-avant.By "depth image" or "depth map", we mean an image whose pixel value is the distance along the optical axis between the optical center of the sensor and the observed point. A depth image is sometimes represented (in order to be visually comprehensible) as a grayscale or color image whose luminance of each point is a function of the distance value (the closer a point is, the brighter it is ) but it will be understood that this is an artificial image as opposed to the first image which is a radiation image as defined above.

On comprendra que de nombreuses autres technologies de capteurs permettant l’obtention d’une image de profondeur sont connues (« temps de vol », sonar, lumière structurée, etc.), et que dans la plupart des cas, l’image de profondeur est en pratique reconstruite par les moyens de traitement 11 à partir de données brutes fournies par les premiers moyens d’acquisition optique 14a et qu’il faut traiter (on répète qu’une image de profondeur est un objet artificiel qu’un capteur ne peut pas facilement obtenir par une mesure directe).It will be understood that many other sensor technologies making it possible to obtain a depth image are known ("time of flight", sonar, structured light, etc.), and that in most cases, the depth image is in practice reconstructed by the processing means 11 from raw data provided by the first optical acquisition means 14a and which must be processed (we repeat that a depth image is an artificial object that a sensor cannot not easily obtained by direct measurement).

Il est bien plus facile de détecter le trait biométrique/la région d’intérêt dans une image de profondeur que dans la première image car :It is much easier to detect the biometric feature/ROI in a depth image than in the first image because:

  • celle-ci n’est que peu affectée par l’exposition (l’image de profondeur ne comprend aucune information dépendant de la luminosité) ;this is only slightly affected by exposure (the depth image does not include any information depending on the brightness);
  • est très discriminante car elle permet de séparer sans difficulté les objets distinct et notamment ceux du premier plan par rapport à ceux du second plan (i.e. l’arrière-plan).is very discriminating because it makes it possible to easily separate distinct objects, especially those in the foreground from those in the background (i.e. the background).

Pour cela, ledit trait biométrique/la région d’intérêt est avantageusement identifié comme l’ensemble des pixels de ladite image de profondeur associés à une valeur de profondeur comprise dans une gamme prédéterminée, avantageusement les pixels les plus proches. Il s’agit d’un simple seuillage de l’image de profondeur, permettant de filtrer les objets à la distance souhaitée du terminal 1, éventuellement couplé à un algorithme permettant d’agréger des pixels en objets ou blobs (pour éviter d’avoir plusieurs « fragments » du même trait biométrique).For this, said biometric feature/the region of interest is advantageously identified as the set of pixels of said depth image associated with a depth value included in a predetermined range, advantageously the closest pixels. This is a simple thresholding of the depth image, making it possible to filter out objects at the desired distance from terminal 1, possibly coupled with an algorithm making it possible to aggregate pixels into objects or blobs (to avoid having several “fragments” of the same biometric trait).

De manière préférée, on prendra par exemple la gamme [0 ; 1 m] voire [0 ; 50 cm] dans le cas d’un terminal 1 mural, mais selon les cas d’application on pourra faire varier cette gamme. On peut alors extraire les pixels correspondants de la première image.Preferably, the range [0; 1 m] or even [0; 50 cm] in the case of a wall-mounted terminal 1, but depending on the application, this range can be varied. It is then possible to extract the corresponding pixels from the first image.

Dans un tel mode de réalisation, la détection du trait biométrique peut être mise en œuvre de manière indépendante de l’extraction de la région d’intérêt ; il est même d’ailleurs préféré de mettre en œuvre a posteriori un algorithme de détection tel que ceux présentés avant (par exemple à CNN) sur la région d’intérêt identifiée.In such an embodiment, the detection of the biometric feature can be implemented independently of the extraction of the region of interest; it is even preferred to implement a posteriori a detection algorithm such as those presented before (for example to CNN) on the identified region of interest.

Enfin, quelle que soit la technique d’extraction du trait biométrique, on génère la deuxième image, cette dernière correspondant comme expliqué à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux. Pour cela, on « insère » par exemple la région d’intérêt extraite sur le fond lumineux.Finally, whatever the technique for extracting the biometric feature, the second image is generated, the latter corresponding as explained to the first image in which the background has been at least partially replaced by said luminous background. For this, we “insert” for example the region of interest extracted on the luminous background.

Préférentiellement, la deuxième image correspond à la première image dans laquelle tout sauf la région d’intérêt a été remplacé par ledit fond lumineux.Preferably, the second image corresponds to the first image in which everything except the region of interest has been replaced by said luminous background.

Dans le cas où la région d’intérêt coïncide avec le trait biométrique, la deuxième image correspond à la première image dans laquelle l’arrière-plan a été entièrement remplacé par ledit fond lumineux.In the case where the region of interest coincides with the biometric line, the second image corresponds to the first image in which the background has been entirely replaced by said luminous background.

On rappelle que la luminosité/couleur du fond lumineux ainsi que le niveau de zoom peuvent être contrôlés pour ajuster l’éclairement fourni par le retour lumineux.Remember that the brightness/color of the luminous background as well as the zoom level can be controlled to adjust the illumination provided by the luminous return.

A noter qu’avoir une région d’intérêt « proche » du trait biométrique, voir coïncidant totalement avec le trait biométrique présente un intérêt supplémentaire, à savoir limiter l’information exploitable par un fraudeur sur le retour vidéo.It should be noted that having a region of interest "close" to the biometric trait, or even coinciding completely with the biometric trait, is of additional interest, namely limiting the information that can be used by a fraudster on the video feedback.

Par exemple, un fraudeur utilisant un masque pour tenter de duper l’algorithme ne verra pas le bord de son masque du fait de la segmentation, et ne pourra pas estimer la qualité de sa fraude et tenter de l’améliorer. Par contre, le procédé travaille toujours sur la première image (et non la deuxième image) de sorte qu’il peut toujours mettre en œuvre des techniques d’anti-spoofing efficaces.For example, a fraudster using a mask to try to fool the algorithm will not see the edge of his mask due to segmentation, and will not be able to estimate the quality of his fraud and attempt to improve it. On the other hand, the process always works on the first image (and not the second image) so that it can always implement effective anti-spoofing techniques.

A ce titre, de manière préférée, l’étape (b) comprend en outre la vérification de l’authenticité du trait biométrique détecté, en utilisant des techniques connues.As such, step (b) preferably further comprises verifying the authenticity of the detected biometric trait, using known techniques.

En effet, le spoofing concerne principalement des masques plats ou semi-plats qui peuvent tromper les algorithmes de détection classique, mais qui laissent visible un « bord » suspect du masque.Indeed, spoofing mainly concerns flat or semi-flat masks which can deceive conventional detection algorithms, but which leave a suspicious "edge" of the mask visible.

Par ailleurs, de manière classique, l’étape (b) comprend préférentiellement l’adaptation préalable de l’exposition de la première image (avant qu’elle serve de base à la deuxième image) par rapport au trait biométrique détecté. Pour cela, comme expliqué on normalise l’exposition de toute l’image par rapport à celle de la zone considérée : ainsi, on est sûr que les pixels du trait biométrique sont exposés de manière optimale, le cas échéant au détriment du reste de la première image (i.e. l’arrière-plan), mais cela est sans importance puisqu’on va l’écraser lors de la génération de la deuxième image.Moreover, in a conventional manner, step (b) preferably comprises the prior adaptation of the exposure of the first image (before it serves as the basis for the second image) with respect to the biometric trait detected. To do this, as explained, the exposure of the entire image is normalized in relation to that of the zone considered: thus, we are sure that the pixels of the biometric feature are optimally exposed, if necessary to the detriment of the rest of the first image (i.e. the background), but this is irrelevant since we will overwrite it when generating the second image.

Cela est d’autant plus efficace en cas de mise en œuvre des étapes (a) à (c) de manière cyclique puisque l’exposition est ainsi progressivement optimisée de manière dynamique en même temps que la première image est améliorée.This is all the more effective if steps (a) to (c) are implemented cyclically since the exposure is thus progressively dynamically optimized at the same time as the first image is improved.

Authentification/identificationAuthentication/identification

Enfin, dans une étape (d), est avantageusement mise en œuvre l’authentification ou l’identification à proprement parler dudit individu sur la base du trait biométrique détecté (en particulier sur la première image le cas échéant améliorée par l’éclairage de la deuxième image, comme expliqué on comprend que la deuxième image ne sert avantageusement qu’au retour vidéo de l’étape (c) pour améliorer la première image et pas de base au traitement biométrique. De surcroit l’étape (b) comprend comme expliqué préférentiellement déjà la détection du trait biométrique de l’individu dans la première image de sorte que ledit trait est directement disponible. Alternativement, il reste cependant possible de faire une nouvelle acquisition et/ou une nouvelle détection indépendante).Finally, in a step (d), the authentication or identification strictly speaking of said individual is advantageously implemented on the basis of the biometric trait detected (in particular on the first image, if necessary improved by the illumination of the second image, as explained, it is understood that the second image is advantageously only used for video feedback from step (c) to improve the first image and not as a basis for biometric processing. In addition, step (b) comprises, as explained preferentially already the detection of the biometric trait of the individual in the first image so that said trait is directly available Alternatively, it remains however possible to make a new acquisition and/or a new independent detection).

Plus précisément, on considère ledit trait biométrique détecté comme une donnée biométrique candidate, et il est comparé avec une ou plusieurs données biométriques de référence de la base de données des moyens de stockage de données 12.More precisely, said biometric trait detected is considered as candidate biometric data, and it is compared with one or more reference biometric data from the database of the data storage means 12.

Il suffit alors de vérifier que cette donnée biométrique candidate coïncide avec la/une donnée biométrique de référence. De façon connue, la donnée biométrique candidate et la donnée biométrique de référence coïncident si leur distance selon une fonction de comparaison donnée est inférieure à un seuil prédéterminé.It then suffices to verify that this candidate biometric datum coincides with the/a reference biometric datum. In a known manner, the candidate biometric datum and the reference biometric datum coincide if their distance according to a given comparison function is less than a predetermined threshold.

Ainsi, la mise en œuvre de la comparaison comprend typiquement le calcul d’une distance entre les données, dont la définition varie en fonction de la nature des données biométriques considérées. Le calcul de la distance comprend le calcul d’un polynôme entre les composantes des données biométriques, et avantageusement le calcul d’un produit scalaire.Thus, the implementation of the comparison typically includes the calculation of a distance between the data, the definition of which varies according to the nature of the biometric data considered. The calculation of the distance includes the calculation of a polynomial between the components of the biometric data, and advantageously the calculation of a scalar product.

Par exemple, dans le cas où les données biométriques ont été obtenues à partir d’images d’iris, une distance classiquement utilisée pour comparer deux données est la distance de Hamming. Dans le cas où les données biométriques ont été obtenues à partir d’images du visage d’individus, il est courant d’utiliser la distance euclidienne.For example, in the case where the biometric data were obtained from iris images, a distance conventionally used to compare two data is the Hamming distance. In the case where the biometric data has been obtained from images of the face of individuals, it is common to use the Euclidean distance.

Ce type de comparaison est connu de l’Homme du Métier et ne sera pas décrit plus en détails ci-avant.This type of comparison is known to those skilled in the art and will not be described in more detail above.

L’individu est authentifié/identifié si la comparaison révèle un taux de similarité entre la donnée candidate et la/une donnée de référence excédant un certain seuil, dont la définition dépend de la distance calculée.The individual is authenticated/identified if the comparison reveals a similarity rate between the candidate datum and the reference datum exceeding a certain threshold, the definition of which depends on the calculated distance.

TerminalTerminal

Selon un deuxième aspect, la présente invention concerne le terminal 1 pour la mise en œuvre du procédé selon le premier aspect.According to a second aspect, the present invention relates to the terminal 1 for implementing the method according to the first aspect.

Le terminal 1 comprend des moyens de traitement de données 11, de type processeur, avantageusement des premiers moyens d’acquisition optique 14a (pour l’acquisition de la première), une interface 13, et le cas échéant des moyens de stockage de données 12 stockant une base de données biométriques de référence.The terminal 1 comprises data processing means 11, of the processor type, advantageously first optical acquisition means 14a (for the acquisition of the first), an interface 13, and if necessary data storage means 12 storing a reference biometric database.

Les moyens de traitement de données 11 sont configurés pour implémenter :The data processing means 11 are configured to implement:

  • L’obtention, depuis les premiers moyens d’acquisition optique 14a du terminal 1, d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;Obtaining, from the first optical acquisition means 14a of the terminal 1, a first image of said individual representing said biometric trait on a background;
  • La génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;The generation of a second image, representing said biometric feature of the first image on a luminous background;
  • l’affichage de ladite deuxième image sur l’interface 13 dudit terminal 1 de sorte à éclairer l’individu avec ledit fond lumineux.the display of said second image on the interface 13 of said terminal 1 so as to illuminate the individual with said luminous background.

Selon un troisième et un quatrième aspects, l’invention concerne un produit programme d’ordinateur comprenant des instructions de code pour l’exécution (en particulier sur les moyens de traitement de données 11 du terminal 1) d’un procédé selon le premier aspect de l’invention d’acquisition d’un trait biométrique d’un individu, ainsi que des moyens de stockage lisibles par un équipement informatique (une mémoire 12 du terminal 2) sur lequel on trouve ce produit programme d’ordinateur.According to a third and a fourth aspect, the invention relates to a computer program product comprising code instructions for the execution (in particular on the data processing means 11 of the terminal 1) of a method according to the first aspect of the invention for acquiring a biometric trait of an individual, as well as storage means readable by computer equipment (a memory 12 of the terminal 2) on which this computer program product is found.

Claims (15)

Procédé d’acquisition d’un trait biométrique d’un individu, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données (11) d’un terminal (1) des étapes suivantes :
  1. Obtention, depuis des premiers moyens d’acquisition optique (14a) du terminal (1), d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;
  2. Génération, d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;
  3. Affichage de ladite deuxième image sur une interface (13) dudit terminal (1) de sorte à éclairer l’individu avec ledit fond lumineux.
Method for acquiring a biometric trait of an individual, characterized in that it comprises the implementation by data processing means (11) of a terminal (1) of the following steps:
  1. Obtaining, from first optical acquisition means (14a) of the terminal (1), a first image of said individual representing said biometric feature on a background;
  2. Generation, of a second image, representing said biometric feature of the first image on a luminous background;
  3. Display of said second image on an interface (13) of said terminal (1) so as to illuminate the individual with said luminous background.
Procédé selon la revendication 1, comprenant une nouvelle occurrence de l’étape (a) pendant que la deuxième image est affichée sur l’interface (13).Method according to claim 1, comprising a new occurrence of step (a) while the second image is displayed on the interface (13). Procédé selon l’une des revendications 1 et 2, dans lequel la deuxième image correspond à la première image dans laquelle l’arrière-plan a été au moins partiellement remplacé par ledit fond lumineux, en particulier entièrement remplacé par ledit fond lumineux.Method according to one of Claims 1 and 2, in which the second image corresponds to the first image in which the background has been at least partially replaced by the said luminous background, in particular entirely replaced by the said luminous background. Procédé selon l’une des revendications 1 à 3, dans lequel l’étape (b) comprend l’extraction préalable d’une région d’intérêt de la première image contenant le trait biométrique, la deuxième image étant générée à partir de la région d’intérêt extraite.Method according to one of Claims 1 to 3, in which step (b) comprises the prior extraction of a region of interest from the first image containing the biometric feature, the second image being generated from the region of interest extracted. Procédé selon la revendication 4, dans lequel ladite extraction d’une région d’intérêt de la première image contenant le trait biométrique comprend la détection du trait biométrique de l’individu dans la première image, en particulier par segmentation de la première image.A method according to claim 4, wherein said extracting a region of interest from the first image containing the biometric trait comprises detecting the individual's biometric trait in the first image, in particular by segmenting the first image. Procédé selon la revendication 5, dans lequel l’étape (b) comprend en outre l’adaptation de l’exposition de la première image par rapport au trait biométrique détecté avant l’extraction de la région d’intérêt.The method of claim 5, wherein step (b) further comprises adapting the exposure of the first image to the detected biometric feature prior to extracting the region of interest. Procédé selon l’une des revendications 5 et 6, comprenant en outre une étape (d) d’authentification ou identification dudit individu sur la base du trait biométrique détecté.Method according to one of Claims 5 and 6, further comprising a step (d) of authentication or identification of said individual on the basis of the biometric trait detected. Procédé selon la revendication 7, dans lequel l’étape (d) comprend la comparaison du trait biométrique détecté avec des données biométriques de référence stockées sur des moyens de stockage de données (12).A method according to claim 7, wherein step (d) comprises comparing the detected biometric trait with reference biometric data stored on data storage means (12). Procédé selon l’une des revendications 7 et 8, dans lequel l’étape (d) comprend la mise en œuvre d’un contrôle d’accès en fonction du résultat de ladite identification ou authentification biométrique.Method according to one of Claims 7 and 8, in which step (d) comprises the implementation of access control according to the result of said biometric identification or authentication. Procédé selon l’une des revendications 1 à 9, dans lequel ledit fond lumineux est un fond uni clair, préférentiellement blanc.Method according to one of Claims 1 to 9, in which the said luminous background is a light plain background, preferably white. Procédé selon l’une des revendications 1 à 10, dans lequel ledit trait biométrique de l’individu est choisi parmi un visage et un iris de l’individu.Method according to one of Claims 1 to 10, in which the said biometric feature of the individual is chosen from among a face and an iris of the individual. Procédé selon l’une des revendications 1 à 11, dans lequel ladite première image est une image visible.Method according to one of Claims 1 to 11, in which the said first image is a visible image. Terminal (1) comprenant des moyens de traitement de données (11) configurés pour implémenter :
  • L’obtention, depuis des premiers moyens d’acquisition optique (14a) du terminal (1), d’une première image dudit individu représentant ledit trait biométrique sur un arrière-plan ;
  • La génération d’une deuxième image, représentant ledit trait biométrique de la première image sur un fond lumineux ;
  • L’affichage de ladite deuxième image sur une interface (13) dudit terminal (1) de sorte à éclairer l’individu avec ledit fond lumineux.
Terminal (1) comprising data processing means (11) configured to implement:
  • Obtaining, from first optical acquisition means (14a) of the terminal (1), a first image of said individual representing said biometric feature on a background;
  • The generation of a second image, representing said biometric feature of the first image on a luminous background;
  • The display of said second image on an interface (13) of said terminal (1) so as to illuminate the individual with said luminous background.
Produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 12 d’acquisition d’un trait biométrique d’un individu, lorsque ledit procédé est exécuté sur un ordinateur.Computer program product comprising code instructions for the execution of a method according to one of Claims 1 to 12 for acquiring a biometric trait of an individual, when said method is executed on a computer. Moyen de stockage lisible par un équipement informatique sur lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 12 d’acquisition d’un trait biométrique d’un individu.Storage medium readable by computer equipment on which a computer program product comprises code instructions for the execution of a method according to one of Claims 1 to 12 for acquiring a biometric trait of an individual .
FR2004490A 2020-05-06 2020-05-06 Process for acquiring a biometric trait of an individual, for authentication or identification of said individual Pending FR3110010A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2004490A FR3110010A1 (en) 2020-05-06 2020-05-06 Process for acquiring a biometric trait of an individual, for authentication or identification of said individual

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2004490A FR3110010A1 (en) 2020-05-06 2020-05-06 Process for acquiring a biometric trait of an individual, for authentication or identification of said individual
FR2004490 2020-05-06

Publications (1)

Publication Number Publication Date
FR3110010A1 true FR3110010A1 (en) 2021-11-12

Family

ID=72088256

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2004490A Pending FR3110010A1 (en) 2020-05-06 2020-05-06 Process for acquiring a biometric trait of an individual, for authentication or identification of said individual

Country Status (1)

Country Link
FR (1) FR3110010A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050323A1 (en) * 2010-08-25 2012-03-01 International Business Machines Corporation Background replacement for videoconferencing
US20150334567A1 (en) * 2014-05-14 2015-11-19 The Regents Of The University Of California Sensor-assisted biometric authentication for smartphones
WO2016045922A1 (en) * 2014-09-24 2016-03-31 Thomson Licensing A background light enhancing apparatus responsive to a local camera output video signal

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120050323A1 (en) * 2010-08-25 2012-03-01 International Business Machines Corporation Background replacement for videoconferencing
US20150334567A1 (en) * 2014-05-14 2015-11-19 The Regents Of The University Of California Sensor-assisted biometric authentication for smartphones
WO2016045922A1 (en) * 2014-09-24 2016-03-31 Thomson Licensing A background light enhancing apparatus responsive to a local camera output video signal

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
AHUJA N ET AL: "Detecting faces in images: a survey", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE COMPUTER SOCIETY, USA, vol. 24, no. 1, 1 January 2002 (2002-01-01), pages 34 - 58, XP011094133, ISSN: 0162-8828, DOI: 10.1109/34.982883 *
DUSTIN T. VAN DER HAAR: "Facial Authentication in Video Conferencing", SOUTHERN AFRICA TELECOMMUNICATION NETWORKS AND APPLICATIONS CONFERENCE, 17 November 2009 (2009-11-17), XP055767435, Retrieved from the Internet <URL:http://home.intekom.com/satnac/proceedings/2009/papers/progress-oral/Paper%20117.pdf> [retrieved on 20210121] *
LI, H.NGAN, K. N.LIU, Q.: "FaceSeg: automatic face segmentation for real-time video", IEEE TRANSACTIONS ON MULTIMEDIA, vol. 11, no. 1, 2008, pages 77 - 88, XP011346572, DOI: 10.1109/TMM.2008.2008922
SMITH DANIEL F ET AL: "Face Recognition on Consumer Devices: Reflections on Replay Attacks", IEEE TRANSACTIONS ON INFORMATION FORENSICS AND SECURITY, IEEE, PISCATAWAY, NJ, US, vol. 10, no. 4, 1 April 2015 (2015-04-01), pages 736 - 745, XP011575421, ISSN: 1556-6013, [retrieved on 20150312], DOI: 10.1109/TIFS.2015.2398819 *

Similar Documents

Publication Publication Date Title
EP2013816B1 (en) Procedure for identifying a person by eyelash analysis
US10691939B2 (en) Systems and methods for performing iris identification and verification using mobile devices
EP2901370B1 (en) Method for detecting a real face
WO2007140988A1 (en) Method for identifying a person and acquisition device
EP2751739B1 (en) Detection of fraud for access control system of biometric type
EP3901794A1 (en) Method for authentication and identification of an individual
EP3866064A1 (en) Method for authentication or identification of an individual
FR3103938A1 (en) Method of detecting at least one element of interest visible in an input image using a convolutional neural network
FR3100074A1 (en) Method for analyzing a facial feature of a face
FR3053500B1 (en) METHOD FOR DETECTING FRAUD OF AN IRIS RECOGNITION SYSTEM
WO2007000504A1 (en) Biometric hand recognition method and associated system and device
EP3264329B1 (en) A method and a device for detecting fraud by examination using two different focal lengths during automatic face recognition
FR3089661A1 (en) Facial recognition process
EP3073441B1 (en) Method for correcting an image of at least one object presented remotely to an imager and illuminated by an illumination system and camera system for carrying out said method
WO2020109122A1 (en) Device and method for authenticating an individual
FR3110010A1 (en) Process for acquiring a biometric trait of an individual, for authentication or identification of said individual
EP3567521B1 (en) Iris biometric recognition method
EP3929809A1 (en) Method of detection of at least one visible biometric trait on an input image by means of a convolutional neural network
FR3100070A1 (en) Biometric recognition method with drift control and associated installation
WO2012163927A1 (en) System and method for identifying individuals on the fly
FR3122004A1 (en) PERSONAL DATA PROCESSING SYSTEM AND METHOD
FR3077657A1 (en) DEVICE AND METHOD FOR DETECTING IDENTIFICATION USURPATION ATTEMPTS
FR2881546A1 (en) Eye`s reference axis determining method for securing e.g. building, involves capturing and analyzing geometry of eye, and determining reference axis of eye with respect to reference axis of sensor from analyzed geometry
FR3013480A1 (en) VIEWING SYSTEM AND METHOD INTEGRATING A LIGHTING SYSTEM OF THE SCENE TO BE TAKEN
WO2008099110A2 (en) Method for obtaining biometrical coefficients and related system

Legal Events

Date Code Title Description
PLSC Publication of the preliminary search report

Effective date: 20211112

RX Complete rejection

Effective date: 20220203