FR3088467A1 - Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution - Google Patents

Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution Download PDF

Info

Publication number
FR3088467A1
FR3088467A1 FR1860323A FR1860323A FR3088467A1 FR 3088467 A1 FR3088467 A1 FR 3088467A1 FR 1860323 A FR1860323 A FR 1860323A FR 1860323 A FR1860323 A FR 1860323A FR 3088467 A1 FR3088467 A1 FR 3088467A1
Authority
FR
France
Prior art keywords
input image
cnn
transformation
parameters
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1860323A
Other languages
English (en)
Other versions
FR3088467B1 (fr
Inventor
Cedric Thuillier
Fantin GIRARD
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR1860323A priority Critical patent/FR3088467B1/fr
Priority to US16/676,570 priority patent/US11281756B2/en
Publication of FR3088467A1 publication Critical patent/FR3088467A1/fr
Application granted granted Critical
Publication of FR3088467B1 publication Critical patent/FR3088467B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Mathematical Optimization (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Algebra (AREA)
  • Computer Hardware Design (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

La présente invention concerne un procédé de classification d'une image d'entrée représentative d'un trait biométrique au moyen d'un premier réseau de neurones à convolution, CNN, caractérisé en ce qu'il comprend la mise en œuvre par des moyens de traitement de données (21) d'un client (2) d'étapes de : (c) Estimation d'un vecteur de paramètres de transformation de ladite image d'entrée, au moyen d'un deuxième CNN, les paramètres du vecteur étant représentatifs d'une transformation géométrique permettant de recaler le trait biométrique représenté par l'image d'entrée dans un référentiel commun ; (d) Application à ladite image d'entrée d'une transformation définie par ledit vecteur de paramètres de transformation estimé, de sorte que à obtenir une image d'entrée recalée ; (e) Classification de l'image d'entrée recalée au moyen du premier CNN.

Description

Procédé de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un réseau de neurones à convolution
DOMAINE TECHNIQUE GENERAL
La présente invention concerne le domaine de la biométrie, et propose en particulier un procédé de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’au moins un réseau de neurones à convolution, ainsi qu’un procédé d’apprentissage du ou des réseaux de neurones à convolution.
ETAT DE L’ART
Les réseaux de neurones sont massivement utilisés pour la classification de données.
Après une phase d’apprentissage automatique (généralement supervisé, c’est-à-dire sur une base de données de référence déjà classifiées), un réseau de neurones « apprend » et devient tout seul capable d’appliquer la même classification à des données inconnues.
Les réseaux de neurones à convolution, ou CNN (Convolutional Neural Networks) sont un type de réseau de neurones dans lequel le motif de connexion entre les neurones est inspiré par le cortex visuel des animaux. Ils sont ainsi particulièrement adaptés à un type particulier de classification qui est l’analyse d’image, ils permettent en effet avec efficacité la reconnaissance d’objets ou de personnes dans des images ou des vidéos, en particulier dans des applications de sécurité (surveillance automatique, détection de menace, etc.).
On connaît tout particulièrement une utilisation des CNN dans le domaine de l’authentification/identification biométrique. En effet, un CNN peut être entraîné à reconnaître un individu sur la base de traits biométriques de cet individu tels que les empreintes digitales (reconnaissance digitale), l’iris ou le visage (reconnaissance faciale). Dans la mesure où ces données sont manipulées sous formes d’images, le CNN s’avère très efficace.
Les approches biométriques classiques utilisent les informations caractéristiques du trait biométrique extraites à partir de la biométrie acquise, appelées « features », et l’apprentissage/classification est réalisé sur la base de la comparaison de ces caractéristiques.
En particulier, dans le cas de la reconnaissance digitale, les images d’extrémité de doigt sont traitées de sorte à extraire les caractéristiques d’une empreinte qui peuvent être classées en trois catégories :
- Le niveau 1 définit le motif général de cette empreinte (une des quatre classes : boucle à droite, boucle à gauche, arche et spirale), et le tracé global des crêtes (on obtient en particulier une carte d’orientation dite « Ridge Flow Matrix », carte RFM, qui représente en chaque point de l’empreinte la direction générale de la crête).
- Le niveau 2 définit les points particuliers des empreintes appelés minuties, qui constituent des « événements » le long des crêtes (fin d’une crête, bifurcation, etc.). Les approches classiques de reconnaissance utilisent essentiellement ces caractéristiques.
- Le niveau 3 définit des informations plus complexes telles que la forme des crêtes, les pores de la peau, des cicatrices, etc.
On appelle ainsi un « codage » le procédé d’extraction des caractéristiques d’une empreinte (sous la forme de cartes de caractéristiques, ou « feature maps »), lesquelles permettent de composer une signature appelée « template » encodant l’information utile à la phase finale de classification. Plus précisément, on va réaliser la classification par comparaison des cartes de caractéristiques obtenues avec une ou plusieurs carte(s) de caractéristiques de référence associée(s) à des individus connus.
Il serait souhaitable d’éviter la phase de codage et de parvenir à réaliser directement l’apprentissage/classification sur la base des données biométriques,
i.e. de représenter la biométrie par un vecteur réduit sans qu’il ne soit plus nécessaire d’extraire explicitement les caractéristiques.
Les approches récentes dans le domaine de l’apprentissage profond ont permis de telles avancées majeures notamment dans le domaine de la reconnaissance faciale : l’apprentissage/classification peut être réalisé directement sur la base des photographies de visage.
L’application de telles approches à la reconnaissance digitale se heurte aux spécificités inhérentes aux empreintes digitales et les performances n’ont jusqu’à ce jour pas été convaincantes. En particulier, les CNN requièrent un volume de données d’apprentissage plus important.
En effet, si les images de visage sont toujours acquises d’une manière relativement standardisée (aux conditions d’éclairage près), ce n’est pas toujours le cas pour les empreintes, et tout particulièrement les empreintes dites latentes par exemple celles trouvées sur une scène de crime. Deux images d’empreintes de la même identité peuvent présenter l’une par rapport à l’autre de fortes rotations, des occultations ainsi qu’un ensemble de distorsions.
Il a été proposé dans la demande de brevet FR1855170 une augmentation particulière des données d’apprentissage comprenant l’application de transformations géométriques et/ou en intensité de sorte à créer de multiples occurrences « altérées » des données d’entrée.
Cela améliore efficacement la robustesse aux déformations, mais il reste toujours difficile de travailler sur des empreintes d’orientation inconnue et il est souhaitable d’améliorer encore la performance.
PRESENTATION DE L’INVENTION
Selon un premier aspect, la présente invention concerne un procédé de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un premier réseau de neurones à convolution, CNN, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données d’un client d’étapes de :
(c) Estimation d’un vecteur de paramètres de transformation de ladite image d’entrée, au moyen d’un deuxième CNN, les paramètres du vecteur étant représentatifs d’une transformation géométrique permettant de recaler le trait biométrique représenté par l’image d’entrée dans un référentiel commun ;
(d) Application à ladite image d’entrée d’une transformation définie par ledit vecteur de paramètres de transformation estimé, de sorte que à obtenir une image d’entrée recalée ;
(e) Classification de l’image d’entrée recalée au moyen du premier CNN.
Selon d’autres caractéristiques avantageuses et non limitatives :
• lesdites traits biométriques sont choisis parmi des empreintes digitales, des visages et des iris, en particulier des empreintes digitales ;
• lesdits paramètres de transformation comprennent au moins un ensemble de coefficients de déformation chacun associé à une fonction de déformation nonlinéaire de référence d’une famille de fonctions de déformation non-linéaires de référence, ladite transformation définie par ledit vecteur de paramètres de transformation estimé comprenant une déformation exprimée à partir de ladite famille de fonctions de déformation non-linéaires de référence et des coefficients associés ;
• lesdites fonctions de déformation non-linéaires de référence sont des champs de vélocité, ladite déformation étant exprimée sous la forme d’un champ de distorsion difféomorphique comme une exponentielle d’une combinaison linéaire des champs de vélocité pondérés par lesdits coefficients associés ;
• lesdits paramètres de transformation comprennent en outre un paramètre de rotation et/ou un paramètre de changement d’échelle et/ou au moins un paramètre de translation ;
• ladite transformation définie par ledit vecteur de paramètres de transformation estimé comprend une composition de ladite déformation avec une transformation affine exprimé(e)(s) à partir des paramètres de transformation correspondants ;
• le procédé comprend la mise en œuvre préalable d’étapes (a) d’estimation d’un vecteur de paramètres descriptifs d’un point singulier du trait biométrique sur ladite image d’entrée, au moyen d’un troisième CNN, et (b) de recadrage de ladite image d’entrée en fonction des paramètres estimés dudit point singulier, de sorte que les paramètres dudit point singulier présentent pour l’image d’entrée recadrée des valeurs prédéterminées ; les étapes (c) et (d) étant mises en œuvre sur l’image d’entrée recadrée ;
• lesdits paramètres de transformation comprennent au moins une coordonnée du point singulier et un angle du point singulier, ledit recadrage de l’image d’entrée comprenant une translation et/ou une rotation ;
• le procédé comprend une étape (aO) préalable d’apprentissage, par des moyens de traitement de données d’un serveur, à partir d’une base d’images d’apprentissage déjà classifiées, de paramètres desdits premier et deuxième CNNs ;
• les premier et deuxième CNNs sont appris de manière simultanée et semisupervisée, les images d’apprentissage de la base d’images d’apprentissage n’étant pas associées à des paramètres de transformation ;
• l’étape (aO) comprend également l’apprentissage du troisième CNN, les images d’apprentissage de la base d’images d’apprentissage étant associées à des paramètres descriptifs d’un point singulier ;
• l’apprentissage des premier et deuxième CNN comprend, pour au moins une image d’apprentissage de ladite base d’images d’apprentissage, l’obtention d’une image d’apprentissage recalée, la classification de l’image d’apprentissage recalée, et la minimisation d’une fonction de coût ;
• l’étape (aO) comprend préalablement l’analyse statistique de ladite base d’images d’apprentissage déjà classifiées, de sorte à déterminer ladite famille de fonctions de déformation non-linéaires de référence permettant d’exprimer des transformations observées dans la base de données d’apprentissage en fonction d’un ensemble de coefficients ;
• lesdites transformations observées dans la base de données d’apprentissage sont les transformations non-linéaires permettant de passer de l’une à l’autre des données d’un couple d’images d’apprentissage représentatives d’un même trait biométrique ;
• ladite analyse statistique est une analyse en composantes principales sur l’ensemble des champs de distorsion exprimant les transformations observées dans la base de données d’apprentissage, les fonctions de déformation nonlinéaires de référence étant déterminées comme des champs de vélocité définis par des vecteurs propres issus de l’analyse en composantes principales ;
• ledit trait biométrique représenté par l’image d’entrée est celui d’un individu, l’étape (e) étant une étape d’identification ou d’authentification dudit individu.
Selon un deuxième et un troisième aspect, l’invention propose un produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon le premier aspect de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un premier réseau de neurones à convolution, CNN ; et un moyen de stockage lisible par un équipement informatique sur lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon le premier aspect de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un premier réseau de neurones à convolution, CNN.
PRESENTATION DES FIGURES
D’autres caractéristiques et avantages de la présente invention apparaîtront à la lecture de la description qui va suivre d’un mode de réalisation préférentiel. Cette description sera donnée en référence aux dessins annexés dans lesquels :
- la figure 1 est un schéma d’une architecture pour la mise en œuvre du procédé selon l’invention ;
- la figure 2 illustre le recalage d’une image d’entrée dans un mode de réalisation préféré du procédé selon l’invention ;
- la figure 3 illustre le recadrage d’une image d’entrée dans un mode de réalisation préféré du procédé selon l’invention ;
- la figure 4 représente les étapes d’un mode de réalisation préféré du procédé selon l’invention ;
- la figure 5 illustre l’apprentissage des CNN dans un mode de réalisation préféré du procédé selon l’invention.
DESCRIPTION DETAILLEE
Architecture
Selon deux aspects complémentaires de l’invention, sont proposés :
- un procédé de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’au moins un réseau de neurones à convolution (CNN) ;
- un procédé d’apprentissage de paramètres du ou des CNNs.
Le CNN de classification sera désigné comme un premier CNN, car comme l’on verra, un deuxième CNN, voire un troisième CNN vont également être utilisés.
Les présents procédés sont mis en œuvre au sein d’une architecture telle que représentée par la figure 1, grâce à un serveur 1 et un client 2. Le serveur 1 est l’équipement d’apprentissage (mettant en œuvre le procédé d’apprentissage) et le client 2 est un équipement de classification (mettant en œuvre le procédé de classification), par exemple un terminal d’un utilisateur. Il est tout à fait possible que les deux équipements 1,2 soient confondus.
Dans tous les cas, chaque équipement 1,2 est typiquement un équipement informatique distant relié à un réseau étendu 10 tel que le réseau internet pour l’échange des données. Chacun comprend des moyens de traitement de données 11, 21 de type processeur, et des moyens de stockage de données 12, 22 telle qu’une mémoire informatique, par exemple un disque.
Le serveur 1 stocke une base de données d’apprentissage, i.e. un ensemble de données déjà classifiées (par opposition aux données dites d’entrée que l’on cherche justement à classifier).
En effet, les données d’entrée ou d’apprentissage sont de type image, et sont représentatives d’un trait biométrique (en d’autres termes il s’agit d’images du trait biométrique, i.e. sur lesquelles le trait biométrique est visible), avantageusement choisi parmi une empreinte digitale, un visage et un iris de l’utilisateur, de façon préféré une empreinte digitale (comme l’on verra, le présent procédé est tout particulièrement efficace dans ce dernier cas). Ladite classification est alors respectivement une reconnaissance digitale de l’utilisateur (authentification ou identification de l’individu par reconnaissance de son empreinte digitale). De façon classique, une telle base de données d’apprentissage comprend plusieurs données représentatives d’un même trait biométrique, i.e. représentant la même identité, par exemple plusieurs occurrences de la même empreinte digitale, mais acquises de manière légèrement différente.
A noter qu’il est possible que lesdites images représentent plus que le trait biométrique, et notamment une « réglette » comme l’on voit dans les figures pour les empreintes digitales latentes, qui sont simplement photographiées in-situ, la réglette permettant d’avoir une échelle. La réglette est un élément de l’image qui pourra tout à fait être utilisé par les CNNs.
CNN
Un CNN contient généralement quatre types de couches traitant successivement l’information :
- la couche de convolution qui traite des blocs de l’entrée les uns après les autres ;
- la couche non linéaire qui permet d’ajouter de la non linéarité au réseau et donc d’avoir des fonctions de décision beaucoup plus complexes ;
- la couche de mise en commun (appelée « pooling ») qui permet de regrouper plusieurs neurones en un seul neurone ;
- la couche entièrement connectée qui relie tous les neurones d’une couche à tous les neurones de la couche précédente.
La fonction d'activation de couche non linéaire NL est typiquement la fonction ReLU (Rectified Linear Unit, i.e. Unité de Rectification Linéaire) qui est égale à f(x) = max(0, x) et la couche de pooling (noté POOL) la plus utilisée est la fonction MaxPool2*2 qui correspond à un maximum entre quatre valeurs d’un carré (on met en commun quatre valeurs en une seule).
La couche de convolution, notée CONV, correspond à l’opération de convolution, et la couche entièrement connectée, notée FC, correspond généralement à un produit scalaire entre les neurones de la couche précédente et les poids du CNN.
Les architectures typiques de CNN empilent quelques paires de couches CONV NL puis ajoutent une couche POOL et répètent ce schéma [(CONV NL)P POOL] jusqu’à obtenir un vecteur de sortie de taille suffisamment petite, puis terminent par deux couches entièrement connectées FC.
Voici une architecture CNN typique :
INPUT [[CONV NL]P POOL]n FC FC
Chacun des premier, deuxième et/ou troisième CNN pourra prendre ladite architecture typique.
Le premier CNN peut plus précisément prendre par exemple l’architecture suivante: INPUT [[NL CONV (1x1) NL^ CONV (3x3)]p CONV^POOLp —> FC FC, où 1x1 et 3x3 désignent des tailles des filtres des couches de convolution. Chacune des p sorties du bloc [[NL —> CONV (1x1) —> NL-^> CONV (3x3)] est concaténée et mis en entrée au bloc CONV—>POOL.
Le deuxième CNN peut quant à lui suivre l’architecture typique susmentionnée avec une fonction d’activation tangente hyperbolique en sortie.
Le troisième CNN peut enfin prendre notamment une architecture de type encodeur-décodeur qui sort une carte permettant d’obtenir le ou les points singuliers. L’image est « encodée » à travers une première partie INPUT —> [[CONV NL]P POOL]” . Cette partie d’encodage réduit la taille de l’image ou des cartes de caractéristiques par l’opération POOL. Puis la sortie de la partie d’encodage est placée en entrée d’une partie dite de décodage [[CONV —> NL]P —>UPSCALE]n qui augmente à nouveau les tailles de cartes de caractéristiques jusqu’à obtenir la carte de probabilité. Cet agrandissement est réalisée par une couche de redimensionnement appelé UPSCALE.
Principe
L’idée du présent procédé est d’utiliser non pas le seul premier CNN de classification, mais un ou deux CNN de « pré-traitement » des images de traits biométriques de sorte que le premier CNN ait en entrée une image « recalée » facile à classifier, i.e. ayant subi une transformation géométrique permettant de corriger d’éventuelles aberrations telles que des rotations, des occultations ou des distorsions. En d’autres termes, l’image recalée est une image rectifiée, corrigée.
On désignera comme « recalage » le fait de transformer une image d’entrée en une image recalée théoriquement exempte d’aberrations. En particulier, le trait biométrique représenté par l’image d’entrée est recalé dans un « référentiel commun » permettant de comparer les traits biométriques représentés.
Conceptuellement parlant, on peut considérer que l’image recalée est celle qu’on aurait théoriquement dû obtenir si le trait biométrique avait été acquis dans des conditions normalisées, i.e. image non déformée (acquise bien à plat), à la bonne échelle, bien orientée, et notamment celle que l’on peut trouver dans une base officielle d’images de traits biométriques pour identification/authentification. On comprend que la « bonne orientation », celle du référentiel commun, que l’on peut qualifier d’orientation de référence correspond à une orientation arbitrairement choisie telle que celle dans laquelle le doigt est vertical et dirigé vers le haut, dite « Nord-Sud », i.e. l’orientation naturelle lorsque l’on presse le doigt sur un capteur dans de bonnes conditions, correspond à celle habituelle des bases d’images officielles. Pour reformuler, l’orientation de référence est préférentiellement fixe par rapport à l’orientation du doigt, en particulier égale à l’orientation du doigt, mais on comprendra qu’on peut partir de n’importe quelle orientation de référence.
La notion « de recalage » s’entend donc comme la transformation inverse permettant de retrouver cette image théorique et en particulier de « dé-distordre » l’image d’entrée. Comme l’on verra, la transformation de recalage peut combiner une transformation linéaire (transformation affine) et une transformation nonlinéaire (déformation).
On verra plus loin comment parvenir simplement et efficacement à apprendre un CNN apte à recaler une image de trait biométrique.
En ce qui concerne les CNN :
- le premier CNN, dit de classification, est celui qui permet d’associer à une image d’entrée, en particulier recalée, à une classe, c’est-àdire une identité du possesseur du trait biométrique représenté
- le deuxième CNN, dit de recalage, est celui qui permet d’estimer un vecteur de paramètres de transformation définissant la transformation à appliquer à l’image d’entrée pour obtenir l’image recalée ;
- l’éventuel troisième CNN, dit de recadrage, permet comme l’on verra un potentiel « pré-recalage » simplifiant le travail du deuxième CNN. Plus précisément, le troisième CNN estime un vecteur de paramètres descriptifs d’un point singulier du trait biométrique représenté sur image d’entrée, de sorte à recadrer l’image d’entrée afin que ce vecteur de paramètres descriptifs prenne des valeurs prédéterminées. On expliquera cela en détails plus loin.
Transformation de recalage
Comme expliqué, par transformation de recalage, on entend une transformation géométrique dont les paramètres sont estimés par le deuxième CNN, c’est-à-dire la combinaison d’une transformation linéaire et/ou d’une transformation non-linéaire, i.e. T = TL °TNL.
La composante linéaire TL de la transformation, i.e. la transformation affine, correspond à une combinaison d’une rotation et/ou une translation et/ou un changement d’échelle. Elle est définie par jusqu’à quatre paramètres (a,s,dx,dy) du vecteur de paramètres de transformation, où a est l’angle de rotation (orienté) à appliquer, s le coefficient de changement d’échelle à appliquer, et dx,dy la translation selon des axes horizontaux et verticaux.
A partir de ces paramètres, la transformation affine peut être exprimée par , r _ fs.costa} —sinfcr) dx\ la fonction TL = Λ y , .
\ cos(a) s.sin(a) dy/
On comprendra que l’invention n’est pas limitée à cette liste de paramètres de transformation affine, et que la transformation estimée par le deuxième CNN peut même être limitée à une transformation purement non-linéaire, en particulier lorsque l’on utilise un troisième CNN.
La composante non-linéaire TNL de la transformation, appelée plus simplement déformation, correspond au reste de la transformation qui ne peut pas être exprimé de façon affine.
A ce titre, lesdits paramètres de transformation comprennent avantageusement au moins un ensemble de k coefficients (k de l’ordre de quelques coefficients, en particulier entre 2 et 10, et par exemple 5) de déformation (c0 ...c^) chacun associé à une fonction de déformation non-linéaire de référence d’une famille (Eo ...E^} de fonctions de déformation nonlinéaires de référence. En d’autres termes, TNL = f(c0 ...c^^Eq ...E^).
De façon préférée, lesdites fonctions de déformation non-linéaires de référence sont des champs de vélocité, ladite déformation étant exprimée sous la forme d’un champ de distorsion difféomorphique comme une exponentielle d’une combinaison linéaire des champs de vélocité pondérés par lesdits coefficients associés.
Plus précisément, en supposant que TNL est un champ de distorsion difféomorphique, il existe un champ de vélocité v tel queTWL = exp(v), et ladite famille de fonctions de déformation non-linéaires de référence constitue une base permettant d’exprimer tout champ de vélocité comme une combinaison linéaire,
i.e. v = Xi=octFi· On peut dans un tel mode de réalisation voir les coefficients de déformations comme les « coordonnées » du champ de vélocité dans la base constituée par la famille de fonctions de déformation non-linéaires de référence.
On comprendra que ladite famille peut être prédéfinie, mais alternativement on verra plus loin comment la générer de façon optimale vis-à-vis de la base d’apprentissage.
La combinaison des deux transformations linéaire et non-linéaire permet de (s cosicz') —sinicf) dx\ , \ , o cos(cr) s.sin(a) dy) exp(£ï=o ctEt), définie par un vecteur de k + 4 paramètres de transformation.
En référence à la figure 2, l’application de cette transformation à une image d’entrée (le cas échéant déjà recadrée par le troisième CNN) permet d’obtenir ladite image recalée sur laquelle le premier CNN peut être utilisé pour classification.
Recadrage
Comme expliqué, la transformation de recalage peut comprendre une rotation et une translation, mais ces dernières doivent normalement rester minimes. Cependant il est possible que le trait représenté par l’image d’entrée présente une orientation complètement inhabituelle résultant seulement de la nonconnaissance du repère dans lequel l’image a été acquise (par exemple empreinte latente sur une scène de crime comme expliqué).
De façon préférée, le troisième CNN permet de recadrer l’image d’entrée via la recherche d’un « point singulier » du trait biométrique, typiquement le point de plus forte courbure d’une empreinte digitale, mais on pourra également citer un noyau ou un delta de l’empreinte digitale. Pour d’autres traits biométriques tel que le visage, on pourra par exemple citer le bout du nez.
Le troisième CNN estime un vecteur de paramètres descriptifs d’un point singulier du trait biométrique représenté sur image d’entrée. Lesdits paramètres descriptifs comprennent préférentiellement une coordonnée du point singulier (en particulier deux) et un angle du point singulier. Par « angle » du point singulier, on entend une direction définie par ce point singulier, matérialisée par un vecteur (et possiblement exprimé par un écart d’angle orienté par rapport à une direction arbitraire, par exemple la direction verticale). L’objectif de cet angle est de pouvoir orienter de façon commune les empreintes
En référence à la figure 3, la connaissance des paramètres descriptifs de l’image d’entrée permet de générer l’image recadrée comme étant celle dans laquelle les paramètres descriptifs prennent des valeurs prédéterminées, i.e. le point singulier est à une position prédéterminée (par exemple au centre l’image recadrée) et la direction du point singulier est vers le bas (par exemple pour retrouver une acquisition avec le doigt vertical, i.e. l’écart d’angle entre la direction du point singulier et la direction verticale est nulle). Le recadrage est donc une combinaison d’une translation et/ou d’une rotation.
Pour reformuler, l’image d’entrée est préférentiellement recadrée dans la boîte alignée sur l’angle du point singulier et dont le centre est ce même point singulier.
Classification
En référence à la figure 4, le procédé commence avantageusement par une étape (aO) d’apprentissage, par les moyens de traitement de données 11 du serveur 1, à partir d’une base d’images de traits biométriques déjà classifiées, des CNNs. Cet apprentissage sera décrit en détail plus loin.
Les CNNs appris peuvent être stockés le cas échéant sur des moyens de stockage de données 22 du client 2 pour utilisation en estimation d’orientation. A noter que les mêmes CNN peuvent être embarqué sur de nombreux clients 2, un seul apprentissage est nécessaire.
La classification à proprement parler d’une image d’entrée représentative d’un trait biométrique comprend la mise en œuvre par des moyens de traitement de données 21 du client 2 commence par des étapes optionnelles (en cas de troisième CNN) de (a) estimation d’un vecteur de paramètres descriptifs d’un point singulier (typiquement deux coordonnées et un angle) du trait biométrique sur ladite image d’entrée, au moyen du troisième CNN, et (b) recadrage de ladite image d’entrée (rotation/translation) en fonction des paramètres estimés dudit point singulier, de sorte que les paramètres dudit point singulier présentent pour l’image d’entrée recadrée des valeurs prédéterminées (par exemple point singulier centré, et angle nul par rapport à la verticale).
On obtient alors l’image d’entrée recadrée.
Ensuite, dans une étape (c) est estimé un vecteur de paramètres de transformation de ladite image d’entrée recadrée (ou directement de l’image d’entrée d’origine en l’absence des étapes (a) et (b)) pour recalage, au moyen du deuxième CNN, ensuite dans une étape (d) la transformation définie par ledit vecteur de paramètres de transformation estimé est appliquée à ladite image d’entrée recadrée (ou directement à l’image d’entrée d’origine en l’absence des étapes (a) et (b)), de sorte à obtenir une image d’entrée recalée.
Enfin, dans une étape (e) l’image d’entrée recalée est classifiée au moyen du premier CNN de sorte à déterminer l’identité de l’individu présentant le trait biométrique représenté par l’image d’entrée, pour authentification/identification de cet utilisateur.
Apprentissage
Par apprentissage des premier, deuxième et/ou troisième CNN, on entend de façon classique la détermination des paramètres (les poids) de ces réseaux.
Comme expliqué, le serveur 1 stocke une base de données d’apprentissage, i.e. un ensemble de données déjà classifiées (par opposition aux données dites d’entrée que l’on cherche justement à classifier).
Comme illustré par la figure 5, dans le cas d’un troisième CNN, les images d’apprentissage sont également déjà associées à des valeurs de référence des paramètres du point singulier, i.e. la position et l’orientation du point singulier sont connues. A noter que comme expliqué les bases officielles n’ont généralement que des images déjà correctement orientées, on procède alors avantageusement à de l’augmentation de données de sorte à générer artificiellement des images avec des positions et des orientations variées du point singulier, à partir d’images originales. Par ailleurs, on peut procéder avantageusement à de l’augmentation de données supplémentaire sous la forme d’occultations aléatoires. Ainsi même en cas d’un point singulier potentiellement occulté (et donc absent), le troisième CNN est capable d’inférer la position du point singulier le plus probable.
Par contre, les images d’apprentissage ne sont pas associées à des paramètres de transformation, i.e. les images ne sont associées qu’à leur classe et éventuellement des paramètres représentatifs du point singulier, ce qui facilite l’obtention d’une telle base. A noter qu’alternativement, on peut mettre en œuvre de l’augmentation avec transformations telle que décrite dans la demande de brevet FR1855170.
Dans le cas préféré de paramètres de transformation non connus a priori dans la base d’apprentissage, au moins les premier et deuxième CNNs sont appris de manière simultanée et semi-supervisée. Plus précisément, on utilise à la suite les deux CNNs avec génération à la volée d’une image recalée pour chaque image d’apprentissage en entrée, et c’est le premier CNN qui en minimisant une fonction de coût propage les mises à jour sur les paramètres du deuxième CNN. On comprend que la fonction de coût est minimale lorsque la transformation opérée grâce au deuxième CNN permet d’obtenir une image recalée la plus facilement identifiable par le premier CNN, c’est-à-dire la plus conforme possible au référentiel commun, de sorte que malgré l’absence de vérité terrain en ce qui concerne les paramètres de transformation, l’apprentissage du deuxième CNN ne pose pas de difficulté.
Pour ce faire, le deuxième CNN peut comprendre avantageusement une couche appelée Transformée Spatiale (voir le document M. Jaderberg, K. Simonyan & A. Zisserman, (2015). Spatial transformer networks. In Advances in neural information processing systems (pp. 2017-2025)), qui placée entre le premier et le deuxième CNN, permet de propager plus facilement les mises à jour des poids du premier CNN vers le second CNN de façon semi-supervisée
A noter que le troisième CNN peut également être appris simultanément, de sorte que le deuxième CNN prend en entrée des images d’apprentissage déjà recadrées.
Famille de fonctions de déformation non-linéaire de référence
Comme expliqué, de manière préférée ladite transformation définie par ledit vecteur de paramètres de transformation estimé comprend une déformation (la composante non-linéaire de la transformation) exprimée à partir de ladite famille de fonctions de déformation non-linéaires de référence et des coefficients associés.
De façon préférée, l’étape (aO) comprend préalablement la détermination préalable de ladite famille de fonctions de déformation non-linéaires de référence (avant d’apprendre le deuxième CNN en utilisant cette famille, voir la figure 5). Pour cela on, met en œuvre l’analyse statistique de ladite base d’images d’apprentissage déjà classifiées.
Comme expliqué, lesdites transformations observées dans la base de données d’apprentissage sont les transformations non-linéaires permettant de passer de l’une à l’autre des données d’un couple d’images d’apprentissage représentatives d’un même trait biométrique, i.e. d’identité similaires (associées à la même classe).
On peut ainsi supposer que la base comprend N couples d’images représentatives d’un même trait. A noter que si par exemple il y a un triplet d’images représentatives du même trait, on peut le voir comme deux couples, et ainsi de suite.
Alors, on détermine les transformations géométriques permettant de passer de l’une à l’autre des images d’un couple de données d’apprentissage représentatives d’un même trait biométrique (et ce préférentiellement pour tous les couples possibles de sorte à obtenir toutes les N transformations).
Pour ce faire, on peut définir un (premier) champ de distorsion (non difféomorphique) représenté par exemple une « Thin Plate Spline » (TPS) en appliquant par exemple la méthode décrite dans le document A.Ross, S.C.Dass, A.K.Jain (2004) Estimating Fingerprint Deformation. In: Zhang D., Jain A.K. (eds)
Biometric Authentication. Lecture Notes in Computer Science, vol 3072. Springer, Berlin, Heidelberg, et le rendre difféomorphique (i.e. on obtient un deuxième champ de distorsion cette fois difféomorphique) par une technique de régularisation consistant à supprimer pour chaque point du champ de distorsion les éventuels replis.
A partir de là, ladite analyse statistique est préférentiellement une analyse en composantes principales sur l’ensemble des champs de distorsion exprimant les transformations observées dans la base de données d’apprentissage, les fonctions de déformation non-linéaires de référence étant déterminées à partir des vecteurs propres issus de l’analyse en composantes principales (ACP).
Par exemple, si l’on travaille sur les champs de vélocité (en prenant le logarithme des champs de distorsions), l’ACP permet d’obtenir une base de N-1 champs de vélocité Æijeiiojv-z] permettant d’écrire les N champs de vélocité observés comme une combinaison linéaire Σίϋο2 Les k < N premiers champs de vélocité obtenus par l’ACP représentent les variabilités les plus importantes et il est ainsi possible d’évaluer un champ de vélocité entre deux images seulement avec ces k premiers de sorte qu’ils peuvent constituer la famille de fonctions de déformation non-linéaires de référence. En d’autres termes, lesdites fonctions de déformation non-linéaires de référence sont les k premiers vecteurs propres de l’ensemble des champs de vélocités observés dans la base d’apprentissage. Le fait de se limiter à k fonctions permet de simplifier énormément l’apprentissage du deuxième CNN sans pour autant perdre en robustesse.
Produit programme d’ordinateur
Selon un deuxième et un troisième aspects, l’invention concerne un produit programme d’ordinateur comprenant des instructions de code pour l’exécution (en particulier sur les moyens de traitement de données 11, 21 du serveur 1 et/ou du client 2) d’un procédé de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un premier CNN, ainsi que des moyens de stockage lisibles par un équipement informatique (une mémoire 12, 22 du serveur 1 et/ou du client 2) sur lequel on trouve ce produit programme d’ordinateur.

Claims (18)

  1. REVENDICATIONS
    1. Procédé de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un premier réseau de neurones à convolution, CNN, caractérisé en ce qu’il comprend la mise en œuvre par des moyens de traitement de données (21) d’un client (2) d’étapes de :
    (c) Estimation d’un vecteur de paramètres de transformation de ladite image d’entrée, au moyen d’un deuxième CNN, les paramètres du vecteur étant représentatifs d’une transformation géométrique permettant de recaler le trait biométrique représenté par l’image d’entrée dans un référentiel commun ;
    (d) Application à ladite image d’entrée d’une transformation définie par ledit vecteur de paramètres de transformation estimé, de sorte que à obtenir une image d’entrée recalée ;
    (e) Classification de l’image d’entrée recalée au moyen du premier CNN.
  2. 2. Procédé selon la revendication 1, dans lequel lesdits traits biométriques sont choisis parmi des empreintes digitales, des visages et des iris, en particulier des empreintes digitales.
  3. 3. Procédé selon l’une des revendications 1 et 2, dans lequel lesdits paramètres de transformation comprennent au moins un ensemble de coefficients de déformation chacun associé à une fonction de déformation nonlinéaire de référence d’une famille de fonctions de déformation non-linéaires de référence, ladite transformation définie par ledit vecteur de paramètres de transformation estimé comprenant une déformation exprimée à partir de ladite famille de fonctions de déformation non-linéaires de référence et des coefficients associés.
  4. 4. Procédé selon la revendication 3, dans lequel lesdites fonctions de déformation non-linéaires de référence sont des champs de vélocité (Ei), ladite déformation étant exprimée sous la forme d’un champ de distorsion difféomorphique (T) comme une exponentielle d’une combinaison linéaire (T = βχρ(Σί CjEj)) des champs de vélocité (EJ pondérés par lesdits coefficients associés (cj.
  5. 5. Procédé selon l’une des revendications 3 et 4, dans lequel lesdits paramètres de transformation comprennent en outre un paramètre de rotation et/ou un paramètre de changement d’échelle et/ou au moins un paramètre de translation.
  6. 6. Procédé selon la revendication 5, dans lequel ladite transformation définie par ledit vecteur de paramètres de transformation estimé comprend une composition de ladite déformation avec une transformation affine exprimé(e)(s) à partir des paramètres de transformation correspondants.
  7. 7. Procédé selon l’une des revendications 1 à 6, comprenant la mise en œuvre préalable d’étapes (a) d’estimation d’un vecteur de paramètres descriptifs d’un point singulier du trait biométrique sur ladite image d’entrée, au moyen d’un troisième CNN, et (b) de recadrage de ladite image d’entrée en fonction des paramètres estimés dudit point singulier, de sorte que les paramètres dudit point singulier présentent pour l’image d’entrée recadrée des valeurs prédéterminées ; les étapes (c) et (d) étant mises en œuvre sur l’image d’entrée recadrée.
  8. 8. Procédé selon la revendication 7, dans lequel lesdits paramètres de transformation comprennent au moins une coordonnée du point singulier et un angle du point singulier, ledit recadrage de l’image d’entrée comprenant une translation et/ou une rotation.
  9. 9. Procédé selon l’une des revendications 1 à 8, comprenant une étape (aO) préalable d’apprentissage, par des moyens de traitement de données (11) d’un serveur (1), à partir d’une base d’images d’apprentissage déjà classifiées, de paramètres desdits premier et deuxième CNNs.
  10. 10. Procédé selon la revendication 9, dans lequel les premier et deuxième CNNs sont appris de manière simultanée et semi-supervisée, les images d’apprentissage de la base d’images d’apprentissage n’étant pas associés à des paramètres de transformation.
  11. 11. Procédé selon les revendications 7 et 10 en combinaison, dans lequel l’étape (aO) comprend également l’apprentissage du troisième CNN, les images d’apprentissage de la base d’images d’apprentissage étant associés à des paramètres descriptifs d’un point singulier.
  12. 12. Procédé selon l’une des revendications 10 et 11, dans lequel l’apprentissage des premier et deuxième CNN comprend, pour au moins une image d’apprentissage de ladite base d’images d’apprentissage, l’obtention d’une image d’apprentissage recalée, la classification de l’image d’apprentissage recalée, et la minimisation d’une fonction de coût.
  13. 13. Procédé selon l’une des revendications 9 à 12, dans lequel l’étape (aO) comprend préalablement l’analyse statistique de ladite base d’images d’apprentissage déjà classifiées, de sorte à déterminer ladite famille de fonctions de déformation non-linéaires de référence permettant d’exprimer des transformations observées dans la base de données d’apprentissage en fonction d’un ensemble de coefficients.
  14. 14. Procédé selon la revendication 13, dans lequel lesdites transformations observées dans la base de données d’apprentissage sont les transformations non-linéaires permettant de passer de l’une à l’autre des données d’un couple d’images d’apprentissage représentatives d’un même trait biométrique.
  15. 15. Procédé selon l’une des revendications 13 et 14, dans lequel ladite analyse statistique est une analyse en composantes principales sur l’ensemble des champs de distorsion exprimant les transformations observées dans la base de données d’apprentissage, les fonctions de déformation non linéaires de référence étant déterminées comme des champs de vélocité définis par des vecteurs propres issus de l’analyse en composantes principales.
  16. 16. Procédé selon l’une des revendications 1 à 15, dans lequel
    5 ledit trait biométrique représenté par l’image d’entrée est celui d’un individu, l’étape (e) étant une étape d’identification ou d’authentification dudit individu.
  17. 17. Produit programme d’ordinateur comprenant des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 16 de
    10 classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un premier réseau de neurones à convolution, CNN, lorsque ledit programme est exécuté sur un ordinateur.
  18. 18. Moyen de stockage lisible par un équipement informatique sur 15 lequel un produit programme d’ordinateur comprend des instructions de code pour l’exécution d’un procédé selon l’une des revendications 1 à 16 de classification d’une image d’entrée représentative d’un trait biométrique au moyen d’un premier réseau de neurones à convolution, CNN.
FR1860323A 2018-11-08 2018-11-08 Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution Active FR3088467B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1860323A FR3088467B1 (fr) 2018-11-08 2018-11-08 Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution
US16/676,570 US11281756B2 (en) 2018-11-08 2019-11-07 Method of classification of an input image representative of a biometric trait by means of a convolutional neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1860323A FR3088467B1 (fr) 2018-11-08 2018-11-08 Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution

Publications (2)

Publication Number Publication Date
FR3088467A1 true FR3088467A1 (fr) 2020-05-15
FR3088467B1 FR3088467B1 (fr) 2022-11-04

Family

ID=66690418

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1860323A Active FR3088467B1 (fr) 2018-11-08 2018-11-08 Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution

Country Status (2)

Country Link
US (1) US11281756B2 (fr)
FR (1) FR3088467B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929809A1 (fr) 2020-06-26 2021-12-29 Idemia Identity & Security France Procédé de détection d'au moins un trait biométrique visible sur une image d entrée au moyen d'un réseau de neurones à convolution

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11386656B2 (en) * 2020-04-08 2022-07-12 Moxa Inc. Device and method of handling video content analysis
CN112182336B (zh) * 2020-10-13 2023-05-30 广西机电职业技术学院 一种京族图案谱系整理分类系统
CN112132878B (zh) * 2020-11-03 2024-04-05 贵州大学 基于卷积神经网络的端到端大脑核磁共振图像配准方法
CN115511124B (zh) * 2022-09-27 2023-04-18 上海网商电子商务有限公司 一种基于售后维修记录的客户分级方法
CN117746045B (zh) * 2024-02-08 2024-05-28 江西师范大学 一种Transformer和卷积融合的医学图像分割方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3367299A1 (fr) * 2017-02-27 2018-08-29 Idemia Identity & Security France Systeme de traitement d'images

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10572777B2 (en) * 2016-03-11 2020-02-25 Nec Corporation Deep deformation network for object landmark localization
FR3082645B1 (fr) * 2018-06-13 2023-01-13 Idemia Identity & Security France Procede d'apprentissage de parametres d'un reseau de neurones a convolution

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3367299A1 (fr) * 2017-02-27 2018-08-29 Idemia Identity & Security France Systeme de traitement d'images

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A.ROSSS.C.DASSA.K.JAIN: "Biométrie Authentication. Lecture Notes in Computer Science", vol. 3072, 2004, SPRINGER, article "Estimating Fingerprint Deformation"
DETLEFSEN NICKI SKAFTE ET AL: "Deep Diffeomorphic Transformer Networks", 2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, IEEE, 18 June 2018 (2018-06-18), pages 4403 - 4412, XP033476414, DOI: 10.1109/CVPR.2018.00463 *
M. JADERBERGK. SIMONYANA. ZISSERMAN, SPATIAL TRANSFORMER NETWORKS. IN ADVANCES IN NEURAL INFORMATION PROCESSING SYSTEMS, 2015, pages 2017 - 2025
SCHUCH PATRICK ET AL: "Unsupervised Learning of Fingerprint Rotations", 2018 INTERNATIONAL CONFERENCE OF THE BIOMETRICS SPECIAL INTEREST GROUP (BIOSIG), GESELLSCHAFT FUER INFORMATIK, 26 September 2018 (2018-09-26), pages 1 - 6, XP033460036, DOI: 10.23919/BIOSIG.2018.8553096 *
YUANYI ZHONG ET AL: "Towards End-to-End Face Recognition through Alignment Learning", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 25 January 2017 (2017-01-25), XP080751412, DOI: 10.1109/LSP.2017.2715076 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3929809A1 (fr) 2020-06-26 2021-12-29 Idemia Identity & Security France Procédé de détection d'au moins un trait biométrique visible sur une image d entrée au moyen d'un réseau de neurones à convolution
FR3112008A1 (fr) 2020-06-26 2021-12-31 Idemia Identity & Security France Procédé de détection d’au moins un trait biométrique visible sur une image d’entrée au moyen d’un réseau de neurones à convolution

Also Published As

Publication number Publication date
FR3088467B1 (fr) 2022-11-04
US20200151309A1 (en) 2020-05-14
US11281756B2 (en) 2022-03-22

Similar Documents

Publication Publication Date Title
FR3088467A1 (fr) Procede de classification d&#39;une image d&#39;entree representative d&#39;un trait biometrique au moyen d&#39;un reseau de neurones a convolution
Marra et al. A deep learning approach for iris sensor model identification
EP3640843B1 (fr) Procédé d&#39;extraction de caractéristiques d&#39;une empreinte digitale représentée par une image d&#39;entrée
EP2024900B1 (fr) Procede d&#39;identification d&#39;une personne et dispositif d&#39;acquisition
EP3707676B1 (fr) Procédé d&#39;estimation de pose d&#39;une caméra dans le référentiel d&#39;une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d&#39;ordinateur associé
EP3620970B1 (fr) Procédé d&#39;extraction de caractéristiques d&#39;une empreinte digitale représentée par une image d&#39;entrée
Raghavendra et al. Learning deeply coupled autoencoders for smartphone based robust periocular verification
EP3582141B1 (fr) Procédé d&#39;apprentissage de paramètres d&#39;un réseau de neurones à convolution
EP3832535A1 (fr) Procédé de détection d&#39;au moins un élément d&#39;intérêt visible dans une image d&#39;entrée au moyen d&#39;un réseau de neurones à convolution
EP1864242A1 (fr) Procede d&#39;identification de visages a partir d&#39;images de visage, dispositif et programme d&#39;ordinateur correspondants
EP2751739B1 (fr) Detection de fraude pour systeme de controle d&#39;acces de type biometrique
EP2356773B1 (fr) Procede d&#39;identification ou d&#39;autorisation, et systeme et module securise associes
EP3901794A1 (fr) Procédé d&#39;authentification ou d&#39;identification d&#39;un individu
FR3053500B1 (fr) Procede de detection de fraude d&#39;un systeme de reconnaissance d&#39;iris
Menon et al. Iris biometrics using deep convolutional networks
FR3102600A1 (fr) Procédé de segmentation d’une image d’entrée représentant au moins une empreinte biométrique au moyen d’un réseau de neurones à convolution
EP2147394A1 (fr) Procede et dispositif d&#39;authentification automatisee d&#39;un ensemble de points
EP3608835A1 (fr) Procede de traitement d&#39;images d&#39;empreintes
WO2007077175A1 (fr) Procede de classification d&#39;images par reseaux neuroniques et classifieur d&#39;images prealablement appris, dispositif et programme d&#39;ordinateur correspondants
EP3929809A1 (fr) Procédé de détection d&#39;au moins un trait biométrique visible sur une image d entrée au moyen d&#39;un réseau de neurones à convolution
EP4016381A1 (fr) Procédé d&#39;extraction d&#39;une signature d&#39;une empreinte digitale et dispositif mettant en oeuvre ledit procédé
WO2008081152A2 (fr) Procede et systeme de reconnaissance d&#39;un objet dans une image
Alonso-Fernandez et al. Reconstruction of smartphone images for low resolution iris recognition
EP3825915A1 (fr) Procede de classification d&#39;une empreinte biometrique representee par une image d&#39;entree
EP4099200A1 (fr) Procede et dispositif d&#39;identification et/ou d&#39;authentification biometrique

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200515

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6