WO2004077200A2 - Procede d’identification de personnes et systeme pour la mise en oeuvre du procede - Google Patents

Procede d’identification de personnes et systeme pour la mise en oeuvre du procede

Info

Publication number
WO2004077200A2
WO2004077200A2 PCT/FR2004/000381 FR2004000381W WO2004077200A2 WO 2004077200 A2 WO2004077200 A2 WO 2004077200A2 FR 2004000381 W FR2004000381 W FR 2004000381W WO 2004077200 A2 WO2004077200 A2 WO 2004077200A2
Authority
WO
WIPO (PCT)
Prior art keywords
data
biometric characteristics
base
contextual information
person
Prior art date
Application number
PCT/FR2004/000381
Other languages
English (en)
Other versions
WO2004077200A3 (fr
Inventor
Florence Guillemot
Bernard Didier
Original Assignee
Sagem Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagem Sa filed Critical Sagem Sa
Priority to EP04712589A priority Critical patent/EP1604325A2/fr
Priority to US10/546,513 priority patent/US7583822B2/en
Publication of WO2004077200A2 publication Critical patent/WO2004077200A2/fr
Publication of WO2004077200A3 publication Critical patent/WO2004077200A3/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Definitions

  • Capturing fingerprints involves placing the underside of a finger on a grasping surface: - grease or perspiration covering the finger can alter the grasping;
  • the invention relates to a method of identifying persons using biometric characteristics, according to which biometric characteristics of a person to be identified are entered, identification data are extracted therefrom and the identification data of the person compared to identify with reference data from a base, characterized in that an image of folds of the skin of the person to be identified is captured, the reference fold data having been previously acquired and stored in the base, and captures an image of the skin folds and performs a first recognition at by means of said image as a filtering step, before filtering reference data from the base relating to other biometric characteristics and continuing the recognition by means of these said other characteristics.
  • recognition by means of skin folds offers the advantage of providing contextual information, that is to say presentable in alphanumeric form, on certain related characteristics of people. , as their size, their age, their sex, in any case more reliable than those which could be drawn from conventional biometric data (fingerprints, iris ).
  • biometric data fingerprints, iris
  • the invention also relates to a person identification system, comprising at least one image sensor, an image processing module of the sensor to extract contextual information and biometric characteristics from it, a reference base containing contextual information. of reference and reference biometric characteristics, a block of comparison of the extracted contextual information and of reference context information and a block of matching of the extracted biometric characteristics and of the reference biometric characteristics, the block of comparison of contextual information providing indications for filtering the reference biometric characteristics to be matched.
  • the image processing module includes a block for calculating contextual information linked to related characteristics of people and as contextual information, we will choose:
  • the biometric characteristics cease to be used, the matching block being short-circuited.
  • a support surface of the hand of the persons to be identified is provided, determined relative to the focal plane of the image sensor and a complementary biometric sensor, for example a fingerprint sensor, integrated into said surface. , the reference biometric characteristics of the fingerprints being previously introduced into the database.
  • This version is particularly interesting in criminal identification applications.
  • the pairing module can be connected to a memory card by means of a card reader equipping the system.
  • the memory card then serves as a reference base for an authentication system.
  • the pairing module is connected to a microphone fitted to the system.
  • the reference base then contains reference voice data and the system is well suited as a doorman.
  • the identification process based on folds is more difficult to falsify, the detection of a false hand being able to be detected more easily than a false impression or a lens for the iris.
  • FIG. 1 represents a diagram by functional blocks of the identification system according to the invention
  • FIG. 1 is an image of the skin of the back of a hand
  • FIG. 3 shows a block diagram of an authentication system implementing the method of the invention
  • FIG. 4 is a functional flow diagram implementing the method of the invention
  • FIG. 6 is an alternative embodiment of Figure 5, with a fingerprint sensor
  • FIG. 7 is another alternative implementation of the system for capturing forehead wrinkles
  • FIG. 8 is an exemplary embodiment of the system of the invention for an authentication implementation
  • FIG. 9 is an alternative embodiment of the system of FIG. 8, for capturing forehead wrinkles and
  • FIG. 10 is an alternative embodiment of the system of FIG. 9.
  • the system 1 comprises an image sensor 20, here a digital video camera delivering images, controlled by a presence detector 21. It can be an optical device composed of a light-emitting diode and a photodiode, or a pressure sensor, detecting the presence of a hand 10 of a person to be identified , on a support surface 11 of the hand allowing correct focusing.
  • a presence detector 21 can be an optical device composed of a light-emitting diode and a photodiode, or a pressure sensor, detecting the presence of a hand 10 of a person to be identified , on a support surface 11 of the hand allowing correct focusing.
  • the camera 20 is connected to an image processing module 30 which extracts the identification data of the images from the image sensor 20, and which is connected to a module 50 for matching the identification data from different sources, one of the sources being the sensor 20 and another, a reference base 40.
  • the pairing module 50 is also connected to the base 40 and controls a module 60 for displaying the results of the identification, the latter being able to possibly order actions accordingly.
  • the image processing module 30 includes a block 33 for converting images into identification data, and a block 32 for extracting biometric characteristics from the identification data, the function of which is also implemented when these are fingerprints.
  • the characteristics then consist of a synthetic description of the drawings of the imprints (arches, loops, whorls, etc.).
  • an image of the skin of the back of the hand 10 is captured.
  • the skin of the fingers appears striated with folds, especially at the joints, in particular between the phalanx 13 and the phalangin 14.
  • the identification data produced by the conversion block 33 are also transmitted to a block 31 for calculating contextual information from these identification data.
  • the contextual information is for example the number N of folds on each joint, the distance D separating them from the base of the nail, the transverse length L of the folds, possibly their inclination I on the longitudinal axis of the finger, or the number of B forks on the finger.
  • This information is of alphanumeric type and some of it is closely related to related characteristics of the people: the size, the age, the sex, so that being in the presence of a combination of these makes it possible to exclude the possibility of being in the presence of a combination of these and consequently to filter the corresponding biometric characteristics.
  • the base 40 is managed by an interface 43 connected to the pairing module
  • the 50 comprises a memory 41 for reference contextual information and a memory 42 for reference biometric characteristics.
  • the memories 41 and 42 have been divided into smaller memory zones 41i and 42i, which correspond, each zone of index i containing either a combination of contextual information (41i) or the reference biometric characteristics (42i), and both linked to a predetermined combination of the related characteristics mentioned above and designated by the index i. It is thus possible to select the biometric characteristics of an area 42i of the base from the recognition of the contextual information of an area 41 i of the base thanks to the index i which can serve as an indication of filtering.
  • the matching module 50 comprises a matching block 52 (matcher), known to those skilled in the art, capable of searching in the base 42 for the biometric reference characteristics closest to those extracted from the recorded image. on the person to be identified, calculate the probability with which they come from the same person, and deduce the result to be displayed.
  • a matching block 52 known to those skilled in the art, capable of searching in the base 42 for the biometric reference characteristics closest to those extracted from the recorded image. on the person to be identified, calculate the probability with which they come from the same person, and deduce the result to be displayed.
  • the matching module 50 additionally includes a comparison block
  • the blocks 51 and 52 are connected to the base 40 via the interface 43 and, at the output, to the display module 60.
  • the system 2 includes all the elements of system 1 except that the base 40 is replaced by a memory card, or chip, 81 connected to the system by means of a card reader 82 containing the interface 43.
  • the reader 82 additionally comprises a detector for the presence of the card which replaces the detector 21.
  • the memory card contains a single zone 41i containing the contextual information of the card holder, the pairing module contains only the comparison block 51 and the processing module 30 does not need to contain the extraction block 32.
  • the system 1 comprises, in a simple version, with reference to FIG. 5, a bearing surface 11 for placing the hand 10, the sensor 20 being disposed above the surface 11 for correct focusing on the back of the hand .
  • a complementary fingerprint sensor 20e integrated into the support surface 11 and comprising a pressure detector so that, by pressing on the sensor fingerprints, the camera is triggered, it then captures the image when the hand is correctly positioned.
  • the fingerprint identification data is attached to the skin identification data, both for the data entered and for the reference data.
  • the skin identification data is attached to the skin identification data, both for the data entered and for the reference data.
  • the folds of the skin of the hand one can also capture, with reference to FIG. 7, the images of the wrinkles on the forehead 12, with a system whose same references designate the same elements.
  • the system 2 comprises, in a simple version, with reference to FIG. 8, a reader 82 for receiving and reading the card 81 presented by the hand 10.
  • the sensor 20 is placed above the card inserted in the reader and can thus capture a picture of the back of the hand in good conditions. But we can also, with reference to Figure 9, capture an image of forehead wrinkles.
  • a complementary fingerprint sensor 20e can be located on the card itself, the authentication system 2 then having the same structure as the identification system 1.
  • the complementary sensor here is a 20m microphone which can be integrated into a screen 11, here transparent, protecting the camera 20 , so that by pronouncing his name in front of the microphone, a person triggers the capture of the image by the camera, the forehead being suitably positioned.
  • the voice data is attached to the identification data of the forehead skin, both for the data entered and for the reference data. This voice data is for example of the type provided by a frequency analysis of the person's speech.
  • the camera 20 when the camera 20 is triggered by the detector 21, it captures an image of the folds of the skin of the hand 10 or of the forehead 12 of the person to be identified.
  • the image is transmitted to the conversion block 33 which converts the image into identification data of the person to be identified.
  • the extraction block 32 extracts bionietric characteristics of the image and, in parallel, from these same data, during a step 101, the calculation block 31 calculates the contextual information of the image.
  • the biometric characteristics extracted from the image could then, possibly in a step 105 executed by the matching block 52, be directly compared to the reference biometric characteristics of the memory 42 of the base 40. We would then proceed to display the results in a step 106 executed by the display module 60.
  • the matching block should then scan all of memory 42, to compare the extracted biometric characteristics with all the reference characteristics stored in the base.
  • this disadvantage is avoided thanks to the possession of contextual information and to preliminary comparison 103 and initialization 104 steps of the interface 43.
  • the comparison block 51 compares the contextual information provided by the calculation block 31 with all the contextual reference information of the memory 41, and retains only the closest combinations. These combinations are stored in the areas 41i of the memory 41.
  • the indices i constitute the indications for filtering the reference biometric characteristics and are stored in a memory not shown of the interface 43.
  • step 104 the results of step 103 are used:
  • step 106 executed by the display module 60 to refuse identification
  • the index i designates a unique area 42i and, if this area contains the reference biometric characteristics of only one person, the person is identified and the signaling step 106 directly provides his authentication, the matching block 52 being short-circuited;
  • Step 104 gives control of operations in step 105.
  • step 105 Following the step 104, the identification is continued using only the selected biometric characteristics and the result is communicated to the display step 106.
  • step 105 Unlike the execution of step 105 not following step 104, the pairing block 52 scans only a few areas 42i of the memory 42 and the time saved is considerable.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

Selon le procédé, et grâce au système, on saisit à l'aide d'un capteur (20) des caractéristiques biométriques d'une personne à identifier, on en extrait des données d'identification et on compare les données d'identification de la personne à identifier à des données de référence d'une base (40), en saisissant une image de plis de la peau (10) de la personne à identifier, les données de plis de référence ayant été préalablement acquises et stockées dans la base, et on procède à une première reconnaissance au moyen de ladite image à titre d'étape de filtrage (103), avant de filtrer (104) des données de référence de la base relatives à d'autres caractéristiques biométriques et poursuivre la reconnaissance (105) au moyen de ces dites autres caractéristiques.

Description

Procédé d'identification de personnes et système pour la mise en œuvre du procédé.
On met aujourd'hui couramment en œuvre des procédés d'identification ou d'authentification, de personnes à partir de leurs caractéristiques biométriques.
On peut ainsi utiliser, dans les systèmes de reconnaissance, les empreintes digitales, l'iris de l'œil, l'oreille, voire même la moφhologie d'ensemble de la tête. Mais on fait surtout appel à la reconnaissance des empreintes digitales.
Or, ce procédé, le plus répandu, s'il autorise une grande résolution, présente bon nombre de lacunes.
Du fait de la grande quantité d'informations qu'il peut livrer, il est d'une mise en œuvre lourde et lente.
La capture d'empreintes digitales implique de poser le dessous d'un , doigt sur une surface de saisie : - la graisse ou la transpiration recouvrant le doigt peut altérer la saisie ;
- le contact entre le doigt et la surface de saisie peut entraîner des distorsions ;
- il est relativement aisé de recouvrir son doigt d'une fausse pellicule porte empreinte, d'autant plus qu'elle est cachée à la vue d'un opérateur.
Bref, la demanderesse a cherché une solution alternative plus souple et plus rapide, si ce n'est plus sûre et c'est ainsi qu'elle propose son invention.
L'invention concerne un procédé d'identification de personnes au moyen de caractéristiques biométriques selon lequel on saisit des caractéristiques biométriques d'une personne à identifier, on en extrait des données d'identification et on compare les données d'identification de la personne à identifier à des données de référence d'une base, caractérisé par le fait qu'on saisit une image de plis de la peau de la personne à identifier, les données de plis de référence ayant été préalablement acquises et stockées dans la base, et on saisit une image des plis de la peau et on procède à une première reconnaissance au moyen de ladite image à titre d'étape de filtrage, avant de filtrer des données de référence de la base relatives à d'autres caractéristiques biométriques et poursuivre la reconnaissance au moyen de ces dites autres caractéristiques.
Comme plis servant à l'identification de personnes, on peut envisager, par exemple :
- les plis des articulations des doigts, de préférence sur le dessus de la main, à la jointure des phalanges, - les rides du front.
Outre les objectifs visés à l'origine de l'invention, la reconnaissance au moyen des plis de la peau offre l'avantage de fournir des informations contextuelles, c'est-à-dire présentables sous forme alphanumérique, sur certaines caractéristiques connexes des personnes, comme leur taille, leur âge, leur sexe, en tout état de cause plus fiables que celles qui pourraient être tirées des données biométriques classiques (empreintes digitales, iris...). Ainsi, si on constate que les plis d'une zone de la peau de la main sont assez rapprochées les unes des autres, on en déduira qu'il s'agit vraisemblablement d'un enfant plutôt que d'un adulte.
De surcroît, et surtout, grâce au procédé de l'invention, on peut « découper » la zone de la base contenant des données d'identification d'empreintes digitales, très dense, et accéder plus rapidement à l'information précise recherchée.
Grâce à cette reconnaissance en plusieurs étapes, le procédé de l'invention se distingue clairement de celui qui est enseigné par le document Joshi DG et al : " Computer- vision-based approach to personal identification using finger crease pattern", Pattern récognition Perganion Press Inc. Elmsford, N.Y. US, vol. 31, No. 1, 1998, p. 15-22.
On notera cependant que, dans de nombreuses applications, la reconnaissance plus rudimentaire au moyen des seuls plis sera suffisante tout en procurant des avantages considérables en ce qui concerne l'appariement des caractéristiques saisies et des données de référence dans la base :
- en apportant des informations riches et suffisamment stables dans le temps pour alimenter un système de reconnaissance, - en apportant des informations complémentaires permettant d'augmenter justesse et rapidité.
L'invention concerne également un système d'identification de personnes, comportant au moins un capteur d'images, un module de traitement d'images du capteur pour en extraire des informations contextuelles et des caractéristiques biométriques, une base de référence contenant des informations contextuelles de référence et des caractéristiques biométriques de référence, un bloc de comparaison des informations contextuelles extraites et des informations contextuelles de référence et un bloc d'appariement des caractéristiques biométriques extraites et des caractéristiques biométriques de référence, le bloc de comparaison des informations contextuelles fournissant des indications de filtrage des caractéristiques biométriques de référence à apparier.
De préférence, le module de traitement d'image comporte un bloc de calcul d'informations contextuelles liées à des caractéristiques connexes des personnes et comme informations contextuelles, on choisira :
- le nombre de plis par articulation et par doigt, la distance entre les zones de plis des différentes articulations, et la longueur de ces plis dans un ordre d'énumération prédéterminé,
- le nombre des rides du front, leur écartement et leur longueur.
Si les informations contextuelles suffisent à identifier la personne, les caractéristiques biométriques cessent d'être utilisées, le bloc d'appariement étant court-circuité.
De préférence toujours, il est prévu une surface d'appui de la main des personnes à identifier déterminée par rapport au plan focal du capteur d'images et .un capteur biométrique complémentaire, par exemple un capteur d'empreintes digitales, intégré à ladite surface, les caractéristiques biométriques de référence des empreintes digitales étant préalablement introduites dans la base.
Cette version est particulièrement intéressante dans les applications d'identification criminelle.
Avantageusement encore, le module d'appariement peut être relié à une carte à mémoire par l'intermédiaire d'un lecteur de carte équipant le système. La carte à mémoire sert alors de base de référence pour un système d'authentification.
Avantageusement également, le module d'appariement est relié à un microphone équipant le système. La base de référence comporte alors des données vocales de référence et le système convient bien comme portier d'habitation.
On notera encore que l'acquisition de données de plis est moins agressive envers la personne à contrôler que celle, par exemple, des empreintes digitales ou de l'iris, ce qui est fort appréciable, notamment dans les applications strictement civiles.
De même, le procédé d'identification fondé sur les plis est plus difficile à falsifier, la détection d'une fausse main pouvant se détecter plus facilement qu'une fausse empreinte ou qu'une lentille pour l'iris.
L'invention sera mieux comprise à l'aide de la description suivante et du dessin annexé sur lequel : - la figure 1 représente un schéma par blocs fonctionnels du système d'identification selon l'invention;
- la figure 2 est une image de la peau du dos d'une main;
- la figure 3 représente un schéma par blocs fonctionnels d'un système d'authentification mettant en œuvre le procédé de l'invention; - la figure 4 est un organigramme fonctionnel mettant en œuvre le procédé de l'invention;
- la figure 5 illustre la mise en œuvre du système de l'invention;
- la figure 6 est une variante de mise en œuvre de la figure 5, avec un capteur d'empreintes digitales; - la figure 7 est une autre variante de mise en œuvre du système pour saisir les rides du front;
- la figure 8 est un exemple de réalisation du système de l'invention pour une mise en œuvre d'authentification;
- la figure 9 est une variante de réalisation du système de la figure 8, pour la saisie des rides du front et
- la figure 10 est une variante de réalisation du système de la figure 9.
En référence à la figure 1, le système 1 comporte un capteur d'images 20, ici une caméra vidéo numérique délivrant des images, commandé par un détecteur de présence 21. Il peut s'agir d'un dispositif optique composé d'une diode électroluminescente et d'une photodiode, ou d'un capteur de pression, détectant la présence d'une main 10 d'une personne à identifier, sur une surface 11 d'appui de la main permettant une focalisation correcte.
La caméra 20 est reliée à un module de traitement d'images 30 qui extrait les données d'identification des images du capteur d'images 20, et qui est relié à un module 50 d'appariement des données d'identification de différentes sources, l'une des sources étant le capteur 20 et une autre, une base de référence 40. Le module d'appariement 50 est également relié à la base 40 et commande un module 60 d'affichage des résultats de l'identification, ce dernier pouvant éventuellement commander des actions en conséquence.
Plus précisément, le module de traitement d'image 30 comporte un bloc 33 de conversion des images en données d'identification, et un bloc 32 d'extraction de caractéristiques biométriques des données d'identification, dont la fonction est aussi mise en œuvre quand il s'agit d'empreintes digitales. Les caractéristiques sont alors constituées d'une description synthétique des dessins des empreintes (arches, boucles, verticilles, etc ...).
Ici, on saisit une image de la peau du dos de la main 10. En référence à la figure 2, la peau des doigts apparaît striée de plis, surtout au niveau des articulations, en particulier entre la phalange 13 et la phalangine 14.
Les données d'identification élaborées par le bloc de conversion 33 sont aussi transmises à un bloc 31 de calcul d'informations contextuelles à partir de ces données d'identification.
Les informations contextuelles sont par exemple le nombre N de plis sur chaque articulation, la distance D les séparant de la base de l'ongle, la longueur transversale L des plis, éventuellement leur inclinaison I sur l'axe longitudinal du doigt, ou le nombre de bifurcations B sur le doigt.
Ces informations sont de type alphanumérique et certaines d'entre elles sont étroitement liées à des caractéristiques connexes des personnes : la taille, l'âge, le sexe, de sorte qu'être en présence d'une combinaison de celles-là permet d'exclure la possibilité d'être en présence d'une combinaison de celles-ci et par suite de filtrer les caractéristiques biométriques correspondantes.
La base 40 est gérée par une interface 43 reliée au module d'appariement
50 et comporte une mémoire 41 d'informations contextuelles de référence et une mémoire 42 de caractéristiques biométriques de référence. Les mémoires 41 et 42 ont été découpées en zones de mémoire plus petites 41i et 42i, qui se correspondent, chaque zone d'indice i contenant soit une combinaison d'informations contextuelles (41i) soit les caractéristiques biométriques de référence (42i), et toutes deux liées à une combinaison prédéterminée des caractéristiques connexes évoquées précédemment et désignée par l'indice i. On peut ainsi sélectionner les caractéristiques biométriques d'une zone 42i de la base à partir de la reconnaissance des informations contextuelles d'une zone 41 i de la base grâce à l'indice i qui peut servir d'indication de filtrage.
Le module d'appariement 50 comporte un bloc d'appariement 52 (matcheur), connu de l'homme de l'art, capable de rechercher dans la base 42 les caractéristiques biométriques de référence les plus proches de celles extraites de l'image relevée sur la personne à identifier, de calculer la probabilité avec laquelle elles proviennent de la même personne, et d'en déduire le résultat à afficher.
Le module d'appariement 50 comporte en plus un bloc de comparaison
51 qui reçoit les informations contextuelles calculées par le bloc de calcul 31.
Les blocs 51 et 52 sont reliés à la base 40 par l'intermédiaire de l'interface 43 et, en sortie, au module d'affichage 60.
Si on veut réaliser un système d'authentification de personnes, et non plus d'identification, en référence à la figure 2, le système 2 comporte tous les éléments du système 1 sauf que la base 40 est remplacée par une carte à mémoire, ou à puce, 81 reliée au système par l'intermédiaire d'un lecteur de carte 82 contenant l'interface 43. Le lecteur 82 comporte en plus un détecteur de présence de la carte qui remplace le détecteur 21. Dans une version simple, la carte à mémoire contient une seule zone 41i contenant les informations contextuelles du possesseur de la carte, le module d'appariement ne contient que le bloc de comparaison 51 et le module de traitement 30 n'a pas besoin de contenir le bloc d'extraction 32.
Pour des applications plus complexes faisant intervenir une combinaison de capteurs biométriques, comme on le verra plus loin, les deux zones 41i et 42i, ainsi que les blocs 32 et 52, doivent être présents.
Les dispositifs permettant de saisir les images de la peau dans de bonnes conditions vont maintenant être décrits.
Le système 1 comporte, dans une version simple, en référence à la figure 5, une surface d'appui 11 pour poser la main 10, le capteur 20 étant disposé au dessus de la surface 11 pour une focalisation correcte sur le dos de la main.
Dans une version plus complexe, en référence à la figure 6, faisant intervenir un capteur d'empreintes digitales 20e, complémentaire, intégré à la surface d'appui 11 et comportant un détecteur de pression de sorte que, en appuyant sur le capteur d'empreintes, on déclenche la caméra, celle-ci effectue alors la saisie de l'image quand la main est correctement positionnée.
Dans cette dernière version, les données d'identification de l'empreinte sont jointes aux données d'identification de la peau, tant pour les données saisies que pour les données de référence. A la place des plis de la peau de la main, on peut aussi saisir, en référence à la figure 7, les images des rides du front 12, avec un système dont les mêmes références désignent les mêmes éléments.
Le système 2 comporte, dans une version simple, en référence à la figure 8, un lecteur 82 pour recevoir et lire la carte 81 présentée par la main 10. Le capteur 20 est disposé au dessus de la carte introduite dans le lecteur et peut ainsi saisir une image du dos de la main dans de bonnes conditions. Mais on peut aussi, en référence à la figure 9, saisir une image des rides du front. Pour ces deux dernières versions, un capteur complémentaire d'empreintes digitales 20e peut être situé sur la carte elle-même, le système d'authentification 2 ayant alors la même structure que le système d'identification 1.
Le système 2, en référence à la figure 10, peut encore trouver son application dans les dispositifs du type portiers d'habitation, le capteur complémentaire est ici un microphone 20m qui peut être intégré à un écran 11, ici transparent, protégeant la caméra 20, de sorte qu'en prononçant son nom devant le microphone, une personne déclenche la saisie de l'image par la caméra, le front étant convenablement positionné. Les données vocales sont jointes aux données d'identification de la peau du front, tant pour les données saisies que pour les données de référence. Ces données vocales sont par exemple du type de celles fournies par une analyse fréquentielle de la parole de la personne.
Le fonctionnement du système va maintenant être expliqué.
En référence à la figure 4, quand la caméra 20 est déclenchée par le détecteur 21, elle saisit une image des plis de la peau de la main 10 ou du front 12 de la personne à identifier. Lors d'une étape 100, l'image est transmise au bloc de conversion 33 qui convertit l'image en données d'identification de la personne à identifier. Puis, lors d'une étape 102, de ces données d'identification, le bloc d'extraction 32 extrait des caractéristiques bioniétriques de l'image et, parallèlement, de ces mêmes données, lors d'une étape 101, le bloc de calcul 31 calcule les informations contextuelles de l'image.
Les caractéristiques biométriques extraites de l'image pourraient alors, éventuellement en une étape 105 exécutée par le bloc d'appariement 52, être directement comparées aux caractéristiques biométriques de référence de la mémoire 42 de la base 40. On procéderait ensuite à l'affichage des résultats en une étape 106 exécutée par le module d'affichage 60.
Mais le bloc d'appariement devrait alors balayer toute la mémoire 42, pour comparer les caractéristiques biométriques extraites à toutes les caractéristiques de référence mémorisées dans la base. Ici, on évite cet inconvénient grâce à la possession d'informations contextuelles et à des étapes préalables de comparaison 103 et d'initialisation 104 de l'interface 43.
Lors de l'étape 103, le bloc de comparaison 51 compare les informations contextuelles fournies par le bloc de calcul 31 à toutes les informations contextuelles de référence de la mémoire 41, et en retient seulement les combinaisons les plus proches. Ces combinaisons sont mémorisées dans les zones 41i de la mémoire 41. Les indices i constituent les indications pour le filtrage des caractéristiques biométriques de référence et sont mémorisées dans une mémoire non représentée de l'interface 43. Ces opérations, portant sur des données alphanumériques et peu volumineuses, sont rapides.
Lors de l'étape 104, on exploite les résultats de l'étape 103 :
- si aucun indice i ou tous les indices i sont proposés, il y a échec du filtrage et, selon une option préalablement prise, soit on passe à l'étape 105 déjà décrite pour prolonger la recherche complète soit on passe à l'étape 106 exécutée par le module d'affichage 60 pour refuser l'identification ;
- si l'indice i est unique, il désigne une zone 42i unique et, si cette zone ne contient les caractéristiques biométriques de référence que d'une seule personne, la personne est identifiée et F étape de signalisation 106 fournit directement son authentification, le bloc d'appariement 52 étant court-circuité;
- si sont retenus un ou plusieurs indices i désignant une ou plusieurs zones 42i et en même temps les caractéristiques biométriques de référence qui y sont contenues, les autres zones de la base 40 sont écartées par l'interface 43. L'étape 104 donne ensuite le contrôle des opérations à l'étape 105.
Lors de l'exécution d'une étape 105 suivant l'étape 104, on poursuit l'identification au moyen des seules caractéristiques biométriques retenues et on en communique le résultat à l'étape d'affichage 106.
Contrairement à l'exécution de l'étape 105 ne suivant pas l'étape 104, le bloc d'appariement 52 ne balaie que quelques zones 42i de la mémoire 42 et le gain de temps est considérable.

Claims

REVENDICATIONS
1- Procédé d'identification de personnes au moyen de caractéristiques biométriques selon lequel on saisit (20) des caractéristiques biométriques d'une personne à identifier, on en extrait (100) des données d'identification et on compare (105) les données d'identification de la personne à identifier à des données de référence d'une base (40), caractérisé par le fait qu'on saisit une image de plis de la peau (10, 12) de la personne à identifier, les données de plis de référence ayant été préalablement acquises et stockées dans la base, et on procède à une première reconnaissance au moyen de ladite image à titre d'étape de filtrage (103), avant de filtrer (104) des données de référence de la base relatives à d'autres caractéristiques biométriques et poursuivre la reconnaissance (105) au moyen de ces dites autres caractéristiques.
2- Procédé selon la revendication 1 dans lequel les plis servant à l'identification de personnes sont choisis dans le groupe des plis des articulations des doigts, de préférence sur le dessus de la main (10), à la jointure des phalanges, et des rides du front (12).
3- Procédé selon l'une des revendications 1 et 2 dans lequel les plis de la peau fournissent des informations contextuelles (N, D, L, I) présentables sous forme alphanumérique.
4- Système d'identification de personnes, comportant au moins un capteur d'images (20), un module (30) de traitement d'images du capteur pour en extraire (31,32) des informations contextuelles et des caractéristiques biométriques, une base de référence (40, 41, 42) contenant des informations contextuelles de référence et des caractéristiques biométriques de référence, un bloc de comparaison (51) des informations contextuelles extraites et des informations contextuelles de référence et un bloc d'appariement (52) des caractéristiques biométriques extraites et des caractéristiques biométriques de référence, le bloc (51) de comparaison des informations contextuelles fournissant des indications de filtrage des caractéristiques biométriques de référence à apparier. 5- Système selon la revendication 4, dans lequel le module de traitement d'images (30) comporte un bloc (31) de calcul de données contextuelles (N, D, L, I) liées à des caractéristiques connexes de la personne à identifier.
6- Système selon l'une des revendications 4 et 5, dans lequel les données contextuelles sont le nombre (N), la position (D) et la longueur (L) des plis de la peau, ou le nombre des rides du front, leur écartement et leur longueur.
7- Système selon l'une des revendications 4 à 6, dans lequel le bloc d'appariement (52) est court-circuité si les informations contextuelles suffisent à identifier le personnel.
8- Système selon l'une des revendications 4 à 7 dans lequel un capteur d'empreintes digitales (20e) est intégré à une surface (11) d'appui de la main.
9- Système selon l'une des revendications 4 à 7, dans lequel le module d'appariement (50) est relié à une carte à mémoire (81) par l'intermédiaire d'un lecteur de carte (82) et la mémoire de la carte sert de base de référence (40).
10- Système selon la revendication 9, dans lequel le lecteur (82) est agencé pour déclencher le capteur d'images (20).
11- Système selon l'une des revendications 4 à 7, dans lequel le module d'appariement (50) est relié à un microphone (20m).
12- Système selon la revendication 11, dans lequel le microphone est agencé pour déclencher le capteur d'images (20).
PCT/FR2004/000381 2003-02-20 2004-02-19 Procede d’identification de personnes et systeme pour la mise en oeuvre du procede WO2004077200A2 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP04712589A EP1604325A2 (fr) 2003-02-20 2004-02-19 Procede d'identification de personnes et systeme pour la mise en oeuvre du procede
US10/546,513 US7583822B2 (en) 2003-02-20 2004-02-19 Method for identifying persons and system for carrying out said method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0302093A FR2851673B1 (fr) 2003-02-20 2003-02-20 Procede d'identification de personnes et systeme pour la mise en oeuvre du procede
FR03/02093 2003-02-20

Publications (2)

Publication Number Publication Date
WO2004077200A2 true WO2004077200A2 (fr) 2004-09-10
WO2004077200A3 WO2004077200A3 (fr) 2004-11-04

Family

ID=32799460

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2004/000381 WO2004077200A2 (fr) 2003-02-20 2004-02-19 Procede d’identification de personnes et systeme pour la mise en oeuvre du procede

Country Status (4)

Country Link
US (1) US7583822B2 (fr)
EP (1) EP1604325A2 (fr)
FR (1) FR2851673B1 (fr)
WO (1) WO2004077200A2 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005013183A2 (fr) * 2003-08-03 2005-02-10 Müller, Markus Dispositif de determination, d'identification et de verification biometrique de personnes sur la base des traces des stries cutanees sur la face inferieure des phalanges

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4550636B2 (ja) * 2005-03-18 2010-09-22 富士通株式会社 電子機器、その登録方法及び登録プログラム
US8260008B2 (en) 2005-11-11 2012-09-04 Eyelock, Inc. Methods for performing biometric recognition of a human eye and corroboration of same
US8364646B2 (en) 2006-03-03 2013-01-29 Eyelock, Inc. Scalable searching of biometric databases using dynamic selection of data subsets
US8604901B2 (en) * 2006-06-27 2013-12-10 Eyelock, Inc. Ensuring the provenance of passengers at a transportation facility
US8965063B2 (en) 2006-09-22 2015-02-24 Eyelock, Inc. Compact biometric acquisition system and method
WO2008042879A1 (fr) 2006-10-02 2008-04-10 Global Rainmakers, Inc. Système et procédé de transaction financière biométrique résistant à la fraude
US8953849B2 (en) 2007-04-19 2015-02-10 Eyelock, Inc. Method and system for biometric recognition
WO2008131201A1 (fr) 2007-04-19 2008-10-30 Global Rainmakers, Inc. Procédé et système de reconnaissance biométrique
US8553948B2 (en) 2007-09-01 2013-10-08 Eyelock, Inc. System and method for iris data acquisition for biometric identification
US9002073B2 (en) 2007-09-01 2015-04-07 Eyelock, Inc. Mobile identity platform
US9036871B2 (en) 2007-09-01 2015-05-19 Eyelock, Inc. Mobility identity platform
US9117119B2 (en) 2007-09-01 2015-08-25 Eyelock, Inc. Mobile identity platform
US8212870B2 (en) 2007-09-01 2012-07-03 Hanna Keith J Mirror system and method for acquiring biometric data
JP5121681B2 (ja) * 2008-04-30 2013-01-16 株式会社日立製作所 生体認証システム、認証クライアント端末、及び生体認証方法
WO2009158662A2 (fr) 2008-06-26 2009-12-30 Global Rainmakers, Inc. Procédé de réduction de visibilité d'éclairement tout en acquérant une imagerie de haute qualité
US8195044B2 (en) 2009-03-30 2012-06-05 Eyelock Inc. Biometric camera mount system
US9280695B2 (en) * 2009-11-11 2016-03-08 Cross Match Technologies, Inc. Apparatus and method for determining sequencing of fingers in images to a two-finger scanner of fingerprint images
US10043229B2 (en) 2011-01-26 2018-08-07 Eyelock Llc Method for confirming the identity of an individual while shielding that individual's personal data
BR112013021160B1 (pt) 2011-02-17 2021-06-22 Eyelock Llc Método e aparelho para processar imagens adquiridas usando um único sensor de imagens
WO2012145405A2 (fr) 2011-04-19 2012-10-26 Eyelock Inc. Chaîne de provenance biométrique
WO2013028700A2 (fr) 2011-08-22 2013-02-28 Eyelock Inc. Systèmes et procédés de capture d'images sans artéfact
TWI562077B (en) * 2012-01-04 2016-12-11 Gingy Technology Inc Method for fingerprint recognition using dual camera and device thereof
US9495526B2 (en) 2013-03-15 2016-11-15 Eyelock Llc Efficient prevention of fraud
EP3087533A4 (fr) 2013-12-23 2017-09-20 Eyelock Llc Procédés et appareil pour une reconnaissance de l'iris à faible consommation d'énergie
EP3092601A4 (fr) 2014-01-06 2017-11-29 Eyelock Llc Procédés et appareil de reconnaissance répétitive d'iris
WO2016040836A1 (fr) 2014-09-12 2016-03-17 Eyelock Llc Procédés et appareil permettant de diriger le regard d'un utilisateur dans un système de reconnaissance d'iris
CN107111811B (zh) 2014-11-19 2021-02-26 眼锁有限责任公司 用于授权交易的最佳便利性度量的基于模型的预测
WO2016118473A1 (fr) 2015-01-20 2016-07-28 Eyelock Llc Système de lentille pour acquisition d'images de lumière visible et acquisition d'images d'iris infrarouges de haute qualité
CN107580767B (zh) 2015-03-12 2020-12-29 眼锁有限责任公司 使用生物特征来管理网络活动的方法和系统
WO2017112662A1 (fr) 2015-12-21 2017-06-29 Eyelock Llc Module de caméra optique réfléchie pour la reconnaissance de l'iris dans un dispositif informatique
US10311300B2 (en) 2016-05-18 2019-06-04 Eyelock Llc Iris recognition systems and methods of using a statistical model of an iris for authentication
US10534969B2 (en) 2017-02-24 2020-01-14 Eyelock Llc Systems and methods for providing illumination for iris biometric acquisition
US11068711B2 (en) 2017-08-31 2021-07-20 Eyelock Llc Systems and methods of biometric acquisition using positive optical distortion
US11495041B2 (en) * 2019-03-29 2022-11-08 Jumio Corporation Biometric identification using composite hand images

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5963657A (en) * 1996-09-09 1999-10-05 Arete Associates Economical skin-pattern-acquisition and analysis apparatus for access control; systems controlled thereby
JP2815045B2 (ja) * 1996-12-16 1998-10-27 日本電気株式会社 画像特徴抽出装置,画像特徴解析装置,および画像照合システム
JP3075345B2 (ja) * 1997-07-28 2000-08-14 日本電気株式会社 皮膚紋様特徴抽出装置
US7466846B2 (en) * 2002-09-25 2008-12-16 The Hong Kong Polytechnic University Method for analyzing a palm print for the identification of an individual using gabor analysis

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHEN JUN ET AL: "The crease's discriminating power in palmprint recognition" OBJECT DETECTION, CLASSIFICATION, AND TRACKING TECHNOLOGIES;WUHAN, CHINA OCT 22-24 2001, vol. 4554, 2001, pages 67-72, XP001184102 Proc SPIE Int Soc Opt Eng;Proceedings of SPIE - The International Society for Optical Engineering 2001 *
JOSHI D G ET AL: "Computer-vision-based approach to personal identification using finger crease pattern" PATTERN RECOGNITION, PERGAMON PRESS INC. ELMSFORD, N.Y, US, vol. 31, no. 1, 1998, pages 15-22, XP004101063 ISSN: 0031-3203 *
WEI SHU ET AL: "Palmprint verification: an implementation of biometric technology" PATTERN RECOGNITION, 1998. PROCEEDINGS. FOURTEENTH INTERNATIONAL CONFERENCE ON BRISBANE, QLD., AUSTRALIA 16-20 AUG. 1998, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, 16 août 1998 (1998-08-16), pages 219-221, XP010297565 ISBN: 0-8186-8512-3 *
YOUNG HO KWON ET AL: "AGE CLASSIFICATION FROM FACIAL IMAGES" PROCEEDINGS OF THE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. SEATTLE, JUNE 21 - 23, 1994, LOS ALAMITOS, IEEE COMP. SOC. PRESS, US, 21 juin 1994 (1994-06-21), pages 762-767, XP000515929 ISBN: 0-8186-5827-4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005013183A2 (fr) * 2003-08-03 2005-02-10 Müller, Markus Dispositif de determination, d'identification et de verification biometrique de personnes sur la base des traces des stries cutanees sur la face inferieure des phalanges
WO2005013183A3 (fr) * 2003-08-03 2005-08-11 Daniel Gross Dispositif de determination, d'identification et de verification biometrique de personnes sur la base des traces des stries cutanees sur la face inferieure des phalanges

Also Published As

Publication number Publication date
FR2851673A1 (fr) 2004-08-27
US7583822B2 (en) 2009-09-01
WO2004077200A3 (fr) 2004-11-04
EP1604325A2 (fr) 2005-12-14
FR2851673B1 (fr) 2005-10-14
US20070067639A1 (en) 2007-03-22

Similar Documents

Publication Publication Date Title
WO2004077200A2 (fr) Procede d’identification de personnes et systeme pour la mise en oeuvre du procede
EP2013816B1 (fr) Procede d'identification d'une personne par analyse de caracteristiques de ses cils
EP2041696B1 (fr) Dispositif d'imagerie multispectral multibiométrique
JP6767755B2 (ja) リストストラップにおける、手首の血管を検出する生体認証センサ
US20120194662A1 (en) Method and system for multispectral palmprint verification
US20080298642A1 (en) Method and apparatus for extraction and matching of biometric detail
JP2007537526A (ja) 個人識別の方法及び装置
FR2997528A1 (fr) Identification biometrique
EP1586074A1 (fr) Procede et dispositif de reconnaissance de personne
KR20070031217A (ko) 개인 인증 장치 및 방법
TW200939134A (en) Imaging apparatus and method for authentication of user
EP3044729B1 (fr) Procédé de validation destiné à valider qu'un élément est recouvert d'une vraie peau
JP6443349B2 (ja) 指認証プリズムを用いた生体認証装置及び生体認証方法
WO2013146760A1 (fr) Dispositif d'authentification, corps de prisme destiné à l'authentification et procédé d'authentification
JP5811385B2 (ja) 認証装置、認証用プリズム体及び認証方法
WO2016023582A1 (fr) Procédé de détection d'une présentation falsifiée à un système de reconnaissance vasculaire
EP3825914B1 (fr) Procédé de collecte de matériel biologique et terminal pour mettre en oeuvre ce procédé
FR3071942B1 (fr) Procede et dispositif de reconnaissance biometrique combinee
FR2875322A1 (fr) Procede d'aide a la reconnaissance du visage
JPH1094534A (ja) 個人識別装置
FR3110010A1 (fr) Procédé d’acquisition d’un trait biométrique d’un individu, en vue d’une authentification ou une identification dudit individu
FR3032539A1 (fr) Procede d'acquisition de donnees biometriques selon une sequence verifiee
JP2003346135A (ja) 画像処理装置およびそれを用いた情報装置ならびに画像処理方法
WO2006082291A1 (fr) Procede de determination d'un axe de reference d'un œil
EP2423852A2 (fr) Procede multimodal d'identification biometrique, systeme et dispositif permettant sa mise en oeuvre.

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2004712589

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004712589

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007067639

Country of ref document: US

Ref document number: 10546513

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 10546513

Country of ref document: US