FR3102324A1 - Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé - Google Patents

Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé Download PDF

Info

Publication number
FR3102324A1
FR3102324A1 FR1911695A FR1911695A FR3102324A1 FR 3102324 A1 FR3102324 A1 FR 3102324A1 FR 1911695 A FR1911695 A FR 1911695A FR 1911695 A FR1911695 A FR 1911695A FR 3102324 A1 FR3102324 A1 FR 3102324A1
Authority
FR
France
Prior art keywords
image
infrared
blue
calibration parameters
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1911695A
Other languages
English (en)
Other versions
FR3102324B1 (fr
Inventor
Jean Beaudet
Baptiste CHU
Mokrane Malek
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Idemia Identity and Security France SAS
Original Assignee
Idemia Identity and Security France SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Idemia Identity and Security France SAS filed Critical Idemia Identity and Security France SAS
Priority to FR1911695A priority Critical patent/FR3102324B1/fr
Publication of FR3102324A1 publication Critical patent/FR3102324A1/fr
Application granted granted Critical
Publication of FR3102324B1 publication Critical patent/FR3102324B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)

Abstract

Un procédé d’acquisition d’une image couleur et d’une image infra-rouge d’une scène à partir d’un système d’acquisition d’image RGB est décrit. Le système d’acquisition d’image RGB ne comprend aucun filtre infra-rouge et comprend un filtre passe-haut configuré pour atténuer la composante bleue de la lumière entrant dans le système d’acquisition. La scène étant éclairée par une lumière infra-rouge et une lumière visible, le procédé comprend : - déterminer (S1) des premiers et seconds paramètres de calibration, les premiers paramètres de calibration étant représentatifs des variations linéaires, dans l’infra-rouge, du rouge en fonction du bleu et du vert en fonction du bleu et lesdits seconds paramètres de calibration étant représentatifs des variations linéaires, dans le visible, du bleu en fonction du vert et du rouge ; - obtenir (S2, S20) une image brute de la scène avec le système d’acquisition d’image ; - générer (S2, S22) une image infra-rouge et une image couleur à partir de l’image brute de la scène et desdits premiers et seconds paramètres de calibration déterminés. Fig. 3

Description

Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé
L’invention concerne un procédé d’acquisition d’une image couleur et d’une image infra-rouge et un système mettant en œuvre ledit procédé.
ETAT DE LA TECHNIQUE ANTERIEURE
L'utilisation d’images d’une partie corporelle, e.g. images d'empreintes digitales, images d’iris de l’œil, images de visage, permet de sécuriser des accès à des bâtiments ou à des machines. La sécurité est ainsi renforcée dans la mesure où la probabilité que deux personnes aient, par exemple, des visages identiques est quasiment nulle.
Un dispositif d’acquisition d’image (e.g. une caméra RGB) est généralement utilisé pour obtenir une image dans le spectre visible, dite image couleur, d'une partie corporelle, e.g. d’un visage. Dans le cas d’une identification, cette image du visage est comparée avec un ensemble d’images de visage de référence contenues dans une base de données. Ainsi, en comparant l’image du visage acquise avec les images de visage de référence contenues dans la base de données, il est possible de déterminer si le visage est un visage connu ayant l’autorisation d’accéder au bâtiment.
Avec l’arrivée des imprimantes 3D, il est possible de créer des masques dans différents matériaux, e.g. plastique, résine, etc. L’application de peinture et/ou de maquillage permet ensuite de produire un masque presque identique à un visage réel. La distinction entre un visage réel et un leurre, i.e. un masque, uniquement à partir d’images couleur acquises dans le spectre visible est très difficile.
Il est donc connu des procédés de détection de fraude utilisant des images dans le spectre infra-rouge, dites images infra-rouges, conjointement avec des images couleur, i.e. dans le spectre visible, pour déterminer si le visage sur l’image est un visage authentique ou s’il s’agit d’un leurre, e.g. une photo, un masque, un écran, etc.
La reconnaissance de visage nécessite donc l’acquisition d’images dans le spectre visible. La détection de fraude nécessite donc l’acquisition d’images dans le spectre visible et dans le spectre infra-rouge.
A cet effet, il est connu d’utiliser deux caméras, une responsable de l’acquisition d’images couleur dans le spectre visible, et une autre responsable de l’acquisition d’images dans le spectre infra-rouge. Utiliser deux caméras pose des problèmes de coût, des difficultés de miniaturisation et enfin des problèmes d’alignement des images couleur et infra-rouges du fait de la différence de points de vue des deux caméras.
Il existe également des caméras permettant d’acquérir simultanément des images infra-rouges et des images couleur. Dans de telles caméras, une partie des micro-filtres verts du réseau de filtres (« Color Filter Array » en anglais) ou matrice de Bayer est remplacée par des micro-filtres laissant passer la lumière infra-rouge. Toutefois, dans les images acquises par de telles caméras, la composante verte a une résolution réduite, une partie des photosites verts étant dédiée à l’acquisition de données infra-rouge. Or l’œil humain est particulièrement sensible au vert.
Il est souhaitable de pallier ces inconvénients de l’état de la technique. Il est notamment souhaitable de proposer un procédé et un système d’acquisition d’image peu coûteux et offrant une résolution suffisante de la composante verte.
L’invention concerne un procédé d’acquisition d’une image couleur et d’une image infra-rouge d’une scène à partir d’un système d’acquisition d’image RGB ne comprenant aucun filtre infra-rouge et comprenant un filtre passe-haut configuré pour atténuer la composante bleue de la lumière de sorte à récupérer une information infra-rouge sur des photosites bleus. La scène étant éclairée par une lumière infra-rouge et une lumière visible, le procédé comprend :
- déterminer des premiers et seconds paramètres de calibration, les premiers paramètres de calibration étant représentatifs des variations linéaires, dans l’infra-rouge, du rouge en fonction du bleu et du vert en fonction du bleu et les seconds paramètres de calibration étant représentatifs des variations linéaires, dans le visible, du bleu en fonction du vert et du rouge;
- obtenir une image brute de la scène avec le système d’acquisition d’image ; et
- générer une image infra-rouge et une image couleur à partir de l’image brute de la scène et des premiers et seconds paramètres de calibration déterminés.
Selon un mode particulier de réalisation, déterminer des premiers et seconds paramètres de calibration comprend :
- obtenir une première image brute d’une mire éclairée par de la lumière infra-rouge, la mire étant formée d’une pluralité de patchs de couleur ;
- déterminer les premiers paramètres de calibration à partir de la première image brute obtenue ;
- obtenir une seconde image brute d’une mire éclairée par de la lumière visible ; et
- déterminer les seconds paramètres de calibration à partir de la seconde image brute obtenue.
Selon un mode particulier de réalisation, déterminer les premiers paramètres de calibration à partir de la première image brute obtenue comprend :
- calculer des valeurs moyennes de rouge, vert et bleu pour chaque patch de la première image brute obtenue ;
- déterminer un premier paramètre de calibration à partir des couples de valeurs moyennes de rouge et de bleu associés aux patchs ; et
- déterminer un deuxième paramètre de calibration à partir des couples de valeurs moyennes de vert et de bleu associés aux patchs.
Selon un mode particulier de réalisation, le premier paramètre de calibration et le deuxième paramètre de calibration sont obtenus par une méthode des moindres carrés.
Selon un mode particulier de réalisation, déterminer les seconds paramètres de calibration à partir de la seconde image brute obtenue comprend :
- calculer des valeurs moyennes de rouge, vert et bleu pour chaque patch de la seconde image brute obtenue ; et
- déterminer les seconds paramètres de calibration à partir des triplets de valeurs moyennes de bleu, rouge et vert associés aux patchs.
Selon un mode particulier de réalisation, l’image brute étant formée de groupes de pixels voisins, chaque groupe comprenant un pixel rouge de valeur R, un pixel bleu de valeur B et deux pixels verts, générer une image infra-rouge et une image couleur à partir de ladite image brute de ladite scène et desdits premiers et seconds paramètres de calibration déterminés comprend :
- déterminer, pour chaque groupe de pixels de l’image brute, des valeurs RR, GG et BB comme suit:
où G  est la valeur moyenne desdits pixels verts dudit groupe et où L est une matrice inverse d’une matrice de calibrationMdéfinie comme suit :
où αIRet βIRsont les premiers paramètres de calibration, et αVIS, βVISet γVISsont les seconds paramètres de calibration ;
- générer une image infra-rouge dans laquelle les pixels bleus ont pour valeur BB et les pixels rouges et verts ont une valeur nulle ; et
- générer une image couleur dans laquelle les pixels verts ont pour valeur GG, les pixels rouges ont pour valeur RR et les pixels bleus ont une valeur nulle.
L’invention concerne également un procédé d’authentification d’une partie corporelle caractérisé en ce qu’il comprend :
- acquérir une image couleur et une image infra-rouge de la partie corporelle par le procédé d’acquisition selon l’un des modes de réalisation précédents ; et
- authentifier la partie corporelle à partir des images couleur et infra-rouges.
Selon un mode particulier de réalisation, la partie corporelle étant un visage, authentifier la partie corporelle à partir des images couleur et infra-rouges comprend :
- déterminer que le visage est un visage connu au moins à partir de l’image couleur; et
- déterminer que le visage est un visage authentique à partir des images couleur et infra-rouges.
L’invention concerne également un système d’acquisition d’une image couleur et d’une image infra-rouge d’une scène, la scène étant éclairée par une lumière infra-rouge et une lumière visible, le système d’acquisition comprenant un dispositif d’acquisition d’image RGB ne comprenant aucun filtre infra-rouge et comprenant un filtre passe-haut configuré pour atténuer la composante bleue de la lumière de sorte à récupérer une information infra-rouge sur des photosites bleus. Le système d’acquisition comprend en outre un module de traitement connecté au dispositif d’acquisition d’image RGB qui est configuré pour :
- déterminer des premiers et seconds paramètres de calibration, les premiers paramètres de calibration étant représentatifs des variations linéaires, dans l’infra-rouge, du rouge en fonction du bleu et du vert en fonction du bleu et les seconds paramètres de calibration étant représentatifs des variations linéaires, dans le visible, du bleu en fonction du vert et du rouge;
- obtenir une image brute de la scène avec le système d’acquisition d’image ;
- générer une image infra-rouge et une image couleur à partir de l’image brute de la scène et des premiers et seconds paramètres de calibration déterminés.
Selon un mode particulier de réalisation, le filtre passe haut est placé devant la lentille.
Selon un mode particulier de réalisation, le système est configuré pour mettre en œuvre le procédé d’acquisition selon l’un des modes de réalisation précédents.
L’invention concerne également un dispositif d’authentification d’une partie corporelle, comprenant :
- un système d’acquisition d’image selon l’un des modes de réalisation précédents ; et
- un module de traitement d’image configuré pour effectuer une authentification de la partie corporelle à partir des images couleur et infra-rouges.
L’invention concerne également un programme d’ordinateur qui comprend des instructions pour mettre en œuvre, par un dispositif, le procédé d’acquisition selon l’un des modes de réalisation précédents, lorsque le programme est exécuté par une unité de calcul du dispositif.
L’invention concerne également des moyens de stockage, caractérisés en ce qu’ils stockent un programme d’ordinateur comprenant des instructions pour mettre en œuvre, par un dispositif, le procédé d’acquisition selon l’un des modes de réalisation précédents, lorsque le programme est exécuté par une unité de calcul du dispositif.
Les caractéristiques de l'invention mentionnées ci-dessus, ainsi que d'autres, apparaîtront plus clairement à la lecture de la description suivante d'un exemple de réalisation, ladite description étant faite en relation avec les dessins joints, parmi lesquels :
illustre un système d’acquisition d’image selon un mode de réalisation ;
représente une partie d’une image brute obtenue par le système d’acquisition d’image selon l’invention ;
 illustre schématiquement un exemple d’architecture matérielle d’un module de traitement du système d’acquisition d’image selon un mode de réalisation ;
illustre un procédé d’acquisition d’une image infra-rouge et d’une image couleur selon un mode de réalisation ;
 illustre un procédé de calibration du système d’acquisition selon un mode de réalisation ;
illustre une image d’une mire formée d’une pluralité de patchs couleur ;
illustre en détail une étape du procédé de calibration selon un mode particulier de réalisation ;
représente des variations de la composante rouge en fonction de la composante bleue et de la composante verte en fonction de la composante bleue dans le domaine visible ;
illustre en détail une autre étape du procédé de calibration selon un mode particulier de réalisation ;
illustre un procédé de génération d’une image infra-rouge et d’une image couleur à partir d’une image brute acquise par le système d’acquisition selon un mode de réalisation particulier ;
représente une partie d’une image brute obtenue par le système d’acquisition d’image selon l’invention ;
représente une partie d’une image brute dans le spectre visible obtenue par le système d’acquisition d’image selon l’invention ;
représente une partie d’une image brute dans le spectre infra-rouge obtenue par le système d’acquisition d’image selon l’invention ;
illustre un procédé de génération d’une image infra-rouge et d’une image couleur à partir d’une image brute acquise par le système d’acquisition selon un autre mode de réalisation particulier ;
illustre un dispositif d’authentification selon un mode de réalisation ; et
illustre un procédé d’authentification selon un mode de réalisation.
EXPOSE DETAILLE DE MODES DE REALISATION
LaFig.1 Aillustre un système d’acquisition d’images 1 selon un mode de réalisation. Le système d’acquisition d’image 1 comprend un objectif 10 lequel comprend au moins une lentille. L’objectif 10 est configuré pour focaliser la lumière reçue en entrée du système d’acquisition 1 sur un capteur 14, tel qu’un capteur CCD (« Charge Couple Device » en terminologie anglo-saxonne) ou CMOS (« Complementary Metal Oxide Semiconductor » en terminologie anglo-saxonne). Le capteur 14 est composé d’une pluralité de photosites.
Le système d’acquisition 1 comprend également un réseau de filtres couleur 12 (« Color Filter Array » ou CFA en anglais) également connu sous le nom de matrice de Bayer. Le réseau de filtres 12 est placé entre l’objectif 10 et le capteur 14 de telle sorte que chaque photosite dudit capteur ne voie qu’une seule couleur : rouge (photosite R), bleue (photosite B) ou verte (photosite G). L’objectif 10, le réseau de filtres couleur 12 et le capteur 14 sont des modules que l’on trouve dans les caméras RGB conventionnelles. Les caméras RGB conventionnelles comprennent en outre un filtre infra-rouge qui filtre les longueurs d’onde de la lumière se situant dans l’infra-rouge, i.e. les longueurs d’ondes supérieures à 700 nm.
Le système d’acquisition 1 ne comprend pas un tel filtre infra-rouge. Dès lors avec le système d’acquisition 1, de l’information liée à l’infra-rouge est récupérée par chacun des photosites R, G et B. Le bloc 2 comprenant l’objectif 10, le réseau de filtres couleur 12 et le capteur 14 peut provenir d’une caméra RGB conventionnelle de laquelle on aura ôté le filtre infra-rouge.
Le système d’acquisition 1 comprend également un filtre passe haut 8. Le filtre passe-haut 8 est configuré pour atténuer la composante bleue de la lumière. En effet, le spectre de la lumière bleue est le plus éloigné du spectre de la lumière infra-rouge. Il est donc plus facile d’atténuer le bleu sans atténuer l’infra-rouge afin notamment de récupérer de l’information infra-rouge (IR) sur les photosites bleus. Le filtre passe-haut 8 est par exemple configuré pour éliminer les longueurs d’onde inférieures à 500 nm. En effet, en utilisant une fréquence de coupure de 500 nm une grande partie de la composante bleue de la lumière est éliminée en entrée du système d’acquisition 1. Le filtre passe-haut 8 est par exemple placé devant l’objectif 10 à l’entrée du système d’acquisition 1 comme illustré sur la Fig 1A. Le filtre passe-haut 8 peut également être intercalé à tout endroit entre les éléments constituant l’objectif 10 (par exemple au niveau de la pupille). Il peut encore être placé juste devant ou posé sur le réseau de filtres couleur 12.
Le système d’acquisition 1 comprend également un module de traitement 16. Le module de traitement 16 reçoit en entrée une image brute (« Raw image » en anglais) en provenance du capteur 14 et génère une image brute infra-rouge IIRet une image brute couleur IVIS. Une image brute est constituée de l'information photonique obtenue, après la conversion par les photosites des photons incidents en un signal électique numérisé. Une partie d’une telle image brute est illustrée par la Fig. 1B. Aucun autre traitement (e.g. filtrage, déconvolution, dématriçage, balance des blancs, etc) n'est appliqué sur cette image brute. Ainsi, au niveau du capteur 14, à chaque photosite situé sous chaque filtre du réseau de filtres 12 correspond exactement un pixel de l’image brute, R, G (G1 et G2) ou B.
Une cellule CFA (B-G-G-R ou R-G-G-B par exemple) est alors utilisée pour générer un code couleur RGB dans une image RGB finale, laquelle peut être affichée sur un écran. Dans le cas de la Fig.1B, on parle de structure CFA 2x2. En effet, une cellule CFA d’indice m, notée C(m) avec m entier, correspond à 2x2 filtres du réseau de filtres, i.e. 2x2 pixels de l’image brute : 1 pixel R, 1 pixel B et 2 pixels G (G1 et G2). D’autres systèmes peuvent posséder une structure CFA de plus grande taille. Ainsi, il existe des structures CFA dans lesquelles une cellule CFA correspond à 16x16 filtres du réseau de filtres, i.e. 16x16 pixels de l’image brute.
Le module de traitement 16 est configuré pour calibrer le système d’acquisition d’image 1. Le module de traitement 16 est donc apte à mettre en œuvre le procédé de calibration décrit en référence à la Fig. 3 pour déterminer des paramètres de calibration.
Le module de traitement 16 est également configuré pour générer une image brute infra-rouge IIRet une image couleur IVISà partir d’une image brute acquise par le capteur 14 et des paramètres de calibration déterminés. Le module de traitement 16 est donc apte à mettre en œuvre le procédé de génération des images IIRet IVISdécrit en référence à la Fig. 8. Avantageusement, le module de traitement 16 génère des images IIRet IVISqui sont synchronisées.
Le système d’acquisition 1 peut comprendre d’autres éléments bien connus des caméras RGB conventionnelles. Ces éléments ne sont pas représentés sur la Fig. 1A. Les éléments de l’objectif 10 peuvent contenir des traitements optiques de type antireflet pour augmenter le rapport signal-à-bruit dans les images acquises. Le système d’acquisition 1 comprend généralement un réseau de micro-lentilles positionné au-dessus du capteur 14 dont le rôle est d'optimiser la collecte de la lumière par les photosites. Le système d’acquisition 1 comprend également un module de traitement du signal (non représenté sur la Fig. 1A) en sortie du capteur 14. Son rôle est de reconstituer, pixel par pixel, les deux informations colorées manquantes, via un algorithme de « dématriçage ». Le document de Alleyson et al intitulé « Linear demosaicing inspired by the human visual system » publié en avril 2005 dans IEEE Transactions on Image Processing 14 (4), 439-449 est un exemple d’un tel algorithme.
Le module de traitement du signal et le module de traitement 16 peuvent être intégrés dans un seul et même module ou bien être des modules distincts.
Le système d’acquisition 1 peut être obtenu à partir d’une caméra RGB conventionnelle de laquelle on enlève le filtre IR, à laquelle on ajoute un filtre passe haut 8 devant l’objectif 10 et à laquelle on connecte le module de traitement 16. Dans une variante, le système d’acquisition 1 peut être obtenu à partir d’une caméra RGB conventionnelle dans laquelle le réseau de filtres couleur est remplacé par un réseau de filtres conçu pour ne laisser passer que le rouge, le vert et l’IR.
Le système d’acquisition 1 permet avantageusement d’obtenir des images couleur IVISayant une bonne résolution de la composante verte ce qui est important notamment pour les algorithmes opérant sur des images de peau, tels les algorithmes de reconnaissance de visage. En effet, dans le système d’acquisition 1 le nombre de photosites verts reste le double du nombre de photosites rouge et bleu, l’information IR étant récupérée par les photosites bleus. Le système d’acquisition 1 permet en même temps d’obtenir des images infra-rouges IIR.
LaFig. 2illustre schématiquement un exemple d’architecture matérielle du module de traitement 16.
Le module de traitement 16 comprend alors, reliés par un bus de communication 160: un processeur ou CPU (« Central Processing Unit » en anglais) 161 ; une mémoire vive RAM (« Random Access Memory » en anglais) 162 ; une mémoire morte ROM (« Read Only Memory » en anglais) 163; au moins une interface de communication 165 permettant par exemple au module de traitement 16 de communiquer avec le bloc 2 du système d’acquisition 1. Optionnellement, le module de traitement 16 comprend une unité de stockage 164 telle qu’un disque dur ou un lecteur de support de stockage, tel qu’un lecteur de cartes SD (« Secure Digital » en anglais).
Le processeur 161 est capable d’exécuter des instructions chargées dans la RAM 162 à partir de la ROM 163, d’une mémoire externe (non représentée), d’un support de stockage (tel qu’une carte SD), ou d’un réseau de communication. Lorsque le module de traitement 16 est mis sous tension, le processeur 161 est capable de lire de la RAM 162 des instructions et de les exécuter. Ces instructions forment un programme d’ordinateur causant la mise en œuvre, par le processeur 161, des procédés décrits en relation avec la Fig. 3 et la Fig.8.
Les procédés décrits en relation avec les Figs. 3 et 8 peuvent être implémentés sous forme logicielle par exécution d’un ensemble d’instructions par une machine programmable, par exemple un DSP (« Digital Signal Processor » en anglais),un microcontrôleur ou un GPU (processeur graphique, « Graphics Processing Unit » en terminologie anglo-saxonne), ou être implémenté sous forme matérielle par une machine ou un composant dédié, par exemple un FPGA (« Field-Programmable Gate Array » en anglais) ou un ASIC («Application-Specific Integrated Circuit » en anglais).
LaFig. 3illustre un procédé d’acquisition d’une image couleur et d’une image infra-rouge d’une scène à partir du système d’acquisition d’image 1, ladite scène étant éclairée par une lumière infra-rouge et une lumière visible.
Lors d’une étape S1, des premiers et seconds paramètres de calibration sont déterminés. Les premiers paramètres de calibration sont représentatifs des variations linéaires, dans l’infra-rouge, du rouge en fonction du bleu et du vert en fonction du bleu. Les seconds paramètres de calibration étant représentatifs des variations linéaires, dans le visible, du bleu en fonction du vert et du rouge. En effet, les photosites R et G récupèrent également de l’information infra-rouge. De même, les photosites B récupèrent de l’information provenant des composantes rouge et verte de la lumière.
La détermination des paramètres de calibration est effectuée une fois pour toute. Il s’agit donc d’une étape de pré-analyse avant génération des images IIRet IVISpar le système d’acquisition 1 de la Fig. 1A.
Lors d’une étape S2, une image couleur IVISet une image infra-rouge IIRsont générées. A cet effet, lors d’une étape S20, une image brute de ladite scène est obtenue avec le système d’acquisition d’image. Lors d’une étape S22, une image infra-rouge et une image couleur sont générées à partir de l’image brute obtenue et des premiers et seconds paramètres de calibration déterminés. L’étape S22 permet de supprimer (ou au moins d’atténuer) pour les photosites R et G l’information provenant de l’IR et de supprimer (ou au moins d’atténuer) sur les photosites B l’information provenant des composantes rouge et verte de la lumière afin de récupérer uniquement l’information infra-rouge.
LaFig. 4illustre un procédé de calibration du système d’acquisition 1, correspondant à l’étape S1 du procédé d’acquisition de la Fig.3, selon un mode de réalisation. Le procédé de calibration permet de déterminer les quantités de la composante IR qui affectent les photosites rouge et vert. Le procédé de calibration permet également de déterminer les quantités des composantes rouge et verte qui affectent les photosites bleus. A cet effet, une mire couleur calibrée est utilisée, e.g. une mire X-Rite ColorChecker ®. La mire est formée d’un ensemble de patchs couleur. Un patch est une zone uniformément colorée. Les patchs de la mire correspondent à un code couleur standardisé dont les valeurs de R, G et B sont précisément connues. Chaque patch a une couleur différente des autres patchs de la mire.
Lors d’une étape S10, une première image brute de la mire est obtenue par le système d’acquisition d’image 1, la mire étant uniquement éclairée par de la lumière IR. Dans la première image brute obtenue, une valeur R, G ou B est associée à chaque photosite, la valeur B correspondant à de l’information IR. LaFig. 5illustre une image d’une mire, laquelle comprend 24 patchs P.
Lors d’une étape S12, les premiers paramètres de calibration sont déterminés par le module de traitement 16 à partir de la première image obtenue. Un paramètre de calibration αIRest déterminé à partir de la première image obtenue, ce paramètre de calibration représentant le coefficient de la fonction linéaire liant R et B dans le spectre IR : RIR= αIR* BIR. Un autre paramètre de calibration βIRest déterminé à partir de la première image obtenue, cet autre paramètre de calibration représentant le coefficient de la fonction linéaire liant G et B dans le spectre IR: GIR= βIR* BIR.
Les étapes S10 et S12 permettent de déterminer la quantité de la composante IR qui affecte les photosites R et G. Ces premiers paramètres de calibration vont être utilisés par la suite pour supprimer sur les photosites R et G la composante IR et donc récupérer uniquement les valeurs R et G.
Lors d’une étape S14, une seconde image brute de la mire est obtenue par le système d’acquisition d’image 1, la mire étant uniquement éclairée par de la lumière dans le spectre du visible, dite lumière visible, i.e. sans lumière IR. A cet effet, un filtre coupe IR est placé devant l’objectif 10 de la caméra.
Lors d’une étape S16, les seconds paramètres de calibration sont déterminés par le module de traitement 16 à partir de la seconde image obtenue. Un paramètre de calibration αVIS, un paramètre de calibration βVISet un paramètre de calibration γVISsont déterminés à partir de la seconde image obtenue. Ces trois paramètres de calibration représentent les coefficients de la fonction linéaire liant B et R/G dans le spectre visible : BVIS= αVIS* RVIS+ βVIS* GVISVIS.
Les étapes S14 et S16 permettent de déterminer les quantités des composantes R et G qui affectent les photosites B donc l’IR. Ces paramètres de calibration sont utilisés par la suite pour supprimer sur les photosites B les composantes R/G et donc récupérer uniquement l’infra-rouge.
Dans une variante, les étapes S14 et S16 sont effectuées avant les étapes S10 et S14.
LaFig. 6illustre en détail l’étape S12 du procédé de calibration de la Fig. 4 selon un mode particulier de réalisation.
Lors d’une étape S120, des valeurs moyennes R, G et B sont calculées pour chaque patch d’une pluralité de patchs couleur de la mire. Dans un mode particulier de réalisation, des valeurs moyennes R, G et B sont calculées pour chaque patch de la mire.
Dans un mode de réalisation, la valeur R pour un patch courant Pc, illustré sur la Fig.5, est la moyenne des valeurs de R associées aux pixels appartenant à ce patch. La valeur G pour le patch courant Pc est la moyenne des valeurs de G associées aux pixels appartenant à ce patch. La valeur B pour le patch courant Pc est la moyenne des valeurs de B associées aux pixels appartenant à ce patch.
Dans une variante, la valeur R pour un patch courant Pc est la moyenne des valeurs de R associées aux pixels appartenant à une région Rc du patch courant Pc, la région Rc étant plus petite que le patch courant Pc. La valeur G pour un patch donné est la moyenne des valeurs de G associées aux pixels appartenant à la région Rc du patch courant Pc. La valeur B pour un patch donné est la moyenne des valeurs de B associées aux pixels appartenant à la région Rc du patch courant Pc.
Ainsi, à l’issue de l’étape S120, un triplet (R, G, B) est associé à chaque patch d’une pluralité de patchs de la mire. Dans un mode particulier de réalisation, un triplet (R, G, B) est associé à chaque patch de la mire.
Lors d’une étape S122, le paramètre de calibration αIR est déterminé à partir des couples (R, B), par exemple par une méthode des moindres carrés. Il existe de nombreuses autres méthodes pour estimer les modèles linéaires, et donc les coefficients de la fonction linéaire liant R et B dans le spectre IR. On peut par exemple estimer le modèle par maximum de vraisemblance ou encore par inférence bayésienne.
Lors d’une étape S124, le paramètre de calibration βIRest déterminé à partir des couples (G, B), par exemple par une méthode des moindres carrés. Il existe de nombreuses autres méthodes pour estimer les modèles linéaires, et donc les coefficients de la fonction linéaire liant G et B dans le spectre IR. On peut par exemple estimer le modèle par maximum de vraisemblance ou encore par inférence bayésienne.
LaFig. 7représente les variations de R en fonction de B (croix) et de G en fonction de B (points noirs) dans le spectre IR. Chaque croix représente un couple de valeurs (R, B) associé à un patch et chaque point noir représente un couple de valeurs (G, B) associé à un patch. Il est donc possible de déterminer αIRà partir des croix et βIRà partir des points noirs. Dit autrement, αIRest le coefficient directeur de la droite en trait plein et βIRest le coefficient directeur de la droite en trait pointillé. Par exemple, αIR= 0.9496 et βIR= 0.9074.
LaFig. 8illustre en détail l’étape S16 du procédé de calibration de la Fig. 4 selon un mode particulier de réalisation.
Lors d’une étape S160, des valeurs moyennes R, G et B sont calculées pour chaque patch d’une pluralité de patchs couleur de la mire. Dans un mode de réalisation, des valeurs moyennes R, G et B sont calculées pour chaque patch de la mire.
Dans un mode de réalisation, la valeur R pour un patch courant Pc est la moyenne des valeurs de R associées aux pixels appartenant à ce patch. La valeur G pour le patch courant Pc est la moyenne des valeurs de G associées aux pixels appartenant à ce patch. La valeur B pour le patch courant Pc est la moyenne des valeurs de B associées aux pixels appartenant à ce patch.
Dans une variante, la valeur R pour un patch courant Pc est la moyenne des valeurs de R associées aux pixels appartenant à une région Rc du patch courant Pc, la région Rc étant plus petite que le patch courant Pc. La valeur G pour un patch donné est la moyenne des valeurs de G associées aux pixels appartenant à la région Rc du patch courant Pc. La valeur B pour un patch donné est la moyenne des valeurs de B associées aux pixels appartenant à la région Rc du patch courant Pc.
Ainsi, à l’issue de l’étape S160, un triplet (R, G, B) est associé à chaque patch d’une pluralité de patchs de la mire. Dans un mode particulier de réalisation, un triplet (R, G, B) est associé à chaque patch de la mire.
Lors d’une étape S162, les paramètres de calibration αVIS, βVISet γVISsont déterminés à partir des triplets (R, G, B), par exemple par une méthode des moindres carrés. Il existe de nombreuses autres méthodes pour estimer les modèles linéaires, et donc les coefficients, liant B et R, G dans le spectre visible. On peut par exemple estimer le modèle par maximum de vraisemblance ou encore par inférence bayésienne. Par exemple, αVIS= -0.0026, βVIS= 0.217 et γVIS=0.0513.
LaFig. 9 Aillustre un procédé de génération d’une image infra-rouge IIRet d’une image couleur IVISà partir d’une image brute acquise par le capteur 14 et des paramètres de calibration déterminés lors des étapes S12 et S16. Ce procédé correspond à l’étape S2 du procédé d’acquisition de la Fig.3.
Lors d’une étape S20, une image brute I d’une scène est obtenue par le système d’acquisition d’image 1, la scène étant éclairée par une lumière visible et une lumière IR. La scène est par exemple un visage. Notons R la valeur d’un pixel rouge dans l’image brute I, G la valeur d’un pixel vert dans l’image brute I, et B la valeur d’un pixel bleu dans l’image brute I. A noter que la valeur B représente en fait une information infra-rouge.
Lors d’une étape S22, une image IIRet une image couleur IVISde la scène sont obtenues à partir de l’image brute I obtenue à l’étape S20 et des paramètres de calibration déterminés lors des étapes S12 et S16. A cet effet, une matrice M, dite matrice de calibration, de taille 3x3 est construite à partir des paramètres de calibration déterminés à l’étape S12 et S16 comme suit :
L’inverse de la matrice M est notée L. L est obtenue en utilisant les méthodes connues en algèbre linéaire. Les paramètres de calibration sont appliqués (S220) comme suit pour chaque cellule CFA C(m):
où G(m)=(G1(m)+G2(m)) /2, G1(m) et G2(m) sont les valeurs des pixels verts dans la cellule CFA C(m) ; et
où R(m) et B(m) sont les valeurs des pixels rouges et bleus voisins, i.e. dans la même cellule CFA.
L’image obtenue à l’issue de l’étape S220 est une image ayant la même structure que l’image brute I, dans laquelle chaque groupe de 4 pixels correspondant à une cellule CFA de valeurs [B(m), G1(m), G2(m), R(m)] est remplacé par un groupe de 4 pixels de valeurs [BB(m), GG(m), GG(m), RR(m)] comme illustré sur laFig. 9B.
Lors d’une étape S224, l’image IVISet l’image IIRsont générées. Dans l’image IVIS, chaque pixel rouge d’indice ‘m’ a pour valeur RR(m), chaque pixel vert d’indice ‘m’ a pour valeur GG(m) et les pixels bleus ont une valeur nulle comme illustré sur laFig. 9C. Dans l’image IIR, chaque pixel bleu d’indice ‘m’ a pour valeur BB(m), les pixels rouges et verts ont une valeur nulle comme illustré sur laFig. 9 D.
Une étape optionnelle de dématriçage peut être appliquée. Cette étape permet d’obtenir les valeurs manquantes de chaque pixel. En effet, sur l’image IVISde la Fig. 9C, chaque pixel a une seule valeur associée : GG(m), RR(m) ou 0. De même sur l’image IIRde la Fig. 9D, chaque pixel a une seule valeur associée : BB(m) ou 0.
L’étape de dématriçage permet donc d’obtenir une image IVISdans laquelle chaque pixel a trois valeurs associées (R, G, 0), les valeurs R et G étant obtenues à partir des valeurs GG et RR. Une image monochrome IIRest également obtenue dans laquelle chaque pixel a une valeur infra-rouge associée qui correspond à une valeur BB interpolée, l’interpolation se faisant par cellule CFA C(m).
Dans une variante, dans le cas de cellules CFA de taille plus grande que 2x2, e.g. de taille 16x16, la moyenne des valeurs des pixels dans la cellule en question peut être prise en compte. Les paramètres de calibration sont alors appliqués comme suit pour chaque cellule CFA C(m):
où Rav(m), Gav(m) et Bav(m) sont, respectivement, les moyennes des pixels rouges, verts et bleus dans la cellule CFA courante.
Dans une autre variante, les valeurs des pixels situés dans des cellules CFA voisines de la cellule CFA courante d’indice m peuvent être prises en compte lors du calcul des valeurs GG, RR et BB. Les paramètres de calibration sont alors appliqués comme suit pour chaque cellule CFA C(m):
où Rav(m) et Gav(m) et Bav(m) sont, respectivement, les moyennes des pixels rouges, verts et bleus situés dans la cellule CFA courante et dans des cellules CFA voisines.
Pour une cellule CFA courante, les cellules CFA voisines sont par exemple les 8 cellules situées tout autour de la cellule CFA courante. Dans une variante, un sous-ensemble de ces 8 cellules voisines est pris en compte.
Le procédé de génération d’une image infra-rouge IIRet d’une image couleur IVISà partir d’une image brute acquise par le capteur 14 peut être appliqué à une pluralité d’images brutes acquises par le capteur 14 afin d’obtenir une succession d’images infra-rouges IIRet d’images couleur IVIS.
LaFig. 9 Eillustre un procédé de génération d’une image infra-rouge IIRet d’une image couleur IVISà partir d’une image brute acquise par le capteur 14 et des paramètres de calibration déterminés lors des étapes S12 et S16 selon un autre mode de réalisation. Ce procédé correspond à l’étape S2 du procédé d’acquisition de la Fig.3. Les étapes de la Fig.9E identiques à celles de la Fig. 9A sont identifiées sur cette figure par les mêmes références numériques.
Lors d’une étape S20, une image brute I d’une scène est obtenue par le système d’acquisition d’image 1, la scène étant éclairée par une lumière visible et une lumière IR.
Lors d’une étape S219, un procédé de dématriçage est appliqué sur l’image brute I obtenue lors de l’étape S20. Ainsi, pour chaque pixel i de l’image après dématriçage, on obtient trois valeurs correspondant aux trois composantes R, G et B, la valeur B étant une information IR.
Lors de l’étape S220, les paramètres de calibration sont appliqués pixel par pixel sur l’image après dématriçage. Chaque pixel d’indice i de l’image a alors pour composantes [BB(i), GG(i), RR(i)], lesdites composantes étant obtenues comme suit:
Lest l’inverse de la matrice de calibration M précédemment construite avec les premiers et seconds paramètres de calibration.
Lors de l’étape S224, les images IIRet IVISsont générées.
La description qui suit détaille plus particulièrement des modes de réalisation de la présente invention dans un contexte où la partie corporelle est un visage. Elle s’applique toutefois à d’autres parties corporelles telles qu’une partie de la peau d’un doigt, plusieurs doigts, une paume de main, une empreinte digitale, l’iris d’un œil, etc.
LaFig. 10illustre un dispositif d’authentification A selon un mode de réalisation. Le dispositif d’authentification A comprend un système d’acquisition d’image tel que le système d’acquisition 1 décrit en référence à la Fig. 1A et un module de traitement d’image 3.
Le module de traitement d’image 3 comprend un module de reconnaissance de visage 30, un module de détection de fraude 32. Il peut comprendre optionnellement un module 34 d’activation d’accès à un lieu, e.g. un bâtiment, une salle, etc.
Le module de reconnaissance de visage 30 est relié à une base de données 4. La base de données 4 peut faire partie du dispositif d’authentification A ou bien être externe à celui-ci. La base de données stocke des images de visages de personnes autorisées, e.g. de personnes autorisées à accéder à un bâtiment.
La Fig.11illustre un procédé d’authentification tel que mis en œuvre par le dispositif d’authentification A de la Fig. 9A.
L'utilisateur souhaitant être authentifié présente son visage devant le système d’acquisition d’image 1.
Lors d’une étape S30, une image brute d’un visage éclairé par une lumière infra-rouge et visible est obtenue par le système d’acquisition 1.
Lors d’une étape S32, une image couleur IVISet une image infra-rouge IIRsont obtenues à partir des paramètres de calibration du système d’acquisition 1. Des algorithmes connus de dematriçage peuvent être appliqués pour obtenir les valeurs manquantes de chaque pixel. Un tel algorithme permet d’obtenir pour chaque pixel de l’image couleur une valeur R et une valeur G et pour chaque pixel de l’image infra-rouge une valeur IR.
Lors d’une étape S34, un algorithme de reconnaissance de visage est appliqué. Par exemple, l’image couleur IVISobtenue est traitée, e.g. segmentée, pour extraire un visage. Le visage extrait est ensuite comparé avec les images de visage stockées dans la base de données 4. Si le visage extrait est proche au sens d’une certaine métrique d’un visage de la base de données 4 alors le visage extrait est reconnu, sinon le visage est inconnu. Dans une variante, l’algorithme de reconnaissance de visage utilise l’image couleur IVISet l’image IIR. Dans le cas où le visage est inconnu (S36), l’accès est refusé (S38).
Lors d’une étape S40, un algorithme de détection de fraude est appliqué. A cet effet, l’image IIRest utilisée. Dans une variante, l’image infra-rouge IIRet l’image couleur IVISsont utilisées. Un réseau de neurones peut être utilisé à cet effet.
Dans le cas où une fraude est détectée (S42), i.e. que le visage n’est pas authentique (e.g. utilisation d’un masque), l’accès est refusé (S38).
L’accès est validé lors d’une étape S44 uniquement dans le cas où le visage est reconnu et authentifié.
Dans un mode particulier de réalisation, une image I’ est générée en concaténant les images IIRet IVIS. A cet effet, un procédé de dématriçage est appliqué sur les images brutes IIRet IVIS, i.e. après correction par les paramètres de calibration. L’image I’ a donc 3 composantes R, G et IR. Cette image I’ est ensuite utilisée lors des étapes S34 et S40 par des algorithmes de reconnaissance de visage et de détection de fraude. Ces algorithmes peuvent utiliser des réseaux de neurones convolutifs ayant appris leurs coefficients sur des images du type de l’image I’. A cet effet, des réseaux de type resnet peuvent être utilisés. De tels réseaux sont notamment décrits dans le document de He et al. intitulé “Deep residual learning for image recognition” et publié en 2016 dans Proceedings of the IEEE conference on computer vision and pattern recognition (pp. 770-778).
Dans un autre mode de réalisation, l’image couleur IVISavec les deux composantes R et G est colorisée afin de recréer la composante bleue et ainsi obtenir une image I’’ ayant 3 composantes R, G et B. Le procédé décrit dans le document de Zhang et al. intitulé « Colorful image colorization » publié dans ECCV en octobre 2016 est un exemple d’un procédé de colorisation basé sur des réseaux de neurones convolutionnels.
Cette solution permet d’appliquer des algorithmes traditionnels de reconnaissance de visage utilisant classiquement des images couleur RGB. L’algorithme décrit dans le document de Parkhi et al. intitulé “Deep face recognition” et publié en September 2015 dans BMVC (Vol. 1, No. 3, p. 6) est un exemple d’un tel algorithme de reconnaissance de visage. L’image I’’ est utilisée par l’algorithme de reconnaissance de visage lors de S34. L’algorithme de détection de fraude peut utiliser lors de S40 soit uniquement l’image IIR, soit l’image IIRet l’image I’’. A cet effet, l’algorithme décrit dans le document de Agarwal et al intitulé « Face presentation attack with latex masks in multispectral videos » et publié en 2017 dans Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops (pp. 81-89) peut être utilisé.

Claims (14)

  1. Un procédé d’acquisition d’une image couleur et d’une image infra-rouge d’une scène à partir d’un système d’acquisition d’image RGB ne comprenant aucun filtre infra-rouge et comprenant un filtre passe-haut configuré pour atténuer la composante bleue de la lumière de sorte à récupérer une information infra-rouge sur des photosites bleus, ladite scène étant éclairée par une lumière infra-rouge et une lumière visible, ledit procédé comprenant :
    - déterminer (S1) des premiers et seconds paramètres de calibration, lesdits premiers paramètres de calibration étant représentatifs des variations linéaires, dans l’infra-rouge, du rouge en fonction du bleu et du vert en fonction du bleu et lesdits seconds paramètres de calibration étant représentatifs des variations linéaires, dans le visible, du bleu en fonction du vert et du rouge ;
    - obtenir (S2, S20) une image brute de ladite scène avec ledit système d’acquisition d’image ; et
    - générer (S2, S22) une image infra-rouge et une image couleur à partir de ladite image brute de ladite scène et desdits premiers et seconds paramètres de calibration déterminés.
  2. Le procédé d’acquisition selon la revendication 1, dans lequel déterminer des premiers et seconds paramètres de calibration comprend :
    - obtenir une première image brute d’une mire éclairée par de la lumière infra-rouge, ladite mire étant formée d’une pluralité de patchs de couleur ;
    - déterminer lesdits premiers paramètres de calibration à partir de la première image brute obtenue ;
    - obtenir une seconde image brute d’une mire éclairée par de la lumière visible ; et
    - déterminer lesdits seconds paramètres de calibration à partir de la seconde image brute obtenue.
  3. Le procédé d’acquisition selon la revendication 2, dans lequel déterminer lesdits premiers paramètres de calibration à partir de la première image brute obtenue comprend :
    - calculer des valeurs moyennes de rouge, vert et bleu pour chaque patch de la première image brute obtenue ;
    - déterminer un premier paramètre de calibration à partir des couples de valeurs moyennes de rouge et de bleu associées aux patchs ; et
    - déterminer un deuxième paramètre de calibration à partir des couples de valeurs moyennes de vert et de bleu associées aux patchs.
  4. Le procédé d’acquisition selon la revendication 3, dans lequel ledit premier paramètre de calibration et ledit deuxième paramètre de calibration sont obtenus par une méthode des moindres carrés.
  5. Le procédé d’acquisition selon l’une des revendications 2 à 4, dans lequel déterminer lesdits seconds paramètres de calibration à partir de la seconde image brute obtenue comprend :
    - calculer des valeurs moyennes de rouge, vert et bleu pour chaque patch de la seconde image brute obtenue ; et
    - déterminer lesdits seconds paramètres de calibration à partir des triplets de valeurs moyennes de bleu, rouge et vert associées aux patchs.
  6. Le procédé d’acquisition selon l’une des revendications 1 à 5, dans lequel, l’image brute étant formée de groupes de pixels voisins, chaque groupe comprenant un pixel rouge de valeur R, un pixel bleu de valeur B et deux pixels verts, générer une image infra-rouge et une image couleur à partir de ladite image brute de ladite scène et desdits premiers et seconds paramètres de calibration déterminés comprend :
    - déterminer, pour chaque groupe de pixels de l’image brute, des valeurs RR, GG et BB comme suit:

    où G  est la valeur moyenne desdits pixels verts dudit groupe et où L est une matrice inverse d’une matrice de calibration M définie comme suit :

    où αIRet βIRsont les premiers paramètres de calibration, et αVIS, βVISet γVISsont les seconds paramètres de calibration ;
    - générer une image infra-rouge dans laquelle les pixels bleus ont pour valeur BB et les pixels rouges et verts ont une valeur nulle ; et
    - générer une image couleur dans laquelle les pixels verts ont pour valeur GG, les pixels rouges ont pour valeur RR et les pixels bleus ont une valeur nulle.
  7. Un procédé d’authentification d’une partie corporelle caractérisé en ce qu’il comprend :
    - acquérir une image couleur et une image infra-rouge de ladite partie corporelle par le procédé d’acquisition selon l’une des revendications 1 à 6 ; et
    - authentifier la partie corporelle à partir desdites images couleur et infra-rouge.
  8. Le procédé d’authentification d’une partie corporelle selon la revendication 7, dans lequel ladite partie corporelle étant un visage, authentifier la partie corporelle à partir desdites images couleur et infra-rouges comprend :
    - déterminer au moins à partir de ladite image couleur que ledit visage est un visage connu ; et
    - déterminer à partir desdites images couleur et infra-rouges que ledit visage est un visage authentique.
  9. Un système d’acquisition d’une image couleur et d’une image infra-rouge d’une scène, ladite scène étant éclairée par une lumière infra-rouge et une lumière visible, ledit système d’acquisition comprenant un dispositif d’acquisition d’image RGB ne comprenant aucun filtre infra-rouge et comprenant un filtre passe-haut configuré pour atténuer la composante bleue de la lumière de sorte à récupérer une information infra-rouge sur des photosites bleus, ledit système d’acquisition comprenant en outre un module de traitement connecté audit dispositif d’acquisition d’image RGB configuré pour :
    - déterminer des premiers et seconds paramètres de calibration, lesdits premiers paramètres de calibration étant représentatifs des variations linéaires, dans l’infra-rouge, du rouge en fonction du bleu et du vert en fonction du bleu et lesdits seconds paramètres de calibration étant représentatifs des variations linéaires, dans le visible, du bleu en fonction du vert et du rouge ;
    - obtenir une image brute de ladite scène avec ledit système d’acquisition d’image ; et
    - générer une image infra-rouge et une image couleur à partir de ladite image brute de ladite scène et desdits premiers et seconds paramètres de calibration déterminés.
  10. Le système selon la revendication 9, dans lequel, ledit système d’acquisition d’image comprenant un objectif lequel comprend une lentille, ledit filtre passe haut est placé devant ladite lentille.
  11. Le système selon l’une des revendications 9 à 10, lequel est configuré pour mettre en œuvre le procédé d’acquisition selon l’une des revendications 1 à 6.
  12. Un dispositif d’authentification d’une partie corporelle, comprenant :
    - un système d’acquisition d’image selon l’une des revendications 9 à 11 ; et
    - un module de traitement d’image configuré pour effectuer une authentification de ladite partie corporelle à partir desdites images couleur et infra-rouge.
  13. Un programme d’ordinateur, caractérisé en ce qu’il comprend des instructions pour mettre en œuvre, par un dispositif, le procédé d’acquisition selon l’une des revendications 1 à 6, lorsque ledit programme est exécuté par une unité de calcul dudit dispositif.
  14. Des moyens de stockage, caractérisés en ce qu’ils stockent un programme d’ordinateur comprenant des instructions pour mettre en œuvre, par un dispositif, le procédé d’acquisition selon l’une des revendications 1 à 6, lorsque ledit programme est exécuté par une unité de calcul dudit dispositif.
FR1911695A 2019-10-18 2019-10-18 Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé Active FR3102324B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1911695A FR3102324B1 (fr) 2019-10-18 2019-10-18 Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1911695A FR3102324B1 (fr) 2019-10-18 2019-10-18 Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé
FR1911695 2019-10-18

Publications (2)

Publication Number Publication Date
FR3102324A1 true FR3102324A1 (fr) 2021-04-23
FR3102324B1 FR3102324B1 (fr) 2021-10-01

Family

ID=69903259

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1911695A Active FR3102324B1 (fr) 2019-10-18 2019-10-18 Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé

Country Status (1)

Country Link
FR (1) FR3102324B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410412B2 (en) * 2020-01-21 2022-08-09 Egis Technology Inc. Anti-counterfeiting method and system for under-screen fingerprint identification

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160037088A1 (en) * 2014-07-30 2016-02-04 Toshiba Tec Kabushiki Kaisha Object recognition apparatus that performs object recognition based on infrared image and visible image
CN108875472A (zh) * 2017-06-26 2018-11-23 北京旷视科技有限公司 图像采集装置及基于该图像采集装置的人脸身份验证方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160037088A1 (en) * 2014-07-30 2016-02-04 Toshiba Tec Kabushiki Kaisha Object recognition apparatus that performs object recognition based on infrared image and visible image
CN108875472A (zh) * 2017-06-26 2018-11-23 北京旷视科技有限公司 图像采集装置及基于该图像采集装置的人脸身份验证方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
AGARWAL ET AL.: "Face presentation attack with latex masks in multispectral videos", PROCEEDINGS OF THE IEEE CONFÉRENCE ON COMPUTER VISION AND PATTERN RÉCOGNITION WORKSHOPS, 2017, pages 81 - 89
ALLEYSON ET AL.: "Linear demosaicing inspired by the human visual system", IEEE TRANSACTIONS ON IMAGE PROCESSING, vol. 14, no. 4, April 2005 (2005-04-01), pages 439 - 449, XP011128564, DOI: 10.1109/TIP.2004.841200
HE ET AL.: "Deep residual learning for image recognition", PROCEEDINGS OF THE IEEE CONFÉRENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2016, pages 770 - 778, XP055536240, DOI: 10.1109/CVPR.2016.90
PARKHI ET AL.: "Deep face recognition", BMVC, vol. 1, no. 3, September 2015 (2015-09-01), pages 6
ZHANG ET AL.: "Colorful image colorization", ECCV, October 2016 (2016-10-01)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11410412B2 (en) * 2020-01-21 2022-08-09 Egis Technology Inc. Anti-counterfeiting method and system for under-screen fingerprint identification

Also Published As

Publication number Publication date
FR3102324B1 (fr) 2021-10-01

Similar Documents

Publication Publication Date Title
Li et al. Color-decoupled photo response non-uniformity for digital image forensics
EP2515335B1 (fr) Circuit integré imageur et dispositif de capture d'images stéréoscopiques
EP2174289B1 (fr) Procede de traitement d'objet numerique et systeme associe.
EP3657784B1 (fr) Procédé d'estimation d'un défaut d'un système de capture d'images et systèmes associés
WO2003007236A2 (fr) Procede et systeme pour produire la frequence des mises a jour de moyens
FR2964490A1 (fr) Procede de demosaicage d'une image brute numerique, programme d'ordinateur et circuit imageur ou graphique correspondants
WO2003007238A1 (fr) Procede et systeme pour calculer une image transformee a partir d'une image numerique
EP3387824B1 (fr) Système et procédé d'acquisition d'images visibles et dans le proche infrarouge au moyen d'un capteur matriciel unique
FR3053500B1 (fr) Procede de detection de fraude d'un systeme de reconnaissance d'iris
FR3088467A1 (fr) Procede de classification d'une image d'entree representative d'un trait biometrique au moyen d'un reseau de neurones a convolution
WO2020233931A1 (fr) Dispositif de capture d'images à expositions multiples et système de surveillance d'un conducteur associé
EP3608835B1 (fr) Procede de traitement d'images d'empreintes
FR3019352A1 (fr) Systeme d'identification d'un modele d'appareil photographique associe a une image compressee au format jpeg, procede, utilisations et applications associes
FR3102324A1 (fr) Procédé d’acquisition d’une image couleur et d’une image infra-rouge et système mettant en œuvre ledit procédé
FR3071124B1 (fr) Dispositif de capture d'une image hyperspectrale
CA3003931C (fr) Procede de decamouflage d'un objet
EP3072081B1 (fr) Determination de la carte de profondeur image d'une scene
EP2825995B1 (fr) Système pour déterminer l'identification d'un appareil photographique a partir d'une photographie et procédé mis en oeuvre dans un tel système
FR3089662A1 (fr) Procédé de reconnaissance d’objets tels que des panneaux de signalisation au moyen d’une caméra embarquée dans un véhicule automobile
WO2019166720A1 (fr) Détection dynamique de lumière parasite dans une image numérique
FR3095064A1 (fr) Procédés et dispositifs de levée de doute biométrique
FR3066633A1 (fr) Procede de defloutage d'une image
FR3054678B1 (fr) Kit pour dispositif imageur
Nedelcu et al. Hybrid visible+ near infrared color filter array for handheld consumer imaging applications
FR3101504A1 (fr) Dispositif de capture d’images et procédé de capture d’images

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210423

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5