FR3128039A1 - Process for authenticating a shot captured in the passenger compartment of a motor vehicle. - Google Patents

Process for authenticating a shot captured in the passenger compartment of a motor vehicle. Download PDF

Info

Publication number
FR3128039A1
FR3128039A1 FR2110806A FR2110806A FR3128039A1 FR 3128039 A1 FR3128039 A1 FR 3128039A1 FR 2110806 A FR2110806 A FR 2110806A FR 2110806 A FR2110806 A FR 2110806A FR 3128039 A1 FR3128039 A1 FR 3128039A1
Authority
FR
France
Prior art keywords
driver
shot
motor vehicle
zone
passenger compartment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2110806A
Other languages
French (fr)
Inventor
Norbert Rossello
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to FR2110806A priority Critical patent/FR3128039A1/en
Priority to PCT/EP2022/078088 priority patent/WO2023061934A1/en
Priority to EP22800263.0A priority patent/EP4416704A1/en
Publication of FR3128039A1 publication Critical patent/FR3128039A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/08Network architectures or network communication protocols for network security for authentication of entities
    • H04L63/0861Network architectures or network communication protocols for network security for authentication of entities using biometrical features, e.g. fingerprint, retina-scan
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2133Verifying human interaction, e.g., Captcha
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2221/00Indexing scheme relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/21Indexing scheme relating to G06F21/00 and subgroups addressing additional information or applications relating to security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F2221/2139Recurrent verification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Security & Cryptography (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

Procédé d’authentification d’une prise de vue capturée dans un habitacle d’un véhicule automobile. Procédé d’authentification d’une prise de vue candidate (C1, C2, C3, C4) par un capteur d’images (2) fixé dans un habitacle (1) d’un véhicule automobile (100), caractérisé en ce qu’il comprend au moins une des étapes suivantes : une étape (E2) de reconnaissance, dans la prise de vue candidate (C1, C2, C3, C4), d’éléments de l’habitacle (11, 12, 13, 14) situés en bordure d’un visage ou d’un corps d’un conducteur du véhicule automobile (100),une étape (E3) de surveillance, par analyse de plusieurs images issues du capteur (2), de la continuité d’une identité d’un conducteur du véhicule automobile (100) sur la durée totale d’un trajet ininterrompu entre un instant de montée d’un conducteur dans le véhicule automobile (100) et un instant de fin d’un premier intervalle de temps (DT2, DT5) de prises de vues incluant la prise de vue candidate (C1, C2, C3, C4), Figure pour l’abrégé : 6Process for authenticating a shot captured in the passenger compartment of a motor vehicle. Method for authenticating a candidate shot (C1, C2, C3, C4) by an image sensor (2) fixed in a passenger compartment (1) of a motor vehicle (100), characterized in that it comprises at least one of the following steps: a step (E2) of recognition, in the candidate shot (C1, C2, C3, C4), of elements of the passenger compartment (11, 12, 13, 14) located at the edge of a face or body of a driver of the motor vehicle (100), a step (E3) of monitoring, by analysis of several images from the sensor (2), the continuity of an identity of 'a driver of the motor vehicle (100) over the total duration of an uninterrupted journey between a moment of boarding of a driver in the motor vehicle (100) and an end moment of a first time interval (DT2, DT5 ) of shots including the candidate shot (C1, C2, C3, C4), Figure for abstract: 6

Description

Procédé d’authentification d’une prise de vue capturée dans un habitacle d’un véhicule automobile.Process for authenticating a shot captured in the passenger compartment of a motor vehicle.

L’invention concerne un procédé d’authentification d’une prise de vue capturée dans un habitacle d’un véhicule automobile. L’invention porte encore sur un dispositif d’authentification d’une prise de vue capturée dans un habitacle d’un véhicule automobile. L’invention porte également sur un programme d’ordinateur mettant en œuvre le procédé mentionné. L’invention porte enfin sur un support d’enregistrement sur lequel est enregistré un tel programme.The invention relates to a method for authenticating a shot captured in the passenger compartment of a motor vehicle. The invention also relates to a device for authenticating a shot captured in the passenger compartment of a motor vehicle. The invention also relates to a computer program implementing the mentioned method. The invention finally relates to a recording medium on which such a program is recorded.

L’industrie automobile développe aujourd’hui l’utilisation de la reconnaissance faciale pour activer différentes fonctionnalités du véhicule, les fonctionnalités pouvant requérir des niveaux de sécurité plus ou moins élevés. Par exemple, un traitement de reconnaissance faciale utilisé pour valider une transaction bancaire mettra en œuvre un niveau de sécurité plus élevé qu’un traitement de reconnaissance faciale utilisé pour l’accueil personnalisé du conducteur (comprenant par exemple le réglage automatique de la position du siège conducteur).The automotive industry is now developing the use of facial recognition to activate various vehicle features, which may require higher or lower levels of security. For example, facial recognition processing used to validate a bank transaction will implement a higher level of security than facial recognition processing used for personalized driver greeting (including, for example, automatic seat position adjustment driver).

Le traitement de reconnaissance faciale peut se décomposer en trois étapes :
- une étape d’enrôlement correspondant à la capture d’un portait d’une personne candidate par un capteur d’images (notamment une caméra) afin de construire une empreinte biométrique faciale candidate,
- une étape d’identification dans laquelle l’empreinte biométrique faciale candidate est comparée à une base d’empreintes biométriques faciales, la personne étant identifiée si l’une des empreintes de la base correspond à l’empreinte candidate, et
- une étape d’authentification dans laquelle on vérifie que la personne candidate est réellement présente devant la caméra.
Facial recognition processing can be broken down into three steps:
- an enrollment step corresponding to the capture of a portrait of a candidate person by an image sensor (in particular a camera) in order to construct a candidate facial biometric fingerprint,
- an identification step in which the candidate facial biometric fingerprint is compared with a database of facial biometric fingerprints, the person being identified if one of the fingerprints of the database corresponds to the candidate fingerprint, and
- an authentication step in which it is verified that the candidate person is actually present in front of the camera.

L’invention concerne l’étape d’authentification. Elle porte plus particulièrement sur la détection d’une fraude consistant à présenter un leurre en entrée du traitement de reconnaissance faciale, afin d’être faussement identifié et de profiter des droits de la personne usurpée. Un mode de fraude le plus courant et le plus simple de mise en œuvre consiste à présenter des photos ou vidéos de la personne usurpée face au capteur. Il est donc primordial de se prémunir de ce type de fraude.The invention relates to the authentication step. It relates more particularly to the detection of a fraud consisting in presenting a decoy at the input of the facial recognition processing, in order to be falsely identified and to take advantage of the rights of the usurped person. A most common mode of fraud and the easiest to implement consists of presenting photos or videos of the impersonated person facing the sensor. It is therefore essential to guard against this type of fraud.

Selon le type de capteur utilisé pour capturer les images d’une personne (par exemple une caméra RVB ou une caméra infrarouge), différentes technologies permettent de détecter la présence d’un leurre. Par exemple, la technologie par caméra infrarouge permet de discriminer un leurre d’un visage humain en analysant les reflets présents sur l’image capturée. Alternativement, l’authentification à partir des images d’une caméra RGB utilisera la détection des mouvements des yeux ou du visage, la pulsation sanguine, la texture de peau, ou encore la géométrie d’un visage.Depending on the type of sensor used to capture the images of a person (for example an RGB camera or an infrared camera), different technologies can detect the presence of a decoy. For example, infrared camera technology makes it possible to discriminate a decoy from a human face by analyzing the reflections present on the captured image. Alternatively, authentication based on images from an RGB camera will use the detection of eye or face movements, blood pulsation, skin texture, or face geometry.

Ces solutions d’authentification nécessitent d’utiliser des algorithmes coûteux en temps de traitement et en achat de licences. De plus, ces solutions étant essentiellement développées pour le domaine bancaire ou douanier, les traitements proposés sont génériques et peu adaptés aux spécificités de la reconnaissance faciale appliquée au domaine automobile.These authentication solutions require the use of algorithms that are costly in terms of processing time and the purchase of licenses. In addition, since these solutions are essentially developed for the banking or customs sector, the processing offered is generic and poorly adapted to the specificities of facial recognition applied to the automotive sector.

Le but de l’invention est de fournir un procédé d’authentification d’images remédiant aux inconvénients ci-dessus et améliorant les procédés d’authentification d’images connus de l’art antérieur. En particulier, l’invention permet de réaliser un procédé qui soit simple et fiable et qui permette une authentification rapide, fiable et peu couteuse en temps de calcul.The object of the invention is to provide an image authentication method remedying the above drawbacks and improving the image authentication methods known from the prior art. In particular, the invention makes it possible to carry out a method which is simple and reliable and which allows rapid, reliable and inexpensive authentication in terms of calculation time.

A cet effet, l’invention porte sur un procédé d’authentification d’une prise de vue candidate par un capteur d’images fixé dans un habitacle d’un véhicule automobile, comprenant au moins une des étapes suivantes :
- une étape de reconnaissance, dans la prise de vue candidate, d’éléments de l’habitacle situés en bordure d’un visage ou d’un corps d’un conducteur du véhicule automobile,
- une étape de surveillance, par analyse de plusieurs images issues du capteur, de la continuité d’une identité d’un conducteur du véhicule automobile sur la durée totale d’un trajet ininterrompu entre un instant de montée d’un conducteur dans le véhicule automobile et un instant de fin d’un premier intervalle de temps de prises de vues incluant la prise de vue candidate,
- une étape de surveillance de la continuité de mouvements d’un conducteur du véhicule automobile et/ou de reconnaissance de mouvements d’un conducteur du véhicule automobile parmi un ensemble prédéfini de mouvements compatibles avec une situation de conduite, par analyse des images issues du capteur sur un deuxième intervalle de temps continu incluant un premier intervalle de temps de prises de vues incluant la prise de vue candidate, et le deuxième intervalle de temps débutant au plus tard au début du premier intervalle de temps, le premier intervalle de temps étant par exemple initié par une requête d’authentification émise par une application d’un véhicule automobile.
To this end, the invention relates to a method for authenticating a candidate shot by an image sensor fixed in a passenger compartment of a motor vehicle, comprising at least one of the following steps:
- a recognition step, in the candidate shot, of elements of the passenger compartment located at the edge of a face or a body of a driver of the motor vehicle,
- a step of monitoring, by analysis of several images from the sensor, the continuity of an identity of a driver of the motor vehicle over the total duration of an uninterrupted journey between a moment of boarding of a driver in the vehicle automobile and an end time of a first time interval of shots including the candidate shot,
- a step of monitoring the continuity of movements of a driver of the motor vehicle and/or of recognizing movements of a driver of the motor vehicle from among a predefined set of movements compatible with a driving situation, by analyzing the images from the sensor over a second continuous time interval including a first time interval of shots including the candidate shot, and the second time interval starting at the latest at the start of the first time interval, the first time interval being by example initiated by an authentication request sent by an application of a motor vehicle.

Le procédé d’authentification peut comprendre une étape de réception d’une requête d’authentification d’une prise de vue, la requête d’authentification étant issue d’une application sécurisée par reconnaissance faciale du véhicule automobile.The authentication method may comprise a step of receiving an authentication request for a shot, the authentication request coming from an application secured by facial recognition of the motor vehicle.

Le procédé d’authentification peut comprendre, précédant l’étape de réception d’une requête, une étape d’initialisation d’une position et d’une géométrie d’un ensemble d’éléments de l’habitacle à partir d’au moins une prise de vue de référence de l’habitacle vide capturée par le capteur,
et l’étape de reconnaissance peut comprendre
- une sous-étape de détermination d’un contour d’un visage et d’un corps d’un conducteur,
- une sous-étape de détermination d’un ensemble de zones dites probatoires de la prise de vue candidate, réparties sur le contour d’un visage et d’un corps d’un conducteur, de sorte que chaque zone de l’ensemble de zones probatoires comprend à la fois une portion d’un visage d’un conducteur et une portion de l’habitacle, la détermination d’une zone probatoire comprenant la détermination de sa position et de sa géométrie, et
- une sous-étape de comparaison du contenu de chaque zone de l’ensemble de zones probatoires au contenu d’une zone de référence de la prise de vue de référence, la zone de référence étant à la même position et de même géométrie que la zone probatoire.
The authentication method may comprise, preceding the step of receiving a request, a step of initializing a position and a geometry of a set of elements of the passenger compartment from at least a reference shot of the empty passenger compartment captured by the sensor,
and the recognition step may include
- a sub-step of determining an outline of a face and a body of a driver,
- a sub-step of determining a set of so-called probationary zones of the candidate shot, distributed over the contour of a face and a body of a driver, so that each zone of the set of probationary zones includes both a portion of a driver's face and a portion of the passenger compartment, the determination of a probationary zone comprising the determination of its position and its geometry, and
- a sub-step of comparing the content of each zone of the set of probationary zones with the content of a reference zone of the reference shot, the reference zone being at the same position and of the same geometry as the probationary area.

La sous-étape de comparaison peut s’effectuer, pour chaque zone probatoire, sur une sous-zone de contexte correspondant à une portion de la zone probatoire excluant un visage et/ou un corps d’un conducteur.The comparison sub-step can be performed, for each probationary zone, on a context sub-zone corresponding to a portion of the probationary zone excluding a face and/or a body of a driver.

La sous-étape de comparaison peut comprendre un calcul d’un taux de corrélation spatiale entre chacune des zones de contexte et une zone de référence correspondante, et une comparaison de chaque taux de corrélation à un seul minimal,
et la prise de vue candidate peut être authentifiée si tous les taux de corrélation sont supérieurs au seuil minimal, et la prise de vue candidate peut être rejetée dans le cas contraire.
The comparison sub-step may comprise a calculation of a spatial correlation rate between each of the context zones and a corresponding reference zone, and a comparison of each correlation rate with a single minimum,
and the candidate shot may be authenticated if all the correlation rates are above the minimum threshold, and the candidate shot may be rejected if not.

Les taux de corrélation spatiale peuvent être calculés par un réseau de neurones, notamment par un réseau de neurones convolutifs.The spatial correlation rates can be calculated by a neural network, in particular by a convolutional neural network.

Le procédé peut comprendre l’étape de surveillance de la continuité de mouvements d’un conducteur du véhicule automobile et/ou de reconnaissance de mouvements d’un conducteur du véhicule automobile s’effectuant à une période donnée, et le délai entre le début du deuxième intervalle de temps et le début du premier intervalle de temps peut être égal à six fois ou environ six fois la période donnée.The method may comprise the step of monitoring the continuity of movements of a driver of the motor vehicle and/or of recognizing movements of a driver of the motor vehicle taking place at a given period, and the delay between the start of the second time interval and the beginning of the first time interval can be equal to six times or about six times the given period.

Le véhicule automobile peut être équipé d’un système de détection de la somnolence d’un conducteur, le système de détection de la somnolence d’un conducteur pouvant recevoir des prises de vues capturées par le capteur, et l’étape de surveillance de la continuité d’une identité d’un conducteur peut comprendre une réception d’un diagnostic issu du système de détection de la somnolence d’un conducteur.The motor vehicle may be equipped with a driver drowsiness detection system, the driver drowsiness detection system being capable of receiving shots captured by the sensor, and the step of monitoring the continuity of a driver's identity may include receiving a diagnosis from the driver's drowsiness detection system.

Le véhicule automobile peut être équipé d’un système de surveillance de la vigilance d’un conducteur, le système de surveillance de la vigilance pouvant recevoir des prises de vues capturées par le capteur, et l’étape de surveillance de la continuité de mouvements d’un conducteur peut comprendre une réception d’un diagnostic issu du système de surveillance de la vigilance d’un conducteur.The motor vehicle may be equipped with a system for monitoring the vigilance of a driver, the vigilance monitoring system being able to receive shots captured by the sensor, and the step for monitoring the continuity of movements of A driver may include receiving a diagnosis from a driver's alertness monitoring system.

L’invention porte également sur un dispositif d’authentification d’une prise de vue candidate d’un habitacle d’un véhicule automobile équipé d’un capteur d’images. Le dispositif comprend des éléments matériels et/ou logiciels mettant en œuvre le procédé tel que défini précédemment, notamment des éléments matériels et/ou logiciels conçus pour mettre en œuvre le procédé selon l’invention, et/ou le dispositif comprenant des moyens de mettre en œuvre le procédé tel que défini précédemment.The invention also relates to a device for authenticating a candidate shot of a passenger compartment of a motor vehicle equipped with an image sensor. The device comprises hardware and/or software elements implementing the method as defined previously, in particular hardware and/or software elements designed to implement the method according to the invention, and/or the device comprising means of implement the method as defined previously.

L’invention porte également sur un produit programme d’ordinateur comprenant des instructions de code de programme enregistrées sur un support lisible par ordinateur pour mettre en œuvre les étapes du procédé tel que défini précédemment lorsque ledit programme fonctionne sur un ordinateur. L’invention porte également sur un produit programme d’ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support de données lisible par un ordinateur et/ou exécutable par un ordinateur, comprenant des instructions qui, lorsque le programme est exécuté par l’ordinateur, conduisent celui-ci à mettre en œuvre le procédé tel que défini précédemment.The invention also relates to a computer program product comprising program code instructions recorded on a computer-readable medium to implement the steps of the method as defined above when said program runs on a computer. The invention also relates to a computer program product downloadable from a communication network and/or recorded on a data carrier readable by a computer and/or executable by a computer, comprising instructions which, when the program is executed by the computer, lead it to implement the method as defined previously.

L’invention porte encore sur un support d’enregistrement de données, lisible par un ordinateur, sur lequel est enregistré un programme d’ordinateur comprenant des instructions de code de programme de mise en œuvre du procédé tel que défini précédemment. L’invention porte encore sur un support d'enregistrement lisible par ordinateur comprenant des instructions qui, lorsqu'elles sont exécutées par un ordinateur, conduisent celui-ci à mettre en œuvre le procédé tel que défini précédemment.The invention also relates to a data recording medium, readable by a computer, on which is recorded a computer program comprising program code instructions for implementing the method as defined above. The invention also relates to a computer-readable recording medium comprising instructions which, when executed by a computer, lead the latter to implement the method as defined previously.

Le dessin annexé représente, à titre d’exemple, un mode de réalisation d’un dispositif d’authentification d’images selon l’invention et un mode d’exécution d’un procédé d’authentification d’images selon l’invention.The appended drawing shows, by way of example, an embodiment of an image authentication device according to the invention and an embodiment of an image authentication method according to the invention.

La représente un véhicule automobile équipé d’un dispositif d’authentification. There represents a motor vehicle equipped with an authentication device.

La décrit un mode de réalisation d’un système d’identification d’une personne dans une prise de vue. There describes an embodiment of a system for identifying a person in a shot.

La représente une prise de vue de l’habitacle du véhicule automobile équipé d’un dispositif d’authentification. There represents a shot of the passenger compartment of the motor vehicle equipped with an authentication device.

La représente des positions relatives d’un capteur d’images et d’un siège conducteur selon différents réglages du siège conducteur. There represents relative positions of an image sensor and a driver's seat according to different settings of the driver's seat.

La est un ordinogramme d’un mode d’exécution d’un procédé d’authentification d’images selon l’invention. There is a flowchart of an embodiment of an image authentication method according to the invention.

La illustre un exemple de zones probatoires relatives à une prise de vue capturée dans l’habitacle. There illustrates an example of probationary zones relating to a shot captured in the passenger compartment.

La illustre le traitement de comparaison en une zone probatoire et une zone de référence correspondant à la zone probatoire. There illustrates the comparison processing in a probationary zone and a reference zone corresponding to the probationary zone.

La illustre un exemple de zones probatoires placées sur une image candidate contenant un leurre. There illustrates an example of probationary areas placed on a candidate image containing a decoy.

La illustre une première séquence d’authentification d’une prise de vue d’un habitacle d’un véhicule équipé d’un système de détection de somnolence d’un conducteur et d’un système de surveillance de la vigilance d’un conducteur. There illustrates a first authentication sequence of a shot of a passenger compartment of a vehicle equipped with a system for detecting drowsiness of a driver and a system for monitoring the vigilance of a driver.

La illustre une deuxième séquence d’authentification d’une prise de vue d’un habitacle d’un véhicule équipé d’un système de détection de somnolence d’un conducteur et d’un système de surveillance de la vigilance d’un conducteur. There illustrates a second authentication sequence of a shot of a passenger compartment of a vehicle equipped with a system for detecting drowsiness of a driver and a system for monitoring the vigilance of a driver.

La est une représentation alternative d’un procédé d’authentification d’une prise de vue d’un habitacle comprenant une étape de reconnaissance d’éléments de l’habitacle. There is an alternative representation of a method for authenticating a shot of a passenger compartment comprising a step for recognizing elements of the passenger compartment.

La est une représentation alternative d’un procédé d’authentification d’une prise de vue d’un habitacle comprenant une étape de détection de la continuité d’une identité d’un conducteur. There is an alternative representation of a method for authenticating a shot of a passenger compartment comprising a step of detecting the continuity of a driver's identity.

La est une représentation alternative d’un procédé d’authentification d’une prise de vue d’un habitacle comprenant une étape de détection de la continuité des mouvements d’un conducteur. There is an alternative representation of a method for authenticating a shot of a passenger compartment comprising a step of detecting the continuity of the movements of a driver.

La illustre la détection d’une authentification frauduleuse à partir de données traitées par un procédé de surveillance de la vigilance du conducteur. There illustrates the detection of fraudulent authentication from data processed by a process for monitoring the vigilance of the driver.

Un exemple d’un véhicule automobile 100 équipé d’un mode de réalisation d’un dispositif d’authentification d’images est décrit ci-après en référence à la .An example of a motor vehicle 100 equipped with an embodiment of an image authentication device is described below with reference to the .

Le véhicule automobile 100 peut être un véhicule de tout type, par exemple un véhicule de tourisme ou un véhicule utilitaire, ou un véhicule de transport en commun.The motor vehicle 100 can be a vehicle of any type, for example a passenger vehicle or a utility vehicle, or a public transport vehicle.

Le véhicule automobile 100 comprend principalement :
- un habitacle 1 définissant l’espace intérieur du véhicule automobile 100,
- un capteur d’images 2 disposé dans l’habitacle 1,
- un ensemble 3 de systèmes de gestion du conducteur analysant des prises de vues capturées par le capteur d’images 2, l’ensemble 3 comprenant un système de reconnaissance faciale 4, et
- un ensemble 5 d’applications sécurisées par reconnaissance faciale communiquant avec le système de reconnaissance faciale 4.
Motor vehicle 100 mainly comprises:
- a passenger compartment 1 defining the interior space of the motor vehicle 100,
- an image sensor 2 arranged in the passenger compartment 1,
- a set 3 of driver management systems analyzing shots captured by the image sensor 2, the set 3 comprising a facial recognition system 4, and
- a set 5 of applications secured by facial recognition communicating with the facial recognition system 4.

Dans un mode de réalisation, l’ensemble d’applications 5 peut, par exemple, comprendre :
- une application 51 d’accueil personnalisé du conducteur utilisant la reconnaissance faciale du conducteur et permettant par exemple de paramétrer des réglages du véhicule en fonction des préférences du conducteur, notamment le réglage de la position du siège conducteur,
- une application 52 de gestion de transactions bancaires validées par reconnaissance faciale du conducteur, ces paiements pouvant concerner par exemple le règlement d’un parking, d’un péage ou de carburant,
- une application 53 de démarrage du véhicule, permettant de démarrer automatiquement le véhicule par reconnaissance faciale du conducteur.
In one embodiment, application set 5 may, for example, include:
- a personalized welcome application 51 for the driver using the driver's facial recognition and allowing for example to configure vehicle settings according to the preferences of the driver, in particular the adjustment of the position of the driver's seat,
- an application 52 for managing bank transactions validated by the driver's facial recognition, these payments being able to concern, for example, the payment of parking, a toll or fuel,
- A vehicle start application 53, allowing the vehicle to be started automatically by facial recognition of the driver.

Dans un mode de réalisation préférentiel, lorsqu’une application 51, 52, 53, est démarrée automatiquement ou par un usager du véhicule (notamment un conducteur du véhicule), l’application émet une requête de reconnaissance faciale RRF vers le système de reconnaissance faciale 4.In a preferred embodiment, when an application 51, 52, 53 is started automatically or by a user of the vehicle (in particular a driver of the vehicle), the application sends a facial recognition request RRF to the facial recognition system 4.

Préférentiellement, le système de reconnaissance faciale 4 peut fournir un traitement différencié selon l’application, afin de tenir compte du niveau de sécurité requis par chacune des applications 51, 52, 53.Preferably, the facial recognition system 4 can provide differentiated processing depending on the application, in order to take account of the level of security required by each of the applications 51, 52, 53.

Par exemple, l’application 53 de démarrage du véhicule nécessite un traitement de reconnaissance faciale très sécurisé afin d’empêcher le vol du véhicule, alors qu’une utilisation frauduleuse du système de reconnaissance faciale associée à l’application 51 d’accueil personnalisé du conducteur aura des conséquences limitées.For example, the vehicle start-up application 53 requires very secure facial recognition processing in order to prevent the theft of the vehicle, while fraudulent use of the facial recognition system associated with the personalized welcome application 51 of the driver will have limited consequences.

De plus, la fréquence d’utilisation du traitement de reconnaissance faciale est variable selon l’application 51, 52, 53 :
- pour l’application 53 de démarrage du véhicule, la reconnaissance faciale s’effectuera uniquement à chaque démarrage du véhicule,
- pour l’application 52 de gestion de transactions bancaires, la reconnaissance faciale pourra s’effectuer à plusieurs reprises entre deux démarrages de véhicule (par exemple lors de paiements successifs de péages).
In addition, the frequency of use of facial recognition processing varies according to the application 51, 52, 53:
- for the vehicle start-up application 53, facial recognition will only take place each time the vehicle is started,
- for the application 52 for managing banking transactions, facial recognition can be performed several times between two vehicle starts (for example during successive toll payments).

Il serait ainsi acceptable pour l’usager du véhicule de se soumettre à un traitement de reconnaissance faciale potentiellement long (du fait d’un niveau d’authentification très poussé), sachant qu’il s’effectue une seule fois au démarrage du véhicule, alors qu’un traitement de reconnaissance faciale associé à une application utilisée plus fréquemment et/ou devant s’exécuter rapidement devra répondre à un compromis entre le niveau d’authentification requis et la rapidité de mise en œuvre de l’authentification.It would thus be acceptable for the user of the vehicle to submit to potentially long facial recognition processing (due to a very advanced level of authentication), knowing that it is carried out only once when the vehicle is started, while a facial recognition processing associated with an application used more frequently and/or having to be executed quickly will have to respond to a compromise between the level of authentication required and the speed of implementation of the authentication.

Par ailleurs, l’utilisation des applications 51, 52, 53, peut s’effectuer selon une temporalité définie. Dans un mode de réalisation, on peut par exemple conditionner l’usage du système utilisateur 52 de gestion de transactions bancaires au fait que la transaction s’effectue durant un trajet ininterrompu entre la montée du conducteur dans le véhicule automobile (impliquant une sécurisation forte du traitement de reconnaissance faciale du conducteur pour le démarrage du véhicule) et le traitement reconnaissance faciale associée à la transaction bancaire. Ainsi, le niveau de sécurité du traitement de reconnaissance faciale associé à la transaction bancaire est renforcé par la condition préalable d’une authentification forte pour le démarrage du véhicule.Furthermore, the use of the applications 51, 52, 53 can take place according to a defined time frame. In one embodiment, it is possible, for example, to condition the use of the user system 52 for managing banking transactions on the fact that the transaction takes place during an uninterrupted journey between the driver getting into the motor vehicle (implying strong security of the facial recognition processing of the driver for starting the vehicle) and facial recognition processing associated with the bank transaction. Thus, the level of security of the facial recognition processing associated with the banking transaction is reinforced by the prerequisite of strong authentication for starting the vehicle.

Le système de reconnaissance faciale 4 décrit dans ce document permet la mise en œuvre d’un traitement de reconnaissance faciale de niveau intermédiaire, pouvant par exemple être utilisé pour authentifier les prises de vues capturées pour le fonctionnement d’un système utilisateur 52 de gestion de transactions bancaires. A cet effet, le système de reconnaissance faciale 4 comprend un sous-système d’identification 6 et une unité de calcul 7 décrite plus loin dans ce document et mettant en œuvre un procédé d’authentification selon l’invention.The facial recognition system 4 described in this document allows the implementation of an intermediate level facial recognition processing, which can for example be used to authenticate the shots captured for the operation of a user system 52 for managing banking transactions. To this end, the facial recognition system 4 comprises an identification subsystem 6 and a calculation unit 7 described later in this document and implementing an authentication method according to the invention.

En outre, le système de reconnaissance faciale 4 peut comprendre des systèmes d’authentification alternatifs 8 équipant le véhicule ; les systèmes 8 peuvent être utilisés lors de reconnaissances faciales relatives à la sécurisation d’applications de l’ensemble d’applications 5, par exemple par l’application 53 de démarrage du véhicule.In addition, the facial recognition system 4 may include alternative authentication systems 8 fitted to the vehicle; the systems 8 can be used during facial recognitions relating to the securing of applications of the set of applications 5, for example by the application 53 of starting the vehicle.

Lorsque le système de reconnaissance faciale 4 reçoit une requête de reconnaissance faciale RRF, il transmet une requête d’identification RI au sous-système d’identification 6 et une requête d’authentification RA à l’unité de calcul 7 ou aux systèmes d’authentification alternatifs 8. Le traitement d’identification peut être exécuté avant le traitement d’authentification. Alternativement, certains traitements d’authentification peuvent être exécutés avant le traitement d’identification.When the facial recognition system 4 receives a facial recognition request RRF, it transmits an identification request RI to the identification subsystem 6 and an authentication request RA to the calculation unit 7 or to the systems of authentication alternatives 8. The identification processing can be executed before the authentication processing. Alternatively, some authentication processing can be executed before the identification processing.

Dans un mode de réalisation, le fonctionnement du sous-système d’identification 6 peut être décrit en référence à la . L’identification d’une personne s’effectue à partir d’une prise de vue candidate.In one embodiment, the operation of the identification subsystem 6 can be described with reference to the . The identification of a person is carried out from a candidate shot.

Une prise de vue candidate est une prise de vue capturée par le capteur 2 qui est destinée à faire l’objet d’un traitement de reconnaissance faciale.A candidate shot is a shot captured by sensor 2 which is intended to be subject to facial recognition processing.

Dans la suite du document, le terme « prise de vue candidate » peut être utilisé pour désigner une prise de vue qui n’a pas encore été authentifiée ou qui est en cours d’authentification. Ce terme peut également désigner une prise de vue dans laquelle l’identité d’un conducteur n’a pas encore été déterminée.In the rest of the document, the term "candidate shot" can be used to refer to a shot that has not yet been authenticated or is in the process of being authenticated. This term can also refer to a shot in which the identity of a driver has not yet been determined.

Dans une première étape Id1, le sous-système d’identification 6 analyse la prise de vue candidate pour en extraire des marqueurs biométriques candidats. Les marqueurs biométriques constituent un identifiant unique d’une personne à partir de la géométrie de son visage et de ses expressions faciales. Des marqueurs biométriques candidats sont des marqueurs biométriques extraits d’une prise de vue candidate capturée par le capteur 2 et destinés à être comparés à une base de données de marqueurs biométriques pour l’identification d’un conducteur du véhicule automobile 100.In a first step Id1, the identification subsystem 6 analyzes the candidate shot to extract candidate biometric markers therefrom. Biometric markers are a unique identifier of a person based on their facial geometry and facial expressions. Candidate biometric markers are biometric markers extracted from a candidate shot captured by the sensor 2 and intended to be compared with a database of biometric markers for the identification of a driver of the motor vehicle 100.

Dans une deuxième étape Id2, le sous-système d’identification 6 compare les marqueurs biométriques candidats aux marqueurs biométriques de chaque personne déjà enregistrée dans une base de données de marqueurs biométriques. Cette comparaison permet de déterminer un score de correspondance entre les marqueurs biométriques candidats et les marqueurs biométriques de chaque personne enregistrée dans la base de données.In a second step Id2, the identification subsystem 6 compares the candidate biometric markers with the biometric markers of each person already registered in a database of biometric markers. This comparison makes it possible to determine a match score between the candidate biometric markers and the biometric markers of each person registered in the database.

Lorsque le score de correspondance entre les marqueurs biométriques candidats et les marqueurs biométriques d’une personne donnée est supérieur à un seuil minimum, dans une troisième étape Id3, le sous-système d’identification 6 détermine l’identité de la personne représentée dans la prise de vue candidate comme étant celle de la personne donnée.When the match score between the candidate biometric markers and the biometric markers of a given person is greater than a minimum threshold, in a third step Id3, the identification subsystem 6 determines the identity of the person represented in the candidate shot as that of the given person.

Le sous-système d’identification 6 peut être commun à toutes les applications utilisatrices 51, 52, 53. Alternativement le système de reconnaissance faciale 4 pourrait comprendre différents sous-systèmes d’identification, chacun étant adapté aux besoins spécifiques d’une ou plusieurs applications utilisatrices 51, 52, 53.The identification subsystem 6 can be common to all the user applications 51, 52, 53. Alternatively, the facial recognition system 4 could comprise different identification subsystems, each being adapted to the specific needs of one or more user applications 51, 52, 53.

Le capteur d’images 2 peut être une caméra de type RGB ou une caméra infrarouge. D’autres modes de réalisation du capteur 2 sont envisageables. Dans la suite du document, les images ou données représentatives des images issues du capteur 2 sont nommées « prises de vue ». Dans la suite du document, on assimile les images aux données représentatives de ces images.The image sensor 2 can be an RGB type camera or an infrared camera. Other embodiments of the sensor 2 are possible. In the rest of the document, the images or data representative of the images coming from the sensor 2 are called “shots”. In the remainder of the document, the images are assimilated to the data representative of these images.

Les prises de vues peuvent être par exemple une photo RGB ou infrarouge ou une vidéo RGB ou infrarouge.The shots can be for example an RGB or infrared photo or an RGB or infrared video.

Une photo ou une vidéo RGB (pour l’acronyme anglais « Red Green Blue ») est une photo ou une vidéo numérique dont la couleur de chaque pixel est définie selon un pourcentage de bleu, de vert et de rouge.An RGB photo or video (for the acronym "Red Green Blue") is a digital photo or video in which the color of each pixel is defined according to a percentage of blue, green and red.

Dans un mode de réalisation, le capteur 2 capture 30 images par seconde. Des capteurs de fréquences plus élevées comme 60, 120 images par secondes peuvent être considérés aussi, bien que moins déployés. Lors de l’émission d’une requête de reconnaissance faciale RRF par une application 51, 52, 53, une prise de vue RRF est transmise au système de reconnaissance faciale 4. La prise de vue C1, C2, C3, C4 peut être une image unique capturée à l’instant d’émission de la requête RRF. Alternativement, une prise de vue C1, C2, C3, C4 peut être une séquence vidéo démarrant à l’instant d’émission de la requête RRF. Une prise de vue pourrait éventuellement être une séquence vidéo démarrant avant l’instant d’émission de la requête RRF, par exemple mettant en œuvre un système de mise en mémoire d’un flux vidéo.In one embodiment, sensor 2 captures 30 images per second. Higher frequency sensors such as 60, 120 frames per second can also be considered, although less deployed. When an RRF facial recognition request is sent by an application 51, 52, 53, an RRF snapshot is transmitted to the facial recognition system 4. The snapshot C1, C2, C3, C4 can be a single image captured at the time of transmission of the RRF request. Alternatively, a shot C1, C2, C3, C4 can be a video sequence starting at the time of transmission of the RRF request. A shot could possibly be a video sequence starting before the time of transmission of the RRF request, for example implementing a system for storing a video stream.

Optionnellement, l’ensemble 3 de systèmes de gestion du conducteur pourrait intégrer un système de contrôle automatique de l’identité du conducteur émettant des requêtes de reconnaissances faciales RRF afin d’effectuer des contrôles, notamment périodiques, de l’identité du conducteur, et ce indépendamment de l’activé des applications 51, 52, 53.Optionally, the set 3 of driver management systems could integrate an automatic driver identity control system issuing RRF facial recognition requests in order to carry out checks, in particular periodic checks, of the driver's identity, and this independently of the activation of applications 51, 52, 53.

Le capteur 2 est fixé à une structure ou un élément non mobile de l’habitacle 1 (pare-brise, rétroviseur central 11, montant de la caisse 12) de sorte que les prises de vues incluent entièrement le visage d’un conducteur, quelle que soit sa taille et quel que soit le réglage de son siège, lorsque le conducteur se trouve installé sur le siège du poste de conduite.The sensor 2 is fixed to a structure or a non-moving element of the passenger compartment 1 (windscreen, central mirror 11, body pillar 12) so that the shots entirely include the face of a driver, whatever whatever their size and whatever their seat adjustment, when the driver is installed on the seat of the driving position.

Le capteur 2 est intangible, c’est-à-dire que sa position et ses réglages ne peut être modifiés.Sensor 2 is intangible, i.e. its position and settings cannot be modified.

Comme cela est plus particulièrement illustré par la , la position et les caractéristiques techniques du capteur 2 définissent un cadrage 101 des prises de vue. Dans cet exemple, le cadrage englobe non seulement le visage du conducteur, mais aussi une main du conducteur et des éléments de l’habitacle. Certains éléments de l’habitacle ont une position fixe par rapport au capteur, comme le tableau de bord, le volant 13, ou les montants de la caisse 12. D’autres éléments ont une position variable par rapport au capteur 2, comme par exemple les sièges avant 14 et arrière et l’accoudoir central.As is particularly illustrated by the , the position and the technical characteristics of the sensor 2 define a framing 101 of the shots. In this example, the framing encompasses not only the driver's face, but also a driver's hand and elements of the passenger compartment. Certain elements of the cabin have a fixed position relative to the sensor, such as the dashboard, the steering wheel 13, or the uprights of the body 12. Other elements have a variable position relative to the sensor 2, such as for example the front 14 and rear seats and the center armrest.

Le cadrage définit ainsi un ensemble d’éléments constants (ou invariants) qui se retrouvent dans la même position quelle que soit la prise de vue issue du capteur 2 (tableau de bord, volant, montant des portières). D’autres éléments variables pourront se déplacer d’une prise vue à l’autre mais seront présents sur toute prise de vue issue du capteur 2 (appui-tête du siège conducteur, ceinture de sécurité…). La illustre par ailleurs une prise de vue de l’habitacle dans laquelle apparaissent le rétroviseur central 11, un montant de portière 12, le volant 13, le dossier du siège conducteur14 de l’habitacle.The framing thus defines a set of constant (or invariant) elements which are found in the same position regardless of the view taken from the sensor 2 (dashboard, steering wheel, door pillar). Other variable elements may move from one shot to another but will be present on any shot taken from sensor 2 (driver's seat headrest, seat belt, etc.). There also illustrates a shot of the passenger compartment in which appear the central mirror 11, a door pillar 12, the steering wheel 13, the backrest of the driver's seat 14 of the passenger compartment.

Dans un mode de réalisation préférentiel, l’ensemble 3 des systèmes de contrôle du conducteur comprend, outre le système 4 de reconnaissance faciale :
- un système 9 de détection de somnolence du conducteur, et/ou
- un système 10 de surveillance de la vigilance du conducteur.
In a preferred embodiment, the set 3 of driver control systems comprises, in addition to the facial recognition system 4:
- a driver drowsiness detection system 9, and/or
- A system 10 for monitoring the vigilance of the driver.

Ces systèmes, bien que destinés à assurer d’autres fonctions, peuvent avantageusement être utilisés pour assurer la mise en œuvre des procédés objets de l’invention. En alternative, des systèmes supplémentaires peuvent être dédiés à la mise en œuvre des procédés objets de l’invention.These systems, although intended to provide other functions, can advantageously be used to ensure the implementation of the methods that are the subject of the invention. Alternatively, additional systems can be dedicated to the implementation of the methods that are the subject of the invention.

Dans le mode de réalisation décrit, les systèmes 9 et 10 fonctionnent en continu, et collaborent avec l’unité de calcul 7, notamment par l’intermédiaire d’une mémoire 110 partagée entre les systèmes de l’ensemble de systèmes 3 de gestion du conducteur.In the embodiment described, the systems 9 and 10 operate continuously, and collaborate with the calculation unit 7, in particular via a memory 110 shared between the systems of the set of systems 3 for managing the driver.

Le système 9 de détection de somnolence utilise des prises de vues issues du capteur 2 pour analyser les mouvements faciaux du conducteur, notamment les mouvements de ses yeux, et détecter des signes de fatigue ou de somnolence du conducteur. La détection de tels signes peut entrainer l’émission d’une alarme visuelle ou sonore à destination du conducteur du véhicule automobile 100.The drowsiness detection system 9 uses images taken from the sensor 2 to analyze the facial movements of the driver, in particular the movements of his eyes, and to detect signs of fatigue or drowsiness of the driver. The detection of such signs can lead to the emission of a visual or audible alarm intended for the driver of the motor vehicle 100.

L’analyse des mouvements faciaux du conducteur s’effectue à une à une période T9 dite de détection de somnolence. Elle comprend avantageusement un traitement d’identification du conducteur, afin d’adapter l’analyse de ses expressions faciales en fonction de ses marqueurs biométriques. Le système 9 peut donc détecter une discontinuité de l’identité du conducteur, lors d’une présentation d’un leurre pour authentifier une prise de vue. Dans ce cas, le système 9 peut enregistrer un diagnostic d’anomalie sur l’identité du conducteur dans une mémoire 110 partagée entre les systèmes 3 de gestion du conducteur.The analysis of the driver's facial movements is carried out at one to a T9 period called drowsiness detection. It advantageously includes driver identification processing, in order to adapt the analysis of his facial expressions according to his biometric markers. The system 9 can therefore detect a discontinuity in the identity of the driver, during a presentation of a decoy to authenticate a shot. In this case, the system 9 can record an anomaly diagnosis on the driver's identity in a memory 110 shared between the driver management systems 3.

La période T9 de détection de somnolence peut, par exemple être égale à une seconde. Dans un mode de réalisation avantageux, la période T9 peut être modifiée en fonction des phases de conduite, et également en fonction des besoins du système d’authentification selon l’invention. Par exemple, la période T9 peut être réduite lorsque véhicule automobile 100 se trouve dans une situation susceptible de générer des transactions bancaires et donc des authentifications de prises de vue.The drowsiness detection period T9 can, for example, be equal to one second. In an advantageous embodiment, the period T9 can be modified according to the driving phases, and also according to the needs of the authentication system according to the invention. For example, the period T9 can be reduced when the motor vehicle 100 finds itself in a situation liable to generate banking transactions and therefore authentications of shots.

A cet effet, le système 9 de détection de somnolence comprend des moyens de traitement d’une demande de modification de la période T9 pouvant être émise par l’un des systèmes de gestion du conducteur, notamment par l’unité de contrôle 7 du système de reconnaissance faciale 4.To this end, the drowsiness detection system 9 comprises means for processing a request for modification of the period T9 which can be issued by one of the driver management systems, in particular by the control unit 7 of the system facial recognition 4.

Le système 10 de surveillance de la vigilance du conducteur utilise des prises de vues issues du capteur 2 pour analyser les mouvements du visage et du corps du conducteur. Dans un mode de réalisation, les mouvements ou postures du conducteur sont comparés à un ensemble E de mouvements ou postures compatibles avec la conduite. Par exemple, les figures 8 et 9 illustrent respectivement sur les graphes G2 et G4 la détection de la position 71 des mains du conducteur sur le volant.The system 10 for monitoring the vigilance of the driver uses images taken from the sensor 2 to analyze the movements of the driver's face and body. In one embodiment, the movements or postures of the driver are compared to a set E of movements or postures compatible with driving. For example, FIGS. 8 and 9 respectively illustrate on graphs G2 and G4 the detection of the position 71 of the driver's hands on the steering wheel.

Dans un mode de réalisation avantageux, le système 10 pourrait en outre détecter un ensemble de mouvements permettant de suspecter une fraude d’authentification, comme par exemple un mouvement de présentation d’un leurre au capteur 2 tel qu’illustré dans la , à l’instant TC. Dans ce cas, le système 10 peut enregistrer un diagnostic d’anomalie sur l’analyse des mouvements du conducteur dans une mémoire 110 partagée entre les systèmes 3 de gestion du conducteur.In an advantageous embodiment, the system 10 could also detect a set of movements making it possible to suspect authentication fraud, such as for example a movement of presentation of a decoy to the sensor 2 as illustrated in the , at time TC. In this case, the system 10 can record an anomaly diagnosis on the analysis of the movements of the driver in a memory 110 shared between the systems 3 for managing the driver.

L’analyse des mouvements du visage et du corps du conducteur s’effectue à une période T10 dite de surveillance. La période T10 peut, par exemple, être égale à une seconde. Dans un mode de réalisation avantageux, la période T10 peut être modifiée en fonction des phases de conduite, et également en fonction des besoins du système d’authentification selon l’invention. Par exemple, la période T10 peut être réduite lorsque véhicule automobile 100 se trouve dans une situation susceptible de générer des transactions bancaires et donc des authentifications de prises de vue.The analysis of the movements of the driver's face and body is carried out at a so-called monitoring period T10. The period T10 can, for example, be equal to one second. In an advantageous embodiment, the period T10 can be modified according to the driving phases, and also according to the needs of the authentication system according to the invention. For example, the period T10 can be reduced when motor vehicle 100 is in a situation likely to generate bank transactions and therefore authentications of shots.

A cet effet, le système 10 de surveillance de la vigilance du conducteur comprend des moyens de traitement d’une demande de modification de la période T10 pouvant être émise par l’un systèmes de gestion du conducteur, notamment par l’unité de contrôle 7 du système de reconnaissance faciale 4.To this end, the system 10 for monitoring the vigilance of the driver comprises means for processing a request for modification of the period T10 which can be issued by one of the driver's management systems, in particular by the control unit 7 facial recognition system 4.

Le système 10 de surveillance de la vigilance du conducteur est capable de déterminer la posture du conducteur en localisant, dans le plan d’une prise de vue de l’habitacle, les coordonnées cartésiennes de points caractéristiques du corps et de la tête du conducteur.The driver vigilance monitoring system 10 is capable of determining the posture of the driver by locating, in the plane of a shot of the passenger compartment, the Cartesian coordinates of characteristic points of the driver's body and head.

Dans l’exemple illustré par la , les points caractéristiques suivants définissent une structure du corps et de la tête du conducteur :
- le point (x1,y1) définit le centre de la tête,
- les points (x2,y2), (x3,y3), (x4,y4), (x5,y5), (x6,y6), (x7,y7) déterminent la position des bras du conducteur,
- les points (x8,y8), (x9,y9) déterminent la position des mains du conducteur,
- d’autres points non représentés sur la peuvent déterminer la position du tronc du conducteur.
In the example illustrated by the , the following characteristic points define a structure of the driver's body and head:
- the point (x1,y1) defines the center of the head,
- the points (x2,y2), (x3,y3), (x4,y4), (x5,y5), (x6,y6), (x7,y7) determine the position of the driver's arms,
- the points (x8,y8), (x9,y9) determine the position of the driver's hands,
- other points not shown on the can determine the position of the driver's trunk.

Les points caractéristiques forment ensemble une structure de segments qui caractérise une posture du conducteur.The characteristic points together form a structure of segments which characterizes a posture of the driver.

La surveillance de la posture du conducteur est par exemple une surveillance de la structure de segments, qui consiste à surveiller les variations de position des points (xi,yi) formant la structure de segments entre un instant t et un instant t+T10, notamment en appliquant la formule suivante :
(∆xi, ∆yi) = (xi(t+T10), yi(t+T10)) - (xi(t), yi(t))
The monitoring of the driver's posture is for example a monitoring of the structure of segments, which consists in monitoring the variations in position of the points (xi, yi) forming the structure of segments between a time t and a time t+T10, in particular by applying the following formula:
(∆xi, ∆yi) = (xi(t+T10), yi(t+T10)) - (xi(t), yi(t))

La comparaison des variations (∆xi, ∆yi) à un seuil maximal peut déterminer des discontinuités de la posture du conducteur.The comparison of the variations (Δxi, Δyi) with a maximum threshold can determine discontinuities in the driver's posture.

La structure de segments permet en outre de caractériser chacune des postures répertoriées dans l’ensemble E de mouvements ou postures compatibles avec la conduite. L’ensemble E peut comprendre par exemple :
- une première structure de segments ST1 décrivant une posture P1 correspondant à une posture de conduite normale,
- une deuxième structure de segments ST2 décrivant une posture P2 dans laquelle le conducteur parle avec un passager en tournant la tête vers lui,
- une troisième structure de segments ST3 décrivant une posture P3 dans laquelle le conducteur fait face aux sièges arrière,
- une quatrième structure de segments ST4 décrivant une posture P4 dans laquelle le conducteur regarde l'écran central pendant un long moment,
- une cinquième structure de segments ST5 décrivant une posture P5 dans laquelle le conducteur utilise son téléphone pour envoyer des SMS, en tournant la tête ou les yeux vers le bas,
- une sixième structure de segments ST6 une posture P6 dans laquelle le conducteur lit un livre ou un journal en tournant la tête ou les yeux vers le bas.
The structure of segments also makes it possible to characterize each of the postures listed in the set E of movements or postures compatible with driving. The set E can include for example:
- a first structure of segments ST1 describing a posture P1 corresponding to a normal driving posture,
- a second structure of segments ST2 describing a posture P2 in which the driver speaks with a passenger by turning his head towards him,
- a third structure of segments ST3 describing a posture P3 in which the driver faces the rear seats,
- a fourth structure of segments ST4 describing a posture P4 in which the driver looks at the central screen for a long time,
- a fifth structure of ST5 segments describing a P5 posture in which the driver uses his phone to send SMS, turning his head or eyes downwards,
- a sixth structure of segments ST6 a posture P6 in which the driver reads a book or a newspaper by turning the head or the eyes downwards.

Dans un cas où le système 10 de surveillance de la vigilance du conducteur détecte des variations soudaines de la structure de segments, par exemple une variation soudaine des points déterminant la localisation des mains, il est avantageux de vérifier que la structure de segments ST captée au moment de la variation soudaine de la structure de segments, est bien décrite dans l’ensemble E. Cette vérification permettra de renforcer une suspicion d’authentification frauduleuse lorsque la structure de segments ST n’est pas décrite dans l’ensemble E.In a case where the driver vigilance monitoring system 10 detects sudden variations in the structure of segments, for example a sudden variation in the points determining the location of the hands, it is advantageous to check that the structure of ST segments captured at the moment of the sudden variation of the structure of segments, is well described in the set E. This verification will make it possible to reinforce a suspicion of fraudulent authentication when the structure of segments ST is not described in the set E.

Dans un mode de réalisation, l’ensemble E pourrait contenir en outre une description d’un ensemble de postures suspectes, par exemple des postures caractérisées par des positions de mains suspectes, notamment une posture de mains tenant un leurre, telle que la posture représentée dans la sur l’intervalle de temps DT5 de tentative de fraude. Ainsi, une tentative de fraude pourrait être détectée ou confirmée lorsque la posture du conducteur figure parmi les postures suspectes répertoriées dans l’ensemble E.In one embodiment, the set E could also contain a description of a set of suspicious postures, for example postures characterized by suspicious hand positions, in particular a posture of hands holding a decoy, such as the posture represented in the on the fraud attempt time interval DT5. Thus, a fraud attempt could be detected or confirmed when the driver's posture is among the suspicious postures listed in set E.

En outre, la mémoire partagée 110 comprend avantageusement des informations relatives aux personnes habilitées à conduire le véhicule, ou des personnes autorisées à utiliser une des applications sécurisées par reconnaissance faciale. Les informations contenues dans la mémoire partagée peuvent comprendre les empreintes biométriques faciales des personnes habilitées à conduire le véhicule. Ces empreintes seront utilisées lors de l’identification du visage du conducteur du véhicule parmi les personnes habilitées à conduire le véhicule.Furthermore, the shared memory 110 advantageously includes information relating to persons authorized to drive the vehicle, or persons authorized to use one of the applications secured by facial recognition. The information contained in the shared memory may include the facial biometric fingerprints of the persons authorized to drive the vehicle. These fingerprints will be used when identifying the face of the driver of the vehicle among the persons authorized to drive the vehicle.

Dans un mode de réalisation, la mémoire 110 permet aux systèmes d’authentification alternatifs 8 de partager des informations avec l’unité de commande 7. Par exemple, la mémoire 110 peut contenir des informations concernant les réussites ou échecs des authentifications réalisées par chacun des systèmes d’authentification alternatifs 8.In one embodiment, the memory 110 allows the alternative authentication systems 8 to share information with the control unit 7. For example, the memory 110 can contain information concerning the successes or failures of the authentications carried out by each of the alternative authentication systems 8.

Le véhicule automobile 100 peut également comprendre une mémoire 120 partagée entre l’ensemble 3 de systèmes de gestion du conducteur et l’ensemble 5 d’applications sécurisées par reconnaissance faciale. Par exemple, si le véhicule automobile 100 comprend un système utilisateur 51 d’accueil personnalisé du conducteur, alors la position du siège conducteur peut être enregistrée dans la mémoire partagée 120.The motor vehicle 100 can also comprise a memory 120 shared between the set 3 of driver management systems and the set 5 of applications secured by facial recognition. For example, if the motor vehicle 100 includes a personalized driver welcome user system 51, then the position of the driver's seat can be stored in the shared memory 120.

La position du siège conducteur permettra notamment de calculer un angle AP et une distance DP de prise de vue du visage tels que représentés par la . L’angle AP et la distance DP pourront être utilisés lors de l’authentification d’une prise de vue candidate pour vérifier la cohérence de la localisation du visage du conducteur dans la prise de vue candidate, ainsi que les positions relatives des éléments de l’habitacle et du visage du conducteur.The position of the driver's seat will in particular make it possible to calculate an angle AP and a distance DP for shooting the face as represented by the . The AP angle and the DP distance may be used during the authentication of a candidate shot to check the consistency of the location of the driver's face in the candidate shot, as well as the relative positions of the elements of the shot. passenger compartment and the driver's face.

L’unité de calcul 7 comprend un microprocesseur 71, une mémoire électronique locale 72 et des interfaces de communication 73 permettant au microprocesseur 71 de communiquer avec le capteur 2, l’ensemble de systèmes applicatifs 5, le système d’identification 6, le système 9 de détection de somnolence, le système 10 de surveillance de la vigilance du conducteur et les mémoires 110, 120.The calculation unit 7 comprises a microprocessor 71, a local electronic memory 72 and communication interfaces 73 enabling the microprocessor 71 to communicate with the sensor 2, the set of application systems 5, the identification system 6, the system 9 for drowsiness detection, the system 10 for monitoring the vigilance of the driver and the memories 110, 120.

Dans un mode de réalisation, le microprocesseur 71 permet d’exécuter un logiciel comprenant les modules suivants, qui collaborent entre eux :
- un module 710 d’initialisation, qui collabore avec le capteur 2 et la mémoire électronique locale 72,
- un module 711 de réception d’une requête d’authentification, qui collabore avec l’ensemble de systèmes applicatifs 5,
- un module 712 de reconnaissance d’éléments de l’habitacle, qui collabore avec le capteur 2, la mémoire partagée 120 et la mémoire électronique locale 72, et
- un module 713 de surveillance de la continuité de l’identité d’un conducteur du véhicule automobile, qui collabore avec le système 9 de détection de somnolence et la mémoire partagée 110,
- un module 714 de surveillance de la continuité des mouvements d’un conducteur du véhicule automobile, qui collabore avec le système 10 de surveillance de vigilance et la mémoire partagée 110,
- un module 715 de transmission d’une réponse d’authentification qui collabore avec l’ensemble de systèmes applicatifs 5.
In one embodiment, the microprocessor 71 makes it possible to execute software comprising the following modules, which collaborate with each other:
- an initialization module 710, which collaborates with the sensor 2 and the local electronic memory 72,
- a module 711 for receiving an authentication request, which collaborates with the set of application systems 5,
- a module 712 for recognizing elements of the passenger compartment, which collaborates with the sensor 2, the shared memory 120 and the local electronic memory 72, and
- a module 713 for monitoring the continuity of the identity of a driver of the motor vehicle, which collaborates with the drowsiness detection system 9 and the shared memory 110,
- a module 714 for monitoring the continuity of the movements of a driver of the motor vehicle, which collaborates with the vigilance monitoring system 10 and the shared memory 110,
- a module 715 for transmitting an authentication response which collaborates with the set of application systems 5.

Le véhicule automobile 100, en particulier le système 4 de reconnaissance faciale, comprend de préférence tous les éléments matériels et/ou logiciels configurés de sorte à mettre en œuvre le procédé défini dans l’objet de l’invention ou le procédé décrit plus bas.The motor vehicle 100, in particular the facial recognition system 4, preferably comprises all the hardware and/or software elements configured so as to implement the method defined in the subject of the invention or the method described below.

Un mode d’exécution du procédé d’authentification d’une prise de vue est décrit ci-après en référence à la . Dans ce mode d’exécution, le procédé comprend six étapes E0 à E5, les première et deuxième étapes E0, E1 enchainant sur les trois étapes E2, E3 et E4 qui s’exécutent en parallèle ; à l’issue des trois étapes E2, E3 et E4, on renchaine sur une sixième étape E5.One mode of execution of the process for authenticating a shot is described below with reference to the . In this mode of execution, the method comprises six steps E0 to E5, the first and second steps E0, E1 following on from the three steps E2, E3 and E4 which are executed in parallel; at the end of the three steps E2, E3 and E4, we move on to a sixth step E5.

Dans l’étape E0, on initialise une position et une géométrie d’éléments 11, 12, 13, 14 de l’habitacle 1 à partir d’au moins une prise de vue R1 dite de référence de l’habitacle 1 vide. Avantageusement, ce traitement est effectué à partir de différentes prises de vues capturées dans différentes conditions de luminosité. Toutes les prises de vues analysées sont issues du capteur d’images 2.In step E0, a position and a geometry of elements 11, 12, 13, 14 of the passenger compartment 1 are initialized from at least one so-called reference shot R1 of the empty passenger compartment 1. Advantageously, this processing is carried out from different shots captured under different luminosity conditions. All the shots analyzed come from image sensor 2.

Dans un mode de réalisation, différentes positions possibles peuvent être enregistrées pour chaque élément mobile de l’habitacle (par exemple l’appui-tête du siège conducteur).In one embodiment, different possible positions can be stored for each mobile element of the passenger compartment (for example the headrest of the driver's seat).

Chaque élément 11, 12, 13, 14 de l’habitacle est associé à une position et une géométrie projetée dans un plan correspondant au plan de la prise de vue.Each element 11, 12, 13, 14 of the passenger compartment is associated with a position and a geometry projected in a plane corresponding to the shot plane.

Dans l’étape E1, on reçoit une requête d’authentification RA d’une prise de vue candidate C1, C2, C3, C4. Selon l’ordre dans lequel les étapes d’identification et d’authentification sont commandées par le système de reconnaissance faciale 4, la requête d’authentification RA peut provenir
- de l’une des applications sécurisées par reconnaissance faciale, par exemple elle peut provenir de l’application 52 de gestion de transactions bancaires si l’authentification est effectuée avant l’identification ou simultanément à l’identification,
- du système d’identification 6, si l’identification est effectuée avant l’authentification.
In step E1, an authentication request RA for a candidate shot C1, C2, C3, C4 is received. Depending on the order in which the identification and authentication steps are controlled by the facial recognition system 4, the authentication request RA can come
- from one of the applications secured by facial recognition, for example it can come from the application 52 for managing banking transactions if the authentication is carried out before the identification or simultaneously with the identification,
- of the identification system 6, if the identification is carried out before the authentication.

On enchaine ensuite sur les étapes E2, E3 et E4 qui s’exécutent simultanément.We then move on to steps E2, E3 and E4 which run simultaneously.

Dans l’étape E2, plus particulièrement décrite par les figures 6 à 8, on cherche à reconnaitre dans la prise de vue candidate C1, C2 des éléments de l’habitacle 11, 12, 13, 14 situés en bordure d’un visage ou d’un corps d’un conducteur du véhicule automobile 100.In step E2, more particularly described by FIGS. 6 to 8, it is sought to recognize in the candidate shot C1, C2 elements of the passenger compartment 11, 12, 13, 14 situated at the edge of a face or of a body of a driver of motor vehicle 100.

A cet effet, dans une sous-étape E21, on localise le visage et le corps du conducteur dans la prise de vue candidate C1, C2 pour déterminer un contour 102 du visage et du corps du conducteur.To this end, in a sub-step E21, the driver's face and body are located in the candidate shot C1, C2 to determine an outline 102 of the driver's face and body.

Puis, dans une sous-étape E22, on détermine un ensemble de zones ZPi, dites zones probatoires, de la prise de vue candidate C1, C2 réparties sur le contour 102 du visage et du corps du conducteur, de sorte que chaque zone probatoire comprend à la fois une portion du visage du conducteur et une portion de l’habitacle. La détermination d’une zone probatoire ZP comprend la détermination de sa position et de sa géométrie.Then, in a sub-step E22, a set of zones ZP i , called probationary zones, of the candidate shot C1, C2 distributed over the contour 102 of the driver's face and body is determined, so that each probationary zone includes both a portion of the driver's face and a portion of the passenger compartment. Determining a probationary zone ZP includes determining its position and its geometry.

Cette étape peut être exécutée antérieurement et les zones ZPipeuvent être prédéfinies en présupposant une localisation de la tête du conducteur lors de la prise de vue.This step can be executed previously and the zones ZP i can be predefined by presupposing a location of the driver's head during the shooting.

Dans la suite du document, une zone probatoire peut être notée ZP(x,y) ,x et y désignant les coordonnées de la zone probatoire dans le plan de la prise de vue candidate, par exemple les coordonnées du centre de la zone probatoire par rapport au centre de la prise de vue candidate C1.In the rest of the document, a probationary zone can be denoted ZP(x,y) , x and y designating the coordinates of the probationary zone in the plane of the candidate shot, for example the coordinates of the center of the probationary zone by relation to the center of the candidate shot C1.

Ainsi, chaque zone probatoire ZPiest déterminée par sa position (xi, yi) dans le plan de la prise de vue candidate C1, et par sa géométrie Gi. A titre d’exemple, la géométrie Gid’une zone probatoire peut être déterminée comme étant un rectangle de longueur Liet de largeur li.Thus, each probationary zone ZP i is determined by its position (x i , y i ) in the plane of the candidate shot C1, and by its geometry G i . By way of example, the geometry G i of a probationary zone can be determined as being a rectangle of length L i and of width l i .

La illustre un ensemble de huit zones probatoires ZP1 à ZP8 définies pour l’authentification de la prise de vue candidate C1 :
- la zone ZP1 comprend une portion de rétroviseur central 11,
- les zones ZP3 et ZP4 comprennent un montant de la caisse 12 correspondant à une portion de l’encadrement du pare-brise arrière,
- les zones ZP5 et ZP7 comprennent une portion de dossier 14 du conducteur,
- la zone ZP6 comprend une portion du volant 13, et
- les zones ZP2 et ZP8 ne comprennent aucun élément de l’habitacle.
There illustrates a set of eight probationary zones ZP1 to ZP8 defined for the authentication of the candidate shot C1:
- zone ZP1 comprises a portion of central mirror 11,
- zones ZP3 and ZP4 include an upright of the body 12 corresponding to a portion of the frame of the rear windscreen,
- the ZP5 and ZP7 zones include a portion of the driver's backrest 14,
- zone ZP6 includes a portion of steering wheel 13, and
- zones ZP2 and ZP8 do not include any element of the cockpit.

Dans un sous-étape E23, le contenu de chaque zone probatoire ZPiest comparé au contenu d’une zone de référence ZRid’une prise de vue de référence R1 de l’habitacle vide, la zone de référence ZRi, étant de même position (xi, yi) et de même géométrie Gique la zone probatoire ZPi.In a sub-step E23, the content of each probationary zone ZP i is compared with the content of a reference zone ZR i of a reference shot R1 of the empty passenger compartment, the reference zone ZR i being of the same position (x i , y i ) and of the same geometry G i as the probationary zone ZP i .

Pour chaque zone probatoire ZPi, le traitement de comparaison exclut la partie de la zone probatoire ZPi correspondant au visage du conducteur. Autrement dit, pour chaque zone probatoire, on définit une zone de contexte ZCicorrespond à la portion de la zone probatoire ZPireprésentant l’habitacle, et on applique un traitement de comparaison des prises de vues candidate et de référence uniquement sur l’ensemble des zones de contexte ZCi.For each probationary zone ZPi, the comparison processing excludes the part of the probationary zone ZPi corresponding to the face of the driver. In other words, for each probationary zone, a context zone ZC i is defined corresponding to the portion of the probationary zone ZP i representing the passenger compartment, and a comparison processing of the candidate and reference shots is applied only on the set of context zones ZC i .

A titre d’exemple, la illustre la comparaison de la zone probatoire ZP4 avec une zone de référence ZR4 lui correspondant. Le traitement de comparaison exclut la partie de la zone probatoire ZP4 correspondant au visage du conducteur. Autrement dit, le traitement de comparaison porte sur la zone de contexte ZC4 correspond à la portion de ZP4 représentant l’habitacle.For example, the illustrates the comparison of the probationary zone ZP4 with a reference zone ZR4 corresponding to it. The comparison processing excludes the part of the probationary zone ZP4 corresponding to the driver's face. In other words, the comparison processing relates to the context zone ZC4 corresponds to the portion of ZP4 representing the passenger compartment.

La illustre un exemple de zones probatoires ZP11, ZP12, ZP13, ZP14 et ZP15 placées sur une image candidate contenant un leurre L1. La détection des zones probatoires est imprécise : certaines zones probatoires ZP13, ZP14 ne se situent pas en bordure du visage. De plus le contenu des zones probatoires diffère du contenu de l’habitacle. Par exemple, la zone ZP13 ne comprend qu’une partie de rétroviseur 11, la zone ZP12 ne comprend pas le montant de caisse 12 et la zone ZP13 ne comprend pas le dossier du siège conducteur 14.There illustrates an example of probationary zones ZP11, ZP12, ZP13, ZP14 and ZP15 placed on a candidate image containing a decoy L1. The detection of probationary zones is imprecise: certain probationary zones ZP13, ZP14 are not located at the edge of the face. In addition, the content of the probationary areas differs from the content of the passenger compartment. For example, zone ZP13 only includes a mirror part 11, zone ZP12 does not include the body pillar 12 and zone ZP13 does not include the backrest of the driver's seat 14.

Dans un mode de réalisation, la comparaison comprend
- un calcul d’un taux de corrélation spatiale CORiassocié à chacune des zones probatoires ZPisera calculé entre la zone de contexte ZCide la zone probatoire ZPiet une zone de référence correspondante ZRi, et
- une comparaison de chaque taux de corrélation CORià un seul minimal CORMIN, le seuil minimal CORMIN pouvant être de 97% par exemple.
In one embodiment, the comparison includes
- a calculation of a spatial correlation rate COR i associated with each of the probationary zones ZP i will be calculated between the context zone ZC i of the probationary zone ZP i and a corresponding reference zone ZR i , and
a comparison of each correlation rate COR i with a single minimum CORMIN, the minimum threshold CORMIN possibly being 97% for example.

Par exemple, un taux de corrélation COR4associé à la zone probatoire ZP4sera calculé entre la zone de contexte ZC4et la zone de référence ZR4.For example, a correlation rate COR 4 associated with the probationary zone ZP 4 will be calculated between the context zone ZC 4 and the reference zone ZR 4 .

Le taux de corrélation spatiale prend en compte le niveau de similarité entre chaque pixel d’une zone de contexte ZCiet un pixel correspondant d’une zone de référence correspondante ZRi. Avant comparaison des zones, des traitements peuvent être réalisés sur les données de l’une ou plusieurs des prises de vues pour tenir compte du fait que les différentes prises de vues ont pu être réalisées dans des conditions d’éclairage différentes.The spatial correlation rate takes into account the level of similarity between each pixel of a context zone ZC i and a corresponding pixel of a corresponding reference zone ZR i . Before comparing the zones, processing can be carried out on the data of one or more of the shots to take account of the fact that the different shots may have been taken under different lighting conditions.

Le calcul de chaque taux de corrélation spatiale CORipeut être réalisé par un réseau de neurones, notamment un réseau de neurones convolutifs. L’entrainement du réseau de neurones comprend une première phase d’apprentissage de zones de référence dans des prises de vues de l’habitacle vide puis une seconde phase d’apprentissage de la reconnaissance des zones de référence dans des prises de vues candidates.The calculation of each spatial correlation rate COR i can be performed by a neural network, in particular a convolutional neural network. The training of the neural network comprises a first phase of learning reference zones in shots of the empty passenger compartment then a second phase of learning the recognition of reference zones in candidate shots.

Alternativement, le calcul des taux de corrélation spatiale peut se fonder sur une méthode de distance matricielle entre la matrice des points images des zones de contexte ZCid’une image candidate et des points images correspondants d’une prise de vue de référence R1.Alternatively, the calculation of the spatial correlation rates can be based on a matrix distance method between the matrix of the image points of the context zones ZC i of a candidate image and the corresponding image points of a reference shot R1.

Dans un mode de réalisation, le taux de corrélation CORiest une corrélation croisée normalisée centrée ZNCC (en référence à l’acronyme anglais « Zero mean Normalized Cross-Correlation »).In one embodiment, the correlation rate COR i is a centered normalized cross-correlation ZNCC (with reference to the English acronym “Zero mean Normalized Cross-Correlation”).

Selon cette méthode de calcul, si l’on considère une première image i1 sous forme de son vecteur de données Ui1 et une deuxième image i2 sous forme de son vecteur de données Vi2, alors la corrélation croisée normalisée centrée ZNCC est définie par la formule suivante :According to this calculation method, if we consider a first image i1 in the form of its data vector Ui1 and a second image i2 in the form of its data vector Vi2, then the centered normalized cross-correlation ZNCC is defined by the following formula :

La valeur absolue de la corrélation ZNCC évolue entre la valeur 1 lorsque les première et deuxième images sont identiques et la valeur 0 lorsque les première et deuxième images sont différentes.The absolute value of the ZNCC correlation changes between the value 1 when the first and second images are identical and the value 0 when the first and second images are different.

On pourra considérer des méthodes établies par le domaine ‘Computer Vision’ affinant cette définition par géométrie des données images.We can consider methods established by the ‘Computer Vision’ domain refining this definition by geometry of the image data.

Chaque taux de corrélation spatiale CORipeut également être déterminé par des méthodes de calcul à base de réseaux neuronaux convolutifs (CNN) dédiés à la correspondance entre images, notamment la méthode CHM (en référence à l’acronyme anglais « Convolutional Hough Matching (CHM)») reconnue comme performante dans la correspondance géométrique des images. La méthode CHM est avantageusement utilisée par exemple dans la correspondance d’images de contenu routiers (motos, piétons), dont la problématique présente des similarités avec les besoins de comparaison d’images relatifs à notre invention. La méthode CHM exploite les corrélations au sein du réseau de neurones convolutifs dans ses couches intermédiaires et calcule en sortie un coefficient CHM s’apparentant à un taux de corrélation et pouvant être utilise comme tel.Each spatial correlation rate COR i can also be determined by calculation methods based on convolutional neural networks (CNN) dedicated to the correspondence between images, in particular the CHM method (in reference to the English acronym "Convolutional Hough Matching (CHM )») recognized as efficient in the geometric correspondence of images. The CHM method is advantageously used for example in the matching of road content images (motorcycles, pedestrians), the problem of which has similarities with the image comparison needs relating to our invention. The CHM method exploits the correlations within the convolutional neural network in its intermediate layers and calculates at output a CHM coefficient similar to a correlation rate and which can be used as such.

On définit un seul minimal CORMIN du taux de corrélation CORientre une zone probatoire et une zone de référence associée, de sorte que :
- une prise de vue candidate C1, C2 sera authentifiée si tous les taux de corrélation CORisont supérieurs au seuil minimal CORMIN,
- la prise de vue candidate C1, C2 sera rejetée dans le cas contraire.
We define a single minimum CORMIN of the correlation rate COR i between a probationary zone and an associated reference zone, so that:
- a candidate shot C1, C2 will be authenticated if all the correlation rates COR i are greater than the minimum threshold CORMIN,
- the candidate view C1, C2 will be rejected otherwise.

Le seuil minimal CORMIN peut par exemple être fixé à 97%, voire 98% ou 99%. Il peut également être calibré à des valeurs inférieures, par exemple 95% ou 90%.The minimum threshold CORMIN can for example be set at 97%, or even 98% or 99%. It can also be calibrated to lower values, for example 95% or 90%.

Dans l’étape E3 qui, peut s’exécuter simultanément à l’étape E2, on surveille la continuité de l’identité du conducteur. Pour cela, on utilise le système 9 de détection de la somnolence d’un conducteur.In step E3 which can be executed simultaneously with step E2, the continuity of the identity of the driver is monitored. For this, the driver drowsiness detection system 9 is used.

Le système 9 effectue durant toute la durée du trajet du véhicule automobile 100, un traitement périodique d’identification du conducteur à une période T9, pouvant par exemple être égale à une seconde. Lorsqu’une discontinuité est détectée dans l’identité du conducteur, le système 9 émet un diagnostic signalant la discontinuité d’identité. Ce diagnostic est avantageusement transmis à l’unité de commande 7, par exemple via la mémoire partagée 110.The system 9 performs throughout the duration of the journey of the motor vehicle 100, a periodic processing of identification of the driver at a period T9, which can for example be equal to one second. When a discontinuity is detected in the identity of the driver, the system 9 issues a diagnosis signaling the identity discontinuity. This diagnosis is advantageously transmitted to the control unit 7, for example via the shared memory 110.

Dans l’étape E3, on peut si nécessaire calibrer la période T9 du système 9 en fonction des besoins relatifs au traitement d’authentification.In step E3, it is possible if necessary to calibrate the period T9 of the system 9 according to the needs relating to the authentication processing.

Par exemple, lorsqu’on identifie que le véhicule s’approche d’une borne de paiement de parking, la période T9 peut être modifiée à une valeur T=0,5 secondes pour surveiller plus finement la continuité du visage du conducteur et détecter une éventuelle présentation d’un leurre.For example, when it is identified that the vehicle is approaching a parking lot payment terminal, the period T9 can be modified to a value T=0.5 seconds to more finely monitor the continuity of the driver's face and detect a possible presentation of a decoy.

Les figures 9 et 10 permettent d’illustrer le déroulement de l’étape E3.Figures 9 and 10 illustrate the progress of step E3.

On peut supposer, par exemple, que le véhicule 100 arrive à proximité d’un péage. A l’instant T0, on anticipe qu’une transaction bancaire va être demandée. On diminue alors la période T9 du système 9 de détection de la somnolence à la valeur T=0,5 secondes. A un instant donné TC, une prise de vue C3 du conducteur est capturée pour authentifier la transaction bancaire.We can assume, for example, that the vehicle 100 arrives near a toll. At time T0, we anticipate that a bank transaction will be requested. The period T9 of the drowsiness detection system 9 is then reduced to the value T=0.5 seconds. At a given instant TC, a shot C3 of the driver is captured to authenticate the bank transaction.

Dans l’étape E3, contrairement à ce qui est fait dans l’étape E2, on n’analyse pas la prise de vue TC. Pour authentifier la prise de vue TC, on utilise le diagnostic émis par le système 9 sur la continuité de l’identité du conducteur, ce diagnostic prenant en compte la prise de vue C3.In step E3, contrary to what is done in step E2, the TC view is not analyzed. To authenticate the TC shot, the diagnosis issued by the system 9 on the continuity of the driver's identity is used, this diagnosis taking into account the C3 shot.

Le graphe G1 de la illustre la continuité de l’identité du conducteur entre une première période DT1 précédent la prise de vue C3, une deuxième période DT2 de capture d’une prise de vue et une troisième période DT3 suivant la période de capture de prise de vue. Dans le cas illustré par la , le diagnostic émis par le système 9 concernant la continuité de l’identité du conducteur statuera sur une absence d’incident.The graph G1 of the illustrates the continuity of the identity of the driver between a first period DT1 preceding the shot C3, a second period DT2 of capturing a shot and a third period DT3 following the period of capturing a shot. In the case illustrated by , the diagnosis issued by the system 9 concerning the continuity of the driver's identity will rule on the absence of an incident.

Dans un mode de réalisation préférentiel de l’étape E3, la prise de vue C3 sera considérée comme authentique uniquement si l’identité du conducteur est continue sur la durée totale d’un trajet ininterrompu entre un instant de montée de conducteur dans le véhicule automobile 100 et un instant de fin de la période de prise de vue DT2.In a preferred embodiment of step E3, the shot C3 will be considered authentic only if the identity of the driver is continuous over the total duration of an uninterrupted trip between a moment when the driver climbs into the motor vehicle 100 and an end instant of the shooting period DT2.

Le graphe G3 de la illustre une discontinuité de l’identité du conducteur entre une quatrième période DT4 précédent une capture d’une prise de vue C4, une cinquième période DT5 de capture de la prise de vue C4. A l’instant TC de capture de la prise de vue C4 servant à l’authentification du paiement, le conducteur dissimule son visage derrière un leurre. L’identité du conducteur identifié par le système 9 de détection de la somnolence à l’instant TC est donc différente de l’identité du conducteur sur la période DT4 précédent la capture de la prise de vue C4. La détection de cette discontinuité par le système 9 génère un diagnostic d’incident dans l’identification du conducteur, le diagnostic d’incident étant avantageusement enregistré dans la mémoire partagée 110.The G3 graph of the illustrates a discontinuity of the identity of the driver between a fourth period DT4 preceding a capture of a shot C4, a fifth period DT5 of capture of the shot C4. At the instant TC of capture of the shot C4 used to authenticate the payment, the driver conceals his face behind a decoy. The identity of the driver identified by the drowsiness detection system 9 at the instant TC is therefore different from the identity of the driver over the period DT4 preceding the capture of the shot C4. The detection of this discontinuity by the system 9 generates an incident diagnosis in the identification of the driver, the incident diagnosis being advantageously recorded in the shared memory 110.

Ainsi, dans l’étape E3, l’authenticité d’une prise de vue C3, C4 est déterminée par un diagnostic fourni par le système 9 de détection de la somnolence. Ce diagnostic porte sur la continuité de l’identité du conducteur entre l’instant de capture de la prise de vue et une période de temps précédent l’instant de capture de la prise de vue, la période de temps pouvant couvrir la durée totale d’un trajet ininterrompu entre un instant de montée de conducteur dans le véhicule automobile 100 et l’instant de capture de la prise de vue.Thus, in step E3, the authenticity of a shot C3, C4 is determined by a diagnosis provided by the system 9 for detecting drowsiness. This diagnosis relates to the continuity of the identity of the driver between the instant of capture of the shot and a period of time preceding the instant of capture of the shot, the period of time being able to cover the total duration of an uninterrupted path between a moment when the driver climbs into the motor vehicle 100 and the moment when the shot is captured.

Dans l’étape E3, après qu’une discontinuité a été détectée dans l’identité du conducteur, on peut commander une diminution de la période T9 du système de détection de la somnolence afin de mieux analyser le comportement du conducteur pour confirmer ou non une tentative de fraude.In step E3, after a discontinuity has been detected in the identity of the driver, it is possible to command a reduction in the period T9 of the drowsiness detection system in order to better analyze the behavior of the driver in order to confirm or not a attempted fraud.

A l’inverse, suite à la réussite de l’authentification d’une prise de vue, on peut commander une augmentation de la période T9 du système de détection de la somnolence, afin de réduire la fréquence des vérifications de l’identité du conducteur, et donc réduire la charge de calcul du système 9.Conversely, following the successful authentication of a shot, it is possible to command an increase in the period T9 of the drowsiness detection system, in order to reduce the frequency of driver identity checks , and thus reduce the computational load of the system 9.

Dans un premier mode de réalisation de l’étape E4, qui peut s’exécuter simultanément à l’étape E2 et/ou à l’étape E3, on surveille la continuité des mouvements du conducteur par analyse des images issues du capteur 2. Cette surveillance s’effectue sur un deuxième intervalle de temps continu incluant un premier intervalle de temps DT2, DT5 de prises de vues incluant la prise de vue candidate C1, C2, C3, C4, et le deuxième intervalle de temps débutant au plus tard au début du premier intervalle de temps DT2, DT5, le premier intervalle de temps étant par exemple initié par une requête d’authentification émise par une application 51, 52, 53.In a first embodiment of step E4, which can be executed simultaneously with step E2 and/or step E3, the continuity of the movements of the driver is monitored by analyzing the images from the sensor 2. This monitoring is carried out over a second continuous time interval including a first time interval DT2, DT5 of shots including the candidate shot C1, C2, C3, C4, and the second time interval starting at the latest at the start of the first time interval DT2, DT5, the first time interval being for example initiated by an authentication request sent by an application 51, 52, 53.

Dans un mode de réalisation le délai entre le début du deuxième intervalle de temps et le début du premier intervalle de temps est un multiple de la période T10, par exemple ce délai est égal à six fois la période T10.In one embodiment, the delay between the start of the second time interval and the start of the first time interval is a multiple of the period T10, for example this delay is equal to six times the period T10.

Selon un deuxième mode de réalisation de l’étape E4, complémentaire ou alternatif au premier mode de réalisation précédemment décrit, l’étape E4 comprend une reconnaissance des mouvements du conducteur parmi l’ensemble prédéfini E de mouvements compatibles avec une situation de conduite, par analyse des images issues du capteur 2 sur ledit deuxième intervalle de temps.According to a second embodiment of step E4, complementary or alternative to the first embodiment previously described, step E4 comprises recognition of the driver's movements from among the predefined set E of movements compatible with a driving situation, by analyzing the images from the sensor 2 over said second time interval.

Autrement dit, dans l’étape E4, pour traiter une requête d’authentification RA émise à un instant TReq et portant sur l’authentification de prises de vues effectuées sur un premier intervalle de temps DT2, DT5
- on considère un deuxième intervalle de temps débutant avant l’instant TReq et comprenant le premier intervalle de temps DT2, DT5, et
- sur toute la durée du deuxième intervalle de temps, on vérifie la continuité des mouvements du conducteur et/ou la reconnaissance des mouvements du conducteur parmi l’ensemble prédéfini E.
In other words, in step E4, to process an authentication request RA sent at a time TReq and relating to the authentication of shots taken over a first time interval DT2, DT5
- a second time interval beginning before the instant TReq and comprising the first time interval DT2, DT5 is considered, and
- over the entire duration of the second time interval, the continuity of the driver's movements and/or the recognition of the driver's movements among the predefined set E is checked.

Pour cela on utilise le système 10 de surveillance de la vigilance d’un conducteur.For this, the system 10 for monitoring the vigilance of a driver is used.

Le système 10 effectue durant toute la durée du trajet du véhicule automobile 100, un traitement périodique d’analyse des mouvements du conducteur à une période T10, pouvant par exemple être égale à une seconde. En particulier, l’analyse des mouvements du conducteur comprend une reconnaissance de mouvements compatibles avec la conduite automobile. Par exemple, comme cela est illustré par les figures 9 et 10, le système 10 effectue une reconnaissance du placement 71 des mains du conducteur sur le volant du véhicule. Ainsi, la détection d’un mouvement non compatible de la conduite (par exemple lorsque le conducteur se retourne vers les passagers arrière alors que le véhicule roule), une alerte visuelle et/ou sonore peut être émise par le système 10 vers le conducteur.The system 10 performs throughout the duration of the journey of the motor vehicle 100, a periodic processing of analysis of the movements of the driver at a period T10, which can for example be equal to one second. In particular, the analysis of the driver's movements includes a recognition of movements compatible with automobile driving. For example, as illustrated by FIGS. 9 and 10, the system 10 performs recognition of the placement 71 of the driver's hands on the steering wheel of the vehicle. Thus, the detection of an incompatible movement of driving (for example when the driver turns towards the rear passengers while the vehicle is moving), a visual and/or sound alert can be emitted by the system 10 towards the driver.

L’analyse des mouvements réalisée par le système 10 comprend en outre une détection de la discontinuité des mouvements du conducteur. Dans un mode de réalisation, elle pourrait avantageusement comprendre une détection d’un ensemble de mouvements permettant de suspecter une fraude d’authentification, comme par exemple un mouvement de présentation d’un leurre au capteur 2 tel qu’illustré dans la , à l’instant TC. Dans ce cas, le système 10 peut enregistrer un diagnostic d’anomalie sur l’analyse des mouvements du conducteur dans la mémoire partagée 110.The analysis of the movements carried out by the system 10 further comprises a detection of the discontinuity of the movements of the driver. In one embodiment, it could advantageously include detection of a set of movements making it possible to suspect authentication fraud, such as for example a movement of presentation of a decoy to the sensor 2 as illustrated in the , at time TC. In this case, the system 10 can store an anomaly diagnosis on the analysis of the movements of the driver in the shared memory 110.

Dans l’étape E4, on peut si nécessaire calibrer la période T10 du système 10 en fonction des besoins relatifs au traitement d’authentification.In step E4, it is possible if necessary to calibrate the period T10 of the system 10 according to the needs relating to the authentication processing.

Par exemple, lorsque l’on identifie que le véhicule automobile 100 s’approche d’une borne de paiement de parking, la période T10 peut être modifiée à une valeur T=0,5 secondes pour surveiller plus finement la continuité des mouvements du conducteur et détecter une éventuelle présentation d’un leurre.For example, when it is identified that the motor vehicle 100 is approaching a parking lot payment terminal, the period T10 can be modified to a value T=0.5 seconds to monitor the continuity of the driver's movements more precisely. and detecting a possible presentation of a decoy.

Les figures 9 et 10 permettent d’illustrer le déroulement de l’étape E4.Figures 9 and 10 illustrate the progress of step E4.

On peut supposer, par exemple, que le véhicule automobile 100 arrive à proximité d’un péage. A l’instant T0, on anticipe qu’une transaction bancaire va être demandée. On diminue alors la période T10 du système 10 de surveillance de la vigilance à la valeur T=0,5 secondes. A un instant donné TC, une prise de vue C3 du conducteur est capturée pour authentifier la transaction bancaire.It can be assumed, for example, that the motor vehicle 100 arrives near a toll. At time T0, we anticipate that a bank transaction will be requested. The period T10 of the vigilance monitoring system 10 is then reduced to the value T=0.5 seconds. At a given instant TC, a shot C3 of the driver is captured to authenticate the bank transaction.

Dans l’étape E4, comme dans l’étape E3, on n’analyse pas la prise de vue C3. Pour authentifier la prise de vue C3, on utilise le diagnostic émis par le système 10 sur la continuité des mouvements du conducteur, ce diagnostic prenant en compte la prise de vue C3.In step E4, as in step E3, the shot C3 is not analyzed. To authenticate the shot C3, the diagnosis transmitted by the system 10 on the continuity of the movements of the driver is used, this diagnosis taking into account the shot C3.

Le graphe G2 de la illustre la continuité des mouvements du conducteur entre une première période DT1 précédent la prise de vue C3, une deuxième période DT2 de capture d’une prise de vue et une troisième période DT3 suivant la période de capture de prise de vue. Dans le cas illustré par la , le diagnostic émis par le système 10 concernant la continuité de l’identité du conducteur statuera sur une absence d’incident.The G2 graph of the illustrates the continuity of the driver's movements between a first period DT1 preceding the shot C3, a second period DT2 of capturing a shot and a third period DT3 following the period of capturing a shot. In the case illustrated by , the diagnosis issued by the system 10 concerning the continuity of the identity of the driver will rule on the absence of an incident.

Le graphe G4 de la illustre une discontinuité des mouvements du conducteur entre une quatrième période DT4 précédent une capture d’une prise de vue C4, une cinquième période DT5 de capture de la prise de vue C4. A l’instant TC de capture de la prise de vue C4 servant à l’authentification du paiement, le conducteur dissimule son visage derrière un leurre. La position des mains détectée par le système 10 de surveillance de la vigilance à l’instant TC est donc différente de la position des mains du conducteur sur la période DT4 précédent la capture de la prise de vue C4. De plus cette position peut être identifiée parmi un ensemble de mouvements permettant de suspecter une fraude d’authentification. La détection de cette discontinuité par le système 10 génère un diagnostic d’incident dans la continuité des mouvements du conducteur, le diagnostic d’incident étant avantageusement enregistré dans la mémoire partagée 110.The G4 graph of the illustrates a discontinuity of the driver's movements between a fourth period DT4 preceding a capture of a shot C4, a fifth period DT5 of capture of the shot C4. At the instant TC of capture of the shot C4 used to authenticate the payment, the driver conceals his face behind a decoy. The position of the hands detected by the alertness monitoring system 10 at the instant TC is therefore different from the position of the driver's hands over the period DT4 preceding the capture of the shot C4. Moreover, this position can be identified among a set of movements allowing authentication fraud to be suspected. The detection of this discontinuity by the system 10 generates an incident diagnosis in the continuity of the driver's movements, the incident diagnosis being advantageously recorded in the shared memory 110.

Ainsi, dans l’étape E4, l’authenticité d’une prise de vue C3, C4 est déterminée par un diagnostic fourni par le système 10 de surveillance de la vigilance. Ce diagnostic porte principalement sur la continuité des mouvements du conducteur entre l’instant de capture de la prise de vue et une période de temps précédent l’instant de capture de la prise de vue. Ce diagnostic peut également porter sur la reconnaissance des mouvements du conducteur parmi une ensemble de mouvements permettant de suspecter une fraude d’authentification.Thus, in step E4, the authenticity of a shot C3, C4 is determined by a diagnosis provided by the vigilance monitoring system 10. This diagnosis mainly relates to the continuity of the driver's movements between the instant of capture of the shot and a period of time preceding the instant of capture of the shot. This diagnosis can also relate to the recognition of the driver's movements among a set of movements making it possible to suspect authentication fraud.

Dans l’étape E4, lorsqu’une anomalie est détectée par le système 10 de surveillance de la vigilance, on peut commander une diminution de la période T10 du système de surveillance de la vigilance afin de mieux analyser le comportement du conducteur.In step E4, when an anomaly is detected by the vigilance monitoring system 10, it is possible to command a reduction in the period T10 of the vigilance monitoring system in order to better analyze the behavior of the driver.

A l’inverse, suite à la réussite de l’authentification d’une prise de vue, on peut commander une augmentation de la période T10, afin de réduire la fréquence des vérifications des mouvements du conducteur, et donc la charge de calcul du système 10.Conversely, following the successful authentication of a shot, it is possible to command an increase in the period T10, in order to reduce the frequency of verifications of the movements of the driver, and therefore the calculation load of the system. 10.

Dans une étape E5, le résultat de l’authentification de la prise de vue est transmis au système ayant requis une authentification d’une prise de vue, c’est-à-dire à une application 51, 52, 53 à l’origine la requête d’authentification RA ou au système d’identification 6.In a step E5, the result of the authentication of the shot is transmitted to the system having required authentication of a shot, that is to say to an application 51, 52, 53 originally the RA authentication request or the identification system 6.

Le résultat de l’authentification est obtenu par agrégation des résultats des étapes E2 à E4. Ainsi, le résultat des trois étapes E2, E3, E4 est regroupé dans un résultat final d’authentification délivré dans l’étape E5.The authentication result is obtained by aggregating the results of steps E2 to E4. Thus, the result of the three steps E2, E3, E4 is grouped together in a final authentication result delivered in step E5.

Dans un mode de réalisation, une prise de vue est authentifiée uniquement si elle a été authentifiée dans l’ensemble des trois étapes E2 à E4.In one embodiment, a shot is authenticated only if it has been authenticated in all of the three steps E2 to E4.

Dans un mode de réalisation alternatif, le résultat d’authentification comprend un indice de confiance calculé à partir des diagnostics des étapes E2 à E4. Par exemple, l’indice de confiance peut tenir compte à la fois du taux de corrélation spatiale COR calculé dans l’étape E2, et des périodes T9, T10 de traitement des systèmes 9 et 10.In an alternative embodiment, the authentication result comprises a confidence index calculated from the diagnostics of steps E2 to E4. For example, the confidence index can take into account both the spatial correlation rate COR calculated in step E2, and the processing periods T9, T10 of systems 9 and 10.

De façon plus générale, on peut définir des scores logiques de fraude S2 à S4 respectivement associés à chacune des étapes E2 à E4, de sorte que :
- S2=1 si une fraude a été détectée dans l’étape E2, sinon S2=0, et
- S3=1 si une fraude a été détectée dans l’étape E3, sinon S3=0, et
- S4=1 si une fraude a été détectée dans l’étape E4, sinon S4=0.
More generally, it is possible to define logical fraud scores S2 to S4 respectively associated with each of the steps E2 to E4, so that:
- S2=1 if fraud has been detected in step E2, otherwise S2=0, and
- S3=1 if fraud has been detected in step E3, otherwise S3=0, and
- S4=1 if fraud has been detected in step E4, otherwise S4=0.

L’agrégation des résultats des étapes E2 à E4 peut ensuite être déterminée par une fonction dite d’agrégation ayant pour paramètres d’entrée les scores de fraude S2 à S4 et calculant en sortie un score de fraude agrégé S5. Autrement dit : S5 = f(S2, S3, S4).The aggregation of the results of steps E2 to E4 can then be determined by a so-called aggregation function having as input parameters the fraud scores S2 to S4 and calculating an aggregated fraud score S5 as output. In other words: S5 = f(S2, S3, S4).

Par exemple, la fonction d’agrégation peut être une fonction ET logique, le score S5 étant alors obtenu selon la formule :
S5 = S2 ET S3 Et S4
For example, the aggregation function can be a logical AND function, the S5 score then being obtained according to the formula:
S5 = S2 AND S3 And S4

Dans ce mode de réalisation, le score de fraude agrégé est égal à 1 uniquement si tous les scores S2 à S4 sont égaux à 1. Autrement dit, dans l’étape E5 on considèrera que l’authentification est frauduleuse uniquement si une fraude a été détectée dans chacune des étapes E2 à E4.In this embodiment, the aggregated fraud score is equal to 1 only if all the scores S2 to S4 are equal to 1. In other words, in step E5 the authentication will be considered to be fraudulent only if a fraud has been detected in each of steps E2 to E4.

Alternativement, la fonction d’agrégation peut être une agrégation pondérée permettant de calibrer l’importance relative des étapes E2, E3, et E4 dans la détection d’une authentification frauduleuse. Le score S5 est alors obtenu selon la formule suivante :
S5 = a.S2 + b.S3 + c.S4, où a + b + c = 1 et a, b et c sont positifs.
Alternatively, the aggregation function can be a weighted aggregation making it possible to calibrate the relative importance of steps E2, E3, and E4 in the detection of fraudulent authentication. The S5 score is then obtained according to the following formula:
S5 = a.S2 + b.S3 + c.S4, where a + b + c = 1 and a, b and c are positive.

Ainsi, si l’on souhaite attribuer un poids important au score S2 issu de l’étape E2 et un poids faible aux scores S3 et S4 issus respectivement des étapes E3 et E4, on peut, par exemple, attribuer les valeurs suivantes aux coefficients a, b,et c : a=80%, b=10% et c=10%.Thus, if it is desired to assign a high weight to the score S2 resulting from step E2 and a low weight to the scores S3 and S4 resulting respectively from steps E3 and E4, it is possible, for example, to assign the following values to the coefficients a , b, and c: a=80%, b=10% and c=10%.

La valeur des coefficients a, b et c peut être évolutive au cours du déroulement du procédé selon l’invention. Par exemple, la valeur des coefficients a, b, et c peut tenir compte de la qualité de la capture qui pourrait influencer la pertinence relative des étapes E2, E3 et E4.The value of the coefficients a, b and c can change during the course of the process according to the invention. For example, the value of the coefficients a, b, and c can take into account the quality of the capture which could influence the relative relevance of the steps E2, E3 and E4.

Le score de fraude agrégé S5, calculé selon l’une des méthodes précédemment décrites, est ensuite comparé à un seuil minimal au-delà duquel une authentification frauduleuse est détectée. Par exemple, une fraude peut être détectée lorsque le score de fraude agrégé S5 est supérieur à 95%.The aggregated fraud score S5, calculated using one of the methods previously described, is then compared to a minimum threshold beyond which fraudulent authentication is detected. For example, fraud can be detected when the S5 aggregate fraud score is greater than 95%.

La est une représentation alternative d’un procédé d’authentification d’une prise de vue d’un habitacle comprenant une étape E2 de reconnaissance d’éléments de l’habitacle dans la prise de vue :
- Dans une première étape F1, on capture une prise de vue de l’habitacle.
- Puis, dans une deuxième étape F2, on localise le visage du conducteur.
- Puis, dans une troisième étape F3, on détermine N zones de contexte ZCi(xi, yi) à partir de N zones probatoires ZPi(xi, yi).
- Puis, dans une quatrième étape F4, à partir d’une prise de vue de référence R1 de l’habitacle vide enregistrée dans la mémoire locale 72, on détermine les N zones de référence ZRi(xi, yi) associées aux N zones de contexte ZCi(xi, yi).
- Puis, dans une cinquième étape F5, on calcule les N taux de corrélations spatiale Tirespectivement entre chaque zone de contexte et la zone de référence associée.
- Puis, dans une sixième étape F6, on détermine un indicateur booléen de fraude IF1 en comparant chaque taux de corrélation spatiale Ti à un seuil minimum CORMIN, l’indicateur IF1 étant initialisé à la valeur 0, et l’indicateur IF1 étant fixé à la valeur 1 si au moins un taux de corrélation spatiale Ti est strictement inférieur à CORMIN.
- Puis, dans une septième étape F7, on teste la valeur de l’indicateur de fraude IF1 : si l’indicateur IF1 est égal à 1, on enchaine sur une étape F8 de rejet de l’authentification, sinon, on enchaine sur une étape F9 de validation de l’authentification.
There is an alternative representation of a method for authenticating a shot of a passenger compartment comprising a step E2 of recognizing elements of the passenger compartment in the shot:
- In a first step F1, a shot of the passenger compartment is captured.
- Then, in a second step F2, the face of the driver is located.
- Then, in a third step F3, N context zones ZC i (x i , y i ) are determined from N probationary zones ZP i (x i , y i ).
- Then, in a fourth step F4, from a reference shot R1 of the empty passenger compartment recorded in the local memory 72, the N reference zones ZR i (x i , y i ) associated with the N context zones ZC i (x i , y i ).
- Then, in a fifth step F5, the N spatial correlation rates T i are calculated respectively between each context zone and the associated reference zone.
- Then, in a sixth step F6, a Boolean fraud indicator IF1 is determined by comparing each spatial correlation rate Ti with a minimum threshold CORMIN, the indicator IF1 being initialized to the value 0, and the indicator IF1 being fixed at the value 1 if at least one spatial correlation rate Ti is strictly lower than CORMIN.
- Then, in a seventh step F7, the value of the fraud indicator IF1 is tested: if the indicator IF1 is equal to 1, we go on to a step F8 of rejection of the authentication, otherwise, we go on to a authentication validation step F9.

La est une représentation alternative d’un procédé d’authentification d’une prise de vue d’un habitacle comprenant une étape E3 de surveillance de la continuité de l’identité d’un conducteur du véhicule automobile. Le procédé reboucle, à une période donnée T9, sur les étapes suivantes :
- A un instant t, dans une première étape H1, on capture une prise de vue de l’habitacle.
- Puis, dans une deuxième étape H2, on effectue un traitement d’identification pour retrouver le visage du conducteur parmi un ensemble de personnes habilitées à conduire le véhicule, les empreintes biométriques faciales nécessaires à ce traitement étant contenues dans la mémoire partagée 110.
- Puis, dans une troisième étape H3, sur la base des étapes précédentes, on détermine un identifiant Id(t) du conducteur du véhicule à l’instant t,
- Puis dans une quatrième étape H4, on détermine un indicateur booléen de fraude IF2 en comparant l’identifiant Id(t) du conducteur à l’instant t à l’identifiant Id(t-T9) du conducteur à l’instant t-T9 : on fixe la valeur de l’indicateur IF2 à la valeur 0 si Id(t)= Id(t_T9), sinon on fixe la valeur de l’indicateur IF2 à 1.
- Puis, dans une cinquième étape H5, on teste la valeur de l’indicateur de fraude IF2 : si l’indicateur IF2 est égal à 1, on enchaine sur une étape H7 de rejet de l’authentification, et on réduit la période de vérification T9 si nécessaire, sinon on enchaine sur une étape H6 de validation de l’authentification et on augmente la période de vérification T9 si nécessaire.
There is an alternative representation of a method for authenticating a shot of a passenger compartment comprising a step E3 of monitoring the continuity of the identity of a driver of the motor vehicle. The process loops back, at a given period T9, to the following steps:
- At a time t, in a first step H1, a shot of the passenger compartment is captured.
- Then, in a second step H2, an identification processing is carried out to find the face of the driver among a set of persons authorized to drive the vehicle, the facial biometric fingerprints necessary for this processing being contained in the shared memory 110.
- Then, in a third step H3, on the basis of the previous steps, an identifier Id(t) of the driver of the vehicle at time t is determined,
- Then in a fourth step H4, a Boolean fraud indicator IF2 is determined by comparing the identifier Id(t) of the driver at time t with the identifier Id(t-T9) of the driver at time t- T9: the value of the IF2 indicator is set to 0 if Id(t)= Id(t_T9), otherwise the value of the IF2 indicator is set to 1.
- Then, in a fifth step H5, the value of the fraud indicator IF2 is tested: if the indicator IF2 is equal to 1, we continue with a step H7 of rejection of the authentication, and we reduce the period of verification T9 if necessary, otherwise we go on to a step H6 for validating the authentication and we increase the verification period T9 if necessary.

La est une représentation alternative d’un procédé d’authentification d’une prise de vue d’un habitacle comprenant une étape E4 de surveillance de la continuité des mouvements d’un conducteur du véhicule automobile. Le procédé reboucle, à une période donnée T10, sur les étapes suivantes :
- A un instant t, dans une première étape J1, on capture une prise de vue de l’habitacle.
- Puis, dans une deuxième étape J2, on effectue un traitement d’identification pour retrouver la posture du conducteur parmi un ensemble de positions (ou postures) de référence compatibles avec la conduite du véhicule, les positions de référence nécessaires à ce traitement étant contenues dans la mémoire partagée 110.
- Puis, dans une troisième étape J3, sur la base des étapes précédentes on détermine un identifiant de position Id(t) du conducteur du véhicule à l’instant t.
- Puis, dans une quatrième étape J4, on détermine un indicateur booléen de fraude IF3 en comparant la position Pos(t) du conducteur à l’instant t et la position Pos(T-T10) du conducteur à l’instant t-T10 : on fixe la valeur de l’indicateur IF3 à la valeur 0 si les positions Pos(t) et Pos(t-T10) sont dans la continuité l’une de l’autre, sinon on fixe la valeur de l’indicateur IF3 à 1.
- Puis, dans une cinquième étape J5, on teste la valeur de l’indicateur de fraude IF3 : si l’indicateur IF3 est égal à 1, on enchaine sur une étape J7 de rejet de l’authentification, et on réduit la période de vérification T10 si nécessaire, sinon, on enchaine sur une étape J6 de validation de l’authentification et on augmente la période de vérification J10 si nécessaire.
There is an alternative representation of a method for authenticating a shot of a passenger compartment comprising a step E4 of monitoring the continuity of the movements of a driver of the motor vehicle. The process loops back, at a given period T10, to the following steps:
- At a time t, in a first step J1, a shot of the passenger compartment is captured.
- Then, in a second step J2, an identification processing is carried out to find the posture of the driver among a set of reference positions (or postures) compatible with driving the vehicle, the reference positions necessary for this processing being contained in the shared memory 110.
- Then, in a third step J3, on the basis of the previous steps, a position identifier Id(t) of the driver of the vehicle is determined at time t.
- Then, in a fourth step J4, a Boolean fraud indicator IF3 is determined by comparing the position Pos(t) of the driver at time t and the position Pos(T-T10) of the driver at time t-T10 : we set the value of the IF3 indicator to the value 0 if the positions Pos(t) and Pos(t-T10) are in continuity with each other, otherwise we set the value of the IF3 indicator to 1.
- Then, in a fifth step J5, the value of the fraud indicator IF3 is tested: if the indicator IF3 is equal to 1, we move on to a step J7 of rejection of the authentication, and we reduce the period of verification T10 if necessary, otherwise, we go on to a step J6 of validation of the authentication and we increase the verification period J10 if necessary.

Finalement, le procédé d’authentification selon l’invention permet de tirer avantage du contexte spécifique de la reconnaissance faciale dans le domaine automobile.Finally, the authentication method according to the invention makes it possible to take advantage of the specific context of facial recognition in the automotive field.

La spécificité du contexte automobile concerne en premier lieu l’invariabilité du cadre dans lequel se déroule le traitement de reconnaissance faciale, notamment l’invariabilité de la position et de la géométrie de certains éléments de l’habitacle.The specificity of the automotive context primarily concerns the invariability of the framework in which the facial recognition processing takes place, in particular the invariability of the position and geometry of certain elements of the passenger compartment.

L’invention fournit ainsi une première solution d’authentification consistant à vérifier uniquement quelques zones dites probatoires dans la prise de vue à authentifier, les zones probatoires comprenant une partie du visage du conducteur et une partie de l’habitacle. Cette première solution présente plusieurs avantages. Tout d’abord, elle est difficilement contournable par la création de leurres. De plus, elle est rapide, ce qui est appréciable pour les usagers lorsque les requêtes d’authentification sont répétitives.The invention thus provides a first authentication solution consisting in checking only a few so-called probationary zones in the shot to be authenticated, the probationary zones comprising part of the driver's face and part of the passenger compartment. This first solution has several advantages. First of all, it is difficult to bypass by creating decoys. In addition, it is fast, which is valuable for users when authentication requests are repetitive.

Par ailleurs, la spécificité du contexte automobile porte sur la présence d’au moins deux systèmes de gestion du conducteur dans tout véhicule : un système de détection de la somnolence et un système de surveillance de la vigilance. Ces deux systèmes seront prochainement obligatoires dans tout véhicule automobile. Or ces systèmes fournissent respectivement des diagnostics périodiques sur l’identité et les mouvements du conducteur. En exploitant ces diagnostics, l’invention fournit ainsi une deuxième et une troisième solutions d’authentification nécessitant peu de temps de traitement et réutilisant des traitements déjà mis en œuvre dans le véhicule.Furthermore, the specificity of the automotive context relates to the presence of at least two driver management systems in any vehicle: a drowsiness detection system and an alertness monitoring system. These two systems will soon be mandatory in all motor vehicles. However, these systems respectively provide periodic diagnostics on the identity and movements of the driver. By exploiting these diagnostics, the invention thus provides a second and a third authentication solution requiring little processing time and reusing processing already implemented in the vehicle.

Outre l’avantage de réduire le temps de traitement par rapport à un système d’authentification qui ne serait pas spécifique au contexte automobile, l’invention permet d’éviter l’achat de licences portant sur des algorithmes du marché.In addition to the advantage of reducing the processing time compared to an authentication system that would not be specific to the automotive context, the invention makes it possible to avoid the purchase of licenses relating to market algorithms.

De plus, la première solution d’authentification permet de rejeter très rapidement une prise de vue frauduleuse car l’étape d’authentification peut s’effectuer avant l’étape d’identification du conducteur.In addition, the first authentication solution makes it possible to very quickly reject a fraudulent shot because the authentication step can be carried out before the driver identification step.

L’invention permet en outre de combiner les trois solutions d’authentification précédemment décrites, ce qui renforce la fiabilité de l’authentification.The invention also makes it possible to combine the three authentication solutions described above, which reinforces the reliability of the authentication.

Claims (12)

Procédé d’authentification d’une prise de vue candidate (C1, C2, C3, C4) par un capteur d’images (2) fixé dans un habitacle (1) d’un véhicule automobile (100), caractérisé en ce qu’il comprend au moins une des étapes suivantes :
  • une étape (E2) de reconnaissance, dans la prise de vue candidate (C1, C2, C3, C4), d’éléments de l’habitacle (11, 12, 13, 14) situés en bordure d’un visage ou d’un corps d’un conducteur du véhicule automobile (100),
  • une étape (E3) de surveillance, par analyse de plusieurs images issues du capteur (2), de la continuité d’une identité d’un conducteur du véhicule automobile (100) sur la durée totale d’un trajet ininterrompu entre un instant de montée d’un conducteur dans le véhicule automobile (100) et un instant de fin d’un premier intervalle de temps (DT2, DT5) de prises de vues incluant la prise de vue candidate (C1, C2, C3, C4),
  • une étape (E4) de surveillance de la continuité de mouvements d’un conducteur du véhicule automobile et/ou de reconnaissance de mouvements d’un conducteur du véhicule automobile parmi un ensemble prédéfini (E) de mouvements compatibles avec une situation de conduite, par analyse des images issues du capteur (2) sur un deuxième intervalle de temps continu incluant un premier intervalle de temps (DT2, DT5) de prises de vues incluant la prise de vue candidate (C1, C2, C3, C4), et le deuxième intervalle de temps débutant au plus tard au début du premier intervalle de temps, le premier intervalle de temps étant par exemple initié par une requête d’authentification émise par une application d’un véhicule automobile.
Method for authenticating a candidate shot (C1, C2, C3, C4) by an image sensor (2) fixed in a passenger compartment (1) of a motor vehicle (100), characterized in that it includes at least one of the following steps:
  • a step (E2) of recognition, in the candidate shot (C1, C2, C3, C4), of elements of the passenger compartment (11, 12, 13, 14) situated at the edge of a face or a body of a motor vehicle driver (100),
  • a step (E3) of monitoring, by analysis of several images from the sensor (2), the continuity of an identity of a driver of the motor vehicle (100) over the total duration of an uninterrupted journey between a moment of boarding of a driver in the motor vehicle (100) and an end time of a first time interval (DT2, DT5) of shots including the candidate shot (C1, C2, C3, C4),
  • a step (E4) of monitoring the continuity of movements of a driver of the motor vehicle and/or of recognizing movements of a driver of the motor vehicle from among a predefined set (E) of movements compatible with a driving situation, by analysis of the images from the sensor (2) over a second continuous time interval including a first time interval (DT2, DT5) of shots including the candidate shot (C1, C2, C3, C4), and the second time interval beginning at the latest at the start of the first time interval, the first time interval being for example initiated by an authentication request sent by an application of a motor vehicle.
Procédé d’authentification selon la revendication précédente, caractérisé en ce qu’il comprend une étape (E1) de réception d’une requête d’authentification (Req) d’une prise de vue (C1, C2, C3, C4), la requête d’authentification (Req) étant issue d’une application sécurisée par reconnaissance faciale (51, 52, 53) du véhicule automobile.Authentication method according to the preceding claim, characterized in that it comprises a step (E1) of receiving an authentication request (Req) for a shot (C1, C2, C3, C4), the authentication request (Req) coming from an application secured by facial recognition (51, 52, 53) of the motor vehicle. Procédé d’authentification selon l’une des revendications précédentes, caractérisé en ce qu’il comprend, précédant l’étape (E1) de réception d’une requête, une étape d’initialisation (E0) d’une position et d’une géométrie d’un ensemble d’éléments (11, 12, 13) de l’habitacle (1) à partir d’au moins une prise de vue de référence (R1) de l’habitacle vide capturée par le capteur (2),
et en ce que l’étape (E2) de reconnaissance comprend
- une sous-étape de (E21) de détermination d’un contour (102) d’un visage et d’un corps d’un conducteur,
- une sous-étape (E22) de détermination d’un ensemble de zones (ZPi) dites probatoires de la prise de vue candidate (C1), réparties sur le contour (102) d’un visage et d’un corps d’un conducteur, de sorte que chaque zone (ZPi) de l’ensemble de zones probatoires comprend à la fois une portion d’un visage d’un conducteur et une portion de l’habitacle, la détermination d’une zone probatoire comprenant la détermination de sa position et de sa géométrie, et
- une sous-étape de comparaison (E23) du contenu de chaque zone (ZPi) de l’ensemble de zones probatoires au contenu d’une zone de référence (ZRi) de la prise de vue de référence (R1), la zone de référence (ZRi) étant à la même position et de même géométrie que la zone probatoire (ZPi).
Authentication method according to one of the preceding claims, characterized in that it comprises, preceding the step (E1) of receiving a request, a step of initializing (E0) a position and a geometry of a set of elements (11, 12, 13) of the passenger compartment (1) from at least one reference shot (R1) of the empty passenger compartment captured by the sensor (2),
and in that the recognition step (E2) comprises
- a sub-step of (E21) for determining an outline (102) of a driver's face and body,
- a sub-step (E22) of determining a set of so-called probationary zones (ZP i ) of the candidate shot (C1), distributed over the contour (102) of a face and a body of a driver, so that each zone (ZP i ) of the set of probationary zones comprises both a portion of a driver's face and a portion of the passenger compartment, the determination of a probationary zone comprising the determination of its position and geometry, and
- a comparison sub-step (E23) of the content of each zone (ZP i ) of the set of probationary zones with the content of a reference zone (ZR i ) of the reference shot (R1), the reference zone (ZR i ) being at the same position and with the same geometry as the probationary zone (ZP i ).
Procédé d’authentification selon la revendication précédente, caractérisé en ce que la sous-étape de comparaison (E23) s’effectue, pour chaque zone probatoire (ZPi), sur une sous-zone de contexte (ZCi) correspondant à une portion de la zone probatoire (ZPi) excluant un visage et/ou un corps d’un conducteur.Authentication method according to the preceding claim, characterized in that the comparison sub-step (E23) is performed, for each probationary zone (ZP i ), on a context sub-zone (ZC i ) corresponding to a portion of the probationary zone (ZP i ) excluding a face and/or a body of a driver. Procédé d’authentification selon la revendication précédente, caractérisé en ce que la sous-étape de comparaison (E23) comprend un calcul d’un taux de corrélation spatiale (CORi) entre chacune des zones de contexte (ZCi) et une zone de référence correspondante (ZRi), et une comparaison de chaque taux de corrélation (CORi) à un seul minimal (CORMIN),
en ce que la prise de vue candidate (C1) est authentifiée si tous les taux de corrélation (CORi) sont supérieurs au seuil minimal (CORMIN) et en ce que la prise de vue candidate (C1) est rejetée dans le cas contraire.
Authentication method according to the preceding claim, characterized in that the comparison sub-step (E23) comprises a calculation of a spatial correlation rate (COR i ) between each of the context zones (ZC i ) and a corresponding reference (ZR i ), and a comparison of each correlation rate (COR i ) with a single minimum (CORMIN),
in that the candidate shot (C1) is authenticated if all the correlation rates (COR i ) are greater than the minimum threshold (CORMIN) and in that the candidate shot (C1) is rejected in the opposite case.
Procédé d’authentification selon la revendication précédente, caractérisé en ce que les taux de corrélation spatiale (CORi) sont calculés par un réseau de neurones, notamment par un réseau de neurones convolutifs.Authentication method according to the preceding claim, characterized in that the spatial correlation rates (COR i ) are calculated by a neural network, in particular by a convolutional neural network. Procédé d’authentification selon l’une des revendications précédentes, caractérisé en ce qu’il comprend l’étape de surveillance de la continuité de mouvements d’un conducteur du véhicule automobile et/ou de reconnaissance de mouvements d’un conducteur du véhicule automobile s’effectuant à une période donnée (T10) et en ce que le délai entre le début du deuxième intervalle de temps et le début du premier intervalle de temps est égal à six fois ou environ six fois la période donnée (T10).Authentication method according to one of the preceding claims, characterized in that it comprises the step of monitoring the continuity of movements of a driver of the motor vehicle and/or of recognizing movements of a driver of the motor vehicle taking place at a given period (T10) and in that the delay between the start of the second time interval and the start of the first time interval is equal to six times or about six times the given period (T10). Procédé d’authentification selon l’une des revendications précédentes, le véhicule automobile (100) étant équipé d’un système (9) de détection de la somnolence d’un conducteur, le système (9) de détection de la somnolence d’un conducteur recevant des prises de vues (C1, C2, C3, C4) capturées par le capteur (2), caractérisé en ce que l’étape (E3) de surveillance de la continuité d’une identité d’un conducteur comprend une réception d’un diagnostic issu du système (9) de détection de la somnolence d’un conducteur.Authentication method according to one of the preceding claims, the motor vehicle (100) being equipped with a system (9) for detecting the drowsiness of a driver, the system (9) for detecting the drowsiness of a driver receiving shots (C1, C2, C3, C4) captured by the sensor (2), characterized in that the step (E3) of monitoring the continuity of an identity of a driver comprises receiving a diagnosis resulting from the system (9) for detecting the drowsiness of a driver. Procédé d’authentification selon l’une des revendications précédentes, le véhicule automobile (100) étant équipé d’un système (10) de surveillance de la vigilance d’un conducteur, le système (10) de surveillance de la vigilance recevant des prises de vues capturées (C1, C2, C3, C4) par le capteur (2), caractérisé en ce que l’étape (E4) de surveillance de la continuité de mouvements d’un conducteur comprend une réception d’un diagnostic issu du système (10) de surveillance de la vigilance d’un conducteur.Authentication method according to one of the preceding claims, the motor vehicle (100) being equipped with a system (10) for monitoring the vigilance of a driver, the system (10) for monitoring the vigilance receiving sockets of views captured (C1, C2, C3, C4) by the sensor (2), characterized in that the step (E4) of monitoring the continuity of movements of a driver comprises receiving a diagnosis from the system (10) monitoring the vigilance of a driver. Dispositif (20) d’authentification d’une prise de vue candidate d’un habitacle (1) d’un véhicule automobile (100) équipé d’un capteur d’images (2), le dispositif comprenant des éléments (6, 7, 8, 9, 10, 71, 72, 73, 110, 710, 711, 712, 713, 714, 715) matériels et/ou logiciels mettant en œuvre le procédé selon l’une des revendications 1 à 9, notamment des éléments matériels (6, 7, 8, 9, 10, 71, 72, 73, 110) et/ou logiciels conçus pour mettre en œuvre le procédé selon l’une des revendications précédentes.Device (20) for authenticating a candidate shot of a passenger compartment (1) of a motor vehicle (100) equipped with an image sensor (2), the device comprising elements (6, 7 , 8, 9, 10, 71, 72, 73, 110, 710, 711, 712, 713, 714, 715) hardware and/or software implementing the method according to one of claims 1 to 9, in particular elements hardware (6, 7, 8, 9, 10, 71, 72, 73, 110) and/or software designed to implement the method according to one of the preceding claims. Produit programme d’ordinateur comprenant des instructions de code de programme enregistrées sur un support lisible par ordinateur pour mettre en œuvre les étapes du procédé selon l’une quelconque des revendications 1 à 9 lorsque ledit programme fonctionne sur un ordinateur.A computer program product comprising program code instructions recorded on a computer-readable medium for carrying out the steps of the method according to any one of claims 1 to 9 when said program runs on a computer. Support d’enregistrement de données, lisible par un ordinateur, sur lequel est enregistré un programme d’ordinateur comprenant des instructions de code de programme de mise en œuvre du procédé selon l’une des revendications 1 à 9.Data storage medium, readable by a computer, on which is recorded a computer program comprising program code instructions for implementing the method according to one of Claims 1 to 9.
FR2110806A 2021-10-12 2021-10-12 Process for authenticating a shot captured in the passenger compartment of a motor vehicle. Pending FR3128039A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR2110806A FR3128039A1 (en) 2021-10-12 2021-10-12 Process for authenticating a shot captured in the passenger compartment of a motor vehicle.
PCT/EP2022/078088 WO2023061934A1 (en) 2021-10-12 2022-10-10 Method for authenticating a snapshot captured in a passenger compartment of a motor vehicle
EP22800263.0A EP4416704A1 (en) 2021-10-12 2022-10-10 Method for authenticating a snapshot captured in a passenger compartment of a motor vehicle

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2110806A FR3128039A1 (en) 2021-10-12 2021-10-12 Process for authenticating a shot captured in the passenger compartment of a motor vehicle.
FR2110806 2021-10-12

Publications (1)

Publication Number Publication Date
FR3128039A1 true FR3128039A1 (en) 2023-04-14

Family

ID=79602121

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2110806A Pending FR3128039A1 (en) 2021-10-12 2021-10-12 Process for authenticating a shot captured in the passenger compartment of a motor vehicle.

Country Status (3)

Country Link
EP (1) EP4416704A1 (en)
FR (1) FR3128039A1 (en)
WO (1) WO2023061934A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160300242A1 (en) * 2015-04-10 2016-10-13 Uber Technologies, Inc. Driver verification system for transport services
WO2018117398A1 (en) * 2016-12-19 2018-06-28 전자부품연구원 Vehicle security method and system using iris recognition in combination with facial recognition
JP2021144578A (en) * 2020-03-13 2021-09-24 マツダ株式会社 Driver state estimation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160300242A1 (en) * 2015-04-10 2016-10-13 Uber Technologies, Inc. Driver verification system for transport services
WO2018117398A1 (en) * 2016-12-19 2018-06-28 전자부품연구원 Vehicle security method and system using iris recognition in combination with facial recognition
JP2021144578A (en) * 2020-03-13 2021-09-24 マツダ株式会社 Driver state estimation device

Also Published As

Publication number Publication date
WO2023061934A1 (en) 2023-04-20
EP4416704A1 (en) 2024-08-21

Similar Documents

Publication Publication Date Title
US10095927B2 (en) Quality metrics for biometric authentication
EP2013816B1 (en) Procedure for identifying a person by eyelash analysis
US20210357671A1 (en) Spoof detection using iris images
US10783388B2 (en) Spoof detection using multiple image acquisition devices
US11328043B2 (en) Spoof detection by comparing images captured using visible-range and infrared (IR) illuminations
EP3901794B1 (en) Method for authentication and identification of an individual
US10885363B2 (en) Spoof detection using structured light illumination
CN103383723A (en) Method and system for spoof detection for biometric authentication
Derman et al. Continuous real-time vehicle driver authentication using convolutional neural network based face recognition
FR3100074A1 (en) Method for analyzing a facial feature of a face
EP3888000A1 (en) Device and method for authenticating an individual
FR3128039A1 (en) Process for authenticating a shot captured in the passenger compartment of a motor vehicle.
EP3264329A1 (en) A method and a device for detecting fraud by examination using two different focal lengths during automatic face recognition
EP3529099B1 (en) Method and system for controlling a use of a vehicle by a driver
EP3454306B1 (en) Fraud detection for controlling access by facial recognition
FR2837444A1 (en) Biometric monitoring circuit for motor vehicle occupants has video camera connected to security circuit to monitor drivers biometric facial parameters and sounds alarm if driver is not identified correctly
FR3107495A1 (en) Monitoring device for monitoring a person driving a vehicle
FR3071942B1 (en) COMBINED BIOMETRIC RECOGNITION METHOD AND DEVICE
FR3105479A1 (en) Method and system for biometric identification and authentication with audiovisual template
FR3110010A1 (en) Process for acquiring a biometric trait of an individual, for authentication or identification of said individual
FR3146270A1 (en) DRIVER CONSCIOUSNESS DETECTION
EP1869648A1 (en) Method and device for verifying identity on board an aircraft

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20230414

PLFP Fee payment

Year of fee payment: 3

CA Change of address

Effective date: 20240301