WO2024079405A1 - Procede et dispositif d'authentification forte - Google Patents

Procede et dispositif d'authentification forte Download PDF

Info

Publication number
WO2024079405A1
WO2024079405A1 PCT/FR2023/051428 FR2023051428W WO2024079405A1 WO 2024079405 A1 WO2024079405 A1 WO 2024079405A1 FR 2023051428 W FR2023051428 W FR 2023051428W WO 2024079405 A1 WO2024079405 A1 WO 2024079405A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
hand
interaction
user
authentication
Prior art date
Application number
PCT/FR2023/051428
Other languages
English (en)
Inventor
Guillaume LEFEBVRE
Wael ELLOUMI
Cyril CAUCHOIS
Original Assignee
Worldline
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Worldline filed Critical Worldline
Publication of WO2024079405A1 publication Critical patent/WO2024079405A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/117Biometrics derived from hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L2463/00Additional details relating to network architectures or network communication protocols for network security covered by H04L63/00
    • H04L2463/082Additional details relating to network architectures or network communication protocols for network security covered by H04L63/00 applying multi-factor authentication

Definitions

  • the present description relates to the general field of virtual or augmented reality, and more particularly concerns a method of authenticating a user wearing an immersion device in a virtual environment, hereinafter called “virtual reality headset » “VR headset” (VR, for “Virtual Reality”) or more generically “immersion device”.
  • virtual audiovisual content is created digitally and represented in a virtual space, which is generally three-dimensional.
  • virtual content sounds, images, graphics, GPS positioning information, etc.
  • real content resulting from a capture of the world real, for example by means of a camera.
  • the feeling of immersion in virtual space is generally reinforced by a stereoscopic or three-dimensional restitution of the video component and by the spatialization of the audio component of the audiovisual content.
  • the present description concerns a method of authenticating a user carrying an immersion device in a virtual space.
  • the process includes
  • - a display of a representation of the user's first hand in the virtual space while the first hand is detected; - a display of at least one virtual authentication object projected onto the representation of the first hand in the virtual space;
  • a user authentication decision taken on the basis of at least two authentication factors including a first biometric factor verified from a biometric fingerprint acquired by the immersion device for the first hand while the first hand is detected and a second knowledge factor verified by comparison of the detected interaction movements with a temporal succession of secret interaction movements known to the user.
  • the representation of the first hand is a representation of the palm of the first hand.
  • the representation of the first hand is displayed at a position in virtual space corresponding to the position of the first hand in real space where the user is located while the interaction movements are carried out; the representation of the first hand in virtual space as well as said at least one virtual authentication object projected onto the representation of the first hand follow a possible movement of the first hand in real space.
  • the representation of the user's first hand in the virtual space is obtained from at least one image of the user's first hand acquired by a camera of the immersion device .
  • the display of said at least one virtual authentication object in projection on the representation of the first hand is carried out so that, when the user performs the interaction movements with said at least one virtual object of authentication, physical contact with the first hand occurs.
  • the detection of interaction movements comprises the detection of movements made with the second hand of the user detected by the immersion device and represented in the virtual space at the same time as the first hand .
  • Physical contact may occur between the first hand and the second hand when the user performs the interaction movements.
  • the detection of interaction movements comprises the detection of movements made by a virtual object of interaction represented in virtual space.
  • the virtual interaction object may for example be a virtual object present in audiovisual content rendered by the immersion device or a virtual object representing a real object manipulated by the user.
  • a virtual object manipulated by the user physical contact can occur between the first hand and the real object when the user performs the interaction movements.
  • the detection of interaction movements comprises the detection of movements made in the real world with the first hand of the user so that the representation of the first hand in the virtual space moves by relative to a fixed virtual interaction object present in the virtual space, the representation of the first hand being displayed at a position in the virtual space corresponding to the position of the first hand in the real space where the user while interaction movements are performed.
  • the virtual interaction object may for example be a fixed virtual object in audiovisual content rendered by the immersion device or a virtual object representing a fixed real object. In the case of a fixed real object, physical contact can occur between the first hand and the fixed real object when the user performs the interaction movements.
  • said at least one virtual authentication object comprises a device for entering a secret code corresponding to a temporal sequence of entry actions forming the temporal succession of secret interaction movements known to the 'user ; detecting interaction movements including detecting input actions performed by the user through interaction with the input device.
  • said at least one virtual authentication object comprises several virtual authentication objects each associated with at least one respective interaction movement, the temporal succession of interaction movements known to the user being a temporal succession of interaction movements, each of which is an interaction movement associated with one of the virtual authentication objects.
  • An interaction movement with a virtual authentication object may include for example at least one movement among a movement of movement of the virtual object, a movement of rotation of the virtual object, a movement of selection of the virtual object and a movement to modify the appearance of the virtual object.
  • the present description concerns a device comprising means for implementing a method according to the first aspect.
  • the means may be software and/or hardware means.
  • the means may comprise, for example, one or more circuits configured to execute one or more or all of the steps of the method according to the first aspect.
  • the means can comprise for example at least one processor and at least one memory comprising program instructions configured to, when executed by the processor, cause the device to execute one or more or all of the steps of the method according to the first appearance.
  • the present description relates to a recording medium readable by a data processor on which is recorded a program comprising program instructions configured to cause the execution by the data processor of one or more or all of steps of the process according to the first aspect.
  • the present description relates to a computer program comprising program instructions configured to cause a data processor to execute one or more or all of the steps of the method according to the first aspect.
  • FIG.1 schematically represents a virtual reality system according to an exemplary embodiment.
  • FIG.2 is a block diagram of an immersion device according to an exemplary embodiment.
  • FIG.3 is a flowchart illustrating a method of enrolling a user according to an exemplary embodiment.
  • FIG.4 is a flowchart illustrating a user authentication method according to an exemplary embodiment.
  • FIG.5 illustrates aspects of an authentication method according to an exemplary embodiment.
  • FIG.6 illustrates aspects of an authentication method according to an exemplary embodiment.
  • the present description relates to a strong authentication method and device applicable during the restitution of audiovisual content in a virtual space by means of an immersion device in a virtual space such as a virtual reality headset.
  • VR virtual reality
  • AR augmented reality
  • MR mixed reality
  • XR extended reality
  • virtual reality will cover all virtual reality technologies in the broad sense, including those of augmented reality, mixed reality or extended reality as well as variants or technologies derived from these technologies.
  • the strong authentication solution described here can be used for different applications and/or transactions requiring authentication (e-commerce, video games, payment, banking management, etc.).
  • the strong authentication method described here combines at least two authentication factors of different types including a biometric factor (for example the print of the palm of the hand) and a knowledge factor based on a known secret sequence of the user (which may be a PIN code, a secret code or a secret sequence of at least one action performed on at least one authentication object represented in the virtual world).
  • the secret sequence is entered by the user by interaction with at least one virtual authentication object represented in the virtual world.
  • the authentication method comprises a display of a representation of a first hand of the user in the virtual space, a display of one or more virtual authentication objects projected onto the representation of the first hand and a detection of interaction movements made by the user in the virtual space with the virtual authentication object(s) while the virtual authentication object(s) are displayed in projection on the representation of the first hand in virtual space.
  • the user authentication decision is made on the basis of at least two authentication factors: a first biometric factor verified from a biometric fingerprint acquired by the immersion device for the first hand and a second knowledge factor verified by comparison of the interaction movements detected with a temporal succession of secret interaction movements known to the user.
  • the authentication process makes it possible to simplify the user experience, to streamline the validation of the transaction requiring authentication while guaranteeing the security of this validation.
  • the authentication process allows two authentication factors to be captured at the same time, with a single user action.
  • the authentication process allows strong authentication of an individual in the virtual world with a high level of security, an immersive, seamless user experience that respects privacy.
  • the authentication process captures two authentication factors with a single interaction request for a single user action.
  • the authentication process allows strong authentication for the validation of a transaction/payment for different immersive applications that rely on virtual reality.
  • This strong authentication solution is inexpensive in that it is based solely on the equipment and sensors already available in the user equipment for rendering virtual reality environments.
  • Sensors can thus be used to capture gestures made by the user.
  • Gesture analysis means software and/or hardware
  • These gesture analysis means can be used to analyze and characterize the user's behavior with the aim of carrying out behavioral biometric authentication: this allows the taking into account of a second biometric factor (in addition to the fingerprint biometric acquired for the hand) and reinforces the level of security of authentication.
  • the gestures performed by the user can be represented in the virtual space, for example by displaying a representation of the hand or hands which perform these gestures or by displaying information representative of the detected gestures.
  • the user can thus evolve in the three-dimensional virtual universe and interact with virtual objects represented in the audiovisual content using simple gestures, with or without use of real-world interaction objects, with or without use interaction objects of the virtual world.
  • Fig.1 schematically represents a virtual reality system according to an exemplary embodiment.
  • the system comprises an immersion device 120 (for example, VR headset) worn by a user 110.
  • the immersion device 120 comprises a display screen 125 (generally, on an internal face of the helmet which is placed in front of the eyes of the user) allowing the user to view the virtual environment in three dimensions (3D).
  • the immersion device 120 is in operational communication with a remote authentication server 140 associated with an authentication database 145.
  • the immersion device 120 may be in communication with a remote content server 160 providing audiovisual content to be returned by the immersion device 120.
  • communication with a remote server 140 and/or with the remote content server 160 is established via a telecommunications network 150, either directly or through a local device 130, such as a personal computer.
  • the immersion device 120 executes an interaction program implementing an authentication method.
  • the interaction program is downloaded into the immersion device 120 from the remote server 140 and then executed locally by the immersion device 120 to interact with the user and capture behavioral data , biometric and other interaction data necessary for authentication.
  • Analysis of captured data can also be performed locally.
  • the immersion device can locally perform the analysis of the biometric factor by comparing the acquired biometric fingerprint with a reference fingerprint (a biometric reference template).
  • a reference fingerprint a biometric reference template
  • the immersion device can locally compare the temporal sequence of interaction movements with a reference sequence.
  • the reference sequence is not stored in plain text but in encrypted form, for example in the form of a digital digest.
  • the verification of the two user authentication factors is carried out by the authentication server which transmits the authentication decision to the immersion device.
  • checking the two factors is carried out locally by the immersion device. If this immersion device is not recognized as a trusted terminal, the level of risk is higher than in the case of authentication server-side verification.
  • the authentication server can identify the user's immersion device (based on a possession factor, in addition to the other two user authentication factors) and verify its authenticity. Different procedures for authenticating the immersion device are possible. For example, the authentication server sends the immersion device a random challenge to sign at each user authentication request. The immersion device signs the challenge then transmits the signature with the result of the user authentication carried out on the basis of the two authentication factors (biometric + secret sequence) to the authentication server. The authentication server verifies the authenticity of the immersion device based on the data received and decides whether or not to validate the user authentication result. This way the final decision always rests with the server.
  • Fig.2 is a block diagram of an immersion device 200 according to an exemplary embodiment.
  • the immersion device 200 can generally present the architecture of a computer, including constituents of such an architecture: data memory(s) 250, processor(s) 220, communication bus 270, interface(s) of communication(s) 240 for connecting this immersion device 200 to a telecommunications network or other local or remote equipment.
  • the immersion device 200 comprises a display screen 210 for the restitution of images of audiovisual content and speakers 211, 212 for the reproduction of the sound of the audiovisual content.
  • the immersion device 200 may include different acquisition devices: camera 231, infrared camera 234, depth camera, microphone 232, biometric sensor 235, gyroscope 233, accelerometer 236, etc.
  • the camera and/or the infrared camera and/or the gyroscope can for example be used to capture gestures performed by the user.
  • Gesture analysis means (software and/or hardware) can be used to analyze, categorize and/or decompose the captured gestures.
  • memory 250 may include program instructions 260 configured to be executed by the processor and implement gesture analysis functions. These gesture analysis functions can be provided in the form of libraries adapted to the immersion device 200.
  • Fig.3 is a flowchart illustrating a method of enrolling a user according to an exemplary embodiment. This process corresponds to an enrollment phase.
  • the enrollment method can be executed by means of an enrollment program executed by an immersion device 120, 200 described with reference to Fig. 1 or 2, this immersion device being in operational communication with a server authentication 140 as described for example with reference to Fig.1.
  • the execution of certain functions can be transferred to a local device 130 (of the personal computer type) connected via a local link with the immersion device 120, 200.
  • the immersion device and the local device 130 cooperate for the implementation of the enrollment process.
  • Creating a user account can be done in various ways and typically includes entering a username and password. For example, the user enters an email address as a username and a password consisting of a numeric or alphanumeric sequence of their choice.
  • the data entered by the user in step 310 are received by the authentication server then verified. If they comply with security rules, the user's account is actually created and activated and the user is informed.
  • the identifier and the password provided in step 310 are stored in association with an identifier of the user account.
  • the identifier and the password can be stored in the authentication database 145.
  • the password can also be stored locally, for example in the immersion device, in encrypted form, usually by means of a digital digest which can be compared with a digital digest of a password subsequently entered by the user.
  • the user may be asked to specify one or more payment methods. For example, he can enter banking data, for example payment card identification data.
  • banking data for example payment card identification data.
  • the data relating to the payment methods provided are stored in association with the data of the user account, for example in the authentication database 145.
  • a payment token for example, “EMV token”
  • EMV token EMV token
  • Each authentication method corresponds to a type of secret sequence that can be used as a knowledge factor. For example a list of secret sequence types is proposed and the user can choose one or more depending on the expected degree of security.
  • the list of secret sequence types may include:
  • a secret sequence type (or authentication method) is selected by the authentication server or an administrator user from among the possible types.
  • the user authentication data corresponding to one or more knowledge factors are acquired and recorded for the authentication method(s) (or types of secret sequences) selected in step 330 .
  • Acquisition and recording of authentication data may be performed through the virtual environment, using a first-hand representation of the user in the virtual space, displaying one or more authentication virtual objects in projection on the representation of the first hand and by detecting interaction movements made by the user in the virtual space with the virtual authentication object(s) while the virtual authentication object(s) are displayed in projection on the representation of the first hand in virtual space as illustrated by Figures 6 and 7.
  • the chosen authentication method is based on a secret code (PIN code or alphanumeric sequence)
  • the user is asked to enter this secret code by means of a virtual authentication object corresponding to a device code entry, for example a virtual numeric keyboard 01 or a virtual alphanumeric keyboard 01 represented in the virtual space as illustrated in Figure 5.
  • the chosen authentication method is based on a secret sequence of symbols
  • the user is asked to enter the secret sequence by means of a virtual authentication object corresponding to a virtual keyboard having keys with one symbol per key.
  • the user can choose which symbols are displayed on the keys and/or the number of symbols on the keyboard.
  • the selection of symbols can be carried out by selection of symbols from a predefined set of symbols which is presented to the user or by selection (for example in virtual or non-virtual video content and/or in images) of images or blocks of images. 'image serving of symbols.
  • the chosen authentication method is based on the reproduction of a temporal sequence of interactions with predefined virtual objects
  • the user can choose virtual objects present in virtual content and carry out the temporal sequence of interactions with the chosen virtual objects.
  • An interaction with a virtual object can be for example: a movement action of the virtual object, a rotation or pivoting action of the virtual object, an action of selection of the virtual object; an action to modify the appearance of the virtual object, etc.
  • Each interaction corresponds to an interaction movement which can be detected by analyzing the images acquired by a camera of the immersion device.
  • the user To record the secret reference sequence during enrollment, the user must select one or more secret virtual objects from their virtual environment and define a certain number of actions or combinations of actions on the secret virtual objects 710, 711 , 713, 714, for example: rotate object 710, change color of object 711, change size of object 713, move object 714 to the right, etc., as shown in Figure 6
  • This sequence of actions constitutes its secret reference sequence to be replayed during the authentication phase.
  • the user must select the secret virtual objects selected during enrollment and interact on these objects in order to replay the succession of actions defined during the enrollment phase for the knowledge factor (see step 440 in particular).
  • reference authentication data corresponding to a knowledge factor are recorded at the end of step 340.
  • This authentication data includes a description of a secret sequence (secret code or other), serving as a reference.
  • master authentication data is preferably stored in encrypted form or recorded in the form of a digital hash.
  • master authentication data includes:
  • Each of the interaction movements of the reference sequence can be listed by means of keywords identifying the type of interaction movement among the types of interaction movement (selection of the virtual authentication object, translation of the authentication virtual object, rotation of the authentication virtual object, modification of the appearance of the virtual authentication object, etc.) with possible parameters specific to this type of interaction movement.
  • the secret sequence is coded in the form of a list, ordered or not, of key words identifying the type of interaction movement.
  • the secret sequence is defined by a temporal succession of interaction movements with the virtual authentication object(s), this temporal succession of interaction movements having to be reproduced by the user in virtual space to be authenticated.
  • multiple reference secret sequences are recorded and all are necessary for user authentication.
  • multiple reference secret sequences are recorded, but only one is randomly chosen for user authentication.
  • biometric authentication data of the user corresponding to one or more biometric factors are acquired and recorded.
  • a biometric factor can relate, for example, to the user's eye, voice, face or hand. We are particularly interested here in the biometric factors associated with the user's hand.
  • the biometric authentication data acquired for a hand may include one or more biometric prints from:
  • biometric handprint overall shape of the hand and fingers in two or three dimensions, with or without an image of the palm, with or without an image of the fingertips, etc.;
  • each biometric fingerprint can be acquired using a suitable biometric sensor.
  • a palm print of the hand can be acquired from an image of the hand acquired by the camera.
  • an imprint of the venous network of the palm of the hand can be acquired from an image acquired by an infrared camera.
  • the immersion device has both a camera and an infrared camera, it is possible, for example, to record not only the palm print acquired from an image of the palm of the hand, but also a fingerprint of the venous network of the hand acquired using the infrared camera as well as the 3D shape of the hand.
  • This allows both to improve recognition performance but above all to deal with presentation attacks (“spoofinq attacks”) which consist of presenting a false biometric sample at the biometric sensor (digital image, printed photo of the hand, etc.)
  • a step 360 user authentication data corresponding to one or more additional factors compared to those in steps 340 and 350 (e.g., possession factor) may be recorded.
  • a possession factor based on the exchange of cryptographic keys between the immersion device 120 and the authentication server 140 can be achieved so as to allow authentication of the immersion device 120 by the authentication server 140 based on cryptographic keys.
  • the recorded authentication data includes one or more cryptographic keys.
  • authentication data obtained during steps 340, 350 and 360 are verified then stored (for example in an authentication database 145) in association with the data of the user account created at the same time.
  • This data serves as reference authentication data. They are stored in encrypted form or recorded in the form of digital hash.
  • authentication data includes:
  • the verification carried out at this stage concerns for example the biometric data and more precisely the quality of the captures of the biometric sample (image of the palm of the hand) which can for example be blurred or not illuminated enough, so as to allow extraction of the biometric reference template used for authentication. Indeed, if the extraction of characteristics and the calculation of the reference biometric template go well then the acquired authentication data is validated and the biometric template will be stored. Failing this, the step of acquiring biometric authentication data is repeated as well as step 370 of verification and recording.
  • Fig.4 is a flowchart illustrating a user authentication method according to an exemplary embodiment. This process corresponds to an authentication phase carried out after the enrollment phase.
  • the authentication method can be executed for example by means of an immersion device 120, 200 described with reference to Fig. 1 or 2, this immersion device being in operational communication with an authentication server 140 as described for example with reference to Fig.1.
  • the authentication process starts and the user is asked to place a hand in front of a camera of the immersion device.
  • the hand is detected by the immersion device, for example by means of the camera. At least one image of the hand may be acquired while the hand is detected by the immersion device.
  • a representation of the user's first hand is displayed in the virtual space while the first hand is detected.
  • the representation of the first hand may be a representation of the palm of the first hand.
  • the representation of the user's first hand in the virtual space can be obtained from at least one image of the user's first hand acquired by the immersion device (by a camera of the immersion device ).
  • the representation of the user's first hand can be a stylized or simplified representation, showing for example only the contours of the hand (contours of the fingers and palms) and main reliefs or correspond to a more detailed image of the hand.
  • one or more virtual authentication objects are displayed in projection on the representation of the first hand in the virtual space.
  • a step 435 the user is asked to authenticate by reproducing a secret reference sequence recorded during the enrollment phase.
  • the reproduction of this secret sequence is to be carried out by interaction with the virtual authentication object(s) displayed in projection on the representation of the first hand in the virtual space.
  • gestures corresponding to interaction movements made by the user in the virtual space with the virtual authentication object(s) are detected while the virtual authentication object(s) are displayed in projection on the representation of the first hand in virtual space.
  • biometric data representative of the user's interaction movements are captured using sensors present (accelerometer, gyroscope, camera, etc.) in the immersion device or its peripherals. This data represents the movements of his hands and/or the way in which the user holds and manipulates the objects in his hand, and/or the behavior of the user.
  • the data acquired by these sensors can be analyzed in order to extract a a certain number of parameters characteristic of user behavior such as: speed of movements, amplitude of movements, duration of movements, latency time between two movements, coordination between movements of the head and hands , statistical parameters, etc.
  • These biometric data behavioral can be used optionally for behavioral biometric authentication, in addition to the two authentication factors used in step 470.
  • the representation of the first hand is displayed at a position in virtual space corresponding to the position of the first hand in real space where the user is located while the interaction movements are carried out.
  • the first hand serves as a spatial cue for the user both in real space and virtual space.
  • it is easier to interact on a virtual authentication object due to this correspondence between what is visualized in the virtual space and the movements that the user makes in real space to control these movements. interaction with virtual objects present only in virtual space.
  • haptic feedback is provided to the user during the interaction with the virtual authentication objects when the user touches the first hand with his second hand during this interaction.
  • the position of the virtual authentication objects relative to the first hand in the virtual space can be predefined and depends on the secret sequence to be entered. Alternatively, the positions of the virtual authentication objects change randomly at each authentication phase.
  • the virtual authentication objects can be positioned on the hand, in front of this hand or near this hand, in particular at a defined distance.
  • Figure 6 illustrates examples of positioning objects on the knuckles of a finger, at the base of a finger, around a finger (when the object is a ring) or other positions.
  • the keyboard can be represented as a single object 01 positioned in the palm of the first hand M1 or as several objects corresponding to the keys of the keyboard and distributed spatially. Whether it is a keyboard or objects to be manipulated, the virtual authentication objects can be distributed to randomly chosen positions on the representation of the first hand M1 at each new authentication in order to reinforce security.
  • the representation of the first hand in virtual space as well as the virtual authentication object(s) projected onto the representation of the first hand follow a possible movement of the first hand in real space so, for example, that the relative position of each of the virtual objects with respect to the first hand in the virtual space does not change, unless there is a possible user action aimed at moving one of these virtual authentication objects relative to the first hand.
  • the interaction movements are carried out with the second hand (in particular the fingers) of the user, the second hand being represented in the virtual space at a position corresponding to that of the second hand in the real space.
  • the representation of the second hand thus serves as a pointer in virtual space.
  • the detection of interaction movements includes the detection of movements made with the second hand of the user detected by the immersion device and represented in the virtual space at the same time as the first hand.
  • the interaction movements can be carried out by means of a virtual interaction object (or virtual pointing object) which is represented in the virtual space and serves as a pointer to act on a virtual object d 'authentication.
  • a virtual interaction object or virtual pointing object
  • This virtual interaction object or pointer may be an interactive virtual object which is present in audiovisual content being reproduced and which the user can manipulate to use it as a pointer in the virtual world.
  • the movement of the virtual interaction object can be controlled in various ways by the user, for example by means of a peripheral such as keyboard, wheel, joystick, mouse, etc.
  • This virtual interaction object can also be a virtual object representing a real object manipulated by the user in the real world.
  • a camera is used to detect the movements of the real object manipulated by the user in the real world
  • the interaction movements can be performed with the first hand of the user so that the representation of the first hand in the virtual space moves relative to a fixed virtual interaction object present in virtual space: in this case also the representation of the first hand is displayed at a position in virtual space corresponding to the position of the first hand in real space where the user is located while the movements of interaction are carried out.
  • This virtual interaction object can be a virtual object which is present and fixed in the audiovisual content.
  • This virtual interaction object can also be a virtual object representing a fixed real object.
  • the secret sequence to be reproduced corresponds to an authentication method selected during the enrollment phase (see step 330) and the virtual objects authentication corresponding to the chosen method are represented in projection on the first hand.
  • a virtual authentication object 01 can be constituted by a virtual keyboard with keys allowing the entry of a numerical sequence, an alphanumeric sequence or a sequence of symbols.
  • the virtual keypad is displayed in the palm of an M1 first hand.
  • the user can perform interaction movements to press keys on this virtual keyboard using their second hand M2 (for example using the index finger of their second hand) and thus enter a secret sequence .
  • the index finger of the second hand can come into contact with the palm of the first hand so that haptic feedback is provided to the user, allowing them to better control their gesture and make it in a more precise and more natural way (because the user knows when he is in contact with the button), in particular with less risk of errors.
  • a virtual keyboard instead of using a virtual keyboard to enter a secret code, another type of device for entering a secret code can be used with interaction movements other than key presses: for example code entry wheels to unlock a safe.
  • the secret sequence corresponds in this case to a temporal sequence of wheel rotation actions.
  • one or more virtual authentication objects 710, 711, 713, 714 are used.
  • Each of these virtual objects is associated with one or more respective interaction movements.
  • the secret sequence can in this case be constituted by a temporal succession of interaction movements, each of which is an interaction movement associated with one of the virtual authentication objects.
  • An interaction movement with a virtual authentication object can be: one movement among a movement of movement of the virtual object, a movement of rotation of the virtual object, a movement of selection of the virtual object, a movement modifying the appearance of the virtual object, etc.
  • step 445 the interaction movements carried out by the user during step 440 are analyzed and compared with a secret reference sequence recorded during the enrollment phase (see step 340).
  • This secret sequence is constituted by a temporal succession of known secret interaction movements of the user.
  • the comparison can be carried out from the respective digital condensates of the secret reference sequence and the interaction movement sequence newly carried out by the user. This comparison makes it possible to determine whether a knowledge factor is verified or not, depending on whether the secret sequence recorded during the enrollment phase is correctly reproduced or not during step 430.
  • one or more biometric prints are acquired from a suitable sensor.
  • a palm print of the hand is acquired from an image of the hand acquired by the camera.
  • an imprint of the venous network of the palm of the hand is acquired from an image acquired by an infrared camera.
  • the biometric print(s) acquired in step 450 are compared with reference biometric prints recorded during the enrollment phase (see step 350). This comparison makes it possible to determine whether a biometric factor is verified or not, depending on whether or not the acquired prints correspond to the reference prints recorded during the enrollment phase.
  • a user authentication decision taken on the basis of at least two authentication factors is obtained.
  • the two authentication factors include at least:
  • a possession factor can be verified by authentication of the immersion device 120 by the authentication server 140 based on at least one cryptographic key received during the enrollment phase.
  • a step 480 the user is notified of the authentication decision: positive or negative depending on whether the user is authenticated or not.
  • the authentication process makes it possible to combine several authentication factors for strong authentication.
  • a third factor can be used: a possession factor based on the exchange of cryptographic keys between the VR headset and the authentication server.
  • the final decision authentication is based on the verification of the three factors.
  • the authentication solution allows strong, transparent, multimodal, modular, customizable and adaptable authentication to different sensors (it is compatible with several types of sensors).
  • the authentication solution is inexpensive since it is solely based on the equipment and sensors available in the VR headsets.
  • the authentication solution provides a good compromise between security and user experience.
  • haptic feedback occurs. This considerably improves the user experience which benefits from a sensory, immersive, ultra-realistic experience, and in addition help in guiding/manipulating objects precisely.
  • Physical contact with the first hand can be made either with the second hand or with another real object, manipulated by the user and represented in the virtual environment at the same time as the first hand.
  • One or more or all of the steps of one or more processes described in this document can be implemented by software or computer program and/or by hardware, for example by circuit, programmable or not, specific or not.
  • the present description thus relates to software or computer program, capable of being executed by a host device (for example, an immersion device) serving as an authentication device, by means of one or more data processors , this software / program comprising instructions to cause this host device to execute all or part of the steps of one or more of the methods described in this document.
  • a host device for example, an immersion device
  • this software / program comprising instructions to cause this host device to execute all or part of the steps of one or more of the methods described in this document.
  • These instructions are intended to be stored in a memory of the host device, loaded and then executed by one or more processors of this host device so as to cause the execution by this host device of the method.
  • This software/program may be coded using any programming language, and be in the form of source code, object code, or intermediate code between source code and object code, such as in partially compiled form, or in any other desirable form.
  • the host device can be implemented by one or more physically distinct machines.
  • the host device can generally present the architecture of a computer, including constituents of such an architecture: data memory(s), processor(s), communication bus, hardware interface(s) for the connection from this host device to a network or other equipment, user interface(s), etc.
  • all or part of the steps of the authentication process or another process described in this document are implemented by an authentication device provided with means for implementing these steps of this process.
  • These means may include software means (for example, instructions for one or more components of a program) and/or hardware means (for example, data memory(s), processor(s) , communication bus, hardware interface(s), etc.).
  • software means for example, instructions for one or more components of a program
  • hardware means for example, data memory(s), processor(s) , communication bus, hardware interface(s), etc.
  • These means may include, for example, one or more processing circuits configured to execute one or more or all of the steps of one of the processes described here.
  • These means may comprise for example at least one processor and at least one memory comprising program instructions configured to, when executed by the processor, cause the execution by the device of one or more or all of the steps of one of the processes described here.
  • Means implementing a function or a set of functions may correspond in this document to a software component, to a hardware component or to a combination of hardware and/or software components, capable of implementing the function or set of functions, according to what is described below for the means concerned.
  • the present description also relates to an information medium readable by a data processor, and comprising instructions for a program as mentioned above.
  • the information carrier can be any hardware means, entity or device, capable of storing the instructions of a program as mentioned above.
  • Usable program storage media include ROM or RAM, magnetic storage media such as magnetic disks, and magnetic tapes, hard disks or optically readable digital data storage media, or any combination of these media.
  • the computer-readable storage medium is not transient.
  • the information carrier may be a transient medium (for example, a carrier wave) for the transmission of a signal (electromagnetic, electrical, radio or optical signal) carrying the program instructions.
  • This signal can be conveyed via an appropriate means of transmission, wired or non-wired: electrical or optical cable, radio or infrared link, or by other means.
  • An embodiment also relates to a computer program product including a computer-readable storage medium having program instructions stored thereon, the program instructions being configured to cause the host device (e.g., a computer) to implement ) of all or part of the steps of one or more methods described here when the program instructions are executed by one or more processors and/or one or more programmable hardware components of the host device.
  • the host device e.g., a computer
  • the program instructions being configured to cause the host device (e.g., a computer) to implement ) of all or part of the steps of one or more methods described here when the program instructions are executed by one or more processors and/or one or more programmable hardware components of the host device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un procédé d'authentification d'un utilisateur porteur d'un dispositif d'immersion dans un espace virtuel, le procédé comprenant : une détection (415) d'une première main de l'utilisateur placée devant une caméra du dispositif d'immersion; un affichage (420) d'une représentation de la première main de l'utilisateur dans l'espace virtuel pendant que la première main est détectée; un affichage (430) d'au moins un objet virtuel d'authentification en projection sur la représentation de la première main dans l'espace virtuel; une détection (440) de mouvements d'interaction effectués par l'utilisateur dans l'espace virtuel avec ledit au moins un objet virtuel d'authentification pendant que ledit au moins un objet virtuel d'authentification est affiché en projection sur la représentation de la première main dans l'espace virtuel; une obtention (470) d'une décision d'authentification basée sur au moins deux facteurs d'authentification, incluant un premier facteur biométrique vérifié à partir d'une empreinte biométrique acquise par le dispositif d'immersion pour la première main pendant que la première main est détectée et un deuxième facteur de connaissance vérifié par comparaison des mouvements d'interaction détectés avec une succession temporelle de mouvements d'interaction secrète connue de l'utilisateur.

Description

DESCRIPTION
TITRE : Procédé et dispositif d’authentification forte
Domaine technique
La présente description se rapporte au domaine général de la réalité virtuelle ou augmentée, et concerne plus particulièrement un procédé d'authentification d'un utilisateur porteur d'un dispositif d'immersion dans un environnement virtuel, appelé dans la suite « casque de réalité virtuelle », « casque VR » (VR, pour « Virtual Reality ») ou plus génériquement « dispositif d'immersion».
Elle concerne plus précisément un procédé et dispositif d’authentification forte applicable pendant la restitution d’un contenu audiovisuel dans un espace virtuel au moyen d’un tel dispositif.
Arrière-plan technique
Dans le cas d’un environnement de réalité virtuelle, un contenu audiovisuel virtuel est créé numériquement et représenté dans un espace virtuel, qui est généralement tridimensionnel. Dans le cas de la réalité augmentée, également appelée hybride ou mixte, un contenu virtuel (sons, images, graphiques, informations de positionnement GPS, etc.) est mélangé dans l’espace virtuel à un contenu réel résultant d’une capture du monde réel, par exemple au moyen d’une caméra. La sensation d'immersion dans l’espace virtuel est généralement renforcée par une restitution stéréoscopique ou tridimensionnelle de la composante vidéo et par la spatialisation de la composante audio du contenu audiovisuel.
Il apparaît le besoin d’une solution d’authentification forte d'un utilisateur applicable dans un environnement virtuel, permettant un niveau de sécurité élevé, une expérience immersive sans couture (« frictionless »), notamment qui ne nécessite pas que l’utilisateur quitte le monde virtuel, qu’il interrompe la restitution du contenu audiovisuel par le casque ou enlève son casque VR.
Résumé
L'étendue de la protection est définie par les revendications.
Selon un premier aspect, la présente description concerne un procédé d’authentification d’un utilisateur porteur d’un dispositif d’immersion dans un espace virtuel. Le procédé comprend
- une détection d’une première main de l’utilisateur placée devant une caméra du dispositif d’immersion;
- un affichage d’une représentation de la première main de l’utilisateur dans l’espace virtuel pendant que la première main est détectée; - un affichage d’au moins un objet virtuel d’authentification en projection sur la représentation de la première main dans l’espace virtuel;
- une détection de mouvements d’interaction effectués par l’utilisateur dans l’espace virtuel avec ledit au moins un objet virtuel d’authentification pendant que ledit au moins un objet virtuel d’authentification est affiché en projection sur la représentation de la première main dans l’espace virtuel;
- une obtention d’une décision d’authentification de l’utilisateur prise sur la base d’au moins deux facteurs d’authentification incluant un premier facteur biométrique vérifié à partir d’une empreinte biométrique acquise par le dispositif d’immersion pour la première main pendant que la première main est détectée et un deuxième facteur de connaissance vérifié par comparaison des mouvements d’interaction détectés avec une succession temporelle de mouvements d’interaction secrète connue de l’utilisateur.
Selon un ou plusieurs modes de réalisation, la représentation de la première main est une représentation de la paume de la première main.
Selon un ou plusieurs modes de réalisation, la représentation de la première main est affichée à une position dans l’espace virtuel correspondant à la position de la première main dans l’espace réel où se trouve l’utilisateur pendant que les mouvements d’interaction sont effectués ; la représentation de la première main dans l’espace virtuel ainsi que ledit au moins un objet virtuel d’authentification projeté sur la représentation de la première main suivent un éventuel mouvement de la première main dans l’espace réel.
Selon un ou plusieurs modes de réalisation, la représentation de la première main de l’utilisateur dans l’espace virtuel est obtenue à partir d’au moins une image de la première main de l’utilisateur acquise par une caméra du dispositif d’immersion.
Selon un ou plusieurs modes de réalisation, l’affichage dudit au moins un objet virtuel d’authentification en projection sur la représentation de la première main est effectué de sorte que, lorsque l’utilisateur effectue les mouvements d’interaction avec ledit au moins un objet virtuel d’authentification, un contact physique avec la première main se produit.
Selon un ou plusieurs modes de réalisation, la détection de mouvements d’interaction comprend la détection de mouvements effectués avec la deuxième main de l’utilisateur détectée par le dispositif d’immersion et représentée dans l’espace virtuel en même temps que la première main. Un contact physique peut se produire entre la première main et la deuxième main lorsque l’utilisateur effectue les mouvements d’interaction.
Selon un ou plusieurs modes de réalisation, la détection de mouvements d’interaction comprend la détection de mouvements effectués par un objet virtuel d’interaction représenté dans l’espace virtuel. L’objet virtuel d’interaction peut être par exemple un objet virtuel présent dans un contenu audiovisuel restitué par le dispositif d’immersion ou un objet virtuel représentant un objet réel manipulé par l’utilisateur. Dans le cas d’un objet réel manipulé par l’utilisateur, un contact physique peut se produire entre la première main et l’objet réel lorsque l’utilisateur effectue les mouvements d’interaction.
Selon un ou plusieurs modes de réalisation, la détection de mouvements d’interaction comprend la détection de mouvements effectués dans le monde réel avec la première main de l’utilisateur de sorte que la représentation de la première main dans l’espace virtuel se déplace par rapport à un objet virtuel d’interaction fixe présent dans l’espace virtuel, la représentation de la première main étant affichée à une position dans l’espace virtuel correspondant à la position de la première main dans l’espace réel où se trouve l’utilisateur pendant que les mouvements d’interaction sont effectués. L’objet virtuel d’interaction peut être par exemple un objet virtuel fixe dans un contenu audiovisuel restitué par le dispositif d’immersion ou un objet virtuel représentant un objet réel fixe. Dans le cas d’un objet réel fixe, un contact physique peut se produire entre la première main et l’objet réel fixe lorsque l’utilisateur effectue les mouvements d’interaction.
Selon un ou plusieurs modes de réalisation, ledit au moins un objet virtuel d’authentification comprend un dispositif de saisie d’un code secret correspondant à une séquence temporelle d’actions de saisie formant la succession temporelle de mouvements d’interaction secrète connue de l’utilisateur ; la détection de mouvements d’interaction comprenant la détection d’actions de saisie effectuées par l’utilisateur par interaction avec le dispositif de saisie.
Selon un ou plusieurs modes de réalisation, ledit au moins un objet virtuel d’authentification comprend plusieurs objets virtuels d’authentification associés chacun à au moins un mouvement d’interaction respectif, la succession temporelle de mouvements d’interaction connue de l’utilisateur étant une succession temporelle de mouvements d’interaction dont chacun est un mouvement d’interaction associé à un des objets virtuels d’authentification. Un mouvement d’interaction avec un objet virtuel d’authentification peut comprendre par exemple au moins un mouvement parmi un mouvement de déplacement de l’objet virtuel, un mouvement de rotation de l’objet virtuel, un mouvement de sélection de l’objet virtuel et un mouvement de modification de l’apparence de l’objet virtuel.
Selon un deuxième aspect la présente description concerne un dispositif comprenant des moyens de mise en oeuvre d’un procédé selon le premier aspect.
Les moyens peuvent être des moyens logiciels et/ou matériels. Les moyens peuvent comprendre par exemple un ou plusieurs circuits configurés pour exécuter une ou plusieurs ou toutes les étapes du procédé selon le premier aspect. Les moyens peuvent comprendre par exemple au moins un processeur et au moins une mémoire comprenant des instructions de programme configurées pour, lorsqu’elles sont exécutées par le processeur, causer l’exécution par le dispositif d’une ou plusieurs ou toutes les étapes du procédé selon le premier aspect.
Selon un autre aspect, la présente description concerne un support d'enregistrement lisible par un processeur de données sur lequel est enregistré un programme comprenant des instructions de programme configurées pour causer l'exécution par le processeur de données d’une ou plusieurs ou toutes les étapes du procédé selon le premier aspect.
Selon un autre aspect, la présente description concerne un programme d'ordinateur comportant des instructions de programme configurées pour causer l'exécution par un processeur de données d’une ou plusieurs ou toutes les étapes du procédé selon le premier aspect.
Brève description des figures
D'autres caractéristiques et avantages résulteront de la description détaillée qui va suivre, effectuée sur la base de modes de réalisation et d’exemples donnés à titre illustratif et non limitatif, en faisant référence aux figures annexées.
[Fig.1 ] représente schématiquement un système de réalité virtuelle selon un exemple de réalisation.
[Fig.2] est un schéma bloc d’un dispositif d’immersion selon un exemple de réalisation.
[Fig.3] est un organigramme illustrant un procédé d’enrôlement d’un utilisateur selon un exemple de réalisation.
[Fig.4] est un organigramme illustrant un procédé d’authentification d’un utilisateur selon un exemple de réalisation.
[Fig.5] illustre des aspects d’un procédé d’authentification selon un exemple de réalisation.
[Fig.6] illustre des aspects d’un procédé d’authentification selon un exemple de réalisation.
Description détaillée
Divers exemples de réalisation vont maintenant être décrits plus en détail en référence aux dessins. Toutefois, les détails structurels et/ou fonctionnels spécifiques divulgués ici sont utilisés pour permettre une compréhension des différents modes de réalisation possibles. Cependant, la personne du métier comprendra que les exemples de réalisation peuvent subir diverses modifications et peuvent être mis en oeuvre sans tous ces détails.
La présente description concerne un procédé et dispositif d’authentification forte applicable pendant la restitution d’un contenu audiovisuel dans un espace virtuel au moyen d’un dispositif d’immersion dans un espace virtuel tel qu’un casque de réalité virtuelle.
Cette solution d’authentification forte est applicable à tout type de systèmes de réalité virtuelle (VR, « virtual reality »), y compris des systèmes de réalité augmentée (AR, « augmented reality »), réalité mixte (MR, « mixed reality ») ou réalité étendue (XR, « extended reality »). Dans le contexte de ce document, on couvrira par l’expression « réalité virtuelle » toutes les technologies de réalité virtuelle au sens large, y compris celles de réalité augmentée, réalité mixte ou réalité étendue ainsi que les variantes ou technologies dérivées de ces technologies.
La solution d’authentification forte décrite ici est utilisable pour différentes applications et/ou transactions nécessitant une authentification (e-commerce, jeux vidéo, paiement, gestion bancaire, etc.).
Par authentification forte, on entend une authentification basée sur la vérification d’au moins deux facteurs d’authentification de types différents. Il existe trois types de facteurs d’authentification :
- facteurs biométriques (basé sur des données biométriques) ;
- facteurs de connaissance (basé sur des informations secrètes connues seulement de l’utilisateur) ;
- facteurs de possession (basé sur l’usage d’un dispositif matériel propre à utilisateur).
Le procédé d'authentification forte décrit ici combine au moins deux facteurs d’authentification de types différents incluant un facteur biométrique (par exemple l'empreinte de la paume de la main) et un facteur de connaissance basé sur d’une séquence secrète connue de l’utilisateur (qui peut être un code PIN, un code secret ou une séquence secrète d’au moins une action effectuée sur au moins un objet d’authentification représenté dans le monde virtuel). La séquence secrète est saisie par l’utilisateur par interaction avec au moins un objet virtuel d’authentification représenté dans le monde virtuel.
Le procédé d'authentification comprend un affichage d’une représentation d’une première main de l’utilisateur dans l’espace virtuel, un affichage d’un ou plusieurs objets virtuels d’authentification en projection sur la représentation de la première main et une détection des mouvements d’interaction effectués par l’utilisateur dans l’espace virtuel avec le ou les objets virtuels d’authentification pendant que le ou les objets virtuels d’authentification sont affichés en projection sur la représentation de la première main dans l’espace virtuel.
La décision d’authentification de l’utilisateur est prise sur la base d’au moins deux facteurs d’authentification : un premier facteur biométrique vérifié à partir d’une empreinte biométrique acquise par le dispositif d’immersion pour la première main et un deuxième facteur de connaissance vérifié par comparaison des mouvements d’interaction détectés avec une succession temporelle de mouvements d’interaction secrète connue de l’utilisateur.
Le procédé d'authentification permet de simplifier l'expérience utilisateur, de fluidifier la validation de la transaction nécessitant une authentification tout en garantissant la sécurité de cette validation. Le procédé d'authentification permet de capturer deux facteurs d’authentification en même temps, avec une seule action de l’utilisateur.
Le procédé d'authentification permet une authentification forte d'un individu dans le monde virtuel avec un niveau de sécurité élevé, une expérience utilisateur immersive, sans couture et conforme au respect de la vie privée. Le procédé d'authentification permet de capturer deux facteurs d’authentification avec une seule demande d’interaction pour une seule action de l’utilisateur.
Le procédé d'authentification permet une authentification forte pour la validation d'une transaction/paiement pour différentes applications immersives qui s'appuient sur la réalité virtuelle.
Cette solution d'authentification forte est peu coûteuse en ce qu’elle est basée uniquement sur les équipements et les capteurs déjà disponibles dans les équipements utilisateurs de restitution d’environnements de réalité virtuelle.
Des capteurs (caméras, gyroscopes, accéléromètres, etc.) peuvent ainsi être utilisés pour capturer des gestes effectués par l'utilisateur. Des moyens d’analyses (logiciels et/ou matériels) de gestes sont utilisables pour analyser, catégoriser et/ou décomposer les gestes capturés. Ces moyens d’analyses de gestes peuvent être utilisés pour analyser et caractériser le comportement de l’utilisateur dans le but d’effectuer une authentification biométrique comportementale : ceci permet la prise en compte d’un deuxième facteur biométrique (en sus de l’empreinte biométrique acquise pour la main) et renforce le niveau de sécurité de l’authentification.
Les gestes effectués par l’utilisateur peuvent être représentés dans l’espace virtuel, par exemple en affichant une représentation de la main ou des mains qui effectuent ces gestes ou en affichant des informations représentatives des gestes détectés.
L’utilisateur peut ainsi évoluer dans l'univers virtuel tridimensionnel et interagir avec des objets virtuels représentés dans le contenu audiovisuel à l'aide de simples gestes, avec ou sans utilisation d’objets d’interaction du monde réel, avec ou sans utilisation d’objets d’interaction du monde virtuel.
La Fig.1 représente schématiquement un système de réalité virtuelle selon un exemple de réalisation.
Le système comprend un dispositif d’immersion 120 (par exemple, casque VR) porté par un utilisateur 110. Le dispositif d’immersion 120 comprend un écran d’affichage 125 (en général, sur une face interne du casque qui est placée devant les yeux de l’utilisateur) permettant à l’utilisateur de visualiser l’environnement virtuel en trois dimensions (3D).
Le dispositif d’immersion 120 est en communication opérationnelle avec un serveur d’authentification distant 140 associé à une base de données d’authentification 145. Le dispositif d’immersion 120 peut être en communication avec un serveur de contenu distant 160 fournissant un contenu audiovisuel à restituer par le dispositif d’immersion 120.
Dans un mode de réalisation, la communication avec un serveur distant 140 et/ou avec le serveur de contenu distant 160 est établie via un réseau de télécommunication 150, soit directement, soit à travers un dispositif local 130, de type ordinateur personnel.
Dans un mode de réalisation, le dispositif d’immersion 120 exécute un programme d’interaction mettant en oeuvre un procédé d’authentification.
Dans un mode de réalisation, le programme d’interaction est téléchargé dans le dispositif d’immersion 120 depuis le serveur distant 140, puis exécuté localement par le dispositif d’immersion 120 afin d’interagir avec l’utilisateur et de capturer les données comportementales, biométriques et autres données d’interactions nécessaires à l’authentification.
L’analyse des données capturées peut également être effectuée localement. Par exemple, le dispositif d’immersion peut effectuer localement l’analyse du facteur biométrique par comparaison de l’empreinte biométrique acquise avec une empreinte de référence (un gabarit biométrique de référence). Par exemple, le dispositif d’immersion peut effectuer localement la comparaison de la séquence temporelle de mouvements d’interaction avec une séquence de référence. Pour raisons de sécurité, la séquence de référence n’est pas stockée en clair mais sous forme chiffrée, par exemple sous forme de condensât numérique.
Dans un ou plusieurs modes de réalisation, la vérification des deux facteurs d’authentification de l’utilisateur (biométrique + séquence secrète) est réalisée par le serveur d’authentification qui transmet la décision d’authentification au dispositif d'immersion.
Dans un ou plusieurs modes de réalisation, la vérification des deux facteurs (biométrique + séquence secrète) est réalisée en local par le dispositif d'immersion. Si ce dispositif d’immersion n’étant pas reconnu en tant que terminal de confiance, le niveau de risque est plus élevé que dans le cas d'une vérification côté serveur d’authentification. Pour réduire ce risque, le serveur d’authentification peut identifier le dispositif d'immersion de l'utilisateur (sur la base d’un facteur de possession, s’ajoutant aux deux autres facteurs d’authentification de l’utilisateur) et vérifier son authenticité. Différentes procédures d’authentification du dispositif d’immersion sont envisageables. Par exemple, le serveur d’authentification envoie au dispositif d'immersion un challenge aléatoire à signer à chaque demande d'authentification de l’utilisateur. Le dispositif d'immersion signe le challenge puis transmets la signature avec le résultat de l'authentification de l’utilisateur effectuée sur la base des deux facteurs d’authentification (biométrique + séquence secrète) au serveur d’authentification. Le serveur d’authentification vérifie l'authenticité du dispositif d'immersion sur la base des données reçues et décide de valider ou pas le résultat de l'authentification de l’utilisateur. De cette façon la décision finale revient toujours au serveur.
La Fig.2 est un schéma bloc d’un dispositif d’immersion 200 selon un exemple de réalisation. Le dispositif d’immersion 200 peut présenter globalement l’architecture d’un ordinateur, incluant des constituants d’une telle architecture : mémoire(s) de données 250, processeur(s) 220, bus de communication 270, interface(s) de communication(s) 240 pour la connexion de ce dispositif d’immersion 200 à un réseau de télécommunication ou un autre équipement local ou distant.
Le dispositif d’immersion 200 comprend un écran d’affichage 210 pour la restitution d’images d’un contenu audiovisuel et des haut-parleurs 211 , 212 pour la restitution du son du contenu audiovisuel.
Le dispositif d’immersion 200 peut comprendre différents dispositifs d’acquisition : caméra 231 , caméra infrarouge 234, caméra de profondeur, microphone 232, capteur biométrique 235, gyroscope 233, accéléromètre 236, etc.
La caméra et/ou la caméra infrarouge et/ou le gyroscope peuvent par exemple être utilisés pour capturer des gestes effectués par l'utilisateur. Des moyens d’analyse (logiciels et/ou matériels) de gestes sont utilisables pour analyser, catégoriser et/ou décomposer les gestes capturés. Par exemple, la mémoire 250 peut comprendre des instructions de programme 260 configurées pour être exécutées par le processeur et mettre en oeuvre des fonctions d’analyse de gestes. Ces fonctions d’analyse de gestes peuvent être fournies sous forme de librairies adaptées au dispositif d’immersion 200.
La Fig.3 est un organigramme illustrant un procédé d’enrôlement d’un utilisateur selon un exemple de réalisation. Ce procédé correspond à une phase d’enrôlement. Le procédé d’enrôlement peut être exécuté au moyen d’un programme d’enrôlement exécuté par un dispositif d’immersion 120, 200 décrit par référence à la Fig.1 ou 2, ce dispositif d’immersion étant en communication opérationnelle avec un serveur d’authentification 140 comme décrit par exemple par référence à la Fig.1 .
Dans certains modes de réalisation, l’exécution de certaines fonctions (notamment des fonctions de calcul ou de stockage de données peuvent être déportées sur un dispositif local 130 (de type ordinateur personnel) relié via une liaison locale avec le dispositif d’immersion 120, 200. Dans ce cas le dispositif d’immersion et le dispositif local 130 coopèrent pour la mise en oeuvre du procédé d’enrôlement.
Lors d’une étape 310, il est demandé à l’utilisateur de créer un compte utilisateur pour une application donnée (jeu vidéo, e-commerce, paiement, etc). La création du compte utilisateur peut être effectuée de diverses manières et comprend typiquement la saisie d’un identifiant et mot de passe. Par exemple, l’utilisateur saisit une adresse de courriel comme identifiant et un mot de passe constitué d’une séquence numérique ou alphanumérique de son choix.
Lors d’une étape 315, les données saisies par l’utilisateur à l’étape 310 sont reçues par le serveur d’authentification puis vérifiées. Si elles sont conformes à des règles de sécurité, le compte de l’utilisateur est effectivement créé et activé et l’utilisateur en est informé. L’identifiant et le mot de passe fournis à l’étape 310 sont stockés en association avec un identifiant du compte utilisateur. L’identifiant et le mot de passe peuvent être stockés dans la base de données d’authentification 145. Le mot de passe peut aussi être stocké localement, par exemple dans le dispositif d’immersion, sous forme chiffrée, usuellement au moyen d’un condensât numérique qui peut être comparé avec d’un condensât numérique d’un mot de passe saisi ultérieurement par l’utilisateur.
Lors d’une étape 320, il peut être demandé à l’utilisateur de spécifier une ou plusieurs méthodes de paiement. Il peut par exemple saisir des données bancaires, par exemple des données d’identification d’une carte de paiement. Dans ce cas, les données relatives aux méthodes de paiement fournies sont stockées an association avec les données du compte utilisateur, par exemple dans la base de données d’authentification 145. Lorsqu’une carte de paiement a été identifié, un jeton de paiement (par exemple, « EMV token ») peut être stocké pour éviter de stocker les données d’identification d’une carte de paiement.
Lors d’une étape 330, il peut être demandé à l’utilisateur de sélectionner une méthode d’authentification. Chaque méthode d’authentification correspond à un type de séquence secrète utilisable comme facteur de connaissance. Par exemple une liste de types de séquences secrètes est proposée et l’utilisateur peut en choisir une ou plusieurs selon le degré de sécurité attendu.
La liste des types de séquences secrètes peut comprendre :
- un code PIN ou séquence numérique;
- une séquence alphanumérique ;
- une séquence de symboles ou dessins ou figures ;
- une séquence temporelle d’interactions avec un ou plusieurs objets virtuels;
- toute autre séquence secrète pouvant être mémorisée et reproduite par l’utilisateur dans un espace virtuel.
En alternative, au lieu de demander à l’utilisateur de choisir un type de séquence secrète, un type de séquence secrète (ou une méthode d’authentification) est sélectionné par le serveur d’authentification ou un utilisateur administrateur parmi les types possibles.
Lors d’une étape 340, les données d’authentification de l’utilisateur correspondant à un ou des facteurs de connaissance sont acquises et enregistrées pour la ou les méthodes d’authentification (ou les types de séquences secrètes) sélectionnées à l’étape 330.
L’acquisition et l’enregistrement des données d’authentification peuvent être exécutés via l’environnement virtuel, en utilisant une représentation d’une première main de l’utilisateur dans l’espace virtuel, en affichant un ou plusieurs objets virtuels d’authentification en projection sur la représentation de la première main et en détectant des mouvements d’interaction effectués par l’utilisateur dans l’espace virtuel avec le ou les objets virtuels d’authentification pendant que le ou les objets virtuels d’authentification sont affichés en projection sur la représentation de la première main dans l’espace virtuel comme illustré par les figures 6 et 7.
Par exemple, si la méthode d’authentification choisie est basée sur un code secret (code PIN ou séquence alphanumérique), il est demandé à l’utilisateur de saisir ce code secret au moyen d’un objet virtuel d’authentification correspondant à un dispositif de saisie de code, par exemple un clavier virtuel numérique 01 ou un clavier virtuel alphanumérique 01 représenté dans l’espace virtuel comme illustré par la figure 5.
Par exemple, si la méthode d’authentification choisie est basée sur une séquence secrète de symboles, il est demandé à l’utilisateur de saisir la séquence secrète au moyen d’un objet virtuel d’authentification correspondant à un clavier virtuel présentant des touches avec un symbole par touche. L’utilisateur peut choisir quels sont les symboles affichés sur les touches et/ou le nombre de symboles du clavier. La sélection des symboles peut être effectuée par sélection de symboles dans un ensemble prédéfini de symboles qui est présenté à l’utilisateur ou par sélection (par exemple dans un contenu vidéo virtuel ou non et/ou dans des images) d’images ou blocs d’image servant de symboles.
Par exemple, si la méthode d’authentification choisie est basée sur la reproduction d’une séquence temporelle d’interactions avec des objets virtuels prédéfinis, l’utilisateur peut choisir des objets virtuels présents dans un contenu virtuel et effectuer la séquence temporelle d’interactions avec les objets virtuels choisis.
Une interaction avec un objet virtuel peut être par exemple : une action de déplacement de l’objet virtuel, une action de rotation ou pivotement de l’objet virtuel, une action de sélection de l’objet virtuel ; une action de modification de l’apparence de l’objet virtuel, etc. A chaque interaction, correspond un mouvement d’interaction qui peut être détecté par analyse des images acquises par une caméra du dispositif d’immersion.
Pour enregistrer la séquence secrète de référence lors de l'enrôlement, l'utilisateur doit sélectionner un ou plusieurs objets virtuels secrets de son environnement virtuel et définir un certain nombre d'actions ou de combinaisons d'actions sur les objets virtuels secrets 710, 711 , 713, 714, par exemple : pivoter l'objet 710, changer la couleur de l'objet 711 , modifier la taille de l'objet 713, déplacer l’objet 714 vers la droite, etc., comme illustré sur la figure 6. Cette séquence d’actions constitue sa séquence secrète de référence à rejouer lors de la phase d'authentification. En particulier, lors de la phase d'authentification, l’utilisateur doit sélectionner les objets virtuels secrets sélectionnés lors de l'enrôlement et interagir sur ces objets afin de rejouer la succession d'actions définie lors de la phase de l'enrôlement pour le facteur de connaissance (voir étape 440 notamment).
D’autres exemples de réalisation sont décrits par référence aux Figs. 4 à 6.
Quelle que soit la méthode d’authentification choisie, des données d’authentification de référence correspondant un facteur de connaissance sont enregistrées à l’issue de l’étape 340. Ces données d’authentification comprennent une description d’une séquence secrète (code secret ou autre), servant de référence.
Ces données d’authentification de référence sont de préférence stockées sous forme chiffrées ou bien enregistrées sous forme de condensât (« hash » en anglais) numérique. Par exemple, les données d’authentification de référence comprennent :
- un condensât du code PIN saisi,
- un condensât des positions des objets virtuels d’authentification sur la main ;
- un condensât de la séquence secrète de référence.
Chacun des mouvements d’interaction de la séquence de référence peut être côté au moyen de mots clefs identifiant le type de mouvement d’interaction parmi des types de mouvement d’interaction (sélection de l’objet virtuel d’authentification, translation de l’objet virtuel d’authentification, rotation de l’objet virtuel d’authentification, modification de l’apparence de l’objet virtuel d’authentification, etc) avec d’éventuels paramètres propres à ce type de mouvement d’interaction. La séquence secrète est codée sous forme de liste, ordonnée ou pas, des mots clefs identifiant le type de mouvement d’interaction.
Quelle que soit la méthode d’authentification choisie, la séquence secrète est définie par une succession temporelle de mouvements d’interaction avec le ou les objets virtuels d’authentification, cette succession temporelle de mouvements d’interaction devant être reproduite par l’utilisateur dans l’espace virtuel pour être authentifié.
Dans des modes de réalisation, plusieurs séquences secrètes de référence sont enregistrées et toutes sont nécessaires pour l’authentification de l’utilisateur.
Dans des modes de réalisation, plusieurs séquences secrètes de référence sont enregistrées, mais une seule est choisie aléatoirement pour l’authentification de l’utilisateur.
Lors d’une étape 350, des données d’authentification biométrique de l’utilisateur correspondant à un ou plusieurs facteurs biométriques sont acquises et enregistrées. Un facteur biométrique peut être relatif par exemple à l’œil, à la voix, au visage ou la main de l’utilisateur. On s’intéresse ici plus particulièrement aux facteurs biométriques associés à la main de l’utilisateur.
Dans ce cas, les données d’authentification biométrique acquises pour une main peuvent comprendre une ou plusieurs empreintes biométriques parmi :
- une empreinte biométrique de la paume de la main (empreinte palmaire) ;
- une empreinte du réseau veineux de la paume de la main ;
- des empreintes de doigts de la main ;
- une empreinte biométrique de la main : forme globale de la main et des doigts en deux ou trois dimensions, avec ou sans image de paume, avec ou sans image des bouts des doigts, etc ;
- une combinaison de ces empreintes.
De manière connue, chaque empreinte biométrique peut être acquise au moyen d’un capteur biométrique adapté. Selon un exemple, une empreinte palmaire de la main peut être acquise à partir d’une image de la main acquise par la caméra. Selon un autre exemple, une empreinte du réseau veineux de la paume de la main peut être acquise à partir d’une image acquise par une caméra infrarouge.
Si le dispositif d’immersion dispose à la fois d’une caméra et d’une caméra infrarouge, on peut par exemple enregistrer non seulement l’empreinte palmaire acquise à partir d’une image de la paume de la main, mais également une empreinte du réseau veineux de la main acquise au moyen de la caméra infrarouge ainsi que la forme 3D de la main. Ceci permet à la fois d'améliorer les performances de reconnaissance mais surtout de faire face aux attaques de présentation (« spoofinq attacks ») qui consistent à présenter un faux échantillon biométrique au niveau du capteur biométrique (image numérique, photo imprimée de la main, etc.)
Lors d’une étape 360, des données d’authentification de l’utilisateur correspondant à un ou plusieurs facteurs supplémentaires par rapport à ceux des étapes 340 et 350 (par exemple, facteur de possession) peuvent être enregistrées.
Par exemple, un facteur de possession basé sur l'échange de clés cryptographiques entre le dispositif d’immersion 120 et le serveur d'authentification 140 peut être réalisé de sorte à permettre une authentification du dispositif d’immersion 120 par le serveur d'authentification 140 sur la base de clés cryptographiques. Dans ce cas, les données d’authentification enregistrées comprennent une ou plusieurs clés cryptographiques.
Lors d’une étape 370, les données d’authentification obtenues lors des étapes 340, 350 et 360 sont vérifiées puis stockées (par exemple dans une base de données d’authentification 145) en association avec les données du compte utilisateur créé à l’étape 315. Ces données servent de données d’authentification de référence. Elles sont stockées sous forme chiffrées ou bien enregistrées sous forme de condensât (« hash » en anglais) numérique. Par exemple, les données d’authentification comprennent :
- un condensât du code PIN saisi ;
- un condensât des positions des objets virtuels d’authentification sur la main ;
- un condensât de la séquence secrète de référence.
La vérification effectuée à cette étape concerne par exemple les données biométriques et plus précisément la qualité des captures de l'échantillon biométrique (image de la paume de la main) qui peuvent par exemple être floues ou pas assez illuminées, de sorte à permettre une extraction du gabarit biométrique de référence servant pour l’authentification. En effet, si l'extraction des caractéristiques et le calcul du gabarit biométrique de référence se passent bien alors les données d’authentification acquises sont validées et le gabarit biométrique sera stocké. A défaut, l'étape d'acquisition des données d’authentification biométrique est répétée ainsi que l’étape 370 de vérification et enregistrement.
La Fig.4 est un organigramme illustrant un procédé d’authentification d’un utilisateur selon un exemple de réalisation. Ce procédé correspond à une phase d’authentification réalisée après la phase d’enrôlement.
Le procédé d’authentification peut être exécuté par exemple au moyen d’un dispositif d’immersion 120, 200 décrit par référence à la Fig.1 ou 2, ce dispositif d’immersion étant en communication opérationnelle avec un serveur d’authentification 140 comme décrit par exemple par référence à la Fig.1 . Lors d’une étape 410, le procédé d’authentification démarre et il est demandé à l’utilisateur de placer une main devant une caméra du dispositif d’immersion.
Lors d’une étape 415, la main est détectée par le dispositif d’immersion, au moyen par exemple de la caméra. Au moins une image de la main peut être acquise pendant que la main est détectée par le dispositif d’immersion.
Lors d’une étape 420, une représentation de la première main de l’utilisateur est affichée dans l’espace virtuel pendant que la première main est détectée.
La représentation de la première main peut être une représentation de la paume de la première main. La représentation de la première main de l’utilisateur dans l’espace virtuel peut être obtenue à partir d’au moins une image de la première main de l’utilisateur acquise par le dispositif d’immersion (par une caméra du dispositif d’immersion).
La représentation de la première main de l’utilisateur peut être une représentation stylisée ou simplifiée, faisant apparaître par exemple seulement les contours de la main (contours des doigts et paumes) et reliefs principaux ou correspondre à une image plus détaillée de la main.
Lors d’une étape 430, un ou plusieurs objets virtuels d’authentification sont affichés en projection sur la représentation de la première main dans l’espace virtuel.
Lors d’une étape 435, il est demandé à l’utilisateur de s’authentifier en reproduisant une séquence secrète de référence enregistrée lors de la phase d’enrôlement. La reproduction de cette séquence secrète est à effectuer par interaction avec le ou les objets virtuels d’authentification affichés en projection sur la représentation de la première main dans l’espace virtuel.
Lors d’une étape 440, des gestes correspondant à des mouvements d’interaction effectués par l’utilisateur dans l’espace virtuel avec le ou les objets virtuels d’authentification sont détectés pendant que le ou les objets virtuels d’authentification sont affichés en projection sur la représentation de la première main dans l’espace virtuel.
Des données biométriques comportementales représentatives des mouvements d’interaction de l'utilisateur sont capturées à l'aide de capteurs présents (accéléromètre, gyroscope, camera, etc.) dans le dispositif d’immersion ou ses périphériques. Ces données représentent les mouvements de ses mains et/ou la façon dont l'utilisateur tient et manipule les objets dans sa main, et/ou le comportement de l’utilisateur Les données acquises par ces capteurs peuvent être analysées afin d'en extraire un certain nombre de paramètres caractéristiques du comportement de l'utilisateur comme par exemple : la vitesse des mouvements, l’amplitude des mouvements, la durée des mouvements, le temps de latence entre deux mouvements, la coordination entre les mouvements de la tête et des mains, des paramètres statistiques, etc. Ces données biométriques comportementales sont utilisables optionnellement pour une authentification biométrique comportementale, en complément des deux facteurs d’authentification utilisés lors de l’étape 470.
Pendant cette étape 440 d’interaction, la représentation de la première main est affichée à une position dans l’espace virtuel correspondant à la position de la première main dans l’espace réel où se trouve l’utilisateur pendant que les mouvements d’interaction sont effectués. De cette manière, la première main sert de repère spatial pour l’utilisateur à la fois dans l’espace réel et l’espace virtuel. En particulier, il est plus aisé d’interagir sur un objet virtuel d’authentification du fait de cette correspondance entre ce qui est visualisé dans l’espace virtuel et les mouvements que l’utilisateur effectue dans l’espace réel pour contrôler ces mouvements d’interaction avec les objets virtuels présents uniquement dans l’espace virtuel.
En outre, lorsque l’utilisateur effectue les mouvements d’interaction avec sa deuxième main relativement à la première main dans l’espace réel tout en ayant une représentation visuelle du déroulement des mouvements d’interaction dans l’espace virtuel, un feedback haptique est fourni à l’utilisateur lors de l’interaction avec les objets virtuels d’authentification quand l’utilisateur vient toucher la première main avec sa deuxième main lors de cette interaction.
La position des objets virtuels d’authentification par rapport à la première main dans l’espace virtuel peut être prédéfinie et fonction de la séquence secrète à saisir. Alternativement les positions des objets virtuels d’authentification changent aléatoirement à chaque phase d’authentification.
Les objets virtuels d’authentification peuvent être positionnés sur la main, devant cette main ou à proximité de cette main, notamment à une distance définie. La figure 6 illustre des exemples de positionnement des objets sur des phalanges d’un doigt, à la base d’un doigt, autour d’un doigt (quand l’objet est un anneau) ou d’autres positions. Dans le cas d’un clavier, comme illustré par la figure 5, le clavier peut être représenté comme un seul objet 01 positionné dans la paume de la première main M1 ou comme plusieurs objets correspondants aux touches du clavier et répartis spatialement. Que ce soit un clavier ou des objets à manipuler, les objets virtuels d’authentification peuvent être répartis à des positions choisies aléatoirement sur la représentation de la première main M1 à chaque nouvelle authentification afin de renforcer la sécurité.
La représentation de la première main dans l’espace virtuel ainsi que le ou les objets virtuels d’authentification projeté(s) sur la représentation de la première main suivent un éventuel mouvement de la première main dans l’espace réel de sorte par exemple que la position relative de chacun des objets virtuels par rapport à la première main dans l’espace virtuel ne change pas, sauf action éventuelle de l’utilisateur ayant pour but de déplacer un de ces objets virtuels d’authentification par rapport à la première main.
Selon des modes de réalisation, les mouvements d’interaction sont effectués avec la deuxième main (notamment les doigts) de l’utilisateur, la deuxième main étant représentée dans l’espace virtuel à une position correspondante à celle de la deuxième main dans l’espace réel. La représentation de la deuxième main sert ainsi de pointeur dans l’espace virtuel. Dans ce cas, la détection de mouvements d’interaction comprend la détection de mouvements effectués avec la deuxième main de l’utilisateur détectée par le dispositif d’immersion et représentée dans l’espace virtuel en même temps que la première main.
Selon des modes de réalisation, les mouvements d’interaction peuvent être effectués au moyen d’un objet virtuel d’interaction (ou objet virtuel de pointage) qui est représenté dans l’espace virtuel et sert de pointeur pour agir sur un objet virtuel d’authentification.
Cet objet virtuel d’interaction ou pointeur peut être un objet virtuel interactif qui est présent dans un contenu audiovisuel en cours de restitution et que l’utilisateur peut manipuler pour s’en servir comme pointeur dans le monde virtuel. Le déplacement de l’objet virtuel d’interaction peut être commandé de diverses manières par l’utilisateur, par exemple au moyen de périphérique tel que clavier, molette, joystick, souris, etc.
Cet objet virtuel d’interaction peut aussi être un objet virtuel représentant un objet réel manipulé par l’utilisateur dans le monde réel. Dans ce cas, une caméra est utilisée pour détecter les mouvements de l’objet réel manipulé par l’utilisateur dans le monde réel
Selon des modes de réalisation, les mouvements d’interaction peuvent être effectués avec la première main de l’utilisateur de sorte que la représentation de la première main dans l’espace virtuel se déplace par rapport à un objet virtuel d’interaction fixe présent dans l’espace virtuel: dans ce cas également la représentation de la première main est affichée à une position dans l’espace virtuel correspondant à la position de la première main dans l’espace réel où se trouve l’utilisateur pendant que les mouvements d’interaction sont effectués. Dans ce mode opératoire, l’utilisateur n’a besoin que d’une seule main. Cet objet virtuel d’interaction peut être un objet virtuel qui est présent et fixe dans le contenu audiovisuel. Cet objet virtuel d’interaction peut aussi être un objet virtuel représentant un objet réel fixe.
Quelle que soit le pointeur ou la manière dont les mouvements d’interaction sont effectués, la séquence secrète à reproduire correspond à une méthode d’authentification sélectionnée lors de la phase d’enrôlement (voir étape 330) et les objets virtuels d’authentification correspondant à la méthode choisie sont représentés en projection sur la première main.
Selon un exemple illustré par la figure 5, un objet virtuel d’authentification 01 peut être constitué par un clavier virtuel à touches permettant la saisie d’une séquence numérique, d’une séquence alphanumérique ou d’une séquence de symboles. Le clavier virtuel à touches est affiché dans la paume d’une première main M1. Dans ce cas, l’utilisateur peut effectuer des mouvements d’interaction pour appuyer sur des touches de ce clavier virtuel au moyen de sa deuxième main M2 (par exemple au moyen de l’index de sa deuxième main) et ainsi saisir une séquence secrète.
Lors de cette interaction, l’index de la deuxième main peut venir en contact avec la paume de la première main de sorte qu’un feedback haptique est fourni à l’utilisateur, ce qui lui permet de mieux contrôler son geste et de le faire de manière plus précise et plus naturelle (car l’utilisateur sait quand il est au contact de la touche), notamment avec moins de risques d’erreurs.
Au lieu d’utiliser un clavier virtuel pour saisir un code secret, un autre type de dispositif de saisie d’un code secret peut être utilisé avec des mouvements d’interactions autres que des appuis de touche : par exemple des mollettes de saisie de code de déblocage d’un coffre-fort. La séquence secrète correspond dans ce cas à une séquence temporelle d’actions de rotation des molettes.
Selon un autre exemple illustré par la figure 6, un ou plusieurs objets virtuels d’authentification 710, 711 , 713, 714 sont utilisés. Chacun de ces objets virtuels est associé à un ou plusieurs mouvements d’interaction respectifs. La séquence secrète peut dans ce cas être constituée par une succession temporelle de mouvements d’interaction dont chacun est un mouvement d’interaction associé à un des objets virtuels d’authentification. Un mouvement d’interaction avec un objet virtuel d’authentification peut être : un mouvement parmi un mouvement de déplacement de l’objet virtuel, un mouvement de rotation de l’objet virtuel, un mouvement de sélection de l’objet virtuel, un mouvement de modification de l’apparence de l’objet virtuel, etc.
Les modes de réalisation, exemples et détails qui ont été décrits pour l’étape d’interaction 440 concernant la reproduction de la séquence secrète sont également applicables à l’étape 340 exécutée lors de la phase d’enrôlement pour l’acquisition de cette séquence secrète.
Lors d’une étape 445, les mouvements d’interaction effectués par l’utilisateur lors de l’étape 440 sont analysés et comparés avec une séquence secrète de référence enregistrée lors de la phase d’enrôlement (voir étape 340). Cette séquence secrète est constituée par une succession temporelle de mouvements d’interaction secrète connue de l’utilisateur. La comparaison peut être effectuée à partir des condensais numériques respectifs de la séquence secrète de référence et de la séquence de mouvement d’interactions nouvellement réalisée par l’utilisateur. Cette comparaison permet de déterminer si un facteur de connaissance est vérifié ou non, selon que la séquence secrète enregistrée lors de la phase d’enrôlement est correctement reproduite ou pas lors de l’étape 430.
Lors d’une étape 450, une ou plusieurs empreintes biométriques sont acquises à partir d’un capteur adapté. Selon un exemple , une empreinte palmaire de la main est acquise à partir d’une image de la main acquise par la caméra. Selon un autre exemple, une empreinte du réseau veineux de la paume de la main est acquise à partir d’une image acquise par une caméra infrarouge.
Lors d’une étape 460, la ou les empreintes biométriques acquises à l’étape 450 sont comparées avec des empreintes biométriques de référence enregistrée lors de la phase d’enrôlement (voir étape 350). Cette comparaison permet de déterminer si un facteur biométrique est vérifié ou non, selon que les empreintes acquises correspondent ou pas aux empreintes de référence enregistrées lors de la phase d’enrôlement.
Lors d’une étape 470, une décision d’authentification de l’utilisateur prise sur la base d’au moins deux facteurs d’authentification est obtenue. Les deux facteurs d’authentification comprennent au moins :
- un premier facteur biométrique vérifié à partir d’une empreinte biométrique extraite de ladite au moins une image ; et
- un deuxième facteur de connaissance vérifié par comparaison des mouvements d’interaction détectés avec une succession temporelle de mouvements d’interaction secrète connue de l’utilisateur.
D’autres facteurs peuvent être utilisés pour renforcer le niveau de sécurité, comme par exemple un facteur de possession. Par exemple, un facteur de possession peut être vérifié par authentification du dispositif d’immersion 120 par le serveur d'authentification 140 sur la base d’au moins une clé cryptographique reçue lors de la phase d’enrôlement.
Lors d’une étape 480, l’utilisateur est notifié de la décision d’authentification : positive ou négative selon que l’utilisateur est authentifié ou non.
Le procédé d’authentification permet de combiner plusieurs facteurs d’authentification en vue d’une authentification forte.
Par exemple une authentification forte combinant deux facteurs dont un basé sur une empreinte palmaire et l’autre sur la saisie d'un code PIN. En outre, un troisième facteur peut être utilisé : un facteur de possession basé sur l'échange de clés cryptographiques entre le casque VR et le serveur d'authentification. La décision finale d'authentification (rejet ou acceptation) est basée sur la vérification des trois facteurs.
Par exemple une authentification forte combinant deux facteurs dont un basé sur une empreinte palmaire et l’autre sur une séquence secrète d’interaction avec des objets virtuels.
La solution d'authentification permet une authentification forte, transparente, multimodale, modulable, personnalisable et adaptable à différents capteurs (elle est compatible avec plusieurs types de capteurs).
La solution d'authentification est peu coûteuse puisqu’uniquement basée sur les équipements et les capteurs disponibles dans les casques VR.
La solution d'authentification permet un bon compromis entre la sécurité et l'expérience utilisateur.
Dans des modes de réalisation, du fait que, lors des mouvements d’interaction effectués par l’utilisateur, un contact physique se produit avec la première main utilisée pour projeter les objets d’authentification, un feedback haptique se produit. Ceci améliore considérablement l’expérience utilisateur qui bénéficie d’une expérience sensorielle, immersive, ultra réaliste, et en outre d’une aide pour guider/manipuler des objets de manière précise. Le contact physique avec la première main peut être réalisé soit avec la deuxième main, soit avec un autre objet réel, manipulé par l’utilisateur et représenté dans l’environnement virtuel en même temps que la première main.
Dans la description des différentes phases et procédés, bien que les étapes soient décrites de manière séquentielle, l'homme du métier comprendra que certaines étapes peuvent être omises, combinées, réalisées dans un ordre différent et/ou en parallèle.
Une ou plusieurs ou toutes les étapes d’un ou des procédés décrits dans ce document peuvent être mises en oeuvre par un logiciel ou programme d'ordinateur et/ou par du hardware, par exemple par circuit, programmable ou non, spécifique ou non.
Les fonctions, étapes et procédés décrits dans ce document peuvent être mises en oeuvre par logiciel (par exemple, via un logiciel sur un ou plusieurs processeurs, pour exécution sur un ordinateur à usage général ou à usage spécifique) et/ou être mises en oeuvre par du hardware (par exemple un ou plusieurs circuits électroniques, et/ou tout autre composant matériel).
La présente description concerne ainsi un logiciel ou programme d'ordinateur, susceptible d’être exécuté par un dispositif hôte (par exemple, un dispositif d’immersion) servant de dispositif de d’authentification, au moyen d’un ou plusieurs processeurs de données, ce logiciel / programme comportant des instructions pour causer l'exécution par ce dispositif hôte de tout ou partie des étapes de l’un ou des procédés décrits dans ce document. Ces instructions sont destinées à être stockées dans une mémoire du dispositif hôte, chargées puis exécutées par un ou plusieurs processeurs de ce dispositif hôte de sorte à causer l’exécution par ce dispositif hôte du procédé.
Ce logiciel / programme peut être codé au moyen de n’importe quel langage de programmation, et être sous la forme de code source, code objet, ou de code intermédiaire entre code source et code objet, tel que dans une forme partiellement compilée, ou dans n’importe quelle autre forme souhaitable.
Le dispositif hôte peut être mis en oeuvre par une ou plusieurs machines physiquement distinctes. Le dispositif hôte peut présenter globalement l’architecture d’un ordinateur, incluant des constituants d’une telle architecture : mémoire(s) de données, processeur(s), bus de communication, interface(s) matérielle(s) pour la connexion de ce dispositif hôte à un réseau ou un autre équipement, interface(s) utilisateur, etc.
Dans un mode de réalisation, tout ou partie des étapes du procédé d’authentification ou d’un autre procédé décrit dans ce document sont mises en oeuvre par un dispositif d’authentification doté de moyens de mise en oeuvre de ces étapes de ce procédé.
Ces moyens peuvent comprendre des moyens logiciels (software) (par exemple, des instructions d'un ou plusieurs composants d’un programme) et/ou moyens matériels (hardware) (par exemple, mémoire(s) de données, processeur(s), bus de communication, interface(s) matérielle(s), etc).
Ces moyens peuvent comprendre par exemple un ou plusieurs circuits de traitement (« processing circuitry ») configurés pour exécuter une ou plusieurs ou toutes les étapes d’un des procédés décrits ici. Ces moyens peuvent comprendre par exemple au moins un processeur et au moins une mémoire comprenant des instructions de programme configurées pour, lorsqu’elles sont exécutées par le processeur, causer l’exécution par le dispositif d’une ou plusieurs ou toutes les étapes d’un des procédés décrits ici.
Des moyens mettant en oeuvre une fonction ou un ensemble de fonctions peuvent correspondre dans ce document à un composant logiciel, à un composant matériel ou bien à une combinaison de composants matériels et/ou logiciels, apte à mettre en oeuvre la fonction ou l’ensemble de fonctions, selon ce qui est décrit ci-dessous pour les moyens concernés.
La présente description concerne aussi un support d'informations lisible par un processeur de données, et comportant des instructions d'un programme tel que mentionné ci-dessus.
Le support d'informations peut être n'importe quel moyen matériel, entité ou dispositif, capable de stocker les instructions d'un programme tel que mentionné ci- dessus. Les supports de stockage de programme utilisables incluent les mémoires ROM ou RAM, les supports de stockage magnétiques tels que des disques magnétiques et des bandes magnétiques, les disques durs ou des supports de stockage de données numériques à lecture optique, ou toute combinaison de ces supports.
Dans certains cas, le support de stockage lisible par ordinateur n'est pas transitoire. Dans d’autres cas, le support d'informations peut être un support transitoire (par exemple, une onde porteuse) pour la transmission d’un signal (signal électromagnétique, électrique, radio ou optique) porteur des instructions de programme. Ce signal peut être acheminé via un moyen de transmission approprié, filaire ou non filaire : câble électrique ou optique, liaison radio ou infrarouge, ou par d'autres moyens.
Un mode de réalisation concerne également un produit programme d'ordinateur comprenant un support de stockage lisible par ordinateur sur lequel sont stockées des instructions de programme, les instructions de programme étant configurées pour causer la mise en oeuvre par le dispositif hôte (par exemple un ordinateur) de tout ou partie des étapes d’un ou des procédés décrits ici lorsque les instructions de programme sont exécutées par un ou plusieurs processeurs et/ou un ou plusieurs composants matériels programmables du dispositif hôte.

Claims

REVENDICATIONS
1 . Procédé d’authentification d’un utilisateur porteur d’un dispositif d’immersion dans un espace virtuel, le procédé comprenant
- une détection (415) d’une première main de l’utilisateur placée devant une caméra du dispositif d’immersion;
- un affichage (420) d’une représentation de la première main de l’utilisateur dans l’espace virtuel pendant que la première main est détectée;
- un affichage (430) d’au moins un objet virtuel d’authentification en projection sur la représentation de la première main dans l’espace virtuel;
- une détection (440) de mouvements d’interaction effectués par l’utilisateur dans l’espace virtuel avec ledit au moins un objet virtuel d’authentification pendant que ledit au moins un objet virtuel d’authentification est affiché en projection sur la représentation de la première main dans l’espace virtuel;
- une obtention (470) d’une décision d’authentification de l’utilisateur prise sur la base d’au moins deux facteurs d’authentification incluant un premier facteur biométrique vérifié à partir d’une empreinte biométrique acquise par le dispositif d’immersion pour la première main pendant que la première main est détectée et un deuxième facteur de connaissance vérifié par comparaison des mouvements d’interaction détectés avec une succession temporelle de mouvements d’interaction secrète connue de l’utilisateur.
2. Procédé selon la revendication 1, dans lequel la représentation de la première main est une représentation de la paume de la première main.
3. Procédé selon la revendication 1 ou 2, dans lequel la représentation de la première main est affichée à une position dans l’espace virtuel correspondant à la position de la première main dans l’espace réel où se trouve l’utilisateur pendant que les mouvements d’interaction sont effectués ; dans lequel la représentation de la première main dans l’espace virtuel ainsi que ledit au moins un objet virtuel d’authentification projeté sur la représentation de la première main suivent un éventuel mouvement de la première main dans l’espace réel.
4. Procédé selon l’une quelconque des revendications 1 à 3, dans lequel l’affichage (430) dudit au moins un objet virtuel d’authentification en projection sur la représentation de la première main est effectué de sorte que, lorsque l’utilisateur effectue les mouvements d’interaction avec ledit au moins un objet virtuel d’authentification, un contact physique avec la première main se produit.
5. Procédé selon l’une quelconque des revendications 1 à 4, dans lequel la détection de mouvements d’interaction comprend la détection de mouvements effectués avec la deuxième main de l’utilisateur détectée par le dispositif d’immersion et représentée dans l’espace virtuel en même temps que la première main.
6. Procédé selon les revendications 4 et 5, dans lequel le contact physique se produit entre la première main et la deuxième main.
7. Procédé selon l’une quelconque des revendications 1 à 3, dans lequel la détection de mouvements d’interaction comprend la détection de mouvements effectués par un objet virtuel d’interaction représenté dans l’espace virtuel, dans lequel l’objet virtuel d’interaction est un objet virtuel présent dans un contenu audiovisuel restitué par le dispositif d’immersion.
8. Procédé selon l’une quelconque des revendications 1 à 4, dans lequel la détection de mouvements d’interaction comprend la détection de mouvements effectués par un objet virtuel d’interaction représenté dans l’espace virtuel, dans lequel l’objet virtuel d’interaction est un objet virtuel représentant un objet réel manipulé par l’utilisateur.
9. Procédé selon les revendications 4 et 8, dans lequel le contact physique se produit entre la première main et l’objet réel manipulé par l’utilisateur.
10. Procédé selon l’une quelconque des revendications 1 à 3, dans lequel la détection de mouvements d’interaction comprend la détection de mouvements effectués dans le monde réel avec la première main de l’utilisateur de sorte que la représentation de la première main dans l’espace virtuel se déplace par rapport à un objet virtuel d’interaction fixe présent dans l’espace virtuel, la représentation de la première main étant affichée à une position dans l’espace virtuel correspondant à la position de la première main dans l’espace réel où se trouve l’utilisateur pendant que les mouvements d’interaction sont effectués, dans lequel l’objet virtuel d’interaction est un objet virtuel fixe dans un contenu audiovisuel restitué par le dispositif d’immersion.
11 . Procédé selon l’une quelconque des revendications 1 à 4, dans lequel la détection de mouvements d’interaction comprend la détection de mouvements effectués dans le monde réel avec la première main de l’utilisateur de sorte que la représentation de la première main dans l’espace virtuel se déplace par rapport à un objet virtuel d’interaction fixe présent dans l’espace virtuel, la représentation de la première main étant affichée à une position dans l’espace virtuel correspondant à la position de la première main dans l’espace réel où se trouve l’utilisateur pendant que les mouvements d’interaction sont effectués, dans lequel l’objet virtuel d’interaction est un objet virtuel représentant un objet réel fixe.
12. Procédé selon les revendications 4 et 11 , dans lequel le contact physique se produit entre la première main et l’objet réel fixe.
13. Procédé selon l’une quelconque des revendications 1 à 12, dans lequel ledit au moins un objet virtuel d’authentification comprend un dispositif de saisie d’un code secret correspondant à une séquence temporelle d’actions de saisie formant la succession temporelle de mouvements d’interaction secrète connue de l’utilisateur, la détection de mouvements d’interaction comprenant la détection d’actions de saisie effectuées par l’utilisateur par interaction avec le dispositif de saisie.
14. Procédé selon l’une quelconque des revendications 1 à 12, dans lequel ledit au moins un objet virtuel d’authentification comprend plusieurs objets virtuels d’authentification associés chacun à au moins un mouvement d’interaction respectif, la succession temporelle de mouvements d’interaction connue de l’utilisateur étant une succession temporelle de mouvements d’interaction dont chacun est un mouvement d’interaction associé à un des objets virtuels d’authentification, dans lequel un mouvement d’interaction avec un objet virtuel d’authentification comprend au moins un mouvement parmi un mouvement de déplacement de l’objet virtuel, un mouvement de rotation de l’objet virtuel, un mouvement de sélection de l’objet virtuel et un mouvement de modification de l’apparence de l’objet virtuel.
15. Dispositif comprenant des moyens de mise en oeuvre d’un procédé selon l’une quelconque des revendications précédentes.
PCT/FR2023/051428 2022-10-13 2023-09-19 Procede et dispositif d'authentification forte WO2024079405A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2210543A FR3140962A1 (fr) 2022-10-13 2022-10-13 Procédé et dispositif d’authentification forte
FRFR2210543 2022-10-13

Publications (1)

Publication Number Publication Date
WO2024079405A1 true WO2024079405A1 (fr) 2024-04-18

Family

ID=85019051

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2023/051428 WO2024079405A1 (fr) 2022-10-13 2023-09-19 Procede et dispositif d'authentification forte

Country Status (2)

Country Link
FR (1) FR3140962A1 (fr)
WO (1) WO2024079405A1 (fr)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150023567A1 (en) * 2013-07-17 2015-01-22 Motorola Solutions, Inc. Palm identification and in-place personalized interactive display
CN106529249A (zh) * 2016-10-31 2017-03-22 宇龙计算机通信科技(深圳)有限公司 一种信息交互的方法及虚拟现实眼镜
US20180107814A1 (en) * 2016-10-13 2018-04-19 Alibaba Group Holding Limited User identity authentication using virtual reality
US20200250284A1 (en) * 2019-02-01 2020-08-06 Sony Corporation Multi-factor authentication for virtual reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150023567A1 (en) * 2013-07-17 2015-01-22 Motorola Solutions, Inc. Palm identification and in-place personalized interactive display
US20180107814A1 (en) * 2016-10-13 2018-04-19 Alibaba Group Holding Limited User identity authentication using virtual reality
CN106529249A (zh) * 2016-10-31 2017-03-22 宇龙计算机通信科技(深圳)有限公司 一种信息交互的方法及虚拟现实眼镜
US20200250284A1 (en) * 2019-02-01 2020-08-06 Sony Corporation Multi-factor authentication for virtual reality

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANONYMOUS: "Turn Your Palm into a Keyboard with This Gadget - Novel Web Creation", 4 August 2015 (2015-08-04), XP093107085, Retrieved from the Internet <URL:https://www.novelwebcreation.com/blog/turn-your-palm-into-a-keyboard-with-this-gadget/> [retrieved on 20231129] *

Also Published As

Publication number Publication date
FR3140962A1 (fr) 2024-04-19

Similar Documents

Publication Publication Date Title
US20230188521A1 (en) Secure authorization for access to private data in virtual reality
EP0619660B1 (fr) Procédé de signature d&#39;un fichier informatique et dispositif pour la mise en oeuvre
US20190121947A1 (en) Method And Computer Program Product For Providing Authentication To Control Access To A Computer System Using Interaction With An Output
US20190236259A1 (en) Method for 3d graphical authentication on electronic devices
US20180196967A1 (en) Contextual contemporaneous gesture and keyboard entry authentication
EP2913741B1 (fr) Procédé de contrôle d&#39;accès par retour haptique
Kroeze et al. User authentication based on continuous touch biometrics
Sharma et al. Behavioral biometrics: past, present and future
Ramya et al. Personalized authentication procedure for restricted web service access in mobile phones
WO2024079405A1 (fr) Procede et dispositif d&#39;authentification forte
Do et al. Potential threat of face swapping to ekyc with face registration and augmented solution with deepfake detection
US11601276B2 (en) Integrating and detecting visual data security token in displayed data via graphics processing circuitry using a frame buffer
CN115906028A (zh) 用户身份验证方法、装置和自助服务终端
FR3081572A1 (fr) Procede et systeme d&#39;authentification d&#39;un utilisateur porteur d&#39;un dispositif d&#39;immersion
CN112989322B (zh) 基于大数据与人工智能的密码支付方法及支付验证系统
CN113518061B (zh) 人脸识别中的数据传输方法、设备、装置、系统及介质
EP4113334A1 (fr) Procédé et système de vérification automatique d&#39;un enregistrement à distance
US20220109995A1 (en) Generation and implementation of distinctive event based cryptographic token via machine recognized event
FR2861482A1 (fr) Procede de securisation d&#39;une donnee biometrique d&#39;authentification et procede d&#39;authentification d&#39;un utilisateur a partir d&#39;une donnee biometrique d&#39;authentification
WO2021191516A1 (fr) Procédé et dispositif de contrôle d&#39;accès.
FR3045876A1 (fr) Procede d&#39;elaboration d&#39;un mot challenge, dispositif electronique, peripherique de consigne et systeme mettant en oeuvre ledit procede
Pimple et al. Biometric Authentication in Cloud
EP4168908A1 (fr) Dispositif et procede d&#39;authentification d&#39;un utilisateur d&#39;un premier dispositif electronique connecte a un deuxieme dispositif electronique
Gofman et al. Security, privacy, and usability challenges in selfie biometrics
WO2024038239A1 (fr) Procede et dispositif d&#39;authentification biometrique comportementale

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23790045

Country of ref document: EP

Kind code of ref document: A1