EP3785098A1 - Systeme d'ajustement de localisation en environnement virtuel immersif - Google Patents

Systeme d'ajustement de localisation en environnement virtuel immersif

Info

Publication number
EP3785098A1
EP3785098A1 EP19716920.4A EP19716920A EP3785098A1 EP 3785098 A1 EP3785098 A1 EP 3785098A1 EP 19716920 A EP19716920 A EP 19716920A EP 3785098 A1 EP3785098 A1 EP 3785098A1
Authority
EP
European Patent Office
Prior art keywords
selection
interface
user
last
pointing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
EP19716920.4A
Other languages
German (de)
English (en)
Inventor
Antoine LASSAGNE
Andras Kemeny
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Publication of EP3785098A1 publication Critical patent/EP3785098A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention relates to a system for locating a control element in an immersive virtual environment.
  • the present invention also relates to a display system in an immersive virtual environment.
  • the present invention more particularly relates to an auto-adaptive system for locating a control element in an immersive virtual environment.
  • the current technological advancement of virtual reality makes it possible to project a user within a virtual universe in which various contents are displayed, for example a 3D object to be studied. It is not only possible to view different 3D content but also to interact with it in real time, which opens the way to many applications.
  • the immersive digital project review for example is materialized by the use of virtual reality as a control tool and a support for discussion between the various interlocutors of a project.
  • digital models of vehicles can then be used by different interlocutors including designers, engineers, ergonomists, and others who can interact during immersive meetings centered on the digital model then serving as a communication medium and exchange of points of view between the different trades.
  • Said digital model also makes it possible to verify that the vehicle model meets architectural, ergonomic, perceived quality or livability criteria, among others.
  • a user is able to interact with the virtual environment.
  • the CAVE acronym Cave Automatic Virtual Environment is a 3D visualization room substantially cube. It consists of an immersive room with three joined vertical walls arranged between a ceiling and a floor and equipped with cameras and sensors at the corners of the ceiling and / or the floor of the room and overhead projectors to broadcast images of the environment. stored in a memory of a control unit. Said sensors and projectors are connected to said control unit. The user is able to move in said environment and to interact with said virtual environment.
  • said user is located at his point of view and at a control element that belongs to the user.
  • the control element is generally a hand of said user.
  • the location of the user's point of view is facilitated by a head tracking device carried by the user, for example the wearing of glasses by said user.
  • Said glasses are generally provided with a marker element which is formed for example by a ball with a metal surface disposed between the two spectacle lenses.
  • Oblique vision pyramids are then calculated in real time from the theoretical position of each eye. However, this position is not always exact or stable: it is often interpolated. For example, variations in morphology between people, the inter-pupillary distance or the depth of the eyes or the height of the nose are all parameters that give rise to errors in the perception of the scale, the depth, or even the position. side of the image.
  • the position of the tracking device is rarely very robust and may vary from one session to another, or even during a single session.
  • Display devices can also be a source of error.
  • the position of said devices can be approximate on the one hand on the geometry of the room (walls) and the layout of the projectors and very variable depending on the quality of the CAVE.
  • the content of virtual scenes is rarely as rich in spatial perception indices as that of a real scene. Many conflicts of perception are present (accommodation / vergence, pixel size, latency) and induce a weak perception by the brain. Spatial information is full of uncertainties, and users are not very confident about distances, scales and visual depths. Especially, the mixture between physical objects, here the hand of the user, and the virtual objects is sometimes difficult to apprehend
  • the design of virtual cell phone keypads is an example.
  • said suggested key can be operated with a contact in a larger space.
  • This differentiates the size of the collision box of each key which represents each of the keys increases and decreases according to the previously touched keys. More specifically, for example, after pressing on a "q", the letter “u” which is visually of the same dimensions as the letter "q” has a larger collision box, so as to be more easily touched.
  • the collision box of an object substantially represents the space allocated for the contact of said object.
  • GB201009714-A describes this improvement.
  • Publication FR3028968-B1 proposes a tactile interface comprising a screen capable of detecting the approach and position of a user's finger.
  • the interface is configured to display on the screen graphical elements superimposed on selection zones or collision boxes, distinct from each other, said interface makes it possible to center the touch selection zone under the finger of the when the user tries to touch an associated graphical element.
  • Both publications offer interfaces that require a position of the control element which is here the finger of the user, relatively close to the collision box to be able to appreciate the point of impact of the user's finger on the box of collision.
  • a disadvantage of these publications is not to allow contact between the user's finger with the collision box of each object from a sufficiently large distance as in an immersive virtual environment.
  • the object of the invention is to remedy these problems and one of the objects of the invention is
  • the present invention more particularly relates to a selection system in an immersive virtual environment, comprising:
  • a 3D display system capable of displaying a selection graphic element in a region of a virtual control surface
  • Said selection system comprising an interface capable of detecting the approach and the position of the pointing means with respect to said virtual control surface to reach a selection zone associated with the selection graphic element,
  • the interface is adapted to modify the selection zone of the graphic element while keeping the display of said frozen element when the position of impact of the pointing means with the selection element on the control surface differs an effective position of the selection area by a deviation below a threshold.
  • the selection system according to the invention is effective in a virtual immersive environment which may be a CAVE comprising an immersive room with sensors and projectors capable of diffusing images on the walls of said room.
  • Said selection system comprises a 3D display system formed by the immersive room projectors which is able to display a graphic selection element that a user will be able to point and touch, in a spatial region of a virtual surface of ordered.
  • the images projected on the walls of the room can be interpreted to display the selection graphical element in a spatial region of a control surface.
  • the contact with said control surface makes it possible to validate a command, in particular in contact with a selection area associated with the graphic element, to validate a command linked to said graphic element.
  • Said control surface is virtual is represented by its spatial coordinates for example.
  • the selection system includes a positioning and head movement detection system for defining the user's point of view and for displaying the selection graphical element at the control surface, and a user-held pointing means for selecting said graphic element.
  • Said pointing means may be a finger of the user whose end is surrounded by a tracking cap for the detection and tracking of said finger.
  • the selection system comprises an interface adapted to detect the approach and the position of the pointing means with respect to said virtual control surface to reach the selection zone associated with the selection graphic element.
  • Said interface is capable of verifying the impact or not of the pointing means on the selection zone associated with the graphic element on the one hand in a plane parallel to the control surface and on the other in depth, that is to say say along an axis orthogonal to the control surface.
  • the display of the graphic element can be interpreted differently by each of the eyes of the user, the point of view of each of the user's eyes being substantially different from the central point of view between the two eyes taken into consideration. counts for displays in the immersive room, which induces terrain errors for the user. These relief errors can also evolve throughout the test session in the immersive room.
  • the interface of the selection system is able to correct these terrain errors by modifying the selection zone that the user wants to reach with his pointing means, while keeping the display of said element frozen, when the position impact of the pointing means with the selection element on the control surface differs from an effective prior position of the selection area by a deviation below a threshold.
  • Said previous effective position of the selection area is defined by the previous selections.
  • the threshold being defined beforehand for example to avoid interference between two neighboring graphical elements.
  • the interface moves the effective selection position of the selection element.
  • the interface moves the effective position of the selection area of the selection element and does not disturb the user's vision.
  • the interface is able to modify the effective position of the selection zone of the graphic element according to the positions of the last N points of the selection element.
  • the interface of the selection system is able to hold N manipulations of selections of said graphic element and in particular several differences between the impact positions of the pointing means on the control surface with the graphic element with the effective position. prior to the selection area of the associated graphic element to avoid changes too fast that may disturb the user.
  • the interface evaluates the consistency between the average of the N-1 penultimate pointing positions with the last pointing position.
  • the interface evaluates the last pointing position of the selection area of the selection element with the averages of the N-1 penultimate pointing positions in order to check the perception drift of the user. . Indeed if the last score is substantially in the same space as the N-1 penultimate points, then the interface consolidates its strategy and moves the effective position of the selection area of the selection element. On the other hand if the last score is not in the same space, then the interface does not take the last score position with the same weight as the average of the N-1 penultimate scores and wait for the next score to check if this last score is due to an error or a correction on the part of the user.
  • the selection interface defines the new effective position of the selection area of the selection element according to the average of the positions of the N-J penultimate scores and J last scores.
  • the interface defines a new effective selection position for the selection area of the selection element when the last J scores differ from the average of the NJ j-penultimate scores, increasing the weight of the last J scores in relation to the average of NJ j-penultimate scores.
  • the interface will rapidly move the selection area of said selection element closer to the perception of the user.
  • the minimum number of consecutive selections of the same selection element is greater than or equal to 5.
  • the number N of consecutive selections of the same selection element taken into account in the strategy of the interface is 5, which on the one hand gives sufficient inertia so as not to modify continuously the effective position of the selection zone of said element and at the same time a sufficient reactivity for the correction of said effective position.
  • the effective anterior position of the selection zone is the center of the projection of the selection zone on the control surface.
  • the interface evaluates the differences between the pointing positions and the center of the projection of the selection zone on the control surface, which makes the calculations easier and improves the reactivity of the interface.
  • the pointing means is a tracking element held at the end of a finger of the user.
  • the pointing means is a tracking element recognized by the tracking and tracking system of the immersive room and it can be simply formed by a tip surrounding a finger, generally the index of a hand of the user.
  • FIG 1 is a schematic view of an immersive virtual environment.
  • FIG. 2 is a schematic view of an interface of the selection system according to the invention.
  • FIG. 3 is a schematic view of modification of a selection zone of a graphic element.
  • a user 10 is immersed in an immersive environment of virtual reality 11, here a "CAVE” acronym for Cave Automatic Virtual Environment.
  • Said virtual environment is composed of an immersive room 12 formed with three vertical walls 14, a floor 13 and a ceiling 15, with a display system 17 comprising rear projection devices 16 disposed at the upper corners of the vertical walls 14 and able to diffuse images on the walls of the immersive room 12, in particular on the vertical walls 14 and the floor 13, and a location system 18 comprising sensors or cameras 19 adapted to identify and track the movements of one or more identified tracking elements.
  • the user 10 is equipped with 3D vision glasses that allow him to perceive from the images broadcast on the walls of the room by the retroprojection devices 16, one or three-dimensional virtual objects 3D.
  • a tracking means 21 representing the point of view of the user is arranged between the glasses of the spectacles.
  • said virtual objects comprise selection elements 31.
  • Said tracking means 21 is for example a silver ball identified and tracked by the sensors 19 of the location system 18 of the immersive room 12.
  • the point of view defined by this means of tracking may not be representative of the point of view of each eye of the user because for example the distance between the eyes which varies for each user 10. Therefore, each of the eyes of the user the user can see a different image resulting in a perception error of the selection element which may be a terrain error.
  • the perception error of the selection element 31 may not be systematic or directed in a given direction.
  • the perception of the selection element can drift throughout the test and test session in the immersive room.
  • the user can himself make corrections throughout the test and test session. Both causes may lead to errors in the perception of the selection element 31 in different or even opposite directions.
  • the user 10 holds by hand a pointing means 22 which is also detected and tracked by the sensors of the immersive room.
  • said pointing means may be a tip worn at the end of a finger, including an index of a hand of the user, as shown in Figure 1 and 2.
  • the invention relates to a gridded tablet or a keypad 21 to facilitate the understanding of the invention but the invention may relate to another object.
  • the invention relates to a selection system 30 buttons 31 forming the keypad 23, each of said buttons is a selection element 31.
  • Said keypad 23 and the selection elements 31 which are the buttons are displayed on a virtual control surface 34 and said display of the keypad and selection elements remains fixed.
  • the images diffused on the walls of the immersive room are perceived by the user 10 as a three-dimensional object at a fixed spatial position.
  • the selection system 30 comprises an interface capable of detecting the position of the pointing means 22 formed by the tip of the user's finger and therefore the approach of said pointing means of the virtual control surface 34.
  • the interface defines a selection area 33 for each of the selection items 31 or buttons of the keypad.
  • Each of the selection areas 33 is substantially a virtual element without appearing here a cube identified by its spatial coordinates, associated with each of the selection elements 31 displayed and which is initially coincident with the selection element 31 on the control surface 34.
  • the selection zones 33 do not appear to the user and are represented in dotted lines.
  • the area of selection also called collision box is a logical element representing a virtually solid volume here the selection element, which is able to collide with other collision boxes. Most of the time, the collision box follows the shape of the selection element.
  • the "virtual" contact of the pointing means 22 held by the user 10 with the selection zone 33 or collision box validates the selection of the selection element 31. The virtual contact is verified by the presence of common spatial coordinates of the pointing means 22 with those of the selection zone 31.
  • the interface is able to follow the pointing means in the immersive virtual environment and to detect the approach and the position of the pointing means 22 with respect to said virtual control surface 34 to reach a selection zone 33 associated with the graphic selection element 31, thanks to the sensors 19 of the immersive room.
  • the interface is able to move the selection zone 33 or collision box of the selection element 31 when the pointing means 22 misses the virtual target displayed by the display system, said virtual target represented by the selection element 31 remains frozen at the same location.
  • the display system 17 is independent of the selection system 30, in particular from said interface of the selection system. However, the difference between the impact position of the pointing means 22 on the control surface 34 must not exceed a distance threshold in order to avoid interference between the different selection zones 33 or adjacent collision boxes.
  • the interface defines an effective position of the selection zone 33 of the selection element. This effective position is initially that is to say at the start of the test session coincides with the display position of the selection element 31.
  • the effective position is at least the last position of the selection area to reach the selection element. Said effective position may vary according to the invention in order to take account of repeated pointing errors, for example drifts of perception of the selection element in the immersive virtual environment. According to the invention, said selection zone 33 has its center disposed at the effective position 36.
  • the interface of the selection system is able to modify the selection area of the selection element to take into account the errors of perception of the selection element and in particular when the position of impact of the pointing means 22 held by the user on the control surface 34 differs from the effective position of the selection zone associated with said selection element.
  • the center of the selection zone 33 can be displaced, for example by a translation parallel to the control surface 34, from the point A to the point B in view of the positions of the impact points 35 which are offset from the center of the selection zone 33.
  • the points A and B are effective positions 36 of the selection zone 33.
  • the difference taken into account depends on the spatial coordinates of the impact point on the one hand pointing means on the control surface 34, and secondly the effective position 36 of the selection zone 33 on the control surface 34 shown in Figure 3 by the center A.
  • the interface retains at least a number N of the last Selection iterations on the same selection element 31.
  • the number N of iterations is set at 5, which has the advantage of not overloading the recording memory of the central unit which unrolls the program of said interface.
  • the number N set at 5 makes it possible to have sufficient inertia to allow adjustment of the effective position optimally.
  • the interface applies a moving strategy which comprises several phases in which the interface takes into account the last N scores of the same selection element 31 with variable weight of influence, said phases are:
  • a first evaluation phase of the impact position of the pointing means on the control surface of the last score with respect to the preceding scores on the same selection element is capable of evaluating the consistency between the average of the N-1 penultimate pointing positions with the last pointing position or the impact position of the pointing means on the control surface.
  • the interface checks whether the position of the point of impact on the control surface of the last pointing is substantially in the same region of selection area of the selection element. More simply, the interface checks whether the spatial coordinates of the point of impact on the control surface 34 of the last pointing are substantially close to the coordinates of the average position obtained with the last N-1 scores.
  • the interface assigns the different scores to the same weight of influence and then validates the drift of the effective position of the selection zone associated with the selection element and as shown in FIG. 3, the interface validates the displacement and is suitable for move the center of the selection area to the average position of the last N scores.
  • the coordinates of the point of impact of the pointing means on the control surface of the last score are substantially different from the average of the coordinates of the impact points for the same selection element for the penultimate N-1s. scores.
  • the interface does not validate the displacement of the effective position of the selection zone associated with said selection element.
  • the interface assigns to the spatial position of the last score a low influence weight with respect to the influence weights of the last N-1 scores and validates the average position of the last N scores.
  • the last score N is considered as an error and the correction associated with this last score does not take place.
  • the interface is able to move the center of the selection zone to said average position of the last N scores.
  • the interface takes into account this next score which becomes the last N score.
  • the latter spatial points N are substantially close to the spatial position of the preceding average, while the interface assigns to the latter score the same weight of influence as the average of the last N-1 scores on the same selection element.
  • a correction confirmation phase In this case, the previous score then becomes penultimate with another next score on the same selection item.
  • the spatial coordinates of the last and penultimate scores on the same selection element are substantially similar.
  • the interface then validates a correction and assigns the last score N a significant influence weight to take into account the correction made by the last and penultimate score.
  • the interface then calculates the average position with the last two scores and is able to move an effective position of the selection area of the selection element accordingly.
  • the interface of the selection system includes a limitation function so as not to stray too far from the visual.
  • Said limiting function can be discrete, that is to say, it stops the drift when reaching a threshold of divergence, or degressive, that is to say that it applies a coefficient of gradual decline (what?).
  • the interface runs a "fuzzy" logic algorithm.
  • the algorithm is run on a calculator for each score.
  • the algorithm described below is an exemplary embodiment of the invention.
  • the algorithm is able to keep in memory the successes or errors of the user and to process them but without over-reacting in case of error on a score from time to time. Finally, the interface is able to catch the error faster if it repeats itself.
  • the algorithm uses linguistic variables that are: • (A, [- 100,100], ⁇ Near, Middle, Far ⁇ - to take into account the proximity of the last score to the center, associated with a relative error in the interval [-100,100] with respect to center, and fuzzy subsets ⁇ Near, Middle, Far ⁇ .
  • the membership functions of variables A and B are three Gaussians, the sum of which is equal to 1 everywhere in the range of values [-100,100].
  • the membership functions of the variables X and Y are defined by a matrix of decisions.
  • the algorithm defines a correction function for the displacement from the addition of six so-called partial functions.
  • Each partial function is a response to the membership more or less strong in a fuzzy subset;
  • Each partial function has a variable gain which is here the degree of membership in the sub -associated fuzzy set and a fixed gain represented by a coefficient Ki optimized by the calculation.
  • pointing refers to the spatial position of the pointing on the control surface.
  • fuzzy operators which are the operators of Zadeh.
  • the decision matrix is described below.
  • the function f z regulates the membership of the pointing made by the user to the fuzzy subsets Xo, Xi, X2, Yo, Y1 and Y2 as a function of the inputs Ao, Ai, A2, Bo, B1 and
  • the six partial functions each perform a linear gain correction Ki to respectively the location of the last score and that of the last moving average.
  • the Ki gains are the parameters to be optimized, in addition to the width of the fuzzy subsets.
  • the interface of the selection system allows a correction of the selection of a selection element in an immersive virtual environment that can take into account the differences in perception of said element at each eye level of the user and to modulate the correction according to the error or the type of error made during a pointing.
  • Each score is validated by its spatial position in the immersive room.
  • SUBSTITUTE SHEET (RULE 26) to modulate the correction according to the error or the type of error made during a pointing.
  • Each score is validated by its spatial position in the immersive room.
  • the algorithm may be different and based on continuous average position changes.
  • the algorithm can take into account the last J scores among N points, with J less than half of N to modify the inertia before moving.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

Système de sélection (30) dans un environnement virtuel immersif (11), comprenant un système d'affichage (17) en 3D apte à afficher un élément graphique de sélection dans une région d'une surface virtuelle de commande; un système de localisation (18) et de détection des mouvements de la tête d'un utilisateur et d'un moyen de pointage (22) tenu par ledit utilisateur, ledit système de sélection (30) comprenant une interface apte à détecter l'approche et la position du moyen de pointage par rapport à ladite surface virtuelle de commande pour atteindre une zone de sélection (33) d'un élément graphique de sélection (31), caractérisé en ce que l'interface est apte à modifier la zone de sélection de l'élément de sélection (31) en gardant l'affichage dudit élément (31) figé, quand la position d'impact du moyen de pointage (22) avec l'élément de sélection sur la surface de commande diffère d'une position efficace de la zone de sélection d'un écart inférieur à un seuil.

Description

SYSTEME D’AJUSTEMENT DE LOCALISATION EN ENVIRONNEMENT
VIRTUEL IMMERSIF
Domaine technique de l’invention
La présente invention concerne un système de localisation d’un élément de commande en environnement virtuel immersif.
La présente invention concerne également un système d’affichage en environnement virtuel immersif.
La présente invention concerne plus particulièrement un système auto- adaptatif de localisation d’un élément de commande en environnement virtuel immersif.
Etat de la technique
L’avancement technologique actuel de la réalité virtuelle permet de projeter un utilisateur au sein d’un univers virtuel dans lequel sont affichés divers contenus, par exemple un objet 3D à étudier. Il est non seulement possible de visualiser différents contenus 3D mais également d’interagir avec ceux-ci en temps réel, ce qui ouvre la voie à bon nombre d’applications. La revue de projet numérique immersive par exemple se matérialise par l’utilisation de la réalité virtuelle comme un outil de contrôle et un support de discussion entre les différents interlocuteurs d’un projet.
Dans le domaine automobile, des maquettes numériques de véhicules peuvent alors être utilisées par différents interlocuteurs dont des designers, des ingénieurs, des ergonomes, et autres qui peuvent dialoguer lors de réunions immersives centrées sur la maquette numérique servant alors de support de communication et d’échange de points de vue entre les différents métiers. Ladite maquette numérique permet également de vérifier que le modèle du véhicule respecte bien des critères d’architecture, d’ergonomie, de qualité perçue ou encore d’habitabilité entre autres. De manière connue, dans l’environnement virtuel immersif avec un système d’affichage dit « see-through » qui permet de voir des objets virtuels, un utilisateur est apte à interagir avec l’environnement virtuel.
Le CAVE acronyme Cave Automatic Virtual Environment est une salle de visualisation 3D sensiblement en cube. Il est composé d’une salle immersive comprenant trois parois verticales jointes disposées entre un plafond et un plancher et équipée de caméras et de capteurs aux coins du plafond et/ou du plancher de ladite salle et de rétroprojecteurs pour diffuser des images de l’environnement enregistrées dans une mémoire d’une unité de contrôle. Lesdits capteurs et projecteurs sont reliés à ladite unité de contrôle. L’utilisateur est apte à se déplacer dans ledit environnement et à interagir avec ledit environnement virtuel.
Pour ce faire, ledit utilisateur est localisé au niveau de son point de vue et au niveau d’un élément de commande qui appartient à l’utilisateur. L’élément de commande est généralement une main dudit utilisateur. La localisation du point de vue de l’utilisateur est facilitée par un dispositif de tracking de tête porté par l’utilisateur, par exemple le port de lunettes par ledit utilisateur. Lesdites lunettes sont généralement munies d’élément de repérage qui est formé par exemple par une boule avec une surface métallique disposé entre les deux verres de lunettes.
Des pyramides de vision obliques sont alors calculées en temps réel depuis la position théorique de chaque œil. Or, cette position n’est pas toujours exacte ni stable : Elle est souvent interpolée. Les variations de morphologie entre les personnes par exemple, l’écart inter-pupillaire ou la profondeur des yeux ou la hauteur du nez sont autant de paramètres sources d’erreur de perception de l’échelle, de la profondeur, ou même de la position latérale de l’image.
La position du dispositif de tracking est rarement très robuste et peut varier d’une session à l’autre, ou même au cours d’une même session.
Il se produit alors des erreurs sur la position des yeux affectant les pyramides de vison oblique. Les dispositifs d’affichage peuvent aussi être source d’erreurs. La position desdits dispositifs peut être approximative selon d’une part la géométrie de la salle (murs) et la disposition des vidéoprojecteurs et très variable selon la qualité du CAVE.
Le contenu des scènes virtuelles est rarement aussi riche en indices de perception spatiale que celui d’une scène réelle. De nombreux conflits de perceptions sont présents (accommodation/vergence, taille des pixels, latence) et induisent une perception peu robuste par le cerveau. Les informations spatiales sont pleines d’incertitudes, et les utilisateurs sont peu confiants sur les distances, échelles et profondeurs visuelles. Particulièrement, le mélange entre objets physiques, ici la main de l’utilisateur, et les objets virtuels est parfois difficile à appréhender
Des techniques permettant d’améliorer la performance des interactions lorsque celles-ci sont imprécises, existent dans l’état de l’art.
La conception des claviers virtuels de téléphone portable constitue un exemple. Pour inciter l’appui de certaines touches, ladite touche suggérée peut être actionnée avec un contact dans un espace plus important. On différencie ainsi la taille de la boite de collision de chaque touche qui représente chacune des touches augmente et diminue en fonction des touches touchées précédemment. Plus précisément, par exemple, après l’appui sur un « q », la lettre « u » qui est visuellement de mêmes dimensions que la lettre « q » présente une boite de collision plus grande, de façon à être plus facilement touchée. La boite de collision d’un objet représente sensiblement l’espace alloué pour le contact dudit objet. La publication GB201009714-A décrit cette amélioration.
La publication FR3028968-B1 propose une interface tactile comportant un écran apte à détecter l'approche et la position d'un doigt d'un utilisateur. L'interface est configurée pour afficher sur l'écran des éléments graphiques superposés à des zones de sélection ou boites de collision, distinctes l’une de l’autre, ladite interface permet de centrer la zone de sélection tactile sous le doigt de l’utilisateur quand ce dernier essaie de toucher un élément graphique associé. Les deux publications proposent des interfaces qui nécessitent une position de l’élément de commande qui est ici le doigt de l’utilisateur, relativement proche de la boite de collision pour pouvoir apprécier le point d’impact du doigt de l’utilisateur sur la boite de collision. Un inconvénient de ces publications est de ne pas permettre un contact entre le doigt de l’utilisateur avec la boite de collision de chaque objet depuis une distance suffisamment grande comme dans un environnement virtuel immersif.
Un autre inconvénient de ces publications est de ne pas faire intervenir le point de vision de l’utilisateur, ce qui réduit sensiblement le champ d’application des interfaces.
Le but de l’invention est de remédier à ces problèmes et un des objets de l’invention est
Présentation de l’invention
La présente invention concerne plus particulièrement un système de sélection dans un environnement virtuel immersif, comprenant :
-un système d’affichage en 3D apte à afficher un élément graphique de sélection dans une région d’une surface virtuelle de commande,
-un système de localisation et de détection des mouvements de la tête d’un utilisateur et d’un moyen de pointage tenu par ledit utilisateur,
Ledit système de sélection comprenant une interface apte à détecter l'approche et la position du moyen de pointage par rapport à ladite surface virtuelle de commande pour atteindre une zone de sélection associé à l’élément graphique de sélection,
Caractérisé en ce que l’interface est apte à modifier la zone de sélection de l’élément graphique en gardant l’affichage dudit élément figé quand la position d’impact du moyen de pointage avec l’élément de sélection sur la surface de commande diffère d’une position efficace de la zone de sélection d’un écart inférieur à un seuil. De manière avantageuse, le système de sélection selon l’invention est efficace dans un environnement immersif virtuel qui peut être un CAVE comprenant une salle immersive avec des capteurs et des projecteurs aptes à diffuser des images sur les murs de ladite salle. Ledit système de sélection comprend un système d’affichage en 3D formé par les projecteurs de la salle immersive qui est apte à afficher un élément graphique de sélection qu’un utilisateur va pouvoir pointer et toucher, dans une région spatiale d’une surface virtuelle de commande. Les images projetées sur les murs de la salle peuvent être interprétées pour afficher l’élément graphique de sélection dans une région spatiale d’une surface de commande. Le contact avec ladite surface de commande permet de valider une commande, notamment au contact d’une zone de sélection associée à l’élément graphique de valider une commande liée audit élément graphique. Ladite surface de commande est virtuelle est représentée par ses coordonnées spatiales par exemple.
Le système de sélection comprend un système de localisation et de détection des mouvements de la tête afin de définir le point de vue de l’utilisateur et de permettre l’affichage de l’élément graphique de sélection au niveau de la surface de commande, et d’un moyen de pointage tenu par l’utilisateur qui permet de sélectionner ledit élément graphique. Ledit moyen de pointage peut être un doigt de l’utilisateur dont l’extrémité est entourée par un capuchon de suivi permettant la détection et le suivi dudit doigt.
Le système de sélection comprend une interface apte à détecter l'approche et la position du moyen de pointage par rapport à ladite surface virtuelle de commande pour atteindre la zone de sélection associée à l’élément graphique de sélection. Ladite interface est apte à vérifier l’impact ou non du moyen de pointage sur la zone de sélection associée à l’élément graphique d’une part selon un plan parallèle à la surface de commande et d’autre en profondeur c’est-à-dire selon un axe orthogonal à la surface de commande. En effet, l’affichage de l’élément graphique peut être différemment interprété par chacun des yeux de l’utilisateur, le point de vue de chacun des yeux de l’utilisateur étant sensiblement différent du point de vue central entre les deux yeux pris en compte pour les affichages dans la salle immersive, ce qui induit des erreurs de relief pour l’utilisateur. Ces erreurs de relief peuvent aussi évoluer tout au long de la session de tests dans la salle immersive.
De manière avantageuse, l’interface du système de sélection est apte à corriger ces erreurs de relief en modifiant la zone de sélection que veut atteindre l’utilisateur avec son moyen de pointage, tout en gardant figé l’affichage dudit élément, quand la position d’impact du moyen de pointage avec l’élément de sélection sur la surface de commande diffère d’une position efficace antérieure de la zone de sélection d’un écart inférieur à un seuil. Ladite position efficace antérieure de la zone de sélection est définie par les sélections précédentes. Ainsi le système de sélection est apte à prendre en compte les dérives de perception par l’utilisateur de l’élément graphique affiché dans la salle immersive. Le seuil étant défini au préalable par exemple pour éviter des interférences entre deux éléments graphiques voisins.
Selon d’autres caractéristiques de l’invention,
-l’interface déplace la position efficace de sélection de l’élément de sélection.
De manière avantageuse, l’interface déplace la position efficace de la zone de sélection de l’élément de sélection et ne perturbe pas la vision de l’utilisateur.
-l’interface est apte à modifier la position efficace de la zone de sélection de l’élément graphique selon les positions des N derniers pointages de l’élément de sélection.
De manière avantageuse, l’interface du système de sélection est apte à retenir N manipulations de sélections dudit élément graphique et notamment plusieurs écarts entre les positions d’impact du moyen de pointage sur la surface de commande avec l’élément graphique avec la position efficace antérieure de la zone de sélection de l’élément graphique associé afin d’éviter des modifications trop rapides qui risquent de perturber l’utilisateur.
-l’interface évalue la cohérence entre la moyenne des N-1 avant- dernières positions de pointage avec la dernière position de pointage. De manière avantageuse et efficace, l’interface évalue la dernière position de pointage de la zone de sélection de l’élément de sélection avec la moyennes des N-1 avant-dernières positions de pointage afin de vérifier la dérive de perception de l’utilisateur. En effet si le dernier pointage est sensiblement dans le même espace que les N-1 avant-derniers pointages, alors l’interface consolide sa stratégie et déplace la position efficace de la zone de sélection de l’élément de sélection. Par contre si le dernier pointage ne se trouve pas dans le même espace, alors l’interface ne prend pas la dernière position de pointage avec le même poids que la moyenne des N-1 avant-derniers pointages et attend le pointage suivant pour vérifier si ce dernier pointage est suite à une erreur ou à une correction de la part de l’utilisateur.
-l’interface de sélection définit la nouvelle position efficace de la zone de sélection de l’élément de sélection en fonction de la moyenne des positions des N-J avant-derniers pointages et des J derniers pointages.
De manière avantageuse, l’interface définit une nouvelle position efficace de sélection pour la zone de sélection de l’élément de sélection lorsque les J derniers pointages diffèrent de la moyenne des N-J j-avant-derniers pointages, en augmentant le poids des J derniers pointages par rapport à la moyenne des N-J j-avant-derniers pointages. De ce fait, l’interface va déplacer rapidement la zone de sélection dudit élément de sélection pour se rapprocher de la perception de l’utilisateur.
-le nombre minimal de sélections consécutives du même élément de sélection est supérieur ou égal à 5.
De manière avantageuse, le nombre N de sélections consécutives d’un même élément de sélection pris en compte dans la stratégie de l’interface est 5, ce qui d’une part donne une inertie suffisante pour ne pas modifier continuellement la position efficace de la zone de sélection dudit élément et en même temps une réactivité suffisante pour la correction de ladite position efficace.
-la position efficace antérieure de la zone de sélection est le centre de la projection de la zone de sélection sur la surface de commande. De manière avantageuse, l’interface évalue les écarts entre les positions de pointages et le centre de la projection de la zone de sélection dur la surface de commande, ce qui rend plus aisés les calculs et améliore la réactivité de l’interface.
-le moyen de pointage est un élément de suivi tenu à l’extrémité d’un doigt de l’utilisateur.
De manière avantageuse, le moyen de pointage est un élément de suivi reconnu par le système de localisation et de suivi de la salle immersive et il peut être simplement formé par un embout entourant un doigt, généralement l’index d’une main de l’utilisateur.
Brève description des figures
D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de la description qui suit de modes particuliers de réalisation de l'invention donnés à titre d'exemples non limitatifs et représentés sur les dessins annexés, dans lesquels :
-la figure 1 est une vue schématique d’un environnement virtuel immersif.
-la figure 2 est une vue schématique d’une interface du système de sélection selon l’invention.
-la figure 3 est une vue schématique de modification d’une zone de sélection d’un élément graphique.
Description détaillée des figures
Dans la description qui va suivre, des chiffres de référence identiques désignent des pièces identiques ou ayant des fonctions similaires.
Selon la figure 1 , un utilisateur 10 est immergé dans un environnement immersif de réalité virtuelle 11 , ici un « CAVE » acronyme pour Cave Automatic Virtual Environment. Ledit environnement virtuel est composé d’une salle immersive 12 formée avec trois murs verticaux 14, un plancher 13 et un plafond 15, avec un système d’affichage 17 comprenant des appareils de rétroprojection 16 disposés aux coins supérieurs des murs verticaux 14 et aptes à diffuser des images sur les parois de la salle immersive 12, notamment sur les murs verticaux 14 et le plancher 13, et un système de localisation 18 comprenant des capteurs ou des caméras 19 aptes à repérer et à suivre les mouvements d’un ou des éléments de suivi 20 identifiés.
Dans la salle immersive 12, l’utilisateur 10 est équipé de lunettes de vision 3D qui lui permettent de percevoir à partir des images diffusées sur les parois de la salle par les appareils de rétroprojection 16, un ou des objets virtuels en trois dimensions 3D. De manière connue, entre les verres des lunettes, est disposé un moyen de suivi 21 représentant le point de vue de l’utilisateur. Selon l’invention, lesdits objets virtuels comprennent des éléments de sélection 31. Ledit moyen de suivi 21 est par exemple une boule argentée repérée et suivie par les capteurs 19 du système de localisation 18 de la salle immersive 12. Toutefois, le point de vue défini grâce à ce moyen de suivi peut ne pas être représentatif du point de vue de chacun des yeux de l’utilisateur à cause par exemple de la distance entre les yeux qui varie pour chaque utilisateur 10. De ce fait, chacun des yeux de l’utilisateur peut voir une image différente ce qui entraîne une erreur de perception de l’élément de sélection qui peut être une erreur de relief.
L’erreur de perception de l’élément de sélection 31 peut ne pas être systématique ou dirigée selon une direction donnée.
D’une part, la perception de l’élément de sélection peut dériver tout au long de la séance de tests et d’essais dans la salle immersive. D’autre part, l’utilisateur 10 peut de lui-même effectuer des corrections tout au long de la séance de tests et d’essais. Les deux causes peuvent entraîner des erreurs de perception de l’élément de sélection 31 dans des directions différentes voire opposées.
L’utilisateur 10 tient à la main un moyen de pointage 22 qui est également détecté et suivi par les capteurs de la salle immersive. De manière connue, ledit moyen de pointage peut être un embout porté au bout d’un doigt, notamment un index d’une main de l’utilisateur, comme représenté en figure 1 et 2. Dans la description qui suit, l’invention se rapporte à une tablette quadrillée ou un pavé numérique 21 pour faciliter la compréhension de l’invention mais l’invention peut concerner un autre objet.
L’invention concerne un système de sélection 30 des boutons 31 formant le pavé numérique 23, chacun desdits boutons est un élément de sélection 31.
La description est centrée sur un bouton mais il va de soi que l’invention concerne tous les boutons du pavé numérique pris en compte de façon individuelle.
Ledit pavé numérique 23 et les éléments de sélection 31 qui sont les boutons sont affichés sur une surface virtuelle de commande 34 et ledit affichage du pavé et des éléments de sélection reste figé. Les images diffusées sur les parois de la salle immersive sont perçues par l’utilisateur 10 comme un objet en trois dimensions à une position spatiale fixe.
Le système de sélection 30 comprend une interface apte à détecter la position du moyen de pointage 22 formé par l’embout au doigt de l’utilisateur et donc l’approche dudit moyen de pointage de la surface virtuelle de commande 34.
L’interface définit une zone de sélection 33 pour chacun des éléments de sélection 31 ou boutons du pavé numérique. Chacune des zones de sélection 33 est sensiblement un élément virtuel sans apparence ici un cube repéré par ses coordonnées spatiales, associé à chacun des éléments de sélection 31 affichés et qui est initialement confondu avec l’élément de sélection 31 sur la surface de commande 34. Selon les figures 2 et 3, les zones de sélection 33 n’apparaissent pas à l’utilisateur et sont représentées en pointillé. La zone de sélection appelée également boite de collision est un élément logique représentant un volume virtuellement solide ici l’élément de sélection, qui est apte entrer en collision avec d’autres boites de collision. La plupart du temps, la boite de collision épouse la forme de l’élément de sélection. Le contact « virtuel » du moyen de pointage 22 tenu par l’utilisateur 10 avec la zone de sélection 33 ou boite de collision valide la sélection de l’élément de sélection 31 . Le contact virtuel est vérifié par la présence de coordonnées spatiales communes du moyen de pointage 22 d’avec celles de la zone de sélection 31 .
L’interface est apte à suivre le moyen de pointage dans l’environnement virtuel immersif et à détecter l'approche et la position du moyen de pointage 22 par rapport à ladite surface virtuelle de commande 34 pour atteindre une zone de sélection 33 associée à l’élément graphique de sélection 31 , grâce aux capteurs 19 de la salle immersive.
Selon la figure 3, l’interface est apte à déplacer la zone de sélection 33 ou boite de collision de l’élément de sélection 31 lorsque le moyen de pointage 22 rate la cible virtuelle affichée par le système d’affichage, ladite cible virtuelle représentée par l’élément de sélection 31 reste figée au même emplacement. Le système d’affichage 17 est indépendant du système de sélection 30 notamment de ladite interface du système de sélection. Toutefois l’écart entre la position d’impact du moyen de pointage 22 sur la surface de commande 34 ne doit pas dépasser un seuil de distance afin d’éviter les interférences entre les différentes zones de sélection 33 ou boites de collision voisines.
Pour ce faire l’interface définit une position efficace de la zone de sélection 33 de l’élément de sélection. Cette position efficace est initialement c’est-à-dire au démarrage de la séance de tests confondue avec la position d’affichage de l’élément de sélection 31 .
La position efficace est au-moins la dernière position de la zone de sélection pour atteindre l’élément de sélection. Ladite position efficace est susceptible de varier selon l’invention afin de prendre en compte les erreurs répétées de pointage par exemple des dérives de perception de l’élément de sélection dans l’environnement virtuel immersif. Selon l’invention ladite zone de sélection 33 présente son centre disposé à la position efficace 36.
L’interface du système de sélection est apte à modifier la zone de sélection de l’élément de sélection pour prendre en compte les erreurs de perception de l’élément de sélection et notamment quand la position d’impact du moyen de pointage 22 tenu par l’utilisateur sur la surface de commande 34 diffère de la position efficace de la zone de sélection associée audit élément de sélection. Par exemple sur la figure 3, le centre de la zone de sélection 33 peut être déplacé, par exemple par une translation parallèlement à la surface de commande 34, du point A vers le point B au vu des positions des points d’impact 35 qui sont décalés par rapport au centre de la zone de sélection 33. Les points A et B sont des positions efficaces 36 de la zone de sélection 33. L’écart pris en compte est fonction des coordonnées spatiales d’une part du point d’impact du moyen de pointage sur la surface de commande 34, et d’autre part de la position efficace 36 de la zone de sélection 33 sur la surface de commande 34 représenté dans la figure 3 par le centre A.
Afin de ne pas sur-réagir à chaque écart entre la position d’impact 35 du moyen de pointage 22 sur le surface de commande 34 et la position efficace 36 de la zone de sélection, l”interface retient au moins un nombre N des dernières itérations de sélection sur le même élément de sélection 31 . De manière préférentielle le nombre N d’itérations est fixé à 5, ce qui a pour avantage de ne pas surcharger la mémoire d’enregistrement de l’unité centrale qui déroule le programme de ladite interface. De plus le nombre N fixé à 5 permet d’avoir une inertie suffisante pour permettre un ajustement de la position efficace de façon optimale.
Afin de déplacer la position efficace de la zone de sélection de l’élément de sélection, l’interface applique une stratégie de déplacement qui comprend plusieurs phases dans lesquelles l’interface prend en compte les N derniers pointages du même élément de sélection 31 avec des poids d’influence variables, lesdites phases sont :
-une première phase d’évaluation de la position d’impact su moyen de pointage sur la surface de commande du dernier pointage vis-à-vis des pointages précédents sur le même élément de sélection. L’interface est apte à évaluer la cohérence entre la moyenne des N-1 avant-dernières positions de pointage avec la dernière position de pointage ou position d’impact du moyen de pointage sur la surface de commande. Dans une première phase, l’interface vérifie si la position du point d’impact sur la surface de commande du dernier pointage se trouve sensiblement dans la même région de zone de sélection de l’élément de sélection. De façon plus simple, l’interface vérifie si les coordonnées spatiales du point d’impact 35 sur la surface de commande 34 du dernier pointage sont sensiblement voisines avec les coordonnées de la position moyenne obtenue avec les N-1 derniers pointages.
-une phase de confirmation du déplacement. Les coordonnées du point d’impact du moyen de pointage sur la surface de commande du dernier pointage sont sensiblement voisines de la moyenne des coordonnées des points d’impact pour le même élément de sélection pour les N-1 avant-derniers pointages. L’interface affecte aux différents pointages un même poids d’influence et valide alors la dérive de la position efficace de la zone de sélection associé à l’élément sélection et comme représenté en figure 3, l’interface valide le déplacement et est apte à déplacer le centre de la zone de sélection à position moyenne des N derniers pointages.
-une phase d’infirmation du déplacement. Dans ce cas, les coordonnées du point d’impact du moyen de pointage sur la surface de commande du dernier pointage sont sensiblement éloignées de la moyenne des coordonnées des points d’impact pour le même élément de sélection pour les N-1 avant-derniers pointages. L’interface ne valide le déplacement de la position efficace de la zone de sélection associé audit élément de sélection. L’interface affecte à la position spatiale du dernier pointage un poids d’influence faible par rapport aux poids d’influence des N-1 derniers pointages et valide la position moyenne des N derniers pointages. Le dernier pointage N est considéré comme une erreur et la correction associée à ce dernier pointage n’a pas lieu. L’interface est apte à déplacer le centre de la zone de sélection à ladite position moyenne des N derniers pointages.
De manière astucieuse, la phase d’infirmation est suivie par :
-une phase de confirmation de l’erreur précédente. L’interface prend en compte ce pointage suivant qui devient dernier pointage N. Si les cordonnées spatiales de ce dernier pointage N sont sensiblement voisines de la position spatiale de la moyenne précédente, alors l’interface affecte à ce dernier pointage un même poids d’influence que la moyenne des N-1 derniers pointages sur le même élément de sélection.
-une phase de confirmation de correction. Dans ce cas, le pointage précédent devient alors avant-dernier avec un autre pointage suivant sur le même élément de sélection. Les coordonnées spatiales du dernier et de l’avant- dernier pointages sur le même élément de sélection sont sensiblement voisines. L’interface valide alors une correction et affecte au dernier pointage N un poids d’influence important pour prendre en compte la correction apportée par le dernier et avant-dernier pointage. L’interface calcule alors la position moyenne avec les deux derniers pointages et est apte à déplacer a position efficace de la zone de sélection de l’élément de sélection en conséquence.
Dans ces deux exemples sont pris en compte les deux derniers pointages par rapport aux N-2 derniers pointages. Il va de soi que l’on peut prendre J derniers pointages et N-J avant-derniers pointages avec une valeur de J inférieur à la moitié de N ou N/2. Dans les exemples précédents J vaut 2.
L’interface du système de sélection comprend une fonction de limitation afin de ne pas trop s’éloigner du visuel. Ladite fonction de limitation peut être discrète, c’est-à-dire qu’elle arrête la dérive à l’atteinte d’un seuil de divergence, ou encore dégressive, c’est-à-dire qu’elle applique un coefficient de décroissance graduel (à quoi ?).
Selon un mode préféré de réalisation, l’interface déroule un algorithme de logique « floue ». L’algorithme est exécuté sur un calculateur pour chaque pointage. L’algorithme décrit ci-après est un exemple de réalisation de l’invention.
L’algorithme est apte à garder en mémoire les réussites ou erreurs de l’utilisateur et de les traiter mais sans sur-réagir en cas d’erreur sur un pointage de temps en temps. Enfin, l’interface est apte à rattraper l’erreur plus rapidement si celle-ci se répète.
L’algorithme utilise des variables linguistiques qui sont : • (A,[-100,100], {Proche, Moyen, Loin}) - pour la prise en compte de la proximité du dernier pointage par rapport au centre, associée à une erreur relative dans l’intervalle [-100,100] par rapport au centre , et aux sous-ensembles flous {Proche, Moyen, Loin}.
• (B,[-100,100], {Proche, Moyen, Loin}) - pour la prise en compte de la proximité du dernier pointage par rapport à la moyenne mobile, associée à une erreur relative dans l’intervalle [-100,100] , et aux sous-ensembles flous {Proche, Moyen, Loin}.
• (X, [0,100], {Peu, Moyennement, Beaucoup}) - pour la prise en compte de la correction à exercer par rapport à dernier pointage.
• (Y, [0,100], {Peu, Moyennement, Beaucoup}) - pour la prise en compte de la correction à exercer par rapport à la dernière moyenne mobile.
Les fonctions d’appartenance aux variables A et B sont trois gaussiennes, dont la somme vaut 1 partout dans l’intervalle de valeurs [-100,100]. Les fonctions d’appartenance aux variables X et Y sont définies par une matrice de décisions.
L’algorithme définit une fonction de correction pour le déplacement à partir l’addition de six fonctions dites partielles. Chaque fonction partielle est une réponse à l’appartenance plus ou moins forte dans un sous-ensemble flou ; Il y a donc 6 fonctions partielles associées aux 6 sous-ensembles flous (3 pour le dernier pointage (proche, moyen, loin), 3 pour la dernière moyenne mobile (proche, moyen, loin). Chaque fonction partielle est une fonction linéaire par rapport à l’erreur ou écart entre le dernier pointage et l’avant-dernier pointage ou bien l’écart entre le dernier pointage et la dernière moyenne mobile. Chaque fonction partielle possède un gain variable qui est ici le degré d’appartenance au sous-ensemble flou associé et un gain fixe représenté par un coefficient Ki optimisé par le calcul.
Dans la suite de ce paragraphe, le terme « pointage » désigne la position spatiale du pointage sur la surface de commande.
Dans l’algorithme, des opérateurs flous sont utilisés qui sont les opérateurs de Zadeh.
La matrice de décisions est décrite ci-dessous.
En prenant en compte les sous-ensembles flous suivants :
La fonction fz régule l’appartenance du pointage fait par l’utilisateur aux sous- ensembles flous Xo , Xi , X2 , Yo , Y1 et Y2 en fonction des entrées Ao , Ai , A2 , Bo , B1 et
B2.
Le tableau ci-dessous décrit les fonctions d’appartenance définies dans ce mode de réalisation.
A titre d’exemple, pour comprendre le tableau:
Si de dernier pointage (A) est proche (a) ET(P) la dernière moyenne mobile (B) est proche -> On applique les fonctions d’implications A3 (vers la dernière interaction, intensité 3) et B2 (vers la dernière moyenne mobile, intensité 2). sembl Fonctions gaussiennes flous
d'implications
Correction =
Proximité à la
{1,2,3} dernière
interaction /I
Proximité à la
moyenne
mobile des
dernières
interactions
FEUILLE DE REMPLACEMENT (RÈGLE 26)
Les règles d’inférence ainsi conçues permettent de répondre au besoin exprimé. Par exemple, si le dernier pointage est très loin des autres, le système va peu corriger ; si le pointage suivant est au même endroit, c’est-à-dire que les deux derniers pointages sont proches l’un de l’autre mais loin de la moyenne mobile, le système va corriger plus rapidement.
Les 6 fonctions partielles effectuent chacune une correction linéaire de gain Ki vers respectivement le lieu du dernier pointage et celui de la dernière moyenne mobile. Les gains Ki sont les paramètres à optimiser, en plus de la largeur des sous-ensembles flous.
Une optimisation réalisée a permis d’obtenir les valeurs m = 50 et s = 15 pour les gaussiennes des fonctions d’appartenance. Les valeurs de K optimisées sont les résultats de phases de validation.
L’objectif est atteint : l’interface du système de sélection selon l’invention permet une correction de la sélection d’un élément de sélection dans un environnement virtuel immersif pouvant prendre en compte les écarts de perception dudit élément au niveau de chacun des yeux de l’utilisateur et de moduler la correction selon l’erreur ou le type d’erreur faite lors d’un pointage. Chaque pointage est validé par sa position spatiale dans la salle immersive.
FEUILLE DE REMPLACEMENT (RÈGLE 26) moduler la correction selon l’erreur ou le type d’erreur faite lors d’un pointage. Chaque pointage est validé par sa position spatiale dans la salle immersive.
Comme il va de soi, l'invention ne se limite pas aux seules formes d'exécution de cette prise, décrites ci-dessus à titre d'exemples, elle en embrasse au contraire toutes les variantes.
Par exemple, l’algorithme peut être différent et se baser sur des modifications de positions moyennes en continu.
Par exemple, l’algorithme peut prendre en compte les J derniers pointages parmi N pointages, avec J inférieur à la moitié de N pour modifier l’inertie avant déplacement.

Claims

REVENDICATIONS
1. Système de sélection (30) dans un environnement virtuel immersif (11 ), comprenant : -un système d’affichage (17) en 3D apte à afficher un élément graphique de sélection dans une région d’une surface virtuelle de commande,
-un système de localisation (18) et de détection des mouvements de la tête d’un utilisateur et d’un moyen de pointage (22) tenu par ledit utilisateur, ledit système de sélection (30) comprenant une interface apte à détecter l'approche et la position du moyen de pointage par rapport à ladite surface virtuelle de commande pour atteindre une zone de sélection (33) d’un élément graphique de sélection (31 ),
caractérisé en ce que l’interface est apte à modifier la zone de sélection (33) de l’élément de sélection (31 ) en gardant l’affichage dudit élément (31 ) figé, quand la position d’impact (35) du moyen de pointage (22) avec l’élément de sélection sur la surface de commande diffère d’une position efficace (36) de la zone de sélection d’un écart inférieur à un seuil.
2. Système de sélection (30) selon la revendication 1 , caractérisé en ce que l’interface déplace la position efficace (36) de sélection de l’élément de sélection.
3. Système de sélection (30) selon la revendication 1 ou 2, caractérisé en ce que l’interface est apte à modifier la position efficace (36) de la zone de sélection (33) de l’élément graphique selon les positions des N derniers pointages de l’élément de sélection (31 ).
4. Système de sélection (30) selon la revendication 3, caractérisé en ce que l’interface évalue la cohérence entre la moyenne des N-1 avant-dernières positions de pointage avec la dernière position (35) de pointage.
5. Système de sélection (30) selon la revendication 3, caractérisé en ce que l’interface de sélection définit la nouvelle position efficace de la zone de sélection de l’élément sélectionné en fonction de la moyenne des positions des N-J avant-dernières positions de pointage (35) et des J dernières positions de pointage (35).
6. Système de sélection (30) selon l’une quelconque des revendications 3 à 5, caractérisé en ce que le nombre N des derniers pointages du même élément de sélection (31 ) est supérieur ou égal à 5.
7. Système de sélection (30) selon l’une quelconque des revendications 1 à 6, caractérisé en ce que la zone de sélection (33) est centrée sur la position efficace (36).
8. Système de sélection (30) selon l’une quelconque des revendications 1 à 7, caractérisé en ce que le moyen de pointage (22) est un élément de suivi (20) tenu à l’extrémité d’un doigt de l’utilisateur.
EP19716920.4A 2018-04-25 2019-04-15 Systeme d'ajustement de localisation en environnement virtuel immersif Withdrawn EP3785098A1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1853599A FR3080696B1 (fr) 2018-04-25 2018-04-25 Systeme d'ajustement de localisation en environnement virtuel immersif
PCT/EP2019/059673 WO2019206719A1 (fr) 2018-04-25 2019-04-15 Systeme d'ajustement de localisation en environnement virtuel immersif

Publications (1)

Publication Number Publication Date
EP3785098A1 true EP3785098A1 (fr) 2021-03-03

Family

ID=63294340

Family Applications (1)

Application Number Title Priority Date Filing Date
EP19716920.4A Withdrawn EP3785098A1 (fr) 2018-04-25 2019-04-15 Systeme d'ajustement de localisation en environnement virtuel immersif

Country Status (4)

Country Link
EP (1) EP3785098A1 (fr)
KR (1) KR20210002623A (fr)
FR (1) FR3080696B1 (fr)
WO (1) WO2019206719A1 (fr)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9164623B2 (en) * 2012-10-05 2015-10-20 Htc Corporation Portable device and key hit area adjustment method thereof
FR3023626A3 (fr) * 2014-07-11 2016-01-15 Renault Sas Dispositif de navigation en realite virtuelle comportant une interface haptique
FR3028968B1 (fr) 2014-11-21 2016-11-25 Renault Sa Interface graphique et procede de gestion de l'interface graphique lors de la selection tactile d'un element affiche
US10042438B2 (en) * 2015-06-30 2018-08-07 Sharp Laboratories Of America, Inc. Systems and methods for text entry
JP6483556B2 (ja) * 2015-07-15 2019-03-13 株式会社東芝 操作認識装置、操作認識方法及びプログラム

Also Published As

Publication number Publication date
FR3080696B1 (fr) 2021-02-26
FR3080696A1 (fr) 2019-11-01
WO2019206719A1 (fr) 2019-10-31
KR20210002623A (ko) 2021-01-08

Similar Documents

Publication Publication Date Title
US10789760B2 (en) Focus guidance within a three-dimensional interface
US10416769B2 (en) Physical haptic feedback system with spatial warping
US10394314B2 (en) Dynamic adjustment of user interface
CN101689244B (zh) 用于紧凑设备的基于相机的用户输入
US9846486B2 (en) Systems and methods of direct pointing detection for interaction with a digital device
US11683470B2 (en) Determining inter-pupillary distance
US20110273369A1 (en) Adjustment of imaging property in view-dependent rendering
US20110273466A1 (en) View-dependent rendering system with intuitive mixed reality
CN109246463B (zh) 用于显示弹幕的方法和装置
Koulieris et al. Gaze prediction using machine learning for dynamic stereo manipulation in games
Creem-Regehr et al. Perceiving distance in virtual reality: theoretical insights from contemporary technologies
CN101180891A (zh) 立体图像显示装置、立体图像显示方法及计算机程序
Raudies et al. Modeling boundary vector cell firing given optic flow as a cue
US20200233487A1 (en) Method of controlling device and electronic device
US20190243527A1 (en) Display device, program, display method, and control device
US20130314406A1 (en) Method for creating a naked-eye 3d effect
Nightingale et al. Can people detect errors in shadows and reflections?
EP3785098A1 (fr) Systeme d'ajustement de localisation en environnement virtuel immersif
Hillaire et al. Using a visual attention model to improve gaze tracking systems in interactive 3d applications
Rosa et al. Selection techniques for dense and occluded virtual 3d environments, supported by depth feedback: Double, bound and depth bubble cursors
US11224801B2 (en) Enhanced split-screen display via augmented reality
US11559744B2 (en) Targeting of an individual object among a plurality of objects in a multi-player online video game
Smith Unmediated Interaction: Communicating with Computers and Embedded Devices as If They Are Not There
WO2021191516A1 (fr) Procédé et dispositif de contrôle d'accès.
Grossman Interaction with volumetric displays

Legal Events

Date Code Title Description
STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: UNKNOWN

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE

PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE

17P Request for examination filed

Effective date: 20201021

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MK MT NL NO PL PT RO RS SE SI SK SM TR

AX Request for extension of the european patent

Extension state: BA ME

DAV Request for validation of the european patent (deleted)
DAX Request for extension of the european patent (deleted)
RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: RENAULT S.A.S

RAP3 Party data changed (applicant data changed or rights of an application transferred)

Owner name: RENAULT S.A.S

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17Q First examination report despatched

Effective date: 20221201

P01 Opt-out of the competence of the unified patent court (upc) registered

Effective date: 20230608

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION IS DEEMED TO BE WITHDRAWN

18D Application deemed to be withdrawn

Effective date: 20230412