FR3013861A1 - METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY - Google Patents

METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY Download PDF

Info

Publication number
FR3013861A1
FR3013861A1 FR1361671A FR1361671A FR3013861A1 FR 3013861 A1 FR3013861 A1 FR 3013861A1 FR 1361671 A FR1361671 A FR 1361671A FR 1361671 A FR1361671 A FR 1361671A FR 3013861 A1 FR3013861 A1 FR 3013861A1
Authority
FR
France
Prior art keywords
user
interaction
touch
spatial position
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1361671A
Other languages
French (fr)
Other versions
FR3013861B1 (en
Inventor
Jean Monfraix
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Operations SAS
Original Assignee
Airbus Operations SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus Operations SAS filed Critical Airbus Operations SAS
Priority to FR1361671A priority Critical patent/FR3013861B1/en
Publication of FR3013861A1 publication Critical patent/FR3013861A1/en
Application granted granted Critical
Publication of FR3013861B1 publication Critical patent/FR3013861B1/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Abstract

L'invention concerne un procédé de validation d'une interaction entre un utilisateur et une surface tactile. La surface tactile comprend une zone dont une interaction avec un élément distinct de la surface active une fonction d'un équipement associé à cette surface. Le procédé comprend les étapes suivantes : - détection (S1) d'une interaction entre la zone de la surface tactile et l'élément distinct, - détermination (S2) d'une position spatiale de la zone de la surface tactile, - détermination (S5) d'une position spatiale simultanée des yeux de l'utilisateur, - comparaison (S7) entre la position spatiale déterminée de la zone de la surface tactile et la position spatiale déterminée des yeux de l'utilisateur, - en fonction du résultat de la comparaison, activation (S12) ou non activation (S9) de la fonction. Le procédé n'active la fonction que si l'utilisateur regarde la zone qu'il touche.The invention relates to a method for validating an interaction between a user and a touch surface. The touch surface comprises a zone whose interaction with a distinct element of the surface activates a function of a device associated with that surface. The method comprises the following steps: - detecting (S1) an interaction between the area of the tactile surface and the distinct element, - determining (S2) a spatial position of the area of the tactile surface, - determining ( S5) of a simultaneous spatial position of the eyes of the user, - comparison (S7) between the determined spatial position of the area of the tactile surface and the determined spatial position of the eyes of the user, - depending on the result of the comparison, activation (S12) or non-activation (S9) of the function. The method only activates the function if the user looks at the area he touches.

Description

PROCEDE DE VALIDATION D'UNE INTERACTION SUR UNE SURFACE TACTILE PAR OCCULOMETRIE L'invention concerne un procédé et un système de validation d'une 5 interaction entre un utilisateur et une surface tactile. Les surfaces tactiles sont de plus en plus utilisées de nos jours aussi bien dans des environnements professionnels que dans des environnements liés aux loisirs ou à la vie de tous les jours. Les surfaces tactiles sont fréquemment associées à des équipements tels qu'un ordinateur ou un 10 téléphone présentant une surface active (comme un écran de contrôle affichant différentes icônes). De telles surfaces comprennent chacune généralement une ou plusieurs zones tactiles, par exemple matérialisées par des touches sur un écran d'affichage. Chaque zone tactile touchée par un utilisateur (avec la main 15 ou avec un stylet par exemple) active une fonction ou une application de l'équipement associé à la surface active. Toutefois, l'interaction avec la zone tactile est parfois accidentelle, c'est-à-dire non souhaitée par l'utilisateur. Ainsi, l'interaction peut être réalisée de façon involontaire par l'utilisateur lui-même ou par l'intermédiaire 20 d'un objet entrant en contact de manière intempestive avec la zone tactile. Un tel contact involontaire peut se produire en raison de l'environnement dans lequel se trouvent l'utilisateur et la surface tactile et, notamment, en raison de conditions liées à cet environnement, par exemple dans un environnement très vibratoire, tel qu'un cockpit d'aéronef. 25 Cependant, un contact même involontaire d'un élément qui est distinct de la surface tactile avec une zone tactile de la surface déclenche l'activation de la fonction ou de l'application associée. L'invention a ainsi pour objet, selon un premier aspect, un procédé de validation d'une interaction entre un utilisateur et une surface tactile, la 30 surface tactile comprenant au moins une zone dont une interaction avec un élément distinct de ladite surface tactile active au moins une fonction d'au moins un équipement associé à ladite surface tactile, caractérisé en ce que le procédé comprend les étapes suivantes : - détection d'une interaction entre une zone de la surface tactile et l'élément distinct de ladite surface tactile, - détermination d'une position spatiale de ladite zone de la surface tactile, - détermination d'une position spatiale simultanée des yeux de l'utilisateur, - comparaison entre la position spatiale déterminée de la zone de la surface tactile et la position spatiale déterminée des yeux de l'utilisateur, - en fonction du résultat de la comparaison, activation ou non activation de ladite au moins une fonction. Ce procédé s'appuie sur l'observation par les inventeurs qu'un utilisateur qui souhaite activer une fonction en appuyant (avec sa main ou avec un stylet ou encore avec un pointeur laser) sur une zone d'une surface tactile regarde en même temps la zone en question. Ainsi, lorsque le procédé détermine que la position du regard de l'utilisateur correspond à, ou se recouvre avec, la position de la zone avec laquelle l'utilisateur interagit, simultanément au toucher de cette zone, le procédé en déduit qu'il s'agit d'un toucher « volontaire » et que l'utilisateur souhaite activer une fonction présente dans la zone touchée. Par conséquent, ladite au moins une fonction associée est activée. En d'autres termes, l'activation de ladite au moins une fonction n'est pas déclenchée tant qu'il n'y a pas au moins un recouvrement entre les deux positions comparées entre elles. Cependant, lorsqu'une interaction se produit entre la zone et un objet qui par exemple heurte de manière intempestive ladite zone, l'utilisateur n'ayant pas souhaité un tel contact ne regarde donc pas la zone en question. Par conséquent, aucun recouvrement entre les deux positions ne sera établi et la fonction ne sera pas activée. Selon d'autres caractéristiques prises isolément ou en combinaison l'une avec l'autre : - l'étape de comparaison permet d'identifier un éventuel recouvrement entre les deux positions spatiales déterminées ; - pour que l'activation de ladite au moins une fonction soit effectuée, un recouvrement entre les deux positions spatiales déterminées doit au moins avoir été identifié ; - la position spatiale déterminée des yeux de l'utilisateur prenant la 5 forme d'une zone dite occulométrique, un recouvrement entre les deux positions spatiales est identifié lorsque la position spatiale déterminée de la zone tactile est incluse à l'intérieur de la zone occulométrique ; - le procédé comprend une étape de détermination d'une durée d'interaction entre la zone de la surface tactile et l'élément distinct de ladite 10 surface tactile ; - l'activation ou la non activation de ladite au moins une fonction dépend du résultat de la comparaison et de la durée d'interaction ; - pour que l'activation de ladite au moins une fonction soit effectuée, un recouvrement entre les deux positions spatiales déterminées doit avoir été 15 identifié et la durée d'interaction doit être supérieure à une valeur seuil minimale prédéterminée; - la durée d'interaction doit être comprise entre la valeur seuil minimale prédéterminée et une valeur seuil maximale prédéterminée ; - l'élément distinct de la surface tactile est soit une main d'un 20 utilisateur de ladite surface tactile soit un objet tenu ou non par une main de l'utilisateur ; - l'objet tenu par une main de l'utilisateur est notamment un stylet. L'invention a également pour objet, selon un deuxième aspect, un système de validation d'une interaction entre un utilisateur et une surface 25 tactile, le système comprenant une surface tactile qui comporte au moins une zone dont une interaction avec un élément distinct de ladite surface tactile active au moins une fonction d'au moins un équipement associé à ladite surface tactile, caractérisé en ce que le système comprend : - au moins une unité de détection d'une interaction entre une zone de 30 la surface tactile et l'élément distinct de ladite surface tactile, - au moins une unité de détermination d'une position spatiale de ladite zone de la surface tactile, - au moins une unité de détermination d'une position spatiale simultanée des yeux de l'utilisateur, - une unité de traitement de données qui est configurée : d'une part, pour comparer la position spatiale déterminée de la zone de la surface tactile et la position spatiale déterminée des yeux de l'utilisateur, et, d'autre part, en fonction du résultat de la comparaison, pour activer ou ne pas activer ladite au moins une fonction. Selon d'autres caractéristiques prises isolément ou en combinaison 10 l'une avec l'autre : - la surface tactile est une matrice optique comprenant, sur les bords de la surface, des éléments d'émission de signaux lumineux et des éléments de détection des signaux émis qui sont agencés en vis-à-vis desdits éléments émis de manière à former une matrice de signaux lumineux entrecroisés ; 15 - le système comporte un moyen d'affichage équipé d'au moins une surface tactile ; - ladite au moins une unité de détermination de la position spatiale des yeux de l'utilisateur comprend un ou plusieurs occulomètres ; - le système comprend plusieurs occulomètres qui sont agencés sur les 20 bords de la surface tactile ou aussi près des bords que possible compte tenu de la présence des éléments d'émission et de détection de signaux lumineux ; - le système comprend quatre occulomètres agencés aux quatre coins de la surface tactile qui a une forme adaptée à la surface d'affichage ; - le dispositif comprend des moyens de détermination d'une durée 25 d'interaction entre la zone de la surface tactile et l'élément distinct de ladite surface tactile ; - l'élément distinct de la surface tactile est soit une main d'un utilisateur de ladite surface tactile soit un objet tenu ou non par une main de l'utilisateur ; 30 - l'objet tenu par une main de l'utilisateur est notamment un stylet. L'invention a également pour objet, selon un troisième aspect, un aéronef comprenant un système de validation d'une interaction entre un utilisateur et une surface tactile tel que brièvement exposé ci-dessus.The invention relates to a method and a system for validating an interaction between a user and a tactile surface. Touch surfaces are being used more and more today in business environments as well as in leisure and everyday environments. Touch surfaces are frequently associated with equipment such as a computer or phone having an active surface (such as a control screen displaying different icons). Such surfaces each generally comprise one or more tactile zones, for example materialized by keys on a display screen. Each touch zone touched by a user (with the hand 15 or with a stylus for example) activates a function or an application of the equipment associated with the active surface. However, the interaction with the touch zone is sometimes accidental, that is to say unwanted by the user. Thus, the interaction may be involuntarily performed by the user himself or through an object coming into unintentional contact with the touch zone. Such unintentional contact may occur due to the environment in which the user and the touch surface are located and, in particular, because of conditions related to this environment, for example in a highly vibratory environment, such as a cockpit aircraft. However, even involuntary contact of an element which is distinct from the touch surface with a touch area of the surface triggers activation of the associated function or application. The object of the invention is thus, in a first aspect, a method of validating an interaction between a user and a touch surface, the touch surface comprising at least one zone whose interaction with a separate element of said active touch surface at least one function of at least one device associated with said tactile surface, characterized in that the method comprises the following steps: detecting an interaction between an area of the tactile surface and the element distinct from said touch surface, determining a spatial position of said area of the tactile surface; determining a simultaneous spatial position of the user's eyes; comparing the determined spatial position of the area of the tactile surface with the determined spatial position of the eyes of the user, - depending on the result of the comparison, activation or not activation of said at least one function. This method is based on the observation by the inventors that a user who wishes to activate a function by pressing (with his hand or with a stylus or with a laser pointer) on an area of a touch surface at the same time the area in question. Thus, when the method determines that the position of the user's gaze corresponds to, or overlaps with, the position of the zone with which the user interacts, simultaneously with the touch of this zone, the method deduces that it is a "voluntary" touch and that the user wishes to activate a function present in the affected area. Therefore, said at least one associated function is activated. In other words, the activation of said at least one function is not triggered until there is at least one overlap between the two positions compared with each other. However, when an interaction occurs between the zone and an object which, for example, inadvertently hits said zone, the user who did not wish such contact does not look at the zone in question. Therefore, no overlap between the two positions will be established and the function will not be activated. According to other characteristics taken separately or in combination with each other: the comparison step makes it possible to identify a possible overlap between the two determined spatial positions; for the activation of the said at least one function to be performed, an overlap between the two determined spatial positions must at least have been identified; the determined spatial position of the user's eyes taking the form of a so-called occulometric zone, an overlap between the two spatial positions is identified when the determined spatial position of the tactile zone is included inside the occulometric zone ; the method comprises a step of determining a duration of interaction between the zone of the tactile surface and the element distinct from said tactile surface; the activation or the non-activation of the said at least one function depends on the result of the comparison and the duration of interaction; in order for the activation of said at least one function to be performed, an overlap between the two determined spatial positions must have been identified and the interaction duration must be greater than a predetermined minimum threshold value; the interaction time must be between the predetermined minimum threshold value and a predetermined maximum threshold value; the distinct element of the tactile surface is either a hand of a user of said tactile surface or an object held or not by a hand of the user; - The object held by a hand of the user is including a stylus. According to a second aspect, the subject of the invention is also a system for validating an interaction between a user and a touch surface, the system comprising a touch surface which comprises at least one zone whose interaction with a distinct element of said touching surface activates at least one function of at least one equipment associated with said touching surface, characterized in that the system comprises: - at least one unit for detecting an interaction between an area of the tactile surface and the distinct element of said tactile surface, - at least one unit for determining a spatial position of said area of the tactile surface, - at least one unit for determining a simultaneous spatial position of the user's eyes, - a unit configured to: compare the determined spatial position of the area of the touch surface with the determined spatial position of the eyes of the user. the user, and, secondly, depending on the result of the comparison, to activate or not activate said at least one function. According to other characteristics taken separately or in combination with each other: the touching surface is an optical matrix comprising, on the edges of the surface, elements for transmitting light signals and detection elements for emitted signals which are arranged opposite said emitted elements so as to form a matrix of intercrossed light signals; The system comprises display means equipped with at least one tactile surface; said at least one unit for determining the spatial position of the user's eyes comprises one or more occulometers; the system comprises several occulometers which are arranged on the edges of the tactile surface or as close to the edges as possible in view of the presence of the elements for transmitting and detecting light signals; the system comprises four occulometers arranged at the four corners of the tactile surface which has a shape adapted to the display surface; the device comprises means for determining a duration of interaction between the zone of the tactile surface and the element distinct from the said tactile surface; the distinct element of the tactile surface is either a hand of a user of said tactile surface or an object held or not by a hand of the user; The object held by a hand of the user is in particular a stylus. The invention also relates, according to a third aspect, to an aircraft comprising a system for validating an interaction between a user and a tactile surface as briefly described above.

D'autres caractéristiques et avantages apparaitront au cours de la description qui va suivre, donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins annexés, sur lesquels : - la figure 1 est une vue schématique générale d'un système de 5 validation selon un mode de réalisation de l'invention ; - la figure 2a est une vue schématique plus détaillée du système de validation de la figure 1 dans une application donnée ; - la figure 2b est une vue agrandie de la zone de la surface tactile touchée par la main de l'utilisateur ; 10 - la figure 3 est une vue schématique représentant les principales étapes d'un procédé de validation selon un mode de réalisation de l'invention. Le système représenté sur la figure 1 et désigné de manière générale par la référence notée 10, est un système de validation d'une interaction entre un utilisateur et une surface tactile (tous deux non représentés sur la figure). 15 La surface tactile est par exemple liée à un équipement 12. Le système 10 comprend de manière générale les éléments suivants : - au moins une unité 14 de détection d'une interaction physique entre un élément distinct de la surface tactile et une zone de cette surface; l'élément distinct de la surface est par exemple une main d'un utilisateur telle 20 que représentée sur la figure 2a, - au moins une unité de détermination d'une position spatiale de la zone de la surface tactile touchée par une main de l'utilisateur, ladite au moins une unité de détermination de la position spatiale étant par exemple ici ladite au moins une unité de détection 14 précitée, 25 - une ou plusieurs unités de détermination 16 d'une position spatiale des yeux de l'utilisateur, - une unité de traitement de données 18 qui est configurée pour recevoir des informations/données provenant des unités 14 et 16 afin de les traiter et de prendre une décision, cette décision donnant lieu notamment à 30 l'émission d'un signal S en cas de validation de l'interaction par le système, - un espace de stockage 20 qui a pour fonction de mémoriser différentes informations/données obtenues en temps réel ou par calcul, voire obtenues au préalable (l'espace de stockage peut ainsi faire office de base de données). L'unité 14 a également pour fonction de déterminer la durée de toute interaction physique entre un élément distinct de la surface tactile et une zone de cette surface tactile. Cette durée peut être déterminée par l'intermédiaire d'un compteur/ horloge. Cette fonction de mesure/comptage peut être réalisée soit sous forme logicielle soit sous forme matérielle. L'unité de détermination 16 de la position spatiale des yeux de l'utilisateur, ou chacune d'elles (s'il y en a plusieurs), est par exemple un 10 occulomètre (connu en terminologie anglo-saxonne sous le terme « eye tracking system »). La figure 2a est une vue schématique plus détaillée que celle de la figure 1 d'une mise en situation du système de validation 10, par exemple dans un cockpit d'un aéronef dont seuls quelques éléments ont été 15 représentés par souci de clarté. Le système de validation 30 reprend les éléments du système 10 (ceux-ci conservent les mêmes références que sur la figure 1) et comprend d'autres éléments qui sont liés à l'application particulière décrite. En particulier, une main 32 et un oeil 34 d'un utilisateur qui est ici un pilote 20 d'aéronef sont représentés. Ainsi, le système 30 comprend, plus particulièrement, une surface tactile 36 qui est montée sur un moyen d'affichage 38, tel qu'un écran. L'écran 38 est raccordé à, ou fait partie de l'équipement 12 qui a été volontairement représenté sous forme schématique et à échelle réduite par souci de lisibilité 25 de la figure. La surface tactile 36 est reliée à l'unité 14 précitée qui, quant à elle, est reliée à l'unité de traitement 18. La surface tactile 36 est plus particulièrement une matrice optique, par exemple de forme rectangulaire, qui comprend quatre bords adjacents 30 délimitant, dans la partie centrale, la partie active de la surface tactile. Une pluralité d'éléments d'émission E de signaux lumineux sont disposés sur les deux bords adjacents 36a et 36b. Une pluralité d'éléments de réception R de signaux lumineux sont disposés sur les deux bords adjacents 36c et 36d respectivement en vis-à-vis des deux bords 36a et 36b. Ainsi, les signaux ou faisceaux lumineux émis par les éléments d'émission E sont reçus par les éléments de réception R disposés en correspondance. L'ensemble des éléments d'émission et de réception et donc l'ensemble des signaux ou faisceaux lumineux émis qui s'entrecroisent forment une structure de matrice optique. Un repère X,Y (non représenté par souci de clarté) est associé à la matrice optique afin de pouvoir identifier la position de chaque point de la matrice où se croisent deux signaux optiques. A titre d'exemple les éléments d'émission E sont des diodes d'émission de type LED et les éléments de réception R sont des détecteurs de lumière. On notera que la détection d'une interaction physique entre un élément distinct de la surface tactile et une zone de celle-ci est, dans cet exemple de réalisation, effectuée de manière optique. On notera que l'écran 38 comporte de façon connue, selon l'affichage présent sur l'écran, des zones ou régions d'activation (non représentées) que l'utilisateur est incité à viser avec son doigt afin d'activer certaines fonctions ou applications liées à l'équipement 12 associé. Il s'agit notamment de fonctions d'exécution d'un ou de plusieurs programmes informatiques présents dans l'équipement ou chargés dans celui-ci. De manière connue, lorsque l'utilisateur veut activer une fonction, il 20 approche son doigt (main 32) de l'écran et touche la surface tactile 36 placée devant l'écran sur la zone de la surface tactile qui est superposée à la zone ou région d'activation d'intérêt de l'écran 38. Les zones ou régions d'activation de l'écran 38 peuvent par exemple être matérialisées par des touches sur l'écran. Le système 30 comprend plus particulièrement plusieurs unités de 25 détermination de la position spatiale des yeux d'un utilisateur. Dans cet exemple, ces unités comprennent, d'une part, quatre éléments de capture d'images tels que des caméras, 16a, 16b, 16c, 16d, montées aux quatre coins de la surface tactile 36 et, d'autre part, une unité de contrôle 40 à laquelle elles sont reliées. 30 Les caméras 16a-d ont pour fonction de capturer des images du visage de l'utilisateur et notamment de ses yeux 34. Ces images sont transmises à l'unité de contrôle 40 qui effectue de manière connue un traitement sur celles-ci (analyse faciale de chaque image). L'unité fournit ainsi pour chaque image des coordonnées de la position des yeux de l'utilisateur. Ces coordonnées sont transcrites du repère de chaque caméra au repère X,Y lié à la surface tactile. Le report de ces coordonnées peut être réalisé de façon systématique lors d'une procédure d'étalonnage préalable. L'unité 40 effectue également une synthèse/moyenne des résultats obtenus pour chaque image afin de déterminer une position spatiale unique des yeux sur la surface tactile (moyenne ou médiane des quatre valeurs obtenues pour les quatre images respectives) et une zone ou un périmètre défini par les quatre valeurs. L'unité de contrôle 40 est reliée à l'unité de traitement 18 et lui fournit des informations/données synthétisées représentatives des informations/données provenant des caméras 16a-d. La figure 3 représente, sous la forme d'un algorithme ou logigramme, les principales étapes d'un procédé de validation d'une interaction entre un utilisateur et une surface tactile selon un mode de réalisation de l'invention. Ces étapes sont mises en 15 oeuvre par le système général 10 de validation de la figure 1 et, en particulier, par le système 30 de la figure 2a qui est intégré dans un cockpit d'aéronef. Plus particulièrement, les étapes du procédé sont mises en oeuvre lorsque le pilote (ou son copilote) installé dans le cockpit interagit par l'intermédiaire de sa main 32 avec la surface tactile 36 qui est située dans son 20 environnement proche lié au cockpit. Le procédé débute par une première étape S1 de détection d'une interaction avec une zone de la surface tactile 36. Dans l'exemple de réalisation, au cours de l'étape S1, l'unité 14 du système détecte l'interaction physique de la main 32 de l'utilisateur sur une zone de la surface tactile 36 et 25 détermine la position spatiale de cette main sur cette surface tactile. Comme représenté sur les figures 2a et 2b, lorsque l'utilisateur touche avec un doigt une zone dite tactile, notée Z1, de la surface tactile 36, il interrompt localement la transmission des signaux/faisceaux entre deux éléments d'émission E et de réception R en vis-à-vis. 30 L'unité 14 associée à la surface tactile 36 détermine par calcul (étape S2) la position (X, Y) de la zone Z1 sur la surface tactile 36 (dans le repère lié à cette surface) à partir de la position connue des éléments d'émission E et de réception R. Par ailleurs, dès qu'une interaction avec la zone tactile Z1 est détectée, l'unité 14 mesure la durée de l'interaction avec cette zone, par exemple avec les moyens indiqués plus haut.Other features and advantages will become apparent from the following description, given solely by way of nonlimiting example and with reference to the accompanying drawings, in which: - Figure 1 is a general schematic view of a system of Validation according to one embodiment of the invention; FIG. 2a is a more detailed schematic view of the validation system of FIG. 1 in a given application; FIG. 2b is an enlarged view of the area of the touch surface touched by the user's hand; FIG. 3 is a schematic view showing the main steps of a validation method according to one embodiment of the invention. The system shown in Figure 1 and generally designated by the reference denoted 10, is a system for validating an interaction between a user and a touch surface (both not shown in the figure). The touching surface is for example linked to a device 12. The system 10 generally comprises the following elements: at least one unit 14 for detecting a physical interaction between a distinct element of the tactile surface and an area of this area; the distinct element of the surface is for example a hand of a user as shown in FIG. 2a; at least one unit for determining a spatial position of the area of the touch surface touched by a hand of the user, said at least one spatial position determining unit being for example here said at least one detection unit 14 mentioned above, one or more units for determining a spatial position of the eyes of the user, a data processing unit 18 which is configured to receive information / data from the units 14 and 16 in order to process them and to make a decision, this decision giving rise in particular to the transmission of a signal S in case of validation of the interaction by the system, - a storage space 20 whose function is to store various information / data obtained in real time or by calculation, or even obtained beforehand (the storage space ge can thus act as a database). The unit 14 also has the function of determining the duration of any physical interaction between a separate element of the touch surface and an area of this touch surface. This duration can be determined via a counter / clock. This measurement / counting function can be performed either in software form or in hardware form. The unit 16 for determining the spatial position of the user's eyes, or each of them (if there are several), is for example an occulometer (known in English terminology as "eye"). tracking system "). FIG. 2a is a diagrammatic view more detailed than that of FIG. 1 of a simulation of the validation system 10, for example in a cockpit of an aircraft of which only a few elements have been represented for the sake of clarity. The validation system 30 incorporates the elements of the system 10 (these retain the same references as in FIG. 1) and comprises other elements which are related to the particular application described. In particular, a hand 32 and an eye 34 of a user who is here an aircraft pilot 20 are shown. Thus, the system 30 includes, more particularly, a touch surface 36 which is mounted on a display means 38, such as a screen. Screen 38 is connected to, or is part of, equipment 12 which has been purposely shown schematically and on a reduced scale for readability 25 of the figure. The touch surface 36 is connected to the above-mentioned unit 14 which, in turn, is connected to the processing unit 18. The touch surface 36 is more particularly an optical matrix, for example of rectangular shape, which comprises four adjacent edges. 30 delimiting, in the central part, the active part of the touch surface. A plurality of light signal emitting elements E are disposed on the two adjacent edges 36a and 36b. A plurality of receiving elements R of light signals are arranged on the two adjacent edges 36c and 36d respectively vis-à-vis the two edges 36a and 36b. Thus, the signals or light beams emitted by the emission elements E are received by the receiving elements R arranged in correspondence. The set of transmission and reception elements and therefore all the signals or light beams emitted intersect form an optical matrix structure. An X, Y mark (not shown for the sake of clarity) is associated with the optical matrix in order to be able to identify the position of each point of the matrix where two optical signals intersect. By way of example, the emission elements E are LED emission diodes and the reception elements R are light detectors. Note that the detection of a physical interaction between a distinct element of the tactile surface and a zone thereof is, in this embodiment, performed optically. Note that the screen 38 comprises in known manner, according to the display on the screen, zones or activation regions (not shown) that the user is encouraged to aim with his finger to activate certain functions or applications related to the associated equipment 12. These include execution functions of one or more computer programs present in the equipment or loaded into it. In known manner, when the user wants to activate a function, he approaches his finger (main 32) of the screen and touches the touch surface 36 placed in front of the screen on the area of the tactile surface which is superimposed on the area or activation region of interest of the screen 38. The activation zones or regions of the screen 38 may for example be materialized by keys on the screen. The system 30 more particularly comprises several units for determining the spatial position of a user's eyes. In this example, these units comprise, on the one hand, four image capturing elements such as cameras, 16a, 16b, 16c, 16d, mounted at the four corners of the tactile surface 36 and, on the other hand, a control unit 40 to which they are connected. The cameras 16a-d have the function of capturing images of the user's face and in particular of his eyes 34. These images are transmitted to the control unit 40 which performs, in a known manner, a processing on these (analysis facial of each image). The unit thus provides for each image coordinates of the position of the eyes of the user. These coordinates are transcribed from the mark of each camera to the X, Y mark linked to the tactile surface. The postponement of these coordinates can be carried out systematically during a prior calibration procedure. The unit 40 also synthesizes / averages the results obtained for each image to determine a unique spatial position of the eyes on the touch surface (average or median of the four values obtained for the respective four images) and a defined area or perimeter. by the four values. The control unit 40 is connected to the processing unit 18 and provides it with information / data synthesized representative of the information / data from the cameras 16a-d. FIG. 3 represents, in the form of an algorithm or logic diagram, the main steps of a method for validating an interaction between a user and a touch surface according to one embodiment of the invention. These steps are implemented by the general validation system 10 of FIG. 1 and, in particular, by the system 30 of FIG. 2a which is integrated in an aircraft cockpit. More particularly, the steps of the method are implemented when the pilot (or his co-pilot) installed in the cockpit interacts via his hand 32 with the tactile surface 36 which is located in his near environment linked to the cockpit. The method starts with a first step S1 of detecting an interaction with an area of the touch surface 36. In the exemplary embodiment, during the step S1, the unit 14 of the system detects the physical interaction of the hand 32 of the user on an area of the touch surface 36 and 25 determines the spatial position of this hand on this touch surface. As represented in FIGS. 2a and 2b, when the user touches with a finger a so-called tactile zone, denoted Z1, of the touch surface 36, he locally interrupts the transmission of the signals / beams between two emission elements E and of reception R vis-à-vis. The unit 14 associated with the touch surface 36 determines by calculation (step S2) the position (X, Y) of the zone Z1 on the touch surface 36 (in the reference linked to this surface) from the known position of the emission elements E and R reception Moreover, as soon as an interaction with the touch zone Z1 is detected, the unit 14 measures the duration of the interaction with this zone, for example with the means indicated above.

Cette étape S2 est suivie par une étape S3 de transmission de ces informations/données de position spatiale (coordonnées) et de durée à l'unité de traitement 18. Simultanément à la détection de l'interaction de la main 32 avec la surface tactile 36, la position spatiale des yeux 34 de l'utilisateur est détectée par les caméras 16a-d. La détection de la position spatiale des yeux de l'utilisateur est matérialisée par l'étape S4 mais est en fait réalisée en permanence à partir du moment où le visage de l'utilisateur est dans le champ de capture d'au moins une des caméras. Comme expliqué précédemment, ces informations/données d'images capturées par les caméras sont analysées par l'unité de contrôle 40 afin d'extraire la direction du regard (symbolisée par la ligne en pointillés sur la figure 2a) à partir de la réflexion de la cornée et de la position du centre de la pupille et de déterminer (étape S5) des coordonnées uniques moyennées (dans le repère lié à la surface tactile 36) de la position spatiale du regard sur la surface tactile 36.This step S2 is followed by a step S3 of transmitting this information / spatial position data (coordinates) and duration to the processing unit 18. Simultaneously with the detection of the interaction of the hand 32 with the touch surface 36 , the spatial position of the eyes 34 of the user is detected by the cameras 16a-d. The detection of the spatial position of the eyes of the user is materialized by the step S4 but is in fact carried out permanently from the moment when the user's face is in the field of capture of at least one of the cameras . As explained above, this information / image data captured by the cameras are analyzed by the control unit 40 in order to extract the direction of gaze (symbolized by the dashed line in FIG. 2a) from the reflection of the cornea and the position of the center of the pupil and to determine (step S5) unique co-ordinates averaged (in the reference linked to the tactile surface 36) of the spatial position of the gaze on the tactile surface 36.

L'unité 40 fournit ces coordonnées moyennées de position spatiale du regard de l'utilisateur à l'unité de traitement 18 au cours de l'étape S6. Les coordonnées moyennées sont celles de la zone dite occulométrique Z2 illustrée sur la vue partielle agrandie de la figure 2b. Ces coordonnées de zone occulométrique sont donc générées en permanence par le système 30 et identifient une zone occulométrique qui est susceptible de varier au cours du temps en fonction de la position du regard de l'utilisateur. L'unité de traitement 18 effectue, au cours de l'étape suivante S7 une comparaison entre les deux positions spatiales (coordonnées géométriques) respectives des zones Z1 et Z2 déterminées aux étapes S2 et S5. Cette étape est effectuée de façon permanente pendant toute la durée de l'interaction avec la zone tactile. L'étape suivante S8 est une étape de test qui est effectuée par l'unité de traitement 18 en fonction du résultat de l'étape de comparaison S7. Lorsqu'aucun recouvrement n'est identifié entre les positions spatiales comparées entre elles, c'est-à-dire que les zones correspondantes Z1 et Z2 sont disjointes géométriquement, cela signifie que l'utilisateur n'a pas regardé la zone de la surface tactile (zone de l'écran sous-jacente) pendant qu'il la touchait de sa main 32. Dans ces conditions, le procédé est conçu pour décider que l'utilisateur est entré en contact avec la surface tactile sans avoir l'intention d'activer la fonction/l'application correspondant à la zone visée. Ainsi, l'étape de test S8 est suivie de l'étape S9 de non validation de 10 l'interaction entre l'utilisateur et la zone touchée de la surface tactile et donc de non activation de la fonction/l'application associée. Au contraire, si l'utilisateur a regardé la zone de la surface tactile pendant qu'il la touchait de sa main 32 (comme dans l'exemple illustré sur les figures 2a et 2b), il y a recouvrement entre les positions spatiales comparées 15 entre elles. Dans l'exemple de la figure 2b, la zone tactile Z1 (dont les coordonnées sont obtenues plus précisément que celles de la zone Z2) est même incluse dans la zone occulométrique Z2. Dans ces conditions, le procédé est conçu pour décider que l'utilisateur est entré en contact avec la surface tactile en ayant l'intention d'activer la 20 fonction/l'application correspondant à la zone visée par la main. L'étape S8 est suivie d'une autre étape de test S10 qui s'intéresse à la durée de l'interaction avec la zone Z1 de la surface tactile 36. Cette étape (effectuée par l'unité de traitement 18) prévoit, plus particulièrement, de comparer la durée de l'interaction avec la zone Z1 par 25 rapport à deux valeurs seuil prédéterminées de durée, une valeur seuil minimale Vmin et une valeur seuil maximale Vmax. A titre d'exemple, Vmin=50ms et Vmax=500ms. L'intervalle de temps défini par ces deux valeurs est représentatif d'une action de contact bref/appui simple de courte durée (communément 30 appelé « single tap » en terminologie anglo-saxonne). Lors d'une telle action, l'utilisateur retire immédiatement son doigt après avoir touché la zone tactile et il ne s'agit donc pas d'un contact prolongé comme lorsque l'utilisateur appuie sur un bouton pour l'enfoncer. On notera que la valeur Vmin est choisie de manière à éliminer les interactions de trop courte durée qui sont considérées comme des interactions intempestives. Des interactions prolongées avec la zone tactile sont également considérées comme intempestives et sont éliminées grâce à la valeur seuil Vmax. En effet, au-delà d'une certaine durée d'interaction, le regard de l'utilisateur a quitté la zone avec laquelle l'interaction s'est produite. Cette limite supérieure permet ainsi d'éviter l'activation d'une fonction, par exemple, en cas de contact prolongé entre un objet tombé accidentellement sur la zone tactile et cette dernière. Si la durée de l'interaction avec la zone tactile n'est pas comprise entre 15 ces deux valeurs seuil, cela signifie que l'interaction de la main de l'utilisateur avec la surface tactile qui a été détectée n'est pas représentative d'un contact bref (« single tap ») et n'est donc pas traitée par le procédé. L'étape S10 est donc suivie de l'étape S9 de non validation déjà décrite ci-dessus. 20 Au contraire, Si la durée de l'interaction avec la zone tactile est comprise entre les deux valeurs seuil Vmin et Vmax, cela traduit un contact bref (« single tap »). Comme l'utilisateur regarde la zone Z1 de la surface tactile touchée par sa main en même temps qu'il la touche, le système 30 l'interprète comme 25 étant une interaction volontaire de la part de l'utilisateur. L'étape suivante S11 est donc une étape de validation de l'interaction de la main de l'utilisateur avec la zone touchée. Au cours de cette étape l'unité 18 génère le signal de validation S, ce qui déclenche l'étape suivante S12 d'activation de la fonction/l'application associée à l'équipement 12. 30 On notera que l'étape de validation S11 a également pour effet de désactiver les autres zones tactiles de la surface (non sélectionnées par l'utilisateur) tant que la fonction associée à la zone Z1 n'est pas exécutée. Le procédé de validation d'une interaction entre un utilisateur et une zone d'une surface tactile selon un mode de réalisation permet de s'assurer de l'intention de l'utilisateur lorsqu'il effectue un toucher bref de la surface tactile.The unit 40 provides these averaged coordinates of the user's viewing spatial position to the processing unit 18 during the step S6. The averaged coordinates are those of the so-called occulometric zone Z2 illustrated in the enlarged partial view of FIG. 2b. These occulometric zone coordinates are thus permanently generated by the system 30 and identify an occulometric zone which is liable to vary over time as a function of the position of the user's gaze. The processing unit 18 performs, during the next step S7, a comparison between the two respective spatial positions (geometrical coordinates) of the zones Z1 and Z2 determined in the steps S2 and S5. This step is performed permanently for the duration of the interaction with the touch zone. The next step S8 is a test step which is performed by the processing unit 18 as a function of the result of the comparison step S7. When no overlap is identified between the spatial positions compared with each other, that is, the corresponding zones Z1 and Z2 are geometrically disjointed, this means that the user has not looked at the area of the surface the touch screen (underlying screen area) while touching it with his / her hand. Under these conditions, the method is designed to decide that the user has come into contact with the touch surface without intending to activate the function / application corresponding to the area concerned. Thus, the test step S8 is followed by the step S9 of not validating the interaction between the user and the touched area of the touch surface and thus of not activating the associated function / application. On the other hand, if the user has viewed the area of the touch surface while touching it with his hand 32 (as in the example illustrated in FIGS. 2a and 2b), there is overlap between the compared spatial positions. between them. In the example of FIG. 2b, the touch zone Z1 (whose coordinates are obtained more precisely than those of the zone Z2) is even included in the occulometric zone Z2. Under these conditions, the method is designed to decide that the user has come into contact with the touch surface with the intention of activating the function / application corresponding to the area targeted by the hand. Step S8 is followed by another test step S10 which focuses on the duration of the interaction with the zone Z1 of the touch surface 36. This step (performed by the processing unit 18) provides, more in particular, to compare the duration of the interaction with the zone Z1 with respect to two predetermined threshold values of duration, a minimum threshold value Vmin and a maximum threshold value Vmax. For example, Vmin = 50ms and Vmax = 500ms. The time interval defined by these two values is representative of a brief contact action / short simple support (commonly called "single tap" in English terminology). In such an action, the user immediately removes his finger after touching the touch zone and is therefore not a prolonged contact as when the user presses a button to push it. It should be noted that the value Vmin is chosen so as to eliminate the interactions of too short duration which are considered as untimely interactions. Prolonged interactions with the touch zone are also considered untimely and are eliminated thanks to the threshold value Vmax. Indeed, beyond a certain duration of interaction, the user's gaze has left the zone with which the interaction has occurred. This upper limit thus makes it possible to avoid the activation of a function, for example, in the event of prolonged contact between an object accidentally fallen on the tactile zone and the latter. If the duration of the interaction with the touch zone is not between these two threshold values, it means that the interaction of the user's hand with the touch surface that has been detected is not representative of 'a single tap' and is therefore not processed by the process. Step S10 is therefore followed by step S9 of non-validation already described above. On the other hand, if the duration of the interaction with the touch zone is between the two threshold values Vmin and Vmax, this reflects a brief contact ("single tap"). As the user looks at the area Z1 of the touch surface touched by his hand as he touches it, the system 30 interprets it as a voluntary interaction on the part of the user. The next step S11 is therefore a validation step of the interaction of the hand of the user with the affected area. During this step, the unit 18 generates the validation signal S, which triggers the next step S12 for activating the function / application associated with the equipment 12. It will be noted that the validation step S11 also has the effect of disabling the other touch areas of the surface (not selected by the user) as long as the function associated with the zone Z1 is not executed. The method of validating an interaction between a user and an area of a touch surface according to an embodiment makes it possible to ascertain the intention of the user when making a brief touch of the tactile surface.

En d'autres termes, le procédé permet de s'assurer que si l'utilisateur touche une zone de la surface tactile c'est parce qu'il veut activer la fonction/l'application correspondant à cette zone. Si le toucher s'accompagne simultanément de l'apposition du regard de l'utilisateur sur la zone touchée, l'intention de l'utilisateur est caractérisée.In other words, the method makes it possible to ensure that if the user touches an area of the tactile surface it is because he wants to activate the function / application corresponding to this zone. If the touch is accompanied simultaneously by affixing the user's gaze to the affected area, the intention of the user is characterized.

Si le regard de l'utilisateur ne se porte pas simultanément sur la zone touchée, l'intérêt de l'utilisateur pour la zone touchée n'est pas confirmé. L'interaction n'est pas considérée comme une interaction intentionnelle et il n'est donc pas nécessaire d'activer la fonction/l'application associée à la zone touchée. Ceci permet de ne pas activer intempestivement une fonction/application et donc de ne pas accaparer inutilement des ressources (par exemple, calculatoires) ou, par exemple, de ne pas modifier des données/paramètres de suivi. Le procédé est particulièrement simple à mettre en oeuvre et fiable. Le procédé tel qu'exposé dans le mode de réalisation qui vient d'être 20 décrit permet de débuter le processus de validation d'une interaction sans attendre la fin de l'interaction. L'étape de comparaison S7 débute en effet avant que l'étape S10 de test sur la durée de l'interaction ne débute. Dans le mode de réalisation décrit l'interaction avec la zone tactile Z1 est effectuée par l'intermédiaire de la main de l'utilisateur qui entre en contact 25 avec la zone. Toutefois, l'utilisateur peut alternativement tenir un objet tel qu'un stylet et s'en servir à la place de sa main pour interagir avec la zone tactile Z1. Le procédé et le système décrits ci-dessus permettent ainsi de valider 30 une interaction entre un utilisateur (directement par sa main ou par un objet tenu par sa main), ici un pilote dans un cockpit d'aéronef, et une surface tactile du cockpit et d'écarter des interactions intempestives/non intentionnelles avec celle-ci. On notera que la surface tactile peut également/alternativement être celle d'un écran utilisé par un membre de 5 l'équipage. Toutefois, l'invention peut trouver d'autres applications dans des environnements où il est utile d'effectuer une discrimination entre les interactions de l'utilisateur avec une surface tactile qui sont non intentionnelles et celles qui sont intentionnelles et ainsi d'écarter les interactions non 10 intentionnelles. Le procédé et le système décrits ci-dessus permettent également d'écarter des interactions intempestives/non intentionnelles entre une surface tactile (non nécessairement dans un contexte aéronautique) et un élément distinct de cette surface mais qui n'est pas la main de l'utilisateur ni un objet 15 tenu par celle-ci. Cet élément peut par exemple être un objet qui entre en contact avec la surface de manière accidentelle, soit parce qu'il heurte cette surface (la surface peut être fixe ou mobile) soit parce que cette surface est déplacée et heurte l'objet. Le contact non souhaité peut être bref ou prolongé et doit, de toute manière, être écarté et ne pas permettre l'activation de la 20 fonction associée à la zone touchée. Dans la mesure où l'utilisateur ne souhaite pas activer la fonction au moment de ce toucher accidentel, il ne regarde pas la zone et, en l'absence de recouvrement, l'étape S8 de la figure 3 conduit à l'étape S9. Selon une variante de réalisation du procédé illustré à la figure 3, 25 l'étape de test S10 sur la durée de l'interaction est effectuée avant que ne débute l'étape de comparaison S7 entre les positions des zones. Dans cette variante, lorsque la durée de l'interaction n'est pas comprise dans l'intervalle prédéterminé, alors il est décidé de ne pas valider l'interaction, sans procéder à l'étape de comparaison précitée.If the user's gaze is not simultaneously on the affected area, the interest of the user for the affected area is not confirmed. The interaction is not considered an intentional interaction and therefore it is not necessary to activate the function / application associated with the affected area. This makes it possible not to activate a function / application unexpectedly and thus not to unnecessarily monopolize resources (for example, computational resources) or, for example, not to modify data / parameters of follow-up. The method is particularly simple to implement and reliable. The method as described in the embodiment just described makes it possible to begin the process of validating an interaction without waiting for the end of the interaction. The comparison step S7 actually begins before the test step S10 on the duration of the interaction begins. In the embodiment described the interaction with the touch zone Z1 is effected via the hand of the user who comes into contact with the area. However, the user can alternately hold an object such as a stylus and use it instead of his hand to interact with the touch zone Z1. The method and system described above thus make it possible to validate an interaction between a user (directly by his hand or by an object held by his hand), here a pilot in an aircraft cockpit, and a tactile surface of the cockpit and to avoid unwanted / unintentional interactions with it. Note that the touch surface can also / alternatively be that of a screen used by a member of the crew. However, the invention can find other applications in environments where it is useful to discriminate between the user's interactions with a tactile surface that are unintentional and those that are intentional and thus to discard the interactions. not intentional. The method and system described above also make it possible to rule out unwanted / unintentional interactions between a tactile surface (not necessarily in an aeronautical context) and an element distinct from this surface but which is not the hand of the aircraft. user or an object held by it. This element may for example be an object that comes into contact with the surface accidentally, either because it strikes this surface (the surface may be fixed or movable) or because this surface is displaced and hits the object. The undesired contact may be brief or prolonged and must, in any case, be discarded and not allow activation of the function associated with the affected area. Since the user does not wish to activate the function at the time of this accidental touch, he does not look at the zone and, in the absence of recovery, step S8 of FIG. 3 leads to step S9. According to an alternative embodiment of the method illustrated in FIG. 3, the test step S10 on the duration of the interaction is performed before the comparison step S7 begins between the positions of the zones. In this variant, when the duration of the interaction is not within the predetermined interval, then it is decided not to validate the interaction, without performing the aforementioned comparison step.

30 On notera que la surface tactile 36 de la figure 2a peut de manière simple être rapportée (avec son unité 14 associée) sur un moyen d'affichage 38 existant. Selon encore une autre variante non représentée, la surface tactile peut être directement intégrée par construction au moyen d'affichage. Alternativement, la surface tactile peut être différente d'une matrice 5 optique. Selon d'autres variantes non représentées, la surface tactile peut être d'un autre type connu tel que résistif, capacitif, acoustique..... Plusieurs caméras 16a-d sont utilisées pour des raisons de sécurité en cas de défectuosité de l'une des caméras (par exemple, par construction ou 10 par suite d'un choc non souhaité) ou encore en cas d'occultation du champ de l'une d'elles par un mouvement de l'utilisateur. Le positionnement de quatre caméras 16a-d permet de s'assurer que le regard de l'utilisateur sera capté de manière fiable. Toutefois, un nombre de caméras inférieur peut alternativement être envisagé selon les besoins, la 15 configuration de la surface et de l'environnement et la position de l'utilisateur. Selon une variante non représentée, l'unité de contrôle 40 exerce également une fonction d'analyse statistique qui permet de supprimer les valeurs incohérentes fournies par les caméras ou calculées par l'unité 40 à partir de données/informations d'images fournies par les caméras.It will be appreciated that the touch surface 36 of FIG. 2a may simply be attached (with its associated unit 14) to an existing display means 38. According to yet another variant not shown, the touch surface can be directly integrated by construction by means of display. Alternatively, the touch surface may be different from an optical matrix. According to other variants not shown, the touch surface may be of another known type such as resistive, capacitive, acoustic ..... Several cameras 16a-d are used for safety reasons in case of defect of the one of the cameras (for example, by construction or as a result of an undesired shock) or in case of occultation of the field of one of them by a movement of the user. The positioning of four cameras 16a-d ensures that the user's view will be reliably captured. However, a lower number of cameras can alternatively be considered depending on the needs, the configuration of the surface and the environment and the position of the user. According to a variant not shown, the control unit 40 also performs a statistical analysis function which makes it possible to eliminate the inconsistent values provided by the cameras or calculated by the unit 40 from data / image information provided by the cameras.

20 Selon une autre variante non représentée, les caméras 16a-d exercent également d'autres fonctions. En particulier, ces caméras intègrent chacune un moyen de détection/capture d'images et des moyens d'exécution d'un algorithme d'analyse faciale. Les caméras transmettent ensuite les données obtenues ainsi obtenues à l'unité de contrôle 40 afin qu'elle détermine les 25 coordonnées de position spatiale du regard de l'utilisateur. Selon encore une autre variante non représentée, la surface tactile peut être associée à plusieurs équipements 12 dont des fonctions peuvent activées à partir de différentes zones tactiles de la surface dédiées chacune à un ou plusieurs équipements. 30According to another variant not shown, the cameras 16a-d also perform other functions. In particular, these cameras each include an image detection / capture means and means for executing a facial analysis algorithm. The cameras then transmit the obtained data thus obtained to the control unit 40 so that it determines the spatial position coordinates of the user's gaze. According to yet another variant not shown, the touch surface may be associated with several devices 12 whose functions can be activated from different tactile areas of the surface each dedicated to one or more devices. 30

Claims (20)

REVENDICATIONS1. Procédé de validation d'une interaction entre un utilisateur et une surface tactile (36), la surface tactile comprenant au moins une zone (Z1) dont une interaction avec un élément (32) distinct de ladite surface tactile active au moins une fonction d'au moins un équipement (12) associé à ladite surface tactile, caractérisé en ce que le procédé comprend les étapes suivantes : - détection (S1) d'une interaction entre une zone (Z1) de la surface tactile (36) et l'élément (32) distinct de ladite surface tactile, - détermination (S2) d'une position spatiale de ladite zone de la surface tactile, - détermination (S5) d'une position spatiale simultanée des yeux (34) de l'utilisateur, - comparaison (S7) entre la position spatiale déterminée de la zone de la surface tactile et la position spatiale déterminée des yeux de l'utilisateur, - en fonction du résultat de la comparaison, activation (S12) ou non activation (S9) de ladite au moins une fonction.REVENDICATIONS1. A method of validating an interaction between a user and a touch surface (36), the touching surface comprising at least one area (Z1) whose interaction with a member (32) separate from said touch surface activates at least one function of at least one device (12) associated with said tactile surface, characterized in that the method comprises the following steps: - detection (S1) of an interaction between a zone (Z1) of the tactile surface (36) and the element (32) distinct from said tactile surface, - determining (S2) a spatial position of said area of the tactile surface, - determining (S5) a simultaneous spatial position of the eyes (34) of the user, - comparing (S7) between the determined spatial position of the area of the tactile surface and the determined spatial position of the eyes of the user, - depending on the result of the comparison, activation (S12) or non-activation (S9) of said at least a function. 2. Procédé selon la revendication 1, caractérisé en ce que l'étape de 20 comparaison (S7) permet d'identifier un éventuel recouvrement entre les deux positions spatiales déterminées.2. Method according to claim 1, characterized in that the comparison step (S7) makes it possible to identify a possible overlap between the two determined spatial positions. 3. Procédé selon la revendication 2, caractérisé en ce que, pour que l'activation de ladite au moins une fonction soit effectuée, un recouvrement entre les deux positions spatiales déterminées doit au moins avoir été 25 identifié.3. Method according to claim 2, characterized in that, for the activation of said at least one function to be performed, an overlap between the two determined spatial positions must at least have been identified. 4. Procédé selon la revendication 3, caractérisé en ce que, la position spatiale déterminée des yeux de l'utilisateur prenant la forme d'une zone dite occulométrique (Z2), un recouvrement entre les deux positions spatiales est identifié lorsque la position spatiale déterminée de la zone tactile 30 est incluse à l'intérieur de la zone occulométrique.4. Method according to claim 3, characterized in that, the determined spatial position of the eyes of the user taking the form of a so-called occulometric zone (Z2), an overlap between the two spatial positions is identified when the spatial position determined of the touch zone 30 is included within the occulometric zone. 5. Procédé selon l'une des revendications 1 à 4, caractérisé en ce qu'il comprend une étape (S1) de détermination d'une durée d'interaction entre la zone de la surface tactile et l'élément distinct de ladite surface tactile.5. Method according to one of claims 1 to 4, characterized in that it comprises a step (S1) for determining a duration of interaction between the area of the touch surface and the distinct element of said touch surface . 6. Procédé selon la revendication 5, caractérisé en ce que l'activation (S12) ou la non activation (S9) de ladite au moins une fonction dépend du résultat de la comparaison et de la durée d'interaction.6. Method according to claim 5, characterized in that the activation (S12) or non-activation (S9) of said at least one function depends on the result of the comparison and the duration of interaction. 7. Procédé selon la revendication 3 ou 4 et selon la revendication 5, caractérisé en ce que, pour que l'activation de ladite au moins une fonction soit effectuée, un recouvrement entre les deux positions spatiales déterminées doit avoir été identifié et la durée d'interaction doit être supérieure à une valeur seuil minimale prédéterminée.7. Method according to claim 3 or 4 and according to claim 5, characterized in that, for the activation of said at least one function to be performed, an overlap between the two determined spatial positions must have been identified and the duration of The interaction must be greater than a predetermined minimum threshold value. 8. Procédé selon la revendication 7, caractérisé en ce que la durée 10 d'interaction doit être comprise entre la valeur seuil minimale prédéterminée et une valeur seuil maximale prédéterminée.8. The method of claim 7, characterized in that the interaction time must be between the predetermined minimum threshold value and a predetermined maximum threshold value. 9. Procédé selon l'une des revendications 1 à 8, caractérisé en ce que l'élément distinct de la surface tactile est soit une main (32) d'un utilisateur de ladite surface tactile soit un objet tenu ou non par une main de 15 l'utilisateur.9. Method according to one of claims 1 to 8, characterized in that the distinct element of the tactile surface is either a hand (32) of a user of said touch surface or an object held or not by a hand of 15 the user. 10. Procédé selon la revendication 9, caractérisé en ce que l'objet tenu par une main de l'utilisateur est notamment un stylet.10. The method of claim 9, characterized in that the object held by a hand of the user is including a stylus. 11. Système de validation d'une interaction entre un utilisateur et une surface tactile, le système comprenant une surface tactile qui comporte au 20 moins une zone dont une interaction avec un élément distinct de ladite surface tactile active au moins une fonction d'au moins un équipement associé à ladite surface tactile, caractérisé en ce que le système comprend : - au moins une unité (14) de détection d'une interaction entre une zone (Z1) de la surface tactile (36) et l'élément (32) distinct de ladite 25 surface tactile, - au moins une unité (14) de détermination d'une position spatiale de ladite zone de la surface tactile, - au moins une unité (16a-d, 40) de détermination d'une position spatiale simultanée des yeux (34) de l'utilisateur, 30 - une unité (18) de traitement de données qui est configurée : d'une part, pour comparer la position spatiale déterminée de la zone de la surface tactile et la position spatiale déterminée des yeux de l'utilisateur,et, d'autre part, en fonction du résultat de la comparaison, pour activer ou ne pas activer ladite au moins une fonction.11. A system for validating an interaction between a user and a touch-sensitive surface, the system comprising a touch-sensitive surface which includes at least one area whose interaction with a separate element of said touch-sensitive surface activates at least one function of at least one equipment associated with said tactile surface, characterized in that the system comprises: - at least one unit (14) for detecting an interaction between a zone (Z1) of the tactile surface (36) and the element (32) distinct from said tactile surface, - at least one unit (14) for determining a spatial position of said area of the touch surface, - at least one unit (16a-d, 40) for determining a simultaneous spatial position eye (34) of the user, - a data processing unit (18) which is configured: firstly, to compare the determined spatial position of the area of the tactile surface and the determined spatial position of the eyes of the user, and, on the other hand, depending on the result of the comparison, to activate or not activate said at least one function. 12. Système selon la revendication 11, caractérisé en ce que la surface tactile (36) est une matrice optique comprenant, sur les bords de la surface, des éléments (E) d'émission de signaux lumineux et des éléments (R) de détection des signaux émis qui sont agencés en vis-à-vis desdits éléments émis de manière à former une matrice de signaux lumineux entrecroisés.12. System according to claim 11, characterized in that the touch surface (36) is an optical matrix comprising, on the edges of the surface, elements (E) for transmitting light signals and detection elements (R). emitted signals which are arranged opposite said emitted elements so as to form a matrix of intercrossed light signals. 13. Système selon la revendication 11 ou 12, caractérisé en ce qu'il comporte un moyen d'affichage (38) équipé d'au moins une surface tactile.13. System according to claim 11 or 12, characterized in that it comprises a display means (38) equipped with at least one touch surface. 14. Système selon l'une des revendications 11 à 13, caractérisé en ce que ladite au moins une unité de détermination de la position spatiale des yeux de l'utilisateur comprend un ou plusieurs occulomètres.14. System according to one of claims 11 to 13, characterized in that said at least one unit for determining the spatial position of the eyes of the user comprises one or more occulometers. 15. Système selon les revendications 12 et 14, caractérisé en ce qu'il comprend plusieurs occulomètres qui sont agencés sur les bords de la surface 15 tactile ou aussi près des bords que possible compte tenu de la présence des éléments d'émission et de détection de signaux lumineux.15. System according to claims 12 and 14, characterized in that it comprises several occulometers which are arranged on the edges of the touch surface or as close to the edges as possible taking into account the presence of the emission and detection elements. of light signals. 16. Système selon la revendication 15, caractérisé en ce qu'il comprend quatre occulomètres agencés aux quatre coins de la surface tactile qui a une forme adaptée à la surface d'affichage. 2016. System according to claim 15, characterized in that it comprises four occulometers arranged at the four corners of the touch surface which has a shape adapted to the display surface. 20 17. Système selon l'une des revendications 11 à 16, caractérisé en ce qu'il comprend des moyens (14) de détermination d'une durée d'interaction entre la zone de la surface tactile et l'élément distinct de ladite surface tactile.17. System according to one of claims 11 to 16, characterized in that it comprises means (14) for determining a duration of interaction between the area of the touch surface and the separate element of said touch surface . 18. Système selon l'une des revendications 11 à 17, caractérisé en ce que l'élément distinct de la surface tactile est soit une main (32) d'un 25 utilisateur de ladite surface tactile soit un objet tenu ou non par une main de l'utilisateur.18. System according to one of claims 11 to 17, characterized in that the distinct element of the tactile surface is either a hand (32) of a user of said tactile surface or an object held or not by a hand of the user. 19. Système selon la revendication 18, caractérisé en ce que l'objet tenu par une main de l'utilisateur est notamment un stylet.19. System according to claim 18, characterized in that the object held by a hand of the user is in particular a stylus. 20. Aéronef, caractérisé en ce qu'il comprend un système de 30 validation d'une interaction entre un utilisateur et une surface tactile selon l'une des revendications 11 à 19.20. Aircraft, characterized in that it comprises a system for validating an interaction between a user and a tactile surface according to one of claims 11 to 19.
FR1361671A 2013-11-27 2013-11-27 METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY Expired - Fee Related FR3013861B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1361671A FR3013861B1 (en) 2013-11-27 2013-11-27 METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1361671A FR3013861B1 (en) 2013-11-27 2013-11-27 METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY

Publications (2)

Publication Number Publication Date
FR3013861A1 true FR3013861A1 (en) 2015-05-29
FR3013861B1 FR3013861B1 (en) 2017-06-02

Family

ID=50721846

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1361671A Expired - Fee Related FR3013861B1 (en) 2013-11-27 2013-11-27 METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY

Country Status (1)

Country Link
FR (1) FR3013861B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3282435A1 (en) * 2016-08-09 2018-02-14 Siemens Aktiengesellschaft Method for safely operating a device and system for safely operating a device

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10333737A (en) * 1997-05-30 1998-12-18 Mitsubishi Heavy Ind Ltd Plant monitoring and controlling mechanism
US20090327977A1 (en) * 2006-03-22 2009-12-31 Bachfischer Katharina Interactive control device and method for operating the interactive control device
FR2946768A1 (en) * 2009-06-11 2010-12-17 Sagem Defense Securite METHOD OF TACTILE INPUTTING CONTROL INSTRUCTIONS OF A COMPUTER PROGRAM AND SYSTEM FOR IMPLEMENTING SAID METHOD
WO2011083212A1 (en) * 2009-12-22 2011-07-14 Dav Control device for a motor vehicle
EP2503443A2 (en) * 2011-03-25 2012-09-26 Honeywell International, Inc. Touch screen and method for providing stable touches
JP2013105197A (en) * 2011-11-10 2013-05-30 Mitsubishi Electric Information Systems Corp Character string confirmation device and character string confirmation program
US20130246861A1 (en) * 2012-03-15 2013-09-19 Nokia Corporation Method, apparatus and computer program product for user input interpretation and input error mitigation
WO2013141161A1 (en) * 2012-03-23 2013-09-26 株式会社エヌ・ティ・ティ・ドコモ Information terminal, method for controlling input acceptance, and program for controlling input acceptance

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10333737A (en) * 1997-05-30 1998-12-18 Mitsubishi Heavy Ind Ltd Plant monitoring and controlling mechanism
US20090327977A1 (en) * 2006-03-22 2009-12-31 Bachfischer Katharina Interactive control device and method for operating the interactive control device
FR2946768A1 (en) * 2009-06-11 2010-12-17 Sagem Defense Securite METHOD OF TACTILE INPUTTING CONTROL INSTRUCTIONS OF A COMPUTER PROGRAM AND SYSTEM FOR IMPLEMENTING SAID METHOD
WO2011083212A1 (en) * 2009-12-22 2011-07-14 Dav Control device for a motor vehicle
EP2503443A2 (en) * 2011-03-25 2012-09-26 Honeywell International, Inc. Touch screen and method for providing stable touches
JP2013105197A (en) * 2011-11-10 2013-05-30 Mitsubishi Electric Information Systems Corp Character string confirmation device and character string confirmation program
US20130246861A1 (en) * 2012-03-15 2013-09-19 Nokia Corporation Method, apparatus and computer program product for user input interpretation and input error mitigation
WO2013141161A1 (en) * 2012-03-23 2013-09-26 株式会社エヌ・ティ・ティ・ドコモ Information terminal, method for controlling input acceptance, and program for controlling input acceptance

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3282435A1 (en) * 2016-08-09 2018-02-14 Siemens Aktiengesellschaft Method for safely operating a device and system for safely operating a device

Also Published As

Publication number Publication date
FR3013861B1 (en) 2017-06-02

Similar Documents

Publication Publication Date Title
EP2524294B1 (en) Method for selecting an element of a user interface and device implementing such a method
US20130145304A1 (en) Confirming input intent using eye tracking
JP6342458B2 (en) Improved facial recognition in video
KR102368457B1 (en) Polarized gaze tracking
US9164580B2 (en) Calibration of eye tracking system
JP6442062B2 (en) Dynamic camera or light behavior
US20140237401A1 (en) Interpretation of a gesture on a touch sensing device
US20120218215A1 (en) Methods for Detecting and Tracking Touch Objects
EP2453385B1 (en) Personal identification device and method
US11880565B2 (en) Touch screen display with virtual trackpad
US9846529B2 (en) Method for processing information and electronic device
GB2494629A (en) Optical navigation device with sleep mode and active mode
FR3005173A1 (en) INTERACTION METHOD IN AN AIRCRAFT COCKPIT BETWEEN A PILOT AND ITS ENVIRONMENT
US9823782B2 (en) Pre-touch localization on a reflective surface
US10606468B2 (en) Dynamic image compensation for pre-touch localization on a reflective surface
FR3013861A1 (en) METHOD FOR VALIDATING AN INTERACTION ON A TOUCH SURFACE BY OCCULOMETRY
US9213444B2 (en) Touch device and touch projection system using the same
WO2013153338A1 (en) Improved command generation in a touch-screen device
WO2021197689A1 (en) Method and device for managing multiple presses on a touch-sensitive surface
JP6107398B2 (en) Detection apparatus and detection program
FR2887660A1 (en) Volume or surface e.g. computer screen, interactive rendering device for computing application, has bar with matrix image sensors, and computer that stores region of interest formed of line and column segments of image
US9880668B2 (en) Method for identifying input information, apparatus for identifying input information and electronic device
EP2930606B1 (en) Method for managing the entry of data by pressing a touch-sensitive surface of an electronic terminal, corresponding module, terminal, computer program product and storage medium
WO2015014945A1 (en) Programming system for a situation analysis system on board a carrier comprising at least one onboard listening system
FR3095059A1 (en) DISPLAY DEVICE, DISPLAY SYSTEM INCLUDING SUCH A DEVICE, ASSOCIATED DISPLAY METHOD AND COMPUTER PROGRAM

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

ST Notification of lapse

Effective date: 20230705