FR3005173A1 - Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement - Google Patents

Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement Download PDF

Info

Publication number
FR3005173A1
FR3005173A1 FR1353808A FR1353808A FR3005173A1 FR 3005173 A1 FR3005173 A1 FR 3005173A1 FR 1353808 A FR1353808 A FR 1353808A FR 1353808 A FR1353808 A FR 1353808A FR 3005173 A1 FR3005173 A1 FR 3005173A1
Authority
FR
France
Prior art keywords
pilot
interest
activation
cockpit
interaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1353808A
Other languages
English (en)
Other versions
FR3005173B1 (fr
Inventor
Vincent Loubiere
Alexandre Godin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus SAS
Original Assignee
Airbus SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Airbus SAS filed Critical Airbus SAS
Priority to FR1353808A priority Critical patent/FR3005173B1/fr
Priority to US14/261,858 priority patent/US9360673B2/en
Priority to CN201410175380.2A priority patent/CN104118568B/zh
Publication of FR3005173A1 publication Critical patent/FR3005173A1/fr
Application granted granted Critical
Publication of FR3005173B1 publication Critical patent/FR3005173B1/fr
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • G01C19/58Turn-sensitive devices without moving masses
    • G01C19/64Gyrometers using the Sagnac effect, i.e. rotation-induced shifts between counter-rotating electromagnetic beams
    • G01C19/72Gyrometers using the Sagnac effect, i.e. rotation-induced shifts between counter-rotating electromagnetic beams with counter-rotating light beams in a passive ring, e.g. fibre laser gyrometers
    • G01C19/721Details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/12Avionics applications

Abstract

L'invention concerne un procédé d'interaction dans un cockpit d'aéronef entre un pilote et son environnement. Le cockpit comprend plusieurs zones d'activation qui comportent chacune un élément d'intérêt lié au cockpit ou à son environnement extérieur et qui est activable à partir de l'interaction des yeux du pilote avec la zone d'activation. Le procédé prévoit de : - déterminer (S2) de façon répétée au cours du temps la position spatiale de yeux et la comparer (S3) avec la position des zones d'activation et -activer (S5) automatiquement la zone d'activation regardée par le pilote de manière à l'informer sur la disponibilité d'interaction ultérieure avec l'élément d'intérêt concerné. Le procédé améliore l'interaction entre le pilote et son environnement lié au cockpit.

Description

PROCEDE D'INTERACTION DANS UN COCKPIT D'AERONEF ENTRE UN PILOTE ET SON Lif4VIRONNEMENT L'invention est relative à un procédé d'interaction dans un cockpit d'aéronef entre un pilote et son environnement. Aujourd'hui, les cockpits d'aéronef sont équipés d'écrans qui sont agencés sur des consoles par exemple disposées sous le pare-brise et également d'écrans ou d'afficheurs tête haute ou HUD (« Head Up Display » 10 en terminologie anglosaxonne). Les afficheurs HUD permettent de superposer des informations complémentaires à la réalité grâce à un système de projection collimatée sur une glace transparente disposée devant le pilote. Les premiers afficheurs HUD étaient conçus comme des outils intuitifs, c'est-à-dire pour afficher des informations nécessitant peu de traitement 15 cognitif. L'évolution de ces afficheurs leur a permis d'inclure de plus en plus d'informations mais au détriment du caractère intuitif de l'outil. Par ailleurs, les actionneurs qui sont présents dans les cockpits sont généralement réalisés sous la forme de boutons physiques (ex : touches d'un clavier) mécaniques ou digitaux. La multiplication des boutons en tout genre 20 tend à complexifier l'interface avec le système et donc l'interface pilote- environnement. Les surfaces de commande tendent également à être de plus en plus étendues, ce qui complexifie l'agencement des équipements dans le cockpit et l'ergonomie de ce dernier. En outre, l'utilisation de systèmes complexes nécessite souvent un long apprentissage. 25 Au vu de ce qui précède il serait intéressant de pouvoir améliorer l'interaction, dans un cockpit d'aéronef, entre un pilote et son environnement, notamment l'environnement lié au cockpit. L'invention a ainsi pour objet un procédé d'interaction dans un cockpit d'aéronef entre un pilote et son environnement, caractérisé en ce que le 30 cockpit comprend au moins une zone d'activation qui comporte un élément d'intérêt lié au cockpit ou à son environnement extérieur et qui est activable à partir de l'interaction d'au moins un organe mobile (oeil, main...) du corps du pilote avec ladite au moins une zone d'activation, le procédé comprenant les étapes suivantes : - détermination de façon répétée au cours du temps de la position spatiale d'au moins un organe mobile (oeil, main...) du corps du pilote, - comparaison entre la position spatiale déterminée et la position spatiale de ladite au moins une zone d'activation afin de détermtner s'il y a interaction entre ledit au moins un organe mobile du pilote et ladite au moins une zone d'activation, - en fonction du résultat de la comparaison, décision d'activation ou de non activation de l'élément d'intérêt de ladite au moins une zone d'activation en vue d'informer le pilote sur la disponibilité d'interaction ultérieure avec ledit élément d'intérêt. Ce procédé permet d'aider le pilote dans son interaction avec son 15 environnement dans la mesure où les mouvements d'au moins un organe mobile (oeil, main...) du corps du pilote sont analysés au cours du temps afin de détecter des premières intentions du pilote sans ce que celui n'ait réellement réalisé une action précise. Ainsi, il suffit par exemple que le regard du pilote se soit posé sur un écran et/ou que le pilote ait esquissé un geste en 20 direction de ce dernier pour que la position du regard et/ou de la main soit déterminé et que le système d'interaction (sur lequel s'appuie le procédé pour sa mise en oeuvre) comprenne ou interprète les intentions du pilote et active la zone regardée ou approchée de la main. En particulier, la comparaison entre la position déterminée et la position (connue) d'une zone d'activation 25 comprenant un élément d'intérêt permet d'interpréter l'intention, ou en tout cas l'intérêt, du pilote pour cet élément d'intérêt et ainsi d'activer ce dernier afin d'informer le pilote sur les possibilités d'interaction avec celui-ci. Un tel procédé améliore ainsi considérablement l'interaction entre le pilote et son environnement. 30 Selon d'autres caractéristiques possibles prises isolément ou en combinaison l'une avec l'autre : -ledit au moins un organe mobile du pilote est un oeil et/ou une main : -en cas de décision d'activation de l'élément d'intérêt de ladite au moins une zone d'activation, le procédé comporte les étapes suivantes : validation par le pilote de l'élément d'intérêt activé affichage d'un ou de plusieurs éléments d'interface visuelle permettant d'accéder à des informations et/ou des actions possibles relatives à l'élément d'intérêt activé ; -l'étape d'affichage précitée est une première étape d'affichage d'un ou de plusieurs éléments d'interface visuelle dits primaires, le procédé comportant une deuxième étape d'affichage de plusieurs éléments d'interface visuelle dits secondaires qui permettent d'accéder à des informations et/ou des actions possibles relatives à l'élément d'intérêt activé ; -le procédé comporte une étape de sélection par le pilote d'un des éléments d'interface visuelle primaires et/ou secondaires ; -l'affichage d'élément(s) d'interface visuelle est effectué à une distance maximale de l'élément d'intérêt activé qui correspond à la taille dudit élément d'intérêt activé ; -le procédé comporte une étape de comparaison de l'élément d'intérêt activé avec une pluralité d'éléments d'intérêt de référence et pour chacun desquels des informations sont disponibles et/ou des actions sont possibles ; -la sélection par le pilote d'au moins un élément d'interface visuelle autorise l'accès à la modification d'au moins un élément d'informations relatif à l'élément d'intérêt activé ; -le procédé comporte une étape de modification par le pilote dudit au moins un élément d'informations ; -la modification dudit au moins un élément d'informations est possible tant que ledit au moins un organe mobile du corps du pilote interagit avec l'élément d'intérêt activé ; -le procédé comporte une étape de validation par le pilote de la modification dudit au moins un élément d'informations effectuée ; -la validation de la modification est possible tant que ledit au moins un organe mobile du corps du pilote interagit avec l'élément d'intérêt activé ; -préalablement à l'interaction dudit au moins un organe mobile (oeil, main...) du corps du pilote avec ladite au moins une zone d'activation, le procédé comporte une étape d'affichage d'informations indiquant au pilote le ou les éléments d'intérêt liés au cockpit ou à son environnement avec lesquels une interaction ultérieure est possible; -les informations sont affichées à une distance maximale du ou de chaque élément d'intérêt activé qui correspond à la taille dudit élément d'intérêt activé ; -ladite au moins une zone d'activation qui comporte un élément d'intérêt lié au cockpit ou à son environnement est l'une au moins des zones suivantes : - un des écrans du cockpit, - une portion d'un écran du cockpit, - au moins une portion du pare-brise du cockpit, - un écran transparent interposé devant le pare-brise du cockpit à l'intérieur dudit cockpit ; -l'élément d'intérêt lié au cockpit ou à son environnement est l'un au moins des éléments d'intérêt suivants : un des écrans du cockpit, une portion d'un écran du cockpit, une échelle éditable sur un écran du cockpit, - la représentation d'un autre aéronef, - la représentation d'un aéroport ou d'un objet extérieur au cockpit et qui est visible ou non à travers le pare-brise du cockpit ; -la validation et/ou la sélection par le pilote prennent notamment l'une des formes suivantes : - un geste sur une surface tactile ou dans l'espace, - une pression sur une touche d'un clavier ou sur une pédale, - l'activation d'une souris ou d'un dispositif de pointage, - l'émission de sons, le temps de fixation du regard du pilote sur ladite au moins une zone d'activation, le temps de présence d'une main d'un pilote dans ladite au moins une zone d'activation.
L'invention a également pour objet un système d'interaction dans un cockpit d'aéronef entre un pilote et son environnement, caractérisé en ce que le système d'interaction comprend : - une ou plusieurs unités de détermination de la position spatiale d'au moins un organe mobile (oeil, main...) du corps du pilote, - au moins une zone d'activation comportant un élément d'intérêt lié au cockpit ou à son environnement extérieur et qui est activable à partir de l'interaction dudit au moins un organe mobile du corps du pilote avec ladite au moins une zone d'activation, une unité de traitement de données qui est apte à comparer la position spatiale déterminée et la position spatiale de ladite au moins une zone d'activation du cockpit afin de déterminer s'il y a interaction entre ledit au moins un organe mobile du pilote et ladite au moins une zone d'activation, l'unité de traitement de données étant également apte à décider d'activer ou de ne pas activer l'élément d'intérêt de ladite au moins une zone d'activation en vue d'informer le pilote sur la disponibilité d'interaction ultérieure avec ledit élément d'intérêt.
Selon une caractéristique possible, la ou les unités de détermination comprennent un ou plusieurs occulomètres et/ou une ou plusieurs unités de détermination destinées à déterminer la position d'une main d'un pilote. Selon une autre caractéristique possible, la ou les unités de détermination de la position de la main d'un pilote comprennent au moins l'un 25 des éléments suivants : -au moins une surface tactile, -un ou plusieurs capteurs. Selon une autre caractéristique possible, le système d'interaction comprend un dispositif de détection configuré pour détecter notamment une 30 action de sélection et/ou de validation et/ou de confirmation de la part du pilote. Le dispositif de détection peut comprendre au moins l'un des moyens suivants : - des moyens de validation par le pilote de l'élément d'intérêt activé - des moyens de sélection par le pilote d'au moins un élément d'interface visuelle. Selon une caractéristique possible, les moyens de validation par le pilote de l'élément d'intérêt activé et/ou les moyens de sélection par le pilote d'au moins un élément d'interface visuelle comprennent au moins une surface tactile. Selon d'autres caractéristiques possibles prises isolément ou en combinaison l'une avec l'autre : -le système comprend au moins une surface d'affichage sur laquelle s'affiche ladite au moins une zone d'activation qui comporte un élément d'intérêt lié au cockpit ou à son environnement; - le système comprend des moyens d'affichage d'un ou de plusieurs éléments d'interface visuelle permettant d'accéder à des informations et/ou des actions possibles relatives à l'élément d'intérêt activé ; -ladite au moins une zone d'activation qui comporte un élément d'intérêt lié au cockpit ou à son environnement est l'une au moins des zones suivantes : - un des écrans du cockpit, une portion d'un écran du cockpit, au moins une portion du pare-brise du cockpit, un écran transparent interposé devant le pare-brise du cockpit à l'intérieur dudit cockpit ; -l'élément d'intérêt lié au cockpit ou à son environnement est l'un au moins des éléments d'intérêt suivants : - un des écrans du cockpit, - une portion d'un écran du cockpit, une échelle éditable sur un écran du cockpit, - la représentation d'un autre aéronef, - la représentation d'un aéroport ou d'un objet extérieur au cockpit et qui est visible ou non à travers le pare-brise du cockpit ; L'invention a aussi pour objet un cockpit d'aéronef, caractérisé en ce qu'il comprend un système d'interaction dans un cockpit d'aéronef entre un pilot et son environnement tel que brièvement mentionné ci-dessus. D'autres caractéristiques et avantages apparaitront au cours de la description qui va suivre, donnée uniquement à titre d'exemple non limitatif et faite en référence aux dessins annexés, sur lesquels : -la figure 1 est une vue schématique d'un système d'interaction dans un cockpit d'aéronef entre un pilote et son environnement selon un mode de réalisation de l'invention ; -la figure 2 est une vue schématique d'un cockpit d'aéronef intégrant un système d'interaction selon un mode de réalisation de l'invention ; -la figure 3 est une vue générale illustrant les différentes étapes d'un procédé d'interaction dans un cockpit d'aéronef entre un pilote et son environnement selon un mode de réalisation de l'invention ; -les figures 4a à 4e illustrent une première succession d'étapes du procédé d'interaction de la figure 3 ; - les figures 5a à 5f illustrent une deuxième succession d'étapes du procédé d'interaction de la figure 3 ; - les figures 6a à 6f illustrent une troisième succession d'étapes du procédé d'interaction de la figure 3 ; -la figure 7 est une vue schématique d'un système d'interaction pilote-environnement selon un autre mode de réalisation de l'invention ; -les figures 8a-d sont des vues schématiques successives illustrant une interaction entre la main d'un pilote et un écran d'un cockpit.
Comme représenté à la figure 1 et désigné par la référence générale notée 10, un système d'interaction entre un pilote d'aéronef et son environnement selon un mode de réalisation de l'invention est destiné à être intégré dans un cockpit d'aéronef tel que celui représenté de façon très schématique à la figure 2.
Le système d'interaction 10 comprend : - une ou plusieurs unités de détermination 12 de la position spatiale des yeux du pilote, cette unité ou ces unités déterminant de façon répétée au cours du temps (voire permanente) la position spatiale du regard du pilote (action principale du pilote), -un dispositif de détection 14 qui est configuré pour détecter une action de sélection et/ou de validation et/ou de confirmation de la part du pilote, - une ou plusieurs zones d'activation 16 (du cockpit) comportant chacune ou étant associée chacune à un élément d'intérêt El lié au cockpit ou à son environnement extérieur et qui est activable par interaction des yeux du pilote avec celle-ci ; cette zone s'affiche par exemple sur une surface d'affichage du cockpit telle qu'un écran (sur la figure 1 seule une zone d'activation a été représentée par souci de simplification), - une unité de traitement de données 18 qui est apte à recevoir des données transmises par la ou les unités 12 et le dispositif 14, et à les traiter. L'unité 18 est notamment apte à recevoir et à traiter, dans un premier temps, les données de position spatiale transmises par la ou les unités 12. En fonction du traitement des données de position spatiale, l'unité 18 est apte à fournir ou non un signal d'activation S de l'élément d'intérêt El de la zone d'activation 16. Ce signal est destiné à activer l'élément d'intérêt. L'activation de l'élément d'intérêt informe le pilote sur la disponibilité d'interaction ultérieure avec cet élément d'intérêt (obtention d'informations, actions possibles en relation avec l'élément d'intérêt). Le pilote sait ainsi qu'il est possible d'interagir avec l'élément d'intérêt s'il le souhaite. L'élément d'intérêt El est par définition un élément interne au cockpit qui peut correspondre soit à un objet interne au cockpit soit à une représentation (image...) d'un objet externe à l'aéronef, visible ou non depuis le cockpit. L'unité de traitement de données 18 est également apte à recevoir des données D provenant de différents dispositifs (radar, GPS, capteurs, systèmes avioniques tels que calculateurs...),par exemple afin de pouvoir positionner les éléments d'intérêt El représentant des objets extérieurs au cockpit sur une surface d'affichage du cockpit. Un espace de stockage 19 sert à mémoriser différentes données et informations qui sont obtenues en temps réel et/ou par calcul et qui peuvent également avoir été obtenues au préalable. L'espace peut ainsi servir de base de données. On notera, d'une part, que les zones d'activation sont référencées dans le système d'interaction et, d'autre part, que les coordonnées de ces zones d'activation sont connues du système. Ces deux types d'informations sont par exemple mémorisées dans l'espace de stockage 19. On notera que l'unité de détermination 12 de la position spatiale des yeux du pilote, ou chacune de ces unités (s'il y en a plusieurs), est par exemple un occulomètre (connu en terminologie anglo-saxonne sous le terme « eye tracker »).
Le dispositif de détection est par exemple ici une surface tactile connue en soi, par exemple du même type que l'on trouve sur les srnartphones et tablettes numériques. Une telle surface tactile 14 détecte un geste de sélection et/ou de validation et/ou de confirmation effectué par une main ou les deux mains du 15 pilote. La figure 2 illustre de façon très schématique l'intérieur d'un cockpit C d'aéronef qui intègre un système d'interaction tel que le système 10 de la figure 1. L'unité de traitement 18 n'est pas représentée sur la figure 2. Dans le cockpit C deux sièges pour le pilote P1 et le copilote P2 sont 20 disposés devant le pare-brise 20 dont seule la partie centrale a été représentée très schématiquement par souci de simplification. Les autres équipements du cockpit ne sont pas représentés pour les mêmes raisons. Le cockpit C comprend plusieurs écrans ou supports d'affichage 16a-n qui comportent chacun au moins un élément d'intérêt Eh i affiché sur l'écran 25 concerné. Chaque élément d'intérêt Eh i est entouré ou fait partie d'une zone d'activation. Chaque zone d'activation permet d'activer l'élément d'intérêt qu'elle comporte. Ces zones d'activation sont définies comme des zones avec lesquelles le pilote peut interagir avec les yeux et donc qu'il peut activer. Ces zones d'activation sont référencées dans l'espace de stockage du système 30 d'interaction. L'activation d'une zone peut par exemple prendre la forme d'un affichage d'informations (données, signe(s), symbole(s), dessin(s) géométrique(s),...). Par exemple, il peut s'agir d'un contour de la zone (cercle) qui est mis en valeur. De façon optionnelle, une zone d'activation peut présenter un affichage d'informations qui marque son caractère activable pour le pilote avant même que celui-ci n'ait posé les yeux sur cette zone afin de l'activer. Un tel affichage ou marquage de cette zone peut revêtir différentes formes (cercle transparent superposé à la zone d'activation, symbole à côté ou sur la zone ...). Si un tel affichage ou marquage préalable n'apparait pas pour une zone, le pilote sait que celle-ci n'est pas activable.
Lorsqu'un écran comporte un seul élément d'intérêt, ce dernier occupe généralement la quasi-totalité de la surface de l'écran. Dans cet exemple, les écrans 16a-n sont disposés côte à côte sous le pare-brise 20, par exemple sous la forme d'un bandeau horizontal. D'autres agencements sont envisageables. Deux unités de détermination 12 sont positionnées sous la zone d'activation, respectivement en vis-à-vis du siège du pilote P1 et du siège du copilote P2. Une planche de bord 22 est agencée sous les zones d'activation 16a-n et les unités de détermination 12 et s'étend devant les sièges. La planche de bord comporte des équipements (cadrans, écrans, manettes, claviers.....) non représentés par souci de clarté. La surface tactile 14 est disposée sur la planche de bord 22, intégrée ou non à celle-ci. Il s'agit dans cet exemple d'une seule surface tactile qui s'étend sur la planche de bord depuis une portion de la planche de bord située devant l'un des deux sièges jusqu'à une autre portion de la planche de bord située devant l'autre siège. Alternativement, il s'agit de plusieurs surfaces tactiles, par exemple deux qui s'étendent chacune uniquement devant l'un des deux sièges. La figure 3 représente, sous la forme d'un logigramme, les principales étapes d'un procédé d'interaction entre un pilote d'aéronef et son environnement. Ces étapes sont mises en oeuvre par le système d'interaction décrit en référence aux figures 1 et 2 lorsque le pilote (ou son copilote) est installé sur son siège dans le cockpit et regarde une scène qui se déroule en temps réel devant ses yeux. Cette scène inclut, d'une part, l'affichage qui se produit sur différents écrans et dispositifs de visualisation du cockpit parmi lesquels se trouvent les écrans 16a-n et, d'autre part, le pare-brise en tant qu'éventuelle surface d'affichage, ainsi que l'environnement extérieur visible à travers le pare-brise. Des informations sur l'environnement qui est extérieur à l'aéronef et non visible à travers le pare-brise sont par exemple capturées par des caméras placées à bord et/ou transmises à l'aéronef par des systèmes externes (satellites, installations au sol, autres aéronefs en vol...) et, ensuite, rapportées sur un ou plusieurs écrans ou autres dispositifs de visualisation du cockpit.
Ces informations incluent par exemple des images et/ou des vidéos représentant l'environnement extérieur et des images et/ou des vidéos de certains objets de celui-ci. On va maintenant décrire en référence à la figure 3 et aux figures 4a-e un exemple de mise en oeuvre du procédé de la figure 3. Dans cet exemple, le pilote P1 de la figure 2 pose son regard sur les écrans du cockpit et, notamment, sur l'écran 16i (figure 4a) qui comporte l'élément d'intérêt Ehi (informations visibles sur l'écran et qui intéressent le pilote). L'écran 16i en entier correspond par exemple à une zone d'activation. Il s'agit par exemple d'un écran de type PFD ou afficheur primaire de vol (acronyme de « Primary Flight Display » en terminologie anglo-saxonne) sur lequel le pilote va entrer les paramètres du plan de vol afin de modifier son trajet. Dans d'autres exemples seule une fraction de l'écran correspond à une zone d'activation.
Le procédé d'interaction débute par une première étape Si (optionnelle) d'affichage préalable d'informations qui sont destinées à indiquer au pilote les zones d'activation liées au cockpit et éventuellement à son environnement. Ces informations affichées identifient visuellement les zones d'activation (écrans, autres surfaces, pare-brise.....). Cet affichage peut s'accompagner d'une alerte sonore. Dans l'exemple décrit et dans la suite de la description du procédé on considère que le pilote ne dispose pas de cette information sur le caractère « activable » des différentes zones liées au cockpit et/ou à son environnement extérieur. La deuxième étape S2 du procédé est une étape de détermination de façon répétée au cours du temps (voire permanente) de la position spatiale du regard du pilote grâce à l'unité de détermination 12 qui lui fait face. La position des yeux du pilote est identifiée par des coordonnées spatiales. Ces coordonnées spatiales sont fournies par l'unité de détermination 12 à l'unité de traitement 18 lorsque le regard du pilote est resté fixé pendant une durée prédéterminée sur une zone. A titre d'exemple, cette durée est de l'ordre de 200 ms. L'unité de traitement de données 18 de la figure 1 obtient ces coordonnées spatiales et les compare (étape S3) avec celles, connues, des différentes zones d'activation du cockpit et celles qui sont extérieures au cockpit. Lorsqu'il y a recouvrement entre les coordonnées issues de l'étape de détection et les coordonnées préalablement stockées, l'unité de traitement 18 identifie la zone regardée par le pilote et donc sait qu'il y a interaction entre le regard du pilote et la zone considérée. L'unité de traitement de données 18 compare la zone regardée ainsi identifiée avec l'ensemble des zones d'activation « référencées » dans l'espace 20 de stockage 19 du système d'interaction Si la zone regardée est une zone non référencée par le système d'interaction, cela signifie qu'il ne s'agit pas d'une zone d'activation et donc qu'aucune possibilité d'interaction ultérieure n'est possible avec cette zone pour le pilote. 25 L'étape suivante S4 est alors une étape de décision de non activation et la détermination de la position du regard du pilote se poursuit (étape S2 déjà décrite). Si, au contraire, la zone regardée est une zone référencée par le système d'interaction, cela signifie qu'il s'agit d'une zone d'activation. C'est le 30 cas de l'écran 161. L'écran 16i étant activable, l'unité de traitement de données 18 décide de son activation à l'étape suivante S5. Cette activation est illustrée à la figure 4b par la mise en valeur de la zone par rapport aux autres zones d'activation non activées. Cette mise en valeur se traduit par exemple par la mise en surbrillance du contour L de la zone d'activation retenue 161 et indique au pilote la disponibilité d'interaction avec cette zone, notamment avec l'élément d'intérêt de celle-ci. L'étape suivante S6 est une étape de test afin de déterminer si le pilote souhaite valider ou non la zone d'activation/élément d'intérêt activé. La validation confirme l'intérêt que porte le pilote à la zone d'activation/élément d'intérêt qu'il a regardé. Le pilote peut décider, si tel est son souhait, de ne pas valider 10 l'activation de la zone d'activation regardée. Dans ce cas, l'étape de test S6 se poursuit par l'étape de détection S2. Si, au contraire, le pilote décide de confirmer son choix, la validation est effectuée. Cette validation est effectuée par le pilote et est considérée comme une action complémentaire qui est détectée par le dispositif de 15 détection 14. Cette validation est par exemple réalisée par un geste générique « d'accroche » qui peut prendre la forme d'un geste de la main sur la surface tactile 14 (geste donné parmi une bibliothèque de gestes prédéfinis). Ce geste « d'accroche » est ainsi par exemple un appui effectué sur l'une des zones d'appui d'une souris d'ordinateur (ex : « click gauche ») une fois que la zone 20 d'activation a été sélectionnée à l'écran (il s'agit donc d'un mouvement relatif et non absolu). Le geste d'accroche n'a donc pas besoin d'être précis et peut s'effectuer sur toute l'étendue de la surface tactile. L'absence de précision demandée au pilote pour valider l'activation permet également de ne pas exiger une attention soutenue de sa part ni de dépenser beaucoup d'énergie 25 pour accomplir cette tâche. Le pilote peut donc rester concentré sur la zone d'activation/élément d'intérêt activé ou sur une autre tâche à accomplir. La validation est illustrée à la figure 4c et s'accompagne (étape S7) de l'affichage d'éléments d'interface visuelle dits primaires à côté de la zone d'activation/l'élément d'intérêt activé et qui, ici, prennent la forme d'un seul 30 élément 40 affiché au-dessus. L'apparition de cet élément d'interface visuelle primaire à côté de la zone d'activation /l'élément d'intérêt activé montre que ce dernier est actif et qu'il est donc possible d'interagir avec lui. L'élément d'interface visuelle primaire affiché est par exemple un symbole ou une interface graphique qui informe le pilote sur la manière d'interagir. Ici, l'élément 40 est représenté par une flèche à l'intérieur d'un cercle (la flèche et/ou le cercle peuvent être colorés ou non) qui indique le geste à accomplir par l'utilisateur pour obtenir des informations associées à l'élément d'intérêt et/ou réaliser des actions en relation avec cet élément d'intérêt. On notera que l'affichage de plusieurs éléments d'interface visuelle primaires à côté de la zone d'activation/l'élément d'intérêt activé peuvent représenter différentes options d'un menu (informations et/ou actions). L'affichage d'un ou de plusieurs éléments d'interface visuelle primaires est réalisé de façon générale à une distance de la zone d'activation/élément d'intérêt activé qui est inférieure ou égale à la taille ou aux dimensions de l'élément d'intérêt activé. On notera que si l'élément d'intérêt activé possède deux dimensions différentes, la distance précitée est par exemple inférieure ou égale à la moyenne des deux dimensions. Ceci permet au pilote d'avoir facilement la vision d'ensemble de la zone d'activation/élément d'intérêt activé et du ou des éléments d'interface visuelle primaires affichés. De plus, l'affichage à proximité géométrique de l'élément d'intérêt activé (lien physique) facilite l'association mentale entre le ou les éléments d'interface visuelle primaires et l'élément d'intérêt.
L'étape suivante S8 est une étape de sélection et de validation simultanée par le pilote d'un élément d'interface visuelle primaire. Cette sélection est considérée comme une action complémentaire détectée par le dispositif de détection 14. Cette étape est par exemple réalisée en effectuant le geste correspondant au symbole/interface graphique affiché. Dans l'exemple illustré à la figure 4c cette étape est réalisée par un geste du pilote sur la surface tactile 14 de la gauche vers la droite (dans le sens indiqué par la flèche 40). Ce geste provoque l'affichage (étape S9 et figure 4d) au-dessus de la zone d'activation/l'élément d'intérêt activé d'une pluralité d'éléments d'interface visuelle dits secondaires 42. Ces éléments 42 apparaissent comme des éléments ou différentes options d'un menu contextuel ou d'une liste (informations et/ou actions possibles relatives à l'élément d'intérêt activé) disposés les uns au-dessus des autres.
Ce geste permet également de « verrouiller », sur l'élément d'intérêt activé (cible), les éléments et la symbolique/interface graphique affichés à côté de celui-ci ou superposés. Ceci est particulièrement utile lorsque l'élément d'intérêt activé (cible) se déplace par rapport à l'aéronef, ce qui est le cas quand l'élément d'intérêt est représentatif d'un objet extérieur à l'aéronef. Comme pour l'élément d'interface visuelle primaire 40, les éléments d'interface visuelle secondaires 42 sont affichés à une distance de la zone/l'élément d'intérêt activé qui n'excède pas la taille de ce dernier ou la moyenne des dimensions différentes de ce dernier. On notera que ces éléments 42 sont par exemple affichés sur le pare-brise (en partie basse) qui est utilisé comme surface d'affichage, au-dessus de l'écran 16i. L'étape suivante S10 est une étape de sélection (action complémentaire détectée par le dispositif de détection 14) par le pilote d'un élément d'interface visuelle secondaire parmi la pluralité d'éléments d'interface visuelle secondaires 42 (fig.4d). Dans l'exemple illustré aux figures 4d et 4e cette étape est réalisée par un premier geste non précis du pilote sur la surface tactile 14., Il s'agit d'un geste effectué de haut en bas pour remonter dans le menu ou la liste d'éléments 42 et pointer sur l'élément d'interface visuelle secondaire qui intéresse le pilote, par exemple l'élément 42i (figure 4e). Ce geste est effectué sans que le pilote ne quitte des yeux la zone d'activation/ l'élément d'intérêt activé et les éléments d'interface visuelle secondaires 42 affichés à proximité. L'intérêt que porte le pilote pour l'élément 42i s'explique par la volonté d'obtenir plus d'informations sur celui-ci et/ou d'exercer des actions relatives à cet élément. La validation de l'élément 42i s'effectue ensuite en réalisant le geste correspondant au symbole 40 (étape S11), c'est-à-dire en déplaçant la main sur la surface tactile de la gauche vers la droite. Ce geste de validation fait apparaître à côté de l'élément 42i et du symbole 40 une zone d'affichage 44. Cette zone d'affichage 44 peut également être une zone d'édition de paramètres. Cette validation est considérée comme une action complémentaire détectée par le dispositif de détection 14. Dans l'exemple décrit, l'étape de validation se poursuit par l'étape de détection S2 déjà décrite.
Les figures 5a à 5f illustrent la mise en oeuvre d'autres aspects du procédé d'interaction de la figure 3 lorsque le pilote regarde un autre écran tel que l'écran 16j (fig. 5a). La détermination (étape S2) de la position du regard du pilote sur la zone d'activation 16j/l'élément d'intérêt EIj permet d'activer cette zone d'activation et l'élément d'intérêt. Cette activation est effectuée comme sur la figure 4b (étape S5) par la mise en valeur du contour L (figure 5b). L'étape de validation S6 et l'étape d'affichage S7 d'un élément d'interface visuelle primaire 40 sont identiques à celles décrites ci-dessus en référence aux figures 4b et 4c et conduisent à l'affichage illustré sur la figure 5c au-dessus de la zone d'activation/élément d'intérêt activé. La sélection de l'élément 40 (étape S8), opérée de manière identique à la sélection effectuée à la figure 4c, conduit à l'affichage de la pluralité 46 d'éléments d'interface visuelle secondaires 46a, 46b, 46c. Cet affichage (étape S9) prend la forme d'un menu ou d'une liste (informations associées à l'élément d'intérêt et/ou actions à réaliser en relation avec cet élément d'intérêt) au-dessus de la zone d'activation/l'élément d'intérêt activé (figure 5d). Comme expliqué ci-dessus, la navigation dans la liste d'éléments d'interface visuelle secondaires 46a-c afin de sélectionner (étape S10) un élément de cette liste est effectuée par le pilote en déplaçant sa main sensiblement verticalement sur la surface tactile 14. Il pointe ainsi, dans cet exemple, sur l'élément d'interface visuelle secondaire 46a qui correspond à une action « d'édition » de l'élément d'intérêt activé (figure 5e).
La validation (étape S11) de l'élément 46a s'effectue ensuite en réalisant le geste correspondant au symbole 40, c'est-à-dire en déplaçant la main sur la surface tactile de la gauche vers la droite. Ce geste de validation provoque l'activation ou la mise en valeur sur l'élément d'intérêt activé EIj d'une zone Z1 (par exemple en surbrillance). Durant cette étape de validation (activation de la zone Z1) le pilote maintient son regard sur la zone Z1. L'activation de cette zone indique au pilote qu'il est autorisé à exécuter une fonction « d'édition » sur cette partie de l'élément d'intérêt activé (figure 5f).
L'exécution de la fonction d'édition (action d'édition) permet de modifier un ou plusieurs paramètres de la partie de l'élément d'intérêt activée. L'activation de cette zone Z1 se traduit également par l'activation des échelles X et Y du graphe de la zone Z1 agrandie sur la figure 5g ainsi que d'un curseur sur chaque échelle. La zone Z1 représente l'afficheur vertical VD (« Vertical Display » en terminologie anglo-saxonne), c'est-à-dire le graphe de l'altitude de l'aéronef à chaque point du vol en fonction de la distance le long du trajet prévu pour l'aéronef. Généralement, l'afficheur vertical VD est affiché sur l'afficheur PFD précité.
L'étape suivante S12 est une étape de modification de paramètres (fonction d'édition) qui permet, par exemple, de modifier l'altitude à l'un des points du plan de vol ou l'échelle d'affichage, par exemple en modifiant le pas de l'unité de 10 à 50 afin de réaliser une fonction de « zoom » sur le graphe. La modification est effectuée par exemple par un geste horizontal ou vertical relatif de la main du pilote sur la surface tactile 14 afin de déplacer le curseur sur chaque axe et de dilater ou contracter la représentation. Durant cette étape le pilote n'est pas obligé de maintenir son regard sur la zone Z1. L'étape suivante S13 est une étape de validation par le pilote de la modification effectuée à l'étape précédente.
Cette validation est par exemple effectuée par l'accomplissement par le pilote d'un geste particulier sur la surface tactile. Cette étape est effectuée sous le contrôle du regard du pilote, c'est-à-dire que la validation n'est possible que lorsque le pilote regarde la zone Z1. Cette condition est contrôlée par l'unité de traitement de données 18 qui compare en permanence les coordonnées de la position du regard avec celles de l'élément d'intérêt en cours de modification. L'opération de validation est suspendue lorsque le regard du pilote quitte l'élément d'intérêt et sa zone modifiée et est reprise à l'endroit où elle a été arrêtée lorsque le regard du pilote revient dans la zone.
On notera que lorsque le pilote regarde une zone d'activation/un élément d'intérêt non activé les gestes d'édition sont désactivés jusqu'à ce que la zone d'activation /élément d'intérêt soit activé. L'étape S13 est suivie de l'étape S2 déjà décrite.
Les figures 6a à 6f illustrent une succession d'étapes du procédé d'interaction de la figure 3 qui sont mises en oeuvre lorsque le pilote est intéressé par un objet qui fait partie de l'environnement extérieur du cockpit et qui est, par exemple, visible à travers le pare-brise. L'élément d'intérêt ET représentatif de cet objet est une image dudit objet visible à travers fe pare- brise. Dans cet exemple la surface du pare-brise 20 est utilisée comme surface d'affichage de la zone d'activation et des différents éléments d'interface visuélles primaires et secondaires, informations et symboliques associés..... La figure 6a illustre une zone d'activation 60 qui comporte un élément d'intérêt 62. Cet élément d'intérêt est une représentation de l'objet réel qui fait partie de l'environnement extérieur à l'aéronef et qui est visible à travers le pare-brise 20 du cockpit. Il s'agit dans cet exemple d'un aéroport.
Plus particulièrement, la zone d'activation 60 correspond à une zone du pare-brise superposée à l'objet extérieur situé en arrière-plan. Dans le plan de la figure 6a la zone d'activation 60 entoure l'élément d'intérêt 62 qui apparait comme une image de l'objet réel sur la surface du pare-brise. Dans cet exemple tous les éléments d'intérêt sont identifiés de façon visible pour le pilote afin de renseigner ce dernier sur leur caractère activable. Pour ce faire, il peut par exemple s'agir d'afficher des informations représentatives du caractère activable d'une zone. Cet affichage peut par exemple prendre la forme d'un cercle transparent superposé à chaque zone d'activation.
Sur la figure 6a un cercle transparent 64 est affiché sur la zone d'activation 60 du pare-brise de manière à matérialiser cette zone pour le pilote. Lorsque le pilote regarde la scène de la figure 6a, le procédé d'interaction de la figure 3 prévoit, comme déjà décrit, des étapes de détermination (S2), de comparaison (S3) et d'activation (S5) de la zone d'activation 60 regardée par le pilote. L'unité de traitement de données décide de l'activation de la zone 60, par exemple, en mettant en valeur le contour du cercle 64' (figure 6b), indiquant par là même au pilote qu'il est possible d'interagir avec la zone et l'élément d'intérêt associé. L'étape de validation (S6) et l'étape d'affichage (S7) d'un élément d'interface visuelle primaire 66 identique à l'élément 40 déjà décrit conduisent à l'affichage illustré sur la figure 6c. L'élément d'interface visuelle primaire 66 est affiché à côté du cercle 64' (à une distance inférieure ou égale au diamètre du cercle) sur le pare-brise. Sa symbolique informe le pilote sur le geste à accomplir pour interagir davantage avec la zone d'activation/l'élément d'intérêt activé, tout comme pour l'élément 40 précité.
Un geste du pilote sur la surface tactile 14 (étape S8), de la gauche vers la droite, fait apparaître de manière superposée à la zone d'activation/l'élément d'intérêt activé une pluralité d'éléments d'interface visuelle secondaires 68a-c (figure 6d et étape S9). Il s'agit par exemple d'icônes représentatives d'informations qui dépendent de l'élément d'intérêt activé et/ou d'actions à réaliser en relation avec l'élément d'intérêt. Ces icônes sont réparties autour du cercle 64' afin de les rendre plus visibles pour le pilote. Leur agencement permet également de faciliter leur sélection par un geste de la main correspondant sur la surface tactile : un geste (sans précision) vers le bas permet de sélectionner l'icône 68c.
On notera que la répartition des icônes autour du cercle, et donc, l'espace suffisamment grand entre les icônes (par rapport à l'espace laissé entre les icônes 42 de la figure 4d) permet, alternativement, de les sélectionner en déterminant la position des yeux du pilote sur l'une ou l'autre des icônes.
Par ailleurs, à gauche du cercle 64' apparaissent deux symboles identiques 70, 72 qui représentent le symbole 66 inversé. La présence de ces deux symboles côte à côte indique au pilote qu'il lui suffit d'effectuer sur la surface tactile 14 deux fois le geste correspondant aux symboles pour revenir à la situation de la figure 6b (zone d'activation /élément d'intérêt activé). On notera que pour effectuer une telle action le pilote doit maintenir sa main sur la surface tactile. Ceci permet d'éviter les gestes involontaires sur la surface tactile.
Lorsque l'affichage de la figure 6d apparaît, le cercle 64' ainsi que l'ensemble des éléments d'interface visuelle secondaires 68a-c et des symboles 70,72 affichés sont verrouillés à la zone d'activation /l'élément d'intérêt activé. Ainsi, lorsque l'aéronef se déplace par rapport à cette zone d'activation / cet élément d'intérêt activé, le cercle 64' et l'ensemble des éléments d'interface visuelle et des symboles affichés suivent la zone d'activation / l'élément d'intérêt activé comme illustré sur la figure 6e. La figure 6f fait apparaître sur l'écran du pare-brise une autre zone d'activation 74 avec un autre élément d'intérêt 76 représentant ici un aéronef.
La zone est identifiée comme activable en raison de la présence du cercle 78 matérialisant la zone d'activation /l'élément d'intérêt. On notera que, de façon générale, le cercle ou un autre symbole identifiant, de manière certaine pour le pilote, une zone activable associée à un élément d'intérêt peut être positionné sur la zone d'activation /l'élément d'intérêt ou une partie de celle-ci/celui-ci, voire à côté de celle-ci/celui-ci selon les besoins et les circonstances. En fonction de la visibilité souhaitée, on peut vouloir ne rien masquer de l'objet extérieur et donc de l'élément d'intérêt et, ainsi, afficher le cercle ou un autre symbole à côté de l'élément d'intérêt. Dans l'exemple illustré à la figure 6f, le pilote a suivi la symbolique illustrée par les symboles 70, 72 (flèches gauche) en effectuant trois fois de suite le même geste sur la surface tactile 14 pour revenir à la situation de la figure 6a et ainsi pouvoir changer de zone d'activation /d'élément d'intérêt. La détection de la position du regard du pilote sur la nouvelle zone d'activation 74 permet alors d'activer celle-ci et, par exemple, d'effectuer les étapes S3 et suivantes du procédé de la figure 3 déjà décrites. On notera que les éléments d'intérêt considérés dans l'exemple des figures 6a-f sont des images visibles à travers le pare-brise 20 d'objets externes qui font partie d'une scène qui se déroule devant les yeux du pilote à travers le pare-brise.
Toutefois, le pilote peut également être intéressé par des objets externes non visibles par le pilote, soit parce qu'ils sont masqués par un obstacle placé devant le pare-brise (ex : montagne ou conditions météorologiques masquant la visibilité), soit parce qu'ils sont disposés selon une autre direction (ex : au-dessus, en dessous ou derrière l'aéronef). Dans tous les cas, des informations sur ces objets externes non visibles du cockpit peuvent être obtenues par des équipements/dispositifs placés à bord et/ou distants (satellites, installations au sol, aéronefs en vol...). Ces informations peuvent ainsi être visualisées sur un écran ou une autre surface d'affichage avec l'élément d'intérêt représentant chaque objet. Le pare-brise des figures 6a à 6f peut par exemple être remplacé par un écran du cockpit sur lequel sont affichées des images ou une séquence 10 vidéo d'un objet externe non visible à travers le pare-brise. Les images ou la séquence vidéo sont par exemple obtenues par une ou plusieurs caméras extérieures. La séquence d'étapes illustrées sur les figures 6a à 6f peut par exemple s'appliquer à un objet externe non visible à travers le pare-brise. Un tel objet externe peut par exemple être un aéronef en vol que le pilote 15 voudrait visualiser. Les zones d'activation qui comportent un élément d'intérêt lié au cockpit ou à son environnement extérieur et qui ont été décrites ci-dessus en référence aux figures 1 à 6f peuvent prendre diverses formes et notamment : - un des écrans du cockpit, 20 - une portion d'un écran du cockpit, - au moins une portion du pare-brise du cockpit, - un écran transparent interposé devant le pare-brise du cockpit à l'intérieur dudit cockpit. D'autres zones d'activation non mentionnées ci-dessus sont également 25 envisageables. On notera que l'élément d'intérêt lié au cockpit ou à son environnement extérieur est l'un au moins des éléments d'intérêt suivants : - un des écrans du cockpit, - une portion d'un écran du cockpit, 30 une échelle éditable sur un écran du cockpit, - une représentation d'un autre aéronef, - une représentation d'un aéroport ou d'un objet extérieur qui est visible ou non à travers le pare-brise du cockpit.
Toutefois, d'autres éléments d'intérêt non mentionnés ci-dessus sont également envisageables. Lors de la description du premier exemple en référence aux figures 1, 2 et 4a à 4e, l'activation d'une zone d'activation est déclenchée à partir de la détermination de la position des yeux du pilote sur la zone considérée pendant une durée minimale prédéterminée. Les autres étapes du procédé qui nécessitent une action complémentaire de la part du pilote (ex : validation (S6), sélection (S8 et S10), validation (S11), modification (512) et validation (S13)) et la détection de cette action ont été décrites comme ayant été effectuées par un geste de la main du pilote sur la surface tactile 14 du système. Cette combinaison d'interactions physiques (oeil et main) entre le pilote et le cockpit permet ainsi d'activer, simplement par le regard, une zone d'activation/élément d'intérêt (objet.) et, ensuite, d'accéder à des informations et/ou à une ou plusieurs fonctions par une action complémentaire telle qu'un ou plusieurs gestes spécifiques nécessitant peu de précision. Cette combinaison est très efficace puisqu'elle permet de faciliter l'accomplissement de tâches par le pilote en mobilisant une attention moindre pour effectuer certaines tâches qui nécessitent peu de précision dans les gestes. Ainsi, le pilote peut consacrer une attention plus soutenue à d'autres tâches qui nécessitent plus de concentration et /ou plus de précision dans les gestes. Ce processus d'activation libère ainsi la charge attentionnelle du pilote, ce qui se traduit par un gain de temps pour l'accomplissement d'autres tâches. Le fait de ne pas nécessiter de précision et donc une attention soutenue pour accomplir la tâche d'activation (S5) et sa validation (S6) est avantageux dans un environnement vibratoire tel qu'un cockpit d'aéronef. En effet, les vibrations qui se produisent dans un cockpit imposent normalement au pilote une attention soutenue pour accomplir un geste conventionnel (appui sur bouton...).
La réalisation par le pilote d'actions complémentaires (S8, S10, S11, S12, S13...) exige relativement peu de précision dans les gestes, voire aucune, ce qui, là encore, s'avère avantageux dans un environnement vibratoire.
Toutefois, les étapes visées ci-dessus qui concernent une action complémentaire ou au moins certaines d'entre elles peuvent être réalisées différemment. A titre d'exemple, la réalisation d'une ou de plusieurs de ces étapes par le pilote peut prendre notamment l'une des formes suivantes : un geste dans l'espace (grâce à des capteurs placés sur les mains ou l'une des mains du pilote comme déjà décrit brièvement ; le geste est un geste prédéfini parmi un ensemble ou une bibliothèque de gestes prédéfinis), - une pression sur une touche d'un clavier ou sur une pédale, - l'activation (« click ») d'une souris, d'un dispositif qu'un KCCU (acronyme signifiant en terminologie anglo-saxonne « Keyboard Cursor Control Unit ») ou d'un dispositif de pointage, l'émission d'un ou de plusieurs sons prédéfinis parmi un ensemble ou une bibliothèque de sons prédéfinis (ex :voix d'un membre de l'équipage, le déplacement d'un potentiomètre, - une durée prédéterminée de fixation du regard du pilote sur la zone d'activation concernée, sur l'élément d'intérêt ou une zone plus spécifique de celui-ci telle que la zone Z1 de la figure 5f, - le temps de présence d'une main du pilote sur la zone d'activation concernée, sur l'élément d'intérêt ou une zone plus spécifique de celui-ci telle que la zone Z1 de la figure 5f. La réalisation par le pilote de ces étapes procure les mêmes avantages 25 que ceux énoncés ci-dessus (geste nécessitant peu de précision, mouvement généralement relatif et non absolu, gain de temps...). La forme de réalisation d'une ou de plusieurs de ces étapes par le pilote peut par exemple être suggérée par l'affichage d'informations ou de symboles adaptés sur ou à côté de l'élément d'intérêt activé. Plusieurs 30 possibilités d'interaction peuvent notamment être proposées au pilote. On peut envisager d'autres manières d'interagir avec la zone d'activation concernée, l'élément d'intérêt ou une zone plus spécifique de celui-ci pour réaliser de telles étapes.
On notera que deux unités de détermination de la position du regard du pilote 12 ont été représentées sur la figure 2. Toutefois, dans une variante non représentée une seule unité 12 peut être utilisée en face du siège du pilote P1. De même, la surface tactile 14 peut être réduite dans son étendue afin de ne servir qu'au pilote P1. Dans les exemples décrits ci-dessus, l'activation d'une zone d'activation prend la forme d'une mise en valeur du contour de la zone (contour d'un écran, cercle entourant un élément d'intérêt...). 10 Toutefois, toute autre symbolique de mise en valeur de la zone d'activation est envisageable, de même que l'émission d'un signal sonore couplé ou non à l'activation visuelle de la zone. On notera également que l'élément d'intérêt d'une zone d'activation peut, selon certaines circonstances, notamment de visibilité, être positionné à 15 côté du dessin, symbole, contour... matérialisant cette zone. Après activation d'une zone d'activation/d'un élément d'intérêt, le pilote accède à des informations et/ou à une ou plusieurs fonctions/ actions possibles associées à l'élément d'intérêt activé. Ces fonctions/actions possibles peuvent consister par exemple à obtenir des informations, communiquer, 20 sélectionner (mette en valeur), suivre une trajectoire, éviter un obstacle ou un évènement météo (tel qu'un orage violent...), définir un point d'atterrissage, inclure dans un plan de vol un point de passage tel que les points d'entrée et de sortie des segments ETOPS. Selon une variante, l'étape S7 de la figure 3 peut donner lieu à 25 l'affichage de plusieurs éléments d'interface visuelle primaires. Les étapes de sélection d'un élément d'interface visuelle primaire parmi la pluralité d'éléments et de validation sont alors réalisées de manière distincte et consécutive et non plus simultanées. Selon un autre mode de réalisation illustré à la figure. 7un système 30 d'interaction 100 entre un pilote d'aéronef et son environnement comprend : - au moins une unité 110 de détermination de façon répétée au cours du temps de la position spatiale d'une main ou des mains du pilote, - une zone d'activation 116 (du cockpit) comportant un élément d'intérêt El lié au cockpit ou à son environnement extérieur et qui est activable par interaction d'une main du pilote avec celle-ci (cette zone s'affiche par exemple sur une surface d'affichage du cockpit tel qu'un écran ou le pare- brise du cockpit), - une unité de traitement de données 118 qui est apte à recevoir des données de position spatiale transmises par l'unité ou les unités 110 de détermination de la position spatiale d'une main ou des mains du pilote, à les traiter et, en fonction du traitement, à fournir ou non un signal d'activation S de l'élément d'intérêt El de la zone d'activation. Ce signal est destiné à activer l'élément d'intérêt, ce qui permet d'informer le pilote sur la disponibilité d'interaction ultérieure avec cet élément d'intérêt. Le système 100 est destiné à être intégré dans un cockpit d'aéronef tel que celui de la figure 2. Dans le présent mode de réalisation, les écrans 16a-n 15 de la figure 2 comportent des éléments d'intérêt Eh1-n entourés chacun par une zone d'activation 116. Ces écrans sont ici des surfaces tactiles. On notera que la ou les unités de détermination de la position spatiale d'une main ou des mains du pilote peuvent comprendre des capteurs placés sur la ou les mains du pilote. Par exemple, il peut s'agir de gants permettant 20 l'acquisition des gestes de la main (utilisant par exemple une structure d'exosquelette ou de l'encre conductrice ou bien de la fibre optique). Comme pour le mode de réalisation de la figure 2, un espace de stockage 119 identique à l'espace 19 est prévu pour mémoriser les différentes zones d'activation (zones référencées) du cockpit et leurs coordonnées. 25 De la même façon, des données D provenant de différents dispositifs de l'aéronef sont transmises à l'unité 118 pour pouvoir positionner sur une surface d'affichage liée au cockpit des éléments d'intérêt représentatifs d'objets extérieurs à celui-ci. Le système d'interaction peut fonctionner par interaction de la main du 30 pilote avec la zone d'activation afin de l'activer. Les figures 8a-d illustrent un exemple de réalisation d'une interaction physique entre une main M du pilote et un écran 120 du cockpit qui comprend une zone d'activation 122.
Comme représenté sur la figure 8a, aucun affichage n'est visible sur l'écran lorsque le pilote n'interagit pas par la main avec celui-ci. Sur la figure 8b, le pilote approche sa main M de l'écran. La position de cette main, déterminée par l'unité 110, est transmise à l'unité de traitement 118 qui la compare à la position connue de la zone d'activation 122. Dans l'exemple décrit la position déterminée de la main est à une distance de la zone d'activation 122 qui est inférieure ou égale à une distance seuil prédéfinie. Pour cette distance ou en-dessous de celle-ci, l'activation de la zone d'activation 122 est automatiquement déclenchée par l'envoi d'un signal d'activation S à cette zone. L'activation a pour effet d'allumer la zone d'activation (figure 8b) et ainsi de faire apparaître l'affichage d'un élément d'intérêt El activé. La validation de cet élément d'intérêt activé est effectuée de façon très simple par un geste du pilote qui touche avec sa main l'élément d'intérêt El (figure 8c). Comme représenté sur les figures 8c et 8d, la pression de la main M sur l'élément d'intérêt modifie l'éclairage d'une partie de cet élément d'intérêt, confirmant ainsi l'opération de validation. Le pilote écarte ensuite sa main de l'écran.
A titre d'exemple, la distance seuil entre l'écran 120 et la main M correspond à la taille de l'élément d'intérêt de la zone d'activation et, par exemple à sa plus grande dimension. Les autres étapes du procédé de la figure 3 décrites ci-dessus (actions complémentaires) et qui concernent (après activation de la zone d'activation/l'élément d'intérêt) l'accès par le pilote à des informations et/ou à une ou plusieurs fonctions/ actions possibles associées à l'élément d'intérêt activé s'appliquent également dans ce mode réalisation. La manière d'interagir avec l'élément d'intérêt pour accéder à ces informations et/ou fonctions/actions peut être réalisée comme indiqué ci-dessus pour le mode de réalisation des figures précédentes. En particulier les actions complémentaires peuvent être réalisées par l'intermédiaire d'une surface tactile telle que la surface 14. Alternativement, les autres méthodes présentées ci-dessus comme alternatives pour le premier mode de réalisation peuvent s'appliquer.
Alternativement, la position des mains du pilote peut être déterminée par une caméra, notamment pour la détermination de la proximité de la main avec la zone d'activation et son activation. Selon une autre variante de réalisation non représentée, le système 5 d'interaction 100 comporte également une unité de détermination de la position spatiale des yeux du pilote identique à l'unité 12 de la figure 1. Une telle unité est utilisée pour déterminer une ou plusieurs actions complémentaires du pilote après activation et validation de la zone de validation 122, comme expliqué ci-dessus en référence aux figures 8a-d. 10

Claims (18)

  1. REVENDICATIONS1. Procédé d'interaction dans un cockpit d'aéronef (C) entre un pilote (P1) et son environnement, caractérisé en ce que le cockpit comprend au moins une zone d'activation (16) qui comporte un élément d'intérêt (El) lié au cockpit ou à son environnement extérieur et qui est activable à partir de l'interaction d'au moins un organe mobile (oeil, main...) du corps du pilote avec ladite au moins une zone d'activation, le procédé comprenant les étapes suivantes : - détermination (S2) de façon répétée au cours du temps de la position spatiale d'au moins un organe mobile (oeil, main...) du corps du pilote, - comparaison (S3) entre la position spatiale déterminée et la position spatiale de ladite au moins une zone d'activation afin de déterminer s'il y a interaction entre ledit au moins un organe mobile du pilote et ladite au moins une zone d'activation, en fonction du résultat de la comparaison, décision d'activation (S5) ou de non activation (S4) de l'élément d'intérêt de ladite au moins une zone d'activation en vue d'informer le pilote sur la disponibilité d'interaction ultérieure avec ledit élément d'intérêt.
  2. 2. Procédé selon la revendication 1, caractérisé en ce que, en cas de décision d'activation (S5) de l'élément d'intérêt de ladite au moins une zone d'activation, le procédé comporte les étapes suivantes : validation (S6) par le pilote de l'élément d'intérêt activé, - affichage (S7) d'un ou de plusieurs éléments d'interface visuelle permettant d'accéder à des informations et/ou des actions possibles relatives à l'élément d'intérêt activé.
  3. 3. Procédé selon la revendication 2, caractérisé en ce que l'étape d'affichage (S7) précitée est une première étape d'affichage d'un ou de plusieurs éléments d'interface visuelle dits primaires, le procédé comportant une deuxième étape d'affichage (S9) de plusieurs éléments d'interface visuelle dits secondaires qui permettent d'accéder à des informations et/ou des actions possibles relatives à l'élément d'intérêt activé.
  4. 4. Procédé selon la revendication 2 ou 3, caractérisé en ce qu'il comporte une étape de sélection par le pilote (S8, S10) d'un des éléments d'interface visuelle.
  5. 5. Procédé selon l'une des revendications 2 à 4, caractérisé en ce que 5 l'affichage d'élément(s) d'interface visuelle est effectué à une distance maximale de l'élément d'intérêt activé qui correspond à la taille dudit élément d'intérêt activé.
  6. 6. Procédé selon l'une des revendications 2 à 5, caractérisé en ce qu'il comporte une étape de comparaison de l'élément d'intérêt activé avec une 10 pluralité d'éléments d'intérêt de référence et pour chacun desquels des informations sont disponibles et/ou des actions sont possibles.
  7. 7. Procédé selon l'une des revendications 2 à 6, caractérisé en ce que la sélection par le pilote d'au moins un élément d'interface visuelle autorise l'accès à la modification d'au moins un élément d'informations relatif à 15 l'élément d'intérêt activé.
  8. 8. Procédé selon la revendication 7, caractérisé en ce qu'il comporte une étape de modification (S12) par le pilote dudit au moins un élément d'informations.
  9. 9. Procédé selon la revendication 7 ou 8, caractérisé en ce qu'il 20 comporte une étape de validation (S13) par le pilote de la modification dudit au moins un élément d'informations effectuée.
  10. 10. Procédé selon la revendication 9, caractérisé en ce que la validation de la modification est possible tant que ledit au moins un organe mobile du corps du pilote interagit avec l'élément d'intérêt activé. 25
  11. 11. Procédé selon l'une des revendications 1 à 10, caractérisé en ce que, préalablement à l'interaction dudit au moins un organe mobile (oeil, main...) du corps du pilote avec ladite au moins une zone d'activation, le procédé comporte une étape d'affichage d'informations indiquant au pilote le ou les éléments d'intérêt liés au cockpit ou à son environnement avec lesquels 30 une interaction ultérieure est possible.
  12. 12. Procédé selon la revendication 11, caractérisé en ce que les informations sont affichées à une distance maximale du ou de chaque élément d'intérêt activé qui correspond à la taille dudit élément d'intérêt activé.
  13. 13. Système d'interaction dans un cockpit d'aéronef (C) entre un pilote et son environnement, caractérisé en ce que le système d'interaction (10 ; 100) comprend : une ou plusieurs unités de détermination (12 ; 110) de la position spatiale d'au moins un organe mobile (oeil, main...) du corps du pilote, au moins une zone d'activation (16, 16a-n ; 116) comportant un élément d'intérêt (El, Eh-n) lié au cockpit ou à son environnement extérieur et qui est activable à partir de l'interaction dudit au moins un organe mobile du corps du pilote avec ladite au moins une zone d'activation, une unité de traitement de données (18 ; 118) qui est apte à comparer la position spatiale déterminée et la position spatiale de ladite au moins une zone d'activation du cockpit afin de déterminer s'il y a interaction entre ledit au moins un organe mobile du pilote et ladite au moins une zone d'activation, l'unité de traitement de données étant également apte à décider d'activer ou de ne pas activer l'élément d'intérêt de ladite au moins une zone d'activation en vue d'informer le pilote sur la disponibilité d'interaction ultérieure avec ledit élément d'intérêt.
  14. 14. Système selon la revendication 13, caractérisé en ce que la ou les unités de détermination comprennent un ou plusieurs occulomètres (12) et/ou une ou plusieurs unités de détermination (110) destinées à déterminer la position d'une main d'un pilote.
  15. 15. Système selon la revendication 13 ou 14, caractérisé en ce qu'il comprend un dispositif de détection (14) configuré pour détecter notamment une action de sélection et/ou de validation et/ou de confirmation de la part du pilote.
  16. 16. Système selon l'une des revendications 13 à 15, caractérisé en ce qu'il comprend au moins une surface d'affichage (16a-n) sur laquelle s'affiche ladite au moins une zone d'activation qui comporte un élément d'intérêt lié au cockpit ou à son environnement.
  17. 17. Système selon l'une des revendications 13 à 16, caractérisé en ce qu'il comprend des moyens d'affichage d'un ou de plusieurs éléments d'interface visuelle permettant d'accéder à des informations et/ou des actions possibles relatives à l'élément d'intérêt activé.
  18. 18. Cockpit d'aéronef, caractérisé en ce qu'il comprend un système d'interaction (10 ; 100) entre un pilote et son environnement selon l'une quelconque des revendications 13 à 17.
FR1353808A 2013-04-26 2013-04-26 Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement Expired - Fee Related FR3005173B1 (fr)

Priority Applications (3)

Application Number Priority Date Filing Date Title
FR1353808A FR3005173B1 (fr) 2013-04-26 2013-04-26 Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement
US14/261,858 US9360673B2 (en) 2013-04-26 2014-04-25 Interaction method in an aircraft cockpit between a pilot and his environment
CN201410175380.2A CN104118568B (zh) 2013-04-26 2014-04-28 飞行器驾驶舱中飞行员与其环境之间的交互方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1353808A FR3005173B1 (fr) 2013-04-26 2013-04-26 Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement

Publications (2)

Publication Number Publication Date
FR3005173A1 true FR3005173A1 (fr) 2014-10-31
FR3005173B1 FR3005173B1 (fr) 2015-04-10

Family

ID=48699119

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1353808A Expired - Fee Related FR3005173B1 (fr) 2013-04-26 2013-04-26 Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement

Country Status (3)

Country Link
US (1) US9360673B2 (fr)
CN (1) CN104118568B (fr)
FR (1) FR3005173B1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3057685A1 (fr) * 2016-10-13 2018-04-20 Thales Procede de designation et d'affichage d'informations dans un systeme de visualisation comportant une pluralite d'ecrans

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3005824B1 (fr) * 2013-05-16 2015-06-19 Airbus Operations Sas Gestion distribuee des communications bord-sol dans un aeronef
JP6633460B2 (ja) * 2015-09-04 2020-01-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 通知方法、通知装置及び端末
US9864194B2 (en) * 2015-11-24 2018-01-09 Honeywell International Inc. Systems and methods for displaying FOV boundaries on HUDs
FR3061321B1 (fr) * 2016-12-27 2019-05-10 Thales Procede d'edition de valeurs de parametres, notamment de frequences radio, a commande oculaire
FR3076387B1 (fr) * 2018-01-04 2020-01-24 Airbus Operations Procede et systeme d'aide a la gestion de listes de commandes sur un aeronef.
US11960644B2 (en) * 2021-08-05 2024-04-16 Rockwell Collins, Inc. System and method for gaze and pose detection to anticipate operator intent

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6526159B1 (en) * 1998-12-31 2003-02-25 Intel Corporation Eye tracking for resource and power management
EP1484665A2 (fr) * 2003-05-30 2004-12-08 Microsoft Corporation Procédés et systèmes d'évaluation de la posture de la tête
US20080231634A1 (en) * 2007-03-22 2008-09-25 Honeywell International, Inc. Intuitive modification of visual output from a multi-function display
US20110109574A1 (en) * 2009-11-06 2011-05-12 Cipriano Barry V Touch-Based User Interface Touch Sensor Power
US20120120247A1 (en) * 2010-11-16 2012-05-17 Ming-Tsan Kao Image sensing module and optical signal processing device
EP2530564A2 (fr) * 2011-06-01 2012-12-05 Thales Système tactile a émetteurs et recepteurs optiques

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0830380A (ja) * 1994-05-10 1996-02-02 Minolta Co Ltd 表示装置
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
EP1603011B1 (fr) * 2004-06-01 2008-02-27 Swisscom Mobile AG Économie d'énergie dans un dispositif d'entrée de coordonnées
DK2202609T3 (en) * 2004-06-18 2016-04-25 Tobii Ab Eye control of computer equipment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6526159B1 (en) * 1998-12-31 2003-02-25 Intel Corporation Eye tracking for resource and power management
EP1484665A2 (fr) * 2003-05-30 2004-12-08 Microsoft Corporation Procédés et systèmes d'évaluation de la posture de la tête
US20080231634A1 (en) * 2007-03-22 2008-09-25 Honeywell International, Inc. Intuitive modification of visual output from a multi-function display
US20110109574A1 (en) * 2009-11-06 2011-05-12 Cipriano Barry V Touch-Based User Interface Touch Sensor Power
US20120120247A1 (en) * 2010-11-16 2012-05-17 Ming-Tsan Kao Image sensing module and optical signal processing device
EP2530564A2 (fr) * 2011-06-01 2012-12-05 Thales Système tactile a émetteurs et recepteurs optiques

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3057685A1 (fr) * 2016-10-13 2018-04-20 Thales Procede de designation et d'affichage d'informations dans un systeme de visualisation comportant une pluralite d'ecrans

Also Published As

Publication number Publication date
CN104118568B (zh) 2017-09-19
CN104118568A (zh) 2014-10-29
US20140320321A1 (en) 2014-10-30
US9360673B2 (en) 2016-06-07
FR3005173B1 (fr) 2015-04-10

Similar Documents

Publication Publication Date Title
FR3005173A1 (fr) Procede d'interaction dans un cockpit d'aeronef entre un pilote et son environnement
CA2780410C (fr) Interface graphique pour l'affichage de diagrammes a secteurs
EP2524294B1 (fr) Procede de selection d'un element d'une interface utilisateur et dispositif mettant en oeuvre un tel procede.
KR101554082B1 (ko) 자연스러운 제스처 기반 사용자 인터페이스 방법 및 시스템
EP2778885B1 (fr) Procédé de traitement d'un geste composé, dispositif et terminal d'utilisateur associés
EP3014411B1 (fr) Navigation dans une interface d'utilisateur
EP3221781B1 (fr) Interface graphique et procede de gestion de l'interface graphique lors de la selection tactile d'un element affiche
FR2983600A1 (fr) Procede et systeme de surveillance d'une interface graphique dans un cockpit d'aeronef
EP2936190B1 (fr) Procédé de réglage d'un secteur de vision/masquage d'un dispositif de scrutation d'environnement, dispositif de réglage et terminal d'opérateur correspondants
EP3221780B1 (fr) Interface graphique et procede de gestion de l'interface graphique lors de la selection tactile d'un element affiche
FR3089672A1 (fr) Procédé et système d’affichage et d’interaction embarqué dans une cabine de pilotage
EP2811465B1 (fr) Système de vidéosurveillance
EP3074842B1 (fr) Poste de contrôle de drones
WO2021197689A1 (fr) Procede et dispositif pour gerer des appuis multiples sur une surface tactile
US20170277269A1 (en) Display control device, display control method, and non-transitory computer-readable recording medium
CA2919787A1 (fr) Systeme de programmation d'un systeme d'analyse de situation embarque sur un porteur comportant au moins un systeme d'ecoute embarque
CA2865628C (fr) Procede et interface tactile de commande d'un equipement ou d'une fonction protege
EP2886173B1 (fr) Superposition de réalité augmentée pour dispositifs d'entrée
FR3112005A1 (fr) Systeme et procede de gestion d’affichage d’une carte aeronautique
FR3099749A1 (fr) Procede de controle d'un ensemble de systemes avioniques, produit programme d'ordinateur et systeme associes
WO2015082817A1 (fr) Procédé de commande de l'interaction avec un écran tactile et équipement mettant en oeuvre ce procédé
FR3012634A1 (fr) Terminal d'operateur d'un systeme de mission du type comportant une console munie d'au moins deux ecrans d'affichage et procede d'affichage associe
EP3114539A1 (fr) Procédé de contrôle d'une pluralité de mobiles autonomes sans pilote
FR2989486A1 (fr) Systeme pour designer et activer une cible dans une scene de l'environnement visuel d'un operateur
EP2947550A1 (fr) Dispositif et procédé de commande par reconnaissance gestuelle

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

ST Notification of lapse

Effective date: 20231205